Prévia do material em texto
Educ. Soc., Campinas, v. 46, e296750, 2025 1 RESUMO: O artigo problematiza, a partir de uma abordagem filosófica, as repercussões da Inteligência Artificial (IA) para a ética em educação. Contextualiza a posição oscilante da IA entre uma entusiasmada recepção e um reconhecimento crítico de seu provável potencial destrutivo. Na sequência, indica as transformações produzidas que interferem no modo de fazer experiência e interpreta como estas afetam a formação do sujeito, em relação ao saber ético e à capacidade de escolha, a partir do conceito grego de phronesis e do conceito moderno de consciência. Conclui que a reflexão ética deve superar o risco de situar a autocompreensão humana no horizonte da técnica. A ética se vincula no âmbito da experiência, exige phronesis e não há nenhum cálculo confiável a oferecer. Palavras-chave: Inteligência artificial. Ética. Formação. Phronesis. ETHICS AND ARTIFICIAL INTELLIGENCE: WHAT IS DISQUIETING? ABSTRACT: The article discusses, from a philosophical approach, the repercussions of Artificial Intelligence (AI) on the ethics of education. It contextualizes the oscillating position of AI between enthusiastic reception and critical recognition of its probable destructive potential. It then points out the transformations that have taken place that interfere with the way we experience and interpret how it affects the formation of the subject, in relation to ethical knowledge and the capacity for choice, based on the Greek concept of phronesis and the modern concept of conscience. It concludes that ethical reflection must overcome the risk of placing human self-understanding on the horizon of technology. Ethics is situated in the realm of experience, requires phronesis and offers no reliable calculation. Keywords: Artificial intelligence. Ethics. Education. Phronesis. ÉTICA E INTELIGENCIA ARTIFICIAL:¿CUALES INQUIETUDES? RESUMEN: El artículo aborda, desde un enfoque filosófico, las repercusiones de la Inteligencia Artificial (IA) en la ética de la educación. Contextualiza la posición oscilante de la IA entre una recepción entusiasta y un reconocimiento crítico de su probable potencial destructivo. A continuación, señala las transformaciones producidas que interfieren en la forma de experimentar e interpreta cómo afecta a la formación del sujeto, en relación con el saber ético y la capacidad de elección, ÉTICA E INTELIGÊNCIA ARTIFICIAL: O QUE INQUIETA? Nadja Hermann1 https://doi.org/10.1590/ES.296750 DOSSIÊ | INTELIGÊNCIA ARTIFICIAL, ÉTICA E EDUCAÇÃO 1. Pesquisadora autônoma – Porto Alegre (RS), Brasil. E-mail: nadjamhermann@gmail.com Editores de seção: Antônio A. Soares Zuin e Pedro Goergen https://creativecommons.org/licenses/by/4.0/deed.pt-br https://orcid.org/0000-0003-3823-7057 https://doi.org/10.1590/ES.296750 https://creativecommons.org/licenses/by/4.0/deed.pt-br https://orcid.org/0000-0002-6850-2897 https://orcid.org/0000-0001-9539-9752 ÉTICA E INTELIGÊNCIA ARTIFICIAL: O QUE INQUIETA? Educ. Soc., Campinas, v. 46, e296750, 20252 a partir del concepto griego de phronesis y del concepto moderno de conciencia. Concluye que la reflexión ética debe superar el riesgo de situar la autocomprensión humana en el horizonte de la técnica. La ética se vincula al ámbito de la experiencia, exige phronesis y no hay ningún cálculo fiable que ofrecer. Palabras clave: Inteligencia artificial. Ética. Formación. Phronesis. E era preciso optar. Cada um optou conforme seu capricho, sua ilusão, sua miopia. Carlos Drummond de Andrade (2003, p. 1.240) A Inteligência Artificial e a Vertigem C om uma presença massiva e perturbadora em diferentes dimensões da vida, a Inteligência Artificial (IA), uma tecnologia desenvolvida a partir dos sistemas de computador para realizar tarefas que normalmente requerem inteligência humana, trouxe inquietações éticas, sobretudo pela natureza das mudanças que provocam na subjetividade e nas relações dos homens com o outro e com o mundo. Os efeitos desse engenho oscilam entre benéficos e problemáticos, evidenciados pelo amplo espectro de reações que inclui desde a mais entusiasmada adesão, o inebriamento reinante no ambiente técnico-científico e cultural dada sua incontestável utilidade e poder transformador, passando por um duvidoso determinismo até alcançar o reconhecimento crítico de um provável potencial destrutivo. Se até pouco tempo a IA era um projeto que ocupava engenheiros e programadores, a criação do ChatGPT (novembro de 2022), uma ferramenta baseada em modelo de linguagem desenvolvido pela OpenAI, impulsionou o tema para um animado debate público. A IA, popularizada rapidamente, se encontra no bojo de profundas transformações no campo da informação, cuja virada teve início com o uso de sistemas de computação na década de 1950. A grande mudança, segundo Luciano Floridi (Leite, 2023, n.p.), se refere à transformação de ideias “em fenômenos que fazem a diferença no dia a dia de bilhões de pessoas”. Ao transformar a realidade, a IA cria novas formas de agir e de interagir. Ela opera com máquinas de aprendizagem e aprendizagem profunda (ou seja, se autotreina e melhora seu desempenho), baseada em redes neurais e no cálculo de probabilidades, sendo capaz de absorver um conjunto quase ilimitado de dados obtidos no corpus de informações e obras digitalizadas na internet, em escala muitíssimo superior do que os humanos podem analisar. Os dados são processados por meio de algoritmos (regras que orientam a análise e a tomada de decisão) integrados em sistemas complexos de computação. A partir desses processos, a IA, utilizada em outros artefatos tecnológicos – smartphones, aplicativos de conversas, mecanismos de busca e redes sociais –, cria imagens, filmes, animações e fotos “realistas”, textos e discursos; altera e adapta voz; faz resumos de obras; processa linguagem natural (compreensão automática de fala, escrita e tradução); realiza cálculos matemáticos; gera modelagens de performance; faz previsões diversas tanto de fenômenos naturais e sociais como de comportamentos individuais; enfim, produz tudo aquilo que nos chega, sobretudo, pelas redes sociais e invade tanto o trabalho, a escola, a universidade, a medicina, a indústria, a segurança, a arte como diversas tarefas cotidianas. Presente em todos os âmbitos da vida, sua presença se tornou imperiosa. Contudo, a chegada ruidosa do ChatGPT gerou críticas ao próprio nome inteligência artificial, devido a confusões conceituais. Os neurocientistas explicam que a inteligência é uma propriedade da vida https://creativecommons.org/licenses/by/4.0/deed.pt-br Educ. Soc., Campinas, v. 46, e296750, 2025 Hermann N 3 que começou há bilhões de anos e se encontra em organismos vivos complexos, não podendo ser artificial. Igualmente, o uso da expressão redes neurais para se referir à IA é considerada uma apropriação indevida, pois elas são incomparáveis com a capacidade do cérebro em fazer conexões com bilhões de neurônios que produzem a mente humana. Um componente altamente complexo e plástico não pode ser reduzido a um sistema operacional abstrato. A inteligência é complementada pelo cérebro e pela mente, que é consciente, atravessada por emoções, sentimentos, experiência, memória – incluindo, inclusive, o inconsciente. Por fim, a ideia de que a IA superaria a inteligência humana implica uma visão extremamente simplista, não só da inteligência, mas de sua relação com a mente e com o pensamento. A inteligência artificial opera com modelos matemáticos abstratos de cognição que se integram às máquinas e podem manipular formalmente símbolos e construir significados sociais, que são úteis para inúmeras atividades. Apesar disso, a IA apresenta limites operacionais, pois os algoritmos tendem a reforçar preconceitos, ideologias e distorcer a realidade; e limites estruturais, pois simulam comportamentos humanos, sem aprender as faculdades psíquicas e espirituais do homem, irredutíveis a cálculos, medição matemática ouobservação empírica. Esse modo de compreender a inteligência é um novo dualismo, que separa a mente do corpo num movimento contrário às teorias mais consistentes para a compreensão da mente, da vida psíquica e da ação humana, como ensinaram Spinoza, Nietzsche e Merleau-Ponty1. Daí a euforia inapropriada tanto em relação à criação de um upload cerebral, um cérebro que poderia ser escaneado e modelado em um software2 para um novo hardware, uma identidade descorporificada; quanto à distopia de uma inteligência que seria superior à inteligência humana, como nos cenários propostos por Ray Kurzweil (2010). De acordo com tal proposta, alcançaríamos a “singularidade”, o ponto temporal em que as tecnologias “terão um papel transformador”, isto é, a “ascensão exponencial da interação entre a biologia humana com a tecnologia que criamos” (Ray Kurzweil, 2010, n.p.); uma alteração tão profunda a respeito do que hoje entendemos por humano, “que nós não compreenderíamos o que está acontecendo” (Coeckelbergh, 2023, p. 22). Além das críticas à inadequação do nome e às projeções de uma superinteligência, com sua poderosa capacidade de manejar a língua e produzir textos, a IA requer atenção e uma capacidade intelectual apurada do usuário, pois infere informações a partir de uma base estatística e probabilística, que traz falsidades e imprecisões, chegando até a produzir resultados absurdos (conhecidos como alucinação) que não correspondem aos cuidados próprios de uma inteligência sensível e contextualizada, de uma mente consciente. Há qualidades na linguagem humana que os chatbots (aplicativos de conversas) dificilmente conseguirão reproduzir, apesar do coro animado de alguns estudiosos a respeito das inumeráveis virtudes da IA. Para refinar a precisão conceitual, Floridi (Instituto Humanitas Unisinos, 2020) sintetizou a questão, afirmando: Mais seriamente, a inteligência artificial (IA) é um oximoro. Tudo o que é verdadeiramente inteligente nunca é artificial, e tudo o que é artificial nunca é inteligente. A verdade é que, graças às extraordinárias invenções e descobertas, as sofisticadas técnicas estatísticas, a queda do custo da computação e a imensa quantidade de dados disponíveis, hoje, pela primeira vez na história da humanidade, somos capazes de realizar em escala industrial artefatos capazes de resolver problemas ou executar tarefas com sucesso, sem a necessidade de serem inteligentes. Esse descolamento é a verdadeira revolução. Ou seja, a IA não possui ainda consciência nem a capacidade humana de criação, de interioridade e, menos ainda, de pensamento, mas pode fazer inúmeras tarefas que até pouco tempo só seres humanos realizavam. A respeito desse tema, o filósofo da mente David Chalmers reconhece que há dificuldades em https://creativecommons.org/licenses/by/4.0/deed.pt-br ÉTICA E INTELIGÊNCIA ARTIFICIAL: O QUE INQUIETA? Educ. Soc., Campinas, v. 46, e296750, 20254 considerar conscientes modelos de linguagem como a IA, mas se tal situação algum dia acontecer – uma vez que não descarta essa possibilidade –, surgirão imensos desafios éticos, como questões de governança, equidade, segurança, veracidade, justiça e responsabilidade (Chalmers, 2023). Não seria exagero afirmar que o debate atual sobre IA revela as diferentes interpretações teóricas a respeito da natureza do ser humano, da inteligência, da mente, da consciência e de outros temas afins. Há ainda muita neblina no horizonte. Vivemos um momento de profundas mudanças, sendo forçoso reconhecer que a IA tem um papel significativo nessas transformações à medida que altera a forma como fazemos as coisas e as interações sociais. Isso igualmente ocorreu em outros períodos históricos com a invenção da imprensa, do telégrafo, do telefone e muitos outros artefatos tecnológicos. No entanto, há um aspecto novo trazido pela IA, pelo fato de ela expressar o topos do desenvolvimento científico e tecnológico, a inflexão fáustica de uma técnica que se agiganta e que, longe de ser apenas um instrumento que facilita a vida humana, situa-se num horizonte que interfere no modo de fazer experiência, gerando uma reviravolta pela qual passa a dispor do ser humano (Galimberti, 2006). A tecnologia produz impacto no próprio modo de ser de todos os que a utilizam, sendo ilusória a pretensão de que a controlaríamos; ao contrário, ela nos subjetiva, direciona e captura nossas próprias escolhas. Ela nos dominará? Seria nosso novo ferimento narcísico? Como afeta a formação ética? A complexidade gerada pela técnica em geral e pela IA, em particular, se mostra nas implicações sociais, políticas, psíquicas, educacionais e éticas, exigindo do pensamento um escrutínio de tal situação. Assim, à inicial vertigem interpõe-se a disposição para o árduo trabalho do pensamento, de modo a tornar suas implicações mais esclarecidas e possibilitar um manejo adequado de seus efeitos. Nessa perspectiva, o presente ensaio pretende analisar tais implicações na educação, indicando, num primeiro passo, que a técnica produz transformações que alteram nossa existência, para, num segundo momento, interpretar o modo pelo qual a IA afeta a formação do sujeito – em relação ao saber que orienta o agir humano e à capacidade de escolha –, a partir do conceito grego de phronesis e do conceito moderno de consciência. O Impacto da Técnica Antes de prosseguir especificamente sobre a IA e suas implicações éticas na educação, analisemos um exemplo a respeito das transformações que inovações científicas e tecnológicas provocam, recuando ao século 16 pelo benefício hermenêutico do distanciamento histórico. Vou valer-me de uma obra literária, pois a arte é sempre um testemunho crítico de seu tempo, um sismógrafo a captar as transformações em curso. É nos seiscentos que a epopeia Os Lusíadas (publicada originalmente em 1572), de Luís Vaz de Camões, imortaliza os feitos portugueses que conduzem à descoberta do caminho marítimo para a Índia. Na obra encontra-se o episódio narrado por um homem do povo, o Velho do Restelo, contraditório em relação à própria obra, pois se esta faz a apologia da façanha do povo lusitano seguindo os moldes clássicos das epopeias, aquele traz o questionamento das navegações e da política expansionista, o que permite interpretá-lo como a própria consciência crítica de Camões (D’Onofrio, 1970) opondo-se ao empreendimento marítimo – uma tecnologia de navegação, que dependeu do conhecimento náutico e da adoção de instrumentos tecnológicos – na medida em que reconhece nele a busca de expansão territorial, de fama e de glória. Descrito pelo “aspecto venerando” e “com um saber só de experiência feito” (Camões, 2002, p. 138), o Velho do Restelo faz jus à tradição, segundo a qual “quem faz dissertações de ordem filosófica ou moral é quase sempre um velho, que fala em nome da experiência da vida” (D’Onofrio, 1970, p. 76). A reprovação ética cantada nos versos problematiza a capacidade de avaliar as consequências das ações humanas e de seus https://creativecommons.org/licenses/by/4.0/deed.pt-br Educ. Soc., Campinas, v. 46, e296750, 2025 Hermann N 5 engenhos, em contraposição ao encantamento, à vaidade, ao poder e às ilusões. Na estrofe 97, Canto IV, Camões (2002, p. 139), põe em dúvida o valor épico da expedição marítima: A que novos desastres determinas De levar estes Reinos e esta gente? Que perigos, que mortes lhe destinas Debaixo dalgum nome preminente? Que promessas de reinos e de minas De ouro, que lhe farás tão fàcilmente? Que famas lhe prometerás? que histórias? Que triunfos? que palmas? que vitórias? As navegações marítimas do século 16, como toda a tecnologia, produziram conhecimentos, profundas transformações nas relações de poder, outra compreensão do mundo, um tempo novo. Mas o simbolismo das interrogações de Camões contém um alerta a respeito dos efeitos indesejados dessa nova técnica, cujos ecos se estendem ao longo período de domínio colonial nas Américas, no extermínio de populações nativas,na imposição de religião e de idioma, na exploração dos minérios e da terra, no tráfico negreiro. Assim como os navegadores do século 16 ultrapassaram uma fronteira, um limite de visão de mundo e de sua cosmologia, nós, no século 21, estamos ultrapassando as fronteiras que demarcam os limites da relação entre homens e máquinas, o horizonte no qual situamos nosso pensar. Passados tantos séculos, a navegação atual – não a marítima, mas a virtual, ambiente próprio da IA – não se dá com bússola, mas por meio de algoritmos que não mais conduzem à colonização de território, mas sim das mentes, pois ao mesmo tempo que fascinam pela imediatez, pelo brilho e pelas facilidades, obstaculizam o pensamento. A questão remonta às preocupações já formuladas por Heidegger na década de 1950 a respeito da técnica, ao longo de várias obras, expressas como uma súmula na seguinte afirmação de Serenidade (Gelassenheit, lançada originalmente em 1959): Aquilo que é verdadeiramente inquietante não é o facto de o mundo se tornar cada vez mais técnico. Muito mais inquietante é o facto de o Homem não estar preparado para esta transformação do mundo, é o facto de nós ainda não conseguirmos, através do pensamento que medita, lidar adequadamente com aquilo que, nesta era, está realmente a emergir (Heidegger, 2001, p. 21). Heidegger reivindica a capacidade de pensar; pensar este qualificado como meditativo, que está sob risco, pois a época do domínio da técnica, ao mesmo tempo que provoca transformações, desestimula o pensamento. Tudo é facilitado pela tecnologia, especialmente por computadores, IA e internet, que trazem a rapidez, a resposta imediata, o encantamento com o turbilhão de estímulos – e, como já alertava Heidegger, “com a mesma rapidez, tudo se esquece” (Heidegger, 2001, p. 11). As tecnologias baseadas em IA são pioneiras em estimular um acesso à informação rápido e superficial, desencorajando “qualquer compromisso profundo e prolongado com um só argumento, ideia ou narrativa” (Carr, 2010, p. 192). Essa ausência de esforço e de cuidado impede-nos de pensar sobre nós próprios e o mundo, gerando a “fuga do pensamento” (Heidegger, 2001, p. 12). Um pensar reflexivo sobre o sentido da existência, sobre o sentido do ser, dá lugar a um pensar “que calcula”, que produz utilidade, mas que não se detém a refletir sobre a própria ação. O que está em questão aqui não é uma oposição à técnica, mas seu predomínio que impõe uma única racionalidade para orientar a vida e que obsta o pensamento a respeito do sentido da existência. https://creativecommons.org/licenses/by/4.0/deed.pt-br ÉTICA E INTELIGÊNCIA ARTIFICIAL: O QUE INQUIETA? Educ. Soc., Campinas, v. 46, e296750, 20256 De certo modo, pensar o que é bom para a vida humana e questionar a consequência das ações é o que fez o Velho do Restelo, ao prestar atenção ao que acontecia à sua volta e refletir, a partir da própria experiência. A blindagem do encantamento nos torna negligentes, incapazes de questionar nossas representações de mundo, que expõem a conexão da modernidade com a técnica – determinantes de todas as relações do homem. No entanto, Heidegger lembra que só ficamos pobres em pensamento porque possuímos a capacidade de pensar, embora estejamos cegos ao reconhecimento dessa perda. Cabe manter desperta a reflexão, recomenda Heidegger, e ela só aparece pelo trabalho incansável do pensamento. O Ethos da Phronesis O que está condensado nas perguntas do Velho do Restelo remonta à clássica distinção aristotélica entre téchne (τἑχνη) e phronesis (φρόνησις) a respeito do conhecimento, que tem raízes na vida ética, pois se refere a um saber vinculado ao mundo da vida. É justamente a atualidade dessa distinção que ilumina nosso agir em relação à IA, o que implica rever, na sequência, alguns conceitos da ética aristotélica. No Livro VI da Ética Nicomáquea, Aristóteles (1985) desenvolve o modo de conhecimento denominado phronesis (prudência ou sabedoria prática), de natureza autorreflexiva que gera uma ética não doutrinária, mas vinculada ao caráter contingente da vida, aos sofrimentos humanos, às singularidades das circunstâncias nas quais se circunscrevem as decisões e as ações, pois o que é bom para o homem está relacionado com a situação concreta. Aquele que age pondera a respeito de como articular as exigências universais (princípios, valores) a cada situação. Parece próprio ao homem prudente, diz Aristóteles, “ser capaz de liberar retamente sobre o que é bom e conveniente para si mesmo, não no sentido parcial, por exemplo, para a saúde, para a força, senão para viver bem em geral” (Aristóteles, 1985, p. 275). A phronesis se refere ao saber que sirva à vida, à arte de viver. A téchne (técnica), por sua vez, é um saber orientado para fazer ou produzir coisas, de acordo com certos modelos (eidos); é um saber de natureza instrumental e quem o aprende não precisa refletir sobre sua aplicação. A phronesis, ao contrário, é uma forma de saber capaz de considerar criticamente as condições de seu próprio fazer. Ela envolve a experiência humana na sua finitude, ponderando sobre as condições nas quais se realizam as ações em relação a um bem, o que implica em responsabilidade pelas próprias decisões. Não se trata de um saber sobre qualquer coisa, alerta Aristóteles, mas sobre “coisas que podem suscitar questões e ser objeto de deliberação” (Aristóteles,1985, p. 283). Há uma dimensão reflexiva na phronesis, relacionada com a escolha dos caminhos, dos aspectos a ponderar nas decisões, não sendo um mero problema de cognição; antes disso, é um saber central da vida ética, “um saber que nos faz ser quem somos” (Schmidt, 2012, p. 44). Envolve nossa própria autocompreensão, um diálogo do homem consigo mesmo capaz de conduzir ao entendimento das ações, uma virtude ética, ou seja, a phronesis ou a sabedoria prática é o próprio ethos. Heidegger3 também retomou a distinção feita pelos gregos para indicar que, no caminho da história da metafísica, a téchne dominou, tornando-se a única verdade do ser, domínio este a que se contrapõe o pensar meditativo. É com o conceito de phronesis que Heidegger desenvolve a compreensão da ação do mundo humano, ou seja, ações de natureza diversa das coisas produzidas pela téchne. Não se trata de um desabono à técnica, uma vez que ela faz parte da essência do homem, mas sim do domínio que impede o exercício do pensar. Em sua obra magna Verdade e método, Gadamer (1990) vale-se igualmente do modelo da phronesis, ou sabedoria prática, para fundamentar a compreensão hermenêutica, que se enlaça a um projeto ético comprometido com a situação concreta do existir. Para tanto, reafirma a relevância da phronesis, https://creativecommons.org/licenses/by/4.0/deed.pt-br Educ. Soc., Campinas, v. 46, e296750, 2025 Hermann N 7 “pois faz parte dos traços essenciais do fenômeno ético o fato de que aquele que atua deve saber e decidir por si mesmo e não permitir que lhe arrebatem esta autonomia por nada nem por ninguém” (Gadamer, 1990, p. 318). É preciso, portanto, que a consciência ética ganhe clareza sobre si mesma, o que já indica sua relação com a questão da subjetividade e da formação. Aqueles que se educam devem manter uma atitude subjetiva mais ou menos constante em sua vida, por meio de escolhas corretas, sustentadas na experiência de mundo, ou seja, a constituição do sujeito ético, sua capacidade de deliberar e agir, é afetada pelas experiências e relações com o mundo, como as crenças, os saberes e as informações. Nos anos recentes, grande parte das informações e crenças que circulam no mundo virtual, operado por meio de sistemas de IA, influenciam a formação das mentes e o agir, constituindo-se no ponto de intersecção da IA com a ética. Nessa perspectiva, cabe destacar que somos influenciados pelo conjunto de experiências, de encontros, de livros que lemos, pelo mundo da vida, enfim, por tudo o que nos afeta provocando prazer ou dor, para nos mantermos nos termos aristotélicos.O que diferencia a IA é sua força descomunal comparativamente a outras afecções que modulam as experiências e as interações humanas. A forte influência da IA provém daquilo que os pesquisadores da área, baseados em ciência de dados, denominam “viés” (Coeckelbergh, 2023, p. 118), que aumenta o risco de serem oferecidos estímulos aos preconceitos, à visão distorcida da realidade e ao direcionamento das decisões4, pois mesmo que preconceitos existam na realidade a IA e o mundo virtual podem “perpetuar esses problemas e ampliar seu impacto” (Coeckelbergh, 2023, p. 118). A própria subjetividade é afetada pela IA, que direciona comportamentos e decisões, impulsionada por algoritmos treinados em determinados conteúdos, manipulando a mente, as emoções e a própria capacidade de deliberar, transformando qualquer autonomia em ilusão – o que contraria a natureza do agir ético, na medida em que interdita o esclarecimento da própria deliberação. Uma confiança cega naquilo que recebemos da IA impede a reflexão a respeito do verdadeiro saber ético, realimentando o círculo de preconceitos e a distorção da realidade. Ruiz (2021) denominou “algoritimização da vida” o processo que produz regulação de todos os aspectos da vida, segundo o qual o sujeito é capturado pelos algoritmos em suas preferências, desejos e até nas decisões que toma (Ruiz, 2021). Evidencia-se um caráter paradoxal, pois ao mesmo tempo que a IA amplia infinitamente o acesso à informação e à abertura a novos conhecimentos e interações, limita o pensamento e a autonomia moral e estimula a disseminação deliberada de erros e fake news, numa inequívoca perturbação da busca de autonomia, gerando empobrecimento da experiência formativa. A ética é um saber que não pode ser simplesmente confundido com regras, com um modelo a ser seguido – como ocorre quando se produz coisas –, porque se concretiza na situação particular, exigindo reflexão daquele que age a respeito de tal circunstância. Regras, princípios e convenções expressam a natureza do problema em questão, seu enraizamento no contexto histórico que só se efetiva pela aplicação que a consciência moral faz de tais regras e princípios na situação específica, ou seja, na escolha refletida. Por meio de suas ações os homens expressam os princípios que orientam, determinam e justificam sua existência. Gadamer (1990, p. 326) lembra que o agir ético “requer sempre, ineludivelmente, essa deliberação interior”. A phronesis, portanto, se relaciona com o mundo interior, que nos torna capazes de imaginar e configurar a vida, que se movimenta na direção dada pelas escolhas e pelo que a vontade determina. Esse delicado movimento requer o encontro vivo e não apenas virtual. Aqui o problema adquire contornos mais nítidos: como preparar para uma ação responsável, se predomina o estímulo para decisões rápidas, dirigidas e não refletidas; para as facilidades que desabonam o empenho, a paciência, o encontro consigo mesmo? Em geral, a discussão da questão ética na IA preocupa-se em responder a quem atribuir a responsabilidade quando a utilizamos para que oriente a respeito de decisões e faça algo por nós. Essa é uma dimensão importante do debate, relacionada com a responsabilização de plataformas e com quem https://creativecommons.org/licenses/by/4.0/deed.pt-br ÉTICA E INTELIGÊNCIA ARTIFICIAL: O QUE INQUIETA? Educ. Soc., Campinas, v. 46, e296750, 20258 é responsável pelo conteúdo veiculado; não é, contudo, o interesse específico deste trabalho, que quer mostrar como a IA afeta a subjetividade e o agir ético. E a isso devemos estar atentos, não para recusar a IA, mas para dimensioná-la, reconhecê-la em suas possibilidades e restrições no processo formativo. Embora ambos os temas – por um lado, a discussão da ética na IA em relação à justiça, governança, veracidade etc.; e, por outro, a repercussão na subjetividade e na formação ética de usuários de IA – estejam inter-relacionados, o foco deste texto centra-se na questão de como a IA afeta a formação do sujeito ético, que será tratado no próximo tópico. A Formação do Sujeito Ético A partir do exposto, pretendo apresentar um segundo passo argumentativo em relação às afecções do sujeito ao interagir com a IA, no sentido de questionar até que ponto e como a IA atua na perspectiva de favorecer ou obliterar a capacidade de deliberação ética. Vou valer-me da phronesis (sabedoria prática) aristotélica que retoma a base ontológica do saber e já se encontra incorporada em nossa própria autocompreensão, servindo para interpretar ações e sentimentos, como observa Bernard Williams (2011) a respeito da recuperação de alguns conceitos da moral grega para o debate contemporâneo. Quando necessário, também lançarei mão do conceito moderno de consciência. Considerando que a IA já está presente em nossa existência, fascinando os espíritos, alimentando as mais altas ambições, sabe-se que não haverá recuo; seu uso é incontornável. O aspecto positivo da IA e do mundo virtual é a oferta de informações e de produções de modo quase inimaginável e a ampliação dos espaços de comunicação entre as pessoas, estimulando uma tendência de empoderamento desconhecida até então pelos meios tradicionais. Os usuários sentem-se autores, emitem opiniões, ampliam o espaço de inclusão sem nenhuma mediação, o que instaura uma ampliação de poder participativo. Essa foi a grande promessa inicial, de cunho democrático e com pretensão igualitária. Desde a década de 1990, contudo, o mundo digital não revela mais esse otimismo, na medida em que seu poder destrutivo ficou exposto, especialmente pelo uso massivo da IA. Acentuou-se vertiginosamente a disseminação de fake news, a violência simbólica e o direcionamento seletivo de mensagens5. Impulsionado por algoritmos, o espaço digital é dominado por corporações que não se abrem ao escrutínio científico e político, produzindo distorções no debate público. Hoje, criam-se textos, fotos digitais, conversas falsificadas com qualquer conteúdo desejado e, se tal fato causa indignação e profunda desconfiança para alguns, a maioria dos usuários permanece presa a elas em decorrência de dependência psíquica às sensações e emoções fortes, gerando um efeito perverso. O cuidado em discernir o que faz bem ou desvirtua assume contornos decisivos na instauração de um ethos. Aristóteles já observava que, quando há perversão, já não vê a causa da ação, pois “o vício destrói o princípio” (Aristóteles, 1985, p. 276). Assim, tanto a formação do caráter, em termos aristotélicos, como a internalização da consciência moral, em termos modernos, têm em comum a luta contra as perversões, que depende da disposição por escolhas e ações corretas. Não se trata de uma mera autoconservação, mas de uma abertura para a escolha do bem-viver, o que mobiliza as crenças e os afetos. A possibilidade de manipulação da verdade e das crenças por meio de algoritmos treinados tende a promover uma diluição da esfera pública com fortes repercussões na experiência formativa. Tal contexto levou Habermas a atualizar o diagnóstico da esfera pública, reconhecendo que “a lava desse potencial simultaneamente antiautoritário e igualitário que ainda era sentido no espírito californiano dos primeiros anos, logo se solidificou na careta libertária das corporações digitais do Vale do Silício que dominam o mundo” (Habermas, 2022, p. 46). Estamos ainda aprendendo a manejar esses novos fenômenos. E Habermas acrescenta uma observação que interessa especialmente para a formação. Diz ele: https://creativecommons.org/licenses/by/4.0/deed.pt-br Educ. Soc., Campinas, v. 46, e296750, 2025 Hermann N 9 O auto-empoderamento dos usuários da mídia é um efeito; o outro é o preço que eles pagam por serem liberados da tutela editorial da velha mídia, já que ainda não aprenderam suficientemente como lidar com a nova mídia. Assim como a impressão de livros transformou todos em leitores potencial, a digitalização hoje transforma todos em autores em potencial. Masquanto tempo levou até todos aprenderem a ler? (Habermas, 2022, p. 46). Apesar do tempo que foi necessário para a aprendizagem da leitura (ainda há analfabetos e analfabetos funcionais em muitas regiões do Brasil), hoje não se lê com mesma intensidade, pois com a ascensão das mídias sociais todos são autores; muitos escrevem e poucos leem. A própria leitura é substituída pelos resumos e esquemas produzidos pela sofisticação tecnológica. E a atenção, concentração, reflexão necessárias à leitura que fomentou a ideia de formação do sujeito moderno, tanto na sua dimensão ética como política, foi sendo obliterada. Há uma nova esfera pública inundada pela escrita, mas com pouquíssima reflexão. Quando aprenderemos a manejar esses novos processos ainda não sabemos, e nisso ressoa a advertência de Heidegger, referida anteriormente, que o mais inquietante “é o facto de nós ainda não conseguirmos, através do pensamento que medita, lidar adequadamente com aquilo que, nesta era, está realmente a emergir” (Heidegger, 2001, p. 21). Encontramo-nos às voltas com o domínio inescrupuloso das operações algorítmicas, orientadas por motivações econômicas e ideológicas de donos de plataformas digitais que direcionam interesses e influem de forma distorcida nas decisões, solapando o processo de autonomia. Um usuário de rede recebe inúmeras informações e muitas vezes sequer sabe que a IA está sendo usada. A esse respeito, Coeckelbergh (2023) destaca que um dos problemas para a ética é o modo pelo qual a IA toma decisões, ou seja, ela foi programada para chegar a uma determinada decisão e isso pode ser explicado se conhecemos o código. Mas quando se trata de máquinas com aprendizado profundo, a situação se complica, pois elas são baseadas em redes neurais, e o tipo de decisão tomada não é mais explicável e transparente6. Sabe-se como o sistema geral funciona, mas não a decisão particular tomada pelos algoritmos. Diz Coeckelbergh (2023, p. 111): [...] mesmo deixando de lado o problema particular do aprendizado da máquina (profundo), há um problema de conhecimento com a IA na medida em que muitas pessoas que a usam não sabem o que estão fazendo, quais são seus efeitos, ou nem mesmo sabem que está sendo utilizada. Isso também é um problema de responsabilidade e, portanto, um sério problema ético. Do ponto de vista da formação ética, o modo pouco transparente pelo qual os algoritmos direcionam as ações eclipsa a capacidade de julgar e deliberar, na medida em que o espaço interativo da experiência, que permitiria adquirir o saber ético, é objetificado pela própria dinâmica operacional dos algoritmos, alienando o sujeito em relação à sua escolha. Esse aspecto é insidioso para a formação do sujeito, pois ele se subjetiva a partir das experiências vividas, e as interações com a IA não ampliam sua capacidade de bem deliberar, tampouco permitem a reflexão sobre os elementos envolvidos nesse processo. Ao acessar qualquer aparato tecnológico que usa IA, os algoritmos, quase instantaneamente, indicam conteúdos que retroalimentam o sistema, devolvendo ao sujeito uma objetificação de si mesmo. Essa objetificação se expressa na afirmação de determinado traço, de determinada característica ou preferência, que foram reconhecidos e, uma vez transformados em dados, são devolvidos ao usuário como um eu fragmentado, que acredita estar fazendo escolhas livres, embora permaneça disponível à manipulação. O próprio eu transforma-se num padrão de dados, “uma construção infinitamente flexível” (Carr, 2020, n.p.), numa incessante subjetivação. O sujeito é capturado pelos algoritmos a partir de um simples “click”, e na https://creativecommons.org/licenses/by/4.0/deed.pt-br ÉTICA E INTELIGÊNCIA ARTIFICIAL: O QUE INQUIETA? Educ. Soc., Campinas, v. 46, e296750, 202510 sequência desencadeia-se a indução do comportamento, numa tentativa sistemática de governar, dirigir. O ambiente torna-se restritivo em relação ao confronto, ao esforço de escolha, não havendo ponderação. Com a permanência apenas do estímulo que reafirma o eu e sua respectiva visão de mundo, ao indivíduo resta uma subjetivação narcísica incansável. Trata-se de uma dinâmica perversa, como referido anteriormente, porque os algoritmos comandados pela IA podem reforçar preconceitos, distorcer a realidade e estimular comportamentos altamente indesejáveis, alienando o sujeito de responsabilização. Ao invés de participar de um espaço interativo em que seja possível concordar ou discordar mediante justificações apresentadas, motivadas pelo convencimento racional, esse processo é transfigurado pela aparente liberdade de escolha, pela manipulação emocional – limitando a riqueza da experiência que ocorre em um encontro vivo com a alteridade, pois o que é oferecido pela ação dos algoritmos é sempre o mesmo. Institui-se, assim, a mesmidade, a versão do si próprio que se opõe ao outro, fortalecendo uma subjetividade que tende a excluir a alteridade. Assim, as ações estimulam uma formação fechada na sua própria perspectiva, sem a confrontação com algo fora de si mesmo. Na ausência do outro interiorizado, a autonomia corre o risco de se tornar um desmedido egoísmo. Assim, a formação da autoconsciência se distorce, uma vez que ela depende da alteridade. É nesse sentido que Habermas pergunta: Ou não será verdade que nós só nos tornamos conscientes de nós mesmos nos olhares que um outro lança sobre nós? Nos olhares de um “tu”, de uma segunda pessoa que fala comigo na primeira pessoa, eu me torno consciente de mim mesmo, não somente como um sujeito capaz de vivenciar coisas em geral, mas também e, ao mesmo tempo, como um eu individual. Os olhares subjetivadores do outro possuem uma força individualizadora (Habermas, 2005, p. 19). A retirada da força do olhar subjetivador, substituindo-o por sistemas de IA ou máquinas que reforçam o engajamento e as emoções negativas ao invés do confronto com outras ideias, crenças e valores, frauda as expectativas da formação como uma criação de si mesmo. A consciência, como lembra Habermas, só tem a aparência de privada, pois mesmo quando faz os movimentos de sua intimidade, continua alimentando-se “dos fluxos da rede cultural de pensamentos públicos, expressos de modo simbólico e compartilhados intersubjetivamente” (Habermas, 2005, p. 18, grifo do autor). Os processos interativos vivos nos colocam diante do estranho, um desafio que impulsiona a capacidade de considerar criticamente as perspectivas em confronto, levando-nos a um entendimento que ultrapassa nossa cosmovisão. Como Aristóteles destaca, entendimento e a sabedoria prática não são a mesma coisa, mas “o entendimento se exercita na opinião ao julgar e julgar corretamente sobre coisas que são objeto de sabedoria prática quando alguém fala sobre elas” (Aristóteles, 1985, p. 284). Long (2002) realça que o termo “entendimento” é o mesmo que “apreensão consciente”, para enfatizar a autorreflexão crítica que acompanha cada julgamento ou deliberação: A capacidade de imaginar o caminho para a posição do outro e de ouvir enquanto outro fala (allou legontos) são elementos importantes da apreensão consciente, porque interrompem o monólogo interno do phronimos [aquele que é prudente, NH] e orientam-no para o que está fora de si (Long, 2002, p. 46, grifos do autor). Essa dimensão dialógica da phronesis se expressa pelo reconhecimento do outro, experiência que joga o sujeito para fora de suas reservas, desafiando-o a rever criticamente os princípios que orientam o agir. Tal atitude crítica pressupõe o recurso mental de colocar-se diante de outra perspectiva, uma exigência intelectual para a compreensão da situação. Nesse contexto, o mundo dos algoritmos não desafia, apenas reafirma a própria cosmovisão do sujeito. https://creativecommons.org/licenses/by/4.0/deed.pt-br Educ. Soc., Campinas, v. 46, e296750, 2025 Hermann N 11 Estamos mesmo alienados em nossas decisões? Somos ainda capazes de refletir sobre elas? Ou apenas seguimos multidões,cegos ao rumo que se evidencia de modo destrutivo? Caso não possamos deliberar e pensar sobre nossas ações, não estaremos sujeitos a catástrofes político-sociais e educacionais? Pensar sobre o significado das transformações em curso reverbera o problema filosófico e ético a respeito da autonomia do homem, se é livre para decidir por si mesmo – desiderato em torno do qual gravitam todos os projetos educativos modernos, aglutinando as expectativas de uma vida que não seja estreita e nivelada. Uma educação que se vê cada vez mais capturada pela pressão do uso de recursos digitais, pela instantaneidade e pelo acúmulo de informação expõe-se ao risco constante de obliterar o pensamento; abandonar a riqueza do encontro humano e do diálogo; e enfraquecer a capacidade de autocompreensão, decisiva para a formação de si mesmo. O tempo maquínico não se coaduna com a dimensão ética da formação. Esta precisa do tempo da palavra, da reflexão, do exercício da atividade crítica e de uma sensibilidade apurada para se orientar em relação às escolhas. O Inquietante Desafia No início deste ensaio abordei o impacto da técnica com o exemplo do questionamento do Velho do Restelo para ilustrar os desafios éticos que acompanham novas tecnologias em cada tempo histórico. Com elas vem o novo, o estranho, o que é desconhecido em suas repercussões, aquilo com o qual não sabemos lidar e que pode se tornar perigoso. Hoje, as tecnologias virtuais e os sistemas de IA dominam o mundo e exigem uma resposta ética consoante às transformações que acarretam. Assim, o que inicialmente se configurou como uma inquietação impõe-se agora como um desafio à reflexão ética. Talvez a dimensão mais desafiadora do domínio tecnológico foi expressa por Galimberti ao reconhecer que a técnica assume “o horizonte da autocompreensão humana” (Galimberti, 2006, p. 597). Isso significa que o homem não tem uma estrutura estável, ficando a natureza humana exposta aos efeitos da modalidade tecnológica, sob a pressão dos dispositivos maquínicos e do fluxo gigantesco de informação. Passamos, assim, de uma cultura da experiência para a cultura da informação e da virtualização. O saber ético (phronesis), que orienta o agir, depende da experiência, do pensamento, e não se coaduna com a informação acelerada, o que dá a medida do risco em situar a autocompreensão humana no horizonte da técnica. Não se trata mais da indefectível desconfiança da natureza humana (problematizada desde o pensamento antigo), mas da queda de um conceito fixo de natureza humana, que já vinha se anunciando e que agora aprofunda a questão do sentido da existência. O próprio psiquismo e os modos de interação são afetados pelo mundo virtual7, o que torna incontornável a pergunta: Pode um processo formativo, que pretenda formar um sujeito comprometido com os destinos de sua existência, ser submetido aos desígnios exclusivos da tecnologia? Tais desígnios são limites estreitos demais; o desafio que se interpõe à formação não condiz com o abandono das questões a respeito de como devemos viver, que ideias de bem são historicamente entendidas como válidas, que exigências de reciprocidade podemos nos impor quanto às normas a cumprir, o que afeta a decisão moral. A reflexão ética na educação, a relação com o mundo e com a tecnologia se sustenta pelo exame da condição humana. Trata-se, portanto, de ampliar nossa autocompreensão moral, que depende do reconhecimento daquilo que nos afeta. O processo formativo não se fundamenta na inovação tecnológica (confusão frequente em muitos ambientes educacionais), mas em fomentar uma atitude favorável à ética, ou seja, promover naqueles que se educam a disposição de julgar e adquirir confiança em pensar por si mesmo, de criar-se a si mesmos, sem abandonar a ideia de um mundo comum. Nessa medida, é preciso aprender a https://creativecommons.org/licenses/by/4.0/deed.pt-br ÉTICA E INTELIGÊNCIA ARTIFICIAL: O QUE INQUIETA? Educ. Soc., Campinas, v. 46, e296750, 202512 lidar com o mundo novo que a IA descortina, tendo no horizonte o reconhecimento de que as ações humanas entrelaçam cognição, emoção e sentimentos, gerando o pensamento criativo. E isso, por óbvio, não é o mesmo que o acúmulo abissal de dados processados em base a algoritmos, que direcionam comportamentos. Nossas decisões não envolvem apenas cognição, mas são qualificadas, orientadas por ideias de bem e de mal; por valores e crenças; por questões de dignidade e justiça, cuja aprendizagem requer processos dialógicos e exercício do pensamento. O prestígio da tecnologia não deve nos conduzir a delírios, obscurecer nossa capacidade de pensar. Permanece válida a recomendação de Heidegger, feita em 1959, quando ainda não havia IA, mas o mundo já conhecia o poder transformador de muitas tecnologias. Ele afirma, em Serenidade: Podemos utilizar os objectos técnicos tal como eles têm de ser utilizados. Mas podemos, simultaneamente, deixar esses objetos repousar em si mesmos como algo que não interessa àquilo que temos de mais íntimo e de mais próprio. Podemos dizer ‘sim’ à utilização inevitável dos objetos técnicos e podemos ao mesmo tempo dizer ‘não’, impedindo que nos absorvam e, desse modo, verguem, confundem e, por fim, esgotem a nossa natureza (Wesen) (Heidegger, 2001, p. 23-24). O sim e o não expressam a atitude ética responsável diante da técnica. Não há como demonizá-la, pois seria incompatível com nossa dependência de todos os artefatos tecnológicos e de sistemas de IA; mas igualmente não devemos nos submeter à servidão. Dependemos de uma escolha de natureza ética. Notas 1. Apesar das distintas abordagens teórico-metodológicas a respeito do tema, Spinoza (2008), Nietzsche (1988) e Merleau- Ponty (1999) rompem com o dualismo corpo-alma ao defenderem que ambos constituem totalidades complexas e integradas. Tanto a subjetividade, os afetos, a cognição e relação com o mundo têm base corpórea assim como o agir humano é interpelado por uma consciência corpórea, o que torna insustentável a pressuposição das novas tecnologias de que nosso ser pensante poderia ser independente do corpo, que o self se transformaria em padrões de dados. 2. Mark Coeckelbergh (2023) mostra que isso não é novo na história da humanidade, pois a ideia de uma superinteligência e de um cérebro que sobreviveria a nós está relacionado com a transcendência, cujas raízes culturais são muito antigas e se expressam no desejo de imortalidade, como aspira a tradição cristã, as narrativas mitológicas mesopotâmicas, a filosofia platônica. As ideias de apocalipse e escatologia, presentes na tradição judaico-cristã, são igualmente projetadas na interpretação da singularidade tecnológica, ou seja, na sua capacidade de dominar o ser humano, mesmo sendo a tecnologia uma produção científico-tecnológica, portanto secularizada e não ficcional. 3. Heidegger retoma conceitos da filosofia prática de Aristóteles no curso Conceitos fundamentais da filosofia aristotélica, de 1924, publicado em 2002; na obra Sofista: Platão, de 1924/1925, publicado em 1992; entre outros trabalhos. Na época em que Heidegger ministrou o curso sobre a Ética de Aristóteles, um de seus alunos, Hans-Georg Gadamer, relatou essa experiência a respeito da distinção entre téchne e phronesis. Diz ele: “Encontra-se formulado em Aristóteles como distinção o seguinte: aquilo que se pode aprender no saber artesanal pode ser desaprendido; no que concerne à phronesis, porém, não há lethe, nenhum esquecimento. Heidegger [nos] perguntou: o que isso significa? E como exatamente nesse momento o sinal de aviso do final da aula tocou, ele se levantou e disse: ‘Meus senhores, eis aí a consciência’ – e foi embora. De maneira dramática e violenta, com certeza. Haveria efetivamente algumas coisas a dizer sobre a diferença entre consciência e o conceito aristotélico de phronesis. https://creativecommons.org/licenses/by/4.0/deed.pt-br Educ. Soc., Campinas, v. 46, e296750, 2025 Hermann N 13 Todavia, por meio dessa teseprovocadora, as pessoas foram incontornavelmente impelidas para suas próprias questões” (Gadamer, 1999, p. 7, grifos do autor). 4. Segundo Müller (2020, n.p.), mesmo estando em fase inicial, “há esforços técnicos para remover o viés de sistemas de IA [...]. Parece que as soluções tecnológicas têm [contudo] seus limites, pois exigem uma noção matemática de justiça, o que é difícil de alcançar”. 5. Pedro Abramovay e Yasmin Curzi de Mendonça, em reportagem à Revista Piauí, mostram como as redes sociais, desde o fim dos anos de 1990, se tornaram um espaço propício à manipulação, com algoritmos treinados para capturar a atenção e priorizar conteúdos mentirosos e agressivos: “A lista de escândalos que vieram à tona desde então é extensa. No plebiscito de 2016 sobre o acordo de paz na Colômbia, campanhas de desinformação distorceram os termos da negociação, o que colaborou para a vitória do ‘não’ e frustrou a pacificação definitiva do conflito com as Farc. Em Myanmar, o Facebook foi instrumento de uma campanha de ódio contra a minoria étnica rohingya, criando as condições que resultaram em um genocídio. A desinformação sobre vacinas, principalmente durante a pandemia de Covid, contribuiu – e o faz ainda hoje – para a baixa cobertura vacinal de alguns países. Atendendo aos interesses de petroleiras, conteúdos com desinformação sobre as mudanças climáticas circulam livremente pelas redes. Somam-se a isso os ataques frequentes a personalidades públicas, sobretudo mulheres da política e do jornalismo” (Abramovay; Mendonça, 2025, n.p.). 6. A questão da transparência e da explicabilidade da IA é relevante para toda a sociedade. “O perigo não é somente de manipulação e dominação pelos capitalistas ou elites tecnocráticas, criando uma sociedade altamente dividida. O perigo subsequente e talvez mais profundo que surge aqui é o de uma sociedade altamente tecnológica, na qual nem mesmo essas elites saibam mais o que estão fazendo e ninguém mais responda pelo que está acontecendo” (Coeckelbergh, 2023, p. 112). 7. Já há um número expressivo de pesquisas a respeito dos problemas de desenvolvimento neural, intelectual e emocional de crianças e jovens decorrentes da exposição contínua aos dispositivos digitais. Cf. Desmurget (2023) e Haidt (2024). Conflito de Interesse Nada a declarar. Disponibilidade de Dados de Pesquisa Todos os dados foram gerados/analisados no presente artigo. Financiamento Não se aplica. Agradecimentos Não se aplica. https://creativecommons.org/licenses/by/4.0/deed.pt-br ÉTICA E INTELIGÊNCIA ARTIFICIAL: O QUE INQUIETA? Educ. Soc., Campinas, v. 46, e296750, 202514 Referências ABRAMOVAY, P.; MENDONÇA, Y. C. A liberdade segundo Zuckenberg. Revista Piauí. Publicada em: 15 jan. 2025. Disponível em: https://piaui.folha.uol.com.br/mark-zuckerberg-meta-facebook-trump/. Acesso em: 20 mar 2025. ANDRADE, C. D. Poesia completa. Rio de Janeiro: Nova Aguilar, 2003. ARISTÓTELES. Ética Nicomáquea. Madrid: Editorial Gredos, 1985. CAMÕES, L. V. Os Lusíadas. São Paulo: Nova Cultural, 2002. CARR, N. Superficiales: ¿Qué está haciendo internet con nuestras mentes? Madrid: Taurus, 2010. CARR, N. Not being there: from virtuality to remoteness. Rough Type. 31 dez. 2020. Disponível em: https://www.roughtype.com/?p=8824. Acesso em: 30 nov. 2021. CHALMERS, D. Could a large language model be conscious? Boston Review, 9 ago. 2023. Disponível em: https:// www.bostonreview.net/articles/could-a-large-language-model-be-conscious/#_edn4. Acesso em: 24 abr. 2025. COECKELBERGH, M. Ética na inteligência artificial. São Paulo: UBU; Rio de Janeiro: Editora PUC-Rio, 2023. DESMURGET, M. A fábrica de cretinos digitais: os perigos das telas para nossas crianças. São Paulo: Vestígio, 2023. D’ONOFRIO, S. O velho do Restelo e a consciência crítica de Camões. Revista de História (USP), São Paulo, v. 40, n. 81, 1970, p. 75-89. https://doi.org/10.11606/issn.2316-9141.rh.1970.128942 GADAMER, H. G. Hermeneutik I wahrheit und methode: grundzüge einer philosophischen hermeneutik. In: GADAMER, H. G. Gesammelte werke. Tübingen: Mohr Siebeck, 1990. GADAMER, H. G. Hermeneutik im rückblick. In: GADAMER, H. G. Gesammelte werke. v. 10. Tübingen: Mohr Siebeck, 1999. GALIMBERTI, U. Psique e techne. São Paulo: Paulus, 2006. HABERMAS, J. Zwischen naturalismus und religion: philosophische aufsätze. Frankfurt am Main: Suhrkamp, 2005. HABERMAS, J. Ein neuer strukturwandel der öffentlichkeit und die deliberative politik. Berlin: Suhrkamp, 2022. HAIDT, J. A geração ansiosa: como a infância hiperconectada está causando uma epidemia de transtornos mentais. São Paulo: Companhia das Letras, 2024. HEIDEGGER, M. Serenidade. Lisboa: Instituto Piaget, 2001. INSTITUTO HUMANITAS UNISINOS. Ser humano e inteligência artificial: os próximos desafios do onlife. Entrevista com Luciano Floridi. Instituto Humanitas Unisinos. 28 out. 2020. Disponível em: https://www. ihu.unisinos.br/78-noticias/604136-ser-humano-e-inteligencia-artificial-os-proximos-desafios-do-onlife- entrevista-com-luciano-floridi. Acesso em: 18 mar. 2025. https://creativecommons.org/licenses/by/4.0/deed.pt-br https://www.bostonreview.net/articles/could-a-large-language-model-be-conscious/#_edn4 https://piaui.folha.uol.com.br/mark-zuckerberg-meta-facebook-trump/ https://www.ihu.unisinos.br/78-noticias/604136-ser-humano-e-inteligencia-artificial-os-proximos-desafios-do-onlife-entrevista-com-luciano-floridi https://www.ihu.unisinos.br/78-noticias/604136-ser-humano-e-inteligencia-artificial-os-proximos-desafios-do-onlife-entrevista-com-luciano-floridi https://www.ihu.unisinos.br/78-noticias/604136-ser-humano-e-inteligencia-artificial-os-proximos-desafios-do-onlife-entrevista-com-luciano-floridi https://www.bostonreview.net/articles/could-a-large-language-model-be-conscious/#_edn4 Educ. Soc., Campinas, v. 46, e296750, 2025 Hermann N 15 LEITE, G. A Revolução Digital, segundo Luciano Floridi. Outras Palavras. São Paulo, 8 nov. 2023. Disponível em: https://outraspalavras.net/outrasaude/a-revolucao-digital-segundo-luciano-floridi/. Acesso em: 18 mar. 2025. LONG, C. P. The ontological reappropriation of phronesis. Continental Philosophy Review, Dordrecht, v. 35, 2002, p. 35-60. https://doi.org/10.1023/A:1015180421385 MERLEAU-PONTY, M. Fenomenologia da percepção. 2. ed. Trad. Carlos Alberto Ribeiro de Moura. São Paulo: WMF Martins Fontes, 1999. MÜLLER, V. C. Ethics of artificial intelligence and robotics. The Stanford Encyclopedia of Philosophy. 2020. Disponível em: https://plato.stanford.edu/archives/fall2023/entries/ethics-ai/. Acesso em: 10 mar. 2025. NIETZSCHE, F. Also sprach Zarathustra. v. 4. München: Deutscher Taschenbuch Verlag; Berlin/New York: de Gruyter, 1988. RAY KURZWEIL e o mundo que nos espera: uma entrevista com o inventor e futurólogo americano. Revista Piauí. Ed. 43, abr. 2010. Disponível em: https://piaui.folha.uol.com.br/materia/ray-kurzweil-e-o-mundo-que- nos-espera/. Acesso em: 30 mar. 2025. RUIZ, C. B. A algoritimização da vida: a nova governamentabilização das condutas. Cadernos IHUideias, São Leopoldo, v. 19, n. 314, 2021. Disponível em: https://www.ihu.unisinos.br/images/stories/cadernos/ ideias/314cadernosihuideias.pdf. Acesso em: 15 fev. 2025. SCHMIDT, D. On the sources of ethical life. Research in Phenomenology, Leiden, v. 42, n. 1, p. 35-48, 2012. https://doi.org/10.1163/156916412X628739 SPINOZA, B. Ethik ordine geométrico demonstrata. In: Werke II: herausgegeben von Konrad Blumenstock. Darmstadt: Wissenschaftliche Buchgesellschaft, 2008. WILLIAMS, B. Vergüenza y necesidad: recuperación de algunos conceptos morales de la Grecia antigua. Madrid: Machado Libros, 2011. Sobre a Autora NADJA HERMANN é professora titular aposentada de Filosofia da Educação da Universidade Federal do Rio Grande do Sul. Integra os grupos de pesquisa Racionalidade e Formação e SurPaideia. Recebido: 13 maio 2025 Aceito: 17 jul. 2025 https://creativecommons.org/licenses/by/4.0/deed.pt-br https://piaui.folha.uol.com.br/materia/ray-kurzweil-e-o-mundo-que-nos-espera/https://www.ihu.unisinos.br/images/stories/cadernos/ideias/314cadernosihuideias.pdf https://www.ihu.unisinos.br/images/stories/cadernos/ideias/314cadernosihuideias.pdf https://piaui.folha.uol.com.br/materia/ray-kurzweil-e-o-mundo-que-nos-espera/