Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.

Prévia do material em texto

Educ. Soc., Campinas, v. 46, e296750, 2025 1
RESUMO: O artigo problematiza, a partir de uma abordagem filosófica, as 
repercussões da Inteligência Artificial (IA) para a ética em educação. Contextualiza 
a posição oscilante da IA entre uma entusiasmada recepção e um reconhecimento 
crítico de seu provável potencial destrutivo. Na sequência, indica as transformações 
produzidas que interferem no modo de fazer experiência e interpreta como estas 
afetam a formação do sujeito, em relação ao saber ético e à capacidade de escolha, 
a partir do conceito grego de phronesis e do conceito moderno de consciência. 
Conclui que a reflexão ética deve superar o risco de situar a autocompreensão 
humana no horizonte da técnica. A ética se vincula no âmbito da experiência, exige 
phronesis e não há nenhum cálculo confiável a oferecer. 
Palavras-chave: Inteligência artificial. Ética. Formação. Phronesis.
ETHICS AND ARTIFICIAL INTELLIGENCE: WHAT IS DISQUIETING?
ABSTRACT: The article discusses, from a philosophical approach, the repercussions 
of Artificial Intelligence (AI) on the ethics of education. It contextualizes the 
oscillating position of AI between enthusiastic reception and critical recognition of 
its probable destructive potential. It then points out the transformations that have 
taken place that interfere with the way we experience and interpret how it affects 
the formation of the subject, in relation to ethical knowledge and the capacity 
for choice, based on the Greek concept of phronesis and the modern concept of 
conscience. It concludes that ethical reflection must overcome the risk of placing 
human self-understanding on the horizon of technology. Ethics is situated in the 
realm of experience, requires phronesis and offers no reliable calculation.
Keywords: Artificial intelligence. Ethics. Education. Phronesis.
ÉTICA E INTELIGENCIA ARTIFICIAL:¿CUALES INQUIETUDES?
RESUMEN: El artículo aborda, desde un enfoque filosófico, las repercusiones de 
la Inteligencia Artificial (IA) en la ética de la educación. Contextualiza la posición 
oscilante de la IA entre una recepción entusiasta y un reconocimiento crítico de 
su probable potencial destructivo. A continuación, señala las transformaciones 
producidas que interfieren en la forma de experimentar e interpreta cómo afecta 
a la formación del sujeto, en relación con el saber ético y la capacidad de elección, 
ÉTICA E INTELIGÊNCIA ARTIFICIAL: O QUE INQUIETA?
Nadja Hermann1 
https://doi.org/10.1590/ES.296750 DOSSIÊ | INTELIGÊNCIA ARTIFICIAL, ÉTICA E EDUCAÇÃO
1. Pesquisadora autônoma – Porto Alegre (RS), Brasil. E-mail: nadjamhermann@gmail.com
Editores de seção: Antônio A. Soares Zuin e Pedro Goergen 
https://creativecommons.org/licenses/by/4.0/deed.pt-br
https://orcid.org/0000-0003-3823-7057
https://doi.org/10.1590/ES.296750
https://creativecommons.org/licenses/by/4.0/deed.pt-br
https://orcid.org/0000-0002-6850-2897
https://orcid.org/0000-0001-9539-9752
ÉTICA E INTELIGÊNCIA ARTIFICIAL: O QUE INQUIETA?
Educ. Soc., Campinas, v. 46, e296750, 20252
a partir del concepto griego de phronesis y del concepto moderno de conciencia. 
Concluye que la reflexión ética debe superar el riesgo de situar la autocomprensión 
humana en el horizonte de la técnica. La ética se vincula al ámbito de la experiencia, 
exige phronesis y no hay ningún cálculo fiable que ofrecer.
Palabras clave: Inteligencia artificial. Ética. Formación. Phronesis.
 E era preciso optar. Cada um optou
 conforme seu capricho, sua ilusão, sua miopia.
 Carlos Drummond de Andrade (2003, p. 1.240)
A Inteligência Artificial e a Vertigem
C om uma presença massiva e perturbadora em diferentes dimensões da vida, a Inteligência Artificial 
(IA), uma tecnologia desenvolvida a partir dos sistemas de computador para realizar tarefas que 
normalmente requerem inteligência humana, trouxe inquietações éticas, sobretudo pela natureza 
das mudanças que provocam na subjetividade e nas relações dos homens com o outro e com o mundo. 
Os efeitos desse engenho oscilam entre benéficos e problemáticos, evidenciados pelo amplo espectro de 
reações que inclui desde a mais entusiasmada adesão, o inebriamento reinante no ambiente técnico-científico 
e cultural dada sua incontestável utilidade e poder transformador, passando por um duvidoso determinismo 
até alcançar o reconhecimento crítico de um provável potencial destrutivo. 
Se até pouco tempo a IA era um projeto que ocupava engenheiros e programadores, a criação do 
ChatGPT (novembro de 2022), uma ferramenta baseada em modelo de linguagem desenvolvido pela OpenAI, 
impulsionou o tema para um animado debate público. A IA, popularizada rapidamente, se encontra no bojo 
de profundas transformações no campo da informação, cuja virada teve início com o uso de sistemas de 
computação na década de 1950. A grande mudança, segundo Luciano Floridi (Leite, 2023, n.p.), se refere à 
transformação de ideias “em fenômenos que fazem a diferença no dia a dia de bilhões de pessoas”. 
Ao transformar a realidade, a IA cria novas formas de agir e de interagir. Ela opera com máquinas 
de aprendizagem e aprendizagem profunda (ou seja, se autotreina e melhora seu desempenho), baseada em 
redes neurais e no cálculo de probabilidades, sendo capaz de absorver um conjunto quase ilimitado de dados 
obtidos no corpus de informações e obras digitalizadas na internet, em escala muitíssimo superior do que os 
humanos podem analisar. Os dados são processados por meio de algoritmos (regras que orientam a análise 
e a tomada de decisão) integrados em sistemas complexos de computação. A partir desses processos, a IA, 
utilizada em outros artefatos tecnológicos – smartphones, aplicativos de conversas, mecanismos de busca e 
redes sociais –, cria imagens, filmes, animações e fotos “realistas”, textos e discursos; altera e adapta voz; faz 
resumos de obras; processa linguagem natural (compreensão automática de fala, escrita e tradução); realiza 
cálculos matemáticos; gera modelagens de performance; faz previsões diversas tanto de fenômenos naturais 
e sociais como de comportamentos individuais; enfim, produz tudo aquilo que nos chega, sobretudo, pelas 
redes sociais e invade tanto o trabalho, a escola, a universidade, a medicina, a indústria, a segurança, a arte 
como diversas tarefas cotidianas. Presente em todos os âmbitos da vida, sua presença se tornou imperiosa.
Contudo, a chegada ruidosa do ChatGPT gerou críticas ao próprio nome inteligência artificial, 
devido a confusões conceituais. Os neurocientistas explicam que a inteligência é uma propriedade da vida 
https://creativecommons.org/licenses/by/4.0/deed.pt-br
Educ. Soc., Campinas, v. 46, e296750, 2025
Hermann N
3
que começou há bilhões de anos e se encontra em organismos vivos complexos, não podendo ser artificial. 
Igualmente, o uso da expressão redes neurais para se referir à IA é considerada uma apropriação indevida, 
pois elas são incomparáveis com a capacidade do cérebro em fazer conexões com bilhões de neurônios que 
produzem a mente humana. Um componente altamente complexo e plástico não pode ser reduzido a um 
sistema operacional abstrato. A inteligência é complementada pelo cérebro e pela mente, que é consciente, 
atravessada por emoções, sentimentos, experiência, memória – incluindo, inclusive, o inconsciente. 
Por fim, a ideia de que a IA superaria a inteligência humana implica uma visão extremamente 
simplista, não só da inteligência, mas de sua relação com a mente e com o pensamento. A inteligência artificial 
opera com modelos matemáticos abstratos de cognição que se integram às máquinas e podem manipular 
formalmente símbolos e construir significados sociais, que são úteis para inúmeras atividades. Apesar disso, a 
IA apresenta limites operacionais, pois os algoritmos tendem a reforçar preconceitos, ideologias e distorcer 
a realidade; e limites estruturais, pois simulam comportamentos humanos, sem aprender as faculdades 
psíquicas e espirituais do homem, irredutíveis a cálculos, medição matemática ouobservação empírica. 
Esse modo de compreender a inteligência é um novo dualismo, que separa a mente do corpo num 
movimento contrário às teorias mais consistentes para a compreensão da mente, da vida psíquica e da ação 
humana, como ensinaram Spinoza, Nietzsche e Merleau-Ponty1. Daí a euforia inapropriada tanto em relação à 
criação de um upload cerebral, um cérebro que poderia ser escaneado e modelado em um software2 para um 
novo hardware, uma identidade descorporificada; quanto à distopia de uma inteligência que seria superior 
à inteligência humana, como nos cenários propostos por Ray Kurzweil (2010). De acordo com tal proposta, 
alcançaríamos a “singularidade”, o ponto temporal em que as tecnologias “terão um papel transformador”, 
isto é, a “ascensão exponencial da interação entre a biologia humana com a tecnologia que criamos” 
(Ray Kurzweil, 2010, n.p.); uma alteração tão profunda a respeito do que hoje entendemos por humano, 
“que nós não compreenderíamos o que está acontecendo” (Coeckelbergh, 2023, p. 22). 
Além das críticas à inadequação do nome e às projeções de uma superinteligência, com sua 
poderosa capacidade de manejar a língua e produzir textos, a IA requer atenção e uma capacidade 
intelectual apurada do usuário, pois infere informações a partir de uma base estatística e probabilística, 
que traz falsidades e imprecisões, chegando até a produzir resultados absurdos (conhecidos como 
alucinação) que não correspondem aos cuidados próprios de uma inteligência sensível e contextualizada, 
de uma mente consciente. Há qualidades na linguagem humana que os chatbots (aplicativos de conversas) 
dificilmente conseguirão reproduzir, apesar do coro animado de alguns estudiosos a respeito das 
inumeráveis virtudes da IA. Para refinar a precisão conceitual, Floridi (Instituto Humanitas Unisinos, 2020) 
sintetizou a questão, afirmando: 
Mais seriamente, a inteligência artificial (IA) é um oximoro. Tudo o que é verdadeiramente 
inteligente nunca é artificial, e tudo o que é artificial nunca é inteligente. A verdade é que, 
graças às extraordinárias invenções e descobertas, as sofisticadas técnicas estatísticas, a queda 
do custo da computação e a imensa quantidade de dados disponíveis, hoje, pela primeira vez 
na história da humanidade, somos capazes de realizar em escala industrial artefatos capazes de 
resolver problemas ou executar tarefas com sucesso, sem a necessidade de serem inteligentes. 
Esse descolamento é a verdadeira revolução. 
Ou seja, a IA não possui ainda consciência nem a capacidade humana de criação, de interioridade 
e, menos ainda, de pensamento, mas pode fazer inúmeras tarefas que até pouco tempo só seres humanos 
realizavam. A respeito desse tema, o filósofo da mente David Chalmers reconhece que há dificuldades em 
https://creativecommons.org/licenses/by/4.0/deed.pt-br
ÉTICA E INTELIGÊNCIA ARTIFICIAL: O QUE INQUIETA?
Educ. Soc., Campinas, v. 46, e296750, 20254
considerar conscientes modelos de linguagem como a IA, mas se tal situação algum dia acontecer – uma 
vez que não descarta essa possibilidade –, surgirão imensos desafios éticos, como questões de governança, 
equidade, segurança, veracidade, justiça e responsabilidade (Chalmers, 2023). 
Não seria exagero afirmar que o debate atual sobre IA revela as diferentes interpretações teóricas 
a respeito da natureza do ser humano, da inteligência, da mente, da consciência e de outros temas afins. 
Há ainda muita neblina no horizonte. Vivemos um momento de profundas mudanças, sendo forçoso 
reconhecer que a IA tem um papel significativo nessas transformações à medida que altera a forma como 
fazemos as coisas e as interações sociais. Isso igualmente ocorreu em outros períodos históricos com a 
invenção da imprensa, do telégrafo, do telefone e muitos outros artefatos tecnológicos. No entanto, há um 
aspecto novo trazido pela IA, pelo fato de ela expressar o topos do desenvolvimento científico e tecnológico, 
a inflexão fáustica de uma técnica que se agiganta e que, longe de ser apenas um instrumento que facilita a 
vida humana, situa-se num horizonte que interfere no modo de fazer experiência, gerando uma reviravolta 
pela qual passa a dispor do ser humano (Galimberti, 2006). A tecnologia produz impacto no próprio modo 
de ser de todos os que a utilizam, sendo ilusória a pretensão de que a controlaríamos; ao contrário, ela nos 
subjetiva, direciona e captura nossas próprias escolhas. Ela nos dominará? Seria nosso novo ferimento 
narcísico? Como afeta a formação ética? 
A complexidade gerada pela técnica em geral e pela IA, em particular, se mostra nas implicações 
sociais, políticas, psíquicas, educacionais e éticas, exigindo do pensamento um escrutínio de tal situação. 
Assim, à inicial vertigem interpõe-se a disposição para o árduo trabalho do pensamento, de modo a tornar 
suas implicações mais esclarecidas e possibilitar um manejo adequado de seus efeitos. Nessa perspectiva, 
o presente ensaio pretende analisar tais implicações na educação, indicando, num primeiro passo, que a 
técnica produz transformações que alteram nossa existência, para, num segundo momento, interpretar 
o modo pelo qual a IA afeta a formação do sujeito – em relação ao saber que orienta o agir humano e à 
capacidade de escolha –, a partir do conceito grego de phronesis e do conceito moderno de consciência.
O Impacto da Técnica
Antes de prosseguir especificamente sobre a IA e suas implicações éticas na educação, analisemos 
um exemplo a respeito das transformações que inovações científicas e tecnológicas provocam, recuando ao 
século 16 pelo benefício hermenêutico do distanciamento histórico. Vou valer-me de uma obra literária, pois a 
arte é sempre um testemunho crítico de seu tempo, um sismógrafo a captar as transformações em curso. É nos 
seiscentos que a epopeia Os Lusíadas (publicada originalmente em 1572), de Luís Vaz de Camões, imortaliza 
os feitos portugueses que conduzem à descoberta do caminho marítimo para a Índia. Na obra encontra-se 
o episódio narrado por um homem do povo, o Velho do Restelo, contraditório em relação à própria obra, 
pois se esta faz a apologia da façanha do povo lusitano seguindo os moldes clássicos das epopeias, aquele traz 
o questionamento das navegações e da política expansionista, o que permite interpretá-lo como a própria 
consciência crítica de Camões (D’Onofrio, 1970) opondo-se ao empreendimento marítimo – uma tecnologia 
de navegação, que dependeu do conhecimento náutico e da adoção de instrumentos tecnológicos – na medida 
em que reconhece nele a busca de expansão territorial, de fama e de glória. 
Descrito pelo “aspecto venerando” e “com um saber só de experiência feito” (Camões, 2002, p. 138), 
o Velho do Restelo faz jus à tradição, segundo a qual “quem faz dissertações de ordem filosófica ou moral é 
quase sempre um velho, que fala em nome da experiência da vida” (D’Onofrio, 1970, p. 76). A reprovação 
ética cantada nos versos problematiza a capacidade de avaliar as consequências das ações humanas e de seus 
https://creativecommons.org/licenses/by/4.0/deed.pt-br
Educ. Soc., Campinas, v. 46, e296750, 2025
Hermann N
5
engenhos, em contraposição ao encantamento, à vaidade, ao poder e às ilusões. Na estrofe 97, Canto IV, 
Camões (2002, p. 139), põe em dúvida o valor épico da expedição marítima:
A que novos desastres determinas 
De levar estes Reinos e esta gente? 
Que perigos, que mortes lhe destinas 
Debaixo dalgum nome preminente? 
Que promessas de reinos e de minas
De ouro, que lhe farás tão fàcilmente? 
Que famas lhe prometerás? que histórias? 
Que triunfos? que palmas? que vitórias?
As navegações marítimas do século 16, como toda a tecnologia, produziram conhecimentos, 
profundas transformações nas relações de poder, outra compreensão do mundo, um tempo novo. Mas o 
simbolismo das interrogações de Camões contém um alerta a respeito dos efeitos indesejados dessa nova 
técnica, cujos ecos se estendem ao longo período de domínio colonial nas Américas, no extermínio de 
populações nativas,na imposição de religião e de idioma, na exploração dos minérios e da terra, no tráfico 
negreiro. Assim como os navegadores do século 16 ultrapassaram uma fronteira, um limite de visão de 
mundo e de sua cosmologia, nós, no século 21, estamos ultrapassando as fronteiras que demarcam os limites 
da relação entre homens e máquinas, o horizonte no qual situamos nosso pensar. Passados tantos séculos, 
a navegação atual – não a marítima, mas a virtual, ambiente próprio da IA – não se dá com bússola, mas por 
meio de algoritmos que não mais conduzem à colonização de território, mas sim das mentes, pois ao mesmo 
tempo que fascinam pela imediatez, pelo brilho e pelas facilidades, obstaculizam o pensamento. 
A questão remonta às preocupações já formuladas por Heidegger na década de 1950 a respeito 
da técnica, ao longo de várias obras, expressas como uma súmula na seguinte afirmação de Serenidade 
(Gelassenheit, lançada originalmente em 1959): 
Aquilo que é verdadeiramente inquietante não é o facto de o mundo se tornar cada vez 
mais técnico. Muito mais inquietante é o facto de o Homem não estar preparado para esta 
transformação do mundo, é o facto de nós ainda não conseguirmos, através do pensamento 
que medita, lidar adequadamente com aquilo que, nesta era, está realmente a emergir 
(Heidegger, 2001, p. 21).
Heidegger reivindica a capacidade de pensar; pensar este qualificado como meditativo, que está 
sob risco, pois a época do domínio da técnica, ao mesmo tempo que provoca transformações, desestimula o 
pensamento. Tudo é facilitado pela tecnologia, especialmente por computadores, IA e internet, que trazem a 
rapidez, a resposta imediata, o encantamento com o turbilhão de estímulos – e, como já alertava Heidegger, 
“com a mesma rapidez, tudo se esquece” (Heidegger, 2001, p. 11). As tecnologias baseadas em IA são pioneiras 
em estimular um acesso à informação rápido e superficial, desencorajando “qualquer compromisso profundo 
e prolongado com um só argumento, ideia ou narrativa” (Carr, 2010, p. 192). 
 Essa ausência de esforço e de cuidado impede-nos de pensar sobre nós próprios e o mundo, gerando 
a “fuga do pensamento” (Heidegger, 2001, p. 12). Um pensar reflexivo sobre o sentido da existência, sobre o 
sentido do ser, dá lugar a um pensar “que calcula”, que produz utilidade, mas que não se detém a refletir sobre 
a própria ação. O que está em questão aqui não é uma oposição à técnica, mas seu predomínio que impõe 
uma única racionalidade para orientar a vida e que obsta o pensamento a respeito do sentido da existência. 
https://creativecommons.org/licenses/by/4.0/deed.pt-br
ÉTICA E INTELIGÊNCIA ARTIFICIAL: O QUE INQUIETA?
Educ. Soc., Campinas, v. 46, e296750, 20256
De certo modo, pensar o que é bom para a vida humana e questionar a consequência das ações é o que fez 
o Velho do Restelo, ao prestar atenção ao que acontecia à sua volta e refletir, a partir da própria experiência.
 A blindagem do encantamento nos torna negligentes, incapazes de questionar nossas representações 
de mundo, que expõem a conexão da modernidade com a técnica – determinantes de todas as relações 
do homem. No entanto, Heidegger lembra que só ficamos pobres em pensamento porque possuímos a 
capacidade de pensar, embora estejamos cegos ao reconhecimento dessa perda. Cabe manter desperta 
a reflexão, recomenda Heidegger, e ela só aparece pelo trabalho incansável do pensamento.
O Ethos da Phronesis
O que está condensado nas perguntas do Velho do Restelo remonta à clássica distinção aristotélica 
entre téchne (τἑχνη) e phronesis (φρόνησις) a respeito do conhecimento, que tem raízes na vida ética, pois se 
refere a um saber vinculado ao mundo da vida. É justamente a atualidade dessa distinção que ilumina nosso 
agir em relação à IA, o que implica rever, na sequência, alguns conceitos da ética aristotélica. 
No Livro VI da Ética Nicomáquea, Aristóteles (1985) desenvolve o modo de conhecimento 
denominado phronesis (prudência ou sabedoria prática), de natureza autorreflexiva que gera uma ética não 
doutrinária, mas vinculada ao caráter contingente da vida, aos sofrimentos humanos, às singularidades 
das circunstâncias nas quais se circunscrevem as decisões e as ações, pois o que é bom para o homem está 
relacionado com a situação concreta. Aquele que age pondera a respeito de como articular as exigências 
universais (princípios, valores) a cada situação. Parece próprio ao homem prudente, diz Aristóteles, “ser capaz 
de liberar retamente sobre o que é bom e conveniente para si mesmo, não no sentido parcial, por exemplo, 
para a saúde, para a força, senão para viver bem em geral” (Aristóteles, 1985, p. 275). A phronesis se refere 
ao saber que sirva à vida, à arte de viver. A téchne (técnica), por sua vez, é um saber orientado para fazer ou 
produzir coisas, de acordo com certos modelos (eidos); é um saber de natureza instrumental e quem o aprende 
não precisa refletir sobre sua aplicação. A phronesis, ao contrário, é uma forma de saber capaz de considerar 
criticamente as condições de seu próprio fazer. Ela envolve a experiência humana na sua finitude, ponderando 
sobre as condições nas quais se realizam as ações em relação a um bem, o que implica em responsabilidade 
pelas próprias decisões. Não se trata de um saber sobre qualquer coisa, alerta Aristóteles, mas sobre “coisas 
que podem suscitar questões e ser objeto de deliberação” (Aristóteles,1985, p. 283). Há uma dimensão 
reflexiva na phronesis, relacionada com a escolha dos caminhos, dos aspectos a ponderar nas decisões, 
não sendo um mero problema de cognição; antes disso, é um saber central da vida ética, “um saber que nos 
faz ser quem somos” (Schmidt, 2012, p. 44). Envolve nossa própria autocompreensão, um diálogo do homem 
consigo mesmo capaz de conduzir ao entendimento das ações, uma virtude ética, ou seja, a phronesis ou a 
sabedoria prática é o próprio ethos. 
Heidegger3 também retomou a distinção feita pelos gregos para indicar que, no caminho da história 
da metafísica, a téchne dominou, tornando-se a única verdade do ser, domínio este a que se contrapõe o 
pensar meditativo. É com o conceito de phronesis que Heidegger desenvolve a compreensão da ação do 
mundo humano, ou seja, ações de natureza diversa das coisas produzidas pela téchne. Não se trata de um 
desabono à técnica, uma vez que ela faz parte da essência do homem, mas sim do domínio que impede o 
exercício do pensar.
Em sua obra magna Verdade e método, Gadamer (1990) vale-se igualmente do modelo da 
phronesis, ou sabedoria prática, para fundamentar a compreensão hermenêutica, que se enlaça a um projeto 
ético comprometido com a situação concreta do existir. Para tanto, reafirma a relevância da phronesis, 
https://creativecommons.org/licenses/by/4.0/deed.pt-br
Educ. Soc., Campinas, v. 46, e296750, 2025
Hermann N
7
“pois faz parte dos traços essenciais do fenômeno ético o fato de que aquele que atua deve saber e decidir 
por si mesmo e não permitir que lhe arrebatem esta autonomia por nada nem por ninguém” (Gadamer, 
1990, p. 318). É preciso, portanto, que a consciência ética ganhe clareza sobre si mesma, o que já indica sua 
relação com a questão da subjetividade e da formação. Aqueles que se educam devem manter uma atitude 
subjetiva mais ou menos constante em sua vida, por meio de escolhas corretas, sustentadas na experiência de 
mundo, ou seja, a constituição do sujeito ético, sua capacidade de deliberar e agir, é afetada pelas experiências 
e relações com o mundo, como as crenças, os saberes e as informações. 
Nos anos recentes, grande parte das informações e crenças que circulam no mundo virtual, operado 
por meio de sistemas de IA, influenciam a formação das mentes e o agir, constituindo-se no ponto de 
intersecção da IA com a ética. Nessa perspectiva, cabe destacar que somos influenciados pelo conjunto 
de experiências, de encontros, de livros que lemos, pelo mundo da vida, enfim, por tudo o que nos afeta 
provocando prazer ou dor, para nos mantermos nos termos aristotélicos.O que diferencia a IA é sua força 
descomunal comparativamente a outras afecções que modulam as experiências e as interações humanas. 
A forte influência da IA provém daquilo que os pesquisadores da área, baseados em ciência de dados, 
denominam “viés” (Coeckelbergh, 2023, p. 118), que aumenta o risco de serem oferecidos estímulos aos 
preconceitos, à visão distorcida da realidade e ao direcionamento das decisões4, pois mesmo que preconceitos 
existam na realidade a IA e o mundo virtual podem “perpetuar esses problemas e ampliar seu impacto” 
(Coeckelbergh, 2023, p. 118). A própria subjetividade é afetada pela IA, que direciona comportamentos 
e decisões, impulsionada por algoritmos treinados em determinados conteúdos, manipulando a mente, 
as emoções e a própria capacidade de deliberar, transformando qualquer autonomia em ilusão – o que 
contraria a natureza do agir ético, na medida em que interdita o esclarecimento da própria deliberação. 
Uma confiança cega naquilo que recebemos da IA impede a reflexão a respeito do verdadeiro 
saber ético, realimentando o círculo de preconceitos e a distorção da realidade. Ruiz (2021) denominou 
“algoritimização da vida” o processo que produz regulação de todos os aspectos da vida, segundo o 
qual o sujeito é capturado pelos algoritmos em suas preferências, desejos e até nas decisões que toma 
(Ruiz, 2021). Evidencia-se um caráter paradoxal, pois ao mesmo tempo que a IA amplia infinitamente o 
acesso à informação e à abertura a novos conhecimentos e interações, limita o pensamento e a autonomia 
moral e estimula a disseminação deliberada de erros e fake news, numa inequívoca perturbação da busca de 
autonomia, gerando empobrecimento da experiência formativa.
A ética é um saber que não pode ser simplesmente confundido com regras, com um modelo a ser 
seguido – como ocorre quando se produz coisas –, porque se concretiza na situação particular, exigindo 
reflexão daquele que age a respeito de tal circunstância. Regras, princípios e convenções expressam a natureza 
do problema em questão, seu enraizamento no contexto histórico que só se efetiva pela aplicação que a 
consciência moral faz de tais regras e princípios na situação específica, ou seja, na escolha refletida. Por meio 
de suas ações os homens expressam os princípios que orientam, determinam e justificam sua existência. 
Gadamer (1990, p. 326) lembra que o agir ético “requer sempre, ineludivelmente, essa deliberação interior”. 
A phronesis, portanto, se relaciona com o mundo interior, que nos torna capazes de imaginar e configurar 
a vida, que se movimenta na direção dada pelas escolhas e pelo que a vontade determina. Esse delicado 
movimento requer o encontro vivo e não apenas virtual. Aqui o problema adquire contornos mais nítidos: 
como preparar para uma ação responsável, se predomina o estímulo para decisões rápidas, dirigidas e não 
refletidas; para as facilidades que desabonam o empenho, a paciência, o encontro consigo mesmo? 
Em geral, a discussão da questão ética na IA preocupa-se em responder a quem atribuir a 
responsabilidade quando a utilizamos para que oriente a respeito de decisões e faça algo por nós. Essa é 
uma dimensão importante do debate, relacionada com a responsabilização de plataformas e com quem 
https://creativecommons.org/licenses/by/4.0/deed.pt-br
ÉTICA E INTELIGÊNCIA ARTIFICIAL: O QUE INQUIETA?
Educ. Soc., Campinas, v. 46, e296750, 20258
é responsável pelo conteúdo veiculado; não é, contudo, o interesse específico deste trabalho, que quer 
mostrar como a IA afeta a subjetividade e o agir ético. E a isso devemos estar atentos, não para recusar a IA, 
mas para dimensioná-la, reconhecê-la em suas possibilidades e restrições no processo formativo. Embora 
ambos os temas – por um lado, a discussão da ética na IA em relação à justiça, governança, veracidade etc.; 
e, por outro, a repercussão na subjetividade e na formação ética de usuários de IA – estejam inter-relacionados, 
o foco deste texto centra-se na questão de como a IA afeta a formação do sujeito ético, que será tratado no 
próximo tópico. 
A Formação do Sujeito Ético
A partir do exposto, pretendo apresentar um segundo passo argumentativo em relação às 
afecções do sujeito ao interagir com a IA, no sentido de questionar até que ponto e como a IA atua na 
perspectiva de favorecer ou obliterar a capacidade de deliberação ética. Vou valer-me da phronesis 
(sabedoria prática) aristotélica que retoma a base ontológica do saber e já se encontra incorporada em nossa 
própria autocompreensão, servindo para interpretar ações e sentimentos, como observa Bernard Williams 
(2011) a respeito da recuperação de alguns conceitos da moral grega para o debate contemporâneo. Quando 
necessário, também lançarei mão do conceito moderno de consciência.
Considerando que a IA já está presente em nossa existência, fascinando os espíritos, alimentando 
as mais altas ambições, sabe-se que não haverá recuo; seu uso é incontornável. O aspecto positivo da IA e 
do mundo virtual é a oferta de informações e de produções de modo quase inimaginável e a ampliação dos 
espaços de comunicação entre as pessoas, estimulando uma tendência de empoderamento desconhecida até 
então pelos meios tradicionais. Os usuários sentem-se autores, emitem opiniões, ampliam o espaço de inclusão 
sem nenhuma mediação, o que instaura uma ampliação de poder participativo. Essa foi a grande promessa 
inicial, de cunho democrático e com pretensão igualitária. Desde a década de 1990, contudo, o mundo 
digital não revela mais esse otimismo, na medida em que seu poder destrutivo ficou exposto, especialmente 
pelo uso massivo da IA. Acentuou-se vertiginosamente a disseminação de fake news, a violência simbólica 
e o direcionamento seletivo de mensagens5. Impulsionado por algoritmos, o espaço digital é dominado por 
corporações que não se abrem ao escrutínio científico e político, produzindo distorções no debate público. 
Hoje, criam-se textos, fotos digitais, conversas falsificadas com qualquer conteúdo desejado e, se 
tal fato causa indignação e profunda desconfiança para alguns, a maioria dos usuários permanece presa a 
elas em decorrência de dependência psíquica às sensações e emoções fortes, gerando um efeito perverso. 
O cuidado em discernir o que faz bem ou desvirtua assume contornos decisivos na instauração de um ethos. 
Aristóteles já observava que, quando há perversão, já não vê a causa da ação, pois “o vício destrói o princípio” 
(Aristóteles, 1985, p. 276). Assim, tanto a formação do caráter, em termos aristotélicos, como a internalização 
da consciência moral, em termos modernos, têm em comum a luta contra as perversões, que depende da 
disposição por escolhas e ações corretas. Não se trata de uma mera autoconservação, mas de uma abertura 
para a escolha do bem-viver, o que mobiliza as crenças e os afetos. 
A possibilidade de manipulação da verdade e das crenças por meio de algoritmos treinados tende 
a promover uma diluição da esfera pública com fortes repercussões na experiência formativa. Tal contexto 
levou Habermas a atualizar o diagnóstico da esfera pública, reconhecendo que “a lava desse potencial 
simultaneamente antiautoritário e igualitário que ainda era sentido no espírito californiano dos primeiros 
anos, logo se solidificou na careta libertária das corporações digitais do Vale do Silício que dominam o 
mundo” (Habermas, 2022, p. 46). Estamos ainda aprendendo a manejar esses novos fenômenos. E Habermas 
acrescenta uma observação que interessa especialmente para a formação. Diz ele:
https://creativecommons.org/licenses/by/4.0/deed.pt-br
Educ. Soc., Campinas, v. 46, e296750, 2025
Hermann N
9
O auto-empoderamento dos usuários da mídia é um efeito; o outro é o preço que eles pagam por 
serem liberados da tutela editorial da velha mídia, já que ainda não aprenderam suficientemente 
como lidar com a nova mídia. Assim como a impressão de livros transformou todos em leitores 
potencial, a digitalização hoje transforma todos em autores em potencial. Masquanto tempo 
levou até todos aprenderem a ler? (Habermas, 2022, p. 46). 
Apesar do tempo que foi necessário para a aprendizagem da leitura (ainda há analfabetos e analfabetos 
funcionais em muitas regiões do Brasil), hoje não se lê com mesma intensidade, pois com a ascensão das 
mídias sociais todos são autores; muitos escrevem e poucos leem. A própria leitura é substituída pelos 
resumos e esquemas produzidos pela sofisticação tecnológica. E a atenção, concentração, reflexão necessárias 
à leitura que fomentou a ideia de formação do sujeito moderno, tanto na sua dimensão ética como política, 
foi sendo obliterada. Há uma nova esfera pública inundada pela escrita, mas com pouquíssima reflexão. 
Quando aprenderemos a manejar esses novos processos ainda não sabemos, e nisso ressoa a advertência de 
Heidegger, referida anteriormente, que o mais inquietante “é o facto de nós ainda não conseguirmos, através 
do pensamento que medita, lidar adequadamente com aquilo que, nesta era, está realmente a emergir” 
(Heidegger, 2001, p. 21).
 Encontramo-nos às voltas com o domínio inescrupuloso das operações algorítmicas, orientadas por 
motivações econômicas e ideológicas de donos de plataformas digitais que direcionam interesses e influem 
de forma distorcida nas decisões, solapando o processo de autonomia.
Um usuário de rede recebe inúmeras informações e muitas vezes sequer sabe que a IA está sendo 
usada. A esse respeito, Coeckelbergh (2023) destaca que um dos problemas para a ética é o modo pelo qual 
a IA toma decisões, ou seja, ela foi programada para chegar a uma determinada decisão e isso pode ser 
explicado se conhecemos o código. Mas quando se trata de máquinas com aprendizado profundo, a situação 
se complica, pois elas são baseadas em redes neurais, e o tipo de decisão tomada não é mais explicável e 
transparente6. Sabe-se como o sistema geral funciona, mas não a decisão particular tomada pelos algoritmos. 
Diz Coeckelbergh (2023, p. 111):
[...] mesmo deixando de lado o problema particular do aprendizado da máquina (profundo), 
há um problema de conhecimento com a IA na medida em que muitas pessoas que a usam não 
sabem o que estão fazendo, quais são seus efeitos, ou nem mesmo sabem que está sendo utilizada. 
Isso também é um problema de responsabilidade e, portanto, um sério problema ético.
Do ponto de vista da formação ética, o modo pouco transparente pelo qual os algoritmos direcionam 
as ações eclipsa a capacidade de julgar e deliberar, na medida em que o espaço interativo da experiência, 
que permitiria adquirir o saber ético, é objetificado pela própria dinâmica operacional dos algoritmos, 
alienando o sujeito em relação à sua escolha. Esse aspecto é insidioso para a formação do sujeito, pois ele 
se subjetiva a partir das experiências vividas, e as interações com a IA não ampliam sua capacidade de bem 
deliberar, tampouco permitem a reflexão sobre os elementos envolvidos nesse processo.
Ao acessar qualquer aparato tecnológico que usa IA, os algoritmos, quase instantaneamente, 
indicam conteúdos que retroalimentam o sistema, devolvendo ao sujeito uma objetificação de si mesmo. 
Essa objetificação se expressa na afirmação de determinado traço, de determinada característica ou 
preferência, que foram reconhecidos e, uma vez transformados em dados, são devolvidos ao usuário como 
um eu fragmentado, que acredita estar fazendo escolhas livres, embora permaneça disponível à manipulação. 
O próprio eu transforma-se num padrão de dados, “uma construção infinitamente flexível” (Carr, 2020, n.p.), 
numa incessante subjetivação. O sujeito é capturado pelos algoritmos a partir de um simples “click”, e na 
https://creativecommons.org/licenses/by/4.0/deed.pt-br
ÉTICA E INTELIGÊNCIA ARTIFICIAL: O QUE INQUIETA?
Educ. Soc., Campinas, v. 46, e296750, 202510
sequência desencadeia-se a indução do comportamento, numa tentativa sistemática de governar, dirigir. 
O ambiente torna-se restritivo em relação ao confronto, ao esforço de escolha, não havendo ponderação. Com 
a permanência apenas do estímulo que reafirma o eu e sua respectiva visão de mundo, ao indivíduo resta 
uma subjetivação narcísica incansável. Trata-se de uma dinâmica perversa, como referido anteriormente, 
porque os algoritmos comandados pela IA podem reforçar preconceitos, distorcer a realidade e estimular 
comportamentos altamente indesejáveis, alienando o sujeito de responsabilização. 
Ao invés de participar de um espaço interativo em que seja possível concordar ou discordar 
mediante justificações apresentadas, motivadas pelo convencimento racional, esse processo é transfigurado 
pela aparente liberdade de escolha, pela manipulação emocional – limitando a riqueza da experiência que 
ocorre em um encontro vivo com a alteridade, pois o que é oferecido pela ação dos algoritmos é sempre 
o mesmo. Institui-se, assim, a mesmidade, a versão do si próprio que se opõe ao outro, fortalecendo uma 
subjetividade que tende a excluir a alteridade. Assim, as ações estimulam uma formação fechada na sua 
própria perspectiva, sem a confrontação com algo fora de si mesmo. Na ausência do outro interiorizado, 
a autonomia corre o risco de se tornar um desmedido egoísmo. Assim, a formação da autoconsciência se 
distorce, uma vez que ela depende da alteridade. É nesse sentido que Habermas pergunta: 
Ou não será verdade que nós só nos tornamos conscientes de nós mesmos nos olhares que 
um outro lança sobre nós? Nos olhares de um “tu”, de uma segunda pessoa que fala comigo na 
primeira pessoa, eu me torno consciente de mim mesmo, não somente como um sujeito capaz 
de vivenciar coisas em geral, mas também e, ao mesmo tempo, como um eu individual. Os 
olhares subjetivadores do outro possuem uma força individualizadora (Habermas, 2005, p. 19). 
A retirada da força do olhar subjetivador, substituindo-o por sistemas de IA ou máquinas que reforçam 
o engajamento e as emoções negativas ao invés do confronto com outras ideias, crenças e valores, frauda as 
expectativas da formação como uma criação de si mesmo. A consciência, como lembra Habermas, só tem a 
aparência de privada, pois mesmo quando faz os movimentos de sua intimidade, continua alimentando-se 
“dos fluxos da rede cultural de pensamentos públicos, expressos de modo simbólico e compartilhados 
intersubjetivamente” (Habermas, 2005, p. 18, grifo do autor). Os processos interativos vivos nos colocam diante 
do estranho, um desafio que impulsiona a capacidade de considerar criticamente as perspectivas em confronto, 
levando-nos a um entendimento que ultrapassa nossa cosmovisão. Como Aristóteles destaca, entendimento 
e a sabedoria prática não são a mesma coisa, mas “o entendimento se exercita na opinião ao julgar e julgar 
corretamente sobre coisas que são objeto de sabedoria prática quando alguém fala sobre elas” (Aristóteles, 1985, 
p. 284). Long (2002) realça que o termo “entendimento” é o mesmo que “apreensão consciente”, para enfatizar 
a autorreflexão crítica que acompanha cada julgamento ou deliberação:
A capacidade de imaginar o caminho para a posição do outro e de ouvir enquanto outro fala 
(allou legontos) são elementos importantes da apreensão consciente, porque interrompem o 
monólogo interno do phronimos [aquele que é prudente, NH] e orientam-no para o que está 
fora de si (Long, 2002, p. 46, grifos do autor). 
Essa dimensão dialógica da phronesis se expressa pelo reconhecimento do outro, experiência que 
joga o sujeito para fora de suas reservas, desafiando-o a rever criticamente os princípios que orientam o 
agir. Tal atitude crítica pressupõe o recurso mental de colocar-se diante de outra perspectiva, uma exigência 
intelectual para a compreensão da situação. Nesse contexto, o mundo dos algoritmos não desafia, apenas 
reafirma a própria cosmovisão do sujeito. 
https://creativecommons.org/licenses/by/4.0/deed.pt-br
Educ. Soc., Campinas, v. 46, e296750, 2025
Hermann N
11
Estamos mesmo alienados em nossas decisões? Somos ainda capazes de refletir sobre elas? 
Ou apenas seguimos multidões,cegos ao rumo que se evidencia de modo destrutivo? Caso não possamos 
deliberar e pensar sobre nossas ações, não estaremos sujeitos a catástrofes político-sociais e educacionais? 
Pensar sobre o significado das transformações em curso reverbera o problema filosófico e ético a respeito da 
autonomia do homem, se é livre para decidir por si mesmo – desiderato em torno do qual gravitam todos 
os projetos educativos modernos, aglutinando as expectativas de uma vida que não seja estreita e nivelada.
Uma educação que se vê cada vez mais capturada pela pressão do uso de recursos digitais, pela 
instantaneidade e pelo acúmulo de informação expõe-se ao risco constante de obliterar o pensamento; 
abandonar a riqueza do encontro humano e do diálogo; e enfraquecer a capacidade de autocompreensão, 
decisiva para a formação de si mesmo. O tempo maquínico não se coaduna com a dimensão ética da formação. 
Esta precisa do tempo da palavra, da reflexão, do exercício da atividade crítica e de uma sensibilidade apurada 
para se orientar em relação às escolhas. 
O Inquietante Desafia
No início deste ensaio abordei o impacto da técnica com o exemplo do questionamento do Velho 
do Restelo para ilustrar os desafios éticos que acompanham novas tecnologias em cada tempo histórico. 
Com elas vem o novo, o estranho, o que é desconhecido em suas repercussões, aquilo com o qual não 
sabemos lidar e que pode se tornar perigoso. Hoje, as tecnologias virtuais e os sistemas de IA dominam o 
mundo e exigem uma resposta ética consoante às transformações que acarretam. Assim, o que inicialmente 
se configurou como uma inquietação impõe-se agora como um desafio à reflexão ética.
Talvez a dimensão mais desafiadora do domínio tecnológico foi expressa por Galimberti ao 
reconhecer que a técnica assume “o horizonte da autocompreensão humana” (Galimberti, 2006, p. 597). 
Isso significa que o homem não tem uma estrutura estável, ficando a natureza humana exposta aos efeitos 
da modalidade tecnológica, sob a pressão dos dispositivos maquínicos e do fluxo gigantesco de informação. 
Passamos, assim, de uma cultura da experiência para a cultura da informação e da virtualização. O saber ético 
(phronesis), que orienta o agir, depende da experiência, do pensamento, e não se coaduna com a informação 
acelerada, o que dá a medida do risco em situar a autocompreensão humana no horizonte da técnica. 
Não se trata mais da indefectível desconfiança da natureza humana (problematizada desde o 
pensamento antigo), mas da queda de um conceito fixo de natureza humana, que já vinha se anunciando 
e que agora aprofunda a questão do sentido da existência. O próprio psiquismo e os modos de interação 
são afetados pelo mundo virtual7, o que torna incontornável a pergunta: Pode um processo formativo, que 
pretenda formar um sujeito comprometido com os destinos de sua existência, ser submetido aos desígnios 
exclusivos da tecnologia? 
Tais desígnios são limites estreitos demais; o desafio que se interpõe à formação não condiz com o 
abandono das questões a respeito de como devemos viver, que ideias de bem são historicamente entendidas 
como válidas, que exigências de reciprocidade podemos nos impor quanto às normas a cumprir, o que afeta 
a decisão moral. A reflexão ética na educação, a relação com o mundo e com a tecnologia se sustenta pelo 
exame da condição humana. Trata-se, portanto, de ampliar nossa autocompreensão moral, que depende do 
reconhecimento daquilo que nos afeta. O processo formativo não se fundamenta na inovação tecnológica 
(confusão frequente em muitos ambientes educacionais), mas em fomentar uma atitude favorável à ética, ou 
seja, promover naqueles que se educam a disposição de julgar e adquirir confiança em pensar por si mesmo, 
de criar-se a si mesmos, sem abandonar a ideia de um mundo comum. Nessa medida, é preciso aprender a 
https://creativecommons.org/licenses/by/4.0/deed.pt-br
ÉTICA E INTELIGÊNCIA ARTIFICIAL: O QUE INQUIETA?
Educ. Soc., Campinas, v. 46, e296750, 202512
lidar com o mundo novo que a IA descortina, tendo no horizonte o reconhecimento de que as ações humanas 
entrelaçam cognição, emoção e sentimentos, gerando o pensamento criativo. E isso, por óbvio, não é o 
mesmo que o acúmulo abissal de dados processados em base a algoritmos, que direcionam comportamentos. 
Nossas decisões não envolvem apenas cognição, mas são qualificadas, orientadas por ideias de bem e de mal; 
por valores e crenças; por questões de dignidade e justiça, cuja aprendizagem requer processos dialógicos e 
exercício do pensamento.
O prestígio da tecnologia não deve nos conduzir a delírios, obscurecer nossa capacidade de pensar. 
Permanece válida a recomendação de Heidegger, feita em 1959, quando ainda não havia IA, mas o mundo 
já conhecia o poder transformador de muitas tecnologias. Ele afirma, em Serenidade: 
Podemos utilizar os objectos técnicos tal como eles têm de ser utilizados. Mas podemos, 
simultaneamente, deixar esses objetos repousar em si mesmos como algo que não interessa àquilo 
que temos de mais íntimo e de mais próprio. Podemos dizer ‘sim’ à utilização inevitável dos objetos 
técnicos e podemos ao mesmo tempo dizer ‘não’, impedindo que nos absorvam e, desse modo, 
verguem, confundem e, por fim, esgotem a nossa natureza (Wesen) (Heidegger, 2001, p. 23-24). 
O sim e o não expressam a atitude ética responsável diante da técnica. Não há como demonizá-la, 
pois seria incompatível com nossa dependência de todos os artefatos tecnológicos e de sistemas de IA; 
mas igualmente não devemos nos submeter à servidão. Dependemos de uma escolha de natureza ética.
Notas
1. Apesar das distintas abordagens teórico-metodológicas a respeito do tema, Spinoza (2008), Nietzsche (1988) e Merleau-
Ponty (1999) rompem com o dualismo corpo-alma ao defenderem que ambos constituem totalidades complexas e 
integradas. Tanto a subjetividade, os afetos, a cognição e relação com o mundo têm base corpórea assim como o agir 
humano é interpelado por uma consciência corpórea, o que torna insustentável a pressuposição das novas tecnologias 
de que nosso ser pensante poderia ser independente do corpo, que o self se transformaria em padrões de dados.
2. Mark Coeckelbergh (2023) mostra que isso não é novo na história da humanidade, pois a ideia de uma superinteligência 
e de um cérebro que sobreviveria a nós está relacionado com a transcendência, cujas raízes culturais são muito antigas 
e se expressam no desejo de imortalidade, como aspira a tradição cristã, as narrativas mitológicas mesopotâmicas, 
a filosofia platônica. As ideias de apocalipse e escatologia, presentes na tradição judaico-cristã, são igualmente 
projetadas na interpretação da singularidade tecnológica, ou seja, na sua capacidade de dominar o ser humano, 
mesmo sendo a tecnologia uma produção científico-tecnológica, portanto secularizada e não ficcional.
3. Heidegger retoma conceitos da filosofia prática de Aristóteles no curso Conceitos fundamentais da filosofia aristotélica, 
de 1924, publicado em 2002; na obra Sofista: Platão, de 1924/1925, publicado em 1992; entre outros trabalhos. 
Na época em que Heidegger ministrou o curso sobre a Ética de Aristóteles, um de seus alunos, Hans-Georg 
Gadamer, relatou essa experiência a respeito da distinção entre téchne e phronesis. Diz ele: “Encontra-se formulado 
em Aristóteles como distinção o seguinte: aquilo que se pode aprender no saber artesanal pode ser desaprendido; 
no que concerne à phronesis, porém, não há lethe, nenhum esquecimento. Heidegger [nos] perguntou: o que 
isso significa? E como exatamente nesse momento o sinal de aviso do final da aula tocou, ele se levantou e disse: 
‘Meus senhores, eis aí a consciência’ – e foi embora. De maneira dramática e violenta, com certeza. Haveria 
efetivamente algumas coisas a dizer sobre a diferença entre consciência e o conceito aristotélico de phronesis. 
https://creativecommons.org/licenses/by/4.0/deed.pt-br
Educ. Soc., Campinas, v. 46, e296750, 2025
Hermann N
13
Todavia, por meio dessa teseprovocadora, as pessoas foram incontornavelmente impelidas para suas próprias 
questões” (Gadamer, 1999, p. 7, grifos do autor).
4. Segundo Müller (2020, n.p.), mesmo estando em fase inicial, “há esforços técnicos para remover o viés de sistemas 
de IA [...]. Parece que as soluções tecnológicas têm [contudo] seus limites, pois exigem uma noção matemática de 
justiça, o que é difícil de alcançar”.
5. Pedro Abramovay e Yasmin Curzi de Mendonça, em reportagem à Revista Piauí, mostram como as redes sociais, 
desde o fim dos anos de 1990, se tornaram um espaço propício à manipulação, com algoritmos treinados para 
capturar a atenção e priorizar conteúdos mentirosos e agressivos: “A lista de escândalos que vieram à tona desde 
então é extensa. No plebiscito de 2016 sobre o acordo de paz na Colômbia, campanhas de desinformação distorceram 
os termos da negociação, o que colaborou para a vitória do ‘não’ e frustrou a pacificação definitiva do conflito com 
as Farc. Em Myanmar, o Facebook foi instrumento de uma campanha de ódio contra a minoria étnica rohingya, 
criando as condições que resultaram em um genocídio. A desinformação sobre vacinas, principalmente durante a 
pandemia de Covid, contribuiu – e o faz ainda hoje – para a baixa cobertura vacinal de alguns países. Atendendo 
aos interesses de petroleiras, conteúdos com desinformação sobre as mudanças climáticas circulam livremente 
pelas redes. Somam-se a isso os ataques frequentes a personalidades públicas, sobretudo mulheres da política e do 
jornalismo” (Abramovay; Mendonça, 2025, n.p.).
6. A questão da transparência e da explicabilidade da IA é relevante para toda a sociedade. “O perigo não é somente 
de manipulação e dominação pelos capitalistas ou elites tecnocráticas, criando uma sociedade altamente dividida. 
O perigo subsequente e talvez mais profundo que surge aqui é o de uma sociedade altamente tecnológica, na qual 
nem mesmo essas elites saibam mais o que estão fazendo e ninguém mais responda pelo que está acontecendo” 
(Coeckelbergh, 2023, p. 112).
7. Já há um número expressivo de pesquisas a respeito dos problemas de desenvolvimento neural, intelectual e emocional 
de crianças e jovens decorrentes da exposição contínua aos dispositivos digitais. Cf. Desmurget (2023) e Haidt (2024).
Conflito de Interesse
Nada a declarar.
Disponibilidade de Dados de Pesquisa
Todos os dados foram gerados/analisados no presente artigo.
Financiamento
Não se aplica.
Agradecimentos
Não se aplica.
https://creativecommons.org/licenses/by/4.0/deed.pt-br
ÉTICA E INTELIGÊNCIA ARTIFICIAL: O QUE INQUIETA?
Educ. Soc., Campinas, v. 46, e296750, 202514
Referências
ABRAMOVAY, P.; MENDONÇA, Y. C. A liberdade segundo Zuckenberg. Revista Piauí. Publicada em: 
15 jan. 2025. Disponível em: https://piaui.folha.uol.com.br/mark-zuckerberg-meta-facebook-trump/. 
Acesso em: 20 mar 2025. 
ANDRADE, C. D. Poesia completa. Rio de Janeiro: Nova Aguilar, 2003.
ARISTÓTELES. Ética Nicomáquea. Madrid: Editorial Gredos, 1985.
CAMÕES, L. V. Os Lusíadas. São Paulo: Nova Cultural, 2002.
CARR, N. Superficiales: ¿Qué está haciendo internet con nuestras mentes? Madrid: Taurus, 2010.
CARR, N. Not being there: from virtuality to remoteness. Rough Type. 31 dez. 2020. Disponível em: 
https://www.roughtype.com/?p=8824. Acesso em: 30 nov. 2021. 
CHALMERS, D. Could a large language model be conscious? Boston Review, 9 ago. 2023. Disponível em: https://
www.bostonreview.net/articles/could-a-large-language-model-be-conscious/#_edn4. Acesso em: 24 abr. 2025.
COECKELBERGH, M. Ética na inteligência artificial. São Paulo: UBU; Rio de Janeiro: Editora PUC-Rio, 2023.
DESMURGET, M. A fábrica de cretinos digitais: os perigos das telas para nossas crianças. São Paulo: 
Vestígio, 2023. 
D’ONOFRIO, S. O velho do Restelo e a consciência crítica de Camões. Revista de História (USP), São Paulo, 
v. 40, n. 81, 1970, p. 75-89. https://doi.org/10.11606/issn.2316-9141.rh.1970.128942
GADAMER, H. G. Hermeneutik I wahrheit und methode: grundzüge einer philosophischen hermeneutik. 
In: GADAMER, H. G. Gesammelte werke. Tübingen: Mohr Siebeck, 1990.
GADAMER, H. G. Hermeneutik im rückblick. In: GADAMER, H. G. Gesammelte werke. v. 10. Tübingen: 
Mohr Siebeck, 1999.
GALIMBERTI, U. Psique e techne. São Paulo: Paulus, 2006.
HABERMAS, J. Zwischen naturalismus und religion: philosophische aufsätze. Frankfurt am Main: 
Suhrkamp, 2005.
HABERMAS, J. Ein neuer strukturwandel der öffentlichkeit und die deliberative politik. Berlin: Suhrkamp, 
2022.
HAIDT, J. A geração ansiosa: como a infância hiperconectada está causando uma epidemia de transtornos 
mentais. São Paulo: Companhia das Letras, 2024. 
HEIDEGGER, M. Serenidade. Lisboa: Instituto Piaget, 2001.
INSTITUTO HUMANITAS UNISINOS. Ser humano e inteligência artificial: os próximos desafios do onlife. 
Entrevista com Luciano Floridi. Instituto Humanitas Unisinos. 28 out. 2020. Disponível em: https://www.
ihu.unisinos.br/78-noticias/604136-ser-humano-e-inteligencia-artificial-os-proximos-desafios-do-onlife-
entrevista-com-luciano-floridi. Acesso em: 18 mar. 2025.
https://creativecommons.org/licenses/by/4.0/deed.pt-br
https://www.bostonreview.net/articles/could-a-large-language-model-be-conscious/#_edn4
https://piaui.folha.uol.com.br/mark-zuckerberg-meta-facebook-trump/
https://www.ihu.unisinos.br/78-noticias/604136-ser-humano-e-inteligencia-artificial-os-proximos-desafios-do-onlife-entrevista-com-luciano-floridi
https://www.ihu.unisinos.br/78-noticias/604136-ser-humano-e-inteligencia-artificial-os-proximos-desafios-do-onlife-entrevista-com-luciano-floridi
https://www.ihu.unisinos.br/78-noticias/604136-ser-humano-e-inteligencia-artificial-os-proximos-desafios-do-onlife-entrevista-com-luciano-floridi
https://www.bostonreview.net/articles/could-a-large-language-model-be-conscious/#_edn4
Educ. Soc., Campinas, v. 46, e296750, 2025
Hermann N
15
LEITE, G. A Revolução Digital, segundo Luciano Floridi. Outras Palavras. São Paulo, 8 nov. 2023. Disponível em: 
https://outraspalavras.net/outrasaude/a-revolucao-digital-segundo-luciano-floridi/. Acesso em: 18 mar. 2025.
LONG, C. P. The ontological reappropriation of phronesis. Continental Philosophy Review, Dordrecht, v. 35, 
2002, p. 35-60. https://doi.org/10.1023/A:1015180421385
MERLEAU-PONTY, M. Fenomenologia da percepção. 2. ed. Trad. Carlos Alberto Ribeiro de Moura. 
São Paulo: WMF Martins Fontes, 1999. 
MÜLLER, V. C. Ethics of artificial intelligence and robotics. The Stanford Encyclopedia of Philosophy. 
2020. Disponível em: https://plato.stanford.edu/archives/fall2023/entries/ethics-ai/. Acesso em: 10 mar. 2025. 
NIETZSCHE, F. Also sprach Zarathustra. v. 4. München: Deutscher Taschenbuch Verlag; Berlin/New York: 
de Gruyter, 1988. 
RAY KURZWEIL e o mundo que nos espera: uma entrevista com o inventor e futurólogo americano. Revista 
Piauí. Ed. 43, abr. 2010. Disponível em: https://piaui.folha.uol.com.br/materia/ray-kurzweil-e-o-mundo-que-
nos-espera/. Acesso em: 30 mar. 2025.
RUIZ, C. B. A algoritimização da vida: a nova governamentabilização das condutas. Cadernos IHUideias, 
São Leopoldo, v. 19, n. 314, 2021. Disponível em: https://www.ihu.unisinos.br/images/stories/cadernos/
ideias/314cadernosihuideias.pdf. Acesso em: 15 fev. 2025.
SCHMIDT, D. On the sources of ethical life. Research in Phenomenology, Leiden, v. 42, n. 1, p. 35-48, 2012. 
https://doi.org/10.1163/156916412X628739
SPINOZA, B. Ethik ordine geométrico demonstrata. In: Werke II: herausgegeben von Konrad Blumenstock. 
Darmstadt: Wissenschaftliche Buchgesellschaft, 2008.
WILLIAMS, B. Vergüenza y necesidad: recuperación de algunos conceptos morales de la Grecia antigua. 
Madrid: Machado Libros, 2011.
Sobre a Autora
NADJA HERMANN é professora titular aposentada de Filosofia da Educação da Universidade Federal do 
Rio Grande do Sul. Integra os grupos de pesquisa Racionalidade e Formação e SurPaideia.
Recebido: 13 maio 2025
Aceito: 17 jul. 2025 
https://creativecommons.org/licenses/by/4.0/deed.pt-br
https://piaui.folha.uol.com.br/materia/ray-kurzweil-e-o-mundo-que-nos-espera/https://www.ihu.unisinos.br/images/stories/cadernos/ideias/314cadernosihuideias.pdf
https://www.ihu.unisinos.br/images/stories/cadernos/ideias/314cadernosihuideias.pdf
https://piaui.folha.uol.com.br/materia/ray-kurzweil-e-o-mundo-que-nos-espera/

Mais conteúdos dessa disciplina