Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.

Prévia do material em texto

1/3
Máquinas podem se passar por humanos, mas o cérebro
subconsciente não é enganado
As pessoas não podem dizer de forma confiável se um texto é produzido por um humano ou uma
máquina – mas a atividade neural subconsciente revela a verdadeira identidade.
Quando Xiaochu Zhang aprendeu a escrever código de computador como um estudante do ensino
médio, ele teve um sonho: construir uma máquina que pudesse enganar as pessoas a pensar que era
humano. Ao longo dos anos, ele abandonou a codificação e estudou psicologia cognitiva, tornando-se
professor no campo na Universidade de Ciência e Tecnologia da China.
Mas o advento dos chatbots capazes de produzir textos elaborados e coerentes graças à inteligência
artificial (IA) o lembrou de seu antigo objetivo. “Podemos falar com uma IA como uma pessoa”, disse
Zhang. “Isso me surpreendeu.”
Zhang decidiu se juntar ao seu sonho adolescente com seu conhecimento atual e projetou um
experimento para explorar se as pessoas podem ou não distinguir textos produzidos por humanos
versus máquinas. Os resultados foram publicados recentemente na Advanced Science.
Insto subconscientes
Ele ficou impressionado ao descobrir que, em um nível consciente, as pessoas são notavelmente ruins
em detectar quais textos são produzidos por humanos e quais são por chatbots. Mas ainda mais
https://www.advancedsciencenews.com/robots-in-the-workforce-how-can-we-compete/
https://www.advancedsciencenews.com/a-robot-that-smiles-back/
https://www.advancedsciencenews.com/a-robot-that-smiles-back/
2/3
surpreendentemente, há alguma atividade mental subconsciente que detecta de forma mais confiável se
uma pessoa ou uma máquina produziu cada texto.
No experimento, os participantes foram apresentados com diálogos entre uma pessoa e um interlocutor
– um chatbot ou outra pessoa. Eles foram solicitados a avaliar a personalidade do interlocutor com base
em parâmetros bem estabelecidos e, em seguida, foram submetidos a uma tomografia de fMRI para
avaliar sua atividade neural durante a leitura dos textos. Enquanto seus cérebros eram escaneados, os
participantes foram convidados a declarar se achavam que o interlocutor era um ser humano ou uma
máquina.
Os pesquisadores descobriram que, não importa quem tivesse produzido o texto, uma região específica
no cérebro dos participantes, chamada rede mentalizante, foi ativada. Essa região tentou avaliar a
personalidade e as intenções do interlocutor. “Quando ouvimos padrões de linguagem, precisamos inferir
os pensamentos e intenções internas dos outros observando ou imaginando sua fala, ações e
expressões faciais”, disse Zhengde Wei, pesquisador associado da Universidade de Ciência e
Tecnologia da China e primeiro autor do artigo, “e a rede mentalizadora é usada para isso”.
Os pesquisadores observaram que, enquanto muitas pessoas foram enganadas a pensar que os
interlocutores da máquina eram de fato humanos, a atividade na rede mentalizante geralmente dava a
verdadeira identidade do interlocutor. Embora o tamanho da amostra seja relativamente pequeno e,
portanto, os resultados precisem ser validados com um número maior de chats e de pessoas avaliando-
os, as implicações são potencialmente muito profundas.
“É fascinante”, disse Anna Ivanova, pesquisadora de pós-doutorado do MIT Quest for Intelligence, que
não esteve envolvida no artigo, “porque [...] você pensaria que ativaríamos nossas regiões de
processamento de linguagem ao ler esses textos, o que fazemos, mas além disso construímos
automaticamente esse modelo mental do falante em nossas cabeças”.
Os resultados implicam que, em um nível subconsciente, o cérebro pode distinguir entre humanos e
máquinas, mesmo que não possa distingui-los conscientemente.
Uma personalidade confusa
No teste de personalidade, as pessoas atribuem valores menos consistentes aos chatbots do que os
humanos. Isso não é tão surpreendente, uma vez que as máquinas aprendem com muitas fontes
diferentes, e elas não têm intenções reais, gostos ou emoções.
Ainda assim, para Ivanova, a classificação de personalidade abre uma porta para projetar uma maneira
prática de diferenciar os humanos das máquinas. “O que me diz [...] é que as pessoas são ruins em
descobrir se o chatbot escreveu o texto ou o humano [fez], mas elas pegam algumas pistas que as
ajudariam a tomar essa decisão, elas simplesmente não as usam.” Talvez, ela sugeriu, as pessoas
pudessem ser treinadas para detectar essas pistas e aproveitá-las para detectar a autoria do texto de
forma confiável.
Os autores também afirmam que seu experimento deve ajudar a construir chatbots que usam a
linguagem de maneira mais semelhante aos humanos, o que contribuiria para interações perfeitas entre
nós e as máquinas. No entanto, os professores estão cada vez mais preocupados com o potencial de
3/3
fraude se os alunos começarem a entregar o trabalho produzido por máquina que é original (ou seja,
livre de plágio), mas não escrito por eles.
Embora o desenvolvimento de maneiras de detectar a verdadeira autoria possa ajudar a detectar casos
de fraude, Zhang fica mais intrigado com a possibilidade de a IA substituir professores do que os alunos
e o efeito potencial que isso pode ter em nossos cérebros. “Nós aprendemos com os humanos, então
somos humanos. Se aprendermos com não-humanos, não sabemos o que vai acontecer [...] então é
muito perigoso usar conversas de IA na educação porque as crianças aprenderiam inconscientemente
com os não-humanos ”, argumentou.
É por isso que há cada vez mais defensores para expandir as normas legais para orientar o
desenvolvimento de ferramentas de IA e canalizar seu enorme potencial para resultados benéficos.
“Nós só precisamos de regulamentos realmente fortes e estruturas baseadas em ética sobre como usá-
los, como garantir que os grandes modelos não sejam usados para enganar as pessoas”, disse Ivanova.
“Descobrir como minimizar os danos e maximizar os benefícios é provavelmente o que teremos que
fazer, porque parar isso é essencialmente impossível neste momento.”
Referência: Zhengde Wei et al., Percepção implícita das diferenças entre a linguagem produzida pela
PNL e a linguagem produzida pelo homem na rede mentalizante, Ciência Avançada (2023). DOI:
10.1002/advs.202203990
Crédito da imagem: Christin Hume em Unsplash
ASN WeeklyTradução
Inscreva-se para receber nossa newsletter semanal e receba as últimas notícias científicas diretamente
na sua caixa de entrada.
ASN WeeklyTradução
Inscreva-se no nosso boletim informativo semanal e receba as últimas notícias científicas.
https://doi.org/10.1002/advs.202203990

Mais conteúdos dessa disciplina