Prévia do material em texto
1/3 Máquinas podem se passar por humanos, mas o cérebro subconsciente não é enganado As pessoas não podem dizer de forma confiável se um texto é produzido por um humano ou uma máquina – mas a atividade neural subconsciente revela a verdadeira identidade. Quando Xiaochu Zhang aprendeu a escrever código de computador como um estudante do ensino médio, ele teve um sonho: construir uma máquina que pudesse enganar as pessoas a pensar que era humano. Ao longo dos anos, ele abandonou a codificação e estudou psicologia cognitiva, tornando-se professor no campo na Universidade de Ciência e Tecnologia da China. Mas o advento dos chatbots capazes de produzir textos elaborados e coerentes graças à inteligência artificial (IA) o lembrou de seu antigo objetivo. “Podemos falar com uma IA como uma pessoa”, disse Zhang. “Isso me surpreendeu.” Zhang decidiu se juntar ao seu sonho adolescente com seu conhecimento atual e projetou um experimento para explorar se as pessoas podem ou não distinguir textos produzidos por humanos versus máquinas. Os resultados foram publicados recentemente na Advanced Science. Insto subconscientes Ele ficou impressionado ao descobrir que, em um nível consciente, as pessoas são notavelmente ruins em detectar quais textos são produzidos por humanos e quais são por chatbots. Mas ainda mais https://www.advancedsciencenews.com/robots-in-the-workforce-how-can-we-compete/ https://www.advancedsciencenews.com/a-robot-that-smiles-back/ https://www.advancedsciencenews.com/a-robot-that-smiles-back/ 2/3 surpreendentemente, há alguma atividade mental subconsciente que detecta de forma mais confiável se uma pessoa ou uma máquina produziu cada texto. No experimento, os participantes foram apresentados com diálogos entre uma pessoa e um interlocutor – um chatbot ou outra pessoa. Eles foram solicitados a avaliar a personalidade do interlocutor com base em parâmetros bem estabelecidos e, em seguida, foram submetidos a uma tomografia de fMRI para avaliar sua atividade neural durante a leitura dos textos. Enquanto seus cérebros eram escaneados, os participantes foram convidados a declarar se achavam que o interlocutor era um ser humano ou uma máquina. Os pesquisadores descobriram que, não importa quem tivesse produzido o texto, uma região específica no cérebro dos participantes, chamada rede mentalizante, foi ativada. Essa região tentou avaliar a personalidade e as intenções do interlocutor. “Quando ouvimos padrões de linguagem, precisamos inferir os pensamentos e intenções internas dos outros observando ou imaginando sua fala, ações e expressões faciais”, disse Zhengde Wei, pesquisador associado da Universidade de Ciência e Tecnologia da China e primeiro autor do artigo, “e a rede mentalizadora é usada para isso”. Os pesquisadores observaram que, enquanto muitas pessoas foram enganadas a pensar que os interlocutores da máquina eram de fato humanos, a atividade na rede mentalizante geralmente dava a verdadeira identidade do interlocutor. Embora o tamanho da amostra seja relativamente pequeno e, portanto, os resultados precisem ser validados com um número maior de chats e de pessoas avaliando- os, as implicações são potencialmente muito profundas. “É fascinante”, disse Anna Ivanova, pesquisadora de pós-doutorado do MIT Quest for Intelligence, que não esteve envolvida no artigo, “porque [...] você pensaria que ativaríamos nossas regiões de processamento de linguagem ao ler esses textos, o que fazemos, mas além disso construímos automaticamente esse modelo mental do falante em nossas cabeças”. Os resultados implicam que, em um nível subconsciente, o cérebro pode distinguir entre humanos e máquinas, mesmo que não possa distingui-los conscientemente. Uma personalidade confusa No teste de personalidade, as pessoas atribuem valores menos consistentes aos chatbots do que os humanos. Isso não é tão surpreendente, uma vez que as máquinas aprendem com muitas fontes diferentes, e elas não têm intenções reais, gostos ou emoções. Ainda assim, para Ivanova, a classificação de personalidade abre uma porta para projetar uma maneira prática de diferenciar os humanos das máquinas. “O que me diz [...] é que as pessoas são ruins em descobrir se o chatbot escreveu o texto ou o humano [fez], mas elas pegam algumas pistas que as ajudariam a tomar essa decisão, elas simplesmente não as usam.” Talvez, ela sugeriu, as pessoas pudessem ser treinadas para detectar essas pistas e aproveitá-las para detectar a autoria do texto de forma confiável. Os autores também afirmam que seu experimento deve ajudar a construir chatbots que usam a linguagem de maneira mais semelhante aos humanos, o que contribuiria para interações perfeitas entre nós e as máquinas. No entanto, os professores estão cada vez mais preocupados com o potencial de 3/3 fraude se os alunos começarem a entregar o trabalho produzido por máquina que é original (ou seja, livre de plágio), mas não escrito por eles. Embora o desenvolvimento de maneiras de detectar a verdadeira autoria possa ajudar a detectar casos de fraude, Zhang fica mais intrigado com a possibilidade de a IA substituir professores do que os alunos e o efeito potencial que isso pode ter em nossos cérebros. “Nós aprendemos com os humanos, então somos humanos. Se aprendermos com não-humanos, não sabemos o que vai acontecer [...] então é muito perigoso usar conversas de IA na educação porque as crianças aprenderiam inconscientemente com os não-humanos ”, argumentou. É por isso que há cada vez mais defensores para expandir as normas legais para orientar o desenvolvimento de ferramentas de IA e canalizar seu enorme potencial para resultados benéficos. “Nós só precisamos de regulamentos realmente fortes e estruturas baseadas em ética sobre como usá- los, como garantir que os grandes modelos não sejam usados para enganar as pessoas”, disse Ivanova. “Descobrir como minimizar os danos e maximizar os benefícios é provavelmente o que teremos que fazer, porque parar isso é essencialmente impossível neste momento.” Referência: Zhengde Wei et al., Percepção implícita das diferenças entre a linguagem produzida pela PNL e a linguagem produzida pelo homem na rede mentalizante, Ciência Avançada (2023). DOI: 10.1002/advs.202203990 Crédito da imagem: Christin Hume em Unsplash ASN WeeklyTradução Inscreva-se para receber nossa newsletter semanal e receba as últimas notícias científicas diretamente na sua caixa de entrada. ASN WeeklyTradução Inscreva-se no nosso boletim informativo semanal e receba as últimas notícias científicas. https://doi.org/10.1002/advs.202203990