Prévia do material em texto
1/3 Bate-papos com IA mudam atitudes sobre mudanças climáticas, Black Lives Matter As pessoas que eram mais céticas em relação à mudança climática causada pelo homem ou ao movimento Black Lives Matter que participou da conversa com um chatbot popular de IA ficaram desapontadas com a experiência, mas deixaram a conversa mais favorável ao consenso científico sobre mudanças climáticas ou BLM. Isso é de acordo com os pesquisadores que estudam como esses chatbots lidam com as interações de pessoas com diferentes origens culturais. Humanos experientes podem se ajustar às inclinações políticas e expectativas culturais de seus parceiros de conversação para se certificar de que são compreendidas, mas cada vez mais, os seres humanos se encontram em conversa com programas de computador, chamados modelos de linguagem grandes, destinados a imitar a maneira como as pessoas se comunicam. Pesquisadores da Universidade de Wisconsin-Madison que estudam IA queriam entender como um modelo de linguagem grande e complexo, o GPT-3, se apresentaria em um grupo culturalmente diversificado de usuários em discussões complexas. O modelo é um precursor que alimenta o ChatGPT de alto perfil. Os pesquisadores recrutaram mais de 3.000 pessoas no final de 2021 e início de 2022 para ter conversas em tempo real com o GPT-3 sobre mudanças climáticas e BLM. “O objetivo fundamental de uma interação como essa entre duas pessoas (ou agentes) é aumentar a compreensão da perspectiva uma da outra”, diz Kaiping Chen, professor de comunicação de ciências da vida que estuda como as pessoas discutem ciência e deliberam sobre questões políticas relacionadas – https://openai.com/blog/gpt-3-apps https://openai.com/chatgpt https://lsc.wisc.edu/facstaff/chen-kaiping/ 2/3 muitas vezes por meio de tecnologia digital. “Um bom modelo de linguagem grande provavelmente faria os usuários sentirem o mesmo tipo de compreensão.” Chen e Yixuan “Sharon” Li, um professor de ciência da computação da UW-Madison que estuda a segurança e confiabilidade dos sistemas de IA, juntamente com seus alunos Anqi Shao e Jirayu Burapacheep (agora um estudante de pós-graduação na Universidade de Stanford), publicaram seus resultados este mês na revista Scientific Reports. Os participantes do estudo foram instruídos a iniciar uma conversa com o GPT-3 através de uma configuração de bate-papo Burapacheep projetada. Os participantes foram orientados a conversar com o GPT-3 sobre mudanças climáticas ou BLM, mas foram deixados para abordar a experiência como desejavam. A conversa média foi para frente e para trás cerca de oito voltas. A maioria dos participantes saiu de seu bate-papo com níveis semelhantes de satisfação do usuário. “Nós fizemos a eles um monte de perguntas – você gosta? Você recomendaria isso? – sobre a experiência do usuário”, diz Chen. “Em relação ao gênero, raça, etnia, não há muita diferença em suas avaliações. Onde vimos grandes diferenças era entre opiniões sobre questões contenciosas e diferentes níveis de educação. Os cerca de 25% dos participantes que relataram os níveis mais baixos de concordância com o consenso científico sobre mudanças climáticas ou o mínimo de concordância com o BLM foram, em comparação com os outros 75% dos batedores, muito mais insatisfeitos com suas interações GPT-3. Eles deram aos bots meio ponto ou mais baixo em uma escala de 5 pontos. Apesar das pontuações mais baixas, o bate-papo mudou seu pensamento sobre os tópicos quentes. As centenas de pessoas que apoiaram menos os fatos da mudança climática e suas causas humanas se aproximaram de um conjunto de 6% do fim da escala de apoio. “Eles mostraram em suas pesquisas pós-chat que têm mudanças de atitude positiva maiores após a conversa com o GPT-3”, diz Chen. “Eu não vou dizer que eles começaram a reconhecer completamente a mudança climática causada pelo homem ou, de repente, eles apoiam o Black Lives Matter, mas quando repetimos nossas perguntas sobre esses tópicos após suas conversas muito curtas, houve uma mudança significativa: atitudes mais positivas em relação às opiniões da maioria sobre a mudança climática ou BLM.” O GPT-3 ofereceu diferentes estilos de resposta entre os dois tópicos, incluindo mais justificativa para a mudança climática causada pelo homem. “Isso foi interessante. As pessoas que expressaram algum desacordo com a mudança climática, o GPT- 3 provavelmente lhes dirá que estavam errados e oferecer evidências para apoiar isso”, diz Chen. “A resposta do GPT-3 às pessoas que disseram que não apoiavam muito bem o BLM foi mais como: ‘Eu não acho que seria uma boa ideia falar sobre isso. Por mais que eu goste de ajudá-lo, este é um assunto que realmente discordamos.” Isso não é uma coisa ruim, diz Chen. Equidade e compreensão vêm em diferentes formas para preencher diferentes lacunas. Em última análise, essa é a sua esperança para a pesquisa do chatbot. https://pages.cs.wisc.edu/~sharonli/ https://scholar.google.com/citations?user=0523fg0AAAAJ&hl=zh-CN https://www.nature.com/articles/s41598-024-51969-w 3/3 Os próximos passos incluem explorações de diferenças mais finas entre usuários de chatbot, mas o diálogo de alto funcionamento entre pessoas divididas é o objetivo de Chen. “Nós nem sempre queremos fazer os usuários felizes. Nós queríamos que eles aprendessem alguma coisa, mesmo que isso não mudasse suas atitudes”, diz Chen. “O que podemos aprender a partir de uma interação do chatbot sobre a importância de entender as perspectivas, os valores, as culturas, isso é importante para entender como podemos abrir o diálogo entre as pessoas – o tipo de diálogos que são importantes para a sociedade”.