Prévia do material em texto
1/3 Opinião: “Griefbots” ajudam os inlutadores a lidar com a perda? V (m)Produtos comerciais conhecidos como “os luto“Criar uma simulação de um ente querido perdido. Construídos sobre inteligência artificial que faz uso de grandes modelos de linguagem, ou LLMs, os bots imitam a maneira particular como a pessoa falecida, usando seus e-mails, mensagens de texto, gravações de voz e muito mais. A tecnologia deve ajudar os enlutados a lidar com o luto, deixando-os conversar com o bot como se estivessem conversando com a pessoa. Mas estamos perdendo evidências de que essa tecnologia realmente ajuda os enlutados a lidar com a perda. Os seres humanos usam a tecnologia para lidar com sentimentos de perda há mais de um século. Fotografias post-mortem, por exemplo, deram aos vitorianos do século 19 uma semelhança de seus mortos para se lembrar deles, quando eles não podiam pagar um retrato pintado. Estudos recentes forneceram evidências de que ter um desenho ou imagem como uma lembrança ajuda alguns sobreviventes a sofrer. No entanto, os pesquisadores ainda estão aprendendo como as pessoas se entrisam e que tipos de coisas ajudam os enlutados a lidar com a perda. Uma abordagem do luto que se concentra em continuar os laços com o ente querido falecido sugere que encontrar o fechamento é mais do que deixar a pessoa ir. Pesquisas e práticas clínicas mostram que renovar o vínculo com alguém que perdeu pode ajudar os enlutados a lidar com sua morte. Isso significa que os luto podem ajudar os enlutados, deixando-os transformar seu relacionamento com seu ente querido falecido. Mas um forte vínculo contínuo só ajuda os enlutados quando podem fazer sentido de sua perda. E os entes queridos de imitação podem tornar mais difícil para as pessoas fazerem isso e aceitar que seu ente querido se foi. Carla Sofka, professora de serviço social no Siena College, no estado de Nova York, é especialista em tecnologia e luto. Como a internet cresceu em meados da década de 1990, ela cunhou o termo “escuta de tecnologia” para descrever qualquer tecnologia – incluindo mídia digital ou social – que ajuda alguém a lidar com a morte, a dor e a perda, como famílias e amigos postando juntos no perfil de mídia social de um ente querido falecido ou criando um site em sua memória. Outros sobreviventes, como reler e-mails do falecido ou ouvir suas mensagens de voz gravadas. Algumas pessoas podem fazer isso por anos, pois chegam a um acordo com as emoções intensas da perda. Os luto poderiam dar aos enlutados uma nova ferramenta para lidar com o luto, ou poderiam criar a ilusão de que o ente querido não se foi. Se as empresas vão construir simulações de IA do falecido, então “elas têm que conversar com as pessoas que pensam que querem essa tecnologia” para criar melhor algo que atenda às suas necessidades, disse Sofka. Os luto comerciais atuais têm como alvo diferentes grupos. O luto da Seance AI, por exemplo, destina-se a uso de curto prazo para fornecer uma sensação de fechamento, enquanto a empresa You, Only Virtual – ou YOV – promete manter o ente querido de alguém com eles para sempre, para que eles “nunca tenham que dizer adeus”. https://link.springer.com/article/10.1007/s12124-022-09679-3 https://undark.org/2022/07/21/the-hidden-dangers-of-pathologizing-grief/?gad_source=1&gclid=CjwKCAjw_LOwBhBFEiwAmSEQARdByTzzruRLf2WeggjegHyWujH9QkUAMM_dgrGOtYqY19TjPpIU_xoCRQQQAvD_BwE https://www.tandfonline.com/doi/abs/10.1080/07481180600848090 https://www.tandfonline.com/doi/abs/10.1080/074811897201778 https://undark.org/2023/07/14/interview-the-ethical-puzzle-of-sentient-ai/ https://undark.org/2023/07/14/interview-the-ethical-puzzle-of-sentient-ai/ https://futurism.com/ai-seance https://www.myyov.com/index.html 2/3 Mas se as empresas podem criar simulações convincentes de pessoas que morreram, Sofka disse que é possível que isso possa mudar toda a realidade da pessoa que está fora. Embora só possamos especular, isso pode afetar a maneira como as pessoas que as conheciam sofrem. Como Sofka escreveu em um e-mail, “todo mundo é diferente em como eles processam o luto”. Os lubrôos poderiam dar aos enlutados uma nova ferramenta para lidar com a dor, ou poderiam criar a ilusão de que o ente querido não se foi e forçar os enlutados a enfrentar uma segunda morte se quiserem parar de usar o bot. Especialistas em saúde pública e tecnologia, como Linnea Laestadius, da Universidade de Wisconsin- Milwaukee, estão preocupados que os luto possam prender os enlutados em conversas on-line isoladas, incapazes de seguir em frente com suas vidas. Seu trabalho em chatbots sugere que as pessoas podem formar fortes laços emocionais com personalidades virtuais que as tornam dependentes do programa para apoio emocional. Dado o quão difícil é prever como esses chatbots afetarão a maneira como as pessoas sofrem, Sofka escreveu em um e-mail, “é um desafio para os cientistas sociais desenvolver questões de pesquisa que capturem todas as reações possíveis a essa nova tecnologia”. Isso não impediu as empresas de liberar seus produtos. Mas para desenvolver luto de forma responsável, não se trata apenas de saber como fazer um bot autêntico e depois fazê-lo, disse Wan-Jou She, professor assistente do Instituto de Tecnologia de Kyoto. Receba nossa Newsletter Sent WeeklyTradução Este campo é para fins de validação e deve ser mantido inalterado. Ela colaborou com Anna Xygkou, uma estudante de doutorado na Universidade de Kent, e outros co- autores em um projeto de pesquisa para ver como as tecnologias de chatbot podem ser usadas para apoiar o luto. Eles entrevistaram 10 pessoas que estavam usando personagens virtuais criados por vários aplicativos para lidar com a perda de um ente querido. Cinco de seus participantes conversaram com uma simulação da pessoa que perderam, enquanto os outros usaram chatbots que assumiram papéis diferentes, como um amigo. Xygkou disse que a maioria deles conversou com os personagens por menos de um ano. “A maioria deles usou isso como um estágio de transição para superar o luto, no primeiro estágio”, disse ela, “quando a dor é tão intensa que você não pode lidar com a perda”. Deixados a si mesmos, esses enlutados escolheram uma ferramenta de curto prazo para ajudá-los a lidar com a perda. Eles não queriam recriar um ente querido para mantê-los ao seu lado para a vida. Embora este estudo sugira que os luto podem ser úteis para algumas pessoas enlutadas, mais estudos serão necessários para mostrar que a tecnologia não os prejudica – e que ajuda além desse pequeno grupo. Além disso, os luto não precisavam convencer ninguém de que eram humanos. Os usuários entrevistados sabiam que estavam conversando com um chatbot e não se importavam. Eles suspenderam sua descrença, disse Xygkou, para conversar com o bot como se estivessem conversando com seus entes queridos. Como qualquer um que tenha usado chatbots orientados para LLM sabe, é fácil sentir que há uma pessoa real do outro lado da tela. Durante a agitação emocional de perder um ente querido, entregar-se a essa fantasia pode ser especialmente problemático. É por isso que as simulações devem deixar claro que não são uma pessoa, disse Xygkou. https://journals.sagepub.com/doi/abs/10.1177/14614448221142007 https://dl.acm.org/doi/full/10.1145/3544548.3581154 https://dl.acm.org/doi/full/10.1145/3544548.3581154 3/3 As pessoas podem se tornar mais confortáveis conversando com computadores, ou a má supervisão pode significar que muitas pessoas não saberão que estão falando com um computador. Criticamente, de acordo com She, os chatbots atualmente não estão sob nenhuma regulamentação e, sem isso, é difícil fazer com que as empresas provem que seus produtos ajudam os usuários a lidar com a perda. A falsificação de leis frêxtas encorajou outros aplicativos de chatbot a afirmar que podem ajudar a melhorar a saúde mental sem fornecer nenhuma evidência. Enquanto esses aplicativos se categorizarem como bem-estar em vez de terapia, os EUA. A Food and Drug Administration não aplicará seus requisitos, incluindoque os aplicativos provem que fazem mais bem do que mal. Embora não esteja claro qual órgão regulador será o responsável, é possível que a Comissão Federal de Comércio possa lidar com alegações falsas ou não qualificadas feitas por tais produtos. Sem muita evidência, é incerto como os lutos afetarão a maneira como lidamos com a perda. Os dados de uso não parecem ser públicos, mas She e Xygkou tiveram tanta dificuldade em encontrar participantes para o estudo que Xygkou acha que não muitos enlutados atualmente usam a tecnologia. Mas isso pode mudar à medida que a IA continua a proliferar através de nossas vidas. Talvez mais pessoas usem os luto à medida que a escassez de profissionais mentais qualificados piora. As pessoas podem se tornar mais confortáveis conversando com computadores, ou a má supervisão pode significar que muitas pessoas não saberão que estão conversando com um computador em primeiro lugar. Até agora, nem a ética questionável nem o custo enorme impediram as empresas de tentar usar a IA qualquer chance que obtenham. Mas não importa o conforto que uma pessoa enlutada encontra em bot, de forma alguma eles devem confiar neles, disse ela. Quando um LLM está falando com alguém, “é apenas prever: qual é a próxima palavra”. Tim Reinboth é jornalista e pesquisador freelancer em ciência cognitiva e estudos de ciência e tecnologia. https://ps.psychiatryonline.org/doi/10.1176/appi.ps.201700344