Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.

Prévia do material em texto

1/3
Opinião: “Griefbots” ajudam os inlutadores a lidar com a
perda?
V (m)Produtos comerciais conhecidos como “os luto“Criar uma simulação de um ente querido perdido.
Construídos sobre inteligência artificial que faz uso de grandes modelos de linguagem, ou LLMs, os bots
imitam a maneira particular como a pessoa falecida, usando seus e-mails, mensagens de texto,
gravações de voz e muito mais. A tecnologia deve ajudar os enlutados a lidar com o luto, deixando-os
conversar com o bot como se estivessem conversando com a pessoa. Mas estamos perdendo
evidências de que essa tecnologia realmente ajuda os enlutados a lidar com a perda.
Os seres humanos usam a tecnologia para lidar com sentimentos de perda há mais de um século.
Fotografias post-mortem, por exemplo, deram aos vitorianos do século 19 uma semelhança de seus
mortos para se lembrar deles, quando eles não podiam pagar um retrato pintado. Estudos recentes
forneceram evidências de que ter um desenho ou imagem como uma lembrança ajuda alguns
sobreviventes a sofrer. No entanto, os pesquisadores ainda estão aprendendo como as pessoas se
entrisam e que tipos de coisas ajudam os enlutados a lidar com a perda.
Uma abordagem do luto que se concentra em continuar os laços com o ente querido falecido sugere que
encontrar o fechamento é mais do que deixar a pessoa ir. Pesquisas e práticas clínicas mostram que
renovar o vínculo com alguém que perdeu pode ajudar os enlutados a lidar com sua morte. Isso significa
que os luto podem ajudar os enlutados, deixando-os transformar seu relacionamento com seu ente
querido falecido. Mas um forte vínculo contínuo só ajuda os enlutados quando podem fazer sentido de
sua perda. E os entes queridos de imitação podem tornar mais difícil para as pessoas fazerem isso e
aceitar que seu ente querido se foi.
Carla Sofka, professora de serviço social no Siena College, no estado de Nova York, é especialista em
tecnologia e luto. Como a internet cresceu em meados da década de 1990, ela cunhou o termo “escuta
de tecnologia” para descrever qualquer tecnologia – incluindo mídia digital ou social – que ajuda alguém
a lidar com a morte, a dor e a perda, como famílias e amigos postando juntos no perfil de mídia social de
um ente querido falecido ou criando um site em sua memória. Outros sobreviventes, como reler e-mails
do falecido ou ouvir suas mensagens de voz gravadas. Algumas pessoas podem fazer isso por anos,
pois chegam a um acordo com as emoções intensas da perda.
Os luto poderiam dar aos enlutados uma nova ferramenta para lidar com o luto,
ou poderiam criar a ilusão de que o ente querido não se foi.
Se as empresas vão construir simulações de IA do falecido, então “elas têm que conversar com as
pessoas que pensam que querem essa tecnologia” para criar melhor algo que atenda às suas
necessidades, disse Sofka. Os luto comerciais atuais têm como alvo diferentes grupos. O luto da Seance
AI, por exemplo, destina-se a uso de curto prazo para fornecer uma sensação de fechamento, enquanto
a empresa You, Only Virtual – ou YOV – promete manter o ente querido de alguém com eles para
sempre, para que eles “nunca tenham que dizer adeus”.
https://link.springer.com/article/10.1007/s12124-022-09679-3
https://undark.org/2022/07/21/the-hidden-dangers-of-pathologizing-grief/?gad_source=1&gclid=CjwKCAjw_LOwBhBFEiwAmSEQARdByTzzruRLf2WeggjegHyWujH9QkUAMM_dgrGOtYqY19TjPpIU_xoCRQQQAvD_BwE
https://www.tandfonline.com/doi/abs/10.1080/07481180600848090
https://www.tandfonline.com/doi/abs/10.1080/074811897201778
https://undark.org/2023/07/14/interview-the-ethical-puzzle-of-sentient-ai/
https://undark.org/2023/07/14/interview-the-ethical-puzzle-of-sentient-ai/
https://futurism.com/ai-seance
https://www.myyov.com/index.html
2/3
Mas se as empresas podem criar simulações convincentes de pessoas que morreram, Sofka disse que é
possível que isso possa mudar toda a realidade da pessoa que está fora. Embora só possamos
especular, isso pode afetar a maneira como as pessoas que as conheciam sofrem. Como Sofka
escreveu em um e-mail, “todo mundo é diferente em como eles processam o luto”. Os lubrôos poderiam
dar aos enlutados uma nova ferramenta para lidar com a dor, ou poderiam criar a ilusão de que o ente
querido não se foi e forçar os enlutados a enfrentar uma segunda morte se quiserem parar de usar o bot.
Especialistas em saúde pública e tecnologia, como Linnea Laestadius, da Universidade de Wisconsin-
Milwaukee, estão preocupados que os luto possam prender os enlutados em conversas on-line isoladas,
incapazes de seguir em frente com suas vidas. Seu trabalho em chatbots sugere que as pessoas podem
formar fortes laços emocionais com personalidades virtuais que as tornam dependentes do programa
para apoio emocional. Dado o quão difícil é prever como esses chatbots afetarão a maneira como as
pessoas sofrem, Sofka escreveu em um e-mail, “é um desafio para os cientistas sociais desenvolver
questões de pesquisa que capturem todas as reações possíveis a essa nova tecnologia”.
Isso não impediu as empresas de liberar seus produtos. Mas para desenvolver luto de forma
responsável, não se trata apenas de saber como fazer um bot autêntico e depois fazê-lo, disse Wan-Jou
She, professor assistente do Instituto de Tecnologia de Kyoto.
Receba nossa Newsletter
Sent WeeklyTradução
Este campo é para fins de validação e deve ser mantido inalterado.
Ela colaborou com Anna Xygkou, uma estudante de doutorado na Universidade de Kent, e outros co-
autores em um projeto de pesquisa para ver como as tecnologias de chatbot podem ser usadas para
apoiar o luto. Eles entrevistaram 10 pessoas que estavam usando personagens virtuais criados por
vários aplicativos para lidar com a perda de um ente querido. Cinco de seus participantes conversaram
com uma simulação da pessoa que perderam, enquanto os outros usaram chatbots que assumiram
papéis diferentes, como um amigo. Xygkou disse que a maioria deles conversou com os personagens
por menos de um ano. “A maioria deles usou isso como um estágio de transição para superar o luto, no
primeiro estágio”, disse ela, “quando a dor é tão intensa que você não pode lidar com a perda”. Deixados
a si mesmos, esses enlutados escolheram uma ferramenta de curto prazo para ajudá-los a lidar com a
perda. Eles não queriam recriar um ente querido para mantê-los ao seu lado para a vida. Embora este
estudo sugira que os luto podem ser úteis para algumas pessoas enlutadas, mais estudos serão
necessários para mostrar que a tecnologia não os prejudica – e que ajuda além desse pequeno grupo.
Além disso, os luto não precisavam convencer ninguém de que eram humanos. Os usuários
entrevistados sabiam que estavam conversando com um chatbot e não se importavam. Eles
suspenderam sua descrença, disse Xygkou, para conversar com o bot como se estivessem conversando
com seus entes queridos. Como qualquer um que tenha usado chatbots orientados para LLM sabe, é
fácil sentir que há uma pessoa real do outro lado da tela. Durante a agitação emocional de perder um
ente querido, entregar-se a essa fantasia pode ser especialmente problemático. É por isso que as
simulações devem deixar claro que não são uma pessoa, disse Xygkou.
https://journals.sagepub.com/doi/abs/10.1177/14614448221142007
https://dl.acm.org/doi/full/10.1145/3544548.3581154
https://dl.acm.org/doi/full/10.1145/3544548.3581154
3/3
As pessoas podem se tornar mais confortáveis conversando com computadores,
ou a má supervisão pode significar que muitas pessoas não saberão que estão
falando com um computador.
Criticamente, de acordo com She, os chatbots atualmente não estão sob nenhuma regulamentação e,
sem isso, é difícil fazer com que as empresas provem que seus produtos ajudam os usuários a lidar com
a perda. A falsificação de leis frêxtas encorajou outros aplicativos de chatbot a afirmar que podem ajudar
a melhorar a saúde mental sem fornecer nenhuma evidência. Enquanto esses aplicativos se
categorizarem como bem-estar em vez de terapia, os EUA. A Food and Drug Administration não aplicará
seus requisitos, incluindoque os aplicativos provem que fazem mais bem do que mal. Embora não
esteja claro qual órgão regulador será o responsável, é possível que a Comissão Federal de Comércio
possa lidar com alegações falsas ou não qualificadas feitas por tais produtos.
Sem muita evidência, é incerto como os lutos afetarão a maneira como lidamos com a perda. Os dados
de uso não parecem ser públicos, mas She e Xygkou tiveram tanta dificuldade em encontrar
participantes para o estudo que Xygkou acha que não muitos enlutados atualmente usam a tecnologia.
Mas isso pode mudar à medida que a IA continua a proliferar através de nossas vidas. Talvez mais
pessoas usem os luto à medida que a escassez de profissionais mentais qualificados piora. As pessoas
podem se tornar mais confortáveis conversando com computadores, ou a má supervisão pode significar
que muitas pessoas não saberão que estão conversando com um computador em primeiro lugar. Até
agora, nem a ética questionável nem o custo enorme impediram as empresas de tentar usar a IA
qualquer chance que obtenham.
Mas não importa o conforto que uma pessoa enlutada encontra em bot, de forma alguma eles devem
confiar neles, disse ela. Quando um LLM está falando com alguém, “é apenas prever: qual é a próxima
palavra”.
Tim Reinboth é jornalista e pesquisador freelancer em ciência cognitiva e estudos de ciência e
tecnologia.
https://ps.psychiatryonline.org/doi/10.1176/appi.ps.201700344

Mais conteúdos dessa disciplina