Prévia do material em texto
1/4 Taylor Swift deepfakes: Psicologia revela ligações com psicopatia e menor capacidade cognitiva Nos últimos dias, a questão dos deepfakes tomou o centro do palco na consciência pública, ressaltada pelo caso preocupante envolvendo a mundialmente renomada estrela pop Taylor Swift. A Inteligência Artificial (IA) tem sido utilizada para criar imagens altamente convincentes, mas inteiramente falsas, explícitas do Swift, provocando preocupação e debate generalizados. Deepfakes, uma combinação de “aprendizagem profunda” e “falso”, são mídias sintéticas sofisticadas, onde uma pessoa em uma imagem ou vídeo existente é substituída pela semelhança de outra pessoa usando tecnologias avançadas de IA. Embora essas tecnologias tenham aplicativos impressionantes, elas também levantam preocupações éticas e de privacidade significativas, particularmente quando usadas para criar conteúdo explícito sem o consentimento dos indivíduos retratados. Incidente de Taylor Swift A disseminação de imagens pornográficas de Taylor Swift em plataformas de mídia social, incluindo uma imagem vista por mais de 47 milhões de usuários no X (anteriormente conhecido como Twitter), reacendeu discussões sobre a legalidade e a ética de tal conteúdo. Apesar dos esforços das plataformas para remover essas imagens e penalizar os responsáveis, o impacto continua significativo e de longo alcance. Este incidente levou a chamadas bipartidárias nos Estados Unidos para leis federais mais rigorosas contra a pornografia deepfake, enfatizando o profundo dano emocional, financeiro e de reputação que pode infligir, particularmente às mulheres. https://www.nytimes.com/2024/01/26/arts/music/taylor-swift-ai-fake-images.html https://www.theguardian.com/music/2024/jan/26/taylor-swift-deepfake-pornography-sparks-renewed-calls-for-us-legislation 2/4 A proposta do congressista democrata Joseph Morelle, Preventing Deepfakes of Intimate Images Act, visa criminalizar o compartilhamento de pornografia deepfake não consensual. Da mesma forma, o congressista republicano Tom Kean Jr. destacou a necessidade de salvaguardas contra o rápido avanço da tecnologia de IA neste contexto, defendendo uma Lei de Rotulagem de IA que exige uma rotulagem clara de todo o conteúdo gerado por IA. O direcionamento das mulheres para a criação de deepfakes pornográficos não consensuais não é novo, mas tornou-se mais difundido com os avanços na IA. Um estudo de 2019 da DeepTrace Labs descobriu que 96% do conteúdo de vídeo deepfake era material pornográfico sem consentimento. A psicologia dos Deepfakes A psicologia por trás da criação e do compartilhamento de deepfakes é uma questão complexa. A pesquisa nesta área está em seus estágios iniciais, investigando as características dos indivíduos que se envolvem em tais comportamentos e nossa capacidade de detectá-los. Quem cria e compartilha deepfakes? Dois estudos recentes lançaram luz sobre os perfis psicológicos e cognitivos de indivíduos que criam e compartilham deepfakes, revelando insights sobre suas motivações e suscetibilidade. O papel da psicopatia Um estudo publicado na revista Computers in Human Behavior esclareceu as características psicológicas associadas à criação e compartilhamento de pornografia deepfake. Os resultados sugerem uma conexão preocupante entre traços psicopáticos e a probabilidade de se envolver em tais atividades. A psicopatia, caracterizada por falta de empatia e remorso, impulsividade e comportamentos antissociais, emergiu como um preditor significativo nesse contexto. Os indivíduos com maior pontuação em escalas de psicopatia foram encontrados mais inclinados a criar deepfakes. Essa tendência se alinha com o desrespeito geral pelo bem-estar dos outros e aos comportamentos manipuladores e de risco frequentemente associados à psicopatia. O estudo também revelou que aqueles com maiores escores de psicopatia eram mais propensos a culpar e perceber a criação de deepfakes como menos prejudiciais. Essa diminuição do senso de dano e da responsabilidade aponta para um processo de racionalização perigoso que poderia alimentar a proliferação de tal conteúdo. “Os traços de personalidade associados ao apoio ao comportamento on-line desviante e à ofensa sexual de forma mais ampla, por exemplo, psicopatia, previram julgamentos mais brandos de ofensa, bem como uma maior propensão para criar e compartilhar imagens – sugerindo que, através de pesquisas adicionais, podemos prever melhor as pessoas que são mais propensas a se envolver em tal comportamento e intervir de acordo”, explicou o principal autor do estudo, Dean Fido, ao PsyPost em 2022. Status de Gênero e Celebridade na Percepção da Vítima https://www.technologyreview.com/2019/10/07/132735/deepfake-porn-deeptrace-legislation-california-election-disinformation/ https://www.technologyreview.com/2019/10/07/132735/deepfake-porn-deeptrace-legislation-california-election-disinformation/ https://www.psypost.org/2022/05/new-research-links-deepfake-to-psychopathic-tendencies-63194 https://www.psypost.org/2022/05/new-research-links-deepfake-to-psychopathic-tendencies-63194 3/4 A pesquisa destacou ainda como a percepção de incidentes deepfake varia com base no sexo da vítima e no status de celebridade. Incidentes envolvendo vítimas do sexo feminino foram vistos como mais prejudiciais e criminosos do que aqueles envolvendo vítimas do sexo masculino. Além disso, houve uma diferença notável na forma como homens e mulheres perceberam esses incidentes, com os homens sendo menos propensos a ver deepfakes de celebridades como prejudiciais em comparação com aqueles que envolvem não-celebridades. Habilidades cognitivas e compartilhamento de deepfakes Expandindo o perfil psicológico, outro estudo em Heliyon examina a influência das habilidades cognitivas na suscetibilidade e compartilhamento de deepfakes. Os resultados indicaram que indivíduos com maiores habilidades cognitivas, caracterizados por melhores habilidades de processamento de informações e tomada de decisão, são menos propensos a serem enganados ou compartilhar deepfakes. Indivíduos com maiores habilidades cognitivas tendem a se envolver em uma análise mais crítica da informação, tornando-os menos suscetíveis a acreditar na autenticidade dos deepfakes. Esse ceticismo aumentado também se traduz em uma menor probabilidade de compartilhar deepfakes, mostrou o estudo, apontando para o papel protetor das habilidades cognitivas contra a manipulação através de tais tecnologias avançadas de IA. Capacidade de detecção de deepfake Três estudos recentes fizeram avanços significativos na compreensão de como os seres humanos interagem e percebem a tecnologia deepfake. The Subconscious Recognition of AI Faces A study published in Vision Research found that while participants struggled to verbally differentiate real faces from hyper-realistic AI-generated ones, their brain activity could correctly identify AI-generated faces 54% of the time, significantly surpassing their verbal identification accuracy of 37%. This suggests a deeper, subconscious level at which our brains process and recognize the authenticity of images. “Using behavioural and neuroimaging methods we found that it was possible to reliably detect AI- generated fake images using EEG activity given only a brief glance, even though observers could not consciously report seeing differences,” the researchers concluded. “Given that observers are already struggling with differentiating between fake and real faces, it is of immediate and practical concern to further investigate the important ways in which the brain can tell the two apart.” Hyperrealism in AI Faces The second study, detailed in Psychological Science and spearheaded by Amy Dawel of The Australian National University, explored the phenomenon of “hyperrealism” in AI-generated faces. This research delved into why AI faces often appear more human-like than actual human faces. Using psychological theories like face-space theory, the study examined how AI-generated faces might embody averagehuman features more prominently than real faces. Intriguingly, the study discovered a https://www.sciencedirect.com/science/article/pii/S2405844023075916#sec6 https://www.psypost.org/2023/05/people-frequently-perceive-ai-generated-faces-as-more-authentic-than-real-faces-study-finds-163718 4/4 bias towards hyperrealism in AI-generated White faces, which were consistently perceived as more human than actual White human faces. The Paradox of Overconfidence This hyperrealism effect was further underscored by an overconfidence in participants who were less accurate in detecting AI faces, indicating a complex interaction between perception, bias, and confidence in identifying AI-generated content. “We expected people would realize they weren’t very good at detecting AI, given how realistic the faces have become. We were very surprised to find people were overconfident,” Dawel told PsyPost last year. “People aren’t very good at spotting AI imposters — and if you think you are, changes are you’re making more errors than most. Our study showed that the people who were most confident made the most errors in detecting AI-generated faces.” A Connection with Conspiracy Mentality and Social Media Use The third study, from Telematics and Informatics, found that individuals who scored higher on a conspiracy mentality scale and those who spent more time on social media were better at identifying deepfake videos. This suggests that a more questioning mindset and regular exposure to varied media content could enhance one’s ability to discern deepfakes. “Time spent on social media and belief in conspiracy theories are positively correlated with deepfake detection performance,” the study’s lead author, Ewout Nas, told PsyPost. “In general terms, deepfake videos are becoming more realistic and harder to recognize. One can no longer automatically believe everything you see on video footage.” https://www.psypost.org/2023/11/people-worse-at-detecting-ai-faces-are-more-confident-in-their-ability-to-spot-them-study-finds-214650 https://www.psypost.org/2024/01/the-surprising-link-between-conspiracy-mentality-and-deepfake-detection-ability-220803