Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.

Prévia do material em texto

1/4
Taylor Swift deepfakes: Psicologia revela ligações com
psicopatia e menor capacidade cognitiva
Nos últimos dias, a questão dos deepfakes tomou o centro do palco na consciência pública, ressaltada
pelo caso preocupante envolvendo a mundialmente renomada estrela pop Taylor Swift. A Inteligência
Artificial (IA) tem sido utilizada para criar imagens altamente convincentes, mas inteiramente falsas,
explícitas do Swift, provocando preocupação e debate generalizados.
Deepfakes, uma combinação de “aprendizagem profunda” e “falso”, são mídias sintéticas sofisticadas,
onde uma pessoa em uma imagem ou vídeo existente é substituída pela semelhança de outra pessoa
usando tecnologias avançadas de IA. Embora essas tecnologias tenham aplicativos impressionantes,
elas também levantam preocupações éticas e de privacidade significativas, particularmente quando
usadas para criar conteúdo explícito sem o consentimento dos indivíduos retratados.
Incidente de Taylor Swift
A disseminação de imagens pornográficas de Taylor Swift em plataformas de mídia social, incluindo uma
imagem vista por mais de 47 milhões de usuários no X (anteriormente conhecido como Twitter),
reacendeu discussões sobre a legalidade e a ética de tal conteúdo. Apesar dos esforços das plataformas
para remover essas imagens e penalizar os responsáveis, o impacto continua significativo e de longo
alcance.
Este incidente levou a chamadas bipartidárias nos Estados Unidos para leis federais mais rigorosas
contra a pornografia deepfake, enfatizando o profundo dano emocional, financeiro e de reputação que
pode infligir, particularmente às mulheres.
https://www.nytimes.com/2024/01/26/arts/music/taylor-swift-ai-fake-images.html
https://www.theguardian.com/music/2024/jan/26/taylor-swift-deepfake-pornography-sparks-renewed-calls-for-us-legislation
2/4
A proposta do congressista democrata Joseph Morelle, Preventing Deepfakes of Intimate Images Act,
visa criminalizar o compartilhamento de pornografia deepfake não consensual. Da mesma forma, o
congressista republicano Tom Kean Jr. destacou a necessidade de salvaguardas contra o rápido avanço
da tecnologia de IA neste contexto, defendendo uma Lei de Rotulagem de IA que exige uma rotulagem
clara de todo o conteúdo gerado por IA.
O direcionamento das mulheres para a criação de deepfakes pornográficos não consensuais não é
novo, mas tornou-se mais difundido com os avanços na IA. Um estudo de 2019 da DeepTrace Labs
descobriu que 96% do conteúdo de vídeo deepfake era material pornográfico sem consentimento.
A psicologia dos Deepfakes
A psicologia por trás da criação e do compartilhamento de deepfakes é uma questão complexa. A
pesquisa nesta área está em seus estágios iniciais, investigando as características dos indivíduos que
se envolvem em tais comportamentos e nossa capacidade de detectá-los.
Quem cria e compartilha deepfakes?
Dois estudos recentes lançaram luz sobre os perfis psicológicos e cognitivos de indivíduos que criam e
compartilham deepfakes, revelando insights sobre suas motivações e suscetibilidade.
O papel da psicopatia
Um estudo publicado na revista Computers in Human Behavior esclareceu as características
psicológicas associadas à criação e compartilhamento de pornografia deepfake. Os resultados sugerem
uma conexão preocupante entre traços psicopáticos e a probabilidade de se envolver em tais atividades.
A psicopatia, caracterizada por falta de empatia e remorso, impulsividade e comportamentos
antissociais, emergiu como um preditor significativo nesse contexto. Os indivíduos com maior pontuação
em escalas de psicopatia foram encontrados mais inclinados a criar deepfakes. Essa tendência se alinha
com o desrespeito geral pelo bem-estar dos outros e aos comportamentos manipuladores e de risco
frequentemente associados à psicopatia.
O estudo também revelou que aqueles com maiores escores de psicopatia eram mais propensos a
culpar e perceber a criação de deepfakes como menos prejudiciais. Essa diminuição do senso de dano e
da responsabilidade aponta para um processo de racionalização perigoso que poderia alimentar a
proliferação de tal conteúdo.
“Os traços de personalidade associados ao apoio ao comportamento on-line desviante e à ofensa sexual
de forma mais ampla, por exemplo, psicopatia, previram julgamentos mais brandos de ofensa, bem
como uma maior propensão para criar e compartilhar imagens – sugerindo que, através de pesquisas
adicionais, podemos prever melhor as pessoas que são mais propensas a se envolver em tal
comportamento e intervir de acordo”, explicou o principal autor do estudo, Dean Fido, ao PsyPost em
2022.
Status de Gênero e Celebridade na Percepção da Vítima
https://www.technologyreview.com/2019/10/07/132735/deepfake-porn-deeptrace-legislation-california-election-disinformation/
https://www.technologyreview.com/2019/10/07/132735/deepfake-porn-deeptrace-legislation-california-election-disinformation/
https://www.psypost.org/2022/05/new-research-links-deepfake-to-psychopathic-tendencies-63194
https://www.psypost.org/2022/05/new-research-links-deepfake-to-psychopathic-tendencies-63194
3/4
A pesquisa destacou ainda como a percepção de incidentes deepfake varia com base no sexo da vítima
e no status de celebridade. Incidentes envolvendo vítimas do sexo feminino foram vistos como mais
prejudiciais e criminosos do que aqueles envolvendo vítimas do sexo masculino. Além disso, houve uma
diferença notável na forma como homens e mulheres perceberam esses incidentes, com os homens
sendo menos propensos a ver deepfakes de celebridades como prejudiciais em comparação com
aqueles que envolvem não-celebridades.
Habilidades cognitivas e compartilhamento de deepfakes
Expandindo o perfil psicológico, outro estudo em Heliyon examina a influência das habilidades cognitivas
na suscetibilidade e compartilhamento de deepfakes. Os resultados indicaram que indivíduos com
maiores habilidades cognitivas, caracterizados por melhores habilidades de processamento de
informações e tomada de decisão, são menos propensos a serem enganados ou compartilhar
deepfakes.
Indivíduos com maiores habilidades cognitivas tendem a se envolver em uma análise mais crítica da
informação, tornando-os menos suscetíveis a acreditar na autenticidade dos deepfakes. Esse ceticismo
aumentado também se traduz em uma menor probabilidade de compartilhar deepfakes, mostrou o
estudo, apontando para o papel protetor das habilidades cognitivas contra a manipulação através de tais
tecnologias avançadas de IA.
Capacidade de detecção de deepfake
Três estudos recentes fizeram avanços significativos na compreensão de como os seres humanos
interagem e percebem a tecnologia deepfake.
The Subconscious Recognition of AI Faces
A study published in Vision Research found that while participants struggled to verbally differentiate real
faces from hyper-realistic AI-generated ones, their brain activity could correctly identify AI-generated
faces 54% of the time, significantly surpassing their verbal identification accuracy of 37%. This suggests
a deeper, subconscious level at which our brains process and recognize the authenticity of images.
“Using behavioural and neuroimaging methods we found that it was possible to reliably detect AI-
generated fake images using EEG activity given only a brief glance, even though observers could not
consciously report seeing differences,” the researchers concluded. “Given that observers are already
struggling with differentiating between fake and real faces, it is of immediate and practical concern to
further investigate the important ways in which the brain can tell the two apart.”
Hyperrealism in AI Faces
The second study, detailed in Psychological Science and spearheaded by Amy Dawel of The Australian
National University, explored the phenomenon of “hyperrealism” in AI-generated faces. This research
delved into why AI faces often appear more human-like than actual human faces.
Using psychological theories like face-space theory, the study examined how AI-generated faces might
embody averagehuman features more prominently than real faces. Intriguingly, the study discovered a
https://www.sciencedirect.com/science/article/pii/S2405844023075916#sec6
https://www.psypost.org/2023/05/people-frequently-perceive-ai-generated-faces-as-more-authentic-than-real-faces-study-finds-163718
4/4
bias towards hyperrealism in AI-generated White faces, which were consistently perceived as more
human than actual White human faces.
The Paradox of Overconfidence
This hyperrealism effect was further underscored by an overconfidence in participants who were less
accurate in detecting AI faces, indicating a complex interaction between perception, bias, and confidence
in identifying AI-generated content.
“We expected people would realize they weren’t very good at detecting AI, given how realistic the faces
have become. We were very surprised to find people were overconfident,” Dawel told PsyPost last year.
“People aren’t very good at spotting AI imposters — and if you think you are, changes are you’re making
more errors than most. Our study showed that the people who were most confident made the most errors
in detecting AI-generated faces.”
A Connection with Conspiracy Mentality and Social Media Use
The third study, from Telematics and Informatics, found that individuals who scored higher on a
conspiracy mentality scale and those who spent more time on social media were better at identifying
deepfake videos. This suggests that a more questioning mindset and regular exposure to varied media
content could enhance one’s ability to discern deepfakes.
“Time spent on social media and belief in conspiracy theories are positively correlated with deepfake
detection performance,” the study’s lead author, Ewout Nas, told PsyPost. “In general terms, deepfake
videos are becoming more realistic and harder to recognize. One can no longer automatically believe
everything you see on video footage.”
https://www.psypost.org/2023/11/people-worse-at-detecting-ai-faces-are-more-confident-in-their-ability-to-spot-them-study-finds-214650
https://www.psypost.org/2024/01/the-surprising-link-between-conspiracy-mentality-and-deepfake-detection-ability-220803

Mais conteúdos dessa disciplina