Buscar

Sistema de recomendação do YouTube exibe viés de esquerda sugere novo estudo

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 3 páginas

Prévia do material em texto

1/3
Sistema de recomendação do YouTube exibe viés de
esquerda, sugere novo estudo
O algoritmo de recomendação do YouTube tem uma tendência a influenciar os usuários a se afastarem
do conteúdo político de extrema direita mais rapidamente do que o de conteúdo político de extrema
esquerda, de acordo com uma nova pesquisa publicada no PNAS Nexus.
“O YouTube, com mais de dois bilhões de usuários ativos mensais, influencia significativamente o
domínio do consumo de vídeo político on-line”, explicou o autor do estudo, Yasir Zaki, professor
assistente de ciência da computação na Universidade de Nova York, Abu Dhabi.
“Nos Estados Unidos, por exemplo, um quarto dos adultos se envolve regularmente com conteúdo
político na plataforma. Aproximadamente 75% das visualizações de vídeos do YouTube resultam de seu
algoritmo de recomendação, destacando a capacidade potencial do algoritmo de promover câmaras de
eco e disseminar conteúdo extremista, uma questão de preocupação primordial. Isso nos motivou a
projetar um experimento para entender melhor como o algoritmo influencia o que as pessoas veem na
plataforma.
Os pesquisadores realizaram seu estudo empregando 360 bots para simular usuários do YouTube. Eles
criaram novas contas do Google e do YouTube para cada bot para isolar o processo de “personalização”
impulsionado pelo algoritmo de recomendação do YouTube.
Inicialmente, os pesquisadores coletaram os 20 melhores vídeos recomendados da página inicial do
YouTube para novas contas sem histórico de relógios. Eles analisaram a distribuição de categorias de
vídeo recomendadas e classes políticas, descobrindo que os vídeos de “News & Politics”, quando
recomendados, eram principalmente do Centro e do Esquerda.
https://academic.oup.com/pnasnexus/article/2/8/pgad264/7242446
https://yasirzaki.net/
https://yasirzaki.net/
2/3
Em seguida, cada usuário (bot) assistiu a 30 vídeos que correspondiam ao seu grupo político designado
(por exemplo, extrema esquerda, esquerda, etc.), gravando os vídeos recomendados após cada relógio.
A análise mostrou que as recomendações amplamente alinhadas com a classificação política do usuário
e a velocidade com que as recomendações se adaptavam às preferências do usuário variavam.
Os usuários que completaram o primeiro estágio assistiram a 30 vídeos de uma classificação política
diferente, com o objetivo de ver a rapidez com que poderiam “escapar” de sua classe original e “entrar”
na nova classe política. Os resultados indicaram uma assimetria na velocidade de fuga, sugerindo uma
inclinação para o conteúdo de esquerda nas recomendações do YouTube.
Finalmente, os usuários assistiram ao vídeo recomendado na página inicial e coletaram recomendações
após cada vídeo. Esta etapa explorou as transições nas recomendações e descobriu que o algoritmo
tendia a retornar os usuários ao conteúdo centrista e longe dos extremos políticos.
No geral, os resultados indicaram que o algoritmo de recomendação do YouTube exibiu um viés de
esquerda na distribuição de recomendações, mesmo quando se controla o número de vídeos em
diferentes classes políticas. O algoritmo tornou mais fácil para os usuários inserir personas políticas de
esquerda e escapar das de direita.
Em outras palavras, quando um usuário começa a assistir ao conteúdo político de extrema-direita no
YouTube, o algoritmo de recomendação é mais eficaz em sugerir e promover conteúdo que seja menos
extremo, o que poderia incluir conteúdo de direita mais moderado ou mesmo conteúdo centrista. Como
resultado, os usuários que inicialmente se envolvem com conteúdo de extrema-direita podem se
encontrar expostos a uma gama mais ampla de perspectivas políticas com relativa rapidez.
Por outro lado, quando um usuário começa a assistir conteúdo político de extrema esquerda no
YouTube, o algoritmo é um pouco mais lento em guiá-los para longe do conteúdo de extrema esquerda.
Os usuários levam mais tempo para fazer a transição do conteúdo de extrema esquerda para conteúdo
menos extremo em comparação com o cenário de extrema-direita.
“Nossa pesquisa destaca que o algoritmo de recomendação do YouTube exerce uma influência
moderadora sobre os usuários, afastando-os de extremos políticos. No entanto, essa influência não é
equilibrada; é mais eficaz em afastar os usuários do conteúdo da extrema direita do que do conteúdo de
extrema esquerda. Além disso, nossas descobertas revelam que as recomendações do algoritmo se
inclinam para a esquerda, mesmo na ausência do histórico de visualização anterior de um usuário.
A pesquisa destaca como o algoritmo de recomendação do YouTube pode influenciar o consumo de
conteúdo político dos usuários.
“Pesquisas sobre viés algorítmico têm atraído atenção significativa nos últimos anos, e várias soluções
foram propostas para expor e abordar tais vieses nos sistemas de hoje. Diante disso, ficamos surpresos
ao descobrir que o algoritmo de recomendação do YouTube, uma das plataformas mais populares, ainda
exibe um viés político de esquerda. Essas descobertas levam a investigações sobre a adequação dos
vieses políticos nos algoritmos de recomendação nas plataformas de mídia social e as consequências
sociais e políticas significativas que podem surgir como resultado.
3/3
Mas o estudo, como toda pesquisa, inclui algumas ressalvas. O estudo foi realizado durante um período
específico, e os algoritmos e o cenário de conteúdo do YouTube podem evoluir ao longo do tempo.
Assim, as descobertas podem não capturar totalmente o estado atual da plataforma ou seus
desenvolvimentos futuros.
Além disso, a pesquisa se concentrou principalmente no contexto político dos EUA. Como resultado, as
descobertas podem não ser diretamente aplicáveis a outros países ou paisagens políticas. A dinâmica
do algoritmo de recomendação do YouTube e seu impacto no consumo de conteúdo político podem
variar significativamente em diferentes contextos culturais e políticos.
“Nosso estudo se concentrou principalmente na política dos EUA, e mais pesquisas são necessárias
para determinar o grau de que essas descobertas são realizadas fora dos Estados Unidos.”
O algoritmo de recomendação do YouTube é de esquerda nos Estados Unidos”, escreveu Hazem
Ibrahim, Nouar AlDahoul, Sangjin Lee, Talal Rahwan e Yasir Zaki.
https://doi.org/10.1093/pnasnexus/pgad264

Continue navegando