Buscar

As pessoas acreditam que seus traços morais são muito distintos para a IA julgar diz estudo

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 3 páginas

Prévia do material em texto

1/3
As pessoas acreditam que seus traços morais são muito
distintos para a IA julgar, diz estudo
A inteligência artificial (IA) está sendo rapidamente integrada em nossas vidas cotidianas, mas um novo
estudo revela que, quando se trata de obter a moral humana, a IA pode enfrentar um obstáculo. O
estudo, publicado na PNAS Nexus, fornece evidências de que há resistência contra o uso da IA para
julgar traços morais por causa da crença abrangente de que a IA não pode capturar com precisão as
complexidades e a singularidade da moralidade humana.
A moralidade é o conjunto de princípios que definem o que é certo e errado no comportamento,
orientando escolhas éticas. Comunidades de pequena escala podem contar com experiência pessoal e
conversação para avaliar a moral de outros indivíduos, mas à medida que as sociedades crescem, os
métodos tradicionais de avaliação da moral tornam-se insuficientes para implementar em grande escala.
Devido a desafios éticos e sociais óbvios, há uma necessidade de entender nossas atitudes gerais em
relação ao uso da IA para observar, avaliar e pontuar a moral humana.
“Embora muito trabalho tenha sido realizado na forma como os humanos julgam a moral das máquinas,
nos concentramos na nova questão das máquinas que julgam a moral dos seres humanos”, afirmaram
os autores do estudo Zoe Purcell e Jean-François Bonnefon, da Universidade de Toulouse, na França.
Para investigar isso, foram realizados quatro subestudos.
O estudo 1 envolveu 446 participantes no Reino Unido que avaliaram a aceitabilidade e a qualidade
esperada da pontuação da IA em vários traços morais, como lealdade, integridade, agressão ou
racismo.
https://doi.org/10.1093/pnasnexus/pgad179
2/3
As análises revelaram que 40% dos participantes consideraram a pontuação moral da IA inaceitável,
enquanto apenas 26% dos participantes consideraram a pontuação moral da IA como aceitável. Além
disso, a aceitação foi associada à precisão percebida. Em outras palavras, as pessoas eram menos
propensas a aceitar o uso da IA quanto mais acreditavam que não era preciso para determinar sua
moral.
O Estudo 2a investigou se as pessoas superestimam a singularidade de seu perfil moral, comparando as
crenças dos participantes sobre a prevalência de seu perfil com a prevalência real.
Os pesquisadores analisaram dados de um conjunto de dados existente de 131.015 participantes que
preencheram questionários on-line do projeto “Your Morals” (yourmorals.org). O projeto avaliou as
dimensões morais do cuidado, da justiça, da lealdade, da autoridade. Esses participantes foram
caracterizados em 16 perfis morais separados com base em quão alto ou baixo eram suas pontuações
para cada uma das quatro dimensões, e os pesquisadores calcularam com que frequência cada um
desses perfis ocorria na população.
Depois disso, Purcell e Bonnefon recrutaram 495 participantes nos EUA para preencher os mesmos
questionários on-line e, em seguida, categorizaram-nos em um dos 16 perfis morais. Os participantes
então foram apresentados a um gráfico não rotulado que descrevia o percentual de pessoas com cada
perfil moral da população em geral e, em seguida, pediu aos participantes que escolhessem o percentual
de pessoas que achavam que tinham seu tipo de perfil.
O Estudo 2b replicou o Estudo 2a, mas forneceu incentivos financeiros para adivinhar corretamente o
quão comum era seu perfil moral a partir do gráfico sem rótulo e analisou um novo grupo de 496
participantes dos EUA.
Juntos, os subestudos descobriram que 88% dos participantes subestimavam o quão comum era seu
perfil moral na população, indicando que eles acreditavam que sua moral era mais única.
Finalmente, o Estudo 3 avaliou como as pessoas julgaram a precisão dos perfis gerados por IA para
perfis únicos em comparação com perfis típicos.
Os pesquisadores recrutaram 506 participantes nos EUA que completaram pesquisas on-line.
Semelhante ao Estudo 1, eles avaliaram a aceitabilidade e os traços morais de qualidade esperados,
mas depois foram questionados se acreditavam que a pontuação moral pela IA seria mais precisa e
confiável para perfis típicos ou únicos, e também se eles acreditavam que a IA teria um bom
desempenho em marcar seu próprio perfil moral.
Esse subestudo demonstrou que os participantes acreditavam que a IA teria dificuldade em marcar
perfis morais únicos, levando esses mesmos participantes a pensar que a IA descaracterizaria sua
moral.
Purcell e Bonnefon concluíram: “nossas descobertas sugerem que pode não haver um grande apetite
por pontuação moral da IA, mesmo quando a tecnologia fica mais precisa. Embora isso signifique que as
pessoas podem aprovar regulamentos fortes contra a pontuação moral da IA ... também significa que o
potencial comercial dessa ferramenta pode ser limitado, pelo menos enquanto as pessoas se sentirem
muito especiais para as máquinas pontuarem sua moral.
http://yourmorals.org/
3/3
Embora a pesquisa forneça informações valiosas sobre a aceitabilidade psicológica da pontuação moral
da IA, algumas limitações devem ser observadas.
Por exemplo, o estudo se concentrou apenas em cenários abstratos, não em contextos específicos,
como pedidos de emprego ou namoro. Portanto, as descobertas podem não capturar completamente
como a pontuação moral da IA funcionaria em situações da vida real. Além disso, os autores do estudo
observaram que a moral foi analisada em sentido amplo e incluiu “caráter moral geral, traços morais
específicos e valores morais”. Portanto, estudos futuros poderiam investigar os diferentes aspectos da
moralidade com maior granularidade.
O estudo, “Os seres humanos se sentem muito especiais para as máquinas pontuarem sua moral”, foi
de autoria de Zoe A. Purcell e Jean-François Bonnefon.
https://academic.oup.com/pnasnexus/article/2/6/pgad179/7185601

Continue navegando