Baixe o app para aproveitar ainda mais
Prévia do material em texto
1/3 As pessoas acreditam que seus traços morais são muito distintos para a IA julgar, diz estudo A inteligência artificial (IA) está sendo rapidamente integrada em nossas vidas cotidianas, mas um novo estudo revela que, quando se trata de obter a moral humana, a IA pode enfrentar um obstáculo. O estudo, publicado na PNAS Nexus, fornece evidências de que há resistência contra o uso da IA para julgar traços morais por causa da crença abrangente de que a IA não pode capturar com precisão as complexidades e a singularidade da moralidade humana. A moralidade é o conjunto de princípios que definem o que é certo e errado no comportamento, orientando escolhas éticas. Comunidades de pequena escala podem contar com experiência pessoal e conversação para avaliar a moral de outros indivíduos, mas à medida que as sociedades crescem, os métodos tradicionais de avaliação da moral tornam-se insuficientes para implementar em grande escala. Devido a desafios éticos e sociais óbvios, há uma necessidade de entender nossas atitudes gerais em relação ao uso da IA para observar, avaliar e pontuar a moral humana. “Embora muito trabalho tenha sido realizado na forma como os humanos julgam a moral das máquinas, nos concentramos na nova questão das máquinas que julgam a moral dos seres humanos”, afirmaram os autores do estudo Zoe Purcell e Jean-François Bonnefon, da Universidade de Toulouse, na França. Para investigar isso, foram realizados quatro subestudos. O estudo 1 envolveu 446 participantes no Reino Unido que avaliaram a aceitabilidade e a qualidade esperada da pontuação da IA em vários traços morais, como lealdade, integridade, agressão ou racismo. https://doi.org/10.1093/pnasnexus/pgad179 2/3 As análises revelaram que 40% dos participantes consideraram a pontuação moral da IA inaceitável, enquanto apenas 26% dos participantes consideraram a pontuação moral da IA como aceitável. Além disso, a aceitação foi associada à precisão percebida. Em outras palavras, as pessoas eram menos propensas a aceitar o uso da IA quanto mais acreditavam que não era preciso para determinar sua moral. O Estudo 2a investigou se as pessoas superestimam a singularidade de seu perfil moral, comparando as crenças dos participantes sobre a prevalência de seu perfil com a prevalência real. Os pesquisadores analisaram dados de um conjunto de dados existente de 131.015 participantes que preencheram questionários on-line do projeto “Your Morals” (yourmorals.org). O projeto avaliou as dimensões morais do cuidado, da justiça, da lealdade, da autoridade. Esses participantes foram caracterizados em 16 perfis morais separados com base em quão alto ou baixo eram suas pontuações para cada uma das quatro dimensões, e os pesquisadores calcularam com que frequência cada um desses perfis ocorria na população. Depois disso, Purcell e Bonnefon recrutaram 495 participantes nos EUA para preencher os mesmos questionários on-line e, em seguida, categorizaram-nos em um dos 16 perfis morais. Os participantes então foram apresentados a um gráfico não rotulado que descrevia o percentual de pessoas com cada perfil moral da população em geral e, em seguida, pediu aos participantes que escolhessem o percentual de pessoas que achavam que tinham seu tipo de perfil. O Estudo 2b replicou o Estudo 2a, mas forneceu incentivos financeiros para adivinhar corretamente o quão comum era seu perfil moral a partir do gráfico sem rótulo e analisou um novo grupo de 496 participantes dos EUA. Juntos, os subestudos descobriram que 88% dos participantes subestimavam o quão comum era seu perfil moral na população, indicando que eles acreditavam que sua moral era mais única. Finalmente, o Estudo 3 avaliou como as pessoas julgaram a precisão dos perfis gerados por IA para perfis únicos em comparação com perfis típicos. Os pesquisadores recrutaram 506 participantes nos EUA que completaram pesquisas on-line. Semelhante ao Estudo 1, eles avaliaram a aceitabilidade e os traços morais de qualidade esperados, mas depois foram questionados se acreditavam que a pontuação moral pela IA seria mais precisa e confiável para perfis típicos ou únicos, e também se eles acreditavam que a IA teria um bom desempenho em marcar seu próprio perfil moral. Esse subestudo demonstrou que os participantes acreditavam que a IA teria dificuldade em marcar perfis morais únicos, levando esses mesmos participantes a pensar que a IA descaracterizaria sua moral. Purcell e Bonnefon concluíram: “nossas descobertas sugerem que pode não haver um grande apetite por pontuação moral da IA, mesmo quando a tecnologia fica mais precisa. Embora isso signifique que as pessoas podem aprovar regulamentos fortes contra a pontuação moral da IA ... também significa que o potencial comercial dessa ferramenta pode ser limitado, pelo menos enquanto as pessoas se sentirem muito especiais para as máquinas pontuarem sua moral. http://yourmorals.org/ 3/3 Embora a pesquisa forneça informações valiosas sobre a aceitabilidade psicológica da pontuação moral da IA, algumas limitações devem ser observadas. Por exemplo, o estudo se concentrou apenas em cenários abstratos, não em contextos específicos, como pedidos de emprego ou namoro. Portanto, as descobertas podem não capturar completamente como a pontuação moral da IA funcionaria em situações da vida real. Além disso, os autores do estudo observaram que a moral foi analisada em sentido amplo e incluiu “caráter moral geral, traços morais específicos e valores morais”. Portanto, estudos futuros poderiam investigar os diferentes aspectos da moralidade com maior granularidade. O estudo, “Os seres humanos se sentem muito especiais para as máquinas pontuarem sua moral”, foi de autoria de Zoe A. Purcell e Jean-François Bonnefon. https://academic.oup.com/pnasnexus/article/2/6/pgad179/7185601
Compartilhar