EXTO 1 Em abril de 2024, o chatbot Grok, desenvolvido pela empresa xAI (de Elon Musk) e integrado à plataforma X (antigo Twitter), gerou polêmica ao publicar uma afirmação falsa e difamatória sobre o jogador de basquete Klay Thompson. A ferramenta afirmou que o atleta havia jogado tijolos em residências na cidade de Sacramento, Califórnia — uma alegação sem fundamento na realidade. Análises apontam que o erro provavelmente se originou de uma “alucinação algorítmica”, fenômeno no qual o sistema de IA interpreta equivocadamente uma informação com base em padrões de linguagem. No caso, a expressão “throwing bricks”, usada frequentemente no jargão do basquete para se referir a arremessos errados, foi entendida literalmente como ato de vandalismo. A confusão ocorreu após uma derrota do time de Thompson, o Golden State Warriors, o que gerou diversas publicações online com o termo. Esse episódio ilustra um problema central das IAs generativas: a capacidade de gerar conteúdos plausíveis, porém falsos ou difamatórios, sem checagem factual. Tal falha levanta questionamentos jurídicos e éticos sobre responsabilidade civil, regulação da IA e proteção à imagem e reputação