Logo Passei Direto
Buscar

Inglês

Humanas / Sociais
TEXTO 1 Em abril de 2024, o chatbot Grok, desenvolvido pela empresa xAI (de Elon Musk) e integrado à plataforma X (antigo Twitter), gerou polêmica ao publicar uma afirmação falsa e difamatória sobre o jogador de basquete Klay Thompson. A ferramenta afirmou que o atleta havia jogado tijolos em residências na cidade de Sacramento, Califórnia — uma alegação sem fundamento na realidade. Análises apontam que o erro provavelmente se originou de uma “alucinação algorítmica”, fenômeno no qual o sistema de IA interpreta equivocadamente uma informação com base em padrões de linguagem. No caso, a expressão “throwing bricks”, usada frequentemente no jargão do basquete para se referir a arremessos errados, foi entendida literalmente como ato de vandalismo. A confusão ocorreu após uma derrota do time de Thompson, o Golden State Warriors, o que gerou diversas publicações online com o termo. Esse episódio ilustra um problema central das IAs generativas: a capacidade de gerar conteúdos plausíveis, porém falsos ou difamatórios, sem checagem factual. Tal falha levanta questionamentos jurídicos e éticos sobre responsabilidade civil, regulação da IA e proteção à imagem e reputação de indivíduos. À medida que essas tecnologias se popularizam, cresce a pressão por normas que exijam transparência nos dados de treinamento, limites em aplicações públicas e mecanismos de responsabilização clara em casos de danos provocados por erros automatizados. Disponível em: https://www.techtudo.com.br. Acesso em: 30 de jun 2025 (Adaptado). TEXTO 2 A aplicação da Inteligência Artificial (IA) em ambientes de atendimento ao público tem se expandido nos últimos anos, especialmente em setores como alimentação, transporte e varejo. No entanto, os resultados práticos nem sempre correspondem às expectativas comerciais e tecnológicas. Um exemplo emblemático ocorreu entre 2021 e 2024, quando a rede de fast-food McDonald’s, em parceria com a IBM, testou sistemas automatizados de IA para recepção de pedidos em mais de 100 unidades com serviço de drive-thru nos Estados Unidos. A proposta era substituir operadores humanos por uma interface conversacional automatizada, agilizando o atendimento e reduzindo custos operacionais. Contudo, em junho de 2024, o McDonald’s anunciou a suspensão definitiva do experimento, após uma série de falhas de compreensão e execução dos pedidos por parte do sistema. Relatos de clientes frustrados se acumularam, incluindo episódios em que o sistema adicionava itens não solicitados ou se confundia com o sotaque, ritmo ou gírias dos usuários. Um caso viralizou nas redes sociais quando dois clientes tentaram impedir o sistema de continuar adicionando nuggets a um pedido, que terminou com 260 unidades no total, sem correção possível pela IA. Disponível em: https://www.techtudo.com.br. Acesso em: 30 de jun 2025 (Adaptado). Considerando essas informações, assinale a alternativa correta: A reprodução de erros linguísticos por IA, como os casos apresentados, são demonstrações naturais de aprendizagem de máquina e não devem ser considerados ameaças reais à dignidade humana nem à reputação de indivíduos. As falhas da IA nesses contextos demonstram que apenas sua utilização em áreas de risco elevado, como justiça e saúde, deve ser regulamentada; já usos em redes sociais e comércio dispensam atenção legal específica. A violação de direitos fundamentais por sistemas de IA evidencia a urgência de um marco regulatório que assegure, entre outros princípios, auditabilidade, supervisão humana contínua e possibilidade de reparação por danos automatizados. IA, por ser não humana, não pode ser responsabilizada juridicamente; portanto, erros como difamações ou falhas de atendimento devem ser tratados como externalidades inevitáveis de um sistema em desenvolvimento. Apesar das falhas nas aplicações de IA, o avanço dessas tecnologias justifica a minimização das responsabilidades legais das empresas, uma vez que elas são necessárias para a evolução e modernização dos setores em que são implementadas.
User badge image
Lucas Oliveira

há 7 dias

Respostas

User badge image

Ed Verified user icon

há 7 dias

Vamos analisar as alternativas apresentadas uma a uma: 1. A reprodução de erros linguísticos por IA, como os casos apresentados, são demonstrações naturais de aprendizagem de máquina e não devem ser considerados ameaças reais à dignidade humana nem à reputação de indivíduos. - Essa afirmação minimiza os impactos negativos que erros de IA podem ter sobre a reputação e dignidade das pessoas, o que não é correto. 2. As falhas da IA nesses contextos demonstram que apenas sua utilização em áreas de risco elevado, como justiça e saúde, deve ser regulamentada; já usos em redes sociais e comércio dispensam atenção legal específica. - Essa afirmação é problemática, pois ignora a necessidade de regulamentação em todas as áreas onde a IA é utilizada, especialmente considerando os exemplos de difamação e erros de atendimento. 3. A violação de direitos fundamentais por sistemas de IA evidencia a urgência de um marco regulatório que assegure, entre outros princípios, auditabilidade, supervisão humana contínua e possibilidade de reparação por danos automatizados. - Esta alternativa reconhece a necessidade de regulamentação e proteção dos direitos fundamentais, o que é uma preocupação crescente no uso de IA. 4. IA, por ser não humana, não pode ser responsabilizada juridicamente; portanto, erros como difamações ou falhas de atendimento devem ser tratados como externalidades inevitáveis de um sistema em desenvolvimento. - Essa afirmação é problemática, pois sugere que não há responsabilidade, o que pode levar a abusos. 5. Apesar das falhas nas aplicações de IA, o avanço dessas tecnologias justifica a minimização das responsabilidades legais das empresas, uma vez que elas são necessárias para a evolução e modernização dos setores em que são implementadas. - Essa alternativa também é problemática, pois minimiza a responsabilidade das empresas em relação aos danos causados. Após essa análise, a alternativa correta é: A violação de direitos fundamentais por sistemas de IA evidencia a urgência de um marco regulatório que assegure, entre outros princípios, auditabilidade, supervisão humana contínua e possibilidade de reparação por danos automatizados.

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Mais conteúdos dessa disciplina