Ed
há 2 meses
Analisando o texto, fica claro que a preocupação central é evitar vieses e discriminação no uso de sistemas de IA, garantindo ética, justiça e equidade. A autora destaca a necessidade de revisão, investigação de distorções e participação humana no processo. Vamos analisar as alternativas: a) Estabelecer processos de revisão e auditoria, com participação de uma equipe multidisciplinar e diversa, para identificar e corrigir vieses, garantindo que os sistemas respeitem princípios éticos e de equidade. → Está alinhada com o texto, pois enfatiza revisão, auditoria, diversidade e ética. b) Confiar totalmente nos algoritmos, dispensando a avaliação humana dos resultados. → Contraria o texto, que critica a confiança cega nos dados. c) Ocultar o funcionamento dos algoritmos para evitar questionamentos, mantendo a tecnologia como uma “caixa‑preta”. → Contraria a transparência e revisão defendidas no texto. d) Aumentar a coleta de dados sensíveis para que os algoritmos “aprendam” a identificar padrões de discriminação por conta própria. → Pode aumentar riscos de vieses, não é recomendado. e) O uso responsável de sistemas de IA no setor público se resume a ampliar a capacidade de vigilância e monitoramento, sem necessidade de auditorias ou revisão crítica, desde que a tecnologia seja eficiente em identificar suspeitos. → Contraria a necessidade de auditoria e revisão crítica. Portanto, a alternativa correta é: a. Estabelecer processos de revisão e auditoria, com participação de uma equipe multidisciplinar e diversa, para identificar e corrigir vieses, garantindo que os sistemas respeitem princípios éticos e de equidade.


Cadastre-se ou realize login
Ao continuar, você aceita os Termos de Uso e Política de Privacidade