Logo Passei Direto
Buscar

Algoritmos

Engenharias
Um órgão de segurança pública pretende implantar um sistema de reconhecimento facial para monitorar suspeitos em eventos. Preocupados com a possibilidade de vieses e discriminação, alguns gestores defendem a adoção de medidas para garantir o uso ético dessa tecnologia. Uma síntese da palestra “The era of blind faith in big data must end” destaca que algoritmos podem falhar de maneiras inesperadas e perpetuar preconceitos. A autora argumenta que precisamos acabar com a confiança cega nos dados e trazer a ética humana para o desenvolvimento e a implementação de sistemas de IA, revendo resultados, investigando possíveis distorções e garantindo justiça e equidade. Com base no texto, qual atitude deve ser adotada para garantir o uso responsável de sistemas de IA no setor público? a. Estabelecer processos de revisão e auditoria, com participação de uma equipe multidisciplinar e diversa, para identificar e corrigir vieses, garantindo que os sistemas respeitem princípios éticos e de equidade. b. Confiar totalmente nos algoritmos, dispensando a avaliação humana dos resultados. c. Ocultar o funcionamento dos algoritmos para evitar questionamentos, mantendo a tecnologia como uma “caixa‑preta”. d. Aumentar a coleta de dados sensíveis para que os algoritmos “aprendam” a identificar padrões de discriminação por conta própria. e. O uso responsável de sistemas de IA no setor público se resume a ampliar a capacidade de vigilância e monitoramento, sem necessidade de auditorias ou revisão crítica, desde que a tecnologia seja eficiente em identificar suspeitos.
User badge image
Mario Ferrari

há 2 meses

Respostas

User badge image

Ed Verified user icon

há 2 meses

Analisando o texto, fica claro que a preocupação central é evitar vieses e discriminação no uso de sistemas de IA, garantindo ética, justiça e equidade. A autora destaca a necessidade de revisão, investigação de distorções e participação humana no processo. Vamos analisar as alternativas: a) Estabelecer processos de revisão e auditoria, com participação de uma equipe multidisciplinar e diversa, para identificar e corrigir vieses, garantindo que os sistemas respeitem princípios éticos e de equidade. → Está alinhada com o texto, pois enfatiza revisão, auditoria, diversidade e ética. b) Confiar totalmente nos algoritmos, dispensando a avaliação humana dos resultados. → Contraria o texto, que critica a confiança cega nos dados. c) Ocultar o funcionamento dos algoritmos para evitar questionamentos, mantendo a tecnologia como uma “caixa‑preta”. → Contraria a transparência e revisão defendidas no texto. d) Aumentar a coleta de dados sensíveis para que os algoritmos “aprendam” a identificar padrões de discriminação por conta própria. → Pode aumentar riscos de vieses, não é recomendado. e) O uso responsável de sistemas de IA no setor público se resume a ampliar a capacidade de vigilância e monitoramento, sem necessidade de auditorias ou revisão crítica, desde que a tecnologia seja eficiente em identificar suspeitos. → Contraria a necessidade de auditoria e revisão crítica. Portanto, a alternativa correta é: a. Estabelecer processos de revisão e auditoria, com participação de uma equipe multidisciplinar e diversa, para identificar e corrigir vieses, garantindo que os sistemas respeitem princípios éticos e de equidade.

Essa resposta te ajudou?

0
Dislike0
details

Libere essa resposta sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Mais conteúdos dessa disciplina