Logo Passei Direto
Buscar
What types of prompts or code snippets might be flagged by the GitHub Copilot toxicity filter? (Each correct answer presents part of the solution. Choose two.)
A. Hate speech or discriminatory language (e.g., racial slurs, offensive stereotypes)
B. Sexually suggestive or explicit content
C. Code that contains logical errors or produces unexpected results
D. Code comments containing strong opinions or criticisms
User badge image
Portuguesando

há 3 meses

Respostas

User badge image

Ed Verified user icon

há 3 meses

Para responder a essa pergunta, precisamos analisar cada uma das alternativas em relação ao que pode ser considerado tóxico e, portanto, ser sinalizado pelo filtro de toxicidade do GitHub Copilot. A. Hate speech or discriminatory language (e.g., racial slurs, offensive stereotypes) - Esta opção claramente se refere a linguagem de ódio e discriminação, que é considerada tóxica. B. Sexually suggestive or explicit content - Esta opção também se refere a conteúdo sexualmente sugestivo ou explícito, que é considerado inapropriado e tóxico. C. Code that contains logical errors or produces unexpected results - Embora isso possa ser um problema de programação, não é considerado tóxico. D. Code comments containing strong opinions or criticisms - Comentários que expressam opiniões ou críticas podem ser considerados controversos, mas não necessariamente tóxicos. Portanto, as opções que podem ser sinalizadas pelo filtro de toxicidade do GitHub Copilot são: A. Hate speech or discriminatory language (e.g., racial slurs, offensive stereotypes) B. Sexually suggestive or explicit content As respostas corretas são A e B.

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Essa pergunta também está no material:

Mais perguntas desse material

Mais conteúdos dessa disciplina