Logo Passei Direto
Buscar
O que e a "entropia" em uma arvore de decisao?
a) A quantidade de dados processados pela arvore.
b) A medida de impureza ou desordem nos dados.
c) O numero de divisoes realizadas na arvore.
d) A precisao do modelo ao classificar os dados.
User badge image
Questões para Estudantes

há 2 meses

Respostas

User badge image

Ed Verified user icon

há 2 meses

A entropia em uma árvore de decisão é um conceito fundamental que mede a impureza ou desordem dos dados em um conjunto. Quanto maior a entropia, maior a incerteza sobre a classe dos dados. O objetivo ao construir uma árvore de decisão é minimizar a entropia, ou seja, criar divisões que resultem em conjuntos de dados mais puros. Analisando as alternativas: a) A quantidade de dados processados pela árvore - Isso não se relaciona diretamente com o conceito de entropia. b) A medida de impureza ou desordem nos dados - Esta é a definição correta de entropia. c) O número de divisões realizadas na árvore - Isso se refere à estrutura da árvore, mas não à entropia. d) A precisão do modelo ao classificar os dados - Isso é uma medida de desempenho, não de entropia. Portanto, a alternativa correta é: b) A medida de impureza ou desordem nos dados.

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Essa pergunta também está no material:

Mais perguntas desse material

Mais conteúdos dessa disciplina