Ed
há 2 meses
A entropia em uma árvore de decisão é um conceito fundamental que mede a impureza ou desordem dos dados em um conjunto. Quanto maior a entropia, maior a incerteza sobre a classe dos dados. O objetivo ao construir uma árvore de decisão é minimizar a entropia, ou seja, criar divisões que resultem em conjuntos de dados mais puros. Analisando as alternativas: a) A quantidade de dados processados pela árvore - Isso não se relaciona diretamente com o conceito de entropia. b) A medida de impureza ou desordem nos dados - Esta é a definição correta de entropia. c) O número de divisões realizadas na árvore - Isso se refere à estrutura da árvore, mas não à entropia. d) A precisão do modelo ao classificar os dados - Isso é uma medida de desempenho, não de entropia. Portanto, a alternativa correta é: b) A medida de impureza ou desordem nos dados.
Mais perguntas desse material