Ed
há 2 meses
A entropia em uma árvore de decisão é um conceito que mede a incerteza ou a desordem em um conjunto de dados. Quanto maior a entropia, maior a incerteza sobre a classificação dos dados. Analisando as alternativas: a) A probabilidade de erro em um nó - Isso não define entropia, mas sim um conceito relacionado à precisão. b) A medida da quantidade de desordem ou incerteza de um conjunto de dados - Esta é a definição correta de entropia. c) A média dos valores de saída dos nós folha - Isso não está relacionado à entropia. d) O número total de nós em uma árvore - Isso também não é uma definição de entropia. Portanto, a alternativa correta é: b) A medida da quantidade de desordem ou incerteza de um conjunto de dados.
Mais perguntas desse material