Logo Passei Direto
Buscar

Química

Outros
O que e a entropia em uma Arvore de Decisao?
a) A probabilidade de erro em um no.
b) A medida da quantidade de desordem ou incerteza de um conjunto de dados.
c) A media dos valores de saida dos nos folha.
d) O numero total de nos em uma arvore.
User badge image
Questões para o Sucesso

há 2 meses

Respostas

User badge image

Ed Verified user icon

há 2 meses

A entropia em uma árvore de decisão é um conceito que mede a incerteza ou a desordem em um conjunto de dados. Quanto maior a entropia, maior a incerteza sobre a classificação dos dados. Analisando as alternativas: a) A probabilidade de erro em um nó - Isso não define entropia, mas sim um conceito relacionado à precisão. b) A medida da quantidade de desordem ou incerteza de um conjunto de dados - Esta é a definição correta de entropia. c) A média dos valores de saída dos nós folha - Isso não está relacionado à entropia. d) O número total de nós em uma árvore - Isso também não é uma definição de entropia. Portanto, a alternativa correta é: b) A medida da quantidade de desordem ou incerteza de um conjunto de dados.

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Essa pergunta também está no material:

Mais perguntas desse material

Mais conteúdos dessa disciplina