Ed
há 10 meses
Vamos analisar cada uma das alternativas em relação à entropia de Shannon, que mede a incerteza associada a uma variável aleatória discreta. (A) H(X) pode ter valores positivos e negativos. Quanto maior o valor de H(X), menos incerteza existe no sistema. - Incorreta. A entropia de Shannon não pode ser negativa e, na verdade, quanto maior o valor de H(X), mais incerteza existe. (B) H(X) pode ter qualquer valor positivo, não tendo valor limitado pelo número de valores distintos de X. Quanto maior o valor de H(X), menos incerteza existe no sistema. - Incorreta. H(X) é limitada pelo número de valores distintos de X e, novamente, maior H(X) significa mais incerteza. (C) H(X) tem um valor positivo e limitado pelo número de valores distintos de X. Quanto maior o valor de H(X), menos incerteza existe no sistema. - Incorreta. Embora H(X) seja positiva e limitada, maior H(X) significa mais incerteza, não menos. (D) H(X) pode ter qualquer valor positivo, não tendo valor limitado pelo número de valores distintos de X. Quanto maior o valor de H(X), mais incerteza existe no sistema. - Incorreta. H(X) é limitada pelo número de valores distintos de X. (E) H(X) tem um valor positivo e limitado pelo número de valores distintos de X. Quanto maior o valor de H(X), mais incerteza existe no sistema. - Correta. H(X) é positiva e limitada, e um maior valor de H(X) indica mais incerteza. Portanto, a alternativa correta é: (E) H(X) tem um valor positivo e limitado pelo número de valores distintos de X. Quanto maior o valor de H(X), mais incerteza existe no sistema.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Mais perguntas desse material