Logo Passei Direto
Buscar
Questão 1/10 - Comunicações Digitais 1 Ler em voz alta A Teoria da Informacao e um ramo da probabilidade que aborda conceitos estatisticos e matematicos que envolvem a natureza da informacão, de ocorrencia continua ou discreta, desenvolvida inicialmente para auxiliar a engenharia a projetar sistema de comunicacão mais eficientes. O artigo "A Mathematical Theory of Communication", publicado por Claude Shannon em 1948, estabeleceu as bases da teoria da informação, baseando-se nas pesquisas de Nyquist e Hartley, mas estendendo o conceito para incluir o efeito do ruido e a estatistica da fonte de informações. No seu artigo, Shannon afirma que "frequentemente as mensagens possuem significado, isto e, referem-se ou estao relacionadas a algum sistema, a certas entidades físicas ou conceituais", propondo que existe redundância no conjunto de símbolo produzidos pelos geradores de informação. Afirma ainda que "os aspectos semanticos da comunicação são irrelevantes para o problema da engenharia", propondo que a relação entre os símbolos em qualquer linguagem é irrelevante para a resolver o problema fundamental da comunicação que é levar a informação de um lado ao outro do sistema. Com base na teoria da informacão, avalie as informações a seguir . I. Amensagem real é aquela selecionada de um conjunto de mensagens possíveis. · II. A entropia mede a quantidade de informação gerada por uma fonte, sem redundância. . III. Amedida da informacao produzida e definida pela escolha casual de uma mensagem, com determinada chance de ocorrencia, a partir de uma quantidade finita de mensagens. É correto apenas o que se afirma em
User badge image
andsluiss

há 2 meses

Respostas

User badge image

Ed Verified user icon

há 2 meses

Vamos analisar cada afirmativa: I. A mensagem real é aquela selecionada de um conjunto de mensagens possíveis. Verdadeiro, essa afirmação está correta, pois a mensagem real é, de fato, uma entre várias mensagens que podem ser geradas. II. A entropia mede a quantidade de informação gerada por uma fonte, sem redundância. Falso, a entropia mede a quantidade de informação, mas não necessariamente "sem redundância". A entropia considera a incerteza e a variabilidade das mensagens, incluindo a redundância. III. A medida da informação produzida é definida pela escolha casual de uma mensagem, com determinada chance de ocorrência, a partir de uma quantidade finita de mensagens. Verdadeiro, essa afirmação está correta, pois a medida da informação está relacionada à probabilidade de seleção de mensagens em um conjunto finito. Com base nas análises, as afirmações corretas são I e III. Portanto, a alternativa correta é que é correto apenas o que se afirma em I e III. Se houver uma opção que mencione apenas essas duas, essa será a resposta correta. Se não houver, você terá que criar uma nova pergunta.

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Mais conteúdos dessa disciplina