Baixe o app para aproveitar ainda mais
Prévia do material em texto
INTRODUÇÃO À TEORIA DA INFORMAÇÃO SISTEMA DE TRANSMISSÃO DIGITALSISTEMA DE TRANSMISSÃO DIGITALSISTEMA DE TRANSMISSÃO DIGITALSISTEMA DE TRANSMISSÃO DIGITAL � Os codificadores de fonte possuem a finalidade de “casar” a fonte de dados com o sistema levando em consideração a estatística de acontecimento dos símbolos da fonte. Ossistema levando em consideração a estatística de acontecimento dos símbolos da fonte. Os códigos de fonte mais conhecidos são os que utilizam o algoritmo de Huffman e o de Huffman modificado. � O codificador de canal está projetado para, através da inclusão de símbolos de redundância de forma inteligente, fazer com que a informação, após trafegar pelo canal, possa ser recuperada de eventuais erros de acordo com o critério de qualidade exigido. � O conjunto modulador-demodulador ( MODEM ) transforma o canal analógico em canal discreto para possibilitar o funcionamento do conjunto codificador-decodificador ( CODEC ). QUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIA � Denomina-se alfabeto de uma fonte de informação discreta o conjunto de elementos que a fonte pode selecionar. Por exemplo: � Texto: {A, B, C ... X, Y, Z, 0, 1,2 ... 9,?, !, ... “} � Sensor de nível ( h 2≥ hA ? ):{sim, não} � Opção do cardápio: (1,2,3,4,5, 6) � Considere-se uma fonte discreta com alfabeto de k elementos, {x1, x ,..., x }. A relação entre o número de vezes n, em que um dadox2,..., xk }. A relação entre o número de vezes n, em que um dado elemento xi, (com i = 1,2, ... , k) é selecionado pela fonte e o número total N de seleções, para N tendendo a infinito, é a probabilidade de ocorrência daquele elemento: = ∞→ N n xp i N i lim)( QUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIA � A soma das probabilidades de ocorrência de todos os elementos do alfabeto da fonte é, evidentemente, , pois a fonte só seleciona elementos contidos em seu alfabeto (a probabilidade de selecionar elemento não-contido no alfabeto é nula). � A quantidade de informação associada à ocorrência de um elemento xi ∑ = = k i ixp 1 1)( � A quantidade de informação associada à ocorrência de um elemento xi mede o grau de surpresa quando aquele elemento é selecionado pela fonte. Elementos selecionados com maior freqüência causam menos surpresa, ao passo que elementos de ocorrência mais rara causam mais surpresa. Define-se a quantidade de informação I(xi), associada à seleção do elemento xi ; usando a função logaritmo de base 2: = )( 1 log)( 2 i i xp xI � Quantidade de informação, assim definida, tem como características: � Quantidade de informação varia com o inverso da probabilidade de ocorrência - elementos menos freqüentes têm quantidade de informação maior que elementos mais freqüentes. � Se o alfabeto da fonte tem um único elemento, a quantidade de informação associada à seleção desse elemento (evento certo) é nula: QUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIA = )( 1 log)( 2 i i xp xI informação associada à seleção desse elemento (evento certo) é nula: I(xi)= O para p(xi) = 1. � Se a fonte seleciona um elemento não-contido em seu alfabeto (evento impossível), a quantidade de informação associada a essa seleção é infinita: I(xi)= ∞ para p(xi) = 0. � Se a seleção de cada elemento não afeta a probabilidade de ocorrência de outros nas seleções seguintes, a quantidade total de informação de uma seqüência de elementos é a soma das quantida- des de informação individuais � A quantidade de informação - medida em bit (acrônimo de binary unit = unidade binária, devido ao uso logaritmo de base 2) - é um número real não-negativo adimensional. � Quantidade de informação é importante para a criação de códigos (representações de elementos da fonte discreta) para transmissão eficiente de informação. Ao criar um código para representar letras, algarismos e sinais de pontuação no telégrafo elétrico, Morse QUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIA algarismos e sinais de pontuação no telégrafo elétrico, Morse intuitivamente associou representação mais curta para caracteres mais freqüentes (com menor quantidade de informação) e mais longa para caracteres menos freqüentes (com maior quantidade de informação). � Define-se como entropia de uma fonte discreta a quantidade média de informação por ocorrência (seleção de um elemento pela fonte). � Considere-se que a fonte discreta seleciona, num dado intervalo, um total de N = nl + n2 + ... + nk , elementos, com n1 ocorrências do elemento x1 , n2 ocorrências do elemento x2, ...., nk ocorrências do elemento xk . Com ocorrências estatisticamente independentes, a quantidade total de informação total dessas N seleções é IT = nl I(x1) + n2 I(x2) + ... + nk I(xk) : A relação entre a quantidade total de informação e o número de ocorrência no intervalo é: →∞ QUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIA )(...)()( 2 2 1 1 k kT xI N n xI N n xI N n N I +++= � Para N→∞, tem-se a entropia, definida pela expressão: � Entropia é uma característica da fonte de informação discreta que depende da probabilidade de Ocorrência de cada um dos elementos de seu alfabeto. Quanto maior a entropia da fonte maior será a incerteza sobre qual elemento a ser selecionado (menor previsibilidade da fonte). ∑∑ == ∞→ === k i i i k i ii T N bit xp xpxIxp N I H 1 2 1 )( )( 1 log)()()(lim � Exemplo: Considere-se que, no restaurante, observando-se pedidos feitos durante um período de tempo suficientemente longo, foram determinadas as probabilidades de ocorrência de cada uma das opções, conforme Tabela 9B. Observe-se que a soma das probabilidades de todos os elementos do alfabeto da fonte deve ser igual a l: QUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIA Opção Prato Probabilidade de ocorrência Opção Prato Probabilidade de ocorrência 1 Moqueca capixaba 1/2 2 Filé com fritas 1/4 3 Mocotó no feijão 1/8 4 Rabada à moda 1/16 5 Buchada de bode 3/64 6 Jabá com jerimum 1/64 � A quantidade de informação de cada uma das opções é: QUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIA Opção Prato Probabilidade de ocorrência 1 Moqueca capixaba 1/2 2 Filé com fritas 1/4 3 Mocotó no feijão 1/8 4 Rabada à moda 1/16 5 Buchada de bode 3/64 6 Jabá com jerimum 1/64 � A entropia dessa fonte discreta é: � H = (1/2) . 1 + (1/4) . 2 + (1/8) . 3 + (1/16) . 4 + (3/64) . 4,415 + (1/64).6= 1,926 bit. � Tem-se, em média, a quantidade de informação de 1,926 bit por elemento selecionado. � Considere-se uma fonte discreta com alfabeto de apenas dois elementos como, por exemplo, um sensor chave: {sim, não} - uma fonte binária. Sejam p(sim) = x e p(não) = 1 - x as respectivas probabili- dades de ocorrência desses elementos (com x real, adimensional e 0 < x < 1). � A entropia da fonte binária é função da probabilidade x: � H(x) = x log(1/x) + (l - x) . log2[ l / (l - x)] = - x . log2 (x) - (l - x) . log2 (l - x) (1) QUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIA � H(x) = x log(1/x)+ (l - x) . log2[ l / (l - x)] = - x . log2 (x) - (l - x) . log2 (l - x) (1) � A entropia é máxima para x tal que a derivada primeira é nula, , e a derivada segunda é negativa, . Derivando (1) em relação a x: � Essa derivada é nula para 1 - x = x, ou seja, x = 1/2. 0= dx dH 0 2 2 < dx Hd −= x x dx dH 1 log2 � Para � A entropia máxima ( para x = ½ ) é: QUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIA ( ) entropia máxima de Ponto 0log4 e 0 se-obtém , 2 1 22 2 →<−=== e dx Hd dx dH x )1( )(log1).1()1( )(log. 1 1 )(log 1 2 2222 2 xx e x xx e x x x x dx d e x x dx Hd − −=−−− − = − − = � A entropia máxima ( para x = ½ ) é: ( ) ( ) bit 12log 2 1 12log 2 1 22 = −+= Hmáx � Com dois elementos equiprováveis (x = 1 - x = ½ ), a entropia é máxima (a fonte é menos previsível). � Observe-se que, à medida que um dos elementos se torna mais provável que o outro, a entropia da fonte decresce. � Se a probabilidade de ocorrência de um dos elementos é igual a 1 (evento certo), a do outro é 0 (evento impossível) e a entropia da fonte é zero. � Esse resultado pode ser generalizado - a entropia de uma fonte discreta com alfabeto de k elementos é máxima para p( x ) = 1/k, i = 1,2, ... , k QUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIAQUANTIDADE DE INFORMAÇÃO E ENTROPIA com alfabeto de k elementos é máxima para p( xi ) = 1/k, i = 1,2, ... , k (elementos equiprováveis). O valor máximo de entropia de uma fonte discreta com alfabeto de k elementos é, portanto: � Por exemplo, para a fonte de opções de cardápio (Tabela 9B), a quantidade de informação de cada opção varia entre 1 bit para a preferida do público e 6 bits para a menos procurada e a entropia da fonte é H = 1,926 bit. Se todas as seis opções ocorressem com a mesma probabilidade (= 1/6), a entropia da fonte teria o valor máximo: )(log2max kH = bits 58,2)6(log2max ≅=H CODIFICAÇÃO DE FONTE � Codificação de fonte consiste em associar, a cada elemento do alfabeto da fonte, um caractere – uma combinação de elementos de código. Se todos os caracteres têm o mesmo número de elementos de código, diz-se que o código é de comprimento constante. Se o número de elementos de código não é o mesmo para todos os caracteres, o código é de comprimento variável. � A codificação com elementos binários (que podem assumir apenas dois valores) é particularmente interessante para transmissão elétrica. Cada elemento do conjunto binário, representado por {0, 1}, é denominado dígito binário - ou bit (acrônimo de binary digit - não confundir comdígito binário - ou bit (acrônimo de binary digit - não confundir com unidade binária, embora seja usado o mesmo acrônimo). � Com n elementos binários de código obtêm-se 2n combinações de bits (caracteres) que podem representar elementos do alfabeto da fonte de informação discreta. � No exemplo do restaurante, com código binário com comprimento variável, duas das opções podem ser representadas com caracteres de 1 bit, e as quatro opções restantes com caracteres de 2 bits. De preferência, devem ser associados caracteres mais curtos aos elementos mais freqüentes. CODIFICAÇÃO DE FONTE � Para representar as seis opções, com código de comprimento constante n, deve-se ter: � Como n ( número de dígitos binários ) deve ser inteiro, o número mínimo de bits para o código de comprimento constante é n = 3. )(log 58,2)6(log )2log( )6log( 62 2max2 kHnn n =≥→≅=≥→≥ � No código binário de comprimento variável, o número médio de bits (dígitos binários) por caractere, considerando as probabilidades de ocorrência indicadas na Tabela 9B, é inferior ao número de bits por caractere do código de comprimento constante: 25,1 4 1 2 4 3 64 1 64 3 16 1 8 1 2 4 1 2 1 1 =+= ++++ +=n CODIFICAÇÃO DE FONTE Opção Prato Probabilidade de ocorrência Código Binário Comprimento Variável Comprimento Constante 1 Moqueca capixaba 1/2 0 000 2 Filé com fritas 1/4 1 0012 Filé com fritas 1/4 1 001 3 Mocotó no feijão 1/8 00 010 4 Rabada à moda 1/16 01 011 5 Buchada de bode 3/64 10 100 6 Jabá com jerimum 1/64 11 101 Algoritmo de Huffman � Algoritmo para a compressão de arquivos, principalmente arquivos textos. � Atribui códigos menores para símbolos mais freqüentes e códigos maiores para símbolos menos freqüentes. � Código é um conjunto de bits. � Representação dos dados é feita com códigos de tamanho variável� Representação dos dados é feita com códigos de tamanho variável Código ASCII A=01000001 B=01000010 . . . a=01100001 b=01100010 Código de Huffman A=? (0) B=? (110) . . . a=? (1111110) b=? (11111111110) Algoritmo de Huffman � Supondo A e C mais freqüentes que C e D no conjunto de valores possíveis. ABACDA= 0 110 0 10 111 0 A B A C D A Símbolo A B C D Código 0 110 10 111 Algoritmo de Huffman � Dado:Tabela de freqüências dos N símbolos de um alfabeto � Objetivo: Atribuir códigos aos símbolos de modo que os mais freqüentes tenham códigos menores (menos bits). A-0.2 B-0.1 a-0.1 . . . A-0 B-10 a-110 . . . Huffman Algoritmo de Huffman Fdjoiasdjfoidsjfoisofnsdo Sdjfoisdjfoisdfoisdfoid Oidsfoisdnfosdf Sdoifsjfsdfskodnfsdknf Arquivo comprimido
Compartilhar