Buscar

aula06_entropia

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 129 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 129 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 129 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

BC-0504: Natureza da Informação
 
Introdução a Teoria da Informação
Slides baseados no material do
Prof. Fabrício Olivetti e Profa. Mirtha Lina
Teoria da Informação
• Em 1948, um engenheiro-matemático mostrou que a 
informação poderia ser medida e quantificada.
 
Claude E. Shannon (1916-2001), considerado o pai da Teoria da Informação, 
e seu livro publicado em 1949, Teoria Matemática da Comunicação.
Introdução
• Após terminar o seu doutorado no MIT, em 1940, 
Shannon foi trabalhar na Bell Labs.
 
• Bell Laboratories: pesquisa da AT&T 
(American Telephone and Telegraph Company)
• Fundada em 1920s para pesquisa em comunicações.
• Busca de alta-qualidade de som (gravação), 
transmissão de TV, telefonia e diferentes canais de 
comunicação.
Introdução
• Perguntas: 
• Como representar e transmitir informação de forma 
eficiente?
• Quais são os limites teóricos para sua representação 
e transmissão através de um canal com ruído?
Introdução
• Respostas satisfatórias e surpreendentes:
• Medida de informação (entropia)
• Medida da capacidade de um canal para transmitir 
informação
• A codificação para utilizar o canal em toda sua 
capacidade:
 Codificação da fonte (representação compacta)
 Codificação do canal (detecção e correção de 
erros)
Unidade Fundamental de 
Informação
 A quantidade de informação de uma fonte ou um 
receptor está associada com a incerteza com 
que a informação é gerada ou recebida
 A incerteza pode ser mensurada usando a 
probabilidade de ocorrência dos símbolos da 
mensagem
Unidade Fundamental de 
Informação
 A saída de uma fonte discreta poder modelada 
como uma variável aleatória discreta S = {s
1
, 
s
2
, …, s
k
} e uma função de distribuição de 
probabilidades p : S → [0, 1] tal que
 Portanto a incerteza de cada símbolo deve ser 
uma função da sua probabilidade, i.e.
 I(s) = f(p(s)) e se p(s) = 1, I (s) = 0
∑
s�S
p ( s )=1
Unidade Fundamental de 
Informação
 A quantidade de informação é uma grandeza não 
negativa
� I(s)≥0, evento produz informação ou não, 
mas nunca uma perda de informação
 A medida de informação deve ser uma função 
contínua (na verdade, monótona) da função de 
probabilidade
� Pequenas alterações na probabilidade devem 
resultar em pequenas alterações na 
quantidade de informação
Unidade Fundamental de 
Informação
 O símbolo "menos provável de ocorrer" 
transmite mais informação, i.e. p(s
j
) < p(s
k
) 
⟹ I (s
j
) > I (s
k
)
 Se s
j
 e s
k
 são independentes I (s
j
s
k
) = I (s
j
) 
+ I (s
k
)
� A informação associada à ocorrência de dois 
eventos independentes é a soma da 
informação de cada um
Unidade Fundamental de 
Informação
 A base b determina a unidade de medida de 
informação
� Usualmente b = 2 (pode ser omitida) e a 
unidade é bits
 I(s) pode ser interpretada como o número 
mínimo de símbolos na base b necessários para 
codificar um símbolo, mensagem, evento, 
informação s
I ( s )=− logb p (s )=log b( 1p ( s ) )
BIT
 Considere o seguinte experimento:
 Lançamento de uma moeda honesta
 2 resultados: cara ou coroa
BIT
 Considere o seguinte experimento:
 Lançamento de uma moeda honesta
 2 resultados: cara ou coroa
 Pergunta
 Como podemos transmitir o resultado (da maneira 
mais compacta possível)?
BIT
 Considere o seguinte experimento:
 Lançamento de uma moeda honesta
 2 resultados: cara ou coroa
 Pergunta
 Como “Alice” poderia transmitir o resultado 
observado no experimento para “Bob”?
BIT
 Considere o seguinte experimento:
 Lançamento de uma moeda honesta
 2 resultados: cara ou coroa
 Pergunta
 Como “Alice” poderia transmitir o resultado 
observado no experimento para “Bob”?
.Cara / Coroa
-> 1 / 0
-> 1 bit
1
BIT
 Considere o seguinte experimento:
 2 lançamentos de uma moeda honesta
BIT
 Considere o seguinte experimento:
 2 lançamentos de uma moeda honesta
 4 possíveis resultados:
(1 = Cara, 0 = Coroa)
.11
.10
.01
.00
BIT
 Considere o seguinte experimento:
 2 lançamentos de uma moeda honesta
 4 possíveis resultados:
 “Alice” transmite o resultado observado para 
“Bob”:
(1 = Cara, 0 = Coroa)
.11
.10
.01
.00
2 bits
10
BIT
 Similarmente, o resultado de um experimento 
com 8 possíveis resultados equiprováveis...
 “Alice” transmite o resultado observado para 
“Bob”:
3 bits
(1 = Cara, 0 = Coroa)
.111
.110
.101
.100
...
101
BIT
 Similarmente, o resultado de um experimento 
com 2n possíveis resultados equiprováveis...
 “Alice” transmite o resultado observado para 
“Bob”:n bits
1011...
BIT
 Similarmente, o resultado de um experimento 
com 2n possíveis resultados equiprováveis...
 “Alice” transmite o resultado observado para 
“Bob”:
n bits
#res #bits
2 1
4 2
8 3
... ...
2n n
BIT
 Propriedades da função “log”
log(2^n) = n*log(2)
 = n
BIT
 Nos exemplos anteriores,
 A quantidade de informação é o logaritmo na base 
2 do número de resultados equiprováveis.
#res #bits
2 log(2) = 1
4 log(4) = 2
8 log(8) = 3
... ...
2n log(2n) = n
BIT
 Nos exemplos anteriores,
 A quantidade de informação é o logaritmo na base 
2 do número de resultados equiprováveis.
#res #bits
2 log(2) = 1
4 log(4) = 2
8 log(8) = 3
... ...
2n log(2n) = n
p log(1/p)
1/2 log(1/(1/2)) = 1
1/4 log(1/(1/4)) = 2
1/8 log(1/(1/8)) = 3
... ...
1/(2n) log(1/(1/2n)) = n
Valor Esperado
Digamos que eu faça uma aposta: em um jogo de 
cara ou coroa, se der cara eu ganho R$ 1,00; se 
der coroa, não ganho nada.
Estatisticamente posso dizer que espero ganhar 
R$ 0,50.
Isso porque eu tenho igual probabilidade de 
ganhar ou não.
Valor Esperado
O valor esperado é calculado como:
p(cara)*valor(cara) + p(coroa)*valor(coroa) =
= 0.5*1 + 0.5*0 = 0.5
Isso significa que, ao participar do jogo várias 
vezes, espero ganhar em média 50 centavos por 
jogo (mas em uma jogada não vou ganhar isso).
Valor Esperado
Se temos uma variável aleatória R, podemos 
definir seu valor esperado como:
H (R )=E=∑
x�R
x p (R=x )
Medindo Informação
Digamos que temos uma fita colorida
Medindo Informação
Digamos que temos uma variável aleatória que é 
um ponto nessa fita (mediremos apenas a 
coordenada do eixo horizontal).
Medindo Informação
A única informação que temos desse ponto é a cor 
da posição que ele se encontra.
Medindo Informação
Digamos que podemos representar o estado como 
uma sequência de 0s e 1s da seguinte forma:
Se o primeiro bit for 0, o ponto está na 
primeira metade, se for 1, está na segunda 
metade
Medindo Informação
001
Medindo Informação
Digamos que nosso ponto resultou na cor verde. 
Sabemos que os 2 primeiros bits dele deve ser 
com certeza 00.
Medindo Informação
Se a cor for vermelha: 010.
Medindo Informação
Se a cor for amarela: 011.
Medindo Informação
Se a cor for azul: 1
Medindo Informação
Dependendo da cor de nossa variável aleatória, 
podemos ter de 1 a 3 bits de informação!!
Medindo Informação
Qual o Valor Esperado de bits de informação de 
uma variável aleatória R, dado os 4 valores 
possíveis?
Verde = 2 bits
Vermelho = 3 bits
Amarelo = 3 bits
Azul = 1 bit
Medindo Informação
Qual o Valor Esperado de bits de informação de 
uma variável aleatória R, dado os 4 valores 
possíveis?
P(Verde) = 1/4
P(Vermelho) = 1/8
P(Amarelo) = 1/8
P(Azul) = 1/2
Medindo Informação
Qual o Valor Esperado de bits de informação de 
uma variável aleatória R, dado os 4 valores 
possíveis?
E(R) = 2 . 1/4 + 3 . 1/8 + 3 . 1/8 + 1 . 1/2
 = 1/2 + 3/4 + 1/2 
 = 1,75
Medindo Informação
Reparem que quanto menor a área de uma cor, 
maior a informação e menor a probabilidade da 
variável cair nela.
A cada divisão da área por 2:
Aumentamos a informação em 1 bit
Reduzimos a probabilidade em um fator de 1/2
Medindo Informação
Se temos uma única cor, temos que cada medição 
não nos dá nenhum bit de informação.
Se criarmos uma novacor, dividindo a fita ao 
meio, temos que cada cor nos informa 1 bit de 
informação.
Se dividirmos uma das cores em duas novas cores, 
cada uma delas informa 2 bits.
Medindo Informação
1 bit representa 21 = 2 possibilidades.
2 bits representam 22 = 4 possibilidades.
...
Se uma cor tem chance de ser escolhida com 
probabilidade = 1/4, temos que ela representa 
uma entre quatro possibilidades, ou 2 bits.
Medindo Informação
De forma geral:
2b = 1/P(R=x)
Ou, o número de bits é igual ao inverso da 
probabilidade de obtermos um certo valor.
Medindo Informação
log
2
(2b) = b
I(R=x)= log
2
(1/P(R=x))
A quantidade de informação (bits) de uma 
variável aleatória é o logaritmo na base 2 do 
inverso da probabilidade de ela dar certo valor 
x.
Medindo Informação
•  
Medindo Informação
A entropia dessa fita é:
E(R) = -(¼.log(1/4) + 1/8.log(1/8) + 
1/8.log(1/8) + ½.log(1/2) = 1.75
ou o valor esperado de bits!
Entropia: propriedades
No caso de eventos binários, a informação por 
símbolo é dada por:
H
Maior entropia 
para casos 
equiprováveis
p
p
p
p
p
pH
ii
i 

1
1
log*)1(
1
log*
1
log*
Entropia: propriedades
H
.Moeda honesta:
 p = 1/2 = 1-p
 H = 1/2*log2(1/(1/2)) + 1/2*log2(1/(1/2))
 = log2(2)
 = 1 bit por símbolo
Entropia: propriedades
H
.Moeda viesada:
 p = 0.6; 1-p = 0.4
 H = 0.6*log2(1/0.6) + 0.4*log2(1/0.4)
 = 0.971 bit por símbolo
Entropia: propriedades
H
.Moeda viesada:
 p = 0.9
 H = 0.9*log2(1/0.9) + 0.1*log2(1/0.1)
 = 0.469 bit por símbolo
Entropia: propriedades
• Observações
• Para casos equiprováveis, H é máximo.
• A incerteza é máxima.
H
p
Entropia: propriedades
• Observações
• Para casos equiprováveis, H é máximo.
• A incerteza é máxima.
• Para p = 0 ou p = 1, H = 0
• Nestes casos, o resultado é certo: 
não há incerteza, nem informação a ser “aprendida”.
H
p
Entropia Alta
Entropia Baixa
JOGO DAS 20 
PERGUNTAS
20 Perguntas
• Jogo que envolve duas pessoas
• Uma pessoa pensa em um objeto
• A outra pessoa pode fazer 20 perguntas de “sim 
ou não” para tentar adivinhar qual é esse objeto
20 Perguntas
Vamos ver uma maneira estúpida de jogar o jogo:
É um 
sapato?
20 Perguntas
Vamos ver uma maneira estúpida de jogar o jogo:
É um 
óculos?
20 Perguntas
Vamos ver uma maneira estúpida de jogar o jogo:
É um 
livro?
20 Perguntas
Podemos fazer melhor que isso...
É um 
livro?
Vamos jogar 20 questões
Uma forma mais racional de jogar esse jogo é 
escolher as questões com maior Entropia, ou seja, 
aquelas que te dão 1 bit de informação!
Essas questões são aquelas que tem a maior 
incerteza, ou seja, 50% de chances de ter uma das 
respostas (sim ou não).
Vamos jogar 20 questões
Na prática é difícil saber quais perguntas dividem 
nossas dúvidas pela metade, mas podemos intuir!
20 Perguntas
Vamos escolher melhor as perguntas!
Você 
veste no 
corpo?
20 Perguntas
Vamos escolher melhor as perguntas!
Você usa 
na 
faculdade?
20 Perguntas
Vamos escolher melhor as perguntas!
Usa 
bateria?
20 Perguntas
Vamos escolher melhor as perguntas!
Posso 
fazer 
contas 
nela?
20 Perguntas
Mesmo assim nem sempre acertaremos...
É um 
celular?
20 Perguntas
Vamos pensar nesse jogo de outra maneira! 
Quantas perguntas temos que fazer para descobrir 
qual animal dentre os abaixo eu estou pensando?
20 Perguntas
O objetivo é defnir o menor conjunto de perguntas 
possível que me traga a certeza da resposta.
20 Perguntas
Vamos jogar da maneira burra! Precisamos de 
quantas perguntas para descobrir o animal?
 É uma vaca?
 É uma baleia?
 É um pinguim?
 É um morcego?
 É um cachorro?
 É um ornitorrinco?
20 Perguntas
Não sejamos tão burros!
 É uma vaca?
 É uma baleia?
 É um pinguim?
 É um morcego?
 É um cachorro?
 É um ornitorrinco?
20 Perguntas
Precisamos de 5 perguntas para determinar o 
animal que estamos pensando! Ou seja, precisamos 
de no máximo 5 bits para ganhar o jogo!
 É uma vaca?
 É uma baleia?
 É um pinguim?
 É um morcego?
 É um cachorro?
20 Perguntas
Cada bit representa uma pergunta!
 É uma vaca?
 É uma baleia?
 É um pinguim?
 É um morcego?
 É um cachorro?
20 Perguntas
Qual a probabilidade de acertamos a resposta 
usando apenas 1 bit??
 É uma vaca? 
 É uma baleia?
 É um pinguim?
 É um morcego?
 É um cachorro?
20 Perguntas
Na verdade, para todas as perguntas temos 1/6 de 
chance de acertar a resposta. Exceto na última 
pergunta (por que?):
 É uma vaca? P(1 bit) = 1/6
 É uma baleia? P(2 bits) = 1/6
 É um pinguim? P(3 bits) = 1/6
 É um morcego? P(4 bits) = 1/6
 É um cachorro? P(5 bits) = 2/6
20 Perguntas
•  
20 Perguntas
•  
20 Perguntas
E se pensarmos em perguntas melhores?
 Bota ovo?
 Tem asas?
 É carnívoro?
 Nada?
20 Perguntas
Qual a probabilidade do animal escolhido botar 
ovo?
bota ovo?
0 1
4/6 2/6
20 Perguntas
Sabendo disso, qual a probabilidade de ele ter asas 
também?
bota ovo?
0 1
4/6 2/6
1/6
3/6
1/61/6
20 Perguntas
Daqueles que não tem asas e nem botam ovos, 
quais são carnívoros?
bota ovo?
0 1
4/6 2/6
1/6
3/6
1/61/6
1/6
2/6
20 Perguntas
Finalmente, quais nadam?
bota ovo?
0 1
4/6 2/6
1/6
3/6
1/61/6
1/6 2/6
1/6 1/6
20 Perguntas
Apenas com a primeira pergunta, não podemos 
descobrir o animal!
bota ovo?
0 1
4/6 2/6
1/6
3/6
1/61/6
1/6 2/6
1/6 1/6
20 Perguntas
Mas na segunda pergunta temos 3 situações que 
encontra a resposta: 3.1/6.2bits
bota ovo?
0 1
4/6 2/6
1/6
3/6
1/61/6
1/6 2/6
1/6 1/6
20 Perguntas
Na terceira pergunta temos mais uma situação que 
encontra a resposta: 3.1/6.2bits + 1/6.3bits
bota ovo?
0 1
4/6 2/6
1/6
3/6
1/61/6
1/6 2/6
1/6 1/6
20 Perguntas
Na quarta pergunta temos a resposta fnal: 
3.1/6.2bits + 1/6.3bits + 2.1/6.4bits
bota ovo?
0 1
4/6 2/6
1/6
3/6
1/61/6
1/6 2/6
1/6 1/6
20 Perguntas
Em média precisaremos de:
3.1/6.2bits + 1/6.3bits + 2.1/6.4bits
=
1/6 . (6 + 3 + 8) = 17/6 = 2,83 bits
20 Perguntas
Reparem que a cada pergunta as chances de 
descobrirmos a resposta aumenta 
signifcativamente: bota ovo?
0 1
4/6 2/6
1/4
2/4
1/21/2
1/3 2/3
1/2 1/2
Efciência
•  
Efciência
•  
Efciência e Redundância
•  
20 Perguntas
Precisamos encontrar a estratégia de perguntas 
que nos traga o maior rendimento ou a menor 
redundância.
Entropia Condicional
Para escolhermos perguntas interessantes temos 
que saber qual pergunta transforma o nosso 
sistema em um de entropia alta (incerteza) para um 
de entropia baixa (certeza).
A pergunta que queremos fazer é: se soubermos a 
resposta da pergunta X, quão incerto será nosso 
sistema Y?
H(Y|X) = se soubermos o estado da variável X, o 
que podemos afrmar sobre a variável Y?
Entropia Condicional
•  
Entropia Condicional
•  
Entropia Condicional
•  
Entropia Condicional
•  
Entropia Condicional
•  
Entropia Condicional
•  
Entropia Condicional
•  
Entropia Condicional
•  
bota ovo?
1/4 1/2
p(x=0)=2/3 p(x=1)=1/3
Entropia Condicional
•  
Entropia Condicional
•  
Entropia Condicional
•  
Entropia Condicional
•  
Entropia Condicional
•  
nada?
1/3 1/3
p(x=0)=1/2 p(x=1)=1/2
Entropia Condicional
•  
Entropia Condicional
Saber que o animal bota ovo ou não deixa nosso 
sistema com entropia 1,67.
Saber se o animal nada ou não deixa nosso sistema 
com entropia 1,58.
Fica claro que a segunda pergunta reduz mais a 
incerteza do nosso sistema.
Ganho de Informação (Inf. Mútua)
Vamos defnir então a medida de ganho de 
informação:
GI(X,Y) = H(Y) – H(Y|X)
ou seja, em quanto a entropia do sistema é 
reduzida ao conhecer a variável X.
Essa medida também é conhecida como Informação 
Mútua ( I(X,Y) ) que mede a dependência de duas 
variáveis.
Ganho de Informação (Inf. Mútua)
Com a defnição do ganho de informação, vamos 
escolher, em sequência, as perguntas que nos 
trazem o maior GI.
Bota ovo?
Tem asas?
É carnívoro?
É mamífero?
Ele nada?
Ganho de Informação (Inf.Mútua)
Com a defnição do ganho de informação, vamos 
escolher, em sequência, as perguntas que nos 
trazem o maior GI.
H(Y) = 2,58
Bota ovo? H(Y|X) = 1,67
Tem asas? H(Y|X) = 1,67
É carnívoro? H(Y|X) = 1,67
É mamífero? H(Y|X) = 1,93
Ele nada? H(Y|X) = 1,58
Ganho de Informação (Inf. Mútua)
Com a defnição do ganho de informação, vamos 
escolher, em sequência, as perguntas que nos 
trazem o maior GI.
H(Y) = 2,58
Bota ovo? H(Y|X) = 1,67GI(X,Y)=0,91
Tem asas? H(Y|X) = 1,67 GI(X,Y)=0,91
É carnívoro? H(Y|X) = 1,67 GI(X,Y)=0,91
É mamífero? H(Y|X) = 1,93GI(X,Y)=0,64
Ele nada? H(Y|X) = 1,58 GI(X,Y)=0,99
Ganho de Informação (Inf. Mútua)
Com a defnição do ganho de informação, vamos 
escolher, em sequência, as perguntas que nos 
trazem o maior GI.
H(Y) = 2,58
Bota ovo? H(Y|X) = 1,67GI(X,Y)=0,91
Tem asas? H(Y|X) = 1,67 GI(X,Y)=0,91
É carnívoro? H(Y|X) = 1,67 GI(X,Y)=0,91
É mamífero? H(Y|X) = 1,93GI(X,Y)=0,64
Ele nada? H(Y|X) = 1,58 GI(X,Y)=0,99
Ganho de Informação (Inf. Mútua)
A primeira pergunta que devemos fazer é se ele 
nada! Qual a próxima pergunta?
H(Y) = 2,58
Bota ovo? H(Y|X) = 1,67GI(X,Y)=0,91
Tem asas? H(Y|X) = 1,67 GI(X,Y)=0,91
É carnívoro? H(Y|X) = 1,67 GI(X,Y)=0,91
É mamífero? H(Y|X) = 1,93GI(X,Y)=0,64
Ele nada? H(Y|X) = 1,58 GI(X,Y)=0,99
Ganho de Informação (Inf. Mútua)
A primeira pergunta que devemos fazer é se ele 
nada! Qual a próxima pergunta?
nada?
ovo? ovo?
p(~x)=1/2
p(~x) = 1/6
p(y|x) = 1/3 1 1/2
p(x) = 1/3
Ganho de Informação (Inf. Mútua)
A primeira pergunta que devemos fazer é se ele 
nada! Qual a próxima pergunta?
nada?
ovo? ovo?
p(~x)=1/2
p(~x) = 1/6
p(y|x) = 1/3 1 1/2
p(x) = 1/3
~x = não 
nada e nem 
bota ovo
~x = nada 
e não bota 
ovo
x = nada e 
bota ovo
Ganho de Informação (Inf. Mútua)
•  
nada?
ovo? ovo?
p(y|x) = 1/3 1 1/2
p(~x)=1/2
p(~x) = 1/6 p(x) = 1/3
Ganho de Informação (Inf. Mútua)
Note que:
p(x) representa a probabilidade de todas as 
perguntas já feitas. Ex.: probabilidade do animal 
escolhido não nadar e não botar ovo.
As ramifcações que tem apenas uma escolha 
podem ser desconsideradas da soma, pois p(Y|X)=1 
e log(p(Y|X)) = 0.
Ganho de Informação (Inf. Mútua)
A primeira pergunta que devemos fazer é se ele 
nada! Qual a próxima pergunta?
H(Y) = 1,58 (já sabemos se nada ou não)
Bota ovo? H(Y|X) = 1,12GI(X,Y)=0,46
Tem asas? H(Y|X) = 0,67 GI(X,Y)=0,91
É carnívoro? H(Y|X) = 1,12 GI(X,Y)=0,46
É mamífero? H(Y|X) = 1,12GI(X,Y)=0,46
Ganho de Informação (Inf. Mútua)
nada?
asas? asas?
1 1/2 11/2
Ganho de Informação (Inf. Mútua)
E agora? (dica: já teremos certeza se é morcego ou 
pinguim)
H(Y) = 0,67 (já sabemos se nada ou não)
Bota ovo? H(Y|X) = 0,33 GI(X,Y)=0,33
É carnívoro? H(Y|X) = 0,33 GI(X,Y)=0,33
É mamífero? H(Y|X) = 0,67 GI(X,Y)=0,0
Ganho de Informação (Inf. Mútua)
E agora? (dica: só não sabemos quando ele não 
bota ovo, não nada e não voa)
H(Y) = 0,33
É carnívoro? H(Y|X) = 0,00GI(X,Y)=0,33
É mamífero? H(Y|X) = 0,33GI(X,Y)=0,0
Ganho de Informação (Inf. Mútua)
E nada se ganha em saber se é mamífero ou não.
H(Y) = 0,33
É carnívoro? H(Y|X) = 0,00GI(X,Y)=0,33
É mamífero? H(Y|X) = 0,33GI(X,Y)=0,0
Ganho de Informação (Inf. Mútua)
A ordem das perguntas fcou:
Ele nada?
Ele tem asas?
Ele bota ovos?
Ele é carnívoro?
Ele é mamífero?
Ganho de Informação (Inf. Mútua)
Note que as possibilidades de representação fca:
01 - morcego
0000 - vaca
0001 - cachorro
100 - baleia
101 - ornitorrinco
11 – pinguim
Ganho de Informação (Inf. Mútua)
•  
Ganho de Informação (Inf. Mútua)
Resumindo:
Nossa primeira estratégia deu uma média de 3,33 
bits.
A segunda estratégia deu uma média de 2,83 bits.
A estratégia de ganho de informação deu 3 bits.
A entropia nos diz que não podemos fazer melhor 
que 2,58 bits.
Ganho de Informação (Inf. Mútua)
asas? asas?
ovo?
carnívoro?
nada?
1
1
1
1
0
00
0
0
ovo?
1
0
Bibliografa
• C. Seife. Decoding the Universe. Penguin Books. 2006.
• Notas de aula do curso de Informação e Entropia do 
MIT. http://ocw.mit.edu/courses/electrical-engineering-
and-computer-science/6-050j-information-and-entropy-
spring-2008/
• T. H. Cormen, C. E. Leiserson, R. L. Rivest, C. Stein. 
Introduction to Algorithms. The MIT Press. 3rd Edition. 
2009.
	Slide 1
	Slide 2
	Slide 3
	Slide 4
	Slide 5
	Slide 6
	Slide 7
	Slide 8
	Slide 9
	Slide 10
	Slide 11
	Slide 12
	Slide 13
	Slide 14
	Slide 15
	Slide 16
	Slide 17
	Slide 18
	Slide 19
	Slide 20
	Slide 21
	Slide 22
	Slide 23
	Slide 24
	Slide 25
	Slide 26
	Slide 27
	Slide 28
	Slide 29
	Slide 30
	Slide 31
	Slide 32
	Slide 33
	Slide 34
	Slide 35
	Slide 36
	Slide 37
	Slide 38
	Slide 39
	Slide 40
	Slide 41
	Slide 42
	Slide 43
	Slide 44
	Slide 45
	Slide 46
	Slide 47
	Slide 48
	Slide 49
	Slide 50
	Slide 51
	Slide 52
	Slide 53
	Slide 54
	Slide 55
	Slide 56
	Slide 57
	Slide 58
	Slide 59
	Slide 60
	Slide 61
	Slide 62
	Slide 63
	Slide 64
	Slide 65
	Slide 66
	Slide 67
	Slide 68
	Slide 69
	Slide 70
	Slide 71
	Slide 72
	Slide 73
	Slide 74
	Slide 75
	Slide 76
	Slide 77
	Slide 78
	Slide 79
	Slide 80
	Slide 81
	Slide 82
	Slide 83
	Slide 84
	Slide 85
	Slide 86
	Slide 87
	Slide 88
	Slide 89
	Slide 90
	Slide 91
	Slide 92
	Slide 93
	Slide 94
	Slide 95
	Slide 96
	Slide 97
	Slide 98
	Slide 99
	Slide 100
	Slide 101
	Slide 102
	Slide 103
	Slide 104
	Slide 105
	Slide 106
	Slide 107
	Slide 108
	Slide 109
	Slide 110
	Slide 111
	Slide 112
	Slide 113
	Slide 114
	Slide 115
	Slide 116
	Slide 117
	Slide 118
	Slide 122
	Slide 123
	Slide 127
	Slide 130
	Slide 131
	Slide 132
	Slide 133
	Slide 134
	Slide 135
	Slide 136
	Slide 137

Continue navegando