Buscar

Estatística - Resumo teórico 8.1

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 59 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 59 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 59 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
1 
 
ECO 1721 – Introdução à Estatística Econômica 
UNIDADE II – Inferência Estatística 
8. Conceitos Fundamentais da Inferência e Estimação de Parâmetros 
Referências: Resumo Teórico 8, Rice – Cap. 6, Cap.7 e Cap. 8, Montgomery e Runger 
– Cap. 6, Cap. 7 e Cap. 8, Larson – Cap. 6 e Cap. 7 e Meyer – Cap. 13 e Cap. 14 
 
Conceitos Fundamentais de Inferência Estatística (RT 8 – Seções 8.1 a 8.7) 
Exemplo 1 Certa universidade tem 10.000 alunos matriculados em todos os seus cursos. 
A reitoria da universidade está planejando uma ampliação do parque de estacionamento. 
Para tanto, pretende realizar uma pesquisa com o propósito de apurar qual é a proporção 
de alunos que utilizam carros próprios para frequentar seus respectivos cursos, de modo 
a melhor dimensionar a área de estacionamento. Ao invés de realizar uma pesquisa 
exaustiva, planeja-se coletar uma amostra de 1.000 alunos para poder estimar a 
proporção desejada. 
Nesse caso, tem-se: 
a) a população alvo da pesquisa é o conjunto formado pelos 10.000 alunos matriculados 
na universidade; 
b) a população é finita e tem tamanho N = 10.000 
c) a característica de interesse é o atributo A = “o aluno frequenta a universidade com 
carro próprio”; 
d) a função que expressa matematicamente a característica de interesse é definida por: 
 
g :C W {0,1} 
 onde 
 
i
0, se A ="o aluno não frequenta a universidade com carro próprio"
g(c )
1, se A = "o aluno frequenta a universidade com carro próprio"



 
para i = 1, 2, 3, ... , 10.000 
e) a população matriz considerada é W = {0, 1}; 
f) o universo considerado é a variável aleatória X que representa o valor eventual da 
característica de interesse para um aluno selecionado ao acaso dentre o conjunto de 
matriculados e pode ser definido por 
Juliana
Realce
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
2 
 
 0, se A ="o aluno não frequenta a universidade com carro próprio"
X
1, se A = "o aluno frequenta a universidade com carro próprio"



 
g) supondo que um número total 
AN
de alunos frequentam a universidade com carro 
próprio, a proporção desses alunos, a ser estimada, é expressa por 
ANp
N

; 
h) admitindo-se que a seleção da amostra de alunos é realizada com igual probabilidade 
de seleção para todos os alunos matriculados, então o universo X tem distribuição de 
Bernoulli de parâmetro p acima definido; ou seja, a sua função de probabilidade é 
 
X
q 1-p, se x 0
p (x)
p , se x 1
 


 
i) a amostra aleatória de tamanho n = 1.000 a ser selecionada é a variável aleatória n-
dimensional 
 1 2 3 nX ,X ,X ,...,X
com n = 1.000; 
j) Se for empregada como estatística para realizar a estimação pretendida a proporção 
amostral, definida por n
i
i=1
1
pˆ Y X
n
  
 com n = 1.000; 
k) Admitindo-se que a seleção de alunos para integrar a amostra é realizada sem 
reposição, a distribuição amostral da estatística acima é 
 
  A A
y n y
N N N
Y n
N
C 1 2 3
P Y y p (y) , para y 0, , , , ...,1 com n 1000
C n n n
C   
     
 
 
(admitindo-se que mais do que 1.000 alunos frequentem a universidade com carro 
próprio, isto é que 
AN
> 1.000) 
Note-se que essa distribuição é similar à distribuição hipergeométrica. 
 
Se a seleção de alunos para compor a amostra fosse realizada com reposição a 
distribuição amostral da estatística seria 
 
 
y n y
y A A
Y n
N N 1 2 3
P Y y p (y) 1 , para y 0, , , , ...,1 com n 1000
N N n n n
C

     
         
    
 
Note-se que essa distribuição é similar à distribuição binomial. 
 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
3 
 
População, Característica, População Matriz, Universo e Parâmetro Populacional 
Exemplo 2 
Exemplo 2a Em certa região existem 532 empresas que atuam em certo setor 
econômico. Uma pesquisa por amostragem está sendo planejada para examinar a receita 
mensal média das empresas ocorrida em certo mês. Então: 
a) A população que é objeto de pesquisa é o conjunto formado pelas empresas daquele 
setor econômico considerado naquela região; é finita e o seu tamanho é N = 532. 
b) A característica de interesse é a receita mensal no mês de referência da pesquisa. 
c) Suponha-se que todas as empresas são listadas. Denotando por 
ia
 o valor da receita 
mensal (nesse mês de referência) para a i-ésima empresa da lista, a população matriz é 
 1 2 3 532W a ,a ,a ,...,a
. 
d) Nesse caso, a população é finita e a característica de interesse é fixa. Assim sendo, 
podem ser definidos os seguintes parâmetros populacionais: 
i) Receita média: 532
i
i=1
1
μ a
532
 
 
ii) Receita total: 532
i
i=1
τ a
 
iii) Variância da receita: 
 
532 532
22 2 2
i i
i=1 i=1
1 1
σ a μ a μ
532 532
    
 
Isto é, nesse caso os parâmetros são definidos em função dos valores (fixos e 
desconhecidos) da característica – receita mensal – considerando-se todos os valores 
populacionais. 
e) O universo é a variável aleatória que representa o valor eventual da receita mensal de 
uma empresa selecionada ao acaso da população. 
f) O parâmetro considerado é a média do universo (receita média mensal). 
 
Exemplo 2b Certa máquina produz peças de determinado tipo. Admita-se que haja 
interesse em avaliar a probabilidade, p, dessa máquina produzir uma peça defeituosa. 
Para tanto será selecionada uma amostra de n peças dessa máquina, escolhidas ao acaso 
da produção. 
a) A população considerada é o conjunto formado por todas as peças daquele tipo 
possíveis de serem fabricadas pela máquina. Nesse caso a população é infinita. 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
4 
 
b) A característica de interesse é o atributo dicotômico - possuir ou não defeito – das 
peças. 
c) Associando-se o valor 0 a uma peça produzida sem defeito e o valor 1 a uma peça 
defeituosa, a população matriz nesse caso é 
 W 0,1
. 
d) O parâmetro populacional que apresenta interesse é definido a partir da distribuição 
de probabilidade do universo, X. 
e) No caso, o universo considerado tem distribuição de Bernoulli e a sua função de 
probabilidade é expressa por 
 
X
q 1 p , se x 0
p (x)
p , se x 1
  


 onde p é a probabilidade de uma peça ter defeito 
f) Lembrando que a média (expectância) de uma distribuição de Bernoulli é 
 E X p
, 
verifica-se que o parâmetro de interesse é a média do universo. 
 
Exemplo 2c Certa indústria produz lâmpadas de um determinado tipo. Admita-se que 
haja interesse em conhecer o tempo de vida médio dessas lâmpadas. 
a) Nesse caso, também, a população considerada é infinita pois é o conjunto formado 
por todas as lâmpadas daquele tipo possíveis de serem fabricadas pelo processo de 
fabricação adotado. 
b) A característica de interesse é o tempo de duração das lâmpadas, logo é uma 
característica variável. 
c) O universo é a variável aleatória que representa o valor eventual do tempo de vida de 
uma lâmpada daquele tipo. 
d) O parâmetro de interesse somente pode ser definido em termos da distribuição de 
probabilidade do universo. Seja 
Tf (t)
a função de densidade de probabilidade 
(desconhecida) do universo considerado. Então, o referido parâmetro é a média(expectância) desse universo. Ou seja, 
 
 
T
T
R
μ E T t f (t)dt  
 
 
 
 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
5 
 
Estimadores e Propriedades dos Estimadores (RT 8 – Seções 8.8 a 8.12) 
Exemplo 3 
Seja 
 1 2 3X ,X ,X
 uma amostra aleatória de tamanho 3 de um universo X de média 
μ
 e 
variância 
2σ
. Para os seguintes estimadores da média, 
μ
, do universo, determinar a 
expectância, a tendenciosidade, a variância e o erro quadrático médio: 
a) 
1 1μˆ X
 
b) 
2 1 2μˆ 3X -X
 
c) 
 3 1 2
1
μˆ X +X
2

 
d) 
 4 1 2 3
1
μˆ X +X X
3
 
 
Solução: 
a) 
 1 1ˆE(μ ) E X E(X) μ  
 
 
1 1
ˆ ˆ(μ ) E(μ ) μ μ μ 0t     
 (o estimador é não tendencioso) 
 
  21 1ˆV(μ ) V X V(X) σ  
 
 
2 2
1 1 1
ˆ ˆ ˆEQM(μ ) V(μ ) (μ ) σt  
 
 
b) 
2 1 2 1 2
ˆE(μ ) E(3X X ) 3E(X ) E(X ) 3μ μ 2μ      
 
 
2 2
ˆ ˆ(μ ) E(μ ) μ 2μ μ μ 0t      
 (o estimador é tendencioso) 
 
2 2 2
2 1 2 1 2
ˆV(μ ) V(3X X ) 9V(X ) V(X ) 9σ σ 10σ      
 
 
2 2 2
2 2 2
ˆ ˆ ˆEQM(μ ) V(μ ) (μ ) 10σ μt   
 
 
c) 
   3 1 2 1 2
1 1 1 1
ˆE(μ ) E (X X ) E(X ) E(X ) μ μ 2μ μ
2 2 2 2
 
        
 
 
 
3 3
ˆ ˆ(μ ) E(μ ) μ μ μ 0t     
 (o estimador é não tendencioso) 
Juliana
Realce
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
6 
 
 
   2 2 2 23 1 2 1 2
1 1 1 1 1
ˆV(μ ) V (X X ) V(X ) V(X ) σ σ 2σ σ
2 4 4 4 2
 
        
 
 
 
2 2
3 3 3
1
ˆ ˆ ˆEQM(μ ) V(μ ) (μ ) σ
2
t  
 
 
d) 
   4 1 2 3 1 2 3
1 1 1
ˆE(μ ) E (X X X ) E(X ) E(X ) E(X ) 3μ μ
3 3 3
 
        
 
 
 
4 4
ˆ ˆ(μ ) E(μ ) μ μ μ 0t     
 (o estimador é não tendencioso) 
 
   2 24 1 2 3 1 2 3
1 1 1 1
ˆV(μ ) V (X X X ) V(X ) V(X ) V(X ) 3σ σ
3 9 9 3
 
        
 
 
 
2 2
4 4 4
1
ˆ ˆ ˆEQM(μ ) V(μ ) (μ ) σ
3
t  
 
 
Propriedades Assintóticas dos Estimadores e Análise de Convergência (RT 8 – 
Seções 8.13 a 8.15) 
Exemplo 4 
Seja 
 1 2 3 nX ,X ,X ,...,X
 uma amostra aleatória simples de tamanho n de um universo X 
de média 
μ
 e variância 
2σ
. Para os seguintes estimadores da média, 
μ
, do universo, 
verificar quais são assintoticamente não tendenciosos e quais são convergentes em 
média quadrática: 
a) 
1 1
n
μˆ X
n 1


 
b) 
n
2 1 j
j 2
n 1
μˆ X X
n 1 n 1 
 
 

 
c) 
 
n
3 2 3 j
j 1
1 1
μˆ X X X
2 n 
   
 
Solução 
 
 
Juliana
Realce
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
7 
 
a) 
 
1 1
n n
ˆE(μ ) E(X ) μ
n 1 n 1
 
 
 
 
1 1
n n 1+1 1 1
ˆ ˆ(μ ) E(μ ) μ μ μ μ μ μ + μ μ μ
n 1 n 1 n 1 n 1
t

        
   
 
 2 2
2
1 1
n n
ˆV(μ ) V(X ) σ
n 1 n 1
   
    
    
 
 2
2 2 2
1 1 1 2
n 1
ˆ ˆ ˆEQM(μ ) = V(μ ) + (μ ) = σ + μ
n 1 (n 1)
t
 
 
  
 
 
1
n n
1
ˆlim (μ ) lim μ 0
n 1
t
 
 

 
 O estimador é assintoticamente não tendencioso. 
 2
2 2
1 2n n
n
ˆlim V(μ ) lim σ = σ 0
(n 1) 
 

 
 O estimador não é convergente (consistente) em média quadrática. 
---------------------------------------------------------------------------------------------------------- 
b) 
 
n
2 1 j
j=2
n 1 n 1 n
ˆE(μ ) E(X ) E(X ) μ (n 1)μ μ μ
n 1 n 1 n 1 n 1 n 1
      
    

 
 
2 2
n n
ˆ ˆ(μ ) E(μ ) μ μ + μ μ μ
n 1 n 1
t     
 
 
 
 
 
2 2 2
n
2 2
2 1 j 2
j 2
n 1 n 1
ˆV(μ ) V(X ) V(X ) σ + n 1 σ
n 1 n 1 n 1 n 1
     
        
        

 
 
 
2
2 2
2 2
n 1
ˆV(μ ) = σ + σ
n 1n 1 
 
 
   
2 2
2 2 2 2
2 2 2 2 2
n 1 n
ˆ ˆ ˆEQM(μ ) V(μ ) (μ ) σ + σ + μ
n 1n 1 n 1
t  
 
 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
8 
 
 
2
n n
n
ˆlim (μ ) lim μ μ 0
n 1
t
 
  

 
 O estimador não é assintoticamente não tendencioso. 
 2
2 2 2
2 2 2n n
n 1
ˆlim V(μ ) lim σ σ σ 0
(n 1) (n 1) 
 
    
  
 
 O estimador não é convergente (consistente) em média quadrática. 
---------------------------------------------------------------------------------------------------------- 
c) 
 
   
n n
3 2 3 j
j=1 j=1
1 1 1 1
ˆE(μ ) E(X ) E(X ) E(X ) μ +μ μ
2 n 2 n
      
 
 
1 1
2μ + nμ =μ +μ = 2μ
2 n

 
 
3 3
ˆ ˆ(μ ) E(μ ) μ 2μ μ μ 0t      
 
 
   
n n
3 2 3 j 2 3 j2
j 1 j=1
1 1 1 1
ˆV(μ ) V(X )+V(X ) V(X ) 2 Cov X X , X
4 n 2 n
 
     
 
 
 
 n n
2 2
2 j 3 j2
j=1 j=1
1 1 1
2σ + n σ Cov X , X Cov X , X
4 n n
    
       
     
 
 
 
   
n n
2 2
2 j 3 j
j=1 j 1
1 1 1
σ + σ Cov X ,X Cov X ,X
2 n n 
 
    
 
 
 
 
 2 2 2 2 2 2 2
1 1 1 1 1 2
σ + σ + σ +σ = σ + σ + σ
2 n n 2 n n
 
 
 
2 2 21 3 1 3σ + σ = + σ
2 n 2 n
 
  
 
 
 
Cálculo alternativo para a variância (método indireto) 
A expressão do estimador pode ser reescrita como 
 
 
n n
3 2 3 j 1 2 3 j
j 1 j=4
1 1 1 1 1 1 1 1
μˆ X X X X + X + X X
2 n n 2 n 2 n n
   
         
   
 
 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
9 
 
Então 
 2 2 n
3 1 2 3 j2 2
j=4
1 n 1 n 1 1
ˆV(μ ) V(X )+ V(X ) V(X ) V(X )
n 2n 2n n
    
     
   

 
 2 2 n
2 2 2 2
3 2 2
j=4
1 n 1 n 1 1
ˆV(μ )= σ + σ + σ + σ
n 2n 2n n
    
   
   

 
  222 2 2 2 2
3 2 2 2 2
n +11 n 1 n 3 n 2
ˆV(μ ) = σ +2 σ + σ = σ + σ
n 2n n n 2n
   
 
 
 
 
2 2 2
3 3 3
1 3
ˆ ˆ ˆEQM(μ ) = V(μ ) + (μ ) = σ + μ
2 n
t
 
 
 
 
 
3
n n
ˆlim (μ ) lim μ μ 0t
 
  
 
 O estimador não é assintoticamente não tendencioso. 
 
2 2
3
n n
1 3 1
ˆlim V(μ ) lim σ = σ 0
2 n 2 
 
   
 
 
 O estimador não é convergente (consistente) em média quadrática. 
 
Exemplo 5 
Seja 
 1 2 3 nX ,X ,X ,...,X
 uma amostra aleatória simples de tamanho n de um universo X 
de média 
μ
 e variância 
2σ
. Mostrar que a média aritmética amostral, definida por 
 
n
j
j 1
1
X X
n 
 
 
é um estimador não tendencioso e convergente da média 
μ
 do universo X. 
Solução 
a) a média aritmética amostral, 
X
, é um estimador não tendencioso 
   
n n n
j j
j 1 j 1 j 1
1 1 1 1
E X E X E X μ nμ μ
n n n n  
 
     
 
  
 
b) a média aritmética amostral, 
X
, é um estimador convergente pois: 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatísticae Estimação 
 
10 
 
b-i) como é não tendencioso, é assintoticamente não tendencioso; 
e, além disso, 
b-ii) a variância de 
X
 é 
   
n n n
2 2 2
j j2 2 2
j 1 j 1 j 1
1 1 1 1 1
V X V X V X σ n σ σ
n n n n n  
 
     
 
  
 
Logo, no limite quando o tamanho da amostra tende a infinito, a variância tende para 
zero 
  2
n n
1
lim V X lim σ 0
n 
 
 
Portanto, a média aritmética amostral, 
X
, é um estimador não tendencioso e 
convergente em média quadrática da média 
μ
 do universo X. Por essa razão esse é o 
estimador usualmente empregado na estimação da média de um universo X. 
 
Exemplo 6 [Convergência em Probabilidade] 
Seja 
 1 2 3 nX ,X ,X ,...,X
 uma amostra aleatória de tamanho n de um universo X de 
média 
μ
 e variância 
2σ
. Mostrar que a média aritmética amostral, definida por 
 
n
j
j 1
1
X X
n 
 
 
é um estimador convergente em probabilidade da média 
μ
 do universo X. 
Solução 
A média aritmética amostral, 
X
, é um estimador convergente em probabilidade de 
μ
 se 
 
 
n
lim P X μ 1 qualquer que seja 0ε ε

   
 
Seja um 
ε > 0
 qualquer, então existe algum k > 0 tal que 
ε k σ
, logo 
 
   XP X μ P X μ k σε    
 
e pela desigualdade de Chebychev segue 
 
 X 2
1
P X μ k σ 1
k
   
 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
11 
 
Ou seja, como 
ε
k
σ

, tem-se 
 
 X 2
2
X
1
P X μ k σ 1
ε
σ
   
 donde 
 
2
X
2
σ
P X μ ε 1
ε
   
 
Por outro lado, como 2
2
X
σ
σ
n

 decorre que 
 
 
2
2
σ
P X μ ε 1
n ε
   
 
Agora, fazendo a passagem ao limite quando 
n
 decorre 
 
 
2
2n n
σ
lim P X μ ε lim 1
n ε 
 
    
 
 
Mas 
 2 2
2 2n n
σ σ
lim 1 1 lim 1 0 1
n ε n ε 
 
      
 
 
Logo 
 
 
n
lim P X μ ε 1

  
 (1) 
Concomitantemente, a probabilidade de qualquer evento é menor ou igual a 1, e assim 
 
   
n
P X μ ε 1 consequentemente lim P X μ ε 1

     
 (2) 
Portanto, de (1) e (2) acima conclui-se que 
 
 
n
lim P X μ ε 1

  
 
 
Exemplo 7 [Estimador da variância] 
Sejam um universo X de média 
μ
e variância 
2σ
e 
 1 2 3 nX ,X ,X ,...,X
 uma amostra 
aleatória simples de X. Sejam os dois seguintes estimadores da variância de X: 
Juliana
Realce
Juliana
Realce
Juliana
Realce
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
12 
 
i) segundo momento central amostral 
 
n n
2
2 2
2 j j
j=1 j 1
1 1
M' X X X X
n n 
    
 
ii) variância amostral 
 
n n
2
2 2 2
j j 2
j=1 j 1
1 n 1 n
S X X X X M'
n 1 n 1 n n 1
 
     
   
 
 
Verificar se os dois estimadores são tendenciosos; e considerando que a variância de 
2S
é expressa por 
 
   
2 2
2 2 4 2 4 2
4 22 2 2
2(μ' 2μ' ) μ' 3μ'n
V S μ' μ'
(n 1) (n 1) n (n 1)
 
   
  
 
onde 
 
k
kμ' E X E(X)   
 é o k-ésimo momento central, em relação à média, do 
universo X, verificar também se os estimadores são convergentes em média quadrática. 
Solução 
a) 
   
n n
2
2 2
2 j j
j=1 j=1
1 1
E M' E X X E X X
n n
   
       
  
 
 
   
n
2 2
j
j=1
1
E X E X
n
  
 
Mas 
 
     2 2 2 2i i iE X V X E X σ μ   
 
e 
 
     
2
2 2σE X V X E X μ
n
   
 
Assim, por substituição dos resultados acima no desenvolvimento anterior tem-se 
 
   
  22 2n 2 2 2 2 2 2
2
j=1
n 1 σ1 σ σ
E M' σ μ μ n σ μ μ n
n n n n
    
               
     

 
logo 
 
 
   2 2
2
n 1 σ n 1
E M' σ
n n
 
 
 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
13 
 
O que mostra ser esse estimador tendencioso. Porém, é fácil verificar que ele é 
assintoticamente não tendencioso 
 
 
  2 2
2
n n
n 1
lim E M' lim σ σ
n 

 
 
Por outro lado, também é fácil verificar que sendo definido 
 
 
n n
2
2 2 2
j j 2
j=1 j 1
1 n 1 n
S X X X X M'
n 1 n 1 n n 1
 
     
   
 
 
Então, decorre imediatamente que 
 
   2 2 22
n n n 1
E S E M' σ σ
n 1 n 1 n
 
   
   
 
e assim a variância amostral 
2S
 é um estimador não tendencioso da variância do 
universo. 
b) 
Examinado a expressão da variância da variância amostral, é fácil perceber que 
 
   
2 2
2 2 4 2 4 2
4 22 2 2n n
2(μ' 2μ' ) μ' 3μ'n
lim V S lim μ' μ' 0
(n 1) (n 1) n (n 1) 
  
     
   
 
portanto 
2S
 é um estimador convergente em média quadrática. 
Por outro lado, como 
 
2
2
n 1
M' S
n


 então 
   
2
2
2
n 1
V M' V S
n
 
 
 
 e consequentemente 
 
   
2
2
2
n n
n 1
lim V M' lim V S 0
n 
 
  
 
 
Logo o estimador 
2M'
 também é convergente em média quadrática. 
 
Exemplo 8 [ Outro exemplo de análise de estimador linear da média] 
Seja 
 1 2 3 nX ,X ,X ,...,X
 uma amostra aleatória simples de tamanho n de um universo X 
de média 
μ
 e variância 
2σ
. Seja o seguinte estimador da média do universo 
Juliana
Realce
Juliana
Realce
Juliana
Realce
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
14 
 
 
 
n
2 3 j
j 1
1 1
μˆ X X X
2n n 
   
 
Determinar a tendenciosidade, a variância e o erro quadrático médio desse estimador; e, 
também, verificar se ele é convergente em média quadrática. 
Solução 
 
   
n n
2 3 j
j=1 j=1
1 1 1 1
ˆE(μ) E(X ) E(X ) E(X ) μ +μ μ
2n n 2n n
      
 
 
1 1 1
2μ + nμ μ +μ
2n n n
 
 
 
1 1
ˆ ˆ(μ) E(μ) μ μ μ μ μ 0
n n
t       
 
 
   
n n
2 3 j 2 3 j2 2
j 1 j=1
1 1 1 1
ˆV(μ) V(X )+V(X ) V(X ) 2 Cov X X , X
4n n 2n n
 
     
 
 
 
 n n
2 2
2 j 3 j2 2 2
j=1 j=1
1 1 1
2σ + n σ Cov X , X Cov X , X
4n n n
    
       
     
 
 
 
   
n n
2 2
2 j 3 j2 2
j=1 j 1
1 1 1
σ + σ Cov X ,X Cov X ,X
2n n n 
 
    
 
 
 
 
 2 2 2 2 2 2 22 2 2 2
1 1 1 1 1 2
σ + σ + σ +σ σ + σ + σ
2n n n 2n n n
  
 
 
2 2 2 2
2 2 2
5 1 5 1 2n 5
σ + σ + σ σ
2n n 2n n 2n
  
   
 
 
 
Cálculo alternativo para a variância (método indireto) 
A expressão do estimador pode ser reescrita como 
 
 
n n
2 3 j 1 2 3 jj 1 j=4
1 1 1 1 1 1 1 1
μˆ X X X X + X + X X
2n n n 2n n 2n n n
   
         
   
 
 
Então 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
15 
 
 2 2 n
1 2 3 j2 2
j=4
1 3 3 1
ˆV(μ) V(X )+ V(X ) V(X ) V(X )
n 2n 2n n
   
     
   

 
 2 2 n
2 2 2 2
2 2
j=4
1 3 3 1
ˆV(μ) = σ + σ + σ + σ
n 2n 2n n
   
   
   

 
 
2 2 2 2 2 2 2
2 2 2 2 2 2 2
1 9 n 3 22 n 3 4n 10 2n 5
ˆV(μ) = σ 2 σ σ σ σ σ σ
n 4n n 4n n 4n 2n
   
     
 
 
2 2 2
2 2
2n 5 1
ˆ ˆ ˆEQM(μ) = V(μ) + (μ) = σ + μ
2n n
t

 
 
n n
1
ˆlim (μ) lim μ 0
n
t
 
 
 
 O estimador é assintoticamente não tendencioso. Além disso, 
 
2
2n n
2n 5
ˆlim V(μ) lim σ 0
2n 

 
 
Portanto, o estimador é convergente (consistente) em média quadrática. 
 
Exemplo 9 [Tendenciosidade e Eficiência Relativa] 
Seja X um universo com distribuição exponencial de parâmetro 
1
θ
 e seja 
 1 2X ,X
 uma 
amostra aleatória de tamanho 2 desse universo. Considerem-se os dois seguintes 
estimadores da média do universo X: 
i) 
 1 2
1
μˆ X X X
2
  
a média aritmética amostral 
ii) 
1 2μˆ X X X 
 a média geométrica amostral 
Verificar que a média aritmética é um estimador não tendencioso enquanto a média 
geométrica é um estimador tendencioso. Corrigir a tendenciosidade do estimador média 
geométrica por meio de uma constante adequadamente escolhida. Calcular as variâncias 
dos dois estimadores – a média aritmética e a média geométrica corrigida da 
tendenciosidade e verificar qual desses dois estimadores é o mais eficiente. 
Solução 
A função de densidade de probabilidade de X é 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
16 
 
x
θ
1
f(x) , para x 0
θ
e

 
 
E além disso tem-se que 
 
1
μ E X θ
1
θ
  
 e 
 2 2
2
1
σ V X θ
1
θ
  
 
Portanto, segue: 
a) 
       2 2 2 2
1 1 1 1
E X μ +μ μ θ e V X σ +σ σ θ
2 4 2 2
     
 
b) 
       1 2 1 2E X E X X E X E X 
 
     1 2Mas E X E X E X 
donde 
   
2
E X E X 
 
 
Como 
 
x x1
θ θ2
0 0
1 1
E X x dx x dx
θ θ
e e
 
 
  
 
Fazendo a substituição 
x
u
θ

 donde 
dx θdu
 segue 
 
1 1
u u2 2
0 0
πθ1 3 1 1 1
E X θ u θdu θ u du θ θ θ π
θ 2 2 2 2 2
e e
 
               
   
 
Logo 
   
2
2 πθ πθ
E X E X θ
2 4
 
       
 
 e assim o estimador é tendencioso; porém, 
como é fácil perceber, o estimador 
4
X' X
π

 é não tendencioso, isto é 
 
4 π
E X' θ θ
π 4
 
  
 
 
Além disso 
           
22
2
1 2 1 2 1 22 2 2 2
16 16 16 16
E X' E X E X X E X X E X E X
π π π π
       
       
 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
17 
 
ou seja 
 
2
2
2 2
16 16
E X' θ.θ θ
π π
   
  
 
donde a variância desse estimador é 
     
2
2 2 2 2 2
2 2
16 16
V X' E X' E X' θ θ 1 θ 0,621θ
π π
             
 
Como
  2 2
1
V X θ 0,5θ
2
 
 verifica-se que 
   V X V X'
 e, portanto, a média 
aritmética é o estimador mais eficiente. 
 
Exemplo 10. [Desigualdade de Cramer-Rao] 
Sejam X um universo com distribuição de Poisson de parâmetro 
α
 e 
 1 2 3 nX ,X ,X ,...,X
 uma amostra aleatória de tamanho n desse universo. Determinar o 
limite inferior de Cramer-Rao para a variância dos estimadores não tendenciosos de X. 
Solução 
A função de probabilidade de X é 
α xα
p(x) , para x 0,1,2,...
x!
e
 
 
E além disso tem-se que 
    2μ E X α V X σ   
 
Desse modo, tem-se 
 
α xα
ln p(x) ln α + x ln α ln x!
x!
e 
    
 
 
Portanto, 
1 x α
ln p(x) 1+ x
α α α
 
 

 
e assim 
      
2 2
22
2 2
X α 1 1
E ln p(X) E E X α E X E X V X α
α α α α
                                 
 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
18 
 
Consequentemente, 
O limite inferior de Cramer-Rao (LICR) é 
2
1 1 α
LICR
1 n
n
n E ln p(X) α
α
  
  
  
   
 
Considerando que a média aritmética amostral é um estimador não tendencioso da 
média do universo e que 
 
2σ α
V X LICR
n n
  
 
verifica-se que 
X
 é o estimador mais eficiente da média do universo X. 
 
Exemplo 11. [Desigualdade de Cramer-Rao] 
Seja X um universo com distribuição exponencial de parâmetro igual a 
1
θ
 e seja 
 1 2 3 nX ,X ,X ,...,X
 uma amostra aleatória de tamanho n desse universo. Determinar o 
limite inferior de Cramer-Rao para a variância dos estimadores não tendenciosos de X e 
verificar que esse estimador é eficiente. 
Solução 
A função de densidade de probabilidade de X é 
x
θ
1
f(x) , para x 0
θ
e

 
 
E além disso tem-se que 
 
1
μ E X θ
1
θ
  
 e 
 2 2
2
1
σ V X θ
1
θ
  
 
Desse modo, tem-se 
x
1θ θ
1 x
ln f(x) ln ln θ ln θ
θ θ
x
e e
 

   
      
   
 
Portanto, 
2 2
1 x x θ
ln f(x) +
θ θ θ θ
 
 

 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
19 
 
E consequentemente 
   
2 2 2
2
2 4 4 4 2
X θ 1 1 θ 1
E ln f(X) E E X θ V X
θ θ θ θ θ θ
                             
 
Assim, tem-se que o LICR é 
2
2
2
1 1 θ
LICR
1 n
n
n E ln f(X) θ
θ
  
  
  
   
 
Finalmente, assim como no caso anterior, verifica-se que a média aritmética amostral, 
X
, é o estimador mais eficiente da média de X, pois 
 
2 2σ θ
V X LICR
n n
  
 
 
Exemplo 12 [Estatística Suficiente] 
Sejam X um universo com distribuição de Bernoulli de parâmetro p = 0,5 e 
 1 2X ,X
 
uma amostra aleatória de tamanho 2 desse universo. Seja T a estatística que representa a 
soma dos valores obtidos na amostra. Verificar, por condicionamento aos valores da sua 
distribuição, que T é uma estatística suficiente para o parâmetro p. 
Solução 
Inicialmente, observe-se que a estatística T somente pode assumir três valores possíveis: 
T = 0, T = 1 e T = 2. Portanto, condicionando-se aos três valores possíveis de T segue: 
i) a distribuição de 
 1 2X ,X
 dado que T = 0 é 
 1 2P X 0,X 0 |T 0 1     
 e por outro lado 
 1 2P X 0,X 1 |T 0 0     
, 
 1 2P X 1,X 0 |T 0 0     
 e 
 1 2P X 1,X 1 |T 0 0     
 
ii) a distribuição de 
 1 2X ,X
 dado que T = 1 é 
 1 2P X 0,X 0 |T 1 0     
 e 
 1 2P X 1,X 1 |T 1 0     
 mas por outro lado, 
 1 2
1
P X 0,X 1 |T 1
2
     
 e 
 1 2
1
P X 1,X 0 |T 1
2
     
 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
20 
 
iii) a distribuição de 
 1 2X ,X
 dado que T = 2 é 
 1 2P X 1,X 1 |T 2 1     
 e poroutro lado 
 1 2P X 0,X 1 |T 2 0     
, 
 1 2P X 1,X 0 |T 2 0     
 e 
 1 2P X 0,X 0 |T 2 0     
 
Nenhum desses valores depende do parâmetro p. Assim sendo, a distribuição de 
 1 2X ,X |T p
não depende de p e, portanto, a estatística T é suficiente. 
 
Exemplo 13 [Estatística Suficiente] 
Seja X um universo com distribuição de Bernoulli de parâmetro p e 
 1 2 3 nX ,X ,X ,...,X
uma amostra aleatória simples de tamanho n de X. Mostrar, por condicionamento, que 
a estatística 
n
j
j 1
T X


é suficiente para o parâmetro p. 
Solução 
A função de probabilidade do universo X é 
x 1 x
Xp (x) p (1 p) para x 0,1
  
 
Portanto, a distribuição de probabilidade da amostra aleatória 
 1 2 3 nX ,X ,X ,...,X
é 
expressa por 
 
n n
i i
i=1 i=1
1 2 n
x n x 
1 1 2 2 3 3 n n X X ...X 1 2 nP X x ,X x ,X x ,...,X x p (x ,x ,...,x ) p (1 p)
 
      
 
Considere-se agora uma determinação qualquer da amostra, 
 1 2 3 nx , x , x ,..., x
; então o 
valor de T associado a essa determinação amostral é 
n
j
j 1
t x


 e portanto 
 
n
1 1 2 2 3 3 n n i
i=1
P X x ,X x ,X x ,...,X x | t x
 
      
 

 
 
 
n
1 1 2 2 3 3 n n i t n t
i=1
t t n t tn
n n
i
i=1
P X x ,X x ,X x ,...,X x t x
p (1 p) 1
p (1 p)
P x t
C C


  
       
    
 
 
 


 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
21 
 
t n t n
it n t t
i=1n
p (1 p) 1
se x t
p (1 p) C



  


 
Como se pode verificar examinando a expressão acima, o resultado não depende do 
parâmetro p, o que significa que o número total de sucessos,
n
j
j 1
t x


, contém toda a 
informação sobre o parâmetro p desconhecido e portanto a estatística 
n
j
j 1
T X


é 
suficiente para p. 
 
Exemplo 14 [Estatística Suficiente] 
Reconsidere-se o exercício anterior. Mostre agora pelo teorema da fatoração que a 
estatística T é suficiente para o parâmetro p. 
Solução 
A função de probabilidade do universo X é 
x 1 x
Xp (x) p (1 p) para x 0,1
  
 
Logo, a distribuição de probabilidade da amostra aleatória 
 1 2 3 nX ,X ,X ,...,X
é 
expressa por 
 
n n
i i
i=1 i=1
1 2 n
x n x 
1 1 2 2 3 3 n n X X ...X 1 2 nP X x ,X x ,X x ,...,X x p (x ,x ,...,x ) p (1 p)
 
      
 
Considere-se agora uma determinação qualquer da amostra, 
 1 2 3 nx , x , x ,..., x
; então o 
valor de T associado a essa determinação amostral é 
n
j
j 1
t x


 e portanto segue que a 
distribuição conjunta da amostra pode ser expressa por 
 
1 2 n
t n t 
1 1 2 2 3 3 n n X X ...X 1 2 nP X x ,X x ,X x ,...,X x p (x ,x ,...,x ) p (1 p)
      
 
Um exame da expressão acima mostra que é da forma 
1 2 ng(t,p) h(x ,x ,..., x )
onde 
t n t
1 2 ng(t,p) p (1 p) e h(x ,x ,..., x ) 1
  
 
Portanto, pode-se aplicar diretamente o teorema da fatoração para concluir que a 
estatística T é suficiente para o parâmetro p. 
 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
22 
 
Exemplo 15 [Estatística Suficiente] 
Sejam X um universo com distribuição normal de média 
μ
 e variância 
2σ
 e 
 1 2 3 nX ,X ,X ,...,X
uma amostra aleatória simples de X. Mostre que se 
2σ
 for 
conhecida a média aritmética amostral é um estimador suficiente para 
μ
; mas, ao 
contrário, se 
μ
for conhecida, a variância amostral não é um estimador suficiente para 
2σ
. 
Solução 
A função de densidade de probabilidade de X é 
 2
2
1 (x μ)
2 σ
1
f(x) , para x R
2π σ
e


 
 
Para uma amostra aleatória simples 
 1 2 3 nX ,X ,X ,...,X
 a função de densidade de 
probabilidade conjunta é 
n 22
ii
22
i 1
i
n (x μ)1(x μ)1n n
2 σ2 σ
X i
i=1 i=1
1 1
f (x )
2π σ 2π σ
e e 
   
  
 
 
 
Um exame da expressão acima leva à conclusão que o tratamento matemático restringe-
se ao desenvolvimento do seu expoente. Assim sendo, foi destacado apenas o termo 
relativo ao expoente no desenvolvimento apresentado a seguir. 
 
2n n n
22i
i i2 2 2
i 1 i 1 i 1
(x μ)1 1 1
(x μ) (x x) (x μ)
2 σ 2σ 2σ  

          
 
 
n
2
2 2
i i2
i 1
1
(x x) (x μ) 2(x μ) x x
2σ 
          
 
 
n n
2 2
i i2
i 1 i 1
1
(x x) (x μ) 2(x μ) (x x)
2σ  
 
           
 
 
 
n n
2 2
i2
i 1 i 1
1
(x x) (x μ)
2σ  
 
            
 
 
 
pois n
i
i 1
(x x) 0

 
e consequentemente segue 
n n n
2 2 2 2
i i2 2
i 1 i=1 i=1
1 1
(x x) (x μ) (x x) (x μ)
2σ 2σ
 
           
 
  
 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
23 
 
n n
2 2 2 2
i i2 2 2
i=1 i 1
1 1 1
(x x) n (x μ) (x x) n (x μ)
2σ 2σ 2σ
 
          
 
 
 
n
2 2 2 2
i2 2 2 2
i 1
n 1 1 n n
(x x) n (x μ) s (x μ)
2σ n 2σ 2σ 2σ
      
 
Substituindo agora na expressão original esse expoente, tem-se 
n 2
2
i 1
i
n n1 (x μ)
2nn
2 σ
X 2
i=1 i 1
1 1 1 (x μ)
f (x) exp
2 σ2π σ 2π σ
e 



     
        
    

 
n n
2 2n
i
2 2 2
i 1
(x μ)1 1 1 n s n
exp exp exp (x μ)
2 σ 2σ 2σ2π σ 2π σ
        
             
      

 
Isso mostra que a expressão pode ser escrita como o produto de dois fatores, o segundo 
dos quais contém o estimador 
x
 e o parâmetro 
μ
, enquanto o primeiro não contém 
μ
. 
Então, conhecida 
2σ
, 
x
é suficiente para estimar 
μ
. Por outro lado, o primeiro fator 
contém 
2s
e 
2σ
 enquanto o segundo também contém 
2σ
. Assim, 
2s
 não é um estimador 
suficiente para 
2σ
. 
Considerando-se a expressão inicial da distribuição conjunta da amostra, 
n 2
2
i 1
i
n n1 (x μ)
2nn
2 σ
X 2
i=1 i 1
1 1 1 (x μ)
f (x) exp
2 σ2π σ 2π σ
e 



     
        
    

 
e definindo 
n
2 2
i
i 1
1
S (x μ)
n 
 
 
tem-se 
i
n
2n
X 2
i=1
1 n s
f (x) exp
2σ2π σ
   
    
  

 
O que mostra que 
2S
é estimador suficiente para 
2σ
, quando 
μ
é conhecida. 
 
 
 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
24 
 
Exemplo 16. [Método dos Momentos] 
Seja 
 1 2 3 nX ,X ,X ,...,X
uma amostra aleatória simples de tamanho n, de um universo 
X, cuja distribuição depende de um único parâmetro desconhecido 
θ
. Determinar um 
estimador de 
θ
pelo método dos momentos, nas seguintes hipóteses sobre a distribuição 
de X: 
a) distribuição exponencial, de parâmetro 
1 θ
; 
b) distribuição de Poisson, de parâmetro
θ
; 
c) distribuição geométrica, de parâmetro 
θ
; 
d) distribuição gama de parâmetros 
θ
e 2; 
e) função de distribuição 
θF(x) 1 (1 x) para 0 < x < 1  
; 
f) função de densidade 
(x θ)f(x) para x > θe 
; 
g) distribuição uniforme no intervalo 
1 1
θ ,θ
2 2
 
  
 
 
Solução 
a) X ~ exponencial (
1/ θ
 )Então a função de densidade de X é x
θ
1
f(x)= , para x >0 ,comθ 0
θ
e


 
Logo, o primeiro momento ordinário teórico de X é 
 
 
x
-
θ
1
0
1 1
μ μ = E X x e dx = =θ
1θ
θ

  
 
Por outro lado, o primeiro momento ordinário amostral é n
i
i 1
1
X = X
n 

 
Assim sendo, identificando agora o primeiro momento ordinário teórico com o primeiro 
momento ordinário amostral, segue 
 
1μ μ =θ= X
 
Consequentemente, o estimador do parâmetro 
θ
 é 
Juliana
Realce
Juliana
Realce
Juliana
Realce
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
25 
 
 n
i
i=1
1
θˆ X = X
n
 
 
---------------------------------------------------------------------------------------------------------- 
b) X ~ Poisson (
θ
 ) 
Então a função de probabilidade de X é x
θ θp(x)= , para x 0,1,2,3,... ,comθ 0
x!
e  
 
Logo, o primeiro momento ordinário teórico de X é 
 
 
x
θ
1
x 0
θ
μ μ = E X x =θ
x!
e



 
 
Por outro lado, o primeiro momento ordinário amostral é n
i
i 1
1
X = X
n 

 
Identificando agora o primeiro momento ordinário teórico com o primeiro momento 
ordinário amostral, segue 
 
1μ μ =θ= X
 
Consequentemente, o estimador do parâmetro 
θ
 é 
 n
i
i=1
1
θˆ X = X
n
 
 
---------------------------------------------------------------------------------------------------------- 
c) X ~ Geométrica (
θ
 ) 
Então a função de probabilidade de X é 
 
x -1p(x)= θ(1 θ) , para x 1,2,3,... ,com 0 θ<1  
 
Logo, o primeiro momento ordinário teórico de X é 
 
  x-11
x 0
1
μ μ = E X xθ(1-θ) =
θ


 
 
Por outro lado, o primeiro momento ordinário amostral é n
i
i 1
1
X = X
n 

 
Identificando agora o primeiro momento ordinário teórico com o primeiro momento 
ordinário amostral, segue 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
26 
 
 
1
1 1
μ μ = = X ou seja, θ =
θ X

 
Portanto, o estimador do parâmetro 
θ
 é 
 
n n
i i
i=1 i=1
1 1 n
θˆ =
1X
X X
n
 
 
 
---------------------------------------------------------------------------------------------------------- 
d) X ~ Gama (
θ
,2 ) 
Então a função de densidade de probabilidade de X é 
 2 2
θx θx 2 θxθ θf(x) x x θ x , para x 0 , com θ > 0
(2) 1!
e e e     

 
Portanto, o primeiro momento ordinário de X é 
 
  2 θx 2 2 θx1
0 0
2
μ μ = E X xθ x dx x θ dx
θ
e e
 
     
 
Por outro lado, o primeiro momento ordinário amostral é n
i
i 1
1
X = X
n 

 
Identificando agora o primeiro momento ordinário teórico com o primeiro momento 
ordinário amostral, segue 
 
1
2 2
μ μ = = X ou seja, θ =
θ X

 
Portanto, o estimador do parâmetro 
θ
 é 
 
n n
i i
i=1 i=1
2 2 2n
θˆ =
1X
X X
n
 
 
 
---------------------------------------------------------------------------------------------------------- 
e) O universo X tem função de distribuição expressa por: 
 
 
θ
F(x) 1 1 x , para 0 x 1    
 
Então a função de densidade de probabilidade de X é 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
27 
 
 
     
θ θ 1 θ 1d d
f(x) F(x) 1 1 x θ 1 x ( 1) θ 1 x , para 0 x 1
dx dx
             
 
 
Logo, o primeiro momento ordinário de X é 
 
 
1
θ-1
1
0
μ E(X) xθ 1 x dx  
 
Fazendo u = 1 – x segue que x = 1 – u e dx = – du ; logo 
 
   
0 1
θ 1 θ 1
1
1 0
μ E(X) (1 u)θ u ( du) (1 u)θ u du
 
      
 
 11 1 1
1
θ-1 θ-1 θ θ
1 0
0 0 0 0
1
μ (1-u)θ u du θ u du θ u du u θ
θ +1
      
 
 
1
θ θ +1-θ 1
μ 1
θ +1 θ +1 θ +1
   
 
Por outro lado, o primeiro momento ordinário amostral é n
i
i 1
1
X = X
n 

 
Identificando agora o primeiro momento ordinário teórico com o primeiro momento 
ordinário amostral, segue 
 
1
1 1 1 1 X
μ μ = = X ou seja, θ +1 donde θ 1
θ +1 X X X

    
 
Portanto, o estimador de 
θ
 pelo método dos momentos é 
 
1 X
θˆ
X


 
---------------------------------------------------------------------------------------------------------- 
f) A função de densidade de probabilidade de X é 
 
(x θ)f(x) , para x θe  
 
Logo, o primeiro momento ordinário de X é 
 1
(x θ)
1
0
μ E(X) x dxe   
 
Juliana
Realce
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
28 
 
Fazendo na integral 
u x θ segue que x u θ e dx du    
, logo 
 
u u u
1
0 0 0
μ E(X) (u +θ) du u du θ du (2) θe e e
  
          
 
 
1μ 1! θ = 1 θ  
 
Por outro lado, o primeiro momento ordinário amostral é n
i
i 1
1
X = X
n 

 
Identificando agora o primeiro momento ordinário teórico com o primeiro momento 
ordinário amostral, segue 
 
1μ μ = θ+1 =X ou seja, θ X 1  
 
Portanto, o estimador de 
θ
 pelo método dos momentos é 
 
θˆ X 1 
 
---------------------------------------------------------------------------------------------------------- 
g) X ~ Uniforme 
1 1
θ , θ
2 2
 
  
 
 
Então a função de densidade de probabilidade de X é: 
 
1 1
f(x) = 1 , para θ x θ
2 2
   
 
Logo, o primeiro momento ordinário de X é 
 
1
1 1
θ θ
2θ2 2μ = E(X) = θ
2 2
  
 
 
Por outro lado, o primeiro momento ordinário amostral é n
i
i 1
1
X = X
n 

 
Identificando agora o primeiro momento ordinário teórico com o primeiro momento 
ordinário amostral, segue 
 
θ = X
 
Portanto, o estimador de 
θ
 pelo método dos momentos é 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
29 
 
 n
i
i=0
1
θˆ = X = X
n

 
---------------------------------------------------------------------------------------------------------- 
Exemplo 17. [Método dos Momentos] 
Seja X uma variável aleatória do tipo discreto com a seguinte função de probabilidade 
 
1 4 x θ
p(x) 1 2 x 0 com θ > 0
1 4 x θ


 
 
 
Solução 
Considerando a função de probabilidade de X, o primeiro momento ordinário é 
 
θ
x = θ
1 1 1
μ E X x p(x) θ 0 θ 0
4 2 4
     
 
resultado que não é útil; por outro lado, o segundo momento ordinário é 
 
2 2θ
2 2 2 2 2
2
x = θ
1 1 1 2θ θ
μ E X x p(x) ( θ) 0 θ
4 2 4 4 2
       
 
enquanto o segundo momento ordinário amostral é 
n
2
2 i
i=0
1
M X
n
 
 
Igualando esses dois momentos segue 
2 n
2
2 i
i=0
θ 1
M X
2 n
  
 donde 
2
2θ 2M
 ou seja 
2θ 2M
 (a raiz negativa deve ser 
descartada pois 
θ 0
) 
Portanto, 
n
2
2 i
i=0
2
θˆ 2M X
n
  
 ou ainda, considerando que 
 
2
' 2
2S M X 
, tem-se então 
2
' 2
2M S X 
 o que permite expressar o estimador como 
 
2
' 2
2θˆ 2M 2 S X
   
  
 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
30 
 
Exemplo 18. [Método dos Momentos] 
Sejam X um universo com distribuição normal de média igual a 
μ
 e variância igual a 
2σ
 e 
 1 2 3 nX ,X ,X ,...,X
uma amostra aleatória simples de tamanho n de X. Determinar 
estimadores para os parâmetros 
μ
 e 
2σ
 pelo método dos momentos. 
Solução 
Nesse caso, os dois primeiros momentos ordinários de X são: 
i) 
 1μ E X μ 
 
ii) 
     2 2 2 22μ E X V X E X σ μ    
 
Dessa última equação resulta 
2 2
2σ μ μ 
 
Por outro lado, os dois primeiros momentos ordinários amostrais são: 
i) n
1 i
i 1
1
M X X
n 
 
 
ii) 
 
n n
22 2 2
2 i 2 1 i
i 1 i 1
1 1
M X M M X X X
n n 
      
 
Portanto, igualando os momentos teóricos e amostrais correspondentes, tem-se: 
n
1 1 i
i 1
1
μˆ M X X
n 
  
 
e 
 
n n
22 2
2 2 i i
i 1 i 1
1 1
μˆ M X X X X
n n 
     
 
donde 
 
n n
22 2 2 2 2
2 2 1 i i 2
i 1 i 1
1 1
ˆ ˆ ˆσ μ μ M M X X X X M
n n 
         
 
 
 
 
 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
31 
 
Exemplo 19. [Método de Máxima Verossimilhança] 
Sejam X um universo com distribuição de Bernoulli de parâmetro igual a p e 
 1 2 3 nX ,X ,X ,...,X
uma amostra aleatória simples de tamanho n de X. Determinar um 
estimador para o parâmetro p pelo método de máxima verossimilhança. 
Solução 
A função de probabilidade do universo X é 
x 1 x
Xp (x) p (1 p) para x 0,1
  
 
Portanto, a função de verossimilhança da amostra de X é 
n n
i i
i i i=1 i=1
1 2 n
x n x n
x 1 x
X X ...X 1 2 n
i=1
L(p) p (x ,x ,...,x ) p (1 p) p (1 p)


 
    
 
A função de log-verossimilhança é 
n n
i i
i=1 i=1
n nx n x
i i
i=1 i=1
l(p) ln L(p) ln p (1 p) x ln p + n x ln (1 p)
     
        
   
 
 
Para maximizar essa função deve-se inicialmente calcular os pontos que podem ser 
pontos extremos da função os quais podem ser obtidos pela solução da seguinte equação 
 
n n n n
i i i i
i=1 i=1 i=1 i=1
d d 1 1
(p) 0 x ln p+ n x 1 p x n x ( 1) 0
dp dp p 1 p
l
        
                
        
   
 
ou seja 
n
in n
i=1
i i n n n
i=1 i=1
i i i
i=1 i=1 i=1
1 x
1 1 1 p 1 n 1 n
x n x 1 1
p 1 p p p p
x x x

   
            
   

 
  
 
donde se tem a seguinte solução 
 n
*
i
i=1
1
p x
n
 
 
Além disso, a segunda derivada da função de logverossimilhança em relação a p é 
2 n n n n
i i i i2 2 2
i 1 i 1 i 1 i 1
d d 1 1 1 1
(p) x n x x n x
dp dp p 1 p p (1 p)
l
   
        
             
         
   
 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
32 
 
Agora, para verificar se o ponto n
*
i
i=1
p x
é ponto de mínimo da função basta analisar o 
sinal da segunda derivada nesse ponto. Como a variável X somente assume os valores 0 
ou 1, é evidente que n
i
i=1
x 0
 e que n
i
i=1
n x 0 
; por outro lado, 
2 2p 0 e 1 p 0  
 
Portanto 
*
2
2
p=p
d
(p) 0
dp
l 
 e consequentemente verifica-se que n
*
i
i=1
p x
é ponto de 
máximo. Assim sendo, finalmente tem-se a expressão do estimador de máxima 
verossimilhança do parâmetro p que é 
 n
i
i=1
1
pˆ X
n
 
 
 
Exemplo 20. [Métodos de Máxima Verossimilhança] 
Determinar, para cada uma das cinco primeiras distribuições consideradas no exemplo 
16, um estimador para 
θ
pelo método de máxima verossimilhança. 
Solução 
a) X ~ exponencial (
1/ θ
 ) 
Então a função de densidade de X é x
θ
1
f(x)= , para x >0 ,comθ 0
θ
e


 
Logo, a função de verossimilhança de X é 
 
n n
i
i i i
i 1 i 1
x 1nx x xn n
θ θθ θ
n ni=1 i=1
1 1 1 1
L(θ)
θ θ θ θ
e e e e 
     
    
 
 
 
e a função de log-verossimilhança é 
 n
i
i=1
1
(θ) = n ln θ x
θ
l   
 
A pesquisa de ponto extremo pode ser realizada empregando-se o cálculo diferencial. 
Para tanto, inicialmente calcula-se a derivada da função de log-verossimilhança. A 
derivada da função de log- verossimilhança em relação a 
θ
 é 
 n
i2
i=1
d 1 1
(θ) = n x
dθ θ θ
l   
 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
33 
 
Igualando a derivada a zero e considerando que 
θ >0
, o que permite simplificar a 
expressão, segue 
 
n n
i i2
i=1 i=1
d 1 1 1
(θ) 0 n x 0 n + x 0
dθ θ θ θ
l        
 
donde a solução da equação para 
θ
 é 
 n n
*
i i
i=1 i=1
1 1
x n θ x x
θ n
    
 
Para verificar se esse é um ponto de máximo torna-se agora necessário calcular a 
segunda derivada e avaliar se ela é negativa no ponto. 
A segunda derivada da função de log-verossimilhança é 
 2 n n
i i2 2 2 3
i=1 i=1
d d 1 1 1 1
(θ) n x n 2 x
dθ dθ θ θ θ θ
l
 
     
 
  
E fazendo agora 
n
i
i=1
s x
tem-se que 
 
*
2 3 3 3
2 2 3 2 2 2
θ θ
d (θ) 1 1 n n n
n 2 s 2 0
dθ s s ss s
n n
l

     
   
   
   
 
pois n > 0 e s > 0 . Logo o valor encontrado para 
θ é ponto de máximo. 
Então, o estimador de máxima verossimilhança de 
θ
 é 
 n
i
i=1
1
θˆ X X
n
 
 
---------------------------------------------------------------------------------------------------------- 
b) X ~ Poisson (
θ
 ) 
Então a função de probabilidade de X é x
θ θp(x)= , para x 0,1,2,3,... ,comθ 0
x!
e  
 
Logo, a função de verossimilhança de X é 
  
n
ii
i i i=1
n
xx
x xn nn i=1θ θ nθ nθ
n ni=1 i=1
i i
i i
i=1 i=1
θ
θ θ θ
L(θ)
x ! x !
x ! x !
e e e e   

   

 
 
 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
34 
 
e a função de log-verossimilhança é 
 n n
i i
i 1i=1
(θ) nθ x lnθ ln x !l

   
      
  
 
 
 A derivada da função de log-verossimilhança em relação a 
θ
 é 
 n n
i i
i=1 i=1
d 1 1
(θ) = n x 0 n x
dθ θ θ
l
   
        
   
 
 
Igualando a derivada a zero segue 
 n n
i i
i=1 i=1
d 1 1
(θ) 0 n x 0 x n
dθ θ θ
l
 
       
 
 
 
donde a solução da equação para 
θ
 é 
 n
*
i
i=1
1
θ x x
n
  
 
Desenvolvendo raciocínio similar ao que foi apresentado no exemplo anterior verifica-
se que este é um ponto de máximo. 
Então, o estimador de máxima verossimilhança de 
θ
 é 
 n
i
i=1
1
θˆ X X
n
  
 
---------------------------------------------------------------------------------------------------------- 
c) X ~ Geométrica (
θ
 ) 
Então a função de probabilidade de Xé 
 
x 1p(x)= θ(1 θ) , para x 1,2,3,... ,com 0 θ<1  
 
Consequentemente, nesse caso a função de verossimilhança é 
 
n n
i i
i i i=1 i=1
(x 1) x nn n
x 1 x 1n n n
i=1 i=1
L(θ) θ (1 θ) θ (1 θ) θ (1 θ) θ (1 θ)
 
 
 
        
 
e a função de log-verossimilhança é 
 n
i
i=1
(θ) = n lnθ x n ln (1 θ)l
 
   
 

 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
35 
 
A derivada da função de log-verossimilhança em relação a 
θ
 é 
 n
i
i=1
d 1 1
(θ) n x n
dθ θ 1 θ
l
 
   
 

 
Igualando a derivada a zero segue 
 n
i
i=1
d 1 1
(θ) 0 n x n 0
dθ θ 1 θ
l
 
     
 

 
Portanto 
 n n
i i
i=1 i=1
1 1 1 θ 1
n x n x n
θ 1 θ θ n
   
       
   
 
 
donde 
 n n
i i
i=1 i=1
1 1 1 1
1 x 1 x x
θ n θ n
      
 
ou seja 
 
*
n
i
i=1
1 n
θ
x
x
 

 
Logo, o estimador de máxima verossimilhança de 
θ
 é 
 
 
n
i
i=1
1 n
θˆ
X
X
 

 
---------------------------------------------------------------------------------------------------------- 
d) X ~ Gama (
θ
,2 ) 
Então a função de densidade de probabilidade de X é 
 2 2
θx θx 2 θxθ θf(x) x x θ x , para x 0 , com θ > 0
(2) 1!
e e e     

 
Logo, a função de verossimilhança de X é 
 
i
n
θ x2
i
i=1
L(θ) θ x e
 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
36 
 
Donde 
e a função de log-verossimilhança é 
 nn
i i
i 1 i=1
(θ) 2n lnθ ln x θ xl

  
     
   

 
 A derivada da função de log-verossimilhança em relação a 
θ
 é 
 n
i
i=1
d 1
(θ) 2n 0 x
dθ θ
l   
 
Igualando a derivada a zero segue 
 n
i n
i=1
i
i=1
d 2n 2n
(θ) 0 x θ
dθ θ
x
l     

 
donde a solução da equação para 
θ
 é 
 
*
n
i
i=1
2n
θ
x


 
Desenvolvendo raciocínio similar ao que foi apresentado nos exemplos anteriores pode-
se verificar que este é um ponto de máximo. 
Então, o estimador de máxima verossimilhança de 
θ
 é 
 
n n
i i
i=1 i=1
2n 2 2
θˆ
1 X
X X
n
  
 
 
---------------------------------------------------------------------------------------------------------- 
e) O universo X tem função de distribuição expressa por: 
 
 
θ
F(x) 1 1 x , para 0 x 1    
 
Então a função de densidade de probabilidade de X é 
 
     
θ θ-1 θ-1d d
f(x) F(x) 1 1 x θ 1 x ( 1) θ 1 x , para 0 x 1
dx dx
            
 
 
Logo, a função de verossimilhança de X é 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
37 
 
 
 
n
θ 1
i
i=1
L(θ)= θ 1 x


 
donde 
 
 
n
θ 1n
i
i=1
L(θ)= θ 1 x


 
e a função de log-verossimilhança é 
 
   
 θ 1n n
θ 1n
i i
i=1 i=1
(θ)= θ + 1 x θ + 1 xln ln n ln lnl

   
    
   
  
 
ou seja 
 
   
n
i
i=1
(θ) θ + θ 1 1 xn ln lnl
 
   
 

 
A derivada da função de log-verossimilhança em relação a 
θ
 é 
 
 
n
i
i=1
d 1
(θ) + 1 x
dθ θ
n lnl
 
  
 

 
Igualando a derivada a zero segue 
 
 
n
i
i=1
d 1
(θ) θ + 1 x 0
dθ θ
n lnl
 
   
 

 
donde 
 
 
n
i
i=1
1
1 x
θ
n ln
 
   
 

 
Logo, a solução da equação para 
θ
 é 
 
 
*
n
i
i=1
θ
1 x
n
ln


 
 
 

 
Desenvolvendo raciocínio similar ao que foi apresentado nos exemplos anteriores pode-
se verificar que este é um ponto de máximo. 
Então, o estimador de máxima verossimilhança de 
θ
 é 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
38 
 
 
     
n nn
i ii
i=1
i=1 i=1
1ˆ ˆθ ou θ
1
1 X 1 X1 X
n
n n
ln lnln
  
  
 
  
 
  
 
 
Exemplo 21. [Método de Máxima Verossimilhança] 
Seja 
 1 2 3 nX ,X ,X ,...,X
uma amostra aleatória simples, de tamanho n, de um universo 
X com distribuição uniforme no intervalo (0, 
θ
). Determinar um estimador de máxima 
verossimilhança para o parâmetro 
θ
. 
Solução 
A função de densidade de probabilidade de X é 
 
X
1
f (x) para 0 x θ
θ
  
 
Então, a função de verossimilhança é 
 
n
in
i=1
1 1
L(θ) para 0 x θ i 1,2,3,...,n
θ θ
    
 
Esse é um exemplo de caso irregular – que não pode ser resolvido com emprego das 
técnicas de Cálculo Diferencial – pois a equação resultante da igualdade da primeira 
derivada em relação a 
θ
 a zero não conduz a nenhum resultado. Entretanto, note-se que 
L(θ)
 é uma função decrescente de 
θ
. Logo, o máximo corresponde ao menor valor 
possível de 
θ
 para a amostra observada e que satisfaz as desigualdades acima, ou seja 
 
i0 x θ i 1,2,3,...,n  
 
Portanto, verifica-se que 
 * 1 2 nθ Max x ,x ,..., x
. 
Logo, o estimador máximo-verossímil é 
 1 2 nθˆ Max X ,X ,...,X
 
 
Exemplo 22. [Método de Máxima Verossimilhança] 
Sejam X um universo com distribuição normal de média igual a 
μ
 e variância igual a 
2σ
 e 
 1 2 3 nX ,X ,X ,...,X
uma amostra aleatória simples de tamanho n de X. Determinar 
estimadores para os parâmetros 
μ
 e 
2σ
 pelo método de máxima verossimilhança. 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
39 
 
Solução 
A função de densidade de probabilidade de X é 
   
2
2
2x μ
2σ
X 2
x μ1 1
f (x) exp
2σ2π σ 2π σ
e

  
   
  
 
Então, a função de verossimilhança é 
 
   
i
n2 2
n n n
i i2
X i 2 22
i 1i 1 i 1
x μ x μ1 1
L μ,σ f (x ) exp exp
2σ 2σ2π σ 2πσ  
     
        
       
 
 
Ou seja 
 
   
i
n2 2
n n n
i i2
X i 2 22
i 1i 1 i 1
x μ x μ1 1
L μ,σ f (x ) exp exp
2σ 2σ2π σ 2πσ  
     
        
       
 
 
donde 
   
n/2 n
22
i2 2
i 1
1 1
L μ,σ exp x μ
2πσ 2σ 
  
     
   

 
A função de logverossimilhança é 
       
n
22 2 2
i2
i 1
n 1
μ,σ ln L μ,σ ln 2πσ x μ
2 2σ
l

   
 
donde 
   
n
22 2
i2
i 1
n n 1
μ,σ ln 2π ln σ x μ
2 2 2σ
l

   
 
Agora, calculando as derivadas parciais em relação a 
μ
 e 
2σ
 e igualando a zero tem-se: 
     
n n
2
i i2 2
i 1 i 1
1 1
μ,σ 2 x μ ( 1) x μ 0
μ 2σ σ
l
 

      

 
 
 
 
   
n n
2 22
i i22 2 2 42
i 1 i 1
n 1 n 1
μ,σ ( 1) x μ x μ 0
σ 2σ 2σ 2σ2 σ
l
 

        

 
 
Da primeira equação resulta 
Unidade II – Inferência Estatística – Cap.8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
40 
 
 
n n n n
i i i
i 1 i 1 i 1 i 1
x μ 0 x μ 0 x nμ
   
         
 
E assim tem-se n
*
i
i 1
1
μ x
n 
 
 (1) 
Da segunda equação resulta 
     
n n
*2 22
i i4 2
i 1 i 1
1 n 1
x μ σ x μ
σ σ n 
     
 (2) 
Agora, substituindo (1) em (2) segue 
   
n
* 2
2 *
i
i 1
1
σ x μ
n 
 
 
Portanto, finalmente tem-se: 
n
i
i 1
1
μˆ X X
n 
 
 
e 
   
n
22
i 2
i 1
1
σˆ X X M
n 
  
 
Note-se que o estimador da variância é tendencioso mas assintoticamente não 
tendencioso. 
 
Exemplo 23. [Estimação pontual de parâmetros de distribuições e ajuste de modelos] 
Os dados a seguir apresentados foram obtidos em um experimento (famoso) realizado 
por Rutherford e Geiger sobre a emissão de partículas 
α
 por uma fonte radioativa. Na 
tabela apresentada abaixo, x é o número de partículas observadas em uma unidade de 
tempo, sendo essa unidade igual a 1/8 do minuto, ou seja 7,5 segundos e f representa a 
frequência absoluta da contagem do número de intervalos com cada valor observado do 
número de partículas emitidas. 
 x 0 1 2 3 4 5 6 7 8 9 10 11 Total 
 f 57 203 388 525 532 408 273 130 49 27 10 6 2612 
 Tabela 1 – Distribuição das frequências absolutas do número de partículas emitidas 
É sabido que o fenômeno emissão de partículas por uma fonte radioativa pode ser 
concebido como um processo de Poisson. Assim, sejam 
λ
 a taxa média de emissão de 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
41 
 
partículas 
α
 por minuto para esse processo e X a variável aleatória representa o número 
eventual de partículas 
α
 emitidas em um intervalo de tempo igual a 1/8 de minuto (ou 
seja 7,5 segundos). Supondo que X tenha distribuição de Poisson, estimando o 
parâmetro 
λ
 tem-se a especificação de um modelo probabilístico para o fenômeno 
aleatório. 
 
 
λ
x
8
X
λ 8
P X x p (x) , para x 0,1,2,3,...
x!
e

   
 
Um estimador para o parâmetro 
λ
, obtido pelo método de máxima verossimilhança (e 
também pelo método dos momentos), é a média aritmética amostral, isto é 
n
j
j=1
1 1
λˆ X X
8 n
  
 
No caso, tem-se 2.612 contagens distribuídas em 12 classes e assim a média aritmética 
da amostra é 
12
*
j j
j=1
1 1
λˆ x x f 3,87 partículas
8 2612
  
 
e ainda 
*λˆ 8x 8.3,87 30,96 partículas por minuto  
 
Pode-se então considerar que a distribuição de Poisson especificada constitui um 
modelo probabilístico para a variável aleatória X, ou em outras palavras que foi ajustado 
um modelo (teórico) de distribuição aos dados relativos à variável observada. É 
interessante examinar o grau de ajuste desse modelo, o que pode ser feito facilmente 
comparando-se as frequências relativas observadas com as probabilidades calculadas 
com base no modelo especificado ou, alternativamente (como é mais comum) as 
frequências absolutas observadas com aquelas esperadas com base no modelo. Isso é 
mostrado a seguir. 
As frequências esperadas com base no modelo ajustado são determinadas 
multiplicando-se o tamanho da amostra, n, pelas probabilidades calculadas empregando-
se o modelo de distribuição ajustado. No caso, empregando a distribuição de Poisson 
com a estimativa do parâmetro 
λ
 obtida na amostra observada obtem-se a seguinte 
distribuição ajustada 
 
3,87 x
X
3,87
P X x p (x) , para x 0,1,2,3,...
x!
e
   
 
Na tabela a seguir são mostradas as frequências observadas e esperadas com o modelo. 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
42 
 
 x 0 1 2 3 4 5 6 7 8 9 10 11 Total 
 f 57 203 388 525 532 408 273 130 49 27 10 6 2612 
n p(x) 55 211 408 526 509 394 254 141 68 29 11 4 2610 
Tabela 2 – Frequências absolutas observadas e esperadas com base no modelo 
Deve-se ressaltar que a diferença existente entre a totalização das frequências esperadas 
de classe (igual a 2610) e a frequência total observada (igual a 2612) se deve ao fato de 
que o modelo de distribuição teórica empregado no ajustamento aos dados observados 
envolve uma infinidade de valores. Com efeito, no modelo teórico (distribuição de 
Poisson) admite-se todos os valores inteiros não negativos, enquanto o maior valor 
observado foi 11. Considerando-se a probabilidade (calculada com base no modelo) de 
serem obtidos valores maiores do que 11, que é igual a 0,000692 (sendo calculada por 
1 0,999308 0,000692 
), verifica-se que com o número de 2612 observações seria de 
se esperar que houvesse, aproximadamente, 2 superiores a 11. 
Para avaliar o ajustamento pode ser elaborado um gráfico de barras com as frequências 
relativas observadas e as probabilidades estabelecidas com m o modelo adotado. 
 
 
 Gráfico com as frequências observadas e probabilidades calculadas com o modelo 
Como se pode perceber, o ajuste do modelo teórico aos dados observados é excelente. 
 
 
 
0,000
0,050
0,100
0,150
0,200
0,250
0 1 2 3 4 5 6 7 8 9 10 11
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
43 
 
Exemplo 24. [Estimação pontual de parâmetros de distribuições e ajuste de modelos] 
Os dados a seguir apresentados foram obtidos com base na observação sistemática do 
funcionamento e registro do tempo transcorrido até um certo tipo de componente 
eletrônico falhar, em unidade de 100 horas. Há interesse em ajustar um modelo teórico 
aos dados amostrais. 
 
262,8 1,0 36,4 4,0 59,4 35,3 70,5 22,6 3,7 5,8 
 32,1 0,5 17,4 77,6 46,7 182,4 76,7 3,5 13,4 29,7 
 6,1 15,1 110,5 45,9 31,7 22,4 27,8 10,0 33,0 26,7 
 8,0 6,8 63,0 70,9 30,0 12,2 29,6 3,3 32,2 12,3 
 128,2 24,6 7,0 39,8 71,1 19,4 5,4 4,4 54,4 24,8 
 Tabela 1 – Tempos de funcionamento até a ocorrência de alguma falha 
Sabe-se que a distribuição exponencial é um bom modelo probabilístico para o tempo 
de funcionamento até falhar de componentes eletrônicos. Será então empregado esse 
modelo no ajustamento. Para examinar essa questão pode-se inicialmente elaborar uma 
distribuição de frequências e depois construir um gráfico – histograma – relativo a essa 
distribuição. A tabela a seguir mostra a distribuição de frequências dos dados 
observados, juntamente com as frequências esperadas com base no modelo adotado de 
distribuição exponencial, com parâmetro igual a 
1 41,1
, como é justificado a seguir. 
A média aritmética dos valores observados de tempo de funcionamento até ocorrer uma 
falha é 50
j
j=1
1
x x 41,1
50
 
 e o estimador de máxima verossimilhança para o parâmetro 
α
 é 
1
αˆ
X

, logo 
* 1 1αˆ 0,0243
x 41,1
  
 é a estimativa máximo-verossímil. 
Classes ni fi P(a < X < b) n P(a < X < b) 
 0 |-- 20 21 0,42 0,385 19 
 20 |-- 40 15 0,30 0,236 12 
 40 |-- 60 4 0,08 0,145 7 
 60 |-- 80 6 0,12 0,089 5 
 80 |-- 100 0 0,00 0,055 3 
100 |-- 4 0,08 0,088 4 
Total 50 1,00 1,000 50 
 Tabela 2 – Distribuição de frequências observadas e esperadas com o modelo 
Ressalta-se que nesse caso a última classe é aberta no seu extremo superior, de modo a 
permitir a sua melhor adequação ao modelo de distribuição teórica ajustado.Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
44 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 Gráfico 1 – Histograma das frequências relativas dos tempos de funcionamento 
 
 
 
Gráfico 2 – Histograma com as probabilidades calculadas com o modelo 
 
 
0
0,05
0,1
0,15
0,2
0,25
0,3
0,35
0,4
0,45
 0 a 20 20 a 40 40 a 60 60 a 80 80 a 100 100 ou +
0
0,05
0,1
0,15
0,2
0,25
0,3
0,35
0,4
0,45
 0 a 20 20 a 40 40 a 60 60 a 80 80 a 100 100 ou +
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
45 
 
 
 Gráfico 3 – Função de densidade de probabilidade do modelo ajustado 
 
Como se pode perceber pelo exame dos gráficos acima – histogramas da distribuição de 
frequências dos tempos de funcionamento e das probabilidades calculadas com base no 
modelo e, também, da função de densidade do modelo ajustado – apesar do reduzido 
número de dados disponíveis o modelo parece ajustar-se bem aos dados. 
 
Exemplo 25. [Estimadores dos principais parâmetros populacionais] 
Sejam X um universo de média 
μ
 e variância 
2σ
 e 
 1 2 3 nX ,X ,X ,...,X
 uma amostra 
aleatória sem reposição de tamanho n de X. Demonstrar que a expectância e a variância 
da média aritmética são, respectivamente, 
μ
 e 2σ N n
n N 1


. 
Solução 
   
n n
j
j=1 j=1
1 1 1
E X E X μ nμ μ
n n n
    
 
e 
0
0,005
0,01
0,015
0,02
0,025
0,03
0 5 10 15 20
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
46 
 
   
n n n n
i i i j2 2
i=1 i=1 i=1 j=2
j>i
1 1 1
V X V X V X 2 Cov(X ,X )
n n n
 
   
 
  
 
n n n
2 2 2
ij2 2 2 2
i=1 i 1 j=2
j>i
1 1 1 1 n(n 1) 1
V X σ 2 σ n σ 2 σ
n n n n 2 N 1
  
      
 
 
 
 
2 2 2 21 n 1 1 1 n 1 1 N 1 n 1σ σ 1 σ σ
n n N 1 n N 1 n N 1
         
         
       
 
Donde, finalmente, tem-se 
2σ N n
V(X)
n N 1
 
  
 
 
 
Exemplo 26. [Estimadores dos principais parâmetros populacionais] 
Sejam C uma população finita de tamanho N , X um universo relativo a essa população 
de média 
μ
 e variância 
2σ
 e 
 1 2 3 nX ,X ,X ,...,X
 uma amostra aleatória sem reposição 
de X. Demonstrar que a estatística 
2
Fσ
, definida por 
 
 
n
22
F i
i=1
N-1 1
σˆ X -X
N n 1
  
   
   

 
é um estimador não tendencioso da variância desse universo. 
Solução 
     
n n
2 22
F i i
i=1 i=1
N 1 1 N 1 n 1
ˆE σ E X X E X X
N n 1 N n 1 n
         
          
         
 
   
n n
22 2 2
F i i
i=1 i=1
N 1 n 1 N 1 n 1
ˆE σ E X X E X X
N n 1 n N n 1 n
          
            
          
 
 
     
n
2 2 2
F i
i=1
N 1 n 1
ˆE σ E X E X
N n 1 n
   
    
    

 
Mas 
     2 2 2 2i i iE X V X E X σ μ   
 
e 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
47 
 
     
2
2 2σ N nE X V X E X μ
n N 1

   

 
Assim, por substituição dos resultados acima no desenvolvimento anterior tem-se 
   
2
2 2 2 2
F
N 1 n 1 σ N n
ˆE σ n σ μ μ
N n 1 n n N 1
     
       
      
 
 
2 2
2 2
F
N 1 n σ N n N 1 n N n σ
ˆE σ σ n
N n 1 n N 1 N n 1 N 1 n
            
            
            
 
 
    22
F
n N 1 N nN 1 n σ
ˆE σ
N n 1 N 1 n
     
     
     
 
 
  22 2
F
N n 1N 1 n σ
ˆE σ σ
N n 1 N 1 n
   
     
     
 
 
Exemplo 27. [Estimadores dos principais parâmetros populacionais] 
Sejam C uma população infinita, A um atributo dicotômico (isto é, todo elemento da 
população possui ou não esse atributo), p a probabilidade de seleciona-se um elemento 
população com o atributo A, X o universo associado a essa população por meio de uma 
variável indicadora da presença ou não desse atributo (portanto X com distribuição de 
Bernoulli de parâmetro p) e 
 1 2 3 nX ,X ,X ,...,X
uma amostra aleatória simples de X. 
Demonstrar que: 
i) a estatística proporção amostral é um estimador não tendencioso de p; 
ii) o estimador é convergente em média quadrática; 
iii) um estimador não tendencioso da variância do universo é 
 
2 2n nˆ ˆ ˆ ˆ ˆσˆ V(X) (p p ) p(1 p)
n 1 n 1
    
 
 
Solução 
No caso, a função de probabilidade do universo X é 
X
q 1 p , se x 0
p (x)
p , se x 1
  
 

 
Portanto, sua média e sua variância são: 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
48 
 
1
X
x =0
μ E(X) x p (x) 0.q 1.p p    
 
1
2 2 2 2
X
x =0
E(X ) x p (x) 0 .q +1 .p p  
 
2 2 2 2σ V(X) E(X ) E (X) p p p(1 p)      
 
A estatística proporção amostral é expressa por 
n
A
j
j=1
n1
pˆ X X
n n
  
 
Portanto, a média (expectância) de 
pˆ
é 
     
n n
j
j=1 j=1
1 1 1
ˆE p E X E X p n p p
n n n
     
 
O que mostra que o estimador é não tendencioso. 
A variância de 
pˆ
é 
     
n n n
j j2 2 2
j=1 j=1 j=1
1 1 1 1 1
ˆV p V X V X V X p(1 p) n p(1 p) p(1 p)
n n n n n
 
        
 
  
 
Logo, no limite quando o tamanho da amostra n tende para infinito tem-se 
 
n n
1
ˆlim V p lim p(1 p) 0
n 
  
 
Portanto, o estimador é convergente em média quadrática (logo é também convergente 
em probabilidade). 
Como é sabido do estudo de estimadores pontuais, a proporção amostral equivale à 
média do universo, isto é 
n
A
j
j=1
n 1
pˆ X X
n n
   
 
Logo, um estimador para a variância do universo é o segundo momento central amostral
 
n n
22 2 2
i i
i=1 i=1
1 1
M X X X X
n n
     
 
Como o universo só pode assumir dois valores – 0 e 1 – decorre que 
Unidade II – Inferência Estatística – Cap. 8 – Conceitos 
Fundamentais da Inferência Estatística e Estimação 
 
49 
 
n n
2
i i
i 1 i 1
1 1
ˆX X X p
n n 
   
 
e então que a expressão do estimador pode ser reescrita de forma equivalente como 
 
n n
22 2 2 2
i i
i=1 i=1
1 1
ˆ ˆ ˆ ˆM X X X X p p p(1 p)
n n
         
 
A expectância desse estimador é 
 
       
n n n
22 2 2 2 2
i i i
i=1 i=1 i=1
1 1 1
E M E X X E X X E X E X
n n n
   
         
   
  
       2 2 2
1
E M n σ μ V X E X
n
      
 
Mas 
   
2
2 2σV X e E X μ
n
 
 donde 
       
2
2 2 2 2 2 2 2 21 σ 1 n 1E M n σ μ V X E X σ μ μ 1 σ σ
n n n n
                      
 
E como no caso 
  2V X σ p(1 p)  
 então 
 2 2
n 1 n 1
E M σ p(1 p)
n n
 
   
 
Como se percebe, o estimador é tendencioso. 
Entretanto, pelo exame da expressão acima, verifica-se facilmente que um estimador

Outros materiais