Buscar

Introdução_Resumo_1_CA

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 14 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 14 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 14 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Universidade Federal do Rio Grande do Norte 
Centro de Ciências Exatas e da Terra 
Departamento de Demografia e Ciências Atuariais 
EST-0122 – Inferência Aplicada às Ciências Atuariais– 2014.2 
 
1. INTRODUÇÃO 
 
1.1 - População e Amostra 
 
Definição 1.1.1 – Uma População Alvo é o conjunto da totalidade dos elementos que 
estão sendo estudados e desejamos obter informações a respeito. 
 
Exemplos: 
1 – Estudo para avaliar a intenção de voto para prefeito na cidade de Natal-RN. A 
população alvo é o conjunto de todos os portadores de título de eleitor válido cujas 
zonas eleitorais estão localizadas na cidade de Natal. 
2 – Estudo sobre a taxa de fecundidade de mulheres brasileiras nos últimos dois anos. 
A população alvo é o conjunto das mulheres brasileiras em idade fértil no período de 
interesse do estudo. 
Vamos nos referir a uma população genérica como sendo uma variável aleatória 
X, à qual está associada uma distribuição de probabilidade, discreta ou contínua. 
Muitas vezes é impraticável estudar a população como um todo, seja por 
questões de tempo, de recursos financeiros, por destruição da unidade observacional, 
etc. Em tais situações, torna-se necessário o estudo das variáveis de interesse através 
de um subconjunto da população, chamado de amostra. Preferencialmente, esta 
amostra deve ser escolhida por processo de aleatorização, gerando o que é chamado de 
amostra probabilística. 
O processo de induzir os resultados de amostra probabilística sobre a população 
é chamado de inferência, o que é objeto de nosso estudo. A inferência é, pois, o 
processo de indução dos resultados de uma amostra probabilística sobre a população, 
com risco calculado pela teoria da probabilidade. 
 
 
1.2 – Amostra Aleatória Simples 
 
Definição 1.2.1 – Seja X uma população (variável aleatória) com função de 
distribuição de probabilidade (fp) ou função de densidade de probabilidade (fdp) fX(.) e 
função de distribuição acumulada FX(.). Uma amostra aleatória simples de tamanho n 
de X é uma coleção de variáveis aleatórias X1, X2, ..., Xn, tais que: 
(i) X1, X2, ..., Xn são independentes; (ii) ( ) ( ),
iX X
F t F t t= ∀= ∀= ∀= ∀ e i = 1,2,...,n 
Como consequência, se fXi(.) é a fdp de Xi, então: 
 
1 21 2 1 2 1 2
1
( , , , ) ( ). ( ). . ( ) ( ). ( ). . ( ) ( )
n
n
n X X X n X X X n X i
i
f x x x f x f x f x f x f x f x f x
====
= = == = == = == = = ∏∏∏∏� � � 
 
1.3 – Estatística e parâmetro 
 
Definição 1.3.1 – Qualquer característico numérico de interesse na população é 
definido como parâmetro. Populações podem possuir características (forma, posição, 
assimetria) que podem ser identificadas por parâmetros (por exemplo, a média 
populacional, a mediana populacional, o desvio-padrão populacional, etc.) 
genericamente, vamos nos referir a um parâmetro θθθθ . 
 
Definição 1.3.2 – O conjunto Θ em que θθθθ toma valores é definido como espaço 
paramétrico. 
Exemplos: 
X ~ N(µ, σ2) ⇒⇒⇒⇒ θθθθ = (µ, σ2) e Θ = {(µ, σ2), -∞ < µ < ∞, σ > 0} 
 
X ~ B(1, p) ⇒⇒⇒⇒ θθθθ = p e Θ = {p, 0 < p < 1} 
 
X ~ Poisson(λ) ⇒⇒⇒⇒ θθθθ = λ e Θ = {λ, λ > 0} 
 
X ~ exp (α) ⇒⇒⇒⇒ θθθθ = α e Θ = {α, α > 0} 
 
Definição 1.3.3 – Qualquer função da amostra que não depende de nenhum parâmetro 
desconhecido é definida como uma estatística. 
 
 
Dada a amostra aleatória X1, X2, ..., Xn, algumas estatísticas são: 
 
(1) X(1) = min(X1, X2, ..., Xn); (2) X(n) = max(X1, X2, ..., Xn); 
 
(3) Xmed = med(X1, X2, ..., Xn); (4) 
1
1 n
i
i
X X
n ====
==== ∑∑∑∑ ; 
 
(5) 2 2
1
1
1
( )
n
i
i
S X X
n ====
= −= −= −= −
−−−−
∑∑∑∑ ; (6) 2 2
1
1 ( )
n
i
i
S X X
n ====
= −= −= −= −∑∑∑∑� 
 
1.4 - Estimadores 
 
Definição 1.4.1 – Qualquer estatística que assuma valores no espaço paramétrico Θ 
pode ser assumido como um estimador de θθθθ . Um estimador de θ é denotado por ˆθθθθ . 
 
Obs. 1.4.1 – Uma estatística é uma variável aleatória e, consequentemente, seu valor 
depende de cada amostra. Em conclusão, ˆθθθθ é uma variável aleatória com uma 
distribuição de probabilidade a ela associada. Assim, é possível calcular E( ˆθθθθ ) e V( ˆθθθθ ). 
 
Obs. 1.4.2 – No contexto da Estatística Clássica, o parâmetro θθθθ não é uma variável 
aleatória, assumindo, pois, um valor fixo, embora desconhecido. 
 
Se a distribuição da população X depende de algum parâmetro θθθθ , podemos escrever: 
 
 1 2
1
( , , , | ) ( | )n
n X i
i
f x x x f xθ θθ θθ θθ θ
====
==== ∏∏∏∏� 
O que significa que usamos a amostra 1 2( , , , )nx x x� para “aprender” sobre θθθθ . 
 
 
Definição 1.4.2 – A função 1 2( , , , | )nf x x x θθθθ� , encarada como função de θθθθ , dada a 
particular amostra 1 2( , , , )nx x x� , ou seja, a função 1 2
1
( | , , , ) ( | )n
n X i
i
L x x x f xθ θθ θθ θθ θ
====
==== ∏∏∏∏� , é 
definida como função de verossimilhança. 
 
A função de verossimilhança tem um papel primordial no processo de inferência. 
 
 
 
 
1.5 – Erro Quadrático Médio 
 
Definição 1.5.1 – A tendência de um estimador ˆθθθθ é definida como B( ˆθθθθ ) = E( ˆθθθθ ) – θ. 
 
Definição 1.5.2 – Um estimador ˆθθθθ é dito ser não tendencioso para θ, se E( ˆθθθθ ) = θ. 
Assim, se ˆθθθθ é um estimador não tendencioso, B( ˆθθθθ ) = 0. 
 
Definição 1.5.3 – O Erro Quadrático Médio (EQM) ou Mean Square Error (MSE), de 
um estimador ˆθθθθ é definido como EQM( ˆθθθθ ) = E( ˆθθθθ – θ)2 = V( ˆθθθθ )+B2( ˆθθθθ ). Portanto, se ˆθθθθ 
é um estimador não tendencioso, EQM( ˆθθθθ ) = V( ˆθθθθ ). 
 
A medida do Erro Quadrático Médio é fundamental na definição e comparação de 
estimadores. Preferencialmente, vamos preferir estimadores não-tendenciosos. 
 
Propriedades de 
1
1
=
= ∑
n
i
i
X X
n
 e 2 2
1
1 ( )
1 =
= −
−
∑
n
i
i
S X X
n
 
 As duas estatísticas mais conhecidas e usadas são a média e a variância 
amostrais, sobre as quais temos algumas propriedades relevantes. 
 Sejam 1 2, , , nX X X� uma a.a.s. de uma população X, com ( )E X µ= e 2( )V X σ= . 
a) Propriedades de X 
i. 
1 1 1 1
1 1 1 1 1( ) ( )
n n n n
i i i
i i i i
E X E X E X E X n
n n n n n
µ µ µ
= = = =
   
= = = = = =  
  
∑ ∑ ∑ ∑ 
A média amostral é um estimador não-tendencioso da média populacional. 
Portanto, ( ) ( )EQM X V X= 
ii. 
2
2 2
2 2 2 2
1 1 1 1
1 1 1 1 1( ) ( )
n n n n
i i i
i i i i
V X V X V X V X n
n n n n n n
σ
σ σ
= = = =
   
= = = = = =  
  
∑ ∑ ∑ ∑ 
 
b) Propriedades de 2S 
Resultados importantes: 
i. 2 2 2
1 1
( )
= =
− = −∑ ∑
n n
i i
i i
X X X nX ; ii. 2 2 2( )iE X σ µ= + ; iii. 
2
2( )E X
n
σ µ= + 
2 2 2 2 2
1 1 1
1 1 1( ) ( ) ( )
1 1 1
n n n
i i i
i i i
E S E X X E X X E X nX
n n n
= = =
     
= − = − = − =     
− − −     
∑ ∑ ∑ 
 
2
2 2 2 2 2
1 1
1 1( ) ( ) ( )
1 1
n n
i
i i
E X nE X n
n n n
σ
σ µ µ
= =
   
= − = + − + =   
− −    
∑ ∑ 
 
2
2 2 2 2 2 2 2 2 21 1 1( ) ( 1)
1 1 1
n n n n n n
n n n n
σ
σ µ µ σ µ σ µ σ σ
  
 = + − + = + − − = − =    
− − −  
 
2S é um estimador não-tendencioso de 2σ . Portanto 2 2( ) ( )EQM S V S= 
A variância de 2S tem expressões particulares, dependendo da distribuição da 
população X. Veremos, mais adiante, o caso particular em que 2~ ( , )X N µ σ . 
 
Exemplos de Aplicação 
Exemplo 1 - Sejam 1 2 3,X X e X uma a.a.s. de uma população X, com ( )E X θ= e 
( ) 1V X = . 
 Considere os estimadores: 1 1 23
1 1 1
ˆ
3 3 3
X X Xθ = + + e 2 1 2 3
1 1 1
ˆ
2 4 4
X X Xθ = + + 
Verifique se os estimadores são não-tendenciosos e calcules os respectivos EQM’s. 
Solução: 
Estimador 1ˆθ : 
Pelas propriedades da média amostral, já sabemos que X é um estimador não-
tendencioso para a média populacional, com variância igual à variância populacional 
dividida por n. Assim, 1 1 1ˆ ˆ ˆ1( ) ( ) ( )3E e V EQMθ θ θ θ= = = 
Estimador 2ˆθ : 
2 1 2 3 1 2 3
1 1 1 1 1 1 1 1 1
ˆ( ) ( ) ( ) ( )
2 4 4 2 4 4 2 4 4
E E X X X E X E X E Xθ θ θ θ θ = + + = + + = + + = 
 
 
Então 2ˆθ é, também, um estimador não-tendencioso para θ . Portanto, 
2 2
ˆ ˆ( ) ( )V EQMθ θ= 
2 1 2 3 1 2 3
1 1 1 1 1 1 1 1 1 6 3
ˆ( ) ( ) ( ) ( )
2 4 4 4 16 16 4 16 16 16 8
V V X X X V X V X V Xθ  = + + = + + = + + = = 
 
 
Conclusão: Ambos os estimadores são não-tendenciosos, mas 1ˆ Xθ = é melhor que 2ˆθ , 
pelo critério do EQM, visto que 1 2ˆ ˆ( ) ( )V Vθ θ< . 
 
Exemplo 2 - Sejam 1 2, , , nX X X� uma a.a.s. de uma população X ~ B(1, θ). Usando o 
fato de que 
1
~ ( , )
n
i
i
Y X B n θ
=
=∑ , analise os estimadores: 1ˆ
YX
n
θ = = e 
1
2ˆ
nY
n n
θ
+
=
+
 
Solução: 
Estimador 1ˆθ : 1 1
(1 )
ˆ ˆ( ) ( ) ( ) ( ) ( )E E X e V V X EQM X
n
θ θθ θ θ −= = = = = 
Estimador 2ˆθ : 2
( )2 2 2ˆ( )
n n nY E Y n
E E
n n n n n n
θ
θ
 + + + 
= = =
 + + + 
 
 
Assim, 2ˆθ é um estimador não tendencioso e, portanto, 2 2ˆ ˆ( ) ( )V EQMθ θ≠ , pelo que 
temos, 
( )
2 2
1
22 2ˆ ˆ( ) ( )
n n nn n
B E
n n n n n n
θθ θ
θ θ θ θ
−+ − +
= − = − = =
+ + +
 
( ) ( )2 22
( ) (1 )2ˆ( )
nY V Y nV V
n n n n n n
θ θθ
 +
− 
= = =
 +  + +
 
 
E, então, ( )
( )
( ) ( )
2
2
2 2 22 2 2
1(1 ) 2ˆ ˆ ˆ( ) ( ) ( )
4
nn nEQM V B
n n n n n n
θθ θθ θ θ
−
−
= + = + =
+ + +
 
Note que o 2ˆ( )EQM θ é independente de θ e, por isso, a comparação direta não é 
evidente, de modo a precisar qual dos dois estimadores é o melhor. Podemos analisar 
se há regiões do espaço paramétrico em que 1 2ˆ ˆ( ) ( )EQM EQMθ θ= . Assim, 
( ) ( )
2
2
2 21 2
(1 )
ˆ ˆ( ) ( ) 0
4 4
n nEQM EQM
n n n n n
θ θθ θ θ θ−= ⇒ = ⇒ − + =
+ +
 
Esta equação de segundo grau tem discriminante ( )
22
21 1
n n
n nn n
 ∆ = − = −  
+ +
, 
fornecendo as raízes: 
2
2
1
2
2
1 1
1 1
2
2
1 1
2
n
n n n
c
n n
n
n n
c
θ
   + −    + ± − =  +  
= = 
  
− −  
+  =

 
 
 
Conclusão: Com base na figura acima, vemos que não há, entre os dois estimadores, 
um que seja uniformemente melhor que o outro. Entre os pontos c1 e c2, o estimador 
2
ˆθ é melhor, enquanto que fora dessa região, o melhor estimador é 1ˆθ . 
 
Exemplo 3 - Sejam 1 2, , , nX X X� uma a.a.s. de uma população ~ (0, )X U θ . Considere 
os estimadores 1ˆ Xθ = e 2 ( )ˆ nXθ = . Analise os dois estimadores. 
Solução: 
Estimador 1ˆθ : 1ˆ( ) ( ) 2E E X θθ = = ⇒ estimador tendencioso com 1 1ˆ ˆ( ) ( )V EQMθ θ≠ 
2
1
ˆ( ) ( ) (12 )V V X nθθ = = 1ˆ( ) ( ) 2B B X θθ θ= = − 
22 2 2 2
1
(1 3 )
ˆ( )
12 2 12 4 12
nEQM
n n n
θ θ θ θ θθ θ + = + − = + = 
 
 
Estimador 2ˆθ : 
Note que a fdp de 2 ( )ˆ nXθ = é dada por ( )
1
( | ) , 0
n
n
X n
nxf x xθ θ
θ
−
= < < 
Assim, 2 ( )ˆ( ) ( ) 1n
nE E X
n
θ θ= =
+
 e 
2
2 ( ) 2
ˆ( ) ( ) ( 1) ( 2)n
nV V X
n n
θθ = =
+ +
 
Como vemos, 2 ( )ˆ nXθ = também é um estimador tendencioso, com 
2
ˆ( )
1 1
nB
n n
θθ θ θ −= − =
+ +
 e 
2 2 2
2 2 2
2
ˆ( ) ( 1) ( 2) ( 1) ( 1)( 2)
nEQM
n n n n n
θ θ θθ = + =
+ + + + +
 
 
1.6 - Distribuições Amostrais de Populações Normais 
 A distribuição normal é uma das distribuições de probabilidade mais 
usadas na modelagem estatística. O Teorema Central do Limite é apenas uma das 
razões para o destaque dessa distribuição. Um outro aspecto importante é que, embora 
alguns dados não sigam uma distribuição normal, o uso de uma simples transformação 
os normalizam. Devemos considerar, também, a relativa facilidade na determinação de 
distribuições amostrais de estatísticas provenientes de amostras de populações 
normais. Vamos, então, explorar, com mais detalhes, as distribuições amostrais da 
média e da variância, quando tratamos com esse tipo de amostras. 
1.6.1 – Propriedades da média e variância amostrais. 
Sejam 1 2, , , nX X X� uma a.a.s. de uma população X ~ N(µ, σ2), então: 
(a) 
2
~ ,X N
n
σσσσµµµµ        
    
 
Prova: Para mostrar este resultado, vamo fazer uso da função geradora de momentos 
(fgm) de X, que é dada por: 
2
2
2( ) ( )
t
ttX
XM t E e e
µ σµ σµ σµ σ++++
= == == == = e de suas propriedades. 
Assim, 1
1
1 1
( ) ( )
n
i i i
i
t tn nt X X XntX n n
X
i i
M t E e E e E e E e====
= == == == =
∑∑∑∑                 
= = = = == = = = == = = = == = = = =                                      
∏ ∏∏ ∏∏ ∏∏ ∏ 
 
(((( )))) (((( ))))2 2 2 22 2 2
22 2
1
~ ,
n
t t tt tn nn utu u nn n
i
e e e X N
n
σσσσ
σ σσ σσ σσ σ σσσσµµµµ
    
++++     + ++ ++ ++ +     
    
====
             = = == = == = == = = ⇒⇒⇒⇒                  
∏∏∏∏ 
Para melhor clareza das outras propriedades, introduzimos a seguinte: 
Motivação: Considere uma população Z ~ N(0, 1) e uma a.a.s. Z1 e Z2. 
Observe que não há perda de generalidade ao se trabalhar com a distribuição Z ~ 
N(0,1), pois, para uma população X ~ (µ, σ2), é suficiente tomar X = µ + σZ. 
Assim, a fdp conjunta de Z1 e Z2 é dada por: 
2 2 2 2
1 2 1 2
1 2
1 1 1
2 2 2
1 2 1 2
1 1 1
22 2
( )( , ) . , ,z z z zZ Zf z z e e e z zpipipipipi pipi pipi pipi pi
− − − +− − − +− − − +− − − +
= = − ∞ < < +∞= = − ∞ < < +∞= = − ∞ < < +∞= = − ∞ < < +∞ 
Considere, agora, a transformação 
1 1 2 1 1 2
1 1 ( , )
2 2
Y Z Z g z z= + = ⇒ 11 1 2 1 1 2
1 1 ( , )
2 2
Z Y Y g y y−= + = 
2 1 2 2 1 2
1 1 ( , )
2 2
Y Z Z g z z= − = ...⇒ ... 12 1 2 2 1 2
1 1 ( , )
2 2
Z Y Y g y y−= − = 
cujo Jacobiano é dado pelo determinante da matriz: 
1 1
1 2
2 2
1 1
1 1
1 12 2 | | 1 || || 1
1 1 2 2
2 2
z z
y y
J J
z z
y y
∂ ∂   
   ∂ ∂
   = ⇒ = − − = − ⇒ =∂ ∂ −   
   ∂ ∂   
 
Na forma matricial, podemos considerar a transformação linear do vetor Z’ = (Z1 , Z2) 
no vetor Y’ = (Y1 , Y2), através da matriz T, da seguinte forma: 
 
1 1 1 1
2 2 2 2
1 1
2 2
1 1
2 2
Y Z t Z
Y Z t Z
    
                            
    = == == == =                        
−−−−                            
        
 ou Y TZ==== 
Podemos observar que os vetores linha da matriz T são tais que 1 2 0
't t ==== , ou seja, são 
ortogonais. Neste caso, dizemos que a matriz T é uma matriz ortogonal, satisfazendo, 
assim, as seguintes importantes propriedades: 
 i. 1 'T T−−−− ==== ii. 'T T I==== iii. O Jacobiano de 1Z T Y−−−−==== é igual a ±±±± 1. 
Assim, a fdp conjunta de Y1 e Y2 é obtida como: 
1 2 1 2
1 1 1 1
1 2 1 1 2 2 1 2 1 1 2 2 1 2( , ) [ ( , ), ( , )] || ||, ( , ), ( , )Y Y Z Zf y y f g y y g y y J g y y g y y− − − −− − − −− − − −− − − −= − ∞ < < +∞=− ∞ < < +∞= − ∞ < < +∞= − ∞ < < +∞ 
Ou seja, 
 
2 2
1 2 1 2
1 2 1 2
1 1 1 1 1
2 2 2 2 2
1 2 1 2 1 2
1 1 1 1 11
22 2 2 2
( , ) , .
y y y y
Y Y Z Zf y y f y y y y epipipipi
                
    − + + −− + + −− + + −− + + −            
                        
= + − = == + − = == + − = == + − = =        
 
 = 
2 2 2 2
1 2 1 2
1 1 1
2 2 2
1 2
1 1 1
2 2 2
( )
. , ,
y y y y
e e e y y
pipipipi pi pipi pipi pipi pi
− + − −− + − −− + − −− + − −
= − ∞ < < +∞= − ∞ < < +∞= − ∞ < < +∞= − ∞ < < +∞ 
Portanto, Y1 e Y2 são independentes, estabelecendo a propriedade (iv) de uma 
transformação ortogonal: preserva independência das variáveis transformadas. 
 
Agora, considere, novamente, X1, X2, ... ,Xn a.a.s de uma população X ~ N(θ, σ2), 
Então: 
(b) 
1
1
=
= ∑
n
i
i
X X
n
 e 2 2
1
1 ( )( 1) == −− ∑
n
i
i
S X X
n
 são estatisticamente independentes. 
(c) 
2
2
( 1)2
( 1)
~
−
−
=
n
n SQ χ
σ
. 
Prova, usando a motivação: 
 
Fazendo ( )−= ii
XZ θ
σ
 ⇒ Zi ~ N( 0, 1) 
 
Definamos 1 1 2
1 ( )= + + +… nY Z Z Z
n
, 2 1 2
1 ( )
2
= −Y Z Z , 
 3 1 2 3
1 ( 2 )
6
= + −Y Z Z Z , ....., 1 2 1
1 [ ( 1) ]
( 1) −
= + + + − −
−
…n n nY Z Z Z n Z
n n
 
Esta transformação, conhecida como Transformação de Helmert, pode ser escrita como 
, Y = TZ, onde Tnxn é uma matriz ortogonal, com a seguinte forma: 
 
1 1 1 1
1 1 0 0
2 2
1 1 2 '0
6 6 6
1 1 1 1
( 1) ( 1) ( 1) ( 1)
n n n n
T T T I
n
n n n n n n n n
 
 
 
 
− 
 
= ⇒ = 
− 
 
 
 
−
 
− − − −  
�
�
�
�
 
 Assim, temos que Yi ~ N(0, 1), de modo que Y1, Y2, ... ,Yn são variáveis normais 
padronizadas mutuamente independentes, com 
 
2 2 2 2 2 2
1
1 1 1 1
' ' ' ' ( ) ( )
= = = =
= = = = = + − = + −∑ ∑ ∑ ∑
n n n n
i i i i
i i i i
Y Y Y Z T TZ Z Z Z nZ Z Z Y Z Z 
 
Também, 2 2
1 2
( )
= =
= − =∑ ∑
n n
i i
i i
Q Z Z Y ⇒ 2 2 2 21 1
1 2= =
= + = +∑ ∑
n n
i i
i i
Y Y Y Y Q 
 
Logo, como Y1 é independente de (Y2, Y3, ... ,Yn), temos que Y1 é independente de Q e 
como 
 1
1 1
1 1 ( ) ( )
n n
i
i
i i
X nY Z X
n n= =
−
= = = −∑ ∑
θ θ
σ σ
 ⇒ 1X Y
n
= +
σ θ 
 
Como 
2
2
1( )S Qn
σσσσ
====
−−−−
 , concluímos que X e 2S são independentes. 
 
Além disso, como 
2
2 2 2 2
(1) ( 1)2
2
( 1)
~ ~
n
i i n
i
n SY Q Y
−
=
−
⇒ = =∑χ χ
σ
 
 
(d) ( 1)~ n
X
tS
n
µ
−
−
 
A distribuição t acima, denominada t de Student, com n-1 graus de liberdade, pode ser 
obtida pela razão de duas variáveis aleatórias independentes, sendo o numerador a 
variável ( ) ~ (0,1)XZ N
n
µ
σ
−
= e o denominador a variável ( 1)
YW
n
=
−
, onde, no 
caso, 
2
2
( 1)n SY
σ
−
= . Em resumo, a variável t representa a razão entre uma normal 
padrão e a raiz quadrada de uma qui-quadrado dividida pelos seus graus de liberdade, 
sendo as duas independentes. Lembrando que a fdp da variável t de Student, com k 
graus de liberdade é dada por: 
1 1
22 2
1
1 12( ) , , 1
( ) 12
kT
k
f t t kk tk
k
pi
+
+ Γ 
 
= − ∞ < < +∞ ≥
   Γ  +  
 
 
Prova do caso geral: Sejam ~ (0,1)Z N e 2~ kY χ , independentes. 
Sejam 1( , )ZT g z tY
k
= = e 2 ( , )U Y g z t= = , 0t u⇒ −∞ < < +∞ > 
As funções inversas são: ( ) 11 ( , )uz t g t uk −= = e 12 ( , )y u g t u−= = 
E o Jacobiano, fica 
11
2 1 12
2 2
1
2
1
| | 2
0 1
u u
u utJ k k k k
− 
       
= = =      
    
  
 
A densidade conjunta de Z e Y é expressa por: 
21 2 1
22 2
,
1 1 1( , ) . , , 0
22
2
k
k y
z
Z Yf z y e y e z ykpi
 
−
− − 
  
= −∞ < < +∞ > 
   Γ 
 
 
Pela transformação, a densidade conjunta de T e U, é expressa por 
1 1
2 2
1 1
, , 1 2 ,( , ) [ ( , ), ( , )] | | , .T U Z Y Z Y u uf t u f g t u g t u J f t uk k
− −
 
    = = =   
    
 
 
 = 
2
1
1 2 21
2 2 21 1 1
. , , 0
22
2
k
u k ut
k ue u e t uk kpi
   
− −
−   
      
= −∞ < < +∞ >   
     Γ 
 
 
Podemos, então, obter a densidade marginal de T, 
,
0
( ) ( , )T T Uf t f t u du
∞
= ∫
2
1
12 21
2 2 2
0
1 1 1
22
2
k
u k ut
k ue u e duk kpi
   ∞
− −
−   
      
= =   
     Γ 
 
∫ 
211 11 22
1
02 2
1 1 1
2 2
2
tk u
k
k u e duk kpi
 + ∞
− + 
−   
   
= =
 Γ 
 
∫
1
2
1 2
2 2
1 1 1 1 2
22 2 1
2
pi
+
 
 + Γ =  
    +Γ 
  
k
k
k
tk k
k
 
1 1
22 2
1
1 12
,
( ) 12
k
k
tk tk
k
pi
+
+ Γ 
 
= − ∞ < < +∞
   Γ  +  
 
 
 
 
Lembrete: 
Distribuição Gama – X ~ Γ(α, β) 
11( ) , 0
( )
x
Xf x x e xα βαα β
−
−
= >
Γ
Propriedade da variância amostral, considerando duas populações normais 
independentes. 
Sejam 1, 2 , ,� mW W W uma a.a.s. de uma população 2~ ( , )W WW N µ σ e 1, 2 , ,� nU U U uma 
a.a.s. de uma população 2~ ( , )U UU N µ σ , com W e U independentes. 
Considere as variâncias amostrais: 
2 2
1
1 ( )
1
m
W i
i
S W W
m =
= −
−
∑ e 2 2
1
1 ( )
1
m
U i
i
S U U
n =
= −
−
∑ 
Então, 
2
2
2 ( 1, 1)
2
~
σ
σ
− −
W
W
m n
U
U
S
FS , ou seja, a razão entre duas distribuições de qui-quadrado 
independentes, gera uma distribuição F de Snedecor, no caso, com (m-1) graus de 
liberdade no numerador e (n-1) graus de liberdade no denominador, lembrando que a 
fdp de uma densidade F, com m e n graus de liberdade, é dada por: 
1
22
2
2( ) , 0, , 1
12 2
mm
m nF
m n
m ff f f m n
m n n mf
n
−
+
+ Γ 
  
= > ≥ 
       Γ Γ    +      
 
Prova do caso geral: Sejam 2~
m
X χ e 2~
n
Y χ , independentes. 
Sejam 1( , )
X
mF g x yY
n
= = e 2 ( , )U Y g x y= = 0, 0f u⇒ > > 
As funções inversas são: 11 ( , )
m
x fu g f u
n
−
 
= = 
 
 e 12 ( , )u y g f u−= = 
E o Jacobiano fica | |
0 1
m m
u f m mJ u un n
n n
    
       
= = =            
  
 
A densidade conjunta de X e Y é expressa como: 
( )1 1
2 2 2
,
2
1( , ) , 0, 0
2
2 2
m n x y
X Y m nf x y x y e x ym n
+
− − −
+
= > >
   Γ Γ   
   
 
 
Pela transformação, a densidade conjunta de F e U é expressa como: 
1 1
, , 1 2 ,( , ) [ ( , ), ( , )] | | , .F U X Y X Y m mf f u f g f u g f u J f fu u u
n n
− −
    
= = =    
    
 
 
11 12 1 ( 2)
2 2 2
2
1
.
2
2 2
mm u f
m n
m n
m n
m mf u e u
m n n n
 
− + −
 
− + − −
+
   
= =   
       Γ Γ   
   
 
 
1( )2 1 1
2 2 2
2
1
, 0, 0
2
2 2
mm u f
m m n n
m n
m f u e f u
m n n
 
− + +  
− − −
+
 
= > > 
     Γ Γ   
   
 
 
Podemos, então, obter a densidade marginal de F, 
1( )2 1 1
2 2 2
,
0 02
1( ) ( , )
2
2 2
 
− + +∞ ∞  
− − −
+
 
= = = 
     Γ Γ   
  
∫ ∫
mm u f
m m n n
F F U m n
mf f f f u du f u e du
m n n
 
 
2
2 1
2
2
1 2
22 1
2 2
+
−
+
 
 +   
 = Γ =   
         Γ Γ +      
      
m n
m
m
m n
m m nf
m n mn f
n
 
1
22
1( )
2
2
, 0
12 2
−
+
+ Γ 
   > 
       Γ Γ    +      
mm
m n
m n
m f f
m n n m f
n
 
 
Para fechar os resultados discutidos acima, observamos que, simbolicamente, com 
independência entre numerador e denominador: 
 ( )2
(0,1)
~
n
n
N
t
n
χ
 , 
2
( )
( , )2
( )
~
m
m n
n
m
F
n
χ
χ
 
 
 
 
 
 
 ( , )
( , )
1
m n
n m
F
F
= 
Além disso, vale a pena relembrar que, se 2~ ( , ),i i iX N µ σ i=1,2,...,n , independentes, 
então; 2
1 1 1
~ ,
n n n
i i i
i i i
X N µ σ
= = =
 
 
 
∑ ∑ ∑ 
Analogamente, se 2 21 ( ) 2 ( )~ ~m nX e Xχ χ , independentes, então, 21 2 ( )( ) ~ m nX X χ ++ 
 
Lembrete: 
Distribuição Gama – X ~ Γ(α, β) 
11( ) , 0
( )
x
Xf x x e xα βαα β
−
−
= >
Γ

Outros materiais