Buscar

Teoria da Probabilidade aplicacoes e distribuicoes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 20 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 20 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 20 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Aplicações: 
Incluir as distribuições discretas: distribuição degenerada + distribuição uniforme + 
distribuição multinomial 
Incluir as distribuições contínuas: uniforme + exponenciais + triangulares 
Distribuição de Bernoulli: 
Jogar a moeda, só temos duas possibilidades, cara ou coroa. A v.a. será definida como cara = 1 e 
coroa = 0. Qualquer jogo com apenas duas respostas, sim = 1 e não = 0, segue uma distribuição de 
Bernoulli. Se a probabilidade de SIM é 
p
, a de Não será 
1q p 
 e a função densidade de 
probabilidade é dada por: 
     1f x q x p x   
. A função distribuição de probabilidade 
acumulada vale: 
 
0 0
0 1
1 1
x
F x q x
x


  
 
 
A funçao geradora dos momentos é dada por: 
     1 xt tM t q x p x e dx q pe 


      
. A 
função característica 
  itt q pe  
. 
Momentos: 
   1 0 1k k kkM q x p x x dx q p 


      
 logo 
kM p k 
, então 
p 
. 
Momentos centrados: 
   1 p tt pt t pt pt qte M t e q pe qe pe qe pe           
. 
Agora 
 
0
k
kpt qt pt k qt
k k
t
d
m qe pe q p e pq e
dt
 

      
, ou seja, 
 1
kk k
km pq qp  
 ou ainda 
   
1 1
1
k k
km pq p p
     
 
. 
Casos particulares: 
1. 
1 0m pq qp  
; 
2. 
 2 1m pq p p pq     
; 
3. 
   
2 2 2 2
3 1 1 2 1 2m pq p p pq p p p pq p             
; 
4. 
     
3 3 2 3 3
4 1 1 3 3 1 3 1 1 3m pq p p pq p p p p pq p p pq pq                   
. 
Cumulantes: 
   ln ln 1 1itt p e     
, então 
 
   
ln
11 1
it
it it itit
d ipe ip ip
t
dt e p pe p p ep e

  
  
    
 
logo: 
1. 
   
1
ln it
d
t ip p qe
dt
  
. Logo 
 1
0
ln
t
d
c i t p
dt


  
 
2. 
   
2
2
2
2
ln it it
d
t i pq e p qe
dt
    
  
, logo 
   
2
22
2 2
ln
d
c i t pq
dt
    
. 
3. 
        
3
3 2 3
3 2 3
3
ln 2 it it it it it it it
d
t i pq qe p qe e p qe i pqe p qe p qe
dt
                 
  
 logo, 
     
3
3
3 3 3
0
ln
t
d
m c i t pq q p
dt


    
. 
4. 
        
4
4
4
4
ln 2 3it it it it it it
d
t i pqe p qe p qe qe qe p p qe
dt
             . Após 
alguma álgebra temos 
   
4
4
4 2 2 2
4
ln 4it it it it
d
t i pqe p pqe q e p qe
dt
         
, logo 
   
4
4 2 2
4 4
0
ln 4
t
d
c i t pq p pq q
dt


      
 ou 
 4 1 6c pq pq 
. 
 
Distribuição Binomial: 
Vamos jogar a moeda n vezes de forma independente. Nesse caso a v.a. soma são i.i.d., e a função 
característica vale: 
   
n
n it
Bin Bernt t q pe      
. Sabendo a 

 queremos a 
 f z
 dada por 
   1
1
2
n
it itzf z FT t q pe e dt 

 

       
. Expandindo em binômio de Newton temos: 
     
0 0
1
2
n n
i k z tn k k n k k
k k
n n
f z q p e dt q p z k
k k


 
 
    
      
    
 
 
Aqui vale a acumulação dos cumulantes 
k Bin k Bernc nc
, então 
np 
, 
2 npq 
, 
 3c npq q p 
 e 
 4 1 6c npq pq 
. 
 
Distribuição de Poisson: 
Essa distribuição é um caso limite da binomial quando 
n
, mas 
0p
 de tal forma que o produto 
np 
 é constante. Agora 
 
 1
1 1
n
it
n
it
Bin
e
t p pe
n


 
        
  
. Nesse ponto usamos o fato de 
que 
1
n
x
n
x
Lim e
n
 
  
 
 para achar 
   
1ite
Poisson t e
 
. Agora queremos a fdp: 
     
1
0 0
1 1
2 2 ! 2 !
it
it
k k
e itz e itz ikt itz
k k
e
f z e e dt e e dt e e e dt e z k
k k
       
    
     
   
 
     
 
   
 
   
0 !
k
Poisson
k
e
f z z k
k
 


 
. 
Uma expressão para 
 PoissonF z
. 
     
 int
0 0! !
z z zk k
Poisson Poisson
k k
e
F z f x dx x k dx e
k k
   
  
      
Então 
 
 int
0 !
z k
Poisson
k
F z e
k
 

 
 . 
 
Cumulantes: 
     
1
1
ln ln 1
!
it k ke it
Poisson
k
i t
t e e
k
   

    
  

, portanto todos os cumulantes valem 

, daí 
 
, 
2 
, 
3m 
e 
2
4 3m   
, a skewness vale 
3
1
0

 
, skewed to the right, e 
a curtose 
1
k


, sempre leptocúrtica. Se 
 
então a skewness e curtose tendem a zero. 
 
Distribuição Normal: 
Vamos fazer o limite de n tendendo a infinito na distribuição binomial e usar o truque do logarítmo. 
Nesse caso: 
   
2 2
ln ln ln ln 1
2 2
n it
Bin Bern
t t
t t n q pe n q p ipt p n ipt p                     
   
. Mas 
já sabemos que 
 
 
12 3
1
1
ln 1
2 3
k
k
k
x x
x x x
k




     
 e vamos truncar a série na ordem 2. 
Chamando 2
2
t
x ipt p 
 temos: 
 
   
2
2 2 2 2 2
2ln 1
2 2 2 2 2
Bin
t t t t t
t n ipt p ipt p n ipt p p n ipt p p                        
       
 
Logo 
 
2
lim ln
2
Bin
n
npqt
t inpt

    
 e essa é a distribuição normal, cuja função característica 
vale: 
 
2 2
2
t
i t
Normal t e




. Note que, nesse caso, só existem dois cumulantes, pois 
 
2 2
ln
2
Normal
t
t i t
    
, 
1c 
 e 
2
2c 
, todos os outros são nulos. Os momentos centrados 
são dados pela função geradora: 
     
 
2 2 2 2
2 2
2 2 2
22 2
0 0 0
1 1 2 !2
! 2 ! 2 ! 2 !
k
k kk kt t k
i t
i t k
k k
k k k
t
k t
e e e t
k k k k
 

    
  
 
 
       . 
Percebe-se que não existem momentos ímpares e que os pares valem 
 
 
 
 
2 2
2
2 2
0 0
1
2 ! 2 !
k k
k k
k k
k k
t t
i m m
k k
 
 
  
. Comparando extraímos   2
2
2 !
2 !
k
k k
k
m
k

. Podemos 
reescrever esse resultado em termos dos fatoriasi duplos 
  !! 2 4z z z z  
. Notando que 
        2 !! 2 2 2 2 4 2 2 2 2 1 2 1 2 !kk k k k k k k k          
 e, além disso, que: 
            2 ! 2 2 1 2 2 2 3 2 1 2 2 2 2 2 1 2 3 1k k k k k k k k k              
 
logo
     2 ! 2 !! 2 1 !!k k k 
, substituindo    
 
2
2
2 !! 2 1 !!
2 !!
k
k
k k
m
k

 chegamos na expressão mais 
simples 
  22 2 1 !!
k
km k  
. Então vemos que 
2
2m 
; 
  4 44 3 !! 3m   
; 
  6 66 5 !! 15m   
 
e assim por diante. 
Falta a função densidade de probabilidade: 
 
2 2
2
1
2
t
i t
itzf z e e dt






 
 . O truque aqui é completar 
quadrado no expoente  
     
2 22
22 2 2 2
2 4 4
2
2
2 2
z z z
t i tt t
i t itz it z
e e e
       
   
    
       
 , obtendo 
 
2 222 2
22 222
z zt t ii t itz
e e e
    
  
     
  . Substituindo de volta na integral temos: 
 
     
2 2 2
22
2 2 2
22
2 2 2
22
2 2 2 2
z z z
z
t i
ue t e ef z e d e du
          
  
    
    
 
 
   
 
 
 
Finalmente obtemos a função densidade de probabilidade da distribuição Normal: 
 
 
2
22
; ,
2
x
e
N x


 
 



 
A Normal Padrão tem esperança nula e variância unitária dada por 
 
2
2
2
x
e
NP x



 . A Normal padrão 
cumulativa é definida como 
 
2
2
1
2
x t
x e dt



  
. Note que é sempre possível escrever o resultado 
de uma normal cumulativa em termos da 
 x
 por uma mudança de variável. Se queremos a função 
distribuição de probabilidade cumulativa de uma normal com  e , ou seja: 
 
   
2 2
2 22 2
1 1
2 2
x xx x
Normal
x
F x e dx e d
 
    
 
 
 
 
   
 
 
 a mudança de variável 
x
t




 nos leva 
a 
 
  2
2
1
2
x t
Normal
x
F x e dt
  




 
   
 

. Por isso as tabelas da normal são sempre feitas para a 
normal padrão usando como argumento o desvio da esperança medido em desvios padrão 
x
z




. 
Distribuição Log-Normal. 
A distribuição Log-Normal é obtida da Normal através da mudança de variável 
x
y e
. A regra ára 
mudança de variável é dada por 1[ ( )]
( )
f g y
f y
dy
dx


, com a somatória sobre todos os x’s possíveis 
para as raízes da equação 
( )g x y
, ou, 
1( )x g y
. Neste caso a função é biunívoca e só existe uma 
raiz dada por 
lnx y
, 
[0, )y 
. Vamos precisar da derivada 
xdy
e y
dx
 
. Logo: 
2
2
(ln )
2
2[ ; , ]
2



y
e
LogN y
y


 
 
 
A log-Normal como uma aproximação da normal: 
Vamos reescrever a log-normal como 
 
2
2
2 2
ln
ln ln
2 2
2 2
  
      
  
oo
y
yy y
e e
LogN
y y
 
   
 , 
0oy 
, e ver o que 
acontece para 
oy y y 
 com 
oy y 
. 
Neste caso 
 ln ln ln 1 ln ln 1o o o
o o
y y
y y y y y
y y
                
    
 e o termo no expoente é 
aproximado por 
(ln ln ) ln 1
 
    
 
o
o o
y y
y y
y y
 . No denominador simplesmente fazemos 
oy y
 e 
vemos que 
2
2 22
2


o
y
y
o
e
LogN
y


 
 é uma normal da variável 
o
y
y

. Se fizermos 
log
N
N
oy

 
teremos 
duas curvas muito semelhantes no caso em que 
N 
. Note que se 
0y
 o 
ln y
anulando 
a função. Grandes diferenças, portanto, entre a normal e a log-normal ocorrerão quando a 
probabilidade de valores de x negativos na normal forem grandes. A figura xx mostra esse 
comportamento: 
 
Figura xxx. Normal com 
100o ox y 
. (a) 
10N 
 e 
log 0,1N 
; (b) 
20N 
 e 
log 0,2N 
;(c) 
40N 
 e 
log 0,4N 
. 
 
Tanto a função geradora dos momentos quanto a função característica apresentam problemas de 
convergência, mas podemos calcular os momentos da Log-Normal 
2
2
(ln )
2
0 2



 
y
n
n
e dy
M y
y


 
 mudando a 
variável de integração para 
ln y x
, 
x
y e
, 
dy
dx
y

, quando 
0 y x
 e quando 
 y x
. Nesse caso: 2
2
( )
2
1
2



 
x
nx
nM e e dx


 
. O truque aqui é completar quadrado 
no expoente: 2 2 2 2 2 2 2 2 2 2 2 2 22 2 2 2( ) ( ) 2 2 2 2( ) ( ) ( )2 2 2 2                 
x x nx x x nx x n x n n
nx
e e e e e
                
continuando 2 2 2 2 2 2 4 2 2 2222 2 2( ) ( ) ( 2 ) ( )2 2 22           
x x x n n n x x n
n n
nx
e e e e e
           . Daí vemos que 
2 22
2
2
( )
22
1
2
 


 
  
  

x x n
n n
nM e e dx
  
 
. A integral entre colchetes vale 1 e temos todos os 
momentos de ordem n dados por 22
2


n n
nM e

 . Em particular temos 
0 1M
; 2
2
1

M e

 ; 
22 2
2
M e  
; 293
2
3

M e
  e 
24 8
4
M e  
. Podemos calcular os momentos centrados usando 
binômio de Newton 
 
0
1
n
n k n k
n k
k
n
m M
k
 

 
  
 

 . Já sabemos que 
1om
 e 
1 0m
. Para a 
variância m2 temos: 
2
2 2 1 m M M
 logo 
2 2 2 22 2 2 2
2 ( 1)
     m e e e e      
, 
2 22[ ] ( 1) V y e e  
 e 2 2
2[ ] ( 1)

 V y e e
 . Para o momento centrado de ordem 3 temos 
3
3 3 1 2 13 2  m M M M M
 de onde extraímos que 
2 2 2 2 2 2
2
9 1 3 9 5 3
3 3 3 3 3
2 22 2 2 2 2 2
3 3 2 3 2
     
     m e e e e e e e
            e 
2
2 2
3
3
32
3 3 2

   
 
m e e e
   
. Fatorando o termo entre colchetes ainda chegamos a 
2
2 2
3 23
2
3 1 2

     
   
m e e e
   
. A Skewness será dada por: 
 
 
2
2
2 2 2
2
2
3 23
2
3
3 3 33
3
22
1
2 1 2
( ) 1


 
          
   
 
 
e em
e e e
V y e e
  
  
  
 . 
 
Para o momento de ordem 4 
2 4
4 4 1 3 1 2 14 6 3   m M M M M M M
 teremos: 
2
2
2 2 2 2 2 2 2 2
9
3
4 8 2 2 2 4 2 4 8 4 5 4 3 4 22 2
4 4 6 3 4 6 3
 
              m e e e e e e e e e e
                  
Que pode ser simplificado para 
2 2 2 24 2 6 3
4 4 6 3
     
 
m e e e e
    
 e fatorando o termo:
2 2 2 2 2 2 2 2 2 2 2 2 226 3 5 4 3 2 4 3 24 6 3 1 3 3 3 1 2 3 3                       
         
e e e e e e e e e e e e e            
obtemos, finalmente: 
2 2 2 2 224 2 4 3 2
4 1 2 3 3
        
   
m e e e e e     
. 
Agora 
 
2 2
2 2 2 2 2 2
2 2
2
4 2
4 3 2 4 3 24
4 4 2
4 2
1
2 3 3 2 3 3
( ) 1


 
             
    
 
e em
e e e e e e
V y e e
  
     
  
 
que leva à curtose 
2 2 24 3 22 3 6    
 
k e e e
  
. Como 
1 2 3 6  
 percebe-se que 
0k
 sempre, 
com a igualdade valendo apenas se 
2 0 
. 
 
Distribuição Gama: 
Função gama: Vamos calcular a seguinte integral: 
 
0
z tI z t e dt

 
 . Fazendo por partes 
b b
b
a
a a
udv uv vdu  
 com 
zu t
; 
1zdu z t dt
, 
tdv e dt
 e 
tv e
, temos que: 
  1
0
0 0
z t z t z tI z t e dt t e z t e dt
 

       
. 
Mas 
0
0z tt e

 
, pelo 
zt
 em 
0t 
 e pelo 
te
 em 
t 
 , então 
  1
0
z tI z z t e dt

  
, o que nos leva à 
relação de recorrência 
   1I z z I z 
. Aplicando essa relação várias vezes temos que 
            1 1 2 1 2 1 0I z z I z z z I z z z z I z          
. Pela definição de 
 I z
 temos que 
 
0
0
0 1t tI e dt e


    
, portanto 
  !I z z
. 
A identidade acima foi mostrada apenas para Z inteiro positivo, mas dado que a integralexiste ela pode 
ser utilizada para generalizar a função fatorial para reais e até mesmo complexos, com a única condição 
de que a integral convirja. Assim: 
0
! z tz t e dt

 
. Essa integral não apresenta problemas para 
t
por 
conta do 
te
 mas pode ter problemas para 
0t
 se 
0z 
. A integral converge se 
0
x
zt dt
 existe. Para 
1z  
 a integral 1
0 0
1
x z
z
t
t
t dt
z




 existe se 
1 0z  
, ou seja, 
1z  
. 
A função gama é definida por: 
  1
0
z tz t e dt

   
, com 
Re 0Z 
. A relação com a função fatorial é 
dada por 
   1 !z z  
 e 
 ! 1z z  
. Formas equivalentes: vamos mudar a variável para 
2t x
 e 
2dt xdx
 então 
   
212
0
2
z
xz x e xdx


  
, finalmente 
 
22 1
0
2 z xz x e dx

   
 e 
22 1
0
! 2 z xz x e dx

  
. Fazendo 
1
2
z 
 vemos que 
2 2
0
1
2
2
x xe dx e dx
 
 

 
   
 
 
 de onde extraímos 
que 
1
2

 
  
 
 e que 
 1 !2  
. 
A distribuição gama é dada por: 
 
 
 
 
1
; ,
ox x
o
gama o o
x x e
f x x H x x
 
   



  

 
Vamos mostrar que a área sobre a curva vale sempre 1. 
 
   
 
 
1
1
0
1 1
1
o
o
x x
to
gama
x
x x x
f x dx e d t e dt
      
   
 

   
      
     
  
 
 
Casos particulares: 
1. 
1 
 então 
     exp ; ;1,
ox x
onencial o gama o o
e
f x x f x x H x x
  


    
 
2. 
2
v 
 e 
2 
 então 
     
 
 2
1
22
2
; ; , 2
2
2
2
ox x
o
o gama o o
x x e
f x x f x x H x x


 



    

 
é a distribuição chi-quadrado [se pronuncia qui-quadrado]. 
 
FGM da distribuição gama: 
 
 
 
 
   
1 1
1
o oo
o
x x x xx t
x x txt o o o
o o
x x x x x xx e
M t e e H x x d e e H x x d
           
 
         
          
        
 
 
 
   
 
   
     
11 11 1
0 0 0
1
1 1
1
o o ox t x t x t
t u t utu ue e eM t e u e du u e du t u e d t u
t
                                 
 
 
 
 
 
   1
0
1 1
o ox t x t
ve eM t t v e dv t
    

      
 
 
   1ox tM t e t
  
 
Logo 
   1oix tt e i t
   
 
 
Esperança: 
     
1
1 1o o
x t x t
oM t x e t e t
          então  0 oM x   
. 
Se 
0 
 então 
ox  
 logo neste caso 
   1i tt e i t
   
 e 
   1
nn in tt e i t
   
 o que gera 
uma distribuição gama com 
 ; ,x n n   
. 
Cumulantes: 
   
   
1
1
1
ln ln ln 1o
k k k
ix t k
o
k
i
t e i t ix t t
k
   



 
     
, pela série do logarítmo 
 
 
1
1
1
ln 1
k
k
k
x x
k




 
, ou seja, 
 
1
!
ln
!
k k k
o
k
i k t
t ix t
k k
 


  
, finalmente: 
     
2
ln 1 !
!
k
k k
o
k
t
t i x t i k
k
  

     
 
Comparando com 
 
0
ln
!
k
k
k
k
t
t i c
k




, da definição dos cumulantes, vemos que 
1 oc x   
 e que 
 1 ! kkc k  
, de onde extraímos que 
2 2
2c   
, 
3
3 3 2c m  
e 
4
4 6c 
. Assim a curtose vale 
4
2 4
6 6
k

  
 
, positiva, logo leptocúrtica. Usando o fato de que 
4
4 4 3c m  
 vemos que 
4 2 4
46 3m   
 e extraímos 
  44 3 2m    
. 
 
Aditividade da distribuição gama: 
Sejam 
1 2, , , nx x x
 n v.a.´s independentes que seguem a distribuição gama de mesmo 

 mas com 
diferentes 
s
 e 
ox s

, ou seja, 
   ; ,i i oi if x Gama x x   
. Então a variável 
1 2 nz x x x   
 
também segue a distribuição com 
1 2o o o onx x x x   
 e 
1 2 n      
 e mesmo 

. Pelo 
teorema da convolução 
       1 21 21 1 1 no o onix t ix t ix tz t e i t e i t e i t
           logo 
     
 1 21 2 1
no o oni x x x t
z t e i t
           que é a função característica da distribuição gama. 
 
Convergência para a Normal: 
Se 
 
 podemos usar o truque do logarítmo para analisar o comportamento assimptótico da 
distribuição gama. Aplicando o logarítmo na função característica temos: 
   ln ln 1ot ix t i t       
, usando 2 3 4
ln(1 ) ...
2 3 4
x x x
x x
 
       
 
 com 
x i t
 obtemos, 
até segunda ordem,  2 2 2ln(1 )
2 2
i t
x i t i t t
        . Nesse caso temos então que 
   
2
2ln
2
ot i x t t
      
 ou 
 
 
2
2
2
oi x t t
t e


 

 que é a função característica de uma 
normal com 
ox  
 e 
2 2 
 . Logo para 
   2; , ; ,o oLim x x N x x        
. 
 
Distribuição Chi-quadrado: 
Na função Gama vamos fazer 
2

 
 e 
2 
. Nesse caso temos: 
2
v 
 e 
2 
 então 
 
 
 
 2
1
22
2
;
2
2
ox x
o
o o
x x e
f x x H x x

  



  

. 
 
Distribuições t-student e F. 
Agora suponha a variável 
2y x
 onde 
x
 segue uma normal 
 0,1N
. Então 
y
segue a distribuição 
2
 com 
   
21 22
1
2
y
yf y y e H y




. Agora a v.a. 
2 2 2 2
1 2 nS x x x   
 segue a 
distribuição Gama com 
 2f S 
nnnnnnnn 
Suponha que 
x
 segue uma normal 
 ,N  
 cuja função característica vale  
2 2
2
t
i t
x t e




 . 
Qual a distribuição de 
1 2 nz x x x   
 com x´s iid? A nova função característica será dada por 
 
 
2 22 2
2 2
n tt
in t n in t
x t e e
    logo z segue uma normal  ,N n n 
 . Agora vamos 
mudar a v.a. para a média 1
j
j
z
x x
n n
  
. Nesse caso 
 x z
z
f nf nx
n
 
 
 
, ou seja, 
 
 
 
2
2
2 2
2 2
1
2 2
nt
t n
in t n in t
inxt inxt
x
n
f x e e dt e e d nt

 
 
 
 
   
 
 
   
Chamando 
s nt
 temos que 
 
2
2
2
1
,
2
s
n
i s
ixs
xf x e e ds N
n

 
 
 
  


 
   
 
 
 
 
 
 Distribuição Beta: 
Podemos iniciar a distribuição Beta descobrindo quanto vale 
! !n m
. Usando a forma 
22 1
0
! 2 z xz x e dx

  
 podemos reescreever esse produto como: 
 
 2 22 22 1 2 1 2 1 2 1
0 0 0 0
! ! 4 4
x yn x m y n mn m x e dx y e dy e x y dxdy
   
          
. 
Vamos trocar para coordenadas polares 
cosx r 
, 
siny r 
, 
2 2 2x y r 
 e 
dxdy r dr d
. 
Temos que integrar apenas no primeiro quadrante, pois 
0 0x e y 
, logo 
0
2

 
 e 
0 r 
, 
logo: 
 
 2 2
2 2
2 1 12 1 2 1 2 1 2 1 2 1 2 1
0 0 0 0
! ! 4 cos sin 2 2 cos sin
n mr n m n m r n mn m e r r r dr d r e dr d
                       
    
   
 
Ou seja: 
 
2
2 1 2 1
0
! ! 1 !2 cos sinn mn m n m d

      
 
Fazendo 
2cost 
, 
2 21 1 cos sint      e 
2sin cosdt d   
 transformamos a integral 
acima em 
             
0 12
2 2
0 1 0
! ! 1 ! cos sin 2sin cos 1 ! 1 1 ! 1
n m m mn nn m n m d n m t t dt n m t t dt
                        
 
Então sabemos que: 
 
 
1
0
! !
1
1 !
mn n mt t dt
n m
 
 
 . 
A função Beta é definida como 
   
   
 
   
 
1
11
0
1 ! 1 !
, 1
1 !
mn
n m n m
B n m t t dt
n m n m

   
   
   
. 
A distribuição Beta, definida no intervalo 
0 1x 
 apenas, é dada por: 
 
 
 
   
11 1
; , 1
,
beta
x x
f x H x H x
B

   
 
 
 
FGM da Beta: 
 
 
 
 
 
1 1
1 11 1
00 0
1 1
1 1
, , !
k
xt k
beta
k
t
M t e x x dx x x x dx
B B k
     

  

    
 
 
 
 
 
 
1
11
0 00
,1
1
, ! , !
k k
k
beta
k k
B kt t
M t x x dx
B k B k
     
 
 
 

   
 
 
 
 0
,
, !
k
beta
k
B k t
M t
B k
 
 




 
Daqui extraímos que:  
 
,
,
k
B k
M
B
 
 


. Em termos dos fatoriais temos:
   
 
 
   
1 ! 1 ! 1 !
1 ! 1 ! 1 !
k
k
M
k
   
   
    

    
, ou seja,  
 
 
 
1 ! 1 !
1 ! 1 !
k
k
M
k
  
  
   

   
. 
 
1.  
 
 
 
1 ! 1 !
1
1 ! 1 !
oM
  
  
  
 
  
. 
2.  
 
 
 1
! 1 !
! 1 !
M
   
    
 
 
  
 então 


 


. 
3.  
 
 
 
 
  2
1 ! 1 ! 1
1 ! 1 ! 1
M
    
      
   
 
     
 então 
2 2
2M  
 será dado por 
 
      
 
   
2
2
2
1 1
1 1
               
  
    
         
 finalmente 
  
2
2
1

   

  
. 
4.  
 
 
 
  
   3
2 ! 1 ! 1 2
2 ! 1 ! 1 2
M
     
        
    
 
       
. 
5.  
 
 
 
   
    4
3 ! 1 ! 1 2 3
3 ! 1 ! 1 2 3
M
                               
. 
 
Distribuição Logística: 
 
1
;
1
ox x
F x
e 





 então  
1
2
1
; 1
1
o
o
o
x x
x x
x x
d e
f x e
dx
e






 



 
   
  
 
 
 
 
   ( ) tx tx tx
dF x
M t e dx e F x t e F x dx
dx
 


 
   
 
 
 
1
2 2
( )
1
1
o
o
o o
o
x x t
zx x
t
x t x to
x x z
ex xe
M t e e d e dz
e
e

 


   
 
 
 
 

 
  
 
 
  
lnz s
 
1
dz ds
s

 
 
   
1
ln
2 2
ln
0 0
1
( )
11
o o
t
s t
x t x t
s
e s
M t e ds e ds
s se



 

 

 
 
 1
t
s
t


 ; 
 
2
1
1
ds dt
t


, 
   
1
1 1
1 1
t
s
t t
   
 
 
 
 
 
   
1 1
1 11 1
2
0 0
2
1 1
( ) 1 1 ,1
1 1
1
o o o
t
t
tx t x t x tt
t
t
M t e dt e t t dt e B t t
t
t


          


  
 
Distribuição 
t
 de Student. 
Uma variável aleatória 
t
 de Student é dada por uma variável normal cuja variância é igual à recíproca 
de uma variável que segue uma distribuição gama. Se a variável 
x
segue uma normal com média nula 
mas variância 
2
1



 desconhecida então 
 
2
2
2
x
f x e




. A 

 segue uma distribuição 
gama com parâmetros 
 
 
 1
1
; ,gamaf e H

 
     



 , então x segue a distribuição: 
 
   
2
21 1 1
22 2 2
0 0
1 1 1 1
2 2
x
x
f x d e e d e
           
 
      
   
  
 
Ou seja, 
 
 
21 11 1
2 2 2 12 22 2
2
1
0 2
1
1 1 1
2 2 2 2
x
x x d x
f x e
    

 
     
    
       
  

     
        
      

, de 
modo que  
   
1 1
12 22 21
2
0
1
1 2
1 1
2 2 2 2
zx xf x z e dz
     
   
   
 

 
            
    

. Para
2
v 
 e 
2



 chegamos a distribuição t de Student dada por  
1
2 2
1
2
1
2
x
f x

 


 
      
    
 
. 
A distribuição t de Student não possui função geradora dos momentos mas possui função característica 
dada por  
   2
2
1
22
2
K t t
t



 

 

 
 
 
 onde 
 
2
K x
 é a função de Bessel modificada. Note entretanto 
que é uma função do módulo de 
t
, não diferenciável, e portanto não pode ser utilizada para cálculo dos 
momentos. 
 
Distribuição normal multivariada: 
Se as v.a.s correlacionadas seguem uma distribuição normal multivariada queremos mostrar que a 
função densidade de probabilidade conjunta é dada por: 
 
   11
2
i i ij j j
i j
x V x
f x Ae
   

 onde V é a matriz de variância-covariância. O fato de que se trata de 
uma matriz definida positiva garante que o expoente será sempre negativo e f caia a zero para grandes 
valores de x. Antes de mais nada precisamos encontrar a constante normalizadora A tal que 
   11
2
1 2 1
i i ij j j
i j
x V x
nAe dx dx dx
   

. Para realizar essa operação precisamos antes diagnolizar a 
matriz 
1V 
. Voltando à distribuição normal multivariada temos que a integral 
   11
2
1 2 1
i i ij j j
i j
x V x
nAe dx dx dx
   

 é complicada por causa dos termos cruzados envolvendo 
ix
 
e 
jx
. Então a idéia é diagonalizar e ficar apenas com termos contendo 
2
iz
. Para tanto vamos começar 
definindo 
i i iq x  
 e reescrever a integral como 11
2
1 2 1
i ij j
i j
q V q
nA e dq dq dq
 

. Agora notamos 
que temos 11
2
1 2 1
q V q
nA e dq dq dq


 e diagonalizamos a matriz V-1 no expoente com o seguinte 
truque: 
      1 11 1
2 2
1 2 1 2 1
q S S V S S q S q S V S S q
n nA e dq dq dq A e dq dq dq
       
  
. Agora mudamos 
para as variáveis giradas, 
z S q
, ou seja, 
i ij j
j
z S q
. Multiplicando pela inversa de S´ temos que 
q S z
, ou seja, 
i ij j
j
q S z
 de onde tiramos que 
i
ij
j
q
S
z



 e que a matriz Jacobiana J é a própria 
matriz S. Sabemos que 
 1 2 1 2detn ndq dq dq J dz dz dz
. Mas, nesse caso, como 
J S
 e 
 det 1S 
 então 
1 2 1 2n ndq dq dq dz dz dz
 e a integral fica na forma 
2 2
22 2
1 2 2 2 1
i i
ii i
z z
u
n i i i
i i i
A e dz dz dz A e dz A e du A
      
 

       
. Isso significa que 
  1 2
1
2
n
n
A
   

 onde 
isão os autovalores de V. Agora, usamos o fato de que a 
diagonalização de uma matriz preserva o determinante e que, portanto, 
  1 2det nV   
. Daí 
obtemos que 
 
1
2 det
n
A
V

. 
A distribuição Normal multivariada é dada por: 
 
   
 
   
 
1
1
1
1
2
2
2 det 2 det
i i ij j j
i j
x V x
x V x
n n
e e
f x
V V
   
 

     
  
 
Para achar a matriz de variância-covariância entre as variáveis x notamos que que as variáveis z´s são 
independentes, pois 
     ,i j i i j jf z z f z f z
, seguindo uma normal com esperança nula e variância 
i
, ou seja, 
  0iE z 
 e 
i j i ijE z z    
. A relação entre as variáveis z´s e as x´s originais é: 
i i ij j
j
x S z 
, de onde tiramos que 
 i i ij j i
j
E x S E z     
 e 
i i ij j
j
x S z 
, logo, 
  i i k k kl ij j l
j j
x x S S z z   
 então: 
  
1
i i k k kl ij j l kl ij jl j ij jk
j l j l jj
E x x S S E z z S S S S SDS V                  
. 
 
 
Geração de variáveis correlacionadas – método da decomposição de Cholesky. 
Sabemos que a matriz de variância-covariância V é simétrica e definida positiva. Toda matriz dessa 
forma pode ser decomposta em uma multiplicação de matrizes triangulares superior e inferior, ou seja, 
queremos escrever 
V  
 onde 
11
21 22
31 32 33
0 0
0

 
  
 
 
  
 
 
 
 é uma matriz triangular inferior e 
11 21 31
22 32
33
0
0 0
  
 

 
 
  
 
 
 
 é triangular superior. Sabemos que qualquer matriz dada por 
M AA
é 
simétrica pois 
 M AA A A AA M       
. Logo 

 é uma matriz simétrica. Agora note que 
2
11 11 21 31 11 11 21 11 31
2 2
21 22 22 32 11 21 21 22
31 32 33 33 11 31
0 0
0 0
0 0
        
       
     
   
   
     
   
     
    
. 
Percebe-se do processo que 
2
11 11 11 11V V   
 e 
12
11 21 12 21
11
V
V
V
    
 e 
13
11 31 13 31
11
V
V
V
    
 2 2 2
2 2 2 12 11 22 12 11 22 12
21 22 22 22 22 22
11 11 11
V V V V V V V
V V
V V V
           . O 
processo pode ser continuado, mas existem pacotes capazes de realizar a decomposição de Cholesky. 
Note que é necessário que V seja definida positiva para que as raízes sejam reais. 
Agora geramos n v.a.s independentes com esperança nula e variância unitária, i.e., 
  0iE x 
; 
i j ijE x x    
 e com essas variáveis construímos as variáveis z´s dadas por 
i ij j i
j
z x z  
 portanto 
   i ij j i i
j
E z E x E z z     
. Nesse caso 
    i i i i ij j
j
z E z z z x    
. Daí extraímos que 
 k k kl l
l
z z x  
 e 
  i i k k kl ij j l
l j
z z z z x x    
. Aplicando a esperança de ambos os 
lados: 
  i i k k kl ij j l kl ij jl ij kj ij jk
l j l j j j
E z z z z E x x V                           
Conseguimos então um conjunto de n v.a.s 
iz
com esperança e variância determinadas. 
Aspectos fundamentais dessa técnica são: (1) A matriz de partida tem que ser simétrica e definida 
positiva; (2) as variáveis independentes devem ter esperança nula e (3) variância igual a 1.

Outros materiais