Baixe o app para aproveitar ainda mais
Prévia do material em texto
Universidade Federal do Rio Grande do Norte Centro de Ciências Exatas e da Terra Departamento de Demografia e Ciências Atuariais EST-0122 – Inferência Aplicada às Ciências Atuariais– 2014.2 1. INTRODUÇÃO 1.1 - População e Amostra Definição 1.1.1 – Uma População Alvo é o conjunto da totalidade dos elementos que estão sendo estudados e desejamos obter informações a respeito. Exemplos: 1 – Estudo para avaliar a intenção de voto para prefeito na cidade de Natal-RN. A população alvo é o conjunto de todos os portadores de título de eleitor válido cujas zonas eleitorais estão localizadas na cidade de Natal. 2 – Estudo sobre a taxa de fecundidade de mulheres brasileiras nos últimos dois anos. A população alvo é o conjunto das mulheres brasileiras em idade fértil no período de interesse do estudo. Vamos nos referir a uma população genérica como sendo uma variável aleatória X, à qual está associada uma distribuição de probabilidade, discreta ou contínua. Muitas vezes é impraticável estudar a população como um todo, seja por questões de tempo, de recursos financeiros, por destruição da unidade observacional, etc. Em tais situações, torna-se necessário o estudo das variáveis de interesse através de um subconjunto da população, chamado de amostra. Preferencialmente, esta amostra deve ser escolhida por processo de aleatorização, gerando o que é chamado de amostra probabilística. O processo de induzir os resultados de amostra probabilística sobre a população é chamado de inferência, o que é objeto de nosso estudo. A inferência é, pois, o processo de indução dos resultados de uma amostra probabilística sobre a população, com risco calculado pela teoria da probabilidade. 1.2 – Amostra Aleatória Simples Definição 1.2.1 – Seja X uma população (variável aleatória) com função de distribuição de probabilidade (fp) ou função de densidade de probabilidade (fdp) fX(.) e função de distribuição acumulada FX(.). Uma amostra aleatória simples de tamanho n de X é uma coleção de variáveis aleatórias X1, X2, ..., Xn, tais que: (i) X1, X2, ..., Xn são independentes; (ii) ( ) ( ), iX X F t F t t= ∀= ∀= ∀= ∀ e i = 1,2,...,n Como consequência, se fXi(.) é a fdp de Xi, então: 1 21 2 1 2 1 2 1 ( , , , ) ( ). ( ). . ( ) ( ). ( ). . ( ) ( ) n n n X X X n X X X n X i i f x x x f x f x f x f x f x f x f x ==== = = == = == = == = = ∏∏∏∏� � � 1.3 – Estatística e parâmetro Definição 1.3.1 – Qualquer característico numérico de interesse na população é definido como parâmetro. Populações podem possuir características (forma, posição, assimetria) que podem ser identificadas por parâmetros (por exemplo, a média populacional, a mediana populacional, o desvio-padrão populacional, etc.) genericamente, vamos nos referir a um parâmetro θθθθ . Definição 1.3.2 – O conjunto Θ em que θθθθ toma valores é definido como espaço paramétrico. Exemplos: X ~ N(µ, σ2) ⇒⇒⇒⇒ θθθθ = (µ, σ2) e Θ = {(µ, σ2), -∞ < µ < ∞, σ > 0} X ~ B(1, p) ⇒⇒⇒⇒ θθθθ = p e Θ = {p, 0 < p < 1} X ~ Poisson(λ) ⇒⇒⇒⇒ θθθθ = λ e Θ = {λ, λ > 0} X ~ exp (α) ⇒⇒⇒⇒ θθθθ = α e Θ = {α, α > 0} Definição 1.3.3 – Qualquer função da amostra que não depende de nenhum parâmetro desconhecido é definida como uma estatística. Dada a amostra aleatória X1, X2, ..., Xn, algumas estatísticas são: (1) X(1) = min(X1, X2, ..., Xn); (2) X(n) = max(X1, X2, ..., Xn); (3) Xmed = med(X1, X2, ..., Xn); (4) 1 1 n i i X X n ==== ==== ∑∑∑∑ ; (5) 2 2 1 1 1 ( ) n i i S X X n ==== = −= −= −= − −−−− ∑∑∑∑ ; (6) 2 2 1 1 ( ) n i i S X X n ==== = −= −= −= −∑∑∑∑� 1.4 - Estimadores Definição 1.4.1 – Qualquer estatística que assuma valores no espaço paramétrico Θ pode ser assumido como um estimador de θθθθ . Um estimador de θ é denotado por ˆθθθθ . Obs. 1.4.1 – Uma estatística é uma variável aleatória e, consequentemente, seu valor depende de cada amostra. Em conclusão, ˆθθθθ é uma variável aleatória com uma distribuição de probabilidade a ela associada. Assim, é possível calcular E( ˆθθθθ ) e V( ˆθθθθ ). Obs. 1.4.2 – No contexto da Estatística Clássica, o parâmetro θθθθ não é uma variável aleatória, assumindo, pois, um valor fixo, embora desconhecido. Se a distribuição da população X depende de algum parâmetro θθθθ , podemos escrever: 1 2 1 ( , , , | ) ( | )n n X i i f x x x f xθ θθ θθ θθ θ ==== ==== ∏∏∏∏� O que significa que usamos a amostra 1 2( , , , )nx x x� para “aprender” sobre θθθθ . Definição 1.4.2 – A função 1 2( , , , | )nf x x x θθθθ� , encarada como função de θθθθ , dada a particular amostra 1 2( , , , )nx x x� , ou seja, a função 1 2 1 ( | , , , ) ( | )n n X i i L x x x f xθ θθ θθ θθ θ ==== ==== ∏∏∏∏� , é definida como função de verossimilhança. A função de verossimilhança tem um papel primordial no processo de inferência. 1.5 – Erro Quadrático Médio Definição 1.5.1 – A tendência de um estimador ˆθθθθ é definida como B( ˆθθθθ ) = E( ˆθθθθ ) – θ. Definição 1.5.2 – Um estimador ˆθθθθ é dito ser não tendencioso para θ, se E( ˆθθθθ ) = θ. Assim, se ˆθθθθ é um estimador não tendencioso, B( ˆθθθθ ) = 0. Definição 1.5.3 – O Erro Quadrático Médio (EQM) ou Mean Square Error (MSE), de um estimador ˆθθθθ é definido como EQM( ˆθθθθ ) = E( ˆθθθθ – θ)2 = V( ˆθθθθ )+B2( ˆθθθθ ). Portanto, se ˆθθθθ é um estimador não tendencioso, EQM( ˆθθθθ ) = V( ˆθθθθ ). A medida do Erro Quadrático Médio é fundamental na definição e comparação de estimadores. Preferencialmente, vamos preferir estimadores não-tendenciosos. Propriedades de 1 1 = = ∑ n i i X X n e 2 2 1 1 ( ) 1 = = − − ∑ n i i S X X n As duas estatísticas mais conhecidas e usadas são a média e a variância amostrais, sobre as quais temos algumas propriedades relevantes. Sejam 1 2, , , nX X X� uma a.a.s. de uma população X, com ( )E X µ= e 2( )V X σ= . a) Propriedades de X i. 1 1 1 1 1 1 1 1 1( ) ( ) n n n n i i i i i i i E X E X E X E X n n n n n n µ µ µ = = = = = = = = = = ∑ ∑ ∑ ∑ A média amostral é um estimador não-tendencioso da média populacional. Portanto, ( ) ( )EQM X V X= ii. 2 2 2 2 2 2 2 1 1 1 1 1 1 1 1 1( ) ( ) n n n n i i i i i i i V X V X V X V X n n n n n n n σ σ σ = = = = = = = = = = ∑ ∑ ∑ ∑ b) Propriedades de 2S Resultados importantes: i. 2 2 2 1 1 ( ) = = − = −∑ ∑ n n i i i i X X X nX ; ii. 2 2 2( )iE X σ µ= + ; iii. 2 2( )E X n σ µ= + 2 2 2 2 2 1 1 1 1 1 1( ) ( ) ( ) 1 1 1 n n n i i i i i i E S E X X E X X E X nX n n n = = = = − = − = − = − − − ∑ ∑ ∑ 2 2 2 2 2 2 1 1 1 1( ) ( ) ( ) 1 1 n n i i i E X nE X n n n n σ σ µ µ = = = − = + − + = − − ∑ ∑ 2 2 2 2 2 2 2 2 2 21 1 1( ) ( 1) 1 1 1 n n n n n n n n n n σ σ µ µ σ µ σ µ σ σ = + − + = + − − = − = − − − 2S é um estimador não-tendencioso de 2σ . Portanto 2 2( ) ( )EQM S V S= A variância de 2S tem expressões particulares, dependendo da distribuição da população X. Veremos, mais adiante, o caso particular em que 2~ ( , )X N µ σ . Exemplos de Aplicação Exemplo 1 - Sejam 1 2 3,X X e X uma a.a.s. de uma população X, com ( )E X θ= e ( ) 1V X = . Considere os estimadores: 1 1 23 1 1 1 ˆ 3 3 3 X X Xθ = + + e 2 1 2 3 1 1 1 ˆ 2 4 4 X X Xθ = + + Verifique se os estimadores são não-tendenciosos e calcules os respectivos EQM’s. Solução: Estimador 1ˆθ : Pelas propriedades da média amostral, já sabemos que X é um estimador não- tendencioso para a média populacional, com variância igual à variância populacional dividida por n. Assim, 1 1 1ˆ ˆ ˆ1( ) ( ) ( )3E e V EQMθ θ θ θ= = = Estimador 2ˆθ : 2 1 2 3 1 2 3 1 1 1 1 1 1 1 1 1 ˆ( ) ( ) ( ) ( ) 2 4 4 2 4 4 2 4 4 E E X X X E X E X E Xθ θ θ θ θ = + + = + + = + + = Então 2ˆθ é, também, um estimador não-tendencioso para θ . Portanto, 2 2 ˆ ˆ( ) ( )V EQMθ θ= 2 1 2 3 1 2 3 1 1 1 1 1 1 1 1 1 6 3 ˆ( ) ( ) ( ) ( ) 2 4 4 4 16 16 4 16 16 16 8 V V X X X V X V X V Xθ = + + = + + = + + = = Conclusão: Ambos os estimadores são não-tendenciosos, mas 1ˆ Xθ = é melhor que 2ˆθ , pelo critério do EQM, visto que 1 2ˆ ˆ( ) ( )V Vθ θ< . Exemplo 2 - Sejam 1 2, , , nX X X� uma a.a.s. de uma população X ~ B(1, θ). Usando o fato de que 1 ~ ( , ) n i i Y X B n θ = =∑ , analise os estimadores: 1ˆ YX n θ = = e 1 2ˆ nY n n θ + = + Solução: Estimador 1ˆθ : 1 1 (1 ) ˆ ˆ( ) ( ) ( ) ( ) ( )E E X e V V X EQM X n θ θθ θ θ −= = = = = Estimador 2ˆθ : 2 ( )2 2 2ˆ( ) n n nY E Y n E E n n n n n n θ θ + + + = = = + + + Assim, 2ˆθ é um estimador não tendencioso e, portanto, 2 2ˆ ˆ( ) ( )V EQMθ θ≠ , pelo que temos, ( ) 2 2 1 22 2ˆ ˆ( ) ( ) n n nn n B E n n n n n n θθ θ θ θ θ θ −+ − + = − = − = = + + + ( ) ( )2 22 ( ) (1 )2ˆ( ) nY V Y nV V n n n n n n θ θθ + − = = = + + + E, então, ( ) ( ) ( ) ( ) 2 2 2 2 22 2 2 1(1 ) 2ˆ ˆ ˆ( ) ( ) ( ) 4 nn nEQM V B n n n n n n θθ θθ θ θ − − = + = + = + + + Note que o 2ˆ( )EQM θ é independente de θ e, por isso, a comparação direta não é evidente, de modo a precisar qual dos dois estimadores é o melhor. Podemos analisar se há regiões do espaço paramétrico em que 1 2ˆ ˆ( ) ( )EQM EQMθ θ= . Assim, ( ) ( ) 2 2 2 21 2 (1 ) ˆ ˆ( ) ( ) 0 4 4 n nEQM EQM n n n n n θ θθ θ θ θ−= ⇒ = ⇒ − + = + + Esta equação de segundo grau tem discriminante ( ) 22 21 1 n n n nn n ∆ = − = − + + , fornecendo as raízes: 2 2 1 2 2 1 1 1 1 2 2 1 1 2 n n n n c n n n n n c θ + − + ± − = + = = − − + = Conclusão: Com base na figura acima, vemos que não há, entre os dois estimadores, um que seja uniformemente melhor que o outro. Entre os pontos c1 e c2, o estimador 2 ˆθ é melhor, enquanto que fora dessa região, o melhor estimador é 1ˆθ . Exemplo 3 - Sejam 1 2, , , nX X X� uma a.a.s. de uma população ~ (0, )X U θ . Considere os estimadores 1ˆ Xθ = e 2 ( )ˆ nXθ = . Analise os dois estimadores. Solução: Estimador 1ˆθ : 1ˆ( ) ( ) 2E E X θθ = = ⇒ estimador tendencioso com 1 1ˆ ˆ( ) ( )V EQMθ θ≠ 2 1 ˆ( ) ( ) (12 )V V X nθθ = = 1ˆ( ) ( ) 2B B X θθ θ= = − 22 2 2 2 1 (1 3 ) ˆ( ) 12 2 12 4 12 nEQM n n n θ θ θ θ θθ θ + = + − = + = Estimador 2ˆθ : Note que a fdp de 2 ( )ˆ nXθ = é dada por ( ) 1 ( | ) , 0 n n X n nxf x xθ θ θ − = < < Assim, 2 ( )ˆ( ) ( ) 1n nE E X n θ θ= = + e 2 2 ( ) 2 ˆ( ) ( ) ( 1) ( 2)n nV V X n n θθ = = + + Como vemos, 2 ( )ˆ nXθ = também é um estimador tendencioso, com 2 ˆ( ) 1 1 nB n n θθ θ θ −= − = + + e 2 2 2 2 2 2 2 ˆ( ) ( 1) ( 2) ( 1) ( 1)( 2) nEQM n n n n n θ θ θθ = + = + + + + + 1.6 - Distribuições Amostrais de Populações Normais A distribuição normal é uma das distribuições de probabilidade mais usadas na modelagem estatística. O Teorema Central do Limite é apenas uma das razões para o destaque dessa distribuição. Um outro aspecto importante é que, embora alguns dados não sigam uma distribuição normal, o uso de uma simples transformação os normalizam. Devemos considerar, também, a relativa facilidade na determinação de distribuições amostrais de estatísticas provenientes de amostras de populações normais. Vamos, então, explorar, com mais detalhes, as distribuições amostrais da média e da variância, quando tratamos com esse tipo de amostras. 1.6.1 – Propriedades da média e variância amostrais. Sejam 1 2, , , nX X X� uma a.a.s. de uma população X ~ N(µ, σ2), então: (a) 2 ~ ,X N n σσσσµµµµ Prova: Para mostrar este resultado, vamo fazer uso da função geradora de momentos (fgm) de X, que é dada por: 2 2 2( ) ( ) t ttX XM t E e e µ σµ σµ σµ σ++++ = == == == = e de suas propriedades. Assim, 1 1 1 1 ( ) ( ) n i i i i t tn nt X X XntX n n X i i M t E e E e E e E e==== = == == == = ∑∑∑∑ = = = = == = = = == = = = == = = = = ∏ ∏∏ ∏∏ ∏∏ ∏ (((( )))) (((( ))))2 2 2 22 2 2 22 2 1 ~ , n t t tt tn nn utu u nn n i e e e X N n σσσσ σ σσ σσ σσ σ σσσσµµµµ ++++ + ++ ++ ++ + ==== = = == = == = == = = ⇒⇒⇒⇒ ∏∏∏∏ Para melhor clareza das outras propriedades, introduzimos a seguinte: Motivação: Considere uma população Z ~ N(0, 1) e uma a.a.s. Z1 e Z2. Observe que não há perda de generalidade ao se trabalhar com a distribuição Z ~ N(0,1), pois, para uma população X ~ (µ, σ2), é suficiente tomar X = µ + σZ. Assim, a fdp conjunta de Z1 e Z2 é dada por: 2 2 2 2 1 2 1 2 1 2 1 1 1 2 2 2 1 2 1 2 1 1 1 22 2 ( )( , ) . , ,z z z zZ Zf z z e e e z zpipipipipi pipi pipi pipi pi − − − +− − − +− − − +− − − + = = − ∞ < < +∞= = − ∞ < < +∞= = − ∞ < < +∞= = − ∞ < < +∞ Considere, agora, a transformação 1 1 2 1 1 2 1 1 ( , ) 2 2 Y Z Z g z z= + = ⇒ 11 1 2 1 1 2 1 1 ( , ) 2 2 Z Y Y g y y−= + = 2 1 2 2 1 2 1 1 ( , ) 2 2 Y Z Z g z z= − = ...⇒ ... 12 1 2 2 1 2 1 1 ( , ) 2 2 Z Y Y g y y−= − = cujo Jacobiano é dado pelo determinante da matriz: 1 1 1 2 2 2 1 1 1 1 1 12 2 | | 1 || || 1 1 1 2 2 2 2 z z y y J J z z y y ∂ ∂ ∂ ∂ = ⇒ = − − = − ⇒ =∂ ∂ − ∂ ∂ Na forma matricial, podemos considerar a transformação linear do vetor Z’ = (Z1 , Z2) no vetor Y’ = (Y1 , Y2), através da matriz T, da seguinte forma: 1 1 1 1 2 2 2 2 1 1 2 2 1 1 2 2 Y Z t Z Y Z t Z = == == == = −−−− ou Y TZ==== Podemos observar que os vetores linha da matriz T são tais que 1 2 0 't t ==== , ou seja, são ortogonais. Neste caso, dizemos que a matriz T é uma matriz ortogonal, satisfazendo, assim, as seguintes importantes propriedades: i. 1 'T T−−−− ==== ii. 'T T I==== iii. O Jacobiano de 1Z T Y−−−−==== é igual a ±±±± 1. Assim, a fdp conjunta de Y1 e Y2 é obtida como: 1 2 1 2 1 1 1 1 1 2 1 1 2 2 1 2 1 1 2 2 1 2( , ) [ ( , ), ( , )] || ||, ( , ), ( , )Y Y Z Zf y y f g y y g y y J g y y g y y− − − −− − − −− − − −− − − −= − ∞ < < +∞=− ∞ < < +∞= − ∞ < < +∞= − ∞ < < +∞ Ou seja, 2 2 1 2 1 2 1 2 1 2 1 1 1 1 1 2 2 2 2 2 1 2 1 2 1 2 1 1 1 1 11 22 2 2 2 ( , ) , . y y y y Y Y Z Zf y y f y y y y epipipipi − + + −− + + −− + + −− + + − = + − = == + − = == + − = == + − = = = 2 2 2 2 1 2 1 2 1 1 1 2 2 2 1 2 1 1 1 2 2 2 ( ) . , , y y y y e e e y y pipipipi pi pipi pipi pipi pi − + − −− + − −− + − −− + − − = − ∞ < < +∞= − ∞ < < +∞= − ∞ < < +∞= − ∞ < < +∞ Portanto, Y1 e Y2 são independentes, estabelecendo a propriedade (iv) de uma transformação ortogonal: preserva independência das variáveis transformadas. Agora, considere, novamente, X1, X2, ... ,Xn a.a.s de uma população X ~ N(θ, σ2), Então: (b) 1 1 = = ∑ n i i X X n e 2 2 1 1 ( )( 1) == −− ∑ n i i S X X n são estatisticamente independentes. (c) 2 2 ( 1)2 ( 1) ~ − − = n n SQ χ σ . Prova, usando a motivação: Fazendo ( )−= ii XZ θ σ ⇒ Zi ~ N( 0, 1) Definamos 1 1 2 1 ( )= + + +… nY Z Z Z n , 2 1 2 1 ( ) 2 = −Y Z Z , 3 1 2 3 1 ( 2 ) 6 = + −Y Z Z Z , ....., 1 2 1 1 [ ( 1) ] ( 1) − = + + + − − − …n n nY Z Z Z n Z n n Esta transformação, conhecida como Transformação de Helmert, pode ser escrita como , Y = TZ, onde Tnxn é uma matriz ortogonal, com a seguinte forma: 1 1 1 1 1 1 0 0 2 2 1 1 2 '0 6 6 6 1 1 1 1 ( 1) ( 1) ( 1) ( 1) n n n n T T T I n n n n n n n n n − = ⇒ = − − − − − − � � � � Assim, temos que Yi ~ N(0, 1), de modo que Y1, Y2, ... ,Yn são variáveis normais padronizadas mutuamente independentes, com 2 2 2 2 2 2 1 1 1 1 1 ' ' ' ' ( ) ( ) = = = = = = = = = + − = + −∑ ∑ ∑ ∑ n n n n i i i i i i i i Y Y Y Z T TZ Z Z Z nZ Z Z Y Z Z Também, 2 2 1 2 ( ) = = = − =∑ ∑ n n i i i i Q Z Z Y ⇒ 2 2 2 21 1 1 2= = = + = +∑ ∑ n n i i i i Y Y Y Y Q Logo, como Y1 é independente de (Y2, Y3, ... ,Yn), temos que Y1 é independente de Q e como 1 1 1 1 1 ( ) ( ) n n i i i i X nY Z X n n= = − = = = −∑ ∑ θ θ σ σ ⇒ 1X Y n = + σ θ Como 2 2 1( )S Qn σσσσ ==== −−−− , concluímos que X e 2S são independentes. Além disso, como 2 2 2 2 2 (1) ( 1)2 2 ( 1) ~ ~ n i i n i n SY Q Y − = − ⇒ = =∑χ χ σ (d) ( 1)~ n X tS n µ − − A distribuição t acima, denominada t de Student, com n-1 graus de liberdade, pode ser obtida pela razão de duas variáveis aleatórias independentes, sendo o numerador a variável ( ) ~ (0,1)XZ N n µ σ − = e o denominador a variável ( 1) YW n = − , onde, no caso, 2 2 ( 1)n SY σ − = . Em resumo, a variável t representa a razão entre uma normal padrão e a raiz quadrada de uma qui-quadrado dividida pelos seus graus de liberdade, sendo as duas independentes. Lembrando que a fdp da variável t de Student, com k graus de liberdade é dada por: 1 1 22 2 1 1 12( ) , , 1 ( ) 12 kT k f t t kk tk k pi + + Γ = − ∞ < < +∞ ≥ Γ + Prova do caso geral: Sejam ~ (0,1)Z N e 2~ kY χ , independentes. Sejam 1( , )ZT g z tY k = = e 2 ( , )U Y g z t= = , 0t u⇒ −∞ < < +∞ > As funções inversas são: ( ) 11 ( , )uz t g t uk −= = e 12 ( , )y u g t u−= = E o Jacobiano, fica 11 2 1 12 2 2 1 2 1 | | 2 0 1 u u u utJ k k k k − = = = A densidade conjunta de Z e Y é expressa por: 21 2 1 22 2 , 1 1 1( , ) . , , 0 22 2 k k y z Z Yf z y e y e z ykpi − − − = −∞ < < +∞ > Γ Pela transformação, a densidade conjunta de T e U, é expressa por 1 1 2 2 1 1 , , 1 2 ,( , ) [ ( , ), ( , )] | | , .T U Z Y Z Y u uf t u f g t u g t u J f t uk k − − = = = = 2 1 1 2 21 2 2 21 1 1 . , , 0 22 2 k u k ut k ue u e t uk kpi − − − = −∞ < < +∞ > Γ Podemos, então, obter a densidade marginal de T, , 0 ( ) ( , )T T Uf t f t u du ∞ = ∫ 2 1 12 21 2 2 2 0 1 1 1 22 2 k u k ut k ue u e duk kpi ∞ − − − = = Γ ∫ 211 11 22 1 02 2 1 1 1 2 2 2 tk u k k u e duk kpi + ∞ − + − = = Γ ∫ 1 2 1 2 2 2 1 1 1 1 2 22 2 1 2 pi + + Γ = +Γ k k k tk k k 1 1 22 2 1 1 12 , ( ) 12 k k tk tk k pi + + Γ = − ∞ < < +∞ Γ + Lembrete: Distribuição Gama – X ~ Γ(α, β) 11( ) , 0 ( ) x Xf x x e xα βαα β − − = > Γ Propriedade da variância amostral, considerando duas populações normais independentes. Sejam 1, 2 , ,� mW W W uma a.a.s. de uma população 2~ ( , )W WW N µ σ e 1, 2 , ,� nU U U uma a.a.s. de uma população 2~ ( , )U UU N µ σ , com W e U independentes. Considere as variâncias amostrais: 2 2 1 1 ( ) 1 m W i i S W W m = = − − ∑ e 2 2 1 1 ( ) 1 m U i i S U U n = = − − ∑ Então, 2 2 2 ( 1, 1) 2 ~ σ σ − − W W m n U U S FS , ou seja, a razão entre duas distribuições de qui-quadrado independentes, gera uma distribuição F de Snedecor, no caso, com (m-1) graus de liberdade no numerador e (n-1) graus de liberdade no denominador, lembrando que a fdp de uma densidade F, com m e n graus de liberdade, é dada por: 1 22 2 2( ) , 0, , 1 12 2 mm m nF m n m ff f f m n m n n mf n − + + Γ = > ≥ Γ Γ + Prova do caso geral: Sejam 2~ m X χ e 2~ n Y χ , independentes. Sejam 1( , ) X mF g x yY n = = e 2 ( , )U Y g x y= = 0, 0f u⇒ > > As funções inversas são: 11 ( , ) m x fu g f u n − = = e 12 ( , )u y g f u−= = E o Jacobiano fica | | 0 1 m m u f m mJ u un n n n = = = A densidade conjunta de X e Y é expressa como: ( )1 1 2 2 2 , 2 1( , ) , 0, 0 2 2 2 m n x y X Y m nf x y x y e x ym n + − − − + = > > Γ Γ Pela transformação, a densidade conjunta de F e U é expressa como: 1 1 , , 1 2 ,( , ) [ ( , ), ( , )] | | , .F U X Y X Y m mf f u f g f u g f u J f fu u u n n − − = = = 11 12 1 ( 2) 2 2 2 2 1 . 2 2 2 mm u f m n m n m n m mf u e u m n n n − + − − + − − + = = Γ Γ 1( )2 1 1 2 2 2 2 1 , 0, 0 2 2 2 mm u f m m n n m n m f u e f u m n n − + + − − − + = > > Γ Γ Podemos, então, obter a densidade marginal de F, 1( )2 1 1 2 2 2 , 0 02 1( ) ( , ) 2 2 2 − + +∞ ∞ − − − + = = = Γ Γ ∫ ∫ mm u f m m n n F F U m n mf f f f u du f u e du m n n 2 2 1 2 2 1 2 22 1 2 2 + − + + = Γ = Γ Γ + m n m m m n m m nf m n mn f n 1 22 1( ) 2 2 , 0 12 2 − + + Γ > Γ Γ + mm m n m n m f f m n n m f n Para fechar os resultados discutidos acima, observamos que, simbolicamente, com independência entre numerador e denominador: ( )2 (0,1) ~ n n N t n χ , 2 ( ) ( , )2 ( ) ~ m m n n m F n χ χ ( , ) ( , ) 1 m n n m F F = Além disso, vale a pena relembrar que, se 2~ ( , ),i i iX N µ σ i=1,2,...,n , independentes, então; 2 1 1 1 ~ , n n n i i i i i i X N µ σ = = = ∑ ∑ ∑ Analogamente, se 2 21 ( ) 2 ( )~ ~m nX e Xχ χ , independentes, então, 21 2 ( )( ) ~ m nX X χ ++ Lembrete: Distribuição Gama – X ~ Γ(α, β) 11( ) , 0 ( ) x Xf x x e xα βαα β − − = > Γ
Compartilhar