Baixe o app para aproveitar ainda mais
Prévia do material em texto
2013 ME-310. PROBABILIDADE II CÁPITULO 2: Modelos absolutamente contínuos. Mauro S. de F. Marques msdfm – p. 1/125 Recordando a definição dada no Capítulo 2, dizemos que uma função de distribuição FX (ou uma variável aleatória X) é absolutamente contínua se FX pode ser escrita na forma: FX(x) = ∫ x −∞ fX(y)dy, para alguma função não negativa fX : R 7→ R. Um tal função fX é chamada func¸a˜o densidade de probabilidade. msdfm – p. 2/125 Os seguinte fatos são importantes: 1) 1 = FX(+∞) = lim x→∞ ∫ x −∞ fX(y)dy = ∫ ∞ −∞ fX(y)dy. 2) FX não muda se fX(x) é modificada em um número finito (ou mesmo contável) de pontos x. Portanto, uma função densidade de probabilidade não é única. msdfm – p. 3/125 3) Como P (a < X ≤ b) = FX(b)− FX(a) temos P (a < X ≤ b) = ∫ b −∞ fX(x)dx− ∫ a −∞ fX(x)dx = ∫ b a fX(x)dx, isto é, a probabilidade dos valores de X pertencerem a um intervalo (a, b] é dada pela área de {(x, y) : a < x ≤ b, 0 < y ≤ fX(x)}. 4)Se I é um intervalo qualquer P (X ∈ I) = ∫ I fX(x)dx msdfm– p. 4/125 5.Se FX(x) é derivável em x, então, pelo Terema Fundamental do Cálculo, dFX(x) dx = fX(x). No caso de uma variável aleatória absolutamente contínua, a função de distribuição é totalmente caracterizada pela função densidade de probabilidade fX . X←→ FX ←→ fX msdfm – p. 5/125 Distribuição Uniforme em (a,b) (X ∼ U(a, b)). Dizemos que uma variável aleatóriaX tem distribuição uniforme em (a, b], −∞ < a < b < +∞, se FX(x) = 0 se x < a x−a b−a se a ≤ x < b 1 se x ≥ b Como FX é diferenciável, exceto para nos pontos a e b, temos fX(x) = 1 b− a1(a,b](x). msdfm – p. 6/125 UNIFORMES (−2, 2); (−1, 2); (0, 1) e (0, 2.5) x f x -3 -2 -1 0 1 2 3 0 . 0 0 . 0 5 0 . 1 0 0 . 1 5 0 . 2 0 0 . 2 5 U(-2,2) x f x -3 -2 -1 0 1 2 3 0 . 0 0 . 1 0 . 2 0 . 3 U(-1,2) x f x -3 -2 -1 0 1 2 3 0 . 0 0 . 2 0 . 4 0 . 6 0 . 8 1 . 0 U(0,1) x f x -3 -2 -1 0 1 2 3 0 . 0 0 . 1 0 . 2 0 . 3 0 . 4 U(0,2.5) msdfm– p. 7/125 Observac¸o˜es: 1. Note que fX(x) é simétrica em torno de a+b2 , isto é fX (a+ b 2 − x ) = fX (a+ b 2 + x ) , ∀x. Logo, como X é limitada, E(X) existe e E(X) = a+ b 2 . 2. Quanto maior a diferença (b− a) maior a dispersão de fX . msdfm – p. 8/125 Segue trivialmente que E(X) = ∫ +∞ −∞ xfX(x)dx = ∫ b a x 1 b− adx = a+ b 2 E(X2) = ∫ +∞ −∞ x2fX(x)dx = ∫ b a x2 1 b− adx = b3 − a3 3(b− a) . V ar(X) = E(X2)−(E(X))2 = b 3 − a3 3(b− a)− (a+ b 2 )2 = (b− a)2 12 . msdfm – p. 9/125 Proposic¸a˜o 1. U ∼ U(0, 1) =⇒ X = (b− a)U + a ∼ U(a, b), a < b. X ∼ U(a, b) =⇒ U = X − a b− a ∼ U(0, 1). Demonstrac¸a˜o: Sabemos que no caso absolutamente contínuo, para α 6= 0, fαW+β(v) = 1 |α|fW (v − β α ) . Portanto fX(x) = f(b−a)U+a(x) = 1 b− afU (x− a b− a ) = 1 b− a1(0,1] (x− a b− a ) = 1 b− a1(a,b](x). fU (u) = f 1 b−a X+ a b−a (u) = 1 1 b−a fX (u− b b−a 1 b−a ) = (b−a) 1 b− a1(a,b]((b−a)u−b) = 1(0,1](u). c.q.d msdfm – p. 10/125 Proposic¸a˜o 2. Seja F uma func¸a˜o de distribuic¸a˜o de probabilidade invertı´vel. Se U ∼ U(0, 1), enta˜o X = F−1(U) ∼ F, isto e´, FX = F . Demonstrac¸a˜o: Seja x ∈ R. Então. FX(x) = P (X ≤ x) = P (F−1(U) ≤ x) = P (F (F−1(U)) ≤ F (x)) = P (U ≤ F (x)) = FU(F (x)) = F (x), dado que 0 ≤ F (x) ≤ 1. c.q.d msdfm – p. 11/125 Proposic¸a˜o 3. Seja F uma func¸a˜o de distribuic¸a˜o de probabilidade invertı´vel. Se X ∼ F , enta˜o Y = F (X) ∼ U(0, 1). Demonstrac¸a˜o: Seja y ∈ R. Então FY (y) = P (Y ≤ y) = P (F (X) ≤ y) = = 0 se y < 0 P (F−1(F (X)) ≤ F−1(y)) = P (X ≤ F−1(y)) = F (F−1(y)) = y se 0 ≤ y < 1 1 se y ≥ 1 = 0 se y < 0 y se 0 ≤ y < 1 1 se y ≥ 1 c.q.d msdfm – p. 12/125 Distribuição Exponêncial com parâmetro λ > 0 (X ∼ Exp(λ)). Dizemos que a variável aleatória X tem distribuição exponêncial com parâmetro λ > 0 se FX(x) = { 0 se x < 0 1− e−λx se x ≥ 0 Exceto no ponto 0, FX é diferenciável, logo fX(x) = λe −λx1[0,∞)(x). msdfm – p. 13/125 Densidades exponênciais λ = 0, 5, 1, 2. x f x 0.0 0.5 1.0 1.5 2.0 2.5 3.0 0 . 1 0 . 2 0 . 3 0 . 4 0 . 5 Exp(0.5) x f x 0.0 0.5 1.0 1.5 2.0 2.5 3.0 0 . 2 0 . 4 0 . 6 0 . 8 1 . 0 Exp(1) x f x 0.0 0.5 1.0 1.5 2.0 2.5 3.0 0 . 0 0 . 5 1 . 0 1 . 5 2 . 0 Exp(2) x f x 0.0 0.5 1.0 1.5 2.0 2.5 3.0 0 . 0 0 . 5 1 . 0 1 . 5 2 . 0 Exp(1) e Exp(2) msdfm – p. 14/125 Observac¸o˜es: 1. O max x fX(x) = λ é atingido em x = 0. 3. λ "grande" concentra maior massa de probabilidade próximo a 0; λ "pequeno" espalha massa de probabilidade. 4. fX tende a 0 mais rapidamente quando x cresce para λ grande. dfX(x) dx = −λ2e−λx. msdfm – p. 15/125 Proposic¸a˜o 4. X ∼ Exp(λ)) =⇒ Y = λX ∼ Exp(1). Y ∼ Exp(1) =⇒ X = Y λ ∼ Exp(λ).) Demonstrac¸a˜o: Exercício. c.q.d msdfm – p. 16/125 Para X ∼ Exp(λ) temos: E(X) = ∫ +∞ −∞ xfX(x)dx = ∫ ∞ 0 xλe−λxdx u=x, dv=e−λxdx = λ ( x ( − 1 λ e−λx )∣∣∣∞ 0 − ∫ ∞ 0 ( − 1 λ e−λx ) dx ) = ∫ ∞ 0 e−λxdx = 1 λ . e E(X2) = ∫ +∞ −∞ x2fX(x)dx = ∫ ∞ 0 x2λe−λxdx exerc´icio= 2 λ2 . Logo V ar(X) = E(X2)− (E(X))2 = 2 λ2 − 1 λ2 = 1 λ2 . msdfm – p. 17/125 Falta de memória Teorema 1. Seja X uma varia´vel aleato´ria abslutamente contı´nua e na˜o negativos. Enta˜o X tem distribuic¸a˜o exponencial se e somente se X na˜o tem memo´ria,isto e´ P (X > x+ t ∣∣X ≥ t) = P (X > x), ∀x ≥ 0, t ≥ 0. Demonstrac¸a˜o: Fato: Seja E : [0,∞) 7→ R. Então, E(x+ t) = E(x)× E(t)⇐⇒ E(x) = exp(ax) = eax, a ∈ R. msdfm – p. 18/125 Inicialmente vamos assumir a falta de memória. P (X > x+ t ∣∣X ≥ t) = P (X > x)⇒ P ([X > x+ t] ∩ [X > t]) P (X > t) = P (X > x)⇒ P (X > x+ t) P (X > t) = P (X > x)⇒ P (X > x+ t) = P (X > x)P (X > t). Logo, P (X > x) = eax Como P (X > x) é decrescente, devemos ter a = −λ com λ > 0. Assim, para x > 0, FX(x) = 1− P (X > x) = 1− e−λx, Mostrando que X ∼ Exp(λ). msdfm – p. 19/125 A recíproca é trivial! Assumindo X ∼ Exp(λ), temos P (X > x+ t ∣∣X ≥ t) = P (X > x+ t) P (X > t) = e−λ(x+t) e−λt = e−λx = P (X > x). c.q.d msdfm – p. 20/125 Distribuição de Normal (ou Gaussiana) com parâmetros µ e σ2 (X ∼ N(µ, σ2)) Dizemos que a variável aleatória X tem distribuic¸a˜o de Normal (ou Gaussiana) com paraˆmetros µ ∈ R e σ2 > 0 se FX(x) = ∫ x −∞ 1√ 2πσ exp ( − 1 2 (u− µ σ )2) du FX é trivialmente diferenciável, logo fX(x) = 1√ 2πσ exp ( − 1 2 (x− µ σ )2) . msdfm – p. 21/125 Densidades Normais -3 -2 -1 0 1 2 3 0 . 0 0 . 1 0 . 2 0 . 3 0 . 4 N(0,1) -3 -2 -1 0 1 2 3 0 . 0 0 . 1 0 . 2 0 . 3 0 . 4 0 . 5 NORMAIS MEDIA=0, VARIANCIAS=0,8,1,0 e 1,2 -3 -2 -1 0 1 2 3 0 . 0 0 . 1 0 . 2 0 . 3 0 . 4 NORMAIS MEDIA=-1,5,0,1,5 VARIANCIAS=1 msdfm– p. 22/125 Observac¸o˜es: 1. Note que fX(x) é simétrica em torno de µ, isto é fX(µ− x) = fX(µ+ x), ∀x. Logo, se E(X) existe, então E(X) = µ. 2. maxx fX(x) = 1√ 2πσ é atingido em x = µ. 3. σ "pequeno"concentra maior massa de probabilidade em torno de µ; σ "grande"espalha massa de probabilidade. Logo σ2 mede dispersão. 4. fX tem pontos de inflexão (mudança de concavidade) a direita ea esquerda de µ. Exercı´cio: Encontre estes pontos. msdfm – p. 23/125 É interessante mostrar que fX(x) = 1√ 2πσ exp ( − 1 2 (x− µ σ )2) . realmente define um função densidade de probabilidade, isto é fX(x) ≥ 0 e ∫ +∞ −∞ fX(x)dx = 1, ∀µ ∈ R, ∀σ2 > 0. De fato: Claramente fX(x) ≥ 0. msdfm – p. 24/125 Para mostrar que∫ +∞ −∞ 1√ 2πσ e− 1 2 ( x−µ σ )2 dx = 1, considere a mudança de variável z = x−µσ .∫ +∞ −∞ 1√ 2πσ e− 1 2 ( x−µ σ )2 dx z=x−µ σ= ∫ +∞ −∞ 1√ 2πσ e− 1 2 z2σdz = ∫ +∞ −∞ 1√ 2π e− 1 2 z2dz. msdfm – p. 25/125 Seja I = ∫ +∞ −∞ exp (− 1 2 z2 ) dz (> 0). I2 = I × I = ∫ +∞ −∞ exp (− 1 2 z21 ) dz1 ∫ +∞ −∞ exp (− 1 2 z22 ) dz2 = ∫ +∞ −∞ ∫ +∞ −∞ exp (− 1 2 z21 ) exp (− 1 2 z22 ) dz1dz2 = ∫ +∞ −∞ ∫ +∞ −∞ exp (− 1 2 (z21+z 2 2) ) dz1dz2. Fazendo a transformação em coordenadas polares z1 = r sin(θ) e z2 = r cos(θ), temos I2 = ∫ +∞ 0 ∫ 2π 0 exp (− 1 2 (r2) ) rdθdr = ∫ 2π 0 dθ ∫ +∞ 0 r exp (− 1 2 (r2) ) dr = 2π. =⇒ I = √ 2π. msdfm – p. 26/125 Logo, como I = √ 2π temos∫ +∞ −∞ 1√ 2πσ exp ( −1 2 (x− µ σ )2) dx = ∫ +∞ −∞ 1√ 2π exp (−1 2 z2 ) dz = 1√ 2π ∫ +∞ −∞ exp (− 1 2 z2 ) dz = 1√ 2π × I = 1√ 2π × √ 2π = 1. Isso mostra que fX(x) = 1√ 2πσ exp ( − 1 2 (x− µ σ )2) . é uma função densidade de probabilidade para todo µ ∈ R e σ2 > 0. msdfm – p. 27/125 Proposic¸a˜o 5. X ∼ N(µ, σ2) =⇒ Z = X − µ σ ∼ N(0, 1). Z ∼ N(0, 1) =⇒ X = σZ + µ ∼ N(µ, σ2) Demonstrac¸a˜o: Exercício. c.q.d msdfm – p. 28/125 Observac¸o˜es: 1.A Proposição acima permite que cálculos de probabilidades envolvendoN(µ, σ2) sejam feitos apenas para o casoN(0, 1). De fato,seX ∼ N(µ, σ2), FX(x) = P (X ≤ x) = P (X − µ σ ≤ x− µ σ ) = P ( Z ≤ x− µ σ ) = FZ (x− µ σ ) , onde Z ∼ N(0, 1). 2.Valores numérico para FZ(z) = ∫ z −∞ 1√ 2π exp (− 1 2 u2 ) du, z ∈ R, só são obtidos aproximandamente. Tabelas para: FZ(z), z ∈ R, FZ(z), z > 0, FZ(z)− FZ(0) = FZ(z)− 0.5, z > 0, etc... estão facilmente disponíveis. 3.FZ(−z) = 1− FZ(z) z > 0. msdfm – p. 29/125 A seguinte proposição permite o cálculo aproximado para valores de FZ , Z ∼ N(0, 1) e mostra a razão de convergência da cauda da distribuição para zero quando z →∞. Proposic¸a˜o 6. Seja Z ∼ N(0, 1). enta˜o (i) ( 1 z − 1 z3 ) fZ(z) ≤ (1− FZ(z)) ≤ 1zfZ(z) para z > 0. (ii) Para aproximac¸o˜es mais refinadas temos (1 z − 1 z3 + 1× 3 z5 − 1× 3× 5 z7 + · · ·+ (−1)k 1× 3× 5× · · · × (2k − 1) z2k+1 ) fZ(z) ≤ (1− FZ(z)) para k impar≥ (1− FZ(z)) para k par z > 0. msdfm– p. 30/125 Demonstrac¸a˜o: 1− FZ(z) = ∫ ∞ z 1√ 2π exp (− 1 2 x2 ) dx = 1√ 2π ∫ ∞ z e− x2 2 dx = 1√ 2π ∫ ∞ z 1 x xe− x2 2 dx ( u=x−1 dv=x exp(− x2 2 ) ) = 1√ 2π ( − 1 x e− x2 2 ∣∣∣∞ z − ∫ ∞ z 1 x2 e− x2 2 dx ) = 1 z 1√ 2π e− z2 2 − 1√ 2π ∫ ∞ z 1 x2 e− x2 2 dx = 1 z fZ(z)− 1√ 2π ∫ ∞ z 1 x2 e− x2 2 dx Temos então que: 1− FZ(z) = 1 z fZ(z)− 1√ 2π ∫ ∞ z 1 x2 e− x2 2 dx Logo 1− FZ(z) ≥ 1 z fZ(z). msdfm – p. 31/125 Por outro lado, 1−FZ(z)− 1 z fZ(z) = − 1√ 2π ∫ ∞ z 1 x2 e− x2 2 dx = − 1√ 2π ∫ ∞ z 1 x3 xe− x2 2 dx ( u=x−3 dv=x exp(− x2 2 ) ) = . − 1√ 2π ( − 1 x3 e− x2 2 ∣∣∣∞ z − ∫ ∞ z 3 x4 e− x2 2 dx ) = − 1 z3 fZ(z) + 3√ 2π ∫ ∞ z 1 x4 e− x2 2 dx. Temos então 1− FZ(z) = 1 z fZ(z)− 1 z3 fZ(z) + 3√ 2π ∫ ∞ z 1 x4 e− x2 2 dx. Logo 1− FZ(z) ≥ 1 z fZ(z)− 1 z3 fZ(z) = (1 z − 1 z3 ) fZ(z). A segunda parte segue por indução e aplicação de forma análoga de integração por partes. c.q.d msdfm – p. 32/125 Exercı´cio: Mostre que lim z→∞ z(1− FZ(z)) fz(z) = 1. Interprete este resultado! msdfm – p. 33/125 Lucas Machado Nota Exercício importantenull Proposic¸a˜o 7. Seja Z ∼ N(0, 1). Enta˜o (i) E(Z2n+1) = 0, n = 1, 2, . . . (ii) E(Z2n) = (2n)! 2nn! , n = 0, 1, 2, . . . , (0! = 1) Demonstrac¸a˜o: Inicialmente note que as integrais ∫ +∞ −∞ zk 1√ 2π e− z2 2 existem uma vez que e− z2 2 converge a 0 mais rapidamente que |z|k vai para +∞ qualquer que seja k (calcule limz→±∞ e − z2 2 zk ). Para o caso impar, E(Z2n+1) = ∫ +∞ −∞ z2n+1 1√ 2π e− z2 2 dz = ∫ +∞ −∞ (z) ( z2n 1√ 2π e− z2 2 ) dz = ∫ +∞ −∞ (funcca˜o impar)(funcca˜o par)dz = ∫ +∞ −∞ (funcca˜o impar)dz = 0 msdfm – p. 34/125 Para o caso par, E(Z2k) = ∫ +∞ −∞ z2k 1√ 2π e− z2 2 dz u=exp(z2/2) dv=z2k = du=−z exp(z2/2) v=z2k+1/(2k+1) = 1√ 2π ( x2k+1 2k + 1 e− z2 2 ∣∣∣+∞ −∞ − ∫ +∞ −∞ z2k+1 2k + 1 (−z)e− z 2 2 dz ) = = 1 2k + 1 ∫ +∞ −∞ z2k+2 1√ 2π e− z2 2 dz = E(Z2k+2). Temos então a seguinte formula recursiva. E ( Z2(k+1) ) = (2k + 1)E ( Z2k ) . msdfm – p. 35/125 Aplicando-se a formula E ( Z2(k+1) ) = (2k + 1)E ( Z2k ) sucessivamente até k = 0 obtemos E ( Z2n ) = ( 2(n− 1) + 1))E(Z2(n−1)) = (2n− 1)E(Z2(n−1)) = = (2n− 1)(2(n− 2) + 1)E(Z2(n−2)+1) = (2n− 1)(2n− 3)E(Z2(n−2)) = = (2n− 1)(2n− 3)(2n− 5)E(Z2(n−3)) = = . . . = (2n− 1)(2n− 3)(2n− 5) · · · (5)(3)E(Z2) = (2n− 1)(2n− 3)(2n− 5) · · · (5)(3)E(Z0) = (2n− 1)(2n− 3)(2n− 5) · · · (5)(3)(1) = [2n](2n− 1)[2n− 2](2n− 3)[2n− 4](2n− 5) · · · [6](5)[4](3)[2](1) [2n][2n− 2][2n− 4] · · · [6][4][2] = (2n)! 2[n]2[n− 1]2[n− 2] · · · 2[3]2[2]2[1] = (2n)! 2nn! . c.q.d msdfm – p. 36/125 Colora´rio 1. Se Z ∼ N(0, 1), enta˜o E(Z) = 0 e V ar(Z) = E(Z2) = 1. Colora´rio 2. SeX ∼ N(µ, σ2), enta˜o E ((X − µ σ )2n+1) = 0 e E ((X − µ σ )2n) = (2n)! 2nn! . Em particular E (X − µ σ ) = 0 e portanto E(X) = µ e E ((X − µ σ )2) = (2× 1)! 21 × 1! = 1 e portanto V ar(X) = E((X − µ) 2) = σ2. Demonstrac¸a˜o: X − µ σ ∼ N(0, 1). c.q.d msdfm – p. 37/125 Teorema de De Moivre-Laplace O Teorema de De Moivre-Laplace trata da aproximação da distribuição binomial pela distribuição normal. Teorema 2. (De Moivre-Laplace) Seja Sn ∼ B(n, p). Para a e b duas constantes quaisquer tais que −∞ < a < b < +∞. Enta˜o, lim n→∞ P ( a < Xn − np√ np(1− p) ≤ b ) = ∫ b a 1√ 2π e− z2 2 dz. A demonstração do Teorema de De Moivre-Laplace é bastante detalhada. Será apresentada a seguir por razões ilustrativas e pode ser omitida. Esse resultado foi posteriormete generalizado via o Teorema Central do Limite, com uma demostração bem mais “simples”, a ser estudado em Probabilidade II. msdfm – p. 38/125 Independentemente da demonstração, podemos visualizar gráficamente o resultado da aproximação local da distribuição binomial pela distribuição normal (Proposição 8), isto é: lim n→∞ ( P (Xn = k) 1√ 2pinp(1−p)e −x2n,k/2 ) = lim n→∞ ( ( n k ) pk(1− p)n−k 1√ 2pinp(1−p)e −x2n,k/2 ) , uniformemente em k; onde xn,k = k−np√ np(1−p) msdfm – p. 39/125 Aproximação local da Binomial pela Normal. k P ( X = k ) 0 2 4 6 8 10 0 . 0 0 . 1 0 . 2 0 . 3 0 . 4 n=10, p=0.1 P ( X = k ) 0 .1 5 0 . 2 0 0 . 2 5 0 . 3 0 n=10, p=0.2 – p. 40/125 Aproximação local da Binomial pela Normal. k P ( X = k ) 0 2 4 6 8 10 0 . 0 0 . 0 5 0 . 1 0 0 . 1 5 0 . 2 0 0 . 2 5 n=10, p=0.4 P ( X = k ) 0 . 1 0 0 . 1 5 0 . 2 0 0 . 2 5 n=10, p=0.5 – p. 41/125 Apêndice:Formula de Stirling O resultado fundamental para a demosntração do Teorema de De Moivre-Laplace é conhecido como Aproximação de Stirling, dado por: lim n→∞ n! en√ 2πn nn = 1. Em outras palavras, para n grande, n! ≈ √ 2πn nn e−n. A demonstração será apresentada em uma sequência de lemas. msdfm – p. 42/125 Apêndice Lema 1. Se |x| ≤ 1− δ, 0 < δ < 1/3, enta˜o lg(1 + x) = x− x 2 2 + ϑ(x), onde |ϑ(x)| ≤ |x|3. Demonstrac¸a˜o: Pela expansão de Taylor para ln(1 + x), temos lg(1 + x) = x− x 2 2 + ∞∑ k=3 (−1)k−1 x k k! . Logo, ϑ(x) = ∞∑ k=3 (−1)k−1 x k k! ≤ ∞∑ k=3 |x|k k! ≤ 1 3 ∞∑ k=3 |x|k = |x| 3 3(1− |x|) . Como para |x| ≤ 1− δ, 0 < δ < 1/3, 3(1− |x|) ≥ 1, o lema esta demonstrado. c.q.d msdfm – p. 43/125 Apêndice Lema 2. lim n→∞ ( lnn!− (n+ 1 2 ) lnn+ n ) = C, onde C e´ uma constante a ser posteriormente determinada. Demonstrac¸a˜o: Seja dn = lnn!− ( n+ 1 2 ) lnn+ n. Então dn−dn+1 = ( lnn!−(n+1 2 ) lnn+n ) − ( ln(n+1)!−((n+1)+1 2 ) ln(n+1)+(n+1) ) = + − ln(n+1)+((n+1)+1 2 ) ln(n+1)−(n+1 2 ) lnn−1 = (n+1 2 ) ln(n+1)−(n+1 2 ) lnn−1 = ( n+ 1 2 )( ln(n+ 1)− lnn)− 1 = (n+ 1 2 ) ln(1 + 1 n )− 1 msdfm – p. 44/125 Apêndice Pelo Lema 1,para n ≥ 2 dn − dn+1 = ( n+ 1 2 ) ln(1 + 1 n )− 1 = ( n+ 1 2 )( 1 n − 1 2n2 + ϑ ( 1 n )) − 1 = ( n+ 1 2 ) ϑ ( 1 n ) + (( n+ 1 2 )( 1 n − 1 2n2 ) − 1 ) = ( n+ 1 2 ) ϑ ( 1 n ) − 1 4n2 . Logo, |dn−dn+1| = ∣∣∣(n+1 2 ) ϑ ( 1 n ) − 1 4n2 ∣∣∣ ≤ (n+1 2 ) 1 n3 + 1 4n2 = 1 n2 (( n+ 1 2 ) 1 n + 1 4 ) ≤ 2 n2 Usando o teste da comparação, é facil ver que ∑ n |dn − dn+1| converge. Como convergência absoluta implica em convergência temos limn→∞ ∑n k=1(dk − dk+1) = limn→∞(d1 − dn+1) existe e é finito. Consequentemente, limn→∞ dn+1 = d1 − C1 = C. c.q.d msdfm – p. 45/125 Apêndice Lema 3. lim n→∞ n!en nn+ 1 2 = K, K > 0. Demonstrac¸a˜o: Partindo do resultado do Lema 2 temos, lim n→∞ dn = C =⇒ limn→∞ e dn = eC . Como dn = lnn!− ( n+ 1 2 ) lnn+ n. e edn = n!en nn+ 1 2 , segue que lim n→∞ n!en nn+ 1 2 = eC = K c.q.d msdfm – p. 46/125 Apêndice Lema 4. (Desigualdade de Wallis) nπ ≤ ( 2n(n!)2 (2n)! )2 ≤ 2n+ 1 2 π. Demonstrac¸a˜o: Seja In = ∫ π/2 0 senn(x)dx. é fácil ver que I0 = π 2 e I1 = 1. Para n ≥ 2, escrevemos In = ∫ π/2 0 senn−1(x)sen(x)dx. e integramos por partes. msdfm – p. 47/125 Apêndice Assim, definindo u = senn−1(x) e dv = sen(x) ( =⇒ du = (n− 1)senn−2(x)dx e v = −cos(x)), obtemos: In = sen n−1(x)cos(x) ∣∣∣π/2 0 − ∫ π/2 0 (−cos(x))(n− 1)senn−2(x)cos(x)dx = = (n− 1) ∫ π/2 0 cos2(x)senn−2(x)dx = (n− 1) ∫ π/2 0 (1− sen2(x))senn−2(x)dx = (n− 1) ∫ π/2 0 senn−2(x)dx− (n− 1) ∫ π/2 0 senn(x)dx = (n− 1)In−2 − (n− 1)In. Logo, In = n− 1 n In−2, para n ≥ 2. msdfm – p. 48/125 Apêndice Temos então que, I2k I2k−2 = 2k − 1 2k = (2k)× (2k − 1) (2k)× (2k) = (2k)× (2k − 1) 22 × k × k . Por outro lado, I2n I0 = I2 × I4 × I6 × · · · × I2(n−1) × I2n I0 × I2 × I4 × · · · × I2n−2 = n∏ k=1 ( I2k I2k−2 ) = n∏ k=1 ( (2k − 1)(2k) 22 × k × k ) (1× 2)× (3× 4)× · · · × ((2n− 1)× (2n)) = 22n ( n∏ k=1 k )2 = (2n)! 22n(n!)2 . Como I0 = π/2, obtemos I2n = (2n)! 22n(n!)2 π 2 . (∗) msdfm – p. 49/125 Apêndice Analogamente, I2n+1 = I2n+1 I1 = n∏ k=1 ( 2k 2k + 1 ) = n∏ k=1 ( (2k)(2k) (2k)(2k + 1) ) = 22n(n!)2 (2n+ 1)! Logo, I2n+1 = 22n(n!)2 (2n+ 1)! = 1 2n+ 1 22n(n!)2 (2n)! = 1 2n+ 1 (π/2) (2n)! 22n(n!)2 (π/2) , ou seja, I2n+1 = π 2(2n+ 1) 1 I2n ou I2nI2n+1 = π 2(2n+ 1) . Pela relação recursiva sabemos que I2n+1 = 2n 2n+ 1 I2n−1, msdfm – p. 50/125 Apêndice Consequentemente,como I2nI2n+1 = π 2(2n+ 1) (∗∗) e π 2(2n+ 1) = I2nI2n+1 = I2n 2n 2n+ 1 I2n−1 isto é, I2nI2n−1 = π 2(2n+ 1) 2n+ 1 2n = π 4n . (∗ ∗ ∗) Observe também que, como 0 ≤ sen(x) ≤ 1, para 0 ≤ x ≤ π/2, a sequência (In : n ≥ 0) é decrescente. Portanto, I2n+1 ≤ I2n ≤ I2n−1 e I2n+1I2n ≤ I22n ≤ I2nI2n−1. Usando (*),(**) e (***) obtemos, π 2(2n+ 1) ≤ ( (2n)! 22n(n!)2 π 2 )2 ≤ π 4n =⇒ nπ ≤ ( 2n(n!)2 (2n)! )2 ≤ 2n+ 1 2 π. c.q.d msdfm – p. 51/125 Apêndice Lema 5. O valor deK no Lema 3 e´ dado por K = √ 2π. Demonstrac¸a˜o: Seja Sn = n!en nn+ 1 2 . Pelo Lema 3 sabemos que lim n→∞Sn = K > 0. Escrevendo n! = nn+ 1 2 e−nSn e aplicando na desiguladade de Wallis obtemos nπ ≤ ( 2n(nn+ 1 2 e−nSn)2 (2n)2n+ 1 2 e−2nS2n ) ≤ 2n+ 1 2 π. msdfm – p. 52/125 Apêndice Ou seja nπ ≤ ( 2nn2n+1e−2nS2n (2n)2n+ 1 2 e−2nS2n )2 ≤ 2n+ 1 2 π, que é equivalente a π ≤ S 4 n 2S22n ≤ 2n+ 1 2n π. Fazendo n→∞ na desigualdade acima , comoK > 0, obtemos π ≤ K 4 2K2 ≤ π. Portanto, K2 = 2π, e como desejado K = √ 2π. c.q.d msdfm – p. 53/125 De Moivre-Laplace, limite local Sabemos que, para Xn ∼ B(n, p), P (Xn = k) = (n k ) pk(1− p)n−k, n ≥ 1, k = 1, 2, . . . , n. Proposic¸a˜o 8. Considere p ∈ (0, 1), xn,k = k − np√ np(1− p) , 0 ≤ k ≤ n e A, uma constante positiva arbitra´ria, fixada. Enta˜o para os valores permitidos de k tal que |xn,k| ≤ A, temos lim n→∞ ( P (Xn = k) 1√ 2πnp(1−p) e −x2 n,k /2 ) = lim n→∞ ( (n k ) pk(1− p)n−k 1√ 2πnp(1−p) e −x2 n,k /2 ) , uniformemente em k. msdfm – p. 54/125 Demonstrac¸a˜o: Escrevendo m! = √ 2πmm+ 1 2 e−mRm, onde Rm = m!em √ 2πmm+ 1 2 , temos n! k!(n− k)p k(1−p)n−k = √ 2πnn+ 1 2 e−nRn√ 2πkk+ 1 2 e−kRk √ 2π(n− k)(n−k)+ 12 e−(n−k)Rn−k pk(1−p)n−k = Rn RkRn−k √ n 2πk(n− k) (np k )k(n(1− p) n− k )n−k = Rn RkRn−k √ n 2π k np np (n−k) n(1−p)n(1− p) (np k )k(n(1− p) n− k )n−k = √ np k (n− 1)p n− k Rn RkRn−k √ 1 2πnp(1− p) (np k )k(n(1− p) n− k )n−k . msdfm – p. 55/125 Temos então n! k!(n−k)p k(1− p)n−k 1√ 2πnp(1−p) = ψ1(n, k)ψ2(n, k)ψ3(n, k), onde ψ1(n, k) = √ np k (n− 1)p n− k , ψ2(n, k) = Rn RkRn−k e ψ3(n, k) = (np k )k(n(1− p) n− k )n−k . msdfm – p. 56/125 Como xn,k = k − np√ np(1− p) =⇒ k = np+ √ np(1− p)xn,k e n− k = n(1− p)− √ np(1− p)xn,k. e como |xn,k| ≤ A,, obtemos, uniformemente em k, lim n→∞ k np = lim n→∞ np+ √ np(1− p)xn,k np = lim n→∞ ( 1 + √ np(1− p)xn,k np ) = 1. (♦) Analogamente, lim n→∞ n− k n(1− p) = 1 (♦♦). Segue de (♦) e (♦♦), que lim n→∞ψ1(n, k) = limn→∞ √ np k (n− 1)p n− k = 1. msdfm – p. 57/125 Do Lema 5, como |xn,k| ≤ A,, temos lim n→∞Rn = 1. Consequentemente lim n→∞Rk = limn→∞Rnp+ √ np(1−p)xn,k = 1. e lim n→∞Rn−k = limn→∞Rn(1−p)−√ np(1−p)xn,k = limn→∞R √ n( √ n(1−p)− √ p(1−p)xn,k = 1. Logo, lim n→∞ψ2(n, k) = limn→∞ Rn RkRn−k = 1 msdfm – p. 58/125 Resta estudar o comportamento assintotico de ψ3(n, k) = ( np k )k(n(1−p) n−k )n−k . Para tanto vamos considerar ln ((np k )k(n(1− p) n− k )n−k) = ln (np k )k + ln (n(1− p) n− k )n−k . Usando a definição de xn,k obtemos ln (np k )k = ln (k −√np(1− p)xn,k k )k = k ln ( 1− √ np(1− p)xn,k k ) = e analogamente ln ( n(1−p) n−k )n−k = (n− k) ln ( 1 + √ np(1−p)xn,k n−k ) . Logo ln ((np k )k(n(1− p) n− k )n−k) = k ln ( 1− √ np(1− p)xn,k k ) +(n−k) ln ( 1+ √ np(1− p)xn,k n− k ) msdfm – p. 59/125 Como |Xn,k| < A, seque de (♦) e (♦♦) que , para n suficientemente grande ∣∣∣∣ √ np(1− p)xn,k k ∣∣∣∣ = ∣∣∣∣ √ (1− p)xn,k k np √ np ∣∣∣∣ < 1− δ e ∣∣∣∣ √ np(1− p)xn,k n− k ∣∣∣∣ = ∣∣∣∣ √ pxn,k n−k n(1−p) √ n(1− p) ∣∣∣∣ < 1− δ Podemos então aplicar o Lema 1 a ln (np k )k = k ln ( 1− √ np(1− p)xn,k k ) e ln (n(1− p) n− k )n−k = (n− k) ln ( 1 + √ np(1− p)xn,k n− k ) . msdfm – p. 60/125 Temos portanto, ln (np k )k = k (( − √ np(1− p)xn,k k )−1 2 ( − √ np(1− p)xn,k k )2 +ϑ ( − √ np(1− p)xn,k k )) = k ( − √ np(1− p)xn,k k − np(1− p)x2n,k 2k2 + ϑ ( − √ np(1− p)xn,k k )) . e ln (n(1− p) n− k )n−k = (n−k) (√np(1− p)xn,k n− k − np(1− p)x2n,k 2(n− k)2 +ϑ (√np(1− p)xn,k n− k )) . Somando os dois logaritmos temos, ln ((np k )k(n(1− p) n− k )n−k) = = − np(1− p)x2n,k 2k − np(1− p)x2n,k 2(n− k) +kϑ ( − √ np(1− p)xn,k k )) +(n−k)ϑ (√np(1− p)xn,k n− k )) msdfm – p. 61/125 A ultima expressão pode ser rearrumada após alguma manipulação na forma, ( np k )k(n(1−p) n−k )n−k e − x2 n,k 2 np k n(1−p) n−k = e kϑ ( − √ np(1−p)xn,k k ) +(n−k)ϑ (√ np(1−p)xn,k n−k ) . Do Lema 1 temos que |ϑ(x)| ≤ |x|3, logo ∣∣∣∣kϑ(− √ np(1− p)xn,k k )) + (n− k)ϑ (√np(1− p)xn,k n− k ))∣∣∣∣ ≤ k ∣∣∣∣ √ np(1− p)xn,k k ∣∣∣∣3+(n−k) ∣∣∣∣ √ np(1− p)xn,k n− k ∣∣∣∣3 ≤ ( A √ p(1− p))3 n1/2 ((n k )2 + ( n n− k )2) . Seque de (♦) e (♦♦) que essa cota superior claramente converge a zero quando n cresce. msdfm – p. 62/125 Consequentemente lim n→∞ ( np k )k(n(1−p) n−k )n−k e − x2 n,k 2 np k n(1−p) n−k = 1 = lim n→∞ ( np k )k(n(1−p) n−k )n−k e− x2 n,k 2 , onde para última igualdade usamos novamente (♦) e (♦♦). Consequentemente, compilando os resultados obtemos, lim n→∞ n! k!(n−k)p k(1− p)n−k 1√ 2πnp(1−p) e − x2 n,k 2 = lim n→∞ψ1(n, k)ψ2(n, k)ψ3(n, k)e x2 n,k 2 = 1× 1× 1 = 1. Em outras palavras, lim n→∞ ( (n k ) pk(1− p)n−k 1√ 2πnp(1−p) e −x2 n,k /2 ) , uniformemente em k. c.q.d msdfm – p. 63/125 Apêndice; Demonstração do Teorema de De Moivre- Laplace Recordando, queremos mostrar que lim n→∞P ( a < Xn − np√ np(1− p) ≤ b ) = ∫ b a 1√ 2π e z2 2 dz, −∞ < a < b < +∞. Demonstrac¸a˜o: Seja k um valor possível deXn. Assim, Xn = k ⇐⇒ Xn − np√ np(1− p) = xn,k, xn,k = k − np√ np(1− p) e P ( a < Xn − np√ np(1− p) ≤ b ) = ∑ a<xn,k≤b P (Xn = k). Note que o somatório tem somente um número finito de parcelas. P ( a < Xn − np√ np(1− p) ≤ b ) = ∑ a<xn,k≤b 1√ 2πnp(1− p) e−x 2 n,k/2 P (Xn = k) 1√ 2πnp(1−p) e −x2 n,k /2 msdfm – p. 64/125 Como xn,k = k−np√ np(1−p) =⇒ xn,k+1 − xn,k = 1√ np(1−p) temos 1√ 2πnp(1− p) e−x 2 n,k/2 = 1√ 2π e−x 2 n,k/2(xn,k+1 − xn,k). Logo, P ( a < Xn − np√ np(1− p) ≤ b ) = ∑ a<xn,k≤b ( 1√ 2π e− x2 n,k 2 (xn,k+1 − xn,k) )( P (Xn = k) 1√ 2πnp(1−p) e − x2 n,k 2 ) = ∑ a<xn,k≤b ( 1√ 2π e− x2 n,k 2 (xn,k+1 − xn,k) )( 1 + ̺(k, n) ) , onde limn→∞ ̺(k, n) = limn→∞ P (Xn=k) 1√ 2pinp(1−p) e − x2 n,k 2 − 1 = 0, uniformemente em k. msdfm – p. 65/125 P ( a < Xn − np√ np(1− p) ≤ b ) = ∑ a<xn,k≤b ( 1√ 2π e− x2 n,k 2 (xn,k+1−xn,k) ) + ∑ a<xn,k≤b ( 1√ 2π e− x2 n,k 2 (xn,k+1−xn,k)̺(k, n) ) = ∫ b a 1√ 2π e z2 2 dz +R1(n, k) +R2(n, k), onde R1(n) = ∑ a<xn,k≤b 1√ 2π e− x2 n,k 2 (xn,k+1 − xn,k)− ∫ b a 1√ 2π e z2 2 dz e R2(n) = ∑ a<xn,k≤b ( 1√ 2π e− x2 n,k 2 (xn,k+1 − xn,k)̺(k, n) ) . Sabemos que a < xn,k ≤ b⇐⇒ np+ a √ np(1− p) < k ≤ np+ b √ np(1− p), k = 0, 1, 2, . . . n. msdfm – p. 66/125 Para finalizar a demonstração devemos mostrar que lim n→∞R1(n) = limn→∞R2(n) = 0. Para tanto, como a correspondência entre k e xn,k é um a um, temos para k = 0, 1, 2, . . . n, xn,k assumindo valores no intervalo [ − √ np (1− p) , √ np p ] , a incrementos xn,k+1 − xn,k = 1√ np(1− p) . Para n suficientemente grande (a, b] ⊂ [ − √ np (1− p) , √ np p ] . Para cada n sejam l e u o menor e o maior valor de k tais que xn,l−1 ≤ a < xn,l < xn,1+1 < · · · < xn,u ≤ b < xn,u+1. msdfm – p. 67/125 Pela definição de Integral de Riemann lim n→∞ ∑ a<xn,k≤b 1√ 2π e− x2 n,k 2 (xn,k+1 − xn,k) = lim n→∞ u∑ k=l 1√ 2π e− x2 n,k 2 (xn,k+1 − xn,k) = ∫ b a 1√ 2π e z2 2 dz. Logo lim n→∞R1(n) = 0. msdfm – p. 68/125 Por outro lado, |R2(n)| ≤ ∑ a<xn,k≤b ∣∣∣∣∣ 1√2π e− x2 n,k 2 (xn,k+1 − xn,k)̺(k, n) ∣∣∣∣∣ = ∑ a<xn,k≤b ( 1√ 2π e− x2 n,k 2 (xn,k+1 − xn,k) ) |̺(k, n)| ≤ supa<xn,k≤b |̺(k, n)| ∑ a<xn,k≤b ( 1√ 2π e− x2 n,k 2 (xn,k+1 − xn,k) ) . Sabemos que lim n→∞ supa<xn,k≤b |̺(k, n)| = 0, pois lim n→∞ ̺(k, n) = 0, uniformemente em k, e lim n→∞ ( 1√ 2π e− x2 n,k 2 (xn,k+1 − xn,k) ) = ∫ b a 1√ 2π e z2 2 dz. Consequentemente lim n→∞R2(n) = 0. c.q.d msdfm – p. 69/125 Função e distribuição Gama A função Gama aparece naturalmente em diferentes áreas da matemática. Aqui será usada para definir uma importante e útil familia de funções densidade de probabilidade. Define-se a func¸a˜o gama Γ por Γ(ν) = ∫ ∞ 0 tν−1e−tdt, ν > 0. msdfm – p. 70/125 Gráfico da Função Gama s G a m a ( s ) 0.5 1.0 1.5 2.0 2.5 3.0 1 . 0 1 . 2 1 . 4 1 . 6 1 . 8 2 . 0 FUNCAO GAMA msdfm – p. 71/125 Propriedades relevantes P1. Γ(1) = 1 item limν→0 Γ(ν) = +∞. P2. Γ(ν) = (ν − 1)Γ(ν − 1), ν > 1. Em particular Γ(n+ 1) = n!, para n ∈ N. P3. Γ(1/2) = √ π. P4. Γ(n+ 1/2) = (2n)! √ π n!4n . P5. Função Gama com parâmetro: Γ(S) = ∫ ∞ 0 λνtν−1e−λtdu, λ > 0. msdfm – p. 72/125 Demonstrações: P1. Γ(1) = ∫∞ 0 t1−1e−tdt = ∫∞ 0 e−tdt = −e−t ∣∣∣∞ 0 = 1. P2. Γ(ν) = ∫∞ 0 tν−1e−tdt u=tν−1; dv=e−t = tν−1(−e−t) ∣∣∣∞ 0 − ∫∞ 0 (−e−t)(ν − 1)tν−2dt = (ν − 1) ∫∞ 0 t(ν−1)−1e−tdt = (ν − 1)Γ(ν − 1). P3. Γ(1/2) = ∫∞ 0 t(1/2)−1e−tdt = ∫∞ 0 t− 1 2 e−tdt x2 2 =t =∫∞ 0 x2 2 − 1 2 e− x2 2 dx x = √ 2 ∫∞ 0 e− x2 2 dx = √ 2 √ 2π ∫∞ 0 2√ 2π e− x2 2 dx = √ 2 √ 2π 1 2 = √ π msdfm – p. 73/125 P4. Γ(n+ 1 2 ) P3 = (n+ 1 2 −1)Γ(n− 1 2 −1)+(n− 1 2 )Γ(n−1 2 ) P3 = (n− 1 2 )(n− 3 2 )Γ(n− 3 2 ) = . . . = (n− 1 2 )(n− 3 2 )(n− 5 2 ) · · · (n− 2n− 1 2 )Γ(n− 2n− 1 2 ) = (n− 1 2 )(n− 3 2 )(n− 5 2 ) · · · 1 2 Γ( 1 2 ) = 2n− 1 2 2n− 3 2 2n− 5 2 · · · 3 2 1 2 Γ( 1 2 ) = ( 2n 2n ) 2n− 1 2 ( 2n− 2 2n− 2 ) 2n− 3 2 ( 2n− 4 2n− 4 ) 2n− 5 2 · · · ( 4 4 ) 3 2 ( 2 2 ) 1 2 )Γ( 1 2 ) = 2n(2n− 1)(2n− 2)(2n− 3) · · · 4 3 2 1 2 n 2 (n− 1) 2 (n− 2) 2 · · · 4 2 2 2Γ( 1 2 ) = (2n)! √ π n!4n . msdfm – p. 74/125 P5. Seja λ > 0. Γ(ν) = ∫ ∞ 0 tν−1e−tdt t=λs= ∫ ∞ 0 (λs)ν−1e−λsλds = ∫ ∞ 0 λνsν−1e−λsds. Por P5 temos que ∫ ∞ 0 λν Γ(ν) sν−1e−λsds = 1, para ν > 0 e λ > 0. msdfm – p. 75/125 Outras propriedades P1. limν→0 Γ(ν) = +∞. P2. A integral que define a função gama converge uniformemente em ν sendo portanto Γ contínua. msdfm – p. 76/125 Distribuição Gama G(ν, λ) Em vista da Propriedade 5 temos que para par de parâmetros ν > 0 e λ > 0 a função fX(x) = λν Γ(ν) xν−1e−λx1[0,∞)(x) define uma função densidade de probabilidade. msdfm – p. 77/125 x f ( x ) 0 2 4 6 8 10 0 . 0 0 . 2 0 . 4 0 . 6 0 . 8 Gama(1,1)=Exp(1) x f ( x ) 0 2 4 6 8 10 0 . 0 0 . 1 0 . 2 0 . 3 Gama(1,2) x f ( x ) 0 2 4 6 8 10 0 . 0 0 . 0 5 0 . 1 0 0 . 1 5 0 . 2 0 Gama(1,5) x f ( x ) 0 2 4 6 8 10 0 . 0 0 . 2 0 . 4 0 . 6 0 . 8 Densidades Gama msdfm– p. 78/125 x f ( x ) 0 2 4 6 8 10 0 . 0 0 . 2 0 . 4 0 . 6 Gama(2,2) x f ( x ) 0 2 4 6 8 10 0 . 0 0 . 1 0 . 2 0 . 3 Gama(1,2) x f ( x ) 0 2 4 6 8 10 0 . 0 5 0 . 1 0 0 . 1 5 Gama(0.5,2) x f ( x ) 0 2 4 6 8 10 0 . 0 0 . 2 0 . 4 0 . 6 Densidades Gama msdfm– p. 79/125 Proposic¸a˜o 9. Se X ∼ G(λ, ν) e α > −ν, enta˜o E(Xα) = Γ(α + ν) Γ(ν)λα . Demonstrac¸a˜o: E(Xα) = ∫ ∞ 0 xα λν Γ(ν) xν−1e−λxdx = λν Γ(ν) ∫ ∞ 0 xα+ν−1e−λxdx = 1 Γ(ν)λα ∫ ∞ 0 λα+νx(α+ν)−1e−λxdx = Γ(α + ν) Γ(ν)λα c.q.d msdfm – p. 80/125 Em particular, E(Xk) = Γ(k + ν) Γ(ν)λk = (k + ν − 1)(k + ν − 2) · · · (ν + 1)νΓ(ν) Γ(ν)λk = (k + ν − 1)(k + ν − 2) · · · (ν + 1)ν λk . Logo E(X) = ν λ ; E(X2) = (ν + 1)ν λ2 e V ar(X) = (ν + 1)ν λ2 − (ν λ )2 = ν λ2 . Usualmente 1 λ é chamado paramero de escala e ν paramero de forma. msdfm – p. 81/125 Função e distribuições do tipo Beta Assim como a Função Gama, uma outra função matemática usada para definir familias de distribuições de probabilidade absolutamante contínuas é conhecida como Função Beta definida por β(µ, ν) = ∫ 1 0 tµ−1(1− t)ν−1dt, µ > 0, ν > 0. Logo, para todo µ > 0 e ν > 0 msdfm – p. 82/125 Propriedades: P1. β(µ, ν) = β(ν, µ). P2. β(µ, ν) = Γ(µ)Γ(ν) Γ(µ+ν) . P3. β(µ+ 1, ν) = µ µ+ν β(µ, ν). P1. β(µ, ν) = ∫ 1 0 tµ−1(1−t)ν−1dt v=1−t= ∫ 0 1 (1−v)µ−1vν−1(−dv) = ∫ 1 0 vν−1(1− v)µ−1dv = β(ν, µ). msdfm – p. 83/125 P2. Γ(µ)Γ(ν) = ∫ ∞ 0 xµ−1e−xdx ∫ ∞ 0 yν−1e−ydy = ∫ ∞ 0 ∫ ∞ 0 xµ−1yν−1e−(x+y)dxdy. Fazendo t = x+ ys = x x+y temos x = sty = (1− s)t e J(s, t) = det t s −t (1− s) = t. Logo, pelo TMV, Γ(µ)Γ(ν) = ∫ ∞ 0 ∫ 1 0 (st)µ−1 ( (1− s)t)ν−1e−ttdsdt = ∫ ∞ 0 tµ+ν−1e−tdt ∫ 1 0 sµ−1(1− s)ν−1ds = Γ(µ+ ν)β(µ, ν). Portanto, β(µ, ν) = Γ(µ)Γ(ν) Γ(µ+ ν) . msdfm – p. 84/125 P3. β(µ+ 1, ν) = Γ(µ+ 1)Γ(ν) Γ(µ+ 1 + ν) P2 = . µΓ(µ)Γ(ν) (µ+ ν)Γ(µ+ ν) = µ µ+ ν β(µ, ν). msdfm – p. 85/125 Distribuição BETA 1 (β1(µ, ν)) Como para µ > 0 e ν > 0,∫ 1 0 1 β(µ, ν) tµ−1(1− t)ν−1dt = 1, a função f(x) = 1 β(µ, ν) xµ−1(1− x)ν−11(0,1)(x) define uma função de densidade de probabilidade. A distribuição de probabilidade associada é chamada de Distribuic¸a˜o Beta 1 com paraˆmeros µ > 0 e ν > 0. A familia β1 é bastante rica na modelagem de distribuições de probabilidade com suporte em (0, 1), em particular, note que β1(1, 1) = U(0, 1). msdfm – p. 86/125 Proposic¸a˜o 10. Se X ∼ β1(µ, ν), enta˜o E(Xα) = β(µ+ α, ν) β(µ, ν) , para α > −µ. Demonstrac¸a˜o: E(Xα) = ∫ 1 0 xα 1 β(µ, ν) xµ−1(1−x)ν−1dx = 1 β(µ, ν) ∫ 1 0 xµ+α−1(1−x)ν−1dx = β(µ+ α, ν) β(µ, ν) . c.q.d Em particular, E(Xk) = β(µ+ k, ν) β(µ, ν) = (µ+ k − 1)(µ+ k − 2) · · · (µ+ 1)µ (µ+ ν + k − 1)(µ+ ν + k − 2) · · · (µ+ ν + 1)(µ+ ν) ; E(X) = µ µ+ ν ; E(X2) = (µ+ 1)µ (µ+ ν + 1)µ+ ν e V ar(X) = µν (µ+ ν + 1)(µ+ ν)2 . msdfm – p. 87/125 Densidades beta 1 x f ( x ) 0.0 0.2 0.4 0.6 0.8 1.0 1 . 0 1 . 5 2 . 0 2 . 5 3 . 0 Beta(0.5,0.5) x f ( x ) 0.0 0.2 0.4 0.6 0.8 1.0 1 . 0 1 . 1 1 . 2 1 . 3 Beta(0.9,0.9) x f ( x ) 0.0 0.2 0.4 0.6 0.8 1.0 0 . 8 0 0 . 8 5 0 . 9 0 0 . 9 5 1 . 0 0 1 . 0 5 Beta(1.1,1.1) x f ( x ) 0.0 0.2 0.4 0.6 0.8 1.0 0 . 0 0 . 5 1 . 0 1 . 5 2 . 0 2 . 5 Beta(5,5) msdfm – p. 88/125 Densidades beta 1 x f ( x ) 0.0 0.2 0.4 0.6 0.8 1.0 0 1 2 3 4 5 6 Beta(0.5,1.5) x f ( x ) 0.0 0.2 0.4 0.6 0.8 1.0 0 . 0 0 . 2 0 . 4 0 . 6 0 . 8 1 . 0 1 . 2 1 . 4 Beta(1.5,2) x f ( x ) 0.0 0.2 0.4 0.6 0.8 1.0 0 . 0 0 . 5 1 . 0 1 . 5 Beta(2.5,2) x f ( x ) 0.0 0.2 0.4 0.6 0.8 1.0 0 . 0 0 . 5 1 . 0 1 . 5 2 . 0 2 . 5 Beta(2,5) msdfm – p. 89/125 Distribuição BETA 2 (β2(µ, ν)) 0utra importante familia de distribuições de probabilidade com suporte em (0,∞) pode ser obtida atraves de uma transformação de uma variável aleatória com distribuição Beta 1 ( Proposição 6) ou diretamente a partir da definição da seguinte familia de densidades de probabilidade: f(x) = 1 β(µ, ν) xµ−1 (1 + x)µ+ν 1(0,∞)(x) = = Γ(µ+ ν) Γ(µ)Γ(ν) xµ−1 (1 + x)µ+ν 1(0,∞)(x), µ > 0, ν > 0. msdfm – p. 90/125 Note que f define uma função densidade de probabilidade. De fato, (a) Claramente f(x) ≥ 0, ∀ x ∈ R. (b) Por outro lado, ∫ +∞ −∞ f(x)dx = 1 β(µ, ν) ∫ +∞ 0 xµ−1 (1 + x)µ+ν dx y= x 1+x = 1 β(µ, ν) ∫ 1 0 ( y 1− y )µ−1 1( 1 + y 1−y )µ+ν dy(1− y)2 = 1β(µ, ν) ∫ 1 0 yµ−1(1−y)ν−1dy = 1 β(µ, ν) ∫ 1 0 yµ−1(1− y)−(µ−1)+(µ+ν)−2dy = 1 β(µ, ν) ∫ 1 0 yµ−1(1− y)ν−1dy = = β(µ, ν) β(µ, ν) = 1. Logo, f é uma função de probabilidade para µ > 0 e ν > 0. msdfm – p. 91/125 Densidades beta 2 x f ( x ) 0 2 4 6 8 10 0 . 0 0 . 5 1 . 0 1 . 5 2 . 0 Beta2(1,2) x f ( x ) 0 2 4 6 8 10 0 . 0 0 . 1 0 . 2 0 . 3 0 . 4 0 . 5 0 . 6 Beta2(2,2) x f ( x ) 0 2 4 6 8 10 0 . 0 0 . 1 0 . 2 0 . 3 0 . 4 Beta2(3,2) x f ( x ) 0 2 4 6 8 10 0 . 0 0 . 2 0 . 4 0 . 6 0 . 8 1 . 0 Beta2(2,3) msdfm– p. 92/125 Densidades beta 2 x f ( x ) 0 2 4 6 8 10 0 . 0 5 0 . 1 0 0 . 1 5 0 . 2 0 0 . 2 5 0 . 3 0 Beta2(2,1) x f ( x ) 0 2 4 6 8 10 0 . 0 0 . 1 0 . 2 0 . 3 0 . 4 0 . 5 Beta2(6,4) x f ( x ) 0 2 4 6 8 10 0 . 0 0 . 2 0 . 4 0 . 6 0 . 8 1 . 0 1 . 2 1 . 4 Beta2(6,10) x f ( x ) 0 2 4 6 8 10 0 . 0 0 . 1 0 . 2 0 . 3 0 . 4 0 . 5 Beta2(10,6) msdfm– p. 93/125Proposic¸a˜o 11. SeX ∼ β2(µ, ν), enta˜o E(Xα) = β(µ+ α, ν − α) β(µ, ν) , −µ < α < ν. Demonstrac¸a˜o: E(Xα) = ∫ ∞ 0 xα 1 β(µ, ν) xµ−1 (1 + x)µ+ν dx = 1 β(µ, ν) ∫ ∞ 0 xα+µ−1 (1 + x)µ+ν dx = β(µ+ α, ν − α) β(µ, ν) ∫ ∞ 0 1 β(µ+ α, ν − α) xα+µ−1 (1 + x)(µ+α)+(ν−α) dx = β(µ+ α, ν − α) β(µ, ν) c.q.d Em particular, E(Xk) = β(µ+ k, ν − k) β(µ, ν) = (µ+ k − 1)(µ+ k − 2) · · ·µ (ν − 1)(ν − 2) · · · (ν − k) , k = 1, 2, . . . [ν − 1] E(X) = µ ν − 1 , ν > 1, E(X 2) = (µ+ 1)µ (ν − 1)(ν − 2) , ν > 2 e V ar(X) = µ(µν − 1) (ν − 1)2(ν − 2) , ν > 2. msdfm – p. 94/125 Relações Proposic¸a˜o 12. SeX1 eX2 sa˜o varia´veis aleato´rias independentes com Xi ∼ G(λ, νi), i = 1, 2, enta˜o X1 +X2 ∼ G(λ, ν1 + ν2). Demonstrac¸a˜o: Sabemos que fX1+X2 (z) = ∫+∞ −∞ fX1 (z − x)fX2 (x)dx. Logo fX1+X2 (z) = ∫ +∞ −∞ λν1 Γ(ν1) (z−x)ν1−1e−λ(z−x)1(0,∞)(z−x) λν2 Γ(ν2) xν2−1e−λx1(0,∞)(x) = λν1+ν2 Γ(ν1)Γ(ν2) e−λz1(0,∞)(z) ∫ z 0 (z − x)ν1−1xν2−1dx t=x/z= λν1+ν2 Γ(ν1)Γ(ν2) zν1+ν2−1e−λz1(0,∞)(z) ∫ 1 0 (1− t)ν1−1tν2−1dt = λν1+ν2 Γ(ν1)Γ(ν2) zν1+ν2−1e−λz1(0,∞)(z)β(ν2, ν1) = λν1+ν2 Γ(ν1 + ν2) z(ν1+ν2)−1e−λz1(0,∞)(z). c.q.d msdfm – p. 95/125 Colora´rio 3. Se X1, X2, . . . , Xn sa˜o varia´veis aleato´rias independentes com Xi ∼ G(λ, νi), i = 1, 2, . . . n,enta˜o n∑ i=1 Xi ∼ G(λ, n∑ i=1 νi). msdfm – p. 96/125 Proposic¸a˜o 13. SeX e Y sa˜o varia´veis aleato´rias independentes comX ∼ G(λ, µ) e Y ∼ G(λ, ν) enta˜o X Y ∼ β2(µ, ν). Demonstrac¸a˜o: Sabemos que fX/Y (z) = ∫+∞ −∞ |x|fX(zx)fY (x)dx. Logo, fX/Y (z) = ∫ +∞ −∞ |x| λ µ Γ(µ) (zx)µ−1e−λzx1(0,∞)(zx) λν Γ(ν) xν−1e−λx1(0,∞)(x)dx = λµ+ν Γ(µ)Γ(ν) zµ−11(0,∞)(z) ∫ +∞ 0 xµ+ν−1e−λx(z+1)dx u=λ(z+1)x = λµ+ν Γ(µ)Γ(ν) zµ−11(0,∞)(z) ∫ +∞ 0 ( u λ(z + 1) )µ+ν−1 e−u du λ(z + 1) = 1 Γ(µ)Γ(ν) zµ−1 (1 + z)µ+ν 1(0,∞)(z) ∫ +∞ 0 uµ+ν−1e−udu = Γ(µ+ ν) Γ(µ)Γ(ν) zµ−1 (1 + z)µ+ν 1(0,∞)(z) = 1 β(µ,ν) zµ−1 (1+z)µ+ν 1(0,∞)(z). c.q.d msdfm – p. 97/125 Proposic¸a˜o 14. (i) X ∼ β2(µ, ν) ⇐⇒ X1+Xβ1(µ, ν). (ii) Y ∼ β1(µ, ν) ⇐⇒ Y1−Y β2(µ, ν). Demonstrac¸a˜o: : Exercı´cio (Use técnica do jacobiano no caso univariado) c.q.d Proposic¸a˜o 15. Se X e Y sa˜o varia´veis aleato´rias independentes com X ∼ G(λ, µ) e Y ∼ G(λ, ν) enta˜o X X + Y ∼ β1(µ, ν). Demonstrac¸a˜o: : Exercı´cio (Sugestão: Sabemos que quociente x Y é β2. Aplicando a Proposição 6 obtemos.... ) c.q.d msdfm – p. 98/125 Distribuições derivadas da Normal: 1. Distribuic¸a˜o χ2 Proposic¸a˜o 16. Se X ∼ N(0, 1), enta˜o X2 ∼ G (1 2 , 1 2 ) Demonstrac¸a˜o: Para y ≤ 0, P (X2 ≤ y) = 0. Se y > 0, P (X2 ≤ y) = P (−√y ≤ X ≤ √y) simetria= 2P (0 < X ≤ √y) = 2 ∫ √y 0 1√ 2π e− x2 2 dx z=x2 = 2 ∫ z 0 1√ 2 √ π e− 1 2 z dz 2 √ z dz = ∫ z 0 (1/2)1/2 Γ(1/2) z 1 2 −1e− 1 2 zdz. Ou seja X2 ∼ G (1 2 , 1 2 ) c.q.d msdfm – p. 99/125 Colora´rio 4. Sejam X1, X2, . . . , Xn varia´veis aleato´rias independentes e identicamente distribuidas N(0, 1). Enta˜o, n∑ i=1 Xi ∼ G(1 2 , n 2 ) . Demonstrac¸a˜o: Corolários 1 e 2. c.q.d Definic¸a˜o: A distribuição G(1 2 , n 2 ) é usualmente chamada de distribuição chi-quadrado com n graus de liberdade e denotada por χ2n. Assim se Y ∼ G(12 , n2 ) = χ2n, fY (y) = x(n/2)−1e−x/2 2n/2Γ(n/2) 1(0,∞)(y). msdfm – p. 100/125 Colora´rio 5. Se Y ∼ χ2n, enta˜o (i) E(Xα) = Γ((n/2)−α) (1/2)αΓ(n/2) = (n/2)((n/2)−1)···((n/2)+α−1) (1/2)α . (ii) E(Xk) = n(n+ 2) · · · (n+ 2k − 2). (iii) E(X) = n e V ar(X) = 2n. Demonstrac¸a˜o: Proposição 1. c.q.d Observac¸o˜es: (a) n = 2 ⇒ χ22 = Exp(1/2). (b) Será mostrado posteriormente (Teorema Central do Limite) que para n "grande", χ2n ≈ N(n, 2n). msdfm – p. 101/125 Densidades χ2n x f ( x ) 0 1 2 3 4 5 0 . 0 0 . 5 1 . 0 1 . 5 Chi-quadrado(1) x f ( x ) 0 1 2 3 4 5 0 . 1 0 . 2 0 . 3 0 . 4 0 . 5 Chi-quadrado(2)=Exp(1/2) x f ( x ) 0 1 2 3 4 5 0 . 1 0 0 . 1 5 0 . 2 0 Chi-quadrado(3) x f ( x ) 0 2 4 6 8 10 0 . 0 0 . 0 5 0 . 1 0 0 . 1 5 Chi-quadrado(5) msdfm– p. 102/125 Densidades χ2n x f ( x ) 0 10 20 30 40 50 60 0 . 0 0 . 0 2 0 . 0 4 0 . 0 6 0 . 0 8 0 . 1 0 Chi-quadrado(10) x f ( x ) 0 10 20 30 40 50 60 0 . 0 0 . 0 2 0 . 0 4 0 . 0 6 Chi-quadrado(20) x f ( x ) 0 10 20 30 40 50 60 0 . 0 0 . 0 1 0 . 0 2 0 . 0 3 0 . 0 4 0 . 0 5 Chi-quadrado(30) x f ( x ) 0 10 20 30 40 50 60 0 . 0 0 . 0 1 0 . 0 2 0 . 0 3 0 . 0 4 0 . 0 5 Chi-quadrado(30) versus N(30,2*30) msdfm– p. 103/125 Erros de aproximação X ∼ χ230, Z ∼ N(30, 60) u |fX(u)− fZ(u)| 6 0.00042 12 0.00235 18 0.000680 24 0.007090 30 0.000285 36 0.005415 42 0.001405 48 0.001093 54 0.000756 60 0.000228 u |FX(u)− FZ(u)| 6 0.00097 12 0.00867 18 0.01920 24 0.00869 30 0.03435 36 0.01121 42 0.01091 48 0.00976 54 0.00362 60 0.00087 msdfm– p. 104/125 Distribuições derivadas da Normal: 1. Distribuic¸a˜o F de Fisher. Considere X e Y variáveis aleatórias independentes com distribuições χ2m = G(1/2,m/2) e χ2n = G(1/2, n/2), respectivamente. Seja F a variável aleatória definida por: F = ( X m ) ( Y n ) = ( n m )X Y . Definic¸a˜o: A distribuição da variável aleatória F é chamada distribuic¸a˜o F comm e n graus de liberdade e denotafa por Fm,n msdfm – p. 105/125 A densidade de uma distribuição Fm,n pode ser facilmante encontrada. Pela Proposição 5, temos que W = X Y ∼ β2(m/2, n/2), ou seja fW (w) = 1 β(m/2, n/2) w(m/2)−1 (1 + w)(m/2)+(n/2) 1(0,∞)(w). Sabemos que para todo a ∈ R, faW (u) = 1 |a|fW (u/a) : msdfm – p. 106/125 Logo,como F = ( n m )X Y = ( n m ) W temos fF (v) = 1( n m )fW ( v( n m ) ) = m n fW (m n v ) = m n 1 β(m/2, n/2) ( m n v )(m/2)−1 ( 1 + ( m n v ))(m/2)+(n/2) 1(0,∞)(v). Exercı´cios: Use os resultados sobre a distribuicão β2 para calcular os momentos da distribuiçõ Fm,n. Cuidado com possíveis restrições nos graus de liberdade. msdfm – p. 107/125 D en sid ad esF m ,nx f ( x ) 0 1 2 3 4 0 . 1 0 . 2 0 . 3 0 . 4 0 . 5 0 . 6 F(3,4) x f ( x ) 0 1 2 3 4 0 . 1 0 . 2 0 . 3 0 . 4 0 . 5 0 . 6 F(4,3) x f ( x ) 0 1 2 3 4 5 0 . 0 0 . 1 0 . 2 0 . 3 0 . 4 0 . 5 0 . 6 F(5,6) x f ( x ) 0 1 2 3 4 5 0 . 0 0 . 1 0 . 2 0 . 3 0 . 4 0 . 5 0 . 6 F(6,5) m sdfm – p.108/125 Densidades Fm,n x f ( x ) 0 2 4 6 8 10 0 . 0 0 . 2 0 . 4 0 . 6 F(10,5) x f ( x ) 0 2 4 6 8 10 0 . 0 0 . 2 0 . 4 0 . 6 F(10,10) x f ( x ) 0 1 2 3 4 0 . 0 0 . 2 0 . 4 0 . 6 F(5,10) x f ( x ) 0 1 2 3 4 0 . 0 0 . 2 0 . 4 0 . 6 0 . 8 F(10,30) msdfm– p. 109/125 Distribuições derivadas da Normal: 1. Distribuic¸a˜o t de Student. Considere Z eX variáveis aleatórias independentes com distribuiçõesN(0, 1) e χ2n, respectivamente. Seja T a variável aleatória definida por: T = Z√ X/n . Definic¸a˜o: A distribuição da variável aleatória T é chamada distribuic¸a˜o t de Student com n graus de liberdade e denotafa por tn Exercicio 1.: Use a técnica do jacobiano para mostrar que a densidade de T é dada por: fT (t) = 1√ nπ Γ((n+ 1)/2) Γ(n/2)( 1 + t2 n )−(n+1)/2 . Sugestão: Considere inicialmente a transformação: T = Z√ X/n U = X. msdfm– p. 110/125 Seja n > 1, é fácil ver que E(T ) = E ( Z√ X/n ) independeˆncia = E(Z)E ( 1√ X/n ) = 0. Sabemos que T 2 = Z2 X/n ∼ F1,n, ou equivalentemente, T 2 n = Z2 X ∼ β2(1/2, n/2). Pela Proposição 3, E (T 2 n ) = 1/2 (n/2)− 1 , para (n/2) > 1. Logo, V ar(T ) = E(T 2) = n (n− 2) , para n > 2. Exercicio 2.: Escreva fT para n = 1 e mostre que nesse caso E(|X|) não existe. Analogamente, para n = 2, E(X2) não existe. msdfm – p. 111/125 Outras distribuições: Exercicio 2.: Escreva fT para n = 1 e mostre que nesse caso E(|X|) não existe. Analogamente, para n = 2, E(X2) não existe. msdfm – p. 112/125 Densidades tm,n x f ( x ) -3 -2 -1 0 1 2 3 0 . 0 5 0 . 1 0 0 . 1 5 0 . 2 0 0 . 2 5 0 . 3 0 t(1)=Cauchy(0,1) x f ( x ) -3 -2 -1 0 1 2 3 0 . 0 5 0 . 1 0 0 . 1 5 0 . 2 0 0 . 2 5 0 . 3 0 0 . 3 5 t(2) x f ( x ) -3 -2 -1 0 1 2 3 0 . 1 0 . 2 0 . 3 t(5) x f ( x ) -3 -2 -1 0 1 2 3 0 . 1 0 . 2 0 . 3 t(1) X t(2) X t(5) msdfm– p. 113/125 Densidades tm,n x f ( x ) -3 -2 -1 0 1 2 3 0 . 0 0 . 1 0 . 2 0 . 3 0 . 4 t(10) x f ( x ) -3 -2 -1 0 1 2 3 0 . 0 0 . 1 0 . 2 0 . 3 0 . 4 t(20) x f ( x ) -3 -2 -1 0 1 2 3 0 . 0 0 . 1 0 . 2 0 . 3 0 . 4 t(30) x f ( x ) -3 -2 -1 0 1 2 3 0 . 0 0 . 1 0 . 2 0 . 3 0 . 4 t(10) X t(20) X t(30) X N(0,1) msdfm– p. 114/125 Erro de aproximação para a densidade t30 pela da N(0, 1) x f ( x ) -3 -2 -1 0 1 2 3 0 . 0 0 . 1 0 . 2 0 . 3 0 . 4 t(30) X N(0,1) x |fT (x)− fZ(x)| -3.0 0.00235 -2.5 0.00353 -2.0 0.00286 -1.5 0.00056 -1.0 0.00398 -0.5 0.00419 0.0 0.00331 0.5 0.00419 1.0 0.00398 1.5 0.00056 2.0 0.00286 2.5 0.00353 3.0 0.00235 msdfm – p. 115/125 Distribuição de Cauchy com parâmetros µ ∈ R e σ > 0 msdfm – p. 116/125 Distribuição de Lognormal com parâmetros µ ∈ R e σ2 > 0 msdfm – p. 117/125 Distribuição normal multivariada Nesta secc¸a˜o, por questo˜es de notac¸a˜o, vetores em Rn (aleato´rios ou na˜o) sera˜o entendidos como vetores coluna. Proposic¸a˜o 17. Seja ~X um vetor aleato´rio absolutamente contı´nuo, de dimensa˜o n (n× 1) e com func¸a˜o densidade de probabilidade f ~X . Defina o vetor aleato´rio ~Y = A ~X +~b, onde A e´ uma matriz n× n e~b um vetor n× 1. Se A e´ na˜o singular, enta˜o f~Y (~y) = 1 |det(A)|f ~X(A −1(~y −~b)). msdfm – p. 118/125 Demonstrac¸a˜o: Pelo TMV, se a transformação ~y = g(~x) de Rn emRn é invertível, ∂xi ∂yj existe para i, j = 1, 2, . . . , n e o jacobiano da transformação, J(~y) = det ( ∂xi ∂yj ) i,j=1,2,...,n , é não nulo, então f~Y (~y) = f ~X(g −1(~y))|J(~y)| Na proposisão, é facil ver que: g−1(~y) = A−1(~y −~b) e J(~y) = det(A−1) = 1 det(A) . Logo, f~Y (~y) = 1 |det(A)|f ~X(A −1(~y −~b)). c.q.d – p. 119/125 Definições, notações e observaões (a) Se ~X′ = (X1, X2, . . . , Xn) é um vetor aleatório onde E(X2i ) <∞ para i = 1, 2, . . . , n, definimos o vetor me´dia de ~X por ~µ ~X = E( ~X) = E(X1) E(X2) . . . E(Xn) e matriz de covariancia de ~X por Σ ~X = Cov(X1, X1) Cov(X1, X2) · · · Cov(X1, Xn) Cov(X2, X1) Cov(X2, X2) · · · Cov(X2, Xn) . . . . . . . . . . . . Cov(Xn, X1) Cov(Xn, X2) · · · Cov(Xn, Xn) msdfm – p. 120/125 (b) Exercı´cio: Mostre que Σ ~X é simétrica e positiva definida. (c) Para ~Y = A ~X +~b, como na Proposição 9, temos Yi = n∑ j=1 ai,jXj + bi, i = 1, 2, . . . n. (c1)Exercı´cio: Mostre que ~µ~Y = E( ~Y ) = E(A ~X +~b) = A~µ ~X + ~b (c2)Exercı´cio: Mostre que Σ~Y = AΣ ~XA ′. msdfm – p. 121/125 Proposic¸a˜o 18. Se Z1, Z2, . . . , Zn sa˜o varia´veis aleato´rias independentes e identicamente distribuidas N(0, 1) e ~Y = A~Z +~b , onde A e´ uma matriz n× n na˜o singular e~b um vetor n× 1,enta˜o f~Y (~y) = 1 (2π)n/2|det(Σ~Y )|1/2 exp(−1/2(~y − ~µ~Y )′Σ−1~Y (~y − ~µ~Y )), onde ~µ = ~b e Σ~Y = AA ′. msdfm – p. 122/125 Demonstrac¸a˜o: Seja ~Z′ = (Z1, Z2, . . . , Zn). f~Z(~z) independencia = n∏ i=1 fZi (zi) = n∏ i=1 1√ 2π e−z 2 i /2 = 1 (2π)n/2 e− ∑n i=1 z 2 i /2 = 1 (2π)n/2 e−~z ′~z/2. Claramente (exercíıcio), ~y = A~z +~b =⇒ ~z = A−1(~y −~b) e J(~z) = A−1. Pela Proposição 9, f~Y (~y) = 1 |det(A)|f~Z(A −1(~y −~b)) = 1 (2π)n/2|det(A)| e − ( A−1(~y−~b) ) ′ ( A−1(~y−~b) ) /2 = 1 (2π)n/2|det(A)| e −(~y−~b)′ ( A−1 ) ′ ( A−1 ) (~y−~b) ) /2 = 1 (2π)n/2|det(A)| e −(~y−~b)′ ( AA′ ) −1 (~y−~b)/2 msdfm – p. 123/125 Fazendo ~µY = b e Σ~Y = AA ′, temos A = Σ 1/2 ~Y , e |det(A)| = |det(Σ1/2 ~Y )| = |det(Σ~Y )|1/2. Portanto, f~Y (~y) = 1 (2π)n/2|det(Σ~Y )|1/2 exp(−1/2(~y − ~µ~Y )′Σ−1~Y (~y − ~µ~Y )). c.q.d Definic¸a˜o: Um vetor aleatório absolutamente contínuo com função densidade de probabilidade dada na Proposição 10 acima é dito ter uma distribuic¸a˜o normal multivariada com vetor me´dia ~µ~Y e matriz de covariaˆncia Σ~Y . Notação: Nn(~µ~Y ,Σ~Y ). msdfm – p. 124/125 Exercı´cio. Mostre que no caso n = 2 a densidade de uma distribuição normal bivariada se reduz a: fY1,Y2 (y1, y2) = 1 2π(1− ρ2)(1/2) exp ( − 1 2(1− ρ2) ((y1 − µ1 σ1 )2−2ρ(y1 − µ1 σ1 )(y2 − µ2 σ2 ) + (y2 − µ2 σ2 )2)) , onde ~µ~Y = µ1 µ2 e ,Σ~Y = σ21 σ1σ2ρ σ1σ2ρ σ22 , σ21 = V ar(Y1), σ 2 2 = V ar(Y2) e ρ = Cov(Y1, Y2) σ1σ2 = Corr(Y1, Y2). msdfm – p. 125/125 small Distribuic c~ao Uniforme em (a,b)null$(Xsim U(a,b))$. small UNIFORMES $(-2,2);(-1,2);(0,1)$nulle $(0,2.5)$ small Distribuic c~ao Expon^encial com par^ametro $lambda >0$\ $(Xsim Exp(lambda ))$. small Densidades expon^enciais $lambda =0,5, 1, 2$. small Falta de mem'oria small Distribuic c~ao de Normal (ou Gaussiana)nullcom par^ametros $mu $ e $sigma ^2$ ($Xsim N(mu ,sigma ^2)$) small Densidades Normais small small small Teorema de De Moivre-Laplace small Aproximac c~ao local da Binomial pela Normal. small Aproximac c~ao local da Binomial pela Normal. small Ap^endice:Formula de Stirling Ap^endice Ap^endice Ap^endice Ap^endice Ap^endice Ap^endice Ap^endice Ap^endice Ap^endice Ap^endice Ap^endice small De Moivre-Laplace, limite local small Ap^endice; Demonstrac c~ao do Teorema de De Moivre-Laplace small Func c~ao e distribuic c~ao Gama small Gr'afico da Func c~ao Gama small Propriedades relevantes small Demonstrac c~oes: small Outras propriedades small Distribuic c~ao Gama $G(nullu ,lambda )$ small Func c~ao e distribuic c~oes do tipo Beta small Propriedades: small Distribuic c~ao BETA 1 $(nulleta _1(mu ,nullu ))$ small Densidades beta 1 small Densidades beta 1 small Distribuic c~ao BETA 2 $(nulleta _2(mu ,nullu ))$ small Densidades beta 2 small Densidades beta 2 small Relac c~oes small Distribuic c~oes derivadas da Normal: small Densidades $chi ^2_n$ small Densidades $chi ^2_n$ small Erros de aproximac c~ao $Xsim chi ^2_{30}, Zsim N(30,60)$ small Distribuic c~oes derivadas da Normal: small Densidades F$_{m,n}$ small Densidades F$_{m,n}$ small Distribuic c~oes derivadas da Normal: small Outras distribuic c~oes: small Densidades $mathbf {t}_{m,n}$ small Densidades $mathbf {t}_{m,n}$ small Erro de aproximac c~ao para a densidade $t_{30}$ pelada $N(0,1)$ small Distribuic c~ao de Cauchy com par^ametros $mu in mathbb {R}$ e $sigma >0$ small Distribuic c~ao de Lognormal com par^ametros $mu in mathbb {R}$ e $sigma ^2>0$ small Distribuic c~ao normal multivariada small Definic c~oes, notac c~oes e observa~oes
Compartilhar