Baixe o app para aproveitar ainda mais
Prévia do material em texto
2013 ME-310. PROBABILIDADE II CÁPITULO 1: Revisão e complementos Mauro S. de F. Marques msdfm – p. 1/100 Vetores aleatórios Um vetor ~X = (X1, X2, . . . , Xn), onde cada coordenada Xi é uma variável aleatória, é chamado um vetor aleato´rio. Podemos também definir um vetor aleatório, ~X = (X1, X2, . . . , Xn), como uma aplicação ~X : Ω 7→ Rn ω ~X(ω) = (X1(ω), X2(ω), . . . , Xn(ω)), onde para cada i, [Xi ≤ x] ∈ F , ∀x ∈ R. msdfm – p. 2/100 Probabilisticamente um vetor aleatório estará caracterizado se conhecermos a sua func¸a˜o distribuic¸a˜o de probabilidade conjunta definida por F ~X : R n 7→ R ~x F ~X(~x), onde F ~X(~x) ≡ FX1,X2,...,Xn(x1, x2, . . . , xn) = = P (∩ni=1[Xi ≤ xi]) ≡ P (X1 ≤ x1, X2 ≤ x2, . . . , Xn ≤ xn). msdfm – p. 3/100 Uma função distribuição de probabilidade conjunta tem propriedades análogas àquelas do caso univariado e a verificação é deixada como exercício. 1. 0 ≤ F ~X(~x) ≤ 1 2. F ~X é não decrescente em cada coordenada. 3. F ~X é contínua a direita em cada coordenada. 4. limxi→−∞FX1,X2,...,Xn(x1, x2, . . . , xn) = 0, ∀i ∧ limxi→∞,i=1,2,...,nFX1,X2,...,Xn(x1, x2, . . . , xn) = 1. msdfm – p. 4/100 5. Adicionalmente, no caso multivariado, temos que, para todo par de reais (ai, bi), ai < bi, i = 1, 2, . . . , n, △(1)a1,b1△ (2) a2,b2 . . .△(n)an,bnFX1,X2,...,Xn (x1, x2, . . . , xn) ≥ 0, onde △(i)ai,big(y1, . . . , yi, . . . , yn) = g(y1, . . . , bi, . . . , yn)− g(y1, . . . , ai, . . . , yn). No caso n = 2, a Propriedade 5 se reduz a (Exercício ) △(1)a1,b1△ (2) a2,b2 FX1,X2 (x1, x2) = FX1,X2 (b1, b2)− FX1,X2 (a1, b2)− FX1,X2 (b1, a2) + FX1,X2 (a1, a2) ≥ 0 e △(1)a1,b1△ (2) a2,b2 FX1,X2 (x1, x2) = P (a1 < X1 ≤ b1, a2 < X2 ≤ b2). msdfm – p. 5/100 Fato: Dado uma função G : Rn 7−→ R, satisfazendo as condições 1,2,3,4 e 5, então G é a função de distribuição conjunta de algum vetor aleatório, isto é, G = FX1,X2,...,Xn, para algum vetor aleatório X1, X2, . . . , Xn. A demostração de tal fato está acima do nível aqui desejado e será omitida! X1, X2, . . . , Xn ←→ FX1,X2,...,Xn. – p. 6/100 Dado um subvetor (Xi1 , Xi2 , . . . , Xin), do vetor aleatório (X1, X2, . . . , Xn), a distribuição de probabilidade conjunta deste subvetor, neste contexto, é chamada de distribuic¸a˜o conjunta marginal de (Xi1 , Xi2 , . . . , Xik) pode ser obtida fazendo todas as coordenadas que não são de interesse na distribuição conjunta de X1, X2, . . . , Xn tenderem para +∞, isto é, lim xi→∞, i 6=i1,i2,...,ik FX1,X2,...,Xn(x1, x2, . . . , xn) = FXi1 ,Xi2 ,...,Xik (xi1 , xi2 , . . . , xik) msdfm – p. 7/100 Dizemos que as variáveis aleatórias (X1, X2, . . . , Xn) são independentes se os eventos [X1 ≤ x1], [X2 ≤ x2], . . . , [Xn ≤ xn] são indapendentes para todo (x1, x2, . . . , xn) em Rn. Exercicio: Mostre que (X1, X2, . . . , Xn) são independentes, se e somente se FX1,X2,...,Xn(x1, x2, . . . , xn) = FX1(x1)FX2(x2). · · · .FXn(xn) para todo (x1, x2, . . . , xn) em Rn. msdfm – p. 8/100 Note que a condição no exercício anterior implica em FXi1 ,Xi2 ,...,Xik (xi1 , xi2 , . . . , xik) = FXi1 (xi1)FXi2 (xi2) · · ·FXik (xik), para todo (i1, i2, . . . , ik) ⊂ {1, 2, . . . , n}. Logo (Exercício): (X1, X2, . . . , Xn) independentes⇐⇒ (Xi1 , Xi2 , . . . , Xik) independentes. para todo (i1, i2, . . . , ik) ⊂ {1, 2, . . . , n}. msdfm – p. 9/100 Um vetor aleatório ~X = (X1, X2, . . . , Xn) (ou uma função distribuição de probabilidade conjunta) é dito ser discreto se as variáveis aleatórias X1, X2, . . . , Xn são todas discretas. Neste caso, existe um conjunto contável D ~X ⊂ DX1 ×DX2 × · · · ×DXn tal que P ( ~X ∈ D ~X) = P ({ω : ~X(ω) ∈ D ~X}) = 1; e FX1,X2,...,Xn (x1, x2, . . . , xn) =∑∑ · · · ∑ y1≤x1,y2≤x2,...,yn≤xn P (X1 = y1, X2 = y2, . . . , Xn = yn). Note que o somatório está bem definido uma vez que P (X1 = y1, X2 = y2, . . . , Xn = yn) = 0 para (y1, y2, . . . , yn) 6∈ D ~X . msdfm – p. 10/100 EXERC´ICIO:Mostre que um vetor aleatório discreto é independente se e somente se P (X1 = x1, X2 = y2, . . . , Xn = xn) = P (X1 = x1)P (X2 = x2) · · ·P (Xn = xn), ∀(x1, x2, . . . , xn). msdfm – p. 11/100 EXEMPLOS: 1.Consideremos uma urna com 3 bolas vermelhas, 4 bolas brancas e 5 bolas azuis. Suponhamos que 3 bolas sejam simultaneamente selecionadas ao acaso e que o vetor aleatório (X, Y ) represente, respectivamente, o número de bolas vermelhas e o número de bolas brancas selecionadas.Então, P (X = x, Y = y) = ( 3 x )( 4 y )( 5 3−x−y ) ( 12 3 ) , para x = 0, 1, 2, 3; y = 0, 1, 2, 3, comx+ y ≤ 3. msdfm – p. 12/100 2. Seja (X,Y ) o vetor aleatório representando, respectivamente a soma e o máximo dos pontos obtidos em dois lançamentos de um dado equilibrado. A função de probabilidade de (X,Y ) é dada por (x,y) 1 2 3 4 5 6 P(X=x) 2 1/36 0 0 0 0 0 1/36 3 0 2/36 0 0 0 0 2/36 4 0 1/36 2/36 0 0 0 3/36 5 0 0 2/36 2/36 0 0 4/36 6 0 0 1/36 2/36 2/36 0 5/36 7 0 0 0 2/36 2/36 2/36 6/36 8 0 0 0 1/36 2/36 2/36 5/36 9 0 0 0 0 2/36 2/36 4/36 10 0 0 0 0 1/36 2/36 3/36 11 0 0 0 0 0 2/36 2/36 12 0 0 0 0 0 1/36 1/36 P(Y=y) 1/36 3/36 5/36 7/36 9/36 11/36 1 msdfm – p. 13/100 EXERC´ICIO: No Exemplo 2, X e Y são variáveis aleatórias independentes? msdfm – p. 14/100 Um vetor aleatório ~X = (X1, X2, . . . , Xn) (ou uma função distribuição de probabilidade conjunta) é dito ser absolutamnete contı´nuo se F ~X(~x) = FX1,X2,...,Xn(x1, x2, . . . , xn) =∫ x1 −∞ ∫ x2 −∞ · · · ∫ xn −∞ fX1,X2,...,Xn(y1, y2, . . . , yn)dy1dy2 · · · dyn, para alguma função f ~X = fX1,X2,...,Xn : R n 7→ R, "não negativa". Uma tal função f ~X = fX1,X2,...,Xn é chamada func¸a˜o densidade de probabilidade conjunta. msdfm – p. 15/100 Os seguinte fatos são importantes: 1) 1 = FX1,X2,...,Xn (+∞,+∞, . . . ,+∞) = lim x1→∞ lim x2→∞ . . . lim xn→∞ ∫ x1 −∞ ∫ x2 −∞ · · · ∫ xn −∞ fX1,X2,...,Xn (y1, y2, . . . , yn)dy1dy2 · · · dyn = ∫ +∞ −∞ ∫ +∞ −∞ · · · ∫ +∞ −∞ fX1,X2,...,Xn (y1, y2, . . . , yn)dy1dy2 · · · dyn 2) F ~X não muda se f ~X é modificada em um número finito (ou mesmo contável) de pontos ~x. Portanto, uma função densidade de probabilidade não é única. msdfm – p. 16/100 3) P (a1 < X1 ≤ b1, a2 < X2 ≤ b2, . . . , an < Xn ≤ bn, ) =∫ b1 a1 ∫ b2 a2 · · · ∫ bn an fX1,X2,...,Xn (y1, y2, . . . , yn)dy1dy2 · · · dyn 4.Se FX1,X2,...,Xn(x1, x2, . . . , xn) é derivável em (x1, x2, . . . , xn), então, pelo Terema Fundamental do Cálculo, ∂nFX1,X2,...,Xn(x1, x2, . . . , xn) ∂x1∂x2 · · · ∂xn = fX1,X2,...,Xn(x1, x2, . . . , xn). 5. (Elementar) Um vetor absolutamante continuo X1, X2, . . . , Xn assume valores em um conjunto infinito não enumerával. msdfm – p. 17/100 EXERC´ICIO:Mostre que um vetor aleatório absolutamente contínuo é independente se e somente se fX1,X2,...,Xn(x1, x2, . . . , xn) = fX1(x1)fX2(x2) · · · fXn(xn), ∀(x1, x2, . . . , xn). msdfm – p. 18/100 Funções de probabilidade e densidades marginais Caso bidimensional absolutamennte contı´nuo: FX,Y (x, y) = ∫ x −∞ ∫ y −∞ fX,Y (u, v)dvdu. Distribuição marginal de X FX(x) = lim y→∞ FX,Y (x, y) = lim y→∞ ∫ x −∞ ∫ y −∞ fX,Y (u, v)dvdu = ∫ x −∞ ∫ +∞ −∞ fX,Y (u, v)dvdu = ∫ x −∞ (∫ +∞ −∞ fX,Y (u, v)dv ) du = ∫ x −∞ g(u)du msdfm – p. 19/100 FX(x) = ∫ x −∞ g(u)du =⇒ X absolutamente cont´inua e g(x) = fX(x) = ∫ +∞ −∞ fX,Y (u, v)dv msdfm – p. 20/100 Caso multivariado absolutamennte contı´nuo: fXi1 ,Xi2 ,...,Xik (xi1 , xi2 , . . . , xik) =∫ +∞ −∞ (n−k)· · · ∫ +∞ −∞ fX1,...,Xn(x1, , . . . , xn)dxj1dxj2 · · · dxjn−k ,jl 6= i1, i2, . . . ik, l = 1, 2, . . . , n− k. (EXERC´ICIO!) msdfm – p. 21/100 Caso bidimensional discreto: FX,Y (x, y) = ∑ u≤x ∑ v≤y P (X = u, Y = v) = ∑ u≤x ∑ v≤y pX,Y (u, v). FX(x) = lim y→∞FX,Y (x, y) = limy→∞ ∑ u≤x ∑ v≤y pX,Y (u, v) = ∑ u≤x ∑ v<∞ pX,Y (u, v) = ∑ u≤x pX(u) = ∑ u≤x P (X = u). Caso multivariado discreto: P (Xi1 = xi1 , Xi2 = xi2 , . . . , Xik = xik ) = ∑ xj1 (n−k)· · · ∑ xjn−k P (X1 = x1, . . . , Xn = xn), jl 6= i1, i2, . . . ik, l = 1, 2, . . . , n− k. (EXERC´ICIO!) msdfm – p. 22/100 Exercício: As funções abaixo podem ser funções bivariadas de distribuição de probabilidade acumuladas de alguma variável aleatória? Justifique! (i) F (x, y) = (1− e−x)(1− e−y)1[0,∞)(x)1[0,∞)(y). (ii) F (x, y) = (1− e−x−y)1[0,∞)(x)1[0,∞)(y). (iii) F (x, y) = (1− e−x − xe−y)1[0,y](x) + (1− e−y − ye−x)1[0,x](y). (iv) F (x, y) =∫ x −∞ ∫ y −∞ 1 2π √ 1−ρ2 exp (− 1 2(1−ρ2)(u 2 − 2ρuv + v2))dudv, ρ2 < 1. msdfm – p. 23/100 Exemplos: 1. Considere um ponto escolhido ao acaso em um quadrado de lado. Uma forma conveniente para representar o espaço amostral é: Ω = {(ω1, ω2) ∈ R2 : 0 < ω1 ≤ 1, 0 < ω1 ≤ 1}. Defina X(ω1, ω2) = min(ω1, ω2) e Y (ω1, ω2) = max(ω1, ω2). Para encontrar a distribuição donjunta de (X, Y ),consideremos o evento [X ≤ x, Y ≤ y] = {(ω1, ω2) ∈ Ω : min(ω1, ω2) ≤ x,max(ω1, ω2) ≤ y} msdfm – p. 24/100 1. Se x ≤ 0 ou y ≤ 0 [X ≤ x, Y ≤ y] = ∅ 2. Se x ≥ y, [X ≤ x, Y ≤ y] = [Y ≤ y] 3. Se x < 1 ≤ y, [X ≤ x, Y ≤ y] = [X ≤ x] 4. Se 0 < x < y ≤ 1, é fácil ver graficamente que [X ≤ x, Y ≤ y] = [0 < X < Y ≤ y] ∪ [Y > y] 5. Se x ≥ 1 e y ≥ 1, [X ≤ x, Y ≤ y] = Ω msdfm – p. 25/100 Logo, FX,Y (x, y) = P (X ≤ x, Y ≤ y) = P (∅) se x ≤ 0 ou y ≤ 0 P (Y ≤ y) se 0 < y ≤ x P (X ≤ x) se 0 < x < 1 ≤ y P (0 < X ≤ Y ≤ y) + P (Y > y) se 0 < x < y ≤ 1 P (Ω) se x ≥ 1 e y ≥ 1 msdfm – p. 26/100 Calculando as probabilidades necessárias temos: (i) P (Y ≤ y) = P ({(ω1, ω2) ∈ Ω : max(ω1, ω2) ≤ y}) = P ({(ω1, ω2) ∈ Ω : 0 < ω1 ≤ y, 0 < ω2 ≤ y}) = y2. (ii) P (X ≤ x) = P ({(ω1, ω2) ∈ Ω : min(ω1, ω2) ≤ x}) = 1− P ({(ω1, ω2) ∈ Ω : min(ω1, ω2) > x}) = 1− P ({(ω1, ω2) ∈ Ω : ω1 > x, ω2 > x}) = 1− (1− x)2. (iii) P (0 < X < Y ≤ y) = P ({(ω1, ω2) ∈ Ω : x < min(ω1, ω2) ≤ max(ω1, ω2) ≤ y} = P ({(ω1, ω2) ∈ Ω : x < ω1 ≤ y, x < ω2) ≤ y} = (y − x)2. (iv) P (Y > y) = 1− P (Y ≤ y) = 1− y2. msdfm – p. 27/100 Obtemos então: FX,Y (x, y) = 0 se x ≤ 0 ou y ≤ 0 y2 se 0 < y ≤ x 1− (1− x)2 = x(2− x) se 0 < x < 1 ≤ y (y − x)2 + (1− y2) = 1− 2xy + x2 se 0 < x < y ≤ 1 1 se x ≥ 1 e y ≥ 1 msdfm – p. 28/100 Exercício (trabalhoso, use um pouco de geometria ana- lítiva em R2) 2. Considere o experimento aleatório onde um ponto ao acaso e escolhido em um círculo de raio R , isto é, Ω = {(u, v) : u2 + v2 ≤ R2}. Defina X((u, v)) = √ u2 + v2; Y ((u, v)) = |u|+ |v| e Z((u, v)) = max(u, v). (i) Encontre, seguindo a ordem abaixo, (a) FX , FY e FZ (b) FX,Y , FX,Z e FY,Z (c) FX,Y,Z (ii) X ,Y e Z são independentes? (iii) X ,Y e Z são absolutamente contínuas? msdfm – p. 29/100 Transformações de Variáveis aleatr´ias Considere X uma variável aleatória com distribuição FX . Seja g : R 7→ R uma função tal que Y = g(X) = g ◦X é uma variável aleatória. Note que: Ω X−→ R g−→ R Portanto Y = g(X) : Ω 7−→ R. Pergunta: Qual á a distribuição da variável aleatória Y ? msdfm – p. 30/100 FY (y) = P (Y ≤ y) = P ({ω : Y (ω) ≤ y}) = P ({ω : g(X(ω)) ≤ y}) = P (g(X) ≤ y). = P ({ω : X(ω) ∈ {x : g(x) ≤ y}}) = P ( X ∈ {x : g(x) ≤ y}) = ∑ {x:g(x)≤y}P (X = x) se X e´ discreto ∫ {x:g(x)≤y}fX(x)dx se X e´ abs. cont´inuo msdfm – p. 31/100 EXEMPLOS 1. Y = g(X) = X2. FY (y) = P (Y ≤ y) = P (g(X) ≤ y) = P (X2 ≤ y) = 0 se y < 0P (−√y ≤ X ≤ √y) se y ≥ 0. Se y ≥ 0, FY (y) + P (−√y ≤ X ≤ √y) = P ([X = −√y] ∪ [−√y < X ≤ √y)]) = P (X = −√y) + P (−√y < X ≤ √y) =( FX(−√y)− FX(−√y−) ) + ( FX( √ y)− FX(−√y) ) = FX( √ y)− FX(−√y−). – p. 32/100 Assim, Y = g(X) = X2 =⇒ FY (y) = P (Y ≤ y) = 0 se y < 0FX(√y)− FX(−√y−) se y ≥ 0. No caso discreto, Y também discreto e: FY (y) = ∑ x≤√y P (X = x)− ∑ x<−√y P (X = x) e P (Y = y) = P (X = √ y) + P (X = −√y) msdfm – p. 33/100 No caso X absolutamente contínuo, Y também é absolutamente contínuo e: FY (y) = P (Y ≤ y) ={ 0 se y < 0 FX( √ y)− FX(−√y) se y ≥ 0. = { 0 se y < 0∫ √y −√y fX(x)dx se y ≥ 0. msdfm – p. 34/100 Como FY (y) = P (Y ≤ y) = 0 se y < 0FX(√y)− FX(−√y) se y ≥ 0, se FX é diferenciável em √ y e −√y, então FY é diferenciável em y e fY (y) = dFY (y) dy = 0 se y < 0 d ( FX ( √ y)−FX (−√y) ) dy se y ≥ 0, 0 se y < 0fX(√y)( 12√y )− fX(−√y)(− 12√y ) se y ≥ 0, = 1 2 √ y ( fX( √ y) + fX(−√y) ) 1[0,∞)(y). msdfm – p. 35/100 EXERC´ICIO: Dado X ∼ FX , encontre FY quando (i) Y = |X|. (ii) Y = √|X|. (iii) Y = X3. (iv) Y = sen(X) e X é absolutamente contínuo. Y é absolutamente contínuo? msdfm – p. 36/100 Transformação afim Dado X ∼ FX , qual é a distribuição de Y = aX + b, onde a e b são números reais? FY (y) = P (Y ≤ y) = P (aX + b ≤ y) = P (aX ≤ y − b) = P (X ≥ y−b a ) se a < 0 P (Ω) = 1 se y − b ≥ 0 e a = 0 P (∅) = 0 se y − b < 0 e a = 0 P (X ≤ y−b a ) se a > 0 Para a 6= 0 FY (y) = 1− P (X < y−b a ) = 1− FX((y−ba )−) se a < 0 P (X ≤ y−b a ) = FX( y−b a ) se a > 0 msdfm– p. 37/100 Y = aX + b, a 6= 0 Se FX é absolutamente contínua e diferenciável em y−b a : FY (y) = { 1− FX(y−ba ) se a < 0 FX( y−b a ) se a > 0 e fY (y) = dFY (y) dy = {−fX(y−ba )1a se a < 0 fX( y−b a ) 1 a se a > 0 , Ou seja fY (y) = 1 |a|fX (y − b a ) msdfm – p. 38/100 Seja Y = g(X) com g contínua e invertível. FY (y) = P (Y ≤ y) = P (g(X) ≤ y) = = { P (X ≤ g−1(y)) se g e´ crescente P (X ≥ g−1(y)) se g e´ decrescente = { P (X ≤ g−1(y)) se g e´ crescente 1− P (X < g−1(y)) se g e´ decrescente = { FX(g −1(y)) se g e´ crescente 1− FX(g−1(y)−) se g e´ decrescente msdfm – p. 39/100 Y = g(X) com g contínua,invertível e diferenciável Se FX é absolutamente contínua e diferenciável em g−1(y): FY (y) = FX(g −1(y)) se g e´ crescente 1− FX(g−1(y)) se g e´ decrescente e fY (y) = dFY (y) dy = fX(g −1(y))dg −1(y) dy se g e´ crescente −fX(g−1(y))dg−1(y)dy se g e´ decrescente ou fY (y) = ∣∣∣dg−1(y) dy ∣∣∣fX(g−1(y)) = 1∣∣dg(y) dy ∣∣fX(g−1(y)). msdfm – p. 40/100 Exercı´cios: 1. Seja X uma variável aleatória com distribuição FX(x) = (1− e−x)1(0,∞)(x). Encontre a distribuição de Y = (1− e−X)1(0,∞)(X). Y é absolutamente contínua? Em caso positivo, qual é a densidade de Y 2. Seja U uma variável aleatória com função densidade de probabilidade dada por fU(u) = 1(0,1)(u). Encontre a dsitribuição de Y = − ln(1− U). 3. Seja X uma variável aleatório com distribuição FX(x) absolutamente contínua e invertível. Encontre a distribuição de Y = F−1X (U). 4. Sejam U e FX(x) como nos exercícios 2 e 3. Encontre a distribuição de Y = FX(X). Y tem uma função densidade de probabilidade? – p. 41/100 Transformações de vetores aleatórios Considere ~X = (X1, X2, . . . , Xn) um vetor aleatório e uma transformação g : Rn 7−→ R.Defina a variável aleatória Y por Y = g( ~X) = g(X1, X2, . . . , Xn). Dada distribuição conjunta de (X1, X2, . . . , Xn), FX1,X2,...,Xn , queremos obter a distribuição de Y, FY . Para tanto temos, FY(y) = P (Y ≤ y) = P (g(X1, X2, . . . , Xn) ≤ y) = P ((X1, X2, . . . , Xn) ∈ Ay), onde Ay = {(x1, x2, . . . , xn) ∈ Rn; g(x1, x2, . . . , xn) ≤ y} = g−1 [ (−∞, y]]. msdfm – p. 42/100 Caso discreto: Claro que (X1, X2, . . . , Xn) discreto implica em Y discreto, logo, para D ~X um conjunto discreto tal que P ( ~X ∈ D ~X) = 1, temos P (Y = y) = ∑ (xm,1,xm,2,...,xm,n): g((xm,1,xm,2,...,xm,n))=y (xm,1,xm,2,...,xm,n)∈D ~X P (X1 = xm,1, X2 = xm,2, . . . , Xn = xm,n) Ou equivalentemente FY (y) = P ( ~X ∈ Ay) = P ( ~X ∈ (Ay ∩D ~X) = ∑ (xm,1,xm,2,...,xm,n): g((xm,1,xm,2,...,xm,n))≤y (xm,1,xm,2,...,xm,n)∈D ~X P (X1 = xm,1, X2 = xm,2, . . . , Xn = xm,n). O problema agora, que pode ser trabalhoso, se resume contagem! msdfm – p. 43/100 Exemplos bivariados Considere (X1, X2) um vetor aleatório com distribuição FX1,X2. Seja g : R2 7→ R uma função tal que Y = g(X1, X2) = g ◦ (X1, X2) é uma variável aleatória. Note que: Ω (X1,X2)−→ R2 g−→ R Portanto Y = g(X1, X2) : Ω 7−→ R. Pergunta: Qual é a distribuição da variável aleatória Y ? msdfm – p. 44/100 FY (y) = P (Y ≤ y) = P ({ω : Y (ω) ≤ y}) = P ({ω : g((X1, X2)(ω)) ≤ y}) = P (g(X1, X2) ≤ y). = P ({ω : (X1, X2)(ω) ∈ {(x1, x2) : g(x1, x2) ≤ y}}) = P ( (X1, X2) ∈ {(x1, x2) : g(x1, x2) ≤ y} ) = ∑ {(x1,x2):g(x1,x2)≤y}P (X1 = x1, X2 = x2) se (X1, X2) e´ discreto ∫ {(x1,x2):g(x1,x2)≤y}fX1,X2 (x1, x2)dx1dx2 se (X1, X2) e´ abs. cont´inuo msdfm – p. 45/100 Y = g(X1, X2) = X1 +X2 Caso discreto: Basta encontrar (P (Y = y) : y ∈ R). P (X1 +X2 = y) =∑ {(x1,x2):x1+x2=y} P (X1 = x1, X2 = x2) =∑ x2 P (X1 = y − x2, X2 = x2) = msdfm – p. 46/100 Y = g(X1, X2) = X1 +X2 Caso absolutamente contı´nuo: FY (y) = P ( (X1, X2) ∈ {(x1, x2) : x1 + x2 ≤ y} ) =∫ {(x1,x2):x1+x2≤y} fX1,X2(x1, x2)dx1dx2 = ∫ +∞ −∞ ∫ −x1+y −∞ fX1,X2(x1, x2)dx2dx1 Fazendo z = x1 + x2 na integral interna temos:∫ +∞ −∞ ∫ +y −∞ fX1,X2(x1, z − x1)dzdx1 msdfm – p. 47/100 FY (y) = ∫ +∞ −∞ ∫ +y −∞ fX1,X2(x1, z − x1)dzdx1. Como o integrando é não negativo podemos inverter a ordem de integração obtendo: FY (y) = ∫ +y −∞ ∫ +∞ −∞ fX1,X2(x1, z − x1)dx1dz = ∫ +y −∞ (∫ +∞ −∞ fX1,X2(x1, z − x1)dx1 ) dz = ∫ +y −∞ h(z)dz. Logo, Y é absolutamente contínuo, isto é, FY (y) = ∫ +y −∞ fY (z)dz, onde fY (y) = ∫ +∞ −∞ fX1,X2(x1, y−x1)dx1 msdfm – p. 48/100 Para Y = X1 +X2 temos no caso em que X1 e X2 são independentes que: Caso discreto: P (X1+X2 = y) = ∑ x2 P (X1 = y−x2)P (X2 = x2). Caso absolutamente contı´nuo: fY (y) = ∫ +∞ −∞ fX1(x1)fX2(y − x1)dx1 msdfm – p. 49/100 Y = max(X1, X2) FY (y) = P (Y ≤ y) = P (max(X1, X2) ≤ y) = P (X1 ≤ y,X2 ≤ y) = FX1,X2(y, y). Caso particular: X1 e X2 independentes e FX1 = FX2 FY (y) = FX1,X2(y, y) = FX1(y)FX2(y) = ( FX1(y) )2 . Além disto, se FX1 é absolutamente contínua e derivável em y, então fY (y) = dFY (y) dy = 2FX1(y)fX1(y). msdfm – p. 50/100 Y = g(X1, X2) = X1X2, (X1, X2) com densidade fX1,X2 . Para y > 0, FY (y) = P (Y ≤ y) = P (X1X2 ≤ y) = ∫ ∫ x1x2≤y fX1,X2 (x1, x2)dx1dx2 = ver gra´fico em R2 = ∫ 0 −∞ ∫ ∞ y/x1 fX1,X2 (x1, x2)dx1dx2+ ∫ ∞ 0 ∫ y/x1 −∞ fX1,X2 (x1, x2)dx1dx2 = (fazendo z = x1x2, x2 = z/x1, dx2 = dz/x1, temos) = ∫ 0 −∞ ∫ ∞ y fX1,X2 (x1, z/x1) dz x1 dx1 + ∫ ∞ 0 ∫ y −∞ fX1,X2 (x1, z/x1) dz x1 dx1 = ∫ 0 −∞ ∫ y −∞ fX1,X2 (x1, z/x1) dz −x1 dx1 + ∫ ∞ 0 ∫ y −∞ fX1,X2 (x1, z/x1) dz x1 dx1 = ∫ y −∞ (∫ ∞ −∞ 1 |x1| fX1,X2 (x1, z/x1)dx1] ) dz. msdfm – p. 51/100 Analogamente para y < 0 (Exercício). Logo,se Y = X1X2, como FY (y) = ∫ y −∞ (∫ ∞ −∞ 1 |x1|fX1,X2(x1, z/x1)dx1] ) dz, temos fY (y) = d dy FY (y) = ∫ ∞ −∞ 1 |x|fX1,X2(x, y/x)dx. Exercı´cio: Para (X1, X2) discreto, encontre P (X1X2 = y). msdfm – p. 52/100 Exercícios Para (X1, X2) um vetor aleatório com distribuição FX1,X2, encontre a distribuição de 1. Y = X1 −X2. 2. Y = X1/X2. 3. Y = min(X1, X2). Detalhe os resultados acima para os casos discreto, absolutamente contínuo e independente. msdfm – p. 53/100 Exemplos multivariados SejaX1, X2, . . . , Xn variaáveis aleatórias independentes. 2. Defina Y = min(X1, X2, . . . , Xn). FY (y) = P (Y ≤ y) = P (min(X1, X2, . . . , Xn) ≤ y) = P ( ∪ni=1 [Xi ≤ y]) = 1−P (∩ni=1 [Xi > y]) independeˆncia= 1− n∏ i=1 P (Xi > y) = 1− n∏ i=1 ( 1−P (Xi ≤ y) ) = 1− ( n∏ i=1 ( 1− FXi (y) ) . Se FXi = FX , ∀i, então FY (y) = 1− ( n∏ i=1 ( 1− FXi (y) ) = 1− ( n∏ i=1 ( 1− FX(y) ) = 1− (1− FX(y))n. Se FX é absolutamente contínua , então FY é absolutamente contínua e fY (y) = d dy FY (y) = n ( 1− FX(y) )n−1 fX(y). msdfm – p. 54/100 Defina Z = max(X1, X2, . . . , Xn). FZ(y) = P (Z ≤ z) = P (max(X1, X2, . . . , Xn) ≤ z) = P ( ∩ni=1 [Xi ≤ z]) = independeˆncia = n∏ i=1 P (Xi ≤ z) = n∏ i=1 FXi (z). Se FXi = FX , ∀i, então FZ(z) = n∏ i=1 FXi (z) = n∏ i=1 FX(z) = ( FX(z) )n Se FX é absolutamente contínua , então FZ é absolutamente contínua e fZ(z) = d dz FZ(z) = n ( FX(z) )n−1 fX(z). msdfm – p. 55/100 De vetor para vetor Generalizando os casos anteriore, considere agora ~X = (X1, X2, . . . , Xn) um vetor aleatório e uma transformação g : Rn 7−→ Rm.Defina o vetora aleatório ~Y = (Y1, Y2, . . . , Ym) = g( ~X) = g(X1, X2, . . . , Xn) = (g1(X1, X2, . . . , Xn), g2(X1, X2, . . . , Xn), . . . , gm(X1, X2, . . . , Xn)). Dada distribuição conjunta, FX1,X2,...,Xn , queremos obter a distribuição conjunta FY1,Y2,...,Ym . A idéia permanece a mesma: FY1,Y2,...,Ym (y1, y2, . . . , ym) = P (Y1 ≤ y1, , Y2 ≤ y2, . . . , Ym ≤ ym) = P ((X1, X2, . . . , Xn) ∈ Ay1,y2,...,ym ), onde Ay1,y2,...,ym = g −1[(−∞, y1)× · · · × (−∞, ym)]) = {(x1, x2, . . . , xn) ∈ Rn; g1(x1, x2, . . . , xn) ≤ y1, . . . , gm(x1, x2, . . . , xn) ≤ ym}. msdfm – p. 56/100 Exemplo ConsidereX1, X2, . . . , Xn variáveis aleatórias independentes. Defina Y1 = min(X1, X2, . . . , Xn) e Y2 = max(X1, X2, . . . , Xn). FY1,Y2 (y1, y2) = P (Y1 ≤ y1, Y2 ≤ y2) = P (min(X1, X2, . . . , Xn) ≤ y1,max(X1, X2, . . . , Xn) ≤ y2) = P (( ∪ni=1 [Xi ≤ y1]) ∩ ( ∩nj=1 [Xj ≤ y2])) = P (A ∩B), onde A = ∪ni=1[Xi ≤ y1] e B = ∩nj=1[Xj ≤ y2]. Como B = (A ∩B) ∪ (Ac ∩B), temos P (A∩B) = P (B)−P (Ac∩B) = P ( ∩nj=1[Xj ≤ y2] ) −P ((∩ni=1[Xi > y1])∩(∩nj=1[Xj ≤ y2])) = = P ( ∩nj=1 [Xj ≤ y2] ) − P ( ∩i ([y1 < Xi ≤ y2] ) . msdfm – p. 57/100 Agora, para y1 < y2, P ( ∩nj=1 [Xj ≤ y2] ) ind. = n∏ j=1 P ( Xj ≤ y2 ) = n∏ j=1 FXj (y2). P ( ∩ni=1 ([y1 < Xi ≤ y2] ) ind. = n∏ i=1 P ( y1 < Xi ≤ y2 ) = n∏ i=1 ( FXi (y2)− FXi (y1) ) . Consequentemente FY1,Y2(y1, y2) = n∏ j=1 FXj(y2)− n∏ i=1 ( FXi(y2)− FXi(y1) ) . msdfm – p. 58/100 Se FXi = FX , ∀i, FY1,Y2(y1, y2) = ( FX(y2) )n − (FX(y2)− FX(y1))n Se FX é absolutamente contínua, FY1,Y2 é absolutamente contínua e fY1,Y2(y1, y2) = ∂2 ∂y1∂y2 FY1,Y2(y1, y2) = n(n− 1)(FX(y2)− FX(y1))n−2fX(y1)fX(y2). Exercı´cio: O que acontece quando y2 ≤ y1? msdfm – p. 59/100 Técnica do jacobiano Teorema de Mudanc¸a de Varia´veis (TMV): Sejam A ⊂ Rn, B ⊂ Rn conjuntos abertos e seja g : Rn 7→ Rn, isto é, g(x1, x2, . . . , xn) = (g1(x1, x2, . . . , xn), . . . , gn(x1, x2, . . . , xn)), onde gi :: Rn 7→ R, i = 1, 2, . . . , n. Suponhamos que: 1. g é bijetora entre A e B, logo, g−1(y1, y2, . . . , yn) = ((g−1)1(y1, y2, . . . , yn), . . . , (g−1)n(y1, y2, . . ., yn)) existe em B 2. As derivadas parciais ∂(g −1)i ∂yj = ∂xi ∂yj existem para i, j = 1, 2, . . . , n. 3. O jacobiano J(~y) = J(y1, y2, . . . , yn) = det ( ∂(g−1)i ∂yj ) i,j=1,2,...,n seja não nulo. msdfm – p. 60/100 Então ∫ · · · ∫ C f(x1, . . . , xn)dx1 . . . dxn = ∫ · · · ∫ g(C) f((g−1)1(y1, . . . , yn), . . . , (g−1)n(y1, . . . , yn))|J(y1 . . . , yn)|dy1 . . . dyn para toda função f : Rn 7→ R integrável em C ⊂ A, onde g(C) = {((y1, . . . , yn) : (y1, . . . , yn) = g(x1, . . . , xn), (x1, . . . , xn) ∈ C}.a msdfm aA demosntrac¸a˜o deste resultado pode ser encontrada em bons textos de ca´lculo – p. 61/100 Teorema 1. SejamX1, X2, . . . , Xn varia´veis aleato´rias absolutamente contı´nuas com func¸a˜o densidade de probabilidade conjunta fX1,X2,...,Xn e seja A ⊂ Rn um conjunto aberto tal que P ((X1, X2, . . . , Xn) ∈ A) = 1. Sejam Y1, Y2, . . . , Yn varia´veis aleato´rias definidas por Yi = gi(X1, X2, . . . , Xn), i = 1, 2, . . . n, onde a func¸a˜o g = (g1, g2, . . . , gn) : R n 7→ Rn satisfaz as condic¸o˜es do TMV. Enta˜o Y1, Y2, . . . , Yn sa˜o varia´veis aleato´rias absolutamente contı´nuas com func¸a˜o densidade de probabilidade conjunta dada por fY1,...,Yn (y1, . . . , yn) = fX1,...,Xn (g −1 1 (y1, . . . , yn), . . . , g −1 n (y1, . . . , yn))|J(y1 . . . , yn)|1g(A)(y1, . . . , yn). msdfm – p. 62/100 Idéia da demonstração FY1,...,Yn (y1, . . . , yn) = P (Y1 ≤ y1, . . . , Yn ≤ yn) = P ((Y1, . . . , Yn) ∈ B) = P (g(X1, . . . , Xn) ∈ B) = P ((X1, . . . , Xn) ∈ g−1(B)) = P ((X1, . . . , Xn) ∈ g−1(B) ∩A) = P ((X1, . . . , Xn) ∈ C), onde B = (−∞, y1]× · · · × (−∞, yn]. FY1,...,Yn (y1, . . . , yn) = ∫ · · · ∫ C fX1,...,Xn (x1, . . . , xn)dx1 . . . dxn TMV = ∫ · · · ∫ g(C) fX1,...,Xn ((g −1)1(z1, . . . , zn), . . . , (g−1)n(z1, . . . , zn))|J(z1 . . . , zn)|dz1 . . . dzn ∫ · · · ∫ B∩g(A) fX1,...,Xn ((g −1)1(z1, . . . , zn), . . . , (g−1)n(z1, . . . , zn))|J(z1 . . . , zn)|dz1 . . . dzn ∫ · · · ∫ B fX1,...,Xn ((g −1)1(z1, . . . , zn), . . . , (g−1)n(z1, . . . , zn))|J(z1 . . . , zn)|1g(A)(~z)dz1 . . . dzn ∫ y1 −∞ · · · ∫ yn −∞ fX1,...,Xn ((g −1)1(z1, . . . , zn), . . . , (g−1)n(z1, . . . , zn))|J(~z)|1g(A)(~z)dz1 . . . dzn msdfm – p. 63/100 FY1,...,Yn (y1, . . . , yn) =∫ y1 −∞ · · · ∫ yn −∞ fX1,...,Xn (g −1 1 (z1, . . . , zn), . . . , g −1 n (z1, . . . , zn))|J(~z)|1g(A)(~z)dz1 . . . dzn, temos que fY1,...,Yn (y1, . . . , yn) = fX1,...,Xn ((g −1)1(y1, . . . , yn), . . . , (g−1n )1(y1, . . . , yn))|J(y1 . . . , yn)|1g(A)(y1, . . . , yn). c.q.d Exercı´cio optativo: Comente sobre os pontos obscuros na demosntração. msdfm – p. 64/100 Exemplos: 1. Sejam X1, X2 e X3 variáveis aleatórias absolutamente contínuas, independentes e identicamente distribuidas com densidade fXi (x) = e −x1(0,∞)(x), i = 1, 2, 3. Defina Y1 = X1 X1 +X2 , Y2 = X1 +X2 X1 +X2 +X3 e Y3 = X1 +X2 +X3. Queremos encontrar a distribuição de (Y1, Y2, Y3) Como X1, X2 e X3 são independentes e identicamente distribuidas fX1,X2,X3 (x1, x2, x3) = fX1 (x1)fX2 (x2)fX3 (x3) = e−x11(0,∞)(x1)e−x21(0,∞)(x2)e−x31(0,∞)(x3) = e−(x1+x2+x3)1(0,∞)(x1)1(0,∞)(x2)1(0,∞)(x3). Note que A = (0,∞)× (0,∞)× (0,∞). msdfm– p. 65/100 Seja g(x1, x2, x3) = (g1(x1, x2, x3), g2(x1, x2, x3), g3(x1, x2, x3)) = ( x1 x1 + x2 , x1 + x2 x1 + x2 + x3 , x1 + x2 + x3) y1 = x1 x1+x2 y2 = x1+x2 x1+x2+x3 y3 = x1 + x2 + x3 ⇐⇒ x1 = y1y2y3 x2 = (1− y1)y2y3 x3 = (1− y2)y3 Logo g−1 existe e é dada por g−1(y1, y2, y3) = ((g−1)1(y1, y2, y3), (g−1)2(y1, y2, y3), (g−1)3(y1, y2, y3)) = (y1y2y3, (1− y1)y2y3, (1− y2)y3) msdfm – p. 66/100 Calculando o jacobiano obtemos J(y1, y2, y3) = det ( ∂(g−1)i(y1, y2, y3) ∂yj ) = det y2y3 y1y3 y1y2 −y2y3 (1− y1)y3 (1− y1)Y2 0 −y3 1− y2 = y2y23 6= 0. Aplicando a técinica do jacobiano fY1,Y2,Y3 (y1, y2, y3) = fX1,X2,X3 ((g −1)1(y1, y2, y3), (g−1)2(y1, y2, y3), (g−1)3(y1, y2, y3))|J(y1, y2, y3)| = fX1,X2,X3 (y1y2y3, (1− y1)y2y3, (1− y2)y3)|y2y23 | = y2y 2 3e −y31(0,∞)(y1y2y3)1(0,∞)((1− y1)y2y3)1(0,∞)((1− y2)y3). msdfm – p. 67/100 Para encontrar B = g[A], como x1, x2 e x3são não negativos e a transformação (x1, x2, x3)! (y1, y2, y3) é 1− 1,segue que 0 < gey1 = x1 x1 + x2 < 1, 0 < y2 = x1 + x2 x1 + x2 + x3 < 1, 0 < y3 = x1 + x2 + x3 <∞. Logo 1(0,∞)(y1y2y3)1(0,∞)((1−y1)y2y3)1(0,∞)((1−y2)y3) = 1(0,1)(y1)1(0,1)(y2)1((0,∞)(y3). e fY1,Y2,Y3 (y1, y2, y3) = y2y 2 3e −y31(0,1)(y1)1(0,1)(y2)1((0,∞)(y3). Note que a tranformação g é tal que A = (0,∞)× (0,∞)× (0,∞) g7→ (0, 1)× (0, 1)× (0,∞) = B = g[A]. Exercı´cio: Encontre fY1 , fY2 e fY3 . Y1, Y2 e Y3 são independentes? msdfm – p. 68/100 2.Sejam X1 e X2 variáveis aleatórias absolutamente contínuas, independentes e identicamente distribuidas com densidade fXi (x) = 1 β − 11(1,β)(x), β > 1, i = 1, 2. Defina Y1 = X1X2, e Y2 = X2. Queremos encontrar fY1,Y2 . Temos que fX1,X2(x1, x2) = 1 (β − 1)21(1,β)(x1)1(1,β)(x2), β > 1, onde A = (1, β)× (1, β). E (y1, y2) = g(x1, x2) = (g1(x1, x2), g2(x1, x2)) = (x1x2, x2). msdfm – p. 69/100 { y1 = x1x2 y2 = x2 ⇐⇒ { x1 = y1 y2 x2 = y2 Logo g é invertível em A e g−1(y1, y2) = ((g−1)1(y1, y2), (g−1)2(y1, y2)) = (y1 y2 , y2 ) . O jacobiano da transformação é edado por J(y1, y2) = det ( ∂(g−1)i(y1, y2) ∂yj ) = det 1y2 − y1y22 0 1 = 1 y2 6= 0. msdfm – p. 70/100 Pela técnica do jacobiano temos fY1,Y2 (y1, y2) = fX1,X2 ((g −1)1(y1, y2), (g−1)2(y1, y2))|J(y1, y2)|1g[A](y1, y2)| = 1 (β − 1)2y2 1(1,β) (y1 y2 ) 1(1,β)(y2). Para explicitar g[A] observe que 1 < x1 = y1 y2 < β 1 < x2 = y2 < β ⇐⇒ y2 < y1 < βy21 < y2 < β msdfm – p. 71/100 Graficamente: de A para B = g[A] ✻ x2 ✲ x1 A 1 β 1 β g ✻ y2 ✲ y1 B = g[A] 1 β 1 β β2 ■y2 = y1β ❘ y2 = y1 Logo fY1,Y2(y1, y2) = 1 (β−1)2y21(y2,βy2)(y1)1(1,β)(y2). Exercı´cio: Y1 e Y2 são independentes? Justifique! Exercı´cio:Compare g[A] dos exemplos 1 e 2. Comente! msdfm – p. 72/100 Caso: g não invertível Proposic¸a˜o 1. Considere um vetor aleato´rio absolutamente contı´nuo ~X = (X1, X2, . . . , Xn) com densidade fX1,X2,...,Xn e uma transformac¸a˜o g : Rn 7→ Rn. Seja RX = {~x = (x1, . . . , xn) : ~x = ~X(ω)} ⊂ ~X(Ω), com P ( ~X ∈ RX) = 1 e tal que RX = ∪Mk=1Ak;Ak aberto; Ak ∩A′k k 6= k′. Para k = 1, 2, . . .M defina g(k) = (g (k) 1 , g (k) 2 , . . . , g (k) n ) : Ak 7−→ Rn ~x g(k)(~x) = g(~x) isto e´, g(k) e´ a restric¸a˜o de g a Ak . Asumindo que cada g(k) satisfaz as condic¸o˜es do TVM e definindo ~Y = (Y1, Y2, . . . , Yn) = g(X1, X2, . . . , Xn) = g( ~X) temos fY1,...,Yn (y1, . . . , yn) = fY1,...,Yn (~y) =∑M k=1 fX1,...,Xn ( (g (k) 1 ) −1(~y), . . . , (g(k)n )−1(~y) ) |Jk(~y)|1g[Ak](~y). onde Jk(~y) = Jk(y1, . . . , yn) = ( ∂(g (k) i ) −1(y1, . . . , yn) ∂yj ) i,j=1,2,...,n . msdfm – p. 73/100 “Ide´ia da demonstrac¸a˜o”: Seja B~y = [Y1 < y1, . . . , Yn < yn] e B~y = [Y1 ≤ y1, . . . , Yn ≤ yn]. FY1,...Yn (y1, . . . , yn) = P (Y1 ≤ y1, . . . , Yn ≤ yn) = P ( (X1, X2, . . . , Xn) ∈ g−1 [ B~y ]) = P ( (X1, X2, . . . , Xn) ∈ ( g−1 [ B~y ] ) ∩RX) = P ( (X1, X2, . . . , Xn) ∈ ( g−1 [ B~y ] ) ∩ (∪Mk=1Ak)) = M∑ k=1 P ( (X1, X2, . . . , Xn) ∈ ( g−1 [ B~y ] ) ∩Ak) = M∑ k=1 ∫ . . . ∫ (g−1 [ B~y ] ) ∩Ak fX1,...,Xn (x1, . . . , xn)dx1 . . . dxn TMV = M∑ k=1 ∫ . . . ∫ B~y∩(g(k)(Ak)) fX1,...,Xn ( (g (k)1 ) −1(~z), . . . , (g(k)n )−1(~z) ) |Jk(~z)|dz1 . . . dzn. msdfm – p. 74/100 Ou seja, FY1,...Yn (y1, . . . , yn) = M∑ k=1 ∫ . . . ∫ B~y∩(g(k)(Ak)) fX1,...,Xn ( (g (k) 1 ) −1(~z), . . . , (g(k)n )−1(~z) ) |Jk(~z)|dz1 . . . dzn = M∑ k=1 ∫ . . . ∫ B~y fX1,...,Xn ( (g (k) 1 ) −1(~z), . . . , (g(k)n )−1(~z) ) |Jk(~z)|1g(Ak)(~y)dz1 . . . dzn. ∫ y1 −∞ . . . ∫ yn −∞ ( M∑ k=1 fX1,...,Xn ( (g (k) 1 ) −1(~z), . . . , (g(k)n )−1(~z) ) |Jk(~z)|1g(Ak)(~y) ) dz1 . . . dzn. Consequentemente, fY1,...,Yn (y1, . . . , yn) = ∂n ∂y1 . . . ∂yn FY1,...Yn (y1, . . . , yn) = M∑ k=1 fX1,...,Xn ( (g (k) 1 ) −1(~y), . . . , (g(k)n )−1(~y) ) |Jk(~y)|1g(Ak)(~y) c.q.d msdfm– p. 75/100 Exemplos: 1. ConsidereX ∼ fX e Y = X2. Temos então, RX = (−∞, 0) ∪ (0,∞) = A1 ∪A2. g(1) : (−∞, 0) 7→ R e g(2) : (0,∞) 7→ R x g(1)(x) = x2 x g(2)(x) = x2 ; (g(1))−1(y) = −√y e (g(2))−1(y) = √y; J1(y) = − 1 2 √ y e J2(y) = 1 2 √ y . Pela Proposição 1, fY (y) = fX((g (1))−1(y))|J1(y)|1g(A1)(y) + fX((g(2))−1(y))|J2(y)|1g(A2)(y) = fY (y) = fX(−√y) ∣∣∣− 1 2 √ y ∣∣∣1(0,∞)(y) + fX(√y)∣∣∣ 1 2 √ y ∣∣∣1(0,∞)(y) = 1 2 √ y (fX(−√y) + fX(√y)1(0,∞)(y). msdfm – p. 76/100 2. SejamX1, X2 eX3 variáveis aleatórias absolutamante contínuas, independentes e identicamente distribuidas com densidade fX , ou seja, fX1,X2,X3 (x1, x2, x3) = fX(x1)fX(x2)fX(x3). Seja g : R3 7−→ R3. definida por g(x1, x2, x3) = ordenar(x1, x2, x3) = (y1, y2, y3), isto é, y1 = min(x1, x2, x3), y2 = (valor intermedia´rio)(x1, x2, x3) e y3 = max(x1, x2, x3). Claramente, g não é invertível. Consider a seguinte decomposição de RX1,X2,X3 = A1 ∪A2 ∪A3 ∪A4 ∪A5 ∪A6 ⊂ R3, msdfm – p. 77/100 onde A1{(x1, x2, x3) ∈ R3 : x1 < x2 < x3}, A2{(x1, x2, x3) ∈ R3 : x1 < x3 < x2}, A3{(x1, x2, x3) ∈ R3 : x2 < x1 < x3}, A4{(x1, x2, x3) ∈ R3 : x2 < x3 < x1} A5{(x1, x2, x3) ∈ R3 : x3 < x1 < x2} e A6{(x1, x2, x3) ∈ R3 : x3 < x2 < x1}. Note que g(k), a restrição de g = ordenar a Ak satisfaz as consições do TMV para k = 1, 2, 3, 4, 5, 6.. De fato g(1)(x1, x2, x3) = (x1, x2, x3) = (y1, y2, y3), g (2)(x1, x2, x3) = (x1, x3, x2) = (y1, y2, y3), g(3)(x1, x2, x3) = (x2, x1, x3) = (y1, y2, y3), g (4)(x1, x2, x3) = (x2, x3, x1) = (y1, y2, y3), g(5)(x1, x2, x3) = (x3, x1, x2) = (y1, y2, y3) e g (6)(x1, x2, x3) = (x3, x2, x1) = (y1, y2, y3) e −∞ < y1 < y2 < y3 < +∞. msdfm – p. 78/100 Com jacobianos J1(y1, y2, y3) = det 1 0 0 0 1 0 0 0 1 = 1, J2(y1, y2, y3) = det 1 0 0 0 0 1 0 1 0 = −1, J3(y1, y2, y3) = det 0 1 0 1 0 0 0 0 1 = −1, J4(y1, y2, y3) = det 0 1 0 0 0 1 1 0 0 = 1, J5(y1, y2, y3) = det 0 0 1 1 0 0 0 1 0 = 1, e J4(y1, y2, y3) = det 0 0 1 0 1 0 1 0 0 = −1. Logo |Jk(y1, y2, y3)| = 1, para todo k. msdfm – p. 79/100 Aplicando a Proposição 1 fY1,Y2,Y3 (y1, y2, y3) = 6∑ k=1 fX1,X2,X3 ( (g(k))−1(y1, y2, y3) ) |Jk(y1, y2, y3)1g(Ak)(y1, y2, y3) = fX1,X2,X3 (y1, y2, y3)1(−∞,y2)(y1)1(−∞,y3)(y2)+ fX1,X2,X3 (y1, y3, y2)1(−∞,y2)(y1)1(−∞,y3)(y2)+ fX1,X2,X3 (y2, y1, y3)1(−∞,y2)(y1)1(−∞,y3)(y2)+ fX1,X2,X3 (y2, y3, y1)1(−∞,y2)(y1)1(−∞,y3)(y2)+ fX1,X2,X3 (y3, y1, y2)1(−∞,y2)(y1)1(−∞,y3)(y2)+ fX1,X2,X3 (y3, y2, y1)1(−∞,y2)(y1)1(−∞,y3)(y2) = 6 fX(y1)fX(y2)fX(y3)1(−∞,y2)(y1)1(−∞,y3)(y2) = 3! fX(y1)fX(y2)fX(y3)1(−∞,y2)(y1)1(−∞,y3)(y2) msdfm – p. 80/100 EXERCÍCIOS: 1. Encontre fY2 para o Exemplo 2. 2. Generalize o resultado do Exemplo 2 para o caso n dimensional. Isto é, paraX1, X2, . . . , Xn variáveis aleatórias absolutamante contínuas, independentes e identicamente distribuidas com densidade fX e g : Rn 7−→ Rn. definida por g(x1, x2, . . . , xn) = ordenar(x1, x2, . . . , xn) = (y1, y2, . . . , yn), Encontre fY1,Y2,...,Yn . O vetor aleatório (Y1, Y2, . . . , Yn) = ordenar(X1, X2, . . . , Xn) é conhecido com estatı´stica de ordem correspendente a amostra aleato´riaX1, X2, . . . , Xn e a coordenada Yk por k-e´sima estatı´sticas de ordem. Na literatura a seguinte notação é usualmente utilizada X(1) = Y1, X(2) = Y2, . . . , X(n) = Yn. msdfm – p. 81/100 3. Com relação ao exercício 2, encontre: (i) fX(k) , k = 1, 2, . . . , n. (ii) fX(j),X(k) , j, k = 1, 2, . . . , n : j < k. 4 SejamX1 eX2 variáveis aleatórias absolutamante contínuas, independentes e identicamente distribuidas com densidade fX(x) = e−x1(0,∞)(x). Encontre a função densidade de probabilidade conjunta de Y1 = 2X1 +X2 e Y2 = X1 − 3X2. 5 SejamX1 eX2 variáveis aleatórias absolutamante contínuas, independentes e identicamente distribuidas com distribuiçãoN(0, 1) (i) Encontre a função densidade de probabilidade conjunta de Y1 = aX1 + bX2 e Y2 = cX1 + dX2. (ii) Encontre a função densidade de probabilidade Y1 = aX1 + bX2. msdfm – p. 82/100 Desigualdades Nesta secção mostraremos algumas desigualdades envolvendo momentos de variáveis aleatórias. Proposic¸a˜o 2. (Desigualdade ba´sica) Seja X uma varia´vel aleato´ria na˜o-negativa. Enta˜o ∀ǫ > 0, P (X > ǫ) ≤ E(X) ǫ . Demonstrac¸a˜o: Se E(X) não é finita, a desiguladade é trivial, caso contrário ∀ǫ > 0, E(X) = E(X1Ω) = E ( X(1(−∞,ǫ](X) + 1(ǫ,∞)(X)) ) = E ( X1(−∞,ǫ](X) ) + E ( X1(ǫ,∞)(X) ) ≥ E(X1(ǫ,∞)(X)) ≥ E ( ǫ1(ǫ,∞)(X) ) = ǫE ( 1(ǫ,∞)(X) ) = ǫP (X > ǫ). c.q.d msdfm – p. 83/100 Colora´rio 1. (Desigualdade de Markov) Para toda varia´vel aleato´ria X , ∀ǫ > 0, ∀α > 0, P (|X| > ǫ) ≤ E(|X| α) ǫα . Demonstrac¸a˜o: Como |X| > ǫ ⇐⇒ |X|α > ǫα, a demosntração é uma conseqüência imediata da Desigualdade Básica aplicada à variável aleatória não-negativa |X|k. De fato ∀ǫ > 0, P (|X| > ǫ) = P (X|kα > ǫα) ≤ E(|X| α) ǫα . c.q.d msdfm – p. 84/100 Colora´rio 2. (Desigualdade de Chebyshev) Seja X uma varia´vel aleato´ria com segundo momento finito, ∀ǫ > 0, P (|X − E(X)| > ǫ) ≤ V ar(X) ǫ2 . Demonstrac¸a˜o: Como |X − E(X)| > ǫ ⇐⇒ (X − E(X))2 > ǫ2, pela Desigualdede Básica (ou pela Desigualdade de Markov), ∀ǫ > 0, P (|X − E(X)| > ǫ) = P ((X − E(X))2 > ǫ2) ≤ E((X − E(X))2) ǫ2 = V ar(X) ǫ2 . c.q.d msdfm – p. 85/100 Uma primeira aplicação interessante da Desigualdade de Chebyshev é a seguinte: para toda variável aleatória com segundo momento finito, com média µ e desvio padrão σ, P (|x− µ| > kσ) ≤ V ar(X) k2σ2 = σ2 k2σ2 = 1 k2 . Em outras palavras, se E(X2) é finito, então, independente da distribuição, 1/k é uma cota superior para a massa de probabilidade fora do intervalo [µ− kσ, µ+ kσ]. msdfm – p. 86/100 Outra aplicação, talves a mais importante, da Desigualdade de Chebyshev é a seguinte: Considere sucessivas repetições independentes de um experimento aleatória E e A um evento associado a esse experimento. Seja ϕn(A) o número de ocorrências do evento A nas n primeiras realizações do experimento E . Sabemos que ϕn(A) tem distirbuição binomial com parâmetros n e P (A), logo a freqüência relativa de ocorrências do evento A n primeiras realizações do experimento E , ϕn(A)/n, tem valor esperado P (A) e variância P (A)(1− P (A))/n. Segue pela Desigualdade de Chebyshev que P (∣∣∣ϕn(A) n − P (A) ∣∣∣ > ǫ) ≤ P (A)(1− P (A))/n ǫ2 ≤ 1 4nǫ2 . Ou seja, quando n cresce, a probabilidade da freqüência relativa de ocorrências do evento A distar da probabilidade de A por uma magnitude maior que ǫ, converge a zero. Esse resultado nos fornece uma intrepretac¸a˜o rigorosa do significado no nu´mero P (A). msdfm – p. 87/100 A aplicação do ´´slide” anterior pode ser generalizada emuma importante versão do resultado, a ser estudado detalhadamente no Capítulo 4, conhecido com Lei Fraca dos Grandes Numeros. Para tanto, consideremos X1, X2, ..., Xn variáveis aleatórias independentes, todas com média µ e variância σ2. Seja X¯n, a média amostral, isto é, X¯n = ∑n i=1Xi n . Temos então que E ( X¯n) = E (∑n i=1Xi n ) = 1 n n∑ i=1 E(Xi) = 1 n n∑ i=1 µ = nµ n = µ. e V ar(X¯n) = V ar (∑n i=1Xi n ) = 1 n2 n∑ i=1 V ar(Xi) = 1 n2 n∑ i=1 σ2 = nσ2 n2 = σ2 n . msdfm – p. 88/100 Como E ( X¯n) = µ ∧ V ar(X¯n) = σ 2 n , Segue pela Desigualdade de Chebyshev que P (|X¯n − E(X¯n)| > ǫ) = P (|X¯n − µ| > ǫ ) ≤ V ar(X¯n) ǫ2 ≤ σ 2/n ǫ2 = σ2 nǫ2 . Ou seja, quando n cresce, a probabilidade da média amostral X¯n distar da média populacional µ por uma magnitude maior que ǫ, converge a zero. id – p. 89/100 Inicialmente vamos recordar que uma funcão h : R→ R é dita ser convexa se ∀ǫ ∈ [0, 1], ∀x, y ∈ R, h(ǫx+ (1− ǫ)y) ≤ ǫh(x) + (1− ǫ)h(y). Sabemos que uma função convexa é diferenciável em um intervalo. Para h convexa, considere y = h(x0) + λ(x− x0) a reta tangente a curva (x, h(x)), x ∈ R no ponto (xo, h(x0)). Com h é convexa, é fácil ver que ∀x ∈ R, h(x) ≥ h(x0) + λ(x− x0). id – p. 90/100 Como os resultados do em mente podemos demonstrar a seguinte desigualdade Proposic¸a˜o 3. Seja h uma func¸ao convexa. Se as varia´veis aleato´riasX e h(X) teˆm esperanc¸as finitas, enta˜o E ( h(X) ) ≥ h(E(X)). Demonstrac¸a˜o: Pelo resultado no ´´slide” anterior ∀x ∈ R, h(x) ≥ h(x0) + λ(x− x0). Logo h(X) ≥ h(x0) + λ(X − x0). Portanto E ( h(X) ) ≥ h(x0) + λ(E(X)− x0), e o resultado estará demonstrado tomando x0 igual E(X), pois E ( h(X) ) ≥ h(E(X))+ λ(E(X)− E(X)) = h(E(X)) c.q.d id – p. 91/100 Como um corolário do resulatado anterior temos a seguinte desigualdade: Colora´rio 3. Seja X uma varia´vel aleato´ria, tal que, para β um nu´mero real positivo, E (|X|β) <∞. Enta˜o ∀α ∈ R, 0 < α ≥ β, ( E (|X|α))1/α ≤ (E(|X|β))1/β. msdfm – p. 92/100 Demonstrac¸a˜o: 0 < α ≤ β ⇒ β α ≥ 1. logo h(x) = |x| βα é convexa. Pela Desigualdade de Jensen aplicada a Y = |X|α, E(h(Y )) ≥ h(E(Y ))⇒ E(|Y | βα ) ≥ ∣∣∣E(Y )∣∣∣ βα ⇒ E (∣∣|X|α∣∣ βα ) ≥ ∣∣∣E(|X|α)∣∣∣ βα ⇒ E(|X|β) ≥ (E(|X|α)) βα ⇒ ( E (|X|β)) 1β ≥ (E(|X|α)) 1α . c.q.d msdfm – p. 93/100 As próximas desigualdades envolvem produtos de variáveis aleatorias e a relação entre esses e a associação linear entre as variáveis consideradas. Proposic¸a˜o 4. (Desiguladade de Cauchy-Schwarz,caso particular) SejamX e Y varia´veis aleato´rias tais que E(X2) = E(Y 2) = 1. Enta˜o E(XY ) <∞ e ∣∣E(XY )∣∣ ≤ E(|XY |) ≤ 1, com igualdade se e somente se P (Y = +X) = 1 E(XY ) = 1 P (Y = −X) = 1 E(XY ) = −1. – p. 94/100 Demonstrac¸a˜o: 0 ≤ (|X| − |Y |)2 = X2 + Y 2 − 2|X||Y | ⇒ 0 ≤ E(X2 + Y 2 − 2|X||Y |) = E(X2) + E(Y 2)− 2E(|X||Y |) = 1 + 1− 2E(|XY |) = 2− 2E(|XY |) ⇒ E(|XY |) ≤ 1. Isso também mostra que ∣∣E(XY )∣∣ ≤ E(|XY |) ≤ 1 <∞. Resta mostra o que ocorre quando temos igualdade. E(XY ) = ±1⇒ E ( (X ± Y )2) = E(X2) + E(Y 2)± 2E(XY ) = 1 + 1± 2⇒ E ( (X − Y )2) = 0 E(XY ) = 1 E ( (X + Y )2 ) = 0 E(XY ) = −1 ⇒ P (Y = +X) = 1 E(XY ) = 1 P (Y = −X) = 1 E(XY ) = −1 . c.q.d msdfm – p. 95/100 Proposic¸a˜o 5. (Desiguladade de Cauchy-Schwarz(Caso Geral)) SejamX e Y varia´veis aleato´rias com segundo momento finito. Enta˜o E(XY ) <∞ e ∣∣E(XY )∣∣ ≤ E(|XY |) ≤√E(X2)E(Y 2), com igualdade se e somente se P ( Y = + √ E(Y 2)√ E(X2) X ) = 1 E(XY ) = √ E(X2)E(Y 2) P ( Y = − √ E(Y 2)√ E(X2) X ) = 1 E(XY ) = − √ E(X2)E(Y 2). msdfm – p. 96/100 Demonstrac¸a˜o: Defina X˜ = X /√ E(X2) ∧ Y˜ = Y /√ E(Y 2). Como E(X˜2) = E ( X2 E(X2) ) = E(X2) E(X2) = 1 ∧ E(Y˜ 2) = E ( Y 2 E(Y 2) ) = E(Y 2) E(Y 2) = 1, pela Proposição 4, segue que ∣∣E(X˜Y˜ )∣∣ ≤ E(|X˜Y˜ |) ≤ 1 ∧ ∣∣E(X˜Y˜ )∣∣ = 1⇔ P (Y˜ = +X˜) = 1 E(X˜Y˜ ) = +1 P (Y˜ = −X˜) = 1 E(X˜Y˜ ) = −1 . msdfm – p. 97/100 Ou seja ∣∣∣∣∣E ( X√ E(X2) Y√ E(Y 2) )∣∣∣∣∣ ≤ E (∣∣∣∣∣ X√E(X2) Y√ E(Y 2) ∣∣∣∣∣ ) ≤ 1 e ∣∣∣∣∣E ( X√ E(X2) Y√ E(Y 2) )∣∣∣∣∣ = 1⇔ P ( Y√ E(Y 2) = + X√ E(X2) ) = 1 E ( X√ E(X2) Y√ E(Y 2) ) = +1 P ( Y√ E(Y 2) = − X√ E(X2) ) = 1 E ( X√ E(X2) Y√ E(Y 2) ) = −1. msdfm – p. 98/100 Reescrevendo, obtemos |E(XY )| ≤ E(|XY |) ≤ √ E(X2)E(Y 2) e |E(XY )| = 1⇔ P ( Y = + √ E(Y 2)√ E(X2) X ) = 1 E(XY ) = + √ E(X2)E(Y 2) P ( Y = + √ E(Y 2)√ E(X2) X ) = 1 E(XY ) = − √ E(X2)E(Y 2). c.q.d msdfm – p. 99/100 Lucas Machado Nota Y = - Colora´rio 4. (IMPORTANTE) SejamX e Y varia´veis aleato´rias com segundo momento finito. Enta˜o |ρ(X,Y )| = ∣∣∣∣∣ Cov(X,Y )√V ar(X)V ar(Y ) ∣∣∣∣∣ ≤ 1 e |ρ(X,Y )| = 1 ⇔ P (Y = aX + b) = 1, onde a = + V ar(Y ) V ar(X) ρ(X,Y )| = 1 − V ar(Y ) V ar(X) ρ(X,Y )| = −1 ∧ b = E(Y )− V ar(Y ) V ar(X) E(X) Demonstrac¸a˜o: EXERCÍCIO. Observe que o coeficiente de correlação ρ(X, Y ) é uma medida de associação LINEAR entre X e Y , sendo −1 associacão linear exata negativa, 0 ausência de associação e 1 associacão linear exata positiva. msdfm – p. 100/100 small Vetores aleat'orios small EXEMPLOS: small Func c~oes de probabilidade e densidades marginais small Exerc'{i }cio: small Exemplos: small Exerc'{i }cio (trabalhoso, use um pouco de geometria anal'{i }tiva em $mathbb {R}^2$) small Transformac c~oes de Vari'aveis aleat'rias small EXEMPLOS small Transformac c~ao afim small $Y=aX+b, anulle 0$ small $Y=g(X)$nullcom $g$ cont'{i }nua,invert'{i }vel e diferenci'avel small nullf Exerc'{i }cios: small Transformac c~oes de vetores aleat'orios small Exemplos bivariados small $Y=g(X_1,X_2)=X_1+X_2$ small Exerc'{i }cios small Exemplos multivariados small De vetor para vetor small Exemplo small T'ecnica do jacobiano small Id'eia da demonstrac c~ao small Exemplos: small Graficamente: de $A$ para $B=g[A]$ small Caso: $g$ n~ao invert'{i }vel small Exemplos: small EXERC'ICIOS: Desigualdades
Compartilhar