Baixe o app para aproveitar ainda mais
Prévia do material em texto
Lista 3 de Exerćıcios - Estat́ıstica Matemática I Exerćıcio 1 Mostre que: (a) Se X ∼ Bernoulli(p), então MX(t) = pet + 1− p, 0 ≤ p ≤ 1. Vamos encontrar a função geradora de momentos quando X ∼ Bernoulli(n, p), para assim particu- larizarmos quando n = 1 e, assim, termos X ∼ Bernoulli(p). Note que MX(t) = ∑ X etx · P [X = x] = n∑ x=0 etx n x px(1− p)n−x já que supomos X ∼ Bernoulli(n, p). Assim MX(t) = n∑ x=0 etx n x px(1− p)n−x = n∑ x=0 etxpx n x (1− p)n−x = n∑ x=0 n x (pet)x(1− p)n−x que é um binômio de Newton, em que a = pet e b = 1− p. Logo MX(t) = n∑ x=0 n x (pet)x(1− p)n−x = [pet + (1− p)]n Isso é válido quando X ∼ binomial(n, p). Para o caso n = 1, temos o caso particular da distribuição Binomial, que é a distribuição de Bernoulli. Logo, quando n = 1, temos MX(t) = pe t + 1− p, com 0 ≤ p ≤ 1 Portanto, se X ∼ Bernoulli(p), então MX(t) = pet + 1− p, com 0 ≤ p ≤ 1. (b) Se X ∼ N(µ, σ2), então MX(t) = eµt+ σ2t2 2 . Mostremos primeiramente o seguinte resultado: ”Se Z é uma variável aleatória tal que Z ∼ N(0, 1), então MZ(t) = e t2 2 ”. De fato, calculemos a função geradora de momentos de Z. MZ(t) = E(e tZ) = ∫ +∞ −∞ ( etz · 1√ 2π · e− z 2 2 ) dz em que fZ(z) = 1√ 2π · e− z 2 2 é a função densidade de N(0, 1). Assim MZ(t) = ∫ +∞ −∞ ( etz · 1√ 2π · e− z 2 2 ) dz = ∫ +∞ −∞ ( 1√ 2π · e− (z2−2tz) 2 ) dz Por meio do processo de completamento de quadrados, temos que MZ(t) = e t2 2 ∫ +∞ −∞ ( 1√ 2π · e −(z−t)2 2 ) dz [I] 1 Observe que a função [I] é a função densidade que segue a distribuiçãoN(t, 1). Logo, por uma propriedade, temos que ∫ +∞ −∞ ( 1√ 2π · e −(z−t)2 2 ) dz = 1 Desta maneira MZ(t) = e t2 2 ∫ +∞ −∞ ( 1√ 2π · e −(z−t)2 2 ) dz = e t2 2 Logo, MZ(t) = e t2 2 é a função geradora de momentos da distribuição N(0, 1). Generalizando este resultado, temos: Suponha que X ∼ N(µ, σ2). Utilizando o resultado anterior, calculemos a função geradora de momentos de X. Para tanto, considerando X = σZ + µ, com Z ∼ N(0, 1) temos MX(t) = E(e tX) = E[et(σZ+µ)] = E[etµ+tσZ ] = E[etµ · e(tσ)Z ] = etµ · E[e(tσ)Z ] = etµ ·MZ(tσ) = etµ · eσ 2t2 2 ⇒ MX(t) = etµ+ t2σ2 2 Portanto, MX(t) = e tµ+ t 2σ2 2 é a função geradora de momentos quando X ∼ N(µ, σ2). (c) Se X ∼ Poisson(λ), então MX(t) = eλ(e t−1), λ > 0. Vamos calcular a função geradora de momentos da variável X ∼ Poisson(λ), isto é MX(t). MX(t) = E(e tX) = n∑ x=0 etx · P [X = x] = n∑ x=0 etx · e −λλx x! já que X ∼ Poisson(λ). Assim MX(t) = n∑ x=0 etx · e −λλx x! = e−λ · n∑ x=0 etx · λx x! = e−λ · n∑ x=0 (et · λ)x x! Note que ∑n x=0 ax x! = e, com a ∈ R. Para nosso caso, considerando a = etλ, temos que MX(t) = e −λ · n∑ x=0 (et · λ)x x! = e−λ · eλe t = eλ[e t−1], λ > 0 Portanto, MX(t) = e λ[et−1], λ > 0. (d) Se X ∼ Geo(p), então MX(t) = pet 1− (1− p)et , com 0 ≤ p ≤ 1. Vamos calcular a função geradora de momentos da variável X ∼ Geo(p), isto é MX(t). MX(t) = E(e tX) = n∑ x=1 etx ·P [X = x] = ∞∑ x=1 etx ·p(1−p)x−1 = p · ∞∑ x=1 etx (1− p)x (1− p) = p 1− p · ∞∑ x=1 [et(1−p)]x 2 já que X ∼ Geo(p). Assim, MX(t) = p 1− p · ∞∑ x=1 [et(1− p)]x︸ ︷︷ ︸ série geométrica [I] Observe que temos uma série geométrica, em que ∞∑ i=1 rk = r 1− r , se |r| < 1 com r = et(1− p) e |et(1− p)| < 1 ⇒ 0 ≤ p ≤ 1. Desta maneira, voltando em [I], temos MX(t) = p 1− p · ∞∑ x=1 [et(1− p)]x = p 1− p · e t(1− p) 1− [et(1− p)] = pet 1− [et(1− p)] Portanto, MX(t) = pet 1−[et(1−p)] , com 0 ≤ p ≤ 1. (e) Se X ∼ U(a, b), então MX(t) = etb − eta t(b− a) , com a < b. Vamos calcular a função geradora de momentos da variável X ∼ U(a, b), isto é MX(t). MX(t) = ∫ b a etx · fX(x)dx = ∫ b a etx · 1 b− a︸ ︷︷ ︸ fX(x) dx = 1 b− a · ∫ b a etxdx = ( etx t(b− a) ) ∣∣∣b a = etb − eta t(b− a) Portanto, MX(t) = etb−eta t(b−a) , com a < b. (f) Se X ∼ exp(λ), então MX(t) = λ λ− t , com λ > 0. Vamos calcular a função geradora de momentos da variável X ∼ exp(λ), isto é MX(t). MX(t) = ∫ ∞ 0 etx · fX(x)dx = ∫ ∞ 0 etx · [λe−λx]︸ ︷︷ ︸ fX(x) dx = λ · ∫ ∞ 0 [etx · e−λx]dx = λ · ∫ ∞ 0 [e−x(λ−t)]dx︸ ︷︷ ︸ [I] Vamos calcular a integral imprópria [I], utilizando o Método da Substituição. Assim ∫ ∞ 0 [e−x(λ−t)]dx = lim b→∞ ∫ b 0 e−x(λ−t)dx = lim b→∞ ∫ −b(λ−t) 0 eu t− λ du = 1 t− λ · lim b→∞ ∫ −b(λ−t) 0 eu du = 1 t− λ · lim b→∞ [eu] ∣∣∣−b(λ−t) 0 = 1 t− λ · lim b→∞ [ 1 eb(λ−t) − 1 ] = 1 t− λ · (−1) = 1 λ− t Retornando ao cálculo da função geradora de momentos, temos MX(t) = λ · ∫ ∞ 0 [e−x(λ−t)]dx = λ · 1 λ− t = λ λ− t Portanto, se X ∼ exp(λ), então MX(t) = λλ−t , com λ > 0. 3 (g) Se X ∼ gama(α, λ), então MX(t) = ( λ λ− t )α , com α > 0 e λ > 0. Vamos calcular a função geradora de momentos da variável X ∼ gama(α, λ), isto é MX(t). MX(t) = ∫ ∞ 0 etx · fX(x)dx = ∫ ∞ 0 etx · ( λα Γ(α) · xα−1 · e−λx ) dx︸ ︷︷ ︸ I uma vez que X ∼ gama(α, λ) e sua função densidade de probabilidade é fX(x) = λ α Γ(α) · x α−1 · e−λx · I(0,∞)(x). Vamos calcular a integral [I]. Assim MX(t) = ∫ ∞ 0 etx · ( λα Γ(α) · xα−1 · e−λx ) dx = λα · ∫ ∞ 0 1 Γ(α) · xα−1e−x(λ−t) dx Multiplicando e dividindo por (λ− t)α, o membro a direita da igualdade anterior, temos MX(t) = λα (λ− t)α · ∫ ∞ 0 (λ− t)α Γ(α) · xα−1e−x(λ−t) dx = ( λ λ− t )α · ∫ ∞ 0 (λ− t)α Γ(α) · xα−1e−x(λ−t) dx Note que, fX(x) = (λ−t)α Γ(α) ·x α−1e−x(λ−t) é a função densidade de probabilidade da Distribuição gama(α, λ− t). Assim, temos que ∫ ∞ 0 (λ− t)α Γ(α) · xα−1e−x(λ−t) dx = 1 Retornando no cálculo da função geradora de momentos da variável X, temos que MX(t) = ( λ λ− t )α · ∫ ∞ 0 (λ− t)α Γ(α) · xα−1e−x(λ−t) dx = ( λ λ− t )α · 1 = ( λ λ− t )α , λ > 0, α > 0 Portanto, se X ∼ gama(α, λ), então MX(t) = ( λ λ−t )α , λ > 0, α > 0. Exerćıcio 2 - Determine o valor esperado e a variância para cada variável aleatória X do exerćıcio anterior. (a) X ∼ Bernoulli(p), 0 ≤ p ≤ 1 Calculando o valor esperado. Temos que E[X] = M ′X(0) (quando t=0). Como MX(t) = pe t + 1 − p, temos que M ′X(t) = pe t. Assim, M ′X(0) = p. Portanto, E[X] = M ′X(0) = p, com 0 ≤ p ≤ 1. Calculando a Variância. Sabemos que V ar(X) = E[X2]−E2(X). Vamos então calcular E[X2] = M ′′X(0). Como M ′X(t) = pe t, temos que M ′′X(t) = pe t e, consequentemente M ′′X(0) = pe 0 = p. Assim, V ar(X) = E[X2]− E2(X) = p− p2 = p(1− p), 0 ≤ p ≤ 1 Portanto, V ar(X) = p(1− p), com 0 ≤ p ≤ 1. (b) X ∼ N(µ, σ2) 4 Calculando o valor esperado. Temos que E[X] = M ′X(0) (quando t=0). Como MX(t) = e µt+ σ2t2 2 , temos que M ′X(t) = (µ+ σ 2t) · e µt+ σ2t2 2 . Assim, M ′X(0) = µ. Portanto, E[X] = M ′X(0) = µ. Calculando a Variância. Sabemos que V ar(X) = E[X2]−E2(X). Vamos então calcular E[X2] = M ′′X(0). Como M ′X(t) = (µ+ σ 2t) · e µt+ σ2t2 2 , temos que M ′′X(t) = (µ+ σ 2t)2 · eµt+σ 2t2 2 + eµt+ σ2t2 2 · (σ2) Assim M ′′X(0) = µ 2 · e0 + e0 · σ2 ⇒ E2[X] = M ′′X(0) = µ2 + σ2 Desta maneira, V ar(X) = E[X2]− E2(X) = µ2 + σ2 − µ2 = σ2 Portanto, V ar(X) = σ2. (c) X ∼ Poisson(λ), com λ > 0. Calculando o valor esperado. Temos que E[X] = M ′X(0) (quando t=0). Como MX(t) = e λ(et−1), com λ > 0 temos que M ′X(t) = e λ(et−1) · (λet). Assim, M ′X(0) = λ. Portanto, E[X] = M ′X(0) = λ, com λ > 0. Calculando a Variância. Sabemos que V ar(X) = E[X2]−E2(X). Vamos então calcular E[X2] = M ′′X(0). Como M ′X(t) = e λ(et−1) · (λet), temos que M ′′X(t) = [e λ(et−1) · (λet)2 + eλ(e t−1) · (λet)] Assim M ′′X(0) = [e 0 · λ2 + e0 · λ] = λ2 + λ ⇒ E2[X] = M ′′X(0) = λ2 + λ Desta maneira, V ar(X) = E[X2]− E2(X) = λ2 + λ− λ2 = λ Portanto, V ar(X) = λ, com λ > 0. (d) X ∼ Geo(p), com 0 ≤ p ≤ 1. Calculando o valor esperado. Temos que E[X] = M ′X(0) (quando t=0). Como MX(t) = pet 1− (1− p)et , com 0 ≤ p ≤ 1, temos que M ′X(t) = pet[1− (1− p)et]− pet[−(1− p)et] [1− (1− p)et]2 = −pet[−1 + et − pet − et + pet] [1− (1− p)et]2 ⇒ 5 M ′X(t) = pet [1− (1− p)et]2 Assim,E[X] = M ′X(0) = pe0 [1− (1− p)e0]2 = p p2 = 1 p Portanto, E[X] = M ′X(0) = 1 p , com 0 < p ≤ 1. Calculando a Variância. Sabemos que V ar(X) = E[X2]−E2(X). Vamos então calcular E[X2] = M ′′X(0). Como M ′X(t) = pet [1−(1−p)et]2 , temos que M ′′X(t) = pet · [et(1− p) + 1] [1− (1− p)et]3 Assim M ′′X(0) = −p2 + 2p p3 = p(2− p) p3 = 2− p p2 ⇒ E2[X] = M ′′X(0) = 2− p p2 Desta maneira, V ar(X) = E[X2]− E2(X) = 2− p p2 − 1 p2 = 1− p p2 Portanto, V ar(X) = 1− p p2 , com 0 < p ≤ 1. (e) X ∼ U(a, b), com a < b. Calculando o valor esperado. Temos que E[X] = ∫ +∞ −∞ x · fX(x) dx Como X ∼ U(a, b), temos que sua função densidade é dada por fX(x) = 1 b− a · I[a,b](x). Assim, E[X] = ∫ b a x · 1 b− a dx = 1 b− a ∫ b a x dx = 1 b− a · ( x2 2 ) ∣∣∣b a = b2 − a2 2(b− a) = (b− a)(b+ a) 2(b− a) = b+ a 2 Portanto, E[X] = b+a2 , com a < b. Calculando a Variância. Sabemos que E[X2] = ∫ +∞ −∞ x2 · fX(x) dx Assim, E[X2] = ∫ b a x2 · 1 b− a dx = 1 b− a ∫ b a x2 dx = 1 b− a ( x3 3 ) ∣∣∣b a = b3 − a3 3(b− a) = (b− a)(b2 + ab+ b2) 3(b− a) ⇒ E[X2] = a2 + ab+ b2 3 6 Assim, calculando a Variância de X, temos que V ar(X) = E[X2]−E2[X] = a 2 + ab+ b2 3 − ( b+ a 2 )2 = a2 + ab+ b2 3 − b 2 + 2ab+ b2 4 = b2 − 2ab+ a2 12 ⇒ V ar(X) = (b− a)2 12 Portanto, V ar(X) = (b− a)2 12 , com a < b. (f) X ∼ exp(λ), com λ > 0. Calculando o valor esperado. Temos que E[X] = M ′X(0) (quando t=0). Como MX(t) = λ λ− t , com λ > 0, temos que M ′X(t) = −λ(−1) (λ− t)2 = λ (λ− t)2 ⇒ M ′X(t) = λ (λ− t)2 , λ > 0 Assim, E[X] = M ′X(0) = λ λ2 = 1 λ Portanto, E[X] = M ′X(0) = 1 λ , com λ > 0. Calculando a Variância. Sabemos que V ar(X) = E[X2]−E2(X). Vamos então calcular E[X2] = M ′′X(0). Como M ′X(t) = λ (λ−t)2 , temos que M ′′X(t) = 2λ(λ− t) (λ− t)4 = 2λ (λ− t)3 Assim M ′′X(0) = 2λ (λ− 0)3 ⇒ E2[X] = M ′′X(0) = 2 λ2 Desta maneira, V ar(X) = E[X2]− E2(X) = 2 λ2 − 1 λ2 = 1 λ2 Portanto, V ar(X) = 1 λ2 , com λ > 0. (g) X ∼ gama(α, λ), com α > 0 e λ > 0. Calculando o valor esperado. Temos que E[X] = M ′X(0) (quando t=0). Como MX(t) = ( λ λ− t )α , com α > 0 e λ > 0, temos que M ′X(t) = α · ( λ λ− t )α−1 · λ (λ− t)2 = α · λα (λ− t)α+1 M ′X(t) = α · λα (λ− t)α+1 7 Assim, E[X] = M ′X(0) = α · λα (λ− 0)α+1 = α · λα (λ)α+1 = α λ Portanto, E[X] = M ′X(0) = α λ , com α > 0 e λ > 0. Calculando a Variância. Sabemos que V ar(X) = E[X2]−E2(X). Vamos então calcular E[X2] = M ′′X(0). Como M ′X(t) = α · λα (λ− t)α+1 , temos que M ′X(t) = αλ α · [(λ− t)−(α−1)] ⇒ M ′′X(t) = αλα(α+ 1) · 1 (λ− t)α+2 = αλα(α+ 1) (λ− t)α+2 Assim M ′′X(0) = αλα(α+ 1) (λ− 0)α+2 = α(α+ 1) λ2 ⇒ E2[X] = M ′′X(0) = α(α+ 1) λ2 Desta maneira, V ar(X) = E[X2]− E2(X) = α(α+ 1) λ2 − α 2 λ2 = α λ2 Portanto, V ar(X) = α λ2 , com α > 0 e λ > 0. Exerćıcio 3 - Suponha que a função densidade de uma variável aleatória X é a seguinte fX(x) = 1 2 xI(0,2)(x). Defina a variável Y = X(X−2). Determine as funções densidade e de distribuição da variável aleatória Y . Pela técnica da distribuição acumulada, temos: FY (y) = P [Y ≤ y] = P [X(X − 2) ≤ y] = P [X2 − 2X ≤ y] = P [X2 − 2X + 1 ≤ y + 1] = P [(X − 1)2 ≤ y + 1] = P [|X − 1| ≤ y + 1] = P [− √ y + 1 ≤ X − 1 ≤ √ y + 1] = P [1− √ y + 1 ≤ X ≤ 1 + √ y + 1] 8 Desta maneira FY (y) = P [1− √ y + 1 ≤ X ≤ 1 + √ y + 1] = 1+ √ y+1∫ 1− √ y+1 1 2 x dx = 1 2 1+ √ y+1∫ 1− √ y+1 x dx = x2 4 ∣∣∣∣∣ 1+ √ y+1 1− √ y+1 = 1 4 [(1 + √ y + 1)2 − (1− √ y + 1)2] = 1 4 [1 + 2 √ y + 1 + (y + 1)− 1 + 2 √ y + 1− (y + 1)] = 1 4 [4 √ y + 1] = √ y + 1, y ≥ −1 Calculando função densidade de Y , temos que: fY (y) = d dy [ √ y + 1] = d dy (y + 1) 1 2 = 1 2 (y + 1)− 1 2 = 1 2 √ y + 1 Portanto, fY (y) = 1 2 √ y+1 , y > −1. Exerćıcio 4 - Sejam X1, · · · , Xn variáveis aleatórias independentes com distribuição de Rayleigh com função densidade dada por FX(x) = x θ2 exp ( − x 2 2θ2 ) I(0,∞)(x). (a) Determine a distribuição conjunta de Y1, · · · , Yn em que Yi = X2i . Pela técnica da função geradora de momentos, temos: MY1,··· ,Yn(t) = E [ et(Y1,··· ,Yn) ] Considerando que Yi = X 2 1 , i = 1, · · · , n e que Xi são independentes e identicamente distribúıdos, temos que: MY1,··· ,Yn(t) = E [ etY1 ] .E [ etY2 ] . · · · .E [ etYn ] = MY1(t).MY2(t). · · · .MYn = n∏ i=1 MYi(t) = [ MY (t) ]n 9 Assim, calculando MY (t) MY (t) = E [ etY ] = E [ etX 2] = ∞∫ 0 etx 2 .fX(x) dx = ∞∫ 0 etx 2 . x θ2 .e− x2 2θ2 dx = 1 θ2 ∞∫ 0 x.e−x 2 ( 1 2θ2 −t ) dx = 1 θ2 ∞∫ 0 x.e− x2 2θ2 (1−2θ2t) dx sendo 1− 2θ2t > 0. Tomando u = x 2 2θ2 (1− 2θ 2t) temos du dx = 2x 2θ2 (1− 2θ2t) ⇒ du = x θ2 (1− 2θ2t)dx ⇒ dx = θ 2 (1− 2θ2)x du então MY (t) = 1 θ2 ∞∫ 0 x.e−u θ2 (1− 2θ2t)x du = 1 (1− 2θ2t) ∞∫ 0 e−u du Considerando que γ(1) = ∞∫ 0 xα−1e−x dx = ∞∫ 0 x1−1e−x dx = ∞∫ 0 e−x dx = ∞∫ 0 e−u du = 1 em que α = 1. Desta maneira MY1,··· ,Yn = [ 1 1− 2θ2t ]n = [ 1 2θ2 1 2θ2 − t ]n Logo, a distribuição conjunta de Y1, · · · , Yn segue a distribuição Gamma ( n, 12θ2 ) . (b) Qual é a distribuição de U = min[X1, · · · , Xn]? Para encontrarmos qual a distribuição de U , vamos encontrar a função densidade do mı́nimo. Como X1, · · · , Xn são independentes e identicamente distribúıdos, temos que fY(1)(y) = n.fX(y) [ 1− FX(y) ]n−1 Para o nosso caso, temos fU (u) = n.fX(u) [ 1− FX(u) ]n−1 10 em que, fX(u) = u θ2 .e− u2 2θ2 I(0,∞)(u) FX(u) = 1− e− u2 2θ2 sendo θ > 0 e u ≥ 0. Assim, fU (u) = n u θ2 e− u2 2θ2 [ 1− ( 1− e− u2 2θ2 )]n−1 = n u θ2 e− u2 2θ2 [ e− u2 2θ2 ]n−1 = n u θ2 e− u2 2θ2 [ e− u2 2θ2 ]n [ e− u2 2θ2 ]1 = n [ u θ2 ( e− u2 2θ2 )n] Então, temos que fU (u) = n [ u θ2 ( e− u2 2θ2 )n] com u > 0. Portanto, U ∼ Rayleigh(θ), com θ > 0. Exerćıcio 5 - Seja uma variável aleatória que segue distribuição com função densidade dada por fX(x). Mostre que a variável aleatória Y = −ln { e−X 1−e−X } segue distribuição loǵıstica se, e somente se, X ∼ exp(1). (⇐) Suponha que X ∼ exp(1), isto é, λ = 1. Assim, considerando sua função densidade, temos que: fX(x) = λe −λx ⇒ fX(x) = e−x, x ∈ (0,+∞) Vejamos agora que a variável aleatória Y = −ln { e−X 1−e−X } segue distribuição loǵıstica. Utilizamos o Método da Transformação (ou Jacobiano). Sabemos que fY (y) = ∣∣∣∣ ∂∂yG−1(y) ∣∣∣∣fX(G−1(y))ID(y) (1) Assim, Y = −ln ( e−x 1− e−x ) ⇒ y = −ln ( e−x 1− e−x ) 11 Encontrando G−1(y) y = −ln ( e−x 1− e−x ) ⇒ ey = ( e−x 1− e−x )−1 ⇒ ey = 1− e −x e−x ⇒ eye−x = 1− e−x ⇒ eye−x + e−x = 1 ⇒ e−x = 1 ey + 1 ⇒ −x = ln ( 1 ey + 1 ) ⇒ x = −ln ( 1 ey + 1 ) ⇒ x = ln ( 1 ey + 1 )−1 ⇒ x = ln ( ey + 1 ) Assim, G−1(y) = ln ( ey + 1 ) . Voltando em (1) temos fY (y) = ∣∣∣∣ ∂∂y ln(ey + 1) ∣∣∣∣fX ln(ey + 1)IR(y) = ∣∣∣∣ 1ey + 1ey ∣∣∣∣(ey + 1)−1IR(y) = ey (ey + 1)2 IR(y) Logo, fY (y) = ey (ey+1)2 , com y ∈ R, sendo a função densidade a distribuição loǵıstica com µ = 0 e s = 1. Portanto, Y ∼ Logistica(0, 1). (⇒) Suponha que Y segue a distribuição loǵıstica. Assim, considerando a sua função densidade com µ = 0 e s = 1, temos que fY (y) = ey (1 + ey)2 Vejamos agora que a variável aleatória X segue a distribuição exp(1). Pela técnica da função distribuição acumulada, temos FX(x) = P [ X ≤ x ] = P [ ln(ey + 1) ≤ x ] = P [ ey + 1 ≤ ex ] = P [ ey ≤ ex − 1 ] = P [ y ≤ ln(ex − 1) ] Desta maneira, FX(x) = ln(ex−1)∫ 0 ey (1 + ey)2 dy Tomando u = 1 + ey, temos que du = eydy. Além disso, y → 0 ⇒ u→ 2 y → ln(ex − 1) ⇒ u→ ex 12 Assim, FX(x) = ex∫ 2 ey u2 1 ey dy = ex∫ 2 u−2du = − 1 u ∣∣∣∣∣ ex 2 = − 1 ex + 1 2 ⇒ FX(x) = ex − 2 2ex Calculando a sua função densidade, temos que fX(x) = ∂ ∂x (ex − 2 2ex ) = ex(2ex)− (ex − 2)2ex 4e2x = 2e2x − 2e2x + 4ex 4e2x = e−x Então, fX(x) = e −x, que é a função densidade da distribuição exponencial com λ = 1, isto é, X ∼ exp(1), com x ≥ 0.Exerćıcio 6 - Vamos supor que X1 e X2 tem uma distribuição conjunta com função densidade dada por f(x1, x2) = x1 + x2, se 0 < x1 < 1 e 0 < x2 < 1.0, caso contrario (a) Encontre a função densidade da variável Y = X1X2. Consideremos uma variável aleatória auxiliar W = X2. Assim Y = X1X2 e W = X2. Nesse sentido temos que X1 = Y W e X2 = W . Com estas variáveis, vamos utilizar o Método do Jacobiano para encontrar a função densidade conjunta de Y e W , isto é, fY,W (y, w). Assim, pelo Método do Jacobiano, temos que fY,W (y, w) = |J | · fX1,X2(G−11 (y, w), G −1 2 (y, w)) · ID(y, w) [1] Vamos encontrar G−11 (y, w) e G −1 1 (y, w). Observe que X2 = W ⇒ x2 = w e X1 = Y W ⇒ x1 = y w . Desta maneira, vamos encontrar o determinante do Jacobiano da Transformação. Note que J = ∂x1 ∂y ∂x1 ∂w ∂x2 ∂y ∂x2 ∂w = 1 w − y w2 0 1 = 1 w Voltando na igualdade [1], temos fY,W (y, w) = |J | · fX1,X2(G−11 (y, w), G −1 2 (y, w)) · ID(y, w) = 1 |w| · [ y w + w ] · ID(y, w) Encontrando a região D. Observe que quando, x2 = 0, então w = 0 e que x2 = 1, então w = 1. Além disso, quando x1 = 1, então y = w e, quando x1 = 0, então y = 0. Desta maneira, a região D é dada por ID(y, w) = I(0,1)×(0,1)(y, w) 13 Assim, fY,W (y, w) = 1 w · [ y + w2 w ] · I(0,1)×(0,1)(y, w) = ( 1 + y w2 ) · I(0,1)×(0,1)(y, w) Portanto, fY,W (y, w) = ( 1 + yw2 ) · I(0,1)×(0,1)(y, w). Vamos então encontrar a função densidade da variável Y . Assim fY (y) = ∫ 1 0 fYW (y, w) dw = ∫ 1 0 ( 1 + y w2 ) dw = ( −y · 1 w + w ) ∣∣∣1 0 = 1− y ⇒ fY (y) = 1− y Portanto, fY (y) = (1− y) · I(0,1)(y). (b) Encontre a função densidade da variável Y = X1 X2 , em que P (X2 6= 0) = 1. Consideremos uma variável aleatória auxiliar W = X2. Assim Y = X1 X2 e W = X2. Nesse sentido, temos que X1 = WY e X2 = W . Com estas variáveis, vamos utilizar o Método do Jacobiano para encontrar a função densidade conjunta de Y e W , isto é, fY,W (y, w). Assim, pelo Método do Jacobiano, temos que fY,W (y, w) = |J | · fX1,X2(G−11 (y, w), G −1 2 (y, w)) · ID(y, w) [1] Vamos encontrar G−11 (y, w) e G −1 1 (y, w). Observe que X2 = W ⇒ x2 = w e X1 = YW ⇒ x1 = yw. Desta maneira, vamos encontrar o determinante do Jacobiano da Transformação. Note que J = ∂x1 ∂y ∂x1 ∂w ∂x2 ∂y ∂x2 ∂w = w y 0 1 = w Voltando na igualdade [1], temos fY,W (y, w) = |J | · fX1,X2(G−11 (y, w), G −1 2 (y, w)) · ID(y, w) = |w| · (yw + w) · ID(y, w) Encontrando a região D. Observe que quando, x2 = 0, então w = 0 e que x2 = 1, então w = 1. Além disso, quando x1 = 1, então y = 1 w e, quando x1 = 0, então y = 0. Desta maneira, a região D é dada por ID(y, w) = I(0,∞)(y)I(0,1)(w) Assim, fY,W (y, w) = w · (yw + w) · I(0,∞)×(0,1)(y, w) = w2(y + 1) · I(0,∞)×(0,1)(y, w) Portanto, fY,W (y, w) = [w 2(y + 1)] · I(0,∞)×(0,1)(y, w). Vamos então encontrar a função densidade da variável Y . Assim fY (y) = ∫ 1 0 fYW (y, w) dw = ∫ 1 0 w2(y + 1) dw = (y + 1) · ( w3 3 ) ∣∣∣1 0 = 1 3 (y + 1) ⇒ fY (y) = 1 3 (y + 1) 14 Portanto, fY (y) = 1 3 (y + 1) · I(0, 1w )(y). Exerćıcio 7 - Sejam X e Y variáveis aleatórias independentes com distribuição normal padrão. Mostre que U = X + Y√ 2 e V = X − Y√ 2 também são independentes e com distribuição normal padrão. Mostremos primeiramente que U ∼ N(0, 1). De fato, pela Técnica da função geradora de momentos, temos que MU (t1) = E[e t1U ] = E [ e t1 (X+Y )√ 2 ] = E [ e t1X√ 2 + t1Y√ 2 ] = E [ e t1X√ 2 · e t1Y√ 2 ] ⇒ MU (t1) = E [ e t1X√ 2 · e t1Y√ 2 ] Como X e Y são independentes, temos que MU (t1) = E [ e t1X√ 2 · e t1Y√ 2 ] = E [ e t1X√ 2 ] · E [ e t1Y√ 2 ] = MX ( t1√ 2 ) ·MY ( t1√ 2 ) Desta maneira MU (t1) = MX ( t1√ 2 ) ·MY ( t1√ 2 ) = e ( t1√ 2 )2 2 · e ( t1√ 2 )2 2 = e t21 2 ⇒ MU (t1) = e t21 2 Portanto, U ∼ N(0, 1), em que µ = 0 e σ2 = 1. Vejamos agora que V ∼ N(0, 1). De fato, pela Técnica da função geradora de momentos, temos que MV (t2) = E[e t2V ] = E [ e t2 (X−Y )√ 2 ] = E [ e t2X√ 2 − t2Y√ 2 ] = E [ e t2X√ 2 e t2Y√ 2 ] = E [ e t2X√ 2 · 1 e t2Y√ 2 ] Como X e Y são independentes, temos que MV (t2) = E [ e t2X√ 2 · 1 e t2Y√ 2 ] = E [ e t2X√ 2 ] · E [ e0 e t2Y√ 2 ] = E [ e t2X√ 2 ] · E [ e − t2Y√ 2 ] = MX ( t2√ 2 ) ·MY ( − t2√ 2 ) Desta maneira MV (t2) = MX ( t2√ 2 ) ·MY ( − t2√ 2 ) = e ( t2√ 2 )2 2 · e ( t2√ 2 )2 2 = e t22 2 ⇒ MV (t2) = e t22 2 Portanto, V ∼ N(0, 1), em que µ = 0 e σ2 = 1. Resta mostrar que U e V são independentes. Para tanto, vamos calcular a função de distribuição conjunta de U e V , por meio da Técnica da função geradora de momentos e, em seguida, analisar se a mesma é o produto das distribuições marginais de U e V , isto é, mostremos que MU,V (t1, t2) = MU (t1) ·MV (t2). Note que MU,V (t1, t2) = E[e t1U+t2V ] = E [ e t1 ( X+Y√ 2 ) +t2 ( X−Y√ 2 )] = E [ e t1√ 2 X+ t1√ 2 Y+ t2√ 2 X− t2√ 2 Y ] = 15 = E [ e X ( t1√ 2 + t2√ 2 ) +Y ( t1√ 2 − t2√ 2 )] = E [ e X ( t1+t2√ 2 ) · eY ( t1−t2√ 2 )] ⇒ MU,V (t1, t2) = E [ e X ( t1+t2√ 2 ) · eY ( t1−t2√ 2 )] Como X e Y são independentes, temos que MU,V (t1, t2) = E [ e X ( t1+t2√ 2 ) · eY ( t1−t2√ 2 )] = E [ e X ( t1+t2√ 2 )] ·E [ e Y ( t1−t2√ 2 )] = MX ( t1 + t2√ 2 ) ·MY ( t1 − t2√ 2 ) Desta maneira, temos que MU,V (t1, t2) = MX ( t1 + t2√ 2 ) ·MY ( t1 − t2√ 2 ) Como as variáveis X e Y têm distribuição normal padrão, temos que MX ( t1 + t2√ 2 ) ·MY ( t1 − t2√ 2 ) = e ( t1+t2√ 2 )2 2 · e ( t1−t2√ 2 )2 2 = e 2t21+2t 2 2 4 = e t21 2 · e t22 2 = MU (t1) ·MV (t2) Logo, MU,V (t1, t2) = MU (t1) ·MV (t2) Portanto, como a função geradora de momentos conjunta de U e V é igual ao produto das funções ger- adoras de momentos marginais de U e V , temos que U e V são independentes. Exerćıcio 8 - Sejam X e Y variáveis aleatórias com função densidade conjunta fX,Y (x, y) = exp (−x2y), x > 1, y > 0 Prove que U = 1 X e V = X2Y são independentes e que U ∼ U(0, 1) e V ∼ exp(1). Considerando U = 1X e V = X 2Y , temos que: U = 1 X ⇒ u = 1 x ⇒ x = 1 u V = X2Y ⇒ v = x2y ⇒ y = v x2 ⇒ y = u2v Desta maneira, G−11 (u, v) = 1 u e G −1 2 (u, v) = u 2v. Vamos utilizar o método do Jacobiano para encontrar fU,V (u, v). Assim, fU,V (u, v) = ∣∣J∣∣fX,Y (G−11 (u, v), G−12 (u, v))ID(u, v) (2) Calculando o determinante do Jacobiano da transformação J = ∣∣∣∣∣∣ ∂x ∂u ∂x ∂v ∂y ∂u ∂y ∂v ∣∣∣∣∣∣ = ∣∣∣∣∣∣ − 1 u2 0 2uv u2 ∣∣∣∣∣∣ = −1 16 Assim, voltando em (2), temos fU,V (u, v) = 1 [ e ( 1 u ) u2v ] ID(u, v) (3) Vamos encontrar a região D. Note que, x > 1 ⇒ u = 1 x ⇒ 0 < u < 1 y > 0 ⇒ y = vu2 ⇒ u2 > 0 e y > 0⇒ v > 0 Logo, ID(u, v) = I(0,1)×(0,∞)(u, v). Voltando em (3), temos fU,V (u, v) = e −vI(0,1)×(0,∞)(u, v) Vamos agora encontrar fU (u). Sabemos que fU (u) = +∞∫ 0 e−vdv = lim b∫ 0 e−vdv = lim(−e−v) ∣∣∣∣b 0 = lim [ − e−b + e0 ] = 1 Portanto, fU (u) = 1.I(0,1)(u), isto é, U ∼ U(0, 1), pois fU (u) = 11−0 = 1. Vamos agora encontrar fV (v). Sabemos que fV (v) = 1∫ 0 e−vdu = e−vu ∣∣∣∣1 0 = e−v ⇒ fV (v) = e−vI(0,∞)(v) que é a função densidade da distribuição exponencial com λ = 1. Logo, V ∼ exp(1). Mostremos que U e V são independentes. Note que fU,V (u, v) = e −vI(0,1)×(0,∞)(u, v) fU (u) = 1I(0,1)(u) fV (v) = e −vI(0,∞)(v) Logo, fU,V (u, v) = fU (u).fV (v) = e −vI(0,1)×(0,∞). Portanto, U e V são variáveis aleatórias indepen- dentes. Exerćıcio 9 - Sejam X e Y variáveis aleatórias independentes tais que X ∼ Ga(r, λ) e Y ∼ Ga(r, λ), com λ > 0, r > 0 e s > 0. Mostre que P = X + Y e Q = XX+Y também são independentes , P ∼ Ga(r + s, λ) e Q ∼ beta(r, s). 17 Vamos encontrar MP (t1) e MQ(t2) pela técnica da função gerado de momentos encontramos MP (t1): MP (t1) = E(e t1P ) = E [ et1(X+Y ) ] = E [ et1X+t1Y ] = E [ et1Xet1Y ] XeY indep.︷︸︸︷ = E [ et1X ] E [ et1Y ] = MX(t1)MY (t1) Como X ∼ Ga(r, λ) e Y ∼ Ga(s, λ),com λ > 0, r > 0 e s > 0, temos MP (t1) = MX(t1)MY (t1) = ( λ λ− t1 )r( λ λ− t1 )s = ( λ λ− t1 )r+s Logo, P ∼ Ga(r + s, λ). Como X e Y são independentes, então fX,Y (x, y) = fX(x)fY (y) = ( λr γ(r) xr−1e−λx )( λs γ(s) xs−1e−λy ) IR2(x, y) = ( λr+s γ(r)γ(s) xr−1ys−1e−λ(x+y) ) IR2(x, y) Vamos utilizar a técnica do Jacobiano . Para tanto, defina a variável auxiliar T , tal que T = X + Y . Assim, Q = X X + Y ⇒ Q = X T ⇒ X = QT e Y = T −X ⇒ Y = T −QT . Dessa maneira, a função densidade conjunta de Q e T é dada por fQ,T (q, t) = ∣∣J∣∣fX,Y (G−11 (q, t), G−12 (q, t))ID(q, t) (4) Observe que J = ∣∣∣∣∣∣ ∂x ∂q ∂x ∂t ∂y ∂q ∂y ∂t ∣∣∣∣∣∣ = ∣∣∣∣∣∣ t q−t 1− q ∣∣∣∣∣∣ = ∣∣t(1− q) + tq∣∣ = ∣∣t− tq + tq∣∣ = t Assim, substituindo em (4), temos fQ,T (q, t) = t [( λr+s γ(r)γ(s) ) (qt)r−1(t− qt)s−1e−λt ] ID(q, t) 18 Vamos determinar a região D. Note que x1 = 0 ⇒ q = 0 ou t = 0 x2 = 0 ⇒ t(1− q) = 0⇒ t = 0 ou q = 1 Se x1 → +∞ ⇒ t→ +∞, já que 0 < q < 1. Logo, ID(q, t) = I(0,1)×(0,∞)(q, t). Dessa forma, fQ,T (q, t) = ( λr+s γ(r)γ(s) ) qr−1(1− q)s−1tr−1+s−1+1e−λtI(0,1)×(0,∞)(q, t) = ( λr+s γ(r)γ(s) ) qr−1(1− q)s−1tr+s−1e−λtI(0,1)×(0,∞)(q, t) Vamos agora determinar Q fQ(q) = +∞∫ 0 fQ,T (q, t)dt = ( λr+s γ(r)γ(s) ) qr−1(1− q)s−1 +∞∫ 0 tr+s−1e−λtdt Tomando u = λt, temos que du = λdt. Além disso, se t→ 0 ⇒ u→ 0 t→ +∞ ⇒ u→ +∞ Assim, fQ(q) = ( λr+s γ(r)γ(s) ) qr−1(1− q)s−1 +∞∫ 0 (u λ )r+s−1 e−u 1 λ du = ( λr+s γ(r)γ(s) ) qr−1(1− q)s−1 +∞∫ 0 ur+s−1 λr+s e−udu = ( 1 γ(r)γ(s) ) qr−1(1− q)s−1 +∞∫ 0 ur+s−1e−udu ︸ ︷︷ ︸ γ(r+s) = ( 1 γ(r)γ(s) ) qr−1(1− q)s−1γ(r + s) = ( γ(r + s) γ(r)γ(s) ) ︸ ︷︷ ︸ 1 B(r,s) qr−1(1− q)s−1 = 1 B(r, s) qr−1(1− q)s−1 Portanto, fQ(q) = 1 B(r,s)q r−1(1− q)s−1I(0,1), isto é, Q ∼ beta(r, s). 19 Para que P e Q sejam independentes, devemos ter fQ,P (q, p) = fQ(q)fP (p). Sabemos que, fQ(q) = 1 B(r, s) qr−1(1− q)s−1I(0,1)(q) Como P ∼ Ga(r + s, λ), temos que fP (p) = λr+s γ(r + s) pr+s−1e−λpI(0,+∞)(p) Vamos calcular fQ(q).fP (p). Com isso, fQ(q)fP (p) = [ 1 B(r, s) qr−1(1− q)s−1 ][ λr+s γ(r + s) pr+s−1e−λp ] = ( γ(r + s) γ(r)γ(s) ) qr−1(1− q)s−1 ( λr+s γ(r + s) ) pr+s−1e−λp = ( λr+s γ(r)γ(s) ) qr−1(1− q)s−1pr+s−1e−λp = fQ,P (q, p) Portanto, fQ(q)fP (p) = fQ,P (q, p) e com isso, temos que Q e P são independentes. 20
Compartilhar