Buscar

Lista3 - Estatística Matemática

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 20 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 20 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 20 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Lista 3 de Exerćıcios - Estat́ıstica Matemática I
Exerćıcio 1 Mostre que:
(a) Se X ∼ Bernoulli(p), então MX(t) = pet + 1− p, 0 ≤ p ≤ 1.
Vamos encontrar a função geradora de momentos quando X ∼ Bernoulli(n, p), para assim particu-
larizarmos quando n = 1 e, assim, termos X ∼ Bernoulli(p).
Note que
MX(t) =
∑
X
etx · P [X = x] =
n∑
x=0
etx
 n
x
 px(1− p)n−x
já que supomos X ∼ Bernoulli(n, p). Assim
MX(t) =
n∑
x=0
etx
 n
x
 px(1− p)n−x = n∑
x=0
etxpx
 n
x
 (1− p)n−x = n∑
x=0
 n
x
 (pet)x(1− p)n−x
que é um binômio de Newton, em que a = pet e b = 1− p. Logo
MX(t) =
n∑
x=0
 n
x
 (pet)x(1− p)n−x = [pet + (1− p)]n
Isso é válido quando X ∼ binomial(n, p). Para o caso n = 1, temos o caso particular da distribuição
Binomial, que é a distribuição de Bernoulli. Logo, quando n = 1, temos
MX(t) = pe
t + 1− p, com 0 ≤ p ≤ 1
Portanto, se X ∼ Bernoulli(p), então MX(t) = pet + 1− p, com 0 ≤ p ≤ 1.
(b) Se X ∼ N(µ, σ2), então MX(t) = eµt+
σ2t2
2 .
Mostremos primeiramente o seguinte resultado: ”Se Z é uma variável aleatória tal que Z ∼ N(0, 1),
então MZ(t) = e
t2
2 ”.
De fato, calculemos a função geradora de momentos de Z.
MZ(t) = E(e
tZ) =
∫ +∞
−∞
(
etz · 1√
2π
· e− z
2
2
)
dz
em que fZ(z) =
1√
2π
· e− z
2
2 é a função densidade de N(0, 1). Assim
MZ(t) =
∫ +∞
−∞
(
etz · 1√
2π
· e− z
2
2
)
dz =
∫ +∞
−∞
(
1√
2π
· e−
(z2−2tz)
2
)
dz
Por meio do processo de completamento de quadrados, temos que
MZ(t) = e
t2
2
∫ +∞
−∞
(
1√
2π
· e
−(z−t)2
2
)
dz [I]
1
Observe que a função [I] é a função densidade que segue a distribuiçãoN(t, 1). Logo, por uma propriedade,
temos que ∫ +∞
−∞
(
1√
2π
· e
−(z−t)2
2
)
dz = 1
Desta maneira
MZ(t) = e
t2
2
∫ +∞
−∞
(
1√
2π
· e
−(z−t)2
2
)
dz = e
t2
2
Logo, MZ(t) = e
t2
2 é a função geradora de momentos da distribuição N(0, 1).
Generalizando este resultado, temos:
Suponha que X ∼ N(µ, σ2). Utilizando o resultado anterior, calculemos a função geradora de momentos
de X. Para tanto, considerando X = σZ + µ, com Z ∼ N(0, 1) temos
MX(t) = E(e
tX) = E[et(σZ+µ)] = E[etµ+tσZ ] = E[etµ · e(tσ)Z ] = etµ · E[e(tσ)Z ] = etµ ·MZ(tσ) =
etµ · eσ
2t2
2 ⇒ MX(t) = etµ+
t2σ2
2
Portanto, MX(t) = e
tµ+ t
2σ2
2 é a função geradora de momentos quando X ∼ N(µ, σ2).
(c) Se X ∼ Poisson(λ), então MX(t) = eλ(e
t−1), λ > 0.
Vamos calcular a função geradora de momentos da variável X ∼ Poisson(λ), isto é MX(t).
MX(t) = E(e
tX) =
n∑
x=0
etx · P [X = x] =
n∑
x=0
etx · e
−λλx
x!
já que X ∼ Poisson(λ). Assim
MX(t) =
n∑
x=0
etx · e
−λλx
x!
= e−λ ·
n∑
x=0
etx · λx
x!
= e−λ ·
n∑
x=0
(et · λ)x
x!
Note que
∑n
x=0
ax
x!
= e, com a ∈ R. Para nosso caso, considerando a = etλ, temos que
MX(t) = e
−λ ·
n∑
x=0
(et · λ)x
x!
= e−λ · eλe
t
= eλ[e
t−1], λ > 0
Portanto, MX(t) = e
λ[et−1], λ > 0.
(d) Se X ∼ Geo(p), então MX(t) =
pet
1− (1− p)et
, com 0 ≤ p ≤ 1.
Vamos calcular a função geradora de momentos da variável X ∼ Geo(p), isto é MX(t).
MX(t) = E(e
tX) =
n∑
x=1
etx ·P [X = x] =
∞∑
x=1
etx ·p(1−p)x−1 = p ·
∞∑
x=1
etx
(1− p)x
(1− p)
=
p
1− p
·
∞∑
x=1
[et(1−p)]x
2
já que X ∼ Geo(p). Assim,
MX(t) =
p
1− p
·
∞∑
x=1
[et(1− p)]x︸ ︷︷ ︸
série geométrica
[I]
Observe que temos uma série geométrica, em que
∞∑
i=1
rk =
r
1− r
, se |r| < 1
com r = et(1− p) e |et(1− p)| < 1 ⇒ 0 ≤ p ≤ 1. Desta maneira, voltando em [I], temos
MX(t) =
p
1− p
·
∞∑
x=1
[et(1− p)]x = p
1− p
· e
t(1− p)
1− [et(1− p)]
=
pet
1− [et(1− p)]
Portanto, MX(t) =
pet
1−[et(1−p)] , com 0 ≤ p ≤ 1.
(e) Se X ∼ U(a, b), então MX(t) =
etb − eta
t(b− a)
, com a < b.
Vamos calcular a função geradora de momentos da variável X ∼ U(a, b), isto é MX(t).
MX(t) =
∫ b
a
etx · fX(x)dx =
∫ b
a
etx · 1
b− a︸ ︷︷ ︸
fX(x)
dx =
1
b− a
·
∫ b
a
etxdx =
(
etx
t(b− a)
) ∣∣∣b
a
=
etb − eta
t(b− a)
Portanto, MX(t) =
etb−eta
t(b−a) , com a < b.
(f) Se X ∼ exp(λ), então MX(t) =
λ
λ− t
, com λ > 0.
Vamos calcular a função geradora de momentos da variável X ∼ exp(λ), isto é MX(t).
MX(t) =
∫ ∞
0
etx · fX(x)dx =
∫ ∞
0
etx · [λe−λx]︸ ︷︷ ︸
fX(x)
dx = λ ·
∫ ∞
0
[etx · e−λx]dx = λ ·
∫ ∞
0
[e−x(λ−t)]dx︸ ︷︷ ︸
[I]
Vamos calcular a integral imprópria [I], utilizando o Método da Substituição. Assim
∫ ∞
0
[e−x(λ−t)]dx = lim
b→∞
∫ b
0
e−x(λ−t)dx = lim
b→∞
∫ −b(λ−t)
0
eu
t− λ
du =
1
t− λ
· lim
b→∞
∫ −b(λ−t)
0
eu du =
1
t− λ
· lim
b→∞
[eu]
∣∣∣−b(λ−t)
0
=
1
t− λ
· lim
b→∞
[
1
eb(λ−t)
− 1
]
=
1
t− λ
· (−1) = 1
λ− t
Retornando ao cálculo da função geradora de momentos, temos
MX(t) = λ ·
∫ ∞
0
[e−x(λ−t)]dx = λ · 1
λ− t
=
λ
λ− t
Portanto, se X ∼ exp(λ), então MX(t) = λλ−t , com λ > 0.
3
(g) Se X ∼ gama(α, λ), então MX(t) =
(
λ
λ− t
)α
, com α > 0 e λ > 0.
Vamos calcular a função geradora de momentos da variável X ∼ gama(α, λ), isto é MX(t).
MX(t) =
∫ ∞
0
etx · fX(x)dx =
∫ ∞
0
etx ·
(
λα
Γ(α)
· xα−1 · e−λx
)
dx︸ ︷︷ ︸
I
uma vez que X ∼ gama(α, λ) e sua função densidade de probabilidade é fX(x) = λ
α
Γ(α) · x
α−1 · e−λx ·
I(0,∞)(x).
Vamos calcular a integral [I]. Assim
MX(t) =
∫ ∞
0
etx ·
(
λα
Γ(α)
· xα−1 · e−λx
)
dx = λα ·
∫ ∞
0
1
Γ(α)
· xα−1e−x(λ−t) dx
Multiplicando e dividindo por (λ− t)α, o membro a direita da igualdade anterior, temos
MX(t) =
λα
(λ− t)α
·
∫ ∞
0
(λ− t)α
Γ(α)
· xα−1e−x(λ−t) dx =
(
λ
λ− t
)α
·
∫ ∞
0
(λ− t)α
Γ(α)
· xα−1e−x(λ−t) dx
Note que, fX(x) =
(λ−t)α
Γ(α) ·x
α−1e−x(λ−t) é a função densidade de probabilidade da Distribuição gama(α, λ−
t). Assim, temos que ∫ ∞
0
(λ− t)α
Γ(α)
· xα−1e−x(λ−t) dx = 1
Retornando no cálculo da função geradora de momentos da variável X, temos que
MX(t) =
(
λ
λ− t
)α
·
∫ ∞
0
(λ− t)α
Γ(α)
· xα−1e−x(λ−t) dx =
(
λ
λ− t
)α
· 1 =
(
λ
λ− t
)α
, λ > 0, α > 0
Portanto, se X ∼ gama(α, λ), então MX(t) =
(
λ
λ−t
)α
, λ > 0, α > 0.
Exerćıcio 2 - Determine o valor esperado e a variância para cada variável aleatória X do exerćıcio
anterior.
(a) X ∼ Bernoulli(p), 0 ≤ p ≤ 1
Calculando o valor esperado. Temos que E[X] = M ′X(0) (quando t=0). Como MX(t) = pe
t + 1 − p,
temos que M ′X(t) = pe
t. Assim, M ′X(0) = p.
Portanto, E[X] = M ′X(0) = p, com 0 ≤ p ≤ 1.
Calculando a Variância. Sabemos que V ar(X) = E[X2]−E2(X). Vamos então calcular E[X2] = M ′′X(0).
Como M ′X(t) = pe
t, temos que M ′′X(t) = pe
t e, consequentemente M ′′X(0) = pe
0 = p. Assim,
V ar(X) = E[X2]− E2(X) = p− p2 = p(1− p), 0 ≤ p ≤ 1
Portanto, V ar(X) = p(1− p), com 0 ≤ p ≤ 1.
(b) X ∼ N(µ, σ2)
4
Calculando o valor esperado. Temos que E[X] = M ′X(0) (quando t=0). Como MX(t) = e
µt+
σ2t2
2 , temos
que M ′X(t) = (µ+ σ
2t) · e
µt+
σ2t2
2 . Assim, M ′X(0) = µ.
Portanto, E[X] = M ′X(0) = µ.
Calculando a Variância. Sabemos que V ar(X) = E[X2]−E2(X). Vamos então calcular E[X2] = M ′′X(0).
Como M ′X(t) = (µ+ σ
2t) · e
µt+
σ2t2
2 , temos que
M ′′X(t) = (µ+ σ
2t)2 · eµt+σ
2t2
2 + eµt+
σ2t2
2 · (σ2)
Assim
M ′′X(0) = µ
2 · e0 + e0 · σ2 ⇒ E2[X] = M ′′X(0) = µ2 + σ2
Desta maneira,
V ar(X) = E[X2]− E2(X) = µ2 + σ2 − µ2 = σ2
Portanto, V ar(X) = σ2.
(c) X ∼ Poisson(λ), com λ > 0.
Calculando o valor esperado. Temos que E[X] = M ′X(0) (quando t=0). Como MX(t) = e
λ(et−1), com
λ > 0 temos que M ′X(t) = e
λ(et−1) · (λet). Assim, M ′X(0) = λ.
Portanto, E[X] = M ′X(0) = λ, com λ > 0.
Calculando a Variância. Sabemos que V ar(X) = E[X2]−E2(X). Vamos então calcular E[X2] = M ′′X(0).
Como M ′X(t) = e
λ(et−1) · (λet), temos que
M ′′X(t) = [e
λ(et−1) · (λet)2 + eλ(e
t−1) · (λet)]
Assim
M ′′X(0) = [e
0 · λ2 + e0 · λ] = λ2 + λ ⇒ E2[X] = M ′′X(0) = λ2 + λ
Desta maneira,
V ar(X) = E[X2]− E2(X) = λ2 + λ− λ2 = λ
Portanto, V ar(X) = λ, com λ > 0.
(d) X ∼ Geo(p), com 0 ≤ p ≤ 1.
Calculando o valor esperado. Temos que E[X] = M ′X(0) (quando t=0). Como MX(t) =
pet
1− (1− p)et
,
com 0 ≤ p ≤ 1, temos que
M ′X(t) =
pet[1− (1− p)et]− pet[−(1− p)et]
[1− (1− p)et]2
=
−pet[−1 + et − pet − et + pet]
[1− (1− p)et]2
⇒
5
M ′X(t) =
pet
[1− (1− p)et]2
Assim,E[X] = M ′X(0) =
pe0
[1− (1− p)e0]2
=
p
p2
=
1
p
Portanto, E[X] = M ′X(0) =
1
p , com 0 < p ≤ 1.
Calculando a Variância. Sabemos que V ar(X) = E[X2]−E2(X). Vamos então calcular E[X2] = M ′′X(0).
Como M ′X(t) =
pet
[1−(1−p)et]2 , temos que
M ′′X(t) =
pet · [et(1− p) + 1]
[1− (1− p)et]3
Assim
M ′′X(0) =
−p2 + 2p
p3
=
p(2− p)
p3
=
2− p
p2
⇒ E2[X] = M ′′X(0) =
2− p
p2
Desta maneira,
V ar(X) = E[X2]− E2(X) = 2− p
p2
− 1
p2
=
1− p
p2
Portanto, V ar(X) =
1− p
p2
, com 0 < p ≤ 1.
(e) X ∼ U(a, b), com a < b.
Calculando o valor esperado. Temos que
E[X] =
∫ +∞
−∞
x · fX(x) dx
Como X ∼ U(a, b), temos que sua função densidade é dada por fX(x) =
1
b− a
· I[a,b](x). Assim,
E[X] =
∫ b
a
x · 1
b− a
dx =
1
b− a
∫ b
a
x dx =
1
b− a
·
(
x2
2
) ∣∣∣b
a
=
b2 − a2
2(b− a)
=
(b− a)(b+ a)
2(b− a)
=
b+ a
2
Portanto, E[X] = b+a2 , com a < b.
Calculando a Variância. Sabemos que
E[X2] =
∫ +∞
−∞
x2 · fX(x) dx
Assim,
E[X2] =
∫ b
a
x2 · 1
b− a
dx =
1
b− a
∫ b
a
x2 dx =
1
b− a
(
x3
3
) ∣∣∣b
a
=
b3 − a3
3(b− a)
=
(b− a)(b2 + ab+ b2)
3(b− a)
⇒
E[X2] =
a2 + ab+ b2
3
6
Assim, calculando a Variância de X, temos que
V ar(X) = E[X2]−E2[X] = a
2 + ab+ b2
3
−
(
b+ a
2
)2
=
a2 + ab+ b2
3
− b
2 + 2ab+ b2
4
=
b2 − 2ab+ a2
12
⇒
V ar(X) =
(b− a)2
12
Portanto, V ar(X) =
(b− a)2
12
, com a < b.
(f) X ∼ exp(λ), com λ > 0.
Calculando o valor esperado. Temos que E[X] = M ′X(0) (quando t=0). Como MX(t) =
λ
λ− t
, com
λ > 0, temos que
M ′X(t) =
−λ(−1)
(λ− t)2
=
λ
(λ− t)2
⇒ M ′X(t) =
λ
(λ− t)2
, λ > 0
Assim,
E[X] = M ′X(0) =
λ
λ2
=
1
λ
Portanto, E[X] = M ′X(0) =
1
λ , com λ > 0.
Calculando a Variância. Sabemos que V ar(X) = E[X2]−E2(X). Vamos então calcular E[X2] = M ′′X(0).
Como M ′X(t) =
λ
(λ−t)2 , temos que
M ′′X(t) =
2λ(λ− t)
(λ− t)4
=
2λ
(λ− t)3
Assim
M ′′X(0) =
2λ
(λ− 0)3
⇒ E2[X] = M ′′X(0) =
2
λ2
Desta maneira,
V ar(X) = E[X2]− E2(X) = 2
λ2
− 1
λ2
=
1
λ2
Portanto, V ar(X) =
1
λ2
, com λ > 0.
(g) X ∼ gama(α, λ), com α > 0 e λ > 0.
Calculando o valor esperado. Temos que E[X] = M ′X(0) (quando t=0). Como MX(t) =
(
λ
λ− t
)α
, com
α > 0 e λ > 0, temos que
M ′X(t) = α ·
(
λ
λ− t
)α−1
· λ
(λ− t)2
=
α · λα
(λ− t)α+1
M ′X(t) =
α · λα
(λ− t)α+1
7
Assim,
E[X] = M ′X(0) =
α · λα
(λ− 0)α+1
=
α · λα
(λ)α+1
=
α
λ
Portanto, E[X] = M ′X(0) =
α
λ , com α > 0 e λ > 0.
Calculando a Variância. Sabemos que V ar(X) = E[X2]−E2(X). Vamos então calcular E[X2] = M ′′X(0).
Como M ′X(t) =
α · λα
(λ− t)α+1
, temos que
M ′X(t) = αλ
α · [(λ− t)−(α−1)] ⇒ M ′′X(t) = αλα(α+ 1) ·
1
(λ− t)α+2
=
αλα(α+ 1)
(λ− t)α+2
Assim
M ′′X(0) =
αλα(α+ 1)
(λ− 0)α+2
=
α(α+ 1)
λ2
⇒ E2[X] = M ′′X(0) =
α(α+ 1)
λ2
Desta maneira,
V ar(X) = E[X2]− E2(X) = α(α+ 1)
λ2
− α
2
λ2
=
α
λ2
Portanto, V ar(X) =
α
λ2
, com α > 0 e λ > 0.
Exerćıcio 3 - Suponha que a função densidade de uma variável aleatória X é a seguinte
fX(x) =
1
2
xI(0,2)(x).
Defina a variável Y = X(X−2). Determine as funções densidade e de distribuição da variável aleatória Y .
Pela técnica da distribuição acumulada, temos:
FY (y) = P [Y ≤ y] = P [X(X − 2) ≤ y]
= P [X2 − 2X ≤ y] = P [X2 − 2X + 1 ≤ y + 1]
= P [(X − 1)2 ≤ y + 1] = P [|X − 1| ≤ y + 1]
= P [−
√
y + 1 ≤ X − 1 ≤
√
y + 1]
= P [1−
√
y + 1 ≤ X ≤ 1 +
√
y + 1]
8
Desta maneira
FY (y) = P [1−
√
y + 1 ≤ X ≤ 1 +
√
y + 1]
=
1+
√
y+1∫
1−
√
y+1
1
2
x dx =
1
2
1+
√
y+1∫
1−
√
y+1
x dx =
x2
4
∣∣∣∣∣
1+
√
y+1
1−
√
y+1
=
1
4
[(1 +
√
y + 1)2 − (1−
√
y + 1)2]
=
1
4
[1 + 2
√
y + 1 + (y + 1)− 1 + 2
√
y + 1− (y + 1)]
=
1
4
[4
√
y + 1] =
√
y + 1, y ≥ −1
Calculando função densidade de Y , temos que:
fY (y) =
d
dy
[
√
y + 1] =
d
dy
(y + 1)
1
2 =
1
2
(y + 1)−
1
2 =
1
2
√
y + 1
Portanto, fY (y) =
1
2
√
y+1
, y > −1.
Exerćıcio 4 - Sejam X1, · · · , Xn variáveis aleatórias independentes com distribuição de Rayleigh com
função densidade dada por
FX(x) =
x
θ2
exp
(
− x
2
2θ2
)
I(0,∞)(x).
(a) Determine a distribuição conjunta de Y1, · · · , Yn em que Yi = X2i .
Pela técnica da função geradora de momentos, temos:
MY1,··· ,Yn(t) = E
[
et(Y1,··· ,Yn)
]
Considerando que Yi = X
2
1 , i = 1, · · · , n e que Xi são independentes e identicamente distribúıdos, temos
que:
MY1,··· ,Yn(t) = E
[
etY1
]
.E
[
etY2
]
. · · · .E
[
etYn
]
= MY1(t).MY2(t). · · · .MYn
=
n∏
i=1
MYi(t)
=
[
MY (t)
]n
9
Assim, calculando MY (t)
MY (t) = E
[
etY
]
= E
[
etX
2]
=
∞∫
0
etx
2
.fX(x) dx =
∞∫
0
etx
2
.
x
θ2
.e−
x2
2θ2 dx
=
1
θ2
∞∫
0
x.e−x
2
(
1
2θ2
−t
)
dx
=
1
θ2
∞∫
0
x.e−
x2
2θ2
(1−2θ2t) dx
sendo 1− 2θ2t > 0. Tomando u = x
2
2θ2 (1− 2θ
2t) temos
du
dx
=
2x
2θ2
(1− 2θ2t) ⇒ du = x
θ2
(1− 2θ2t)dx ⇒ dx = θ
2
(1− 2θ2)x
du
então
MY (t) =
1
θ2
∞∫
0
x.e−u
θ2
(1− 2θ2t)x
du =
1
(1− 2θ2t)
∞∫
0
e−u du
Considerando que
γ(1) =
∞∫
0
xα−1e−x dx =
∞∫
0
x1−1e−x dx =
∞∫
0
e−x dx =
∞∫
0
e−u du = 1
em que α = 1. Desta maneira
MY1,··· ,Yn =
[
1
1− 2θ2t
]n
=
[ 1
2θ2
1
2θ2 − t
]n
Logo, a distribuição conjunta de Y1, · · · , Yn segue a distribuição Gamma
(
n, 12θ2
)
.
(b) Qual é a distribuição de U = min[X1, · · · , Xn]?
Para encontrarmos qual a distribuição de U , vamos encontrar a função densidade do mı́nimo.
Como X1, · · · , Xn são independentes e identicamente distribúıdos, temos que
fY(1)(y) = n.fX(y)
[
1− FX(y)
]n−1
Para o nosso caso, temos
fU (u) = n.fX(u)
[
1− FX(u)
]n−1
10
em que,
fX(u) =
u
θ2
.e−
u2
2θ2 I(0,∞)(u)
FX(u) = 1− e−
u2
2θ2
sendo θ > 0 e u ≥ 0. Assim,
fU (u) = n
u
θ2
e−
u2
2θ2
[
1−
(
1− e−
u2
2θ2
)]n−1
= n
u
θ2
e−
u2
2θ2
[
e−
u2
2θ2
]n−1
= n
u
θ2
e−
u2
2θ2
[
e−
u2
2θ2
]n
[
e−
u2
2θ2
]1
= n
[ u
θ2
(
e−
u2
2θ2
)n]
Então, temos que fU (u) = n
[
u
θ2
(
e−
u2
2θ2
)n]
com u > 0.
Portanto, U ∼ Rayleigh(θ), com θ > 0.
Exerćıcio 5 - Seja uma variável aleatória que segue distribuição com função densidade dada por
fX(x). Mostre que a variável aleatória Y = −ln
{
e−X
1−e−X
}
segue distribuição loǵıstica se, e somente
se, X ∼ exp(1).
(⇐) Suponha que X ∼ exp(1), isto é, λ = 1. Assim, considerando sua função densidade, temos que:
fX(x) = λe
−λx ⇒ fX(x) = e−x, x ∈ (0,+∞)
Vejamos agora que a variável aleatória Y = −ln
{
e−X
1−e−X
}
segue distribuição loǵıstica. Utilizamos o
Método da Transformação (ou Jacobiano).
Sabemos que
fY (y) =
∣∣∣∣ ∂∂yG−1(y)
∣∣∣∣fX(G−1(y))ID(y) (1)
Assim,
Y = −ln
( e−x
1− e−x
)
⇒ y = −ln
( e−x
1− e−x
)
11
Encontrando G−1(y)
y = −ln
( e−x
1− e−x
)
⇒ ey =
( e−x
1− e−x
)−1
⇒ ey = 1− e
−x
e−x
⇒ eye−x = 1− e−x ⇒ eye−x + e−x = 1
⇒ e−x = 1
ey + 1
⇒ −x = ln
( 1
ey + 1
)
⇒ x = −ln
( 1
ey + 1
)
⇒ x = ln
( 1
ey + 1
)−1
⇒ x = ln
(
ey + 1
)
Assim, G−1(y) = ln
(
ey + 1
)
.
Voltando em (1) temos
fY (y) =
∣∣∣∣ ∂∂y ln(ey + 1)
∣∣∣∣fX ln(ey + 1)IR(y)
=
∣∣∣∣ 1ey + 1ey
∣∣∣∣(ey + 1)−1IR(y)
=
ey
(ey + 1)2
IR(y)
Logo, fY (y) =
ey
(ey+1)2 , com y ∈ R, sendo a função densidade a distribuição loǵıstica com µ = 0 e s = 1.
Portanto, Y ∼ Logistica(0, 1).
(⇒) Suponha que Y segue a distribuição loǵıstica. Assim, considerando a sua função densidade com
µ = 0 e s = 1, temos que
fY (y) =
ey
(1 + ey)2
Vejamos agora que a variável aleatória X segue a distribuição exp(1).
Pela técnica da função distribuição acumulada, temos
FX(x) = P
[
X ≤ x
]
= P
[
ln(ey + 1) ≤ x
]
= P
[
ey + 1 ≤ ex
]
= P
[
ey ≤ ex − 1
]
= P
[
y ≤ ln(ex − 1)
]
Desta maneira,
FX(x) =
ln(ex−1)∫
0
ey
(1 + ey)2
dy
Tomando u = 1 + ey, temos que du = eydy. Além disso,
y → 0 ⇒ u→ 2
y → ln(ex − 1) ⇒ u→ ex
12
Assim,
FX(x) =
ex∫
2
ey
u2
1
ey
dy =
ex∫
2
u−2du = − 1
u
∣∣∣∣∣
ex
2
= − 1
ex
+
1
2
⇒ FX(x) =
ex − 2
2ex
Calculando a sua função densidade, temos que
fX(x) =
∂
∂x
(ex − 2
2ex
)
=
ex(2ex)− (ex − 2)2ex
4e2x
=
2e2x − 2e2x + 4ex
4e2x
= e−x
Então, fX(x) = e
−x, que é a função densidade da distribuição exponencial com λ = 1, isto é, X ∼ exp(1),
com x ≥ 0.Exerćıcio 6 - Vamos supor que X1 e X2 tem uma distribuição conjunta com função densidade dada por
f(x1, x2) =
 x1 + x2, se 0 < x1 < 1 e 0 < x2 < 1.0, caso contrario
(a) Encontre a função densidade da variável Y = X1X2.
Consideremos uma variável aleatória auxiliar W = X2. Assim Y = X1X2 e W = X2. Nesse sentido
temos que X1 =
Y
W
e X2 = W .
Com estas variáveis, vamos utilizar o Método do Jacobiano para encontrar a função densidade conjunta
de Y e W , isto é, fY,W (y, w). Assim, pelo Método do Jacobiano, temos que
fY,W (y, w) = |J | · fX1,X2(G−11 (y, w), G
−1
2 (y, w)) · ID(y, w) [1]
Vamos encontrar G−11 (y, w) e G
−1
1 (y, w). Observe que
X2 = W ⇒ x2 = w e X1 =
Y
W
⇒ x1 =
y
w
. Desta maneira, vamos encontrar o determinante do
Jacobiano da Transformação. Note que
J =
∂x1
∂y
∂x1
∂w
∂x2
∂y
∂x2
∂w
=
1
w −
y
w2
0 1
=
1
w
Voltando na igualdade [1], temos
fY,W (y, w) = |J | · fX1,X2(G−11 (y, w), G
−1
2 (y, w)) · ID(y, w) =
1
|w|
·
[ y
w
+ w
]
· ID(y, w)
Encontrando a região D.
Observe que quando, x2 = 0, então w = 0 e que x2 = 1, então w = 1. Além disso, quando x1 = 1, então
y = w e, quando x1 = 0, então y = 0. Desta maneira, a região D é dada por
ID(y, w) = I(0,1)×(0,1)(y, w)
13
Assim,
fY,W (y, w) =
1
w
·
[
y + w2
w
]
· I(0,1)×(0,1)(y, w) =
(
1 +
y
w2
)
· I(0,1)×(0,1)(y, w)
Portanto, fY,W (y, w) =
(
1 + yw2
)
· I(0,1)×(0,1)(y, w).
Vamos então encontrar a função densidade da variável Y . Assim
fY (y) =
∫ 1
0
fYW (y, w) dw =
∫ 1
0
(
1 +
y
w2
)
dw =
(
−y · 1
w
+ w
) ∣∣∣1
0
= 1− y ⇒ fY (y) = 1− y
Portanto, fY (y) = (1− y) · I(0,1)(y).
(b) Encontre a função densidade da variável Y =
X1
X2
, em que P (X2 6= 0) = 1.
Consideremos uma variável aleatória auxiliar W = X2. Assim Y =
X1
X2
e W = X2. Nesse sentido, temos
que X1 = WY e X2 = W .
Com estas variáveis, vamos utilizar o Método do Jacobiano para encontrar a função densidade conjunta
de Y e W , isto é, fY,W (y, w). Assim, pelo Método do Jacobiano, temos que
fY,W (y, w) = |J | · fX1,X2(G−11 (y, w), G
−1
2 (y, w)) · ID(y, w) [1]
Vamos encontrar G−11 (y, w) e G
−1
1 (y, w). Observe que
X2 = W ⇒ x2 = w e X1 = YW ⇒ x1 = yw. Desta maneira, vamos encontrar o determinante do
Jacobiano da Transformação. Note que
J =
∂x1
∂y
∂x1
∂w
∂x2
∂y
∂x2
∂w
=
w y
0 1
= w
Voltando na igualdade [1], temos
fY,W (y, w) = |J | · fX1,X2(G−11 (y, w), G
−1
2 (y, w)) · ID(y, w) = |w| · (yw + w) · ID(y, w)
Encontrando a região D.
Observe que quando, x2 = 0, então w = 0 e que x2 = 1, então w = 1. Além disso, quando x1 = 1, então
y =
1
w
e, quando x1 = 0, então y = 0. Desta maneira, a região D é dada por
ID(y, w) = I(0,∞)(y)I(0,1)(w)
Assim,
fY,W (y, w) = w · (yw + w) · I(0,∞)×(0,1)(y, w) = w2(y + 1) · I(0,∞)×(0,1)(y, w)
Portanto, fY,W (y, w) = [w
2(y + 1)] · I(0,∞)×(0,1)(y, w).
Vamos então encontrar a função densidade da variável Y . Assim
fY (y) =
∫ 1
0
fYW (y, w) dw =
∫ 1
0
w2(y + 1) dw = (y + 1) ·
(
w3
3
) ∣∣∣1
0
=
1
3
(y + 1) ⇒ fY (y) =
1
3
(y + 1)
14
Portanto, fY (y) =
1
3
(y + 1) · I(0, 1w )(y).
Exerćıcio 7 - Sejam X e Y variáveis aleatórias independentes com distribuição normal padrão. Mostre
que U =
X + Y√
2
e V =
X − Y√
2
também são independentes e com distribuição normal padrão.
Mostremos primeiramente que U ∼ N(0, 1). De fato, pela Técnica da função geradora de momentos,
temos que
MU (t1) = E[e
t1U ] = E
[
e
t1
(X+Y )√
2
]
= E
[
e
t1X√
2
+
t1Y√
2
]
= E
[
e
t1X√
2 · e
t1Y√
2
]
⇒ MU (t1) = E
[
e
t1X√
2 · e
t1Y√
2
]
Como X e Y são independentes, temos que
MU (t1) = E
[
e
t1X√
2 · e
t1Y√
2
]
= E
[
e
t1X√
2
]
· E
[
e
t1Y√
2
]
= MX
(
t1√
2
)
·MY
(
t1√
2
)
Desta maneira
MU (t1) = MX
(
t1√
2
)
·MY
(
t1√
2
)
= e
(
t1√
2
)2
2 · e
(
t1√
2
)2
2 = e
t21
2 ⇒ MU (t1) = e
t21
2
Portanto, U ∼ N(0, 1), em que µ = 0 e σ2 = 1.
Vejamos agora que V ∼ N(0, 1). De fato, pela Técnica da função geradora de momentos, temos que
MV (t2) = E[e
t2V ] = E
[
e
t2
(X−Y )√
2
]
= E
[
e
t2X√
2
− t2Y√
2
]
= E
[
e
t2X√
2
e
t2Y√
2
]
= E
[
e
t2X√
2 · 1
e
t2Y√
2
]
Como X e Y são independentes, temos que
MV (t2) = E
[
e
t2X√
2 · 1
e
t2Y√
2
]
= E
[
e
t2X√
2
]
· E
[
e0
e
t2Y√
2
]
= E
[
e
t2X√
2
]
· E
[
e
− t2Y√
2
]
= MX
(
t2√
2
)
·MY
(
− t2√
2
)
Desta maneira
MV (t2) = MX
(
t2√
2
)
·MY
(
− t2√
2
)
= e
(
t2√
2
)2
2 · e
(
t2√
2
)2
2 = e
t22
2 ⇒ MV (t2) = e
t22
2
Portanto, V ∼ N(0, 1), em que µ = 0 e σ2 = 1.
Resta mostrar que U e V são independentes. Para tanto, vamos calcular a função de distribuição conjunta
de U e V , por meio da Técnica da função geradora de momentos e, em seguida, analisar se a mesma é
o produto das distribuições marginais de U e V , isto é, mostremos que MU,V (t1, t2) = MU (t1) ·MV (t2).
Note que
MU,V (t1, t2) = E[e
t1U+t2V ] = E
[
e
t1
(
X+Y√
2
)
+t2
(
X−Y√
2
)]
= E
[
e
t1√
2
X+
t1√
2
Y+
t2√
2
X− t2√
2
Y
]
=
15
= E
[
e
X
(
t1√
2
+
t2√
2
)
+Y
(
t1√
2
− t2√
2
)]
= E
[
e
X
(
t1+t2√
2
)
· eY
(
t1−t2√
2
)]
⇒ MU,V (t1, t2) = E
[
e
X
(
t1+t2√
2
)
· eY
(
t1−t2√
2
)]
Como X e Y são independentes, temos que
MU,V (t1, t2) = E
[
e
X
(
t1+t2√
2
)
· eY
(
t1−t2√
2
)]
= E
[
e
X
(
t1+t2√
2
)]
·E
[
e
Y
(
t1−t2√
2
)]
= MX
(
t1 + t2√
2
)
·MY
(
t1 − t2√
2
)
Desta maneira, temos que
MU,V (t1, t2) = MX
(
t1 + t2√
2
)
·MY
(
t1 − t2√
2
)
Como as variáveis X e Y têm distribuição normal padrão, temos que
MX
(
t1 + t2√
2
)
·MY
(
t1 − t2√
2
)
= e
(
t1+t2√
2
)2
2 · e
(
t1−t2√
2
)2
2 = e
2t21+2t
2
2
4 = e
t21
2 · e
t22
2 = MU (t1) ·MV (t2)
Logo,
MU,V (t1, t2) = MU (t1) ·MV (t2)
Portanto, como a função geradora de momentos conjunta de U e V é igual ao produto das funções ger-
adoras de momentos marginais de U e V , temos que U e V são independentes.
Exerćıcio 8 - Sejam X e Y variáveis aleatórias com função densidade conjunta
fX,Y (x, y) = exp
(−x2y), x > 1, y > 0
Prove que U =
1
X
e V = X2Y são independentes e que U ∼ U(0, 1) e V ∼ exp(1).
Considerando U = 1X e V = X
2Y , temos que:
U =
1
X
⇒ u = 1
x
⇒ x = 1
u
V = X2Y ⇒ v = x2y ⇒ y = v
x2
⇒ y = u2v
Desta maneira, G−11 (u, v) =
1
u e G
−1
2 (u, v) = u
2v.
Vamos utilizar o método do Jacobiano para encontrar fU,V (u, v). Assim,
fU,V (u, v) =
∣∣J∣∣fX,Y (G−11 (u, v), G−12 (u, v))ID(u, v) (2)
Calculando o determinante do Jacobiano da transformação
J =
∣∣∣∣∣∣
∂x
∂u
∂x
∂v
∂y
∂u
∂y
∂v
∣∣∣∣∣∣ =
∣∣∣∣∣∣ −
1
u2 0
2uv u2
∣∣∣∣∣∣ = −1
16
Assim, voltando em (2), temos
fU,V (u, v) = 1
[
e
(
1
u
)
u2v
]
ID(u, v) (3)
Vamos encontrar a região D. Note que,
x > 1 ⇒ u = 1
x
⇒ 0 < u < 1
y > 0 ⇒ y = vu2 ⇒ u2 > 0 e y > 0⇒ v > 0
Logo, ID(u, v) = I(0,1)×(0,∞)(u, v). Voltando em (3), temos
fU,V (u, v) = e
−vI(0,1)×(0,∞)(u, v)
Vamos agora encontrar fU (u). Sabemos que
fU (u) =
+∞∫
0
e−vdv = lim
b∫
0
e−vdv = lim(−e−v)
∣∣∣∣b
0
= lim
[
− e−b + e0
]
= 1
Portanto, fU (u) = 1.I(0,1)(u), isto é, U ∼ U(0, 1), pois fU (u) = 11−0 = 1.
Vamos agora encontrar fV (v). Sabemos que
fV (v) =
1∫
0
e−vdu = e−vu
∣∣∣∣1
0
= e−v ⇒ fV (v) = e−vI(0,∞)(v)
que é a função densidade da distribuição exponencial com λ = 1. Logo, V ∼ exp(1).
Mostremos que U e V são independentes. Note que
fU,V (u, v) = e
−vI(0,1)×(0,∞)(u, v)
fU (u) = 1I(0,1)(u)
fV (v) = e
−vI(0,∞)(v)
Logo, fU,V (u, v) = fU (u).fV (v) = e
−vI(0,1)×(0,∞). Portanto, U e V são variáveis aleatórias indepen-
dentes.
Exerćıcio 9 - Sejam X e Y variáveis aleatórias independentes tais que X ∼ Ga(r, λ) e Y ∼ Ga(r, λ), com
λ > 0, r > 0 e s > 0. Mostre que P = X + Y e Q = XX+Y também são independentes , P ∼ Ga(r + s, λ)
e Q ∼ beta(r, s).
17
Vamos encontrar MP (t1) e MQ(t2) pela técnica da função gerado de momentos encontramos MP (t1):
MP (t1) = E(e
t1P )
= E
[
et1(X+Y )
]
= E
[
et1X+t1Y
]
= E
[
et1Xet1Y
]
XeY indep.︷︸︸︷
= E
[
et1X
]
E
[
et1Y
]
= MX(t1)MY (t1)
Como X ∼ Ga(r, λ) e Y ∼ Ga(s, λ),com λ > 0, r > 0 e s > 0, temos
MP (t1) = MX(t1)MY (t1)
=
(
λ
λ− t1
)r(
λ
λ− t1
)s
=
(
λ
λ− t1
)r+s
Logo, P ∼ Ga(r + s, λ).
Como X e Y são independentes, então
fX,Y (x, y) = fX(x)fY (y)
=
(
λr
γ(r)
xr−1e−λx
)(
λs
γ(s)
xs−1e−λy
)
IR2(x, y)
=
(
λr+s
γ(r)γ(s)
xr−1ys−1e−λ(x+y)
)
IR2(x, y)
Vamos utilizar a técnica do Jacobiano . Para tanto, defina a variável auxiliar T , tal que T = X + Y .
Assim,
Q =
X
X + Y
⇒ Q = X
T
⇒ X = QT
e Y = T −X ⇒ Y = T −QT . Dessa maneira, a função densidade conjunta de Q e T é dada por
fQ,T (q, t) =
∣∣J∣∣fX,Y (G−11 (q, t), G−12 (q, t))ID(q, t) (4)
Observe que
J =
∣∣∣∣∣∣
∂x
∂q
∂x
∂t
∂y
∂q
∂y
∂t
∣∣∣∣∣∣ =
∣∣∣∣∣∣ t q−t 1− q
∣∣∣∣∣∣ = ∣∣t(1− q) + tq∣∣ = ∣∣t− tq + tq∣∣ = t
Assim, substituindo em (4), temos
fQ,T (q, t) = t
[(
λr+s
γ(r)γ(s)
)
(qt)r−1(t− qt)s−1e−λt
]
ID(q, t)
18
Vamos determinar a região D. Note que
x1 = 0 ⇒ q = 0 ou t = 0
x2 = 0 ⇒ t(1− q) = 0⇒ t = 0 ou q = 1
Se x1 → +∞ ⇒ t→ +∞, já que 0 < q < 1.
Logo, ID(q, t) = I(0,1)×(0,∞)(q, t).
Dessa forma,
fQ,T (q, t) =
(
λr+s
γ(r)γ(s)
)
qr−1(1− q)s−1tr−1+s−1+1e−λtI(0,1)×(0,∞)(q, t)
=
(
λr+s
γ(r)γ(s)
)
qr−1(1− q)s−1tr+s−1e−λtI(0,1)×(0,∞)(q, t)
Vamos agora determinar Q
fQ(q) =
+∞∫
0
fQ,T (q, t)dt =
(
λr+s
γ(r)γ(s)
)
qr−1(1− q)s−1
+∞∫
0
tr+s−1e−λtdt
Tomando u = λt, temos que du = λdt. Além disso, se
t→ 0 ⇒ u→ 0
t→ +∞ ⇒ u→ +∞
Assim,
fQ(q) =
(
λr+s
γ(r)γ(s)
)
qr−1(1− q)s−1
+∞∫
0
(u
λ
)r+s−1
e−u
1
λ
du
=
(
λr+s
γ(r)γ(s)
)
qr−1(1− q)s−1
+∞∫
0
ur+s−1
λr+s
e−udu
=
(
1
γ(r)γ(s)
)
qr−1(1− q)s−1
+∞∫
0
ur+s−1e−udu
︸ ︷︷ ︸
γ(r+s)
=
(
1
γ(r)γ(s)
)
qr−1(1− q)s−1γ(r + s)
=
(
γ(r + s)
γ(r)γ(s)
)
︸ ︷︷ ︸
1
B(r,s)
qr−1(1− q)s−1
=
1
B(r, s)
qr−1(1− q)s−1
Portanto, fQ(q) =
1
B(r,s)q
r−1(1− q)s−1I(0,1), isto é, Q ∼ beta(r, s).
19
Para que P e Q sejam independentes, devemos ter fQ,P (q, p) = fQ(q)fP (p). Sabemos que,
fQ(q) =
1
B(r, s)
qr−1(1− q)s−1I(0,1)(q)
Como P ∼ Ga(r + s, λ), temos que
fP (p) =
λr+s
γ(r + s)
pr+s−1e−λpI(0,+∞)(p)
Vamos calcular fQ(q).fP (p). Com isso,
fQ(q)fP (p) =
[
1
B(r, s)
qr−1(1− q)s−1
][
λr+s
γ(r + s)
pr+s−1e−λp
]
=
(
γ(r + s)
γ(r)γ(s)
)
qr−1(1− q)s−1
(
λr+s
γ(r + s)
)
pr+s−1e−λp
=
(
λr+s
γ(r)γ(s)
)
qr−1(1− q)s−1pr+s−1e−λp
= fQ,P (q, p)
Portanto, fQ(q)fP (p) = fQ,P (q, p) e com isso, temos que Q e P são independentes.
20

Continue navegando