Buscar

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 22 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 22 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 22 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Probabilidade - Lista 02
Mestrado - PPGMAT - IM/UFAL
Francisco Alan Lima da Silva
francisco.alan@im.ufal.br
15 de maio de 2024
QUESTÕES FEITAS
Cap. 4 Cap. 5 Cap. 6
3 × 9 × 1 ×
6 × 11 × 3 ×
9 × 13 × 5 ×
12 × 15 × 7 ×
15 × 17 9 ×
18 × 19 × 11 ×
21 × 21 × 13 ×
24 × 23 15 ×
27 × 17 ×
19 ×
21 ×
1
4 Vetores aleatórios
Exerćıcio 4.3. Seja X uma variável aleatória qualquer. Mostre que X é independente de
si mesma se, e somente se, existe c ∈ R tal que P(X = c) = 1.
Solução. Suponha que X é independente de si mesma e seja c1 um número real qualquer.
Por independência, temos que
FX(c1) = P(X ≤ c1) = P(X ≤ c1, X ≤ c1) = P(X ≤ c1)
2 = FX(c1)
2.
Logo, FX(c1) = 0 ou 1. Utilizaremos as propriedades para a função de distribuição.
Como FX(x) → 0 quando x → −∞ e FX(x) → 1 quando x → ∞, existe x ∈ R tal
que FX(x) = 1. Sendo FX não-decrescente e cont́ınua à direita, existe c ∈ R tal que
FX(c) = 1 e FX(x) = 0 para todo x < c. De fato, basta tomar c = inf{x ∈ R : FX(x) = 1}
(pois o ı́nfimo de um conjunto é limite de uma sequência decrescente de pontos deste
conjunto; a continúıdade à direita garante a continência do ı́nfimo no conjunto). Como
1 = FX(c) = P(X = c) + P(X < c) = P(X = c), o resultado segue.
Reciprocamente, se existe c ∈ R tal que P(X = c) = 1, então para cada B ∈ B(R),
temos que P(X ∈ B) = 1(c ∈ B), donde segue que
P(X ∈ B1, X ∈ B2) = P(X ∈ B1 ∩B2) = 1(B1 ∩B2) (1)
= 1(B1) · 1(B2) = P(X ∈ B1) · P(X ∈ B2), (2)
para todos B1, B2 ∈ B(R). Isso mostra que X é independente de si mesma.
Exerćıcio 4.6. Um ponto P é escolhido com distribuição uniforme no ćırculo unitário
C = (x, y) ∈ R2 : x2 + y2 < 1. Informalmente, isso quer dizer que a probabilidade de
(X, Y ) tomar valor em algum conjunto A ⊂ C é dada pela razão entre as áreas de A e de
C.
(a) Sejam (X, Y ) as coordenadas cartesianas de P . As variáveis X e Y são independen-
tes? Justifique.
(b) Sejam (R, θ) as coordenadas polares de P . Determine as funções de distribuição
marginal FR e Fθ bem como a conjunta FR,θ.
(c) As variáveis aleatórias R e θ são independentes? Justifique.
Solução.
(a) Não são independentes. De fato, considere os dois eventos mutuamente exclusivos
A = {X < 1
2
} e B = {Y <
√
3
2
}. Ambos têm probabilidade positiva, e são da forma
{Z ∈ B}. Então P(A) · P(B) > 0 = P(A,B), e portanto X e Y não são independentes.
2
(b) Tomando a transformação X = R cos θ e Y = R sen θ temos que o determinante jacobi-
ano da transformação é R. Note que precisamos fazer isto pois há distorção da área propor-
cional ao raio quando calculamos a área de um ćırculo ou setor circular em coordenadas po-
lares. Também, a função de distribuição conjunta fX,Y é dada por fX,Y (x, y) =
1
π
·1C(x, y).
Dáı, temos que fR,θ(r, α) =
r
π
· 1D(r, α), onde D = {(r, α) ∈ R2 : 0 ≤ r < 1, 0 ≤ α < 2π}.
Calcularemos os valores para r < 1 e α < 2π. Para r ≥ 1, note que FR,θ(r, α) = FR,θ(1, α).
Vale um resultado análogo para α ≥ 2π. Se r < 0 ou α < 0, FR,θ(r, α) = 0. Suponha que
0 ≤ r < 1 e 0 ≤ α < 2π. Então
FR,θ(r, α) =
∫ α
0
∫ r
0
R
π
dRdθ =
∫ α
0
r2
2π
dθ =
αr2
2π
.
Agora calcularemos as marginais. Note que
FR(r) =
∫ r
0
∫ 2π
0
R
π
dθdR =
∫ r
0
2R dR = r2,
enquanto
Fθ(α) =
∫ α
0
∫ 1
0
R
π
dRdθ =
∫ α
0
1
2π
dθ =
α
2π
.
(c) Sim. Basta notar pelo item anterior que FR,θ(r, α) = FR(r) · Fθ(α).
Exerćıcio 4.9. Sejam X e Y variáveis aleatórias independentes, discretas e com distri-
buições Poi(λ1) e Poi(λ2), respectivamente. Mostre que, dada a ocorrência do evento
{X + Y = n}, a probabilidade condicional de X = k é
P(X = k |X + Y = n) =
(
n
k
)(
λ1
λ1 + λ2
)k (
λ2
λ1 + λ2
)n−k
.
Interprete essa identidade.
Solução. Comece observando que por independência temos que
P(X = k,X + Y = n) = P(X = k, Y = n− k) = P(X = k) · P(Y = n− k). (3)
Também, decompondo {X + Y = n} =
⋃n
j=0{X = j, Y = n− j} temos que
P(X + Y = n) =
n∑
j=0
P(X = j, Y = n− j) =
n∑
j=0
P(X = j) · P(Y = n− j). (4)
A eq. (3) junto da eq. (4) nos dá que
P(X = k |X + Y = n) =
P(X = k) · P(Y = n− k)∑n
j=0 P(X = j) · P(Y = n− j)
=
e−λ1λk
1
k!
· e
−λ2λn−k
2
(n− k)!∑n
j=0
e−λ1λj
1
j!
· e
−λ2λn−j
2
(n− j)!
.
3
Cancelando os termos constantes e−λ1 e e−λ2 no numerador e denominador, obtemos
P(X = k |X + Y = n) =
1
k!(n− k)!
· λk
1λ
n−k
2∑n
j=0
1
j!(n−j)!
λj
1λ
n−j
2
=
n!
k!(n− k)!
· λk
1λ
n−k
2∑n
j=0
n!
j!(n−j)!
λj
1λ
n−j
2
=
(
n
k
)
λk
1λ
n−k
2
(λ1 + λ2)n
.
Observando que (λ1 + λ2)
n = (λ1 + λ2)
k · (λ1 + λ2)
n−k, o resultado segue.
Exerćıcio 4.12. Considere um vetor aleatório (Z,W ) absolutamente cont́ınuo com den-
sidade
fZ,W (z, w) = c · 1{0<z<1,0<w<z}(z, w).
Encontre c e FZ,W .
Solução. Apesar da notação, tudo que faremos abaixo é calcular a integral de uma cons-
tante c no conjunto C = {0 < z < 1, 0 < w < z).
Para encontrar c, basta fazer 1 =
∫
R2 fZ,W (z, w)dA. Note que∫
R2
fZ,W (z, w)dA =
∫
R2
c1C(z, w)dA = c · A(C) = c · 1
2
,
onde A(C) denota a área do conjunto C em R2, ou seja, A(C) =
∫
C
1 dA. Portanto c = 2.
Agora encontraremos FZ,W . Para valores w̃ < 0 ou z̃ < 0, temos FZ,W (z̃, w̃) = 0.
Suponha 1 ≥ w̃, z̃ ≥ 0. Dividiremos em casos.
1. Se w̃ > z̃, então
FZ,W (z̃, w̃) =
∫ z̃
0
∫ w̃
0
2 · 1C(z, w) dwdz
=
∫ z̃
0
∫ z
0
2 · 1C(z, w) dwdz
= 2 · z̃
2
2
= z̃2.
2. Se w̃ ≤ z̃, então
FZ,W (w̃, z̃) = w̃2 + w̃ · (z̃ − w̃).
Ambos os cálculos acima foram feitos calculando as integrais.
4
Exerćıcio 4.15. Seja X = (X1, X2) um vetor com densidade conjunta dada por
fX(x, y) =
exp
{
1
2(1− ρ2)
[(
x− µ1
σ1
)2
− 2ρ
(
x− µ1
σ1
)(
y − µ2
σ2
)
+
(
y − µ2
σ2
)2
]}
2πσ1σ2
√
1− ρ2
.
Tal vetor é dito ter distribuição normal bivariada com parâmetros µ1, µ2 ∈ R, σ1, σ2 > 0 e
ρ ∈ [0, 1). Mostre que:
(a) X1 ∼ N (µ1, σ
2
1) e X1 ∼ N (µ2, σ
2
2);
(b) as variáveis aleatórias X1, X2 são independentes se, e somente se, ρ = 0.
Solução.
(a) Provaremos que fX1(x) = e−(x−µ1)2/σ2
1/
√
2πσ2
1. Isto prova que X1 ∼ N (µ1, σ
2
1). De
maneira completamente análoga se prova que X2 ∼ N (µ2, σ
2
2). Calcularemos a densidade
marginal
fX1(x) =
∫ ∞
−∞
fX(x, y)dy
fX(x, y) =
exp
{
− 1
2(1− ρ2)
[(
x− µ1
σ1
)2
− 2ρ
(
x− µ1
σ1
)(
y − µ2
σ2
)
+
(
y − µ2
σ2
)2
]}
2πσ1σ2
√
1− ρ2
Desenvolveremos a expressão dentro do colchetes. Note que(
x− µ1
σ1
)2
− 2ρ
(
x− µ1
σ1
)(
y − µ2
σ2
)
+
(
y − µ2
σ2
)2
=
= (1− ρ2)
(
x− µ1
σ1
)2
+ ρ2
(
x− µ1
σ1
)2
− 2ρ
(
x− µ1
σ1
)(
y − µ2
σ2
)
+
(
y − µ2
σ2
)2
= (1− ρ2)
(
x− µ1
σ1
)2
+
[
−ρ
(
x− µ1
σ1
)
+
(
y − µ2
σ2
)]2
.
Substituindo a igualdade acima na expressão para fX1(x), temos que
fX1(x) =
e
−1
2
(
x−µ1
σ1
)2
√
2πσ2
1
∫ ∞
−∞
exp
{
− 1
2
√
(1− ρ2)
2
[
−ρ
(
x− µ1
σ1
)
+
(
y − µ2
σ2
)]2}
√
2π[σ2
√
(1− ρ2)]
dy.
Fazendo a mudança de variável dada por
z =
1√
1− ρ2
[
−ρ
(
x− µ1
σ1
)
+
(
y − µ2
σ2
)]
5
temos que dz =
1
σ2
√
1− ρ2
dy, e os limites de integração continuam de −∞ até +∞.
Portanto, temos que
fX1(x) =
e
−1
2
(
x−µ1
σ1
)2
√
2πσ2
1
∫ ∞
−∞
e−
z2
2
√
2π
dz.
A última integral sabemos ser igual a 1, pois é o limite de FZ(z), quando z → ∞, onde
Z ∼ N (0, 1). O resultado segue.
(b) Fazendo o produto fX1(x)fX2(y), verifica-se que este coincide com fX(x, y) apenas para
ρ = 0.
Exerćıcio 4.18. Sejam X1, X2, . . . , Xk variáveis aleatórias i.i.d. com distribuição Geo(p).
Qual a distribuição de X1 + · · ·+Xk? É alguma distribuição conhecida?
Solução. Seja X = X1+· · ·+Xn. Provaremos que X ∼ BinNeg(n, p), ou seja, provaremos
que P(X = k) =
(
k−1
n−1
)
(1−p)n−kpk. Faremos isso por indução em n. Para n = 2, e sabendo
que os valores que cada Xi assume são ≥ 1, temos que
P(X1 +X2 = k) =
k−1∑
j=1
P(X1 = j) · P(X2 = n− j),
por independência. Dáı, segue que
P(X1 +X2 = k) =
n−1∑
j=1
((1− p)j−1p) · ((1− p)n−j−1p)
=
n−1∑
j=1
(1− p)n−2p2 =
(
n− 1
2− 1
)
(1− p)n−2p2,
o que demonstra o nosso caso base. Suponha que agora que afirmaçãoseja válida para
todos os números naturais entre 2 e n. Então, novamente por ser Xj ≥ 1 para todo j,
temos que
P
(
n+1∑
j=1
Xj = k
)
=
k−1∑
i=n
P
(
n∑
j=1
Xj = i,Xn+1 = k − i
)
=
k−1∑
i=n
P
(
n∑
j=1
Xj = i
)
· P(Xn+1 = k − i).
6
Por hipótese de indução, sabemos que P(
∑n
j=1Xj = i) =
(
i−1
n−1
)
(1− p)i−npn, e portanto
P
(
n+1∑
j=1
Xj = k
)
=
k−1∑
i=n
[(
i− 1
n− 1
)
(1− p)i−npn
]
· [(1− p)k−i−1p]
=
k−1∑
i=n
(
i− 1
n− 1
)
(1− p)k−n−1pn+1.
Como
∑k−1
i=n
(
i−1
n−1
)
=
(
k−1
n−1
)
pelo Teorema das Colunas, segue o resultado.
Exerćıcio 4.21. Sejam X1, . . . , Xn variáveis aleatórias independentes e identicamente dis-
tribúıdas com distribuição Exp(λ). Mostre que X1+· · ·+Xn tem distribuição Gama(n, λ).
Solução. Chame Yn = X1 + · · ·+Xn. Mostraremos o exerćıcio provando que
fYn(z) =
λnzn−1e−λz
(n− 1)!
· 1(0,+∞)(x), (5)
uma vez que
∫∞
0
xn−1e−xdx = Γ(n) = (n− 1)!.
Procederemos por indução em n. Para n = 2, temos que
fY2(z) =
∫ +∞
−∞
fX1(x)fX2(z − x)dx.
Observe que se z ≤ 0, então x ou z− x também estará em (−∞, 0], e portanto fY2(z) = 0
caso z ≤ 0. Suponha z > 0. Agora observe que ao fazer o produto das densidades como
acima, como z − x ∈ (0,+∞) apenas para x ∈ (−∞, z), obtemos que
fX1(x)fX2(z − x) = (λe−λx 1(0,+∞))(λe−λ(z−x) 1(−∞, z))
= λ2e−λz 1((0,+∞) ∩ (−∞, z))
= λ2e−λz 1(0, z),
de onde segue que para n = 2, temos que para z > 0 vale
fY2(z) = λ2e−λz
∫ z
0
1dx = λ2ze−λz.
o que, junto com o caso z ≤ 0, satisfaz eq. (5) e mostra o caso base. Supondo a afirmação
válida para todo 2 ≤ k ≤ n, conclúımos a demonstração observando que
fYn+1(z) =
∫ +∞
−∞
fYn(x)fXn+1(z − x)dx.
7
Para z ≤ 0, observe que fYn+1 = 0. Suponha z > 0. Então, uma vez que
fYn(x)fXn+1(z − x) =
(
λnzn−1e−λz
(n− 1)!
· 1(0,+∞)
)
(λe−λ(z−x) 1(−∞, z))
=
λn+1xn−1e−λz
(n− 1)!
· 1(0, z)
segue que para z > 0 vale a expressão
fYn+1(z) =
λn+1e−λz
(n− 1)!
∫ z
0
xn−1dx
=
λn+1e−λz
(n− 1)!
· x
n
n
∣∣∣x=z
x=0
=
λn+1zne−λz
n!
.
A expressão acima para z > 0, junto com o que vimos que z ≤ 0, mostra que vale eq. (5)
para o caso n+ 1, o que conclui a nossa demonstração.
Exerćıcio 4.24. A distribuição dos comprimentos dos elos da corrente de bicicleta é
normal, com parâmetros µ = 2, 00cm e σ2 = 0, 01 cm2. Para que uma corrente se ajuste à
bicicleta, deve ter comprimento total entre 58, 00 e 61, 00 cm. Qual é a probabilidade de
uma corrente com 30 elos não se ajustar à bicicleta?
Solução. Temos 30 variáveis aleatóriasX1, . . . , X30 i.i.d. comX1 ∼ N (2, 0.01). Queremos
calcular 1 − P(58 ≤ X1 + · · · + X30 ≤ 61). Algo que sabemos do texto do livro é que
X1+ · · ·+X30 ∼ N (60, 0.3). Chamando S30 = X1+ · · ·+X30 temos que S30−60√
0.3
∼ N (0, 1),
e portanto temos que
P(58 ≤ S30 ≤ 61) = P
(
58− 60√
0.3
≤ Z ≤ 61− 60√
0.3
)
≈ P(−3.6515 ≤ Z ≤ 1.82574),
onde Z ∼ N (0, 1). Assim, temos que
P(58 ≤ S30 ≤ 61) ≈ P(Z < 1.82574)− P(Z < −3.6515).
Conferindo em qualquer tabela da normal, vemos que P(Z < −3.6515) ≈ 0.00013. Por sua
vez, P(Z ≤ 1.82574) ≈ 0.96606. Dáı, temos que a probabilidade de que uma corrente com
30 elos não se ajustar a bicicleta é de aproximadamente 0.03407.
Exerćıcio 4.27. Sejam X e Y independentes com densidades fX e fY . Usando o método
do jacobiano, dê uma prova alternativa para a fórmula
fX+Y (s) =
∫ ∞
−∞
fX(t− s)fY (s)ds.
8
Solução. Considere a transformação h(X, Y ) = (X+Y, Y ). O determinante jacobiano de
h é 1, o que implica que fX+Y,Y (t, s) = fX,Y (t − s, s), e portanto a distribuição marginal
fX+Y (t) é dada por
fX+Y (t) =
∫ ∞
−∞
fX+Y,Y (t, s)ds =
∫ ∞
−∞
fX,Y (t− s, s)ds.
Por independência temos que fX,Y (t− s, s) = fX(t− s)fY (s), e o resultado segue.
5 Esperança Matemática
Exerćıcio 5.9. Seja X ∼ U [0, 1]. Calcule E[X t] para todo t ∈ R.
Solução. Sabemos que fX(x) = 1[0,1](x), donde segue que para cada t ∈ R com t ̸= −1,
vale
E[X t] =
∫ 1
0
xtdx =
1
t+ 1
.
Para t = −1, temos que E[X−1] =
∫ 1
0
1
x
dx = +∞.
Exerćıcio 5.11. Seja X ∼ Beta(a, b) com a, b > 0. Calcule EX.
Solução. Com a notação da proposition 1, sabemos que a denisidade de X é dada por
fX(x) =
1
B(a,b)
xa−1(1 − x)b−1 1(0,1)(x). Ainda pela proposition 1, sabemos que B(a, b) =
Γ(a)Γ(b)/Γ(a+ b), donde temos que
EX =
Γ(a+ b)
Γ(a)Γ(b)
∫ 1
0
x · (xa−1(1− x)b−1)dx
=
Γ(a+ b)
Γ(a)Γ(b)
∫ 1
0
xa(1− x)b−1dx.
Agora note que a integral do lado direito é igual a B(a+ 1, b), e portanto temos que∫ 1
0
xa(1− x)b−1dx =
Γ(a+ 1)Γ(b)
Γ(a+ 1 + b)
.
Juntando as igualdades vistas acima e o fato que Γ(x+ 1) = x · Γ(x), conclúımos que
EX =
Γ(a+ b)
Γ(a+ b+ 1)
· Γ(a+ 1)
Γ(a)
=
a
a+ b
,
o que procurávamos.
9
Exerćıcio 5.13. Seja X ∼ Cauchy(a, b). Mostre que EX não está definida.
Solução. Faremos isto mostrando que
∫∞
0
xfX(x)dx = +∞ e
∫ 0
−∞ xfX(x)dx = −∞. Para
tal, começaremos relembrando que a densidade de X é dada por
fX(x) =
b
π[b2 − (x− a)2]
.
Calcularemos a primeira integral. Observe que∫ ∞
0
xfX(x)dx =
∫ ∞
0
bx
π[b2 + (x− a)2]
dx.
Fazendo a substituição u = (x − a)2, temos du = 2(x − a)dx e os limites de integração
permanecem intactos. Escrevendo bx = b(x− a) + ba temos que∫ ∞
0
xfX(x)dx
∫ ∞
0
b(x− a)
π[b2 + (x− a)2]
dx+ a
∫ ∞
0
b
π[b2 + (x− a)2]
dx
=
∫ ∞
0
b
2π[b2 + u]
du+ a = +∞,
pois a integral é comparável com a integral de 1
u
de 0 a +∞ (uma vez que 1/(b2+u) ≥ 1/2u
para u suficientemente grande). Calcularemos agora a integral∫ 0
−∞
bx
π[b2 + (x− a)2]
dx.
Trocando novamente u = (x− a)2, du = 2(x− a)dx, temos os novos limites de integração
de ∞ a 0, e portanto∫ 0
−∞
xfX(x)dx =
∫ 0
∞
b
2π[b2 + u]
du+ a
= −
∫ ∞
0
b
2π[b2 + u]
du+ a = −∞.
Isto conclui a prova de que a esperança para uma variável aleatória Cauchy não existe.
Exerćıcio 5.15. Sejam X1, . . . , Xn variáveis aleatórias não-negativas (ou integráveis) in-
dependentes. Prove que E[
∏
j Xj] =
∏
j EXj.
Solução. Provaremos variáveis aleatórias simples. Estendemos para variáveis aleatórias
positivas pelo Teorema da Convergência Monótona e para variáveis aleatórias integráveis
fazendo para a parte positiva e negativa.
10
SejamX1, . . . , Xn variáveis aleatórias simples. Então, por definição de variável aleatória
simples e particionando o espaço na união dos conjuntos {Xi = xi}, onde xi varia no con-
junto dos pontos que Xi pode assumir, temos que
E
[
n∏
j=1
Xj
]
=
∫
(X1 · . . . ·Xn)dP
=
∑
x1,...,xn
∫
{Xi=xi,1≤i≤n}
(X1 · . . . ·Xn)dP
=
∑
x1,...,xn
∫
x1 · . . . · xn 1{Xi=xi,i} dP
=
∑
x1,...,xn
x1 · . . . · xnP(Xi = xi, i)
=
∑
x1,...,xn
x1 · . . . · xn
n∏
j=1
P(Xj = xj)
=
n∏
j=1
∑
xj
xjP(Xj = xj),
onde na penúltima igualdade utilizamos a independências das variáveis aleatóriasX1, . . . , Xn.
O resultado segue uma vez que E[Xj] =
∑
xj
xjP(Xj = xj).
Exerćıcio 5.19. Prove que, se X é integrável e A ∈ F , então X 1A é integrável.
Solução. Como X é integrável, então
∫
Ω
|X|dP < +∞. Também, λ(A) =
∫
A
fdP, com
f uma função mensurável positiva, defina uma medida sobre F , e portanto é monótona.
Além do mais, 1A ≥ 0, donde temos que∫
|X 1A |dP =
∫
|X|1A dP =
∫
A
|X|dP ≤
∫
|X|dP < +∞,
e segue a integrabilidade de X 1A.
Exerćıcio 5.21. Seja X uma variável aleatória não-degenerada tal que P(a ≤ X ≤ b) = 1.
Mostre que a < EX < b.
Solução. Por ser não-degenerada, P(X = a) < 1, donde a < b. Como a ≤ X ≤ b P-quase
certamente, então {X < a ou X > b} é um evento de chance nula, donde segue que
EX =
∫
XdP =
∫
{a≤X≤b}
XdP.
Como X é não-degenerada, segue que P(X = a) < 1 e P(X = b) < 1. Isto implica que
existe n0 ∈ N tal que a + 1
n0
< b e P(a ≤ X < a + 1
n0
) < 1. De fato, se para todo
11
n ∈ N fosse P(a ≤ X < a + 1
n
) = 1, como {a ≤ X < a + 1
n
} ↓ {X = a}, deveria ser
P(X = a) = limn→∞ P(a ≤ X < a+ 1
n
) = 1, um absurdo. Dáı, segue que
EX =
∫
{a≤X≤b}
XdP =
∫
{a≤X<a+ 1
n0
}
XdP+
∫
{a+ 1
n0
≤X≤b}
XdP
Como P(a ≤ X < a+ 1
n0
) < 1, então P(a+ 1
n0
≤ X ≤ b)> 0. Também, temos que∫
{a≤X<a+ 1
n0
}
XdP ≥
∫
{a≤X< 1
n0
a dP = a · P(a ≤ X < a+ 1
n0
),
e analogamente∫
{a+ 1
n0
≤X≤b}
XdP ≥ (a+ 1
n0
) · P(a+ 1
n0
≤ X ≤ b) > a · P(a+ 1
n0
≤ X ≤ b).
Como {a ≤ X < a + 1
n0
} e {a + 1
n0
≤ X ≤ b} formam uma partição de {a ≤ X ≤ b},
segue que EX > a. Analogamente se prova que EX < b.
6 Momentos e Desigualdades
Exerćıcio 6.1. Calcule VarX, onde
(a) X ∼ Geo(p);
(b) X ∼ Poi(λ);
(c) X ∼ Exp(λ);
(d) X ∼ Laplace(a, b).
Solução.
(a) Calcularemos EX e EX2, quando X ∼ Geo(p). Começaremos com a esperança. Como
P(X = k) = (1− p)k−1p, onde k ≥ 1. Portanto,
EX =
∞∑
k=1
k(1− p)k−1p = p+ (1− p) ·
∞∑
k=2
k(1− p)k−2p.
Substituindo k por k + 1 no somatório da direita, obtemos que
EX = p+ (1− p) ·
∞∑
k=1
(k + 1)(1− p)k−1p
= p+ (1− p) ·
[
∞∑
k=1
k(1− p)k−1p+
∞∑
k=1
(1− p)k−1p
]
.
12
Agora note que o primeiro termo dentro do parêntesis é EX e o segundo é
∑∞
k=1 P(X =
k) = 1. Dáı, segue que a esperança de X satisfaz a equação
EX = p+ (1− p) · [EX + 1],
o que implica que EX = 1
p
. Prosseguindo, calcularemos EX2. Utilizaremos a mesma ideia,
mas neste caso, quando fizermos a mudança de variável, queremos que a expressão fique
em termos do primeiro e segundo momento. Comece observando que
EX2 =
∞∑
k=1
k2(1− p)k−1p = p+ 4(1− p)p+ (1− p)2 ·
∞∑
k=3
k2(1− p)k−3p. (6)
Desenvolveremos, por agora, apenas o último somatório. Substituindo k por k + 2 nele,
temos que
∞∑
k=1
(k + 2)2(1− p)k−1p =
∞∑
k=1
(k2 + 4k + 4)(1− p)k−1p
= EX2 + 4EX + 4.
Substituindo a igualdade acima na eq. (6), e substituindo EX = 1
p
, obtemos que
EX2 = p+ 4(1− p)p+ (1− p)2 · [EX2 + 4
p
+ 4].
Abrindo as contas, obtemos que
(2p− p2)EX2 = p− 4 +
4
p
=
p2 − 4p+ 4
p
=
(2− p)2
p
,
e por fim obtemos que
EX2 =
(2− p)2
p2(2− p)
=
2− p
p2
.
Pela Proposição 6.5, temos que
VarX = EX2 − EX =
2− p
p2
− 1
p2
=
1− p
p2
, (7)
o que termina este item.
(b) Calcularemos EX e EX2, quando X ∼ Poi(λ). Como P(X = k) = λke−λ
k!
e P(X = 0) =
e−λ, segue que
EX =
∞∑
k=1
k
λke−λ
k!
= λe−λ + λ
∞∑
k=2
λk−1e−λ
(k − 1)!
= λe−λ + λ
∞∑
k=1
λke−λ
k!
= λe−λ + λ(1− e−λ) = λ.
13
Por sua vez, observe que
E[X2] =
∞∑
k=1
k2λ
ne−λ
k!
= λe−λ + λ
∞∑
k=2
k
λk−1e−λ
(k − 1)!
= λe−λ + λ
∞∑
k=1
(k + 1)
λke−λ
k!
= λe−λ + λ(EX + (1− e−λ))
= λ2 + λ.
Dáı, como VarX = E[X2]− (EX)2, temos que
VarX = (λ2 + λ)− λ2 = λ,
o que conclui este item.
(c) Seja X ∼ Exp(λ). Sabemos que a densidade de X é dada pela função
fX(x) = λe−λx 1(0,+∞)(x).
Calcularemos EX e E[X2]. Eis a esperança
EX =
∫ +∞
0
xλe−λxdx.
Integraremos por partes. Fazendo u = x e dv = λe−λx, temos que du = dx e v = −e−λx,
temos que
EX = −xe−λx
∣∣∣x=∞
x=0
−
∫ ∞
0
−e−λxdx.
Note agora que x = o(eλx), quando x → ∞, e portanto a primeira parcela do lado direito
é 0. Quanto a segunda, temos que∫ ∞
0
e−λxdx = −e−λx
λ
∣∣∣x=∞
x=0
=
1
λ
.
Segue dáı que EX =
1
λ
. Já o segundo momento é dado por
E[X2] =
∫ ∞
0
x2λe−λxdx.
Integraremos mais uma vez por partes. Fazendo u = x2 e du = λeλxdx, temos que
du = 2xdx e v = −e−λx, de onde segue que
E[X2] = −x2e−λx
∣∣∣x=∞
x=0
+
2
λ
∫ ∞
0
xλe−λxdx =
2
λ
· EX =
2
λ2
,
onde acima utilizamos que x2 = o(eλx) e multiplicamos por λ
λ
para obter uma expressão
que é a esperança de X. Por fim, conclúımos que
VarX =
2
λ2
−
(
1
λ
)2
=
1
λ2
.
14
Exerćıcio 6.3. Sejam X ∼ U [0, 2π], Y = senX e Z = cosX variáveis aleatórias. Calcule
Cov(Y, Z). As variáveis Y e Z são independentes?
Solução. Calcularemos EY,EZ e E(Y Z), uma vez que Cov(Y, Z) = E(Y Z) − EY EZ.
Utilizaremos o Teorema que diz que se g é cont́ınua por partes e X é absolutamente
cont́ınua, então
E[g(X)] =
∫ ∞
−∞
g(x)fX(x)dx.
No nosso caso, fX(x) =
1
2π
· 1([0, 2π])(x) e as funções serão g1(x) = senx, g2(x) = cosx e
g3(x) = senx cosx. Calculando, temos que
EY =
∫ 2π
0
senx
2π
dx = 0
EZ =
∫ 2π
0
cosx
2π
dx = 0
E(Y Z) =
∫ 2π
0
senx cosx
2π
dx = 0,
donde Cov(Y, Z) = 0. No entanto, Y e Z não são independentes, como teremos a oportu-
nidade de ver. Comece notando que
P(Y, Z ≥ 1
2
) = P(X−1{x ∈ [0, 2π] : cos x ≥ 1
2
, senx ≥ 1
2
})
= P(X−1([π
6
, π
3
])) =
|[π
6
, π
3
]|
2π
=
1
12
.
Por sua vez, P(Y ≥ 1
2
) = P(X−1([π
6
, 5π
6
])) = 1
3
. Analogamente, P(Z ≥ 1
2
) = 1
3
, e portanto
P(Y ≥ 1
2
) · P(Z ≥ 1
2
) =
1
9
̸= 1
12
= P(Y ≥ 1
2
, Z ≥ 1
2
),
o que conclui a demonstração.
Exerćıcio 6.5. Mostre que, se X é integrável, então o mı́nimo de E[(X − c)2] é atingido
quando c = EX.
Solução. Comece notando que E[(X − c)2] = E[X2] − 2cEX + c2. Note também que
EX < +∞ por hipótese. Se for E[X2] = +∞, então todo ponto c é mı́nimo para a
E[(X − c)2]. Suponha, portanto que E[X2] < +∞. Provaremos que c = EX é mı́nimo
para E[(X − c)2]. Para tal, observe que
c2 − 2cEX + E[X2] = 0,
é uma parábola em c ∈ R, com vértice em c = EX. Note também que E[(X − c)2] ≥ 0.
Logo, todo ponto c ̸= EX está acima do eixo x, e portanto c2 − 2cEX + E[X2] ≥ 0 para
todo c ∈ R, o que conclui que c = EX é mı́nimo para E[(X − c)2].
15
Exerćıcio 6.7. Seja X uma variável aleatória discreta com função de probabilidade
P(X = n) =
nλne−λ
λn!
, para n = 0, 1, 2, . . .
Calcule Var(X).
Solução. Primeiro provaremos que
∑∞
n=0 P(X = n) = 1. Para tal, observe que
∞∑
n=0
P(X = n) =
∞∑
n=0
nλne−λ
λn!
=
∞∑
n=1
nλne−λ
λn!
.
Fazendo a substituição n 7→ m+ 1, e renomeando de volta para n, temos que
∞∑
n=0
P(X = n) =
∞∑
n=0
(n+ 1)λn+1e−λ
λ(n+ 1)!
=
∞∑
n=0
λne−λ
n!
= 1,
uma vez que eλ =
∑∞
n=0 λ
n/n!. Agora podemos calcular a esperança de X e o seu segundo
momento, para calcular a variância.
Começaremos calculando a esperança da variável aleatória X. Observe que
EX =
∞∑
n=1
n
nλne−λ
λn!
=
1
λ
∞∑
n=1
n2λ
ne−λ
n!
.
Seja Y ∼ Poi(λ). Então, para cada n ≥ 0, P(Y = n) = λne−λ/n!, donde o lado direito
da última igualdade acima é o segundo momento de Y , que sabemos ser λ + λ2. Assim,
temos que
EX =
1
λ
(λ+ λ2) = 1 + λ.
Calcularemos agora o segundo momento de X. Observe que
EX2 =
∞∑
n=1
n2 · λ
n−1e−λ
(n− 1)!
= e−λ +
∞∑
n=2
n2 · λ
n−1e−λ
(n− 1)!
.
Fazendo uma substituição adequada, obtemos que
EX2 = e−λ +
∞∑
n=1
(n+ 1)2 · λ
ne−λ
n!
= e−λ +
∞∑
n=1
(n+ 1)2 · P(Y = n),
16
onde Y , relembramos, se distribui como uma variável aleatória Poisson com parâmetro λ.
Como (n+ 1)2 = n2 + 2n+ 1, segue que
EX2 = e−λ + EY 2 + 2EY +
∞∑
n=1
P(Y = n).
Como Y assume valores em N∪{0}, temos que
∑∞
n=1 P(Y = n) = 1−P(Y = 0) = 1−e−λ.
Também sabemos que EY = λ e EY 2 = λ+ λ2, e portanto
EX2 = λ2 + 3λ+ 1.
Uma vez que (EX)2 = λ2 + 2λ+ 1, segue que
VarX = EX2 − (EX)2 = λ.
Exerćıcio 6.9. Seja (X, Y ) um vetor aleatório com distribuição uniforme no ćırculo
unitário C = {(x, y) ∈ R2 : x2 + y2 < 1}, isto é, com densidade conjunta fX,Y (x, y) =
1
π
1C(x, y). Calcule Cov(X, Y ).
Solução. A covariância é a dada por Cov(X, Y ) = E[XY ] − EX · EY . Calcularemos
por partes. Na primeira coordenada, note que −1 ≤ x ≤ 1, enquanto na segunda temos
que −
√
1− x2 < y <
√
1− x2. Para evitar dependências desnecessárias, faremos uma
mudança de variável para coordenadas polares. As funções marginais fR e fθ são dadas
por fR(r) = 2r 1[0,1)(r) e fθ(α) = 1
2π
1[0,2π)(α), uma vez que a densidade conjunta é
dada por fR,θ(r, α) = 1
π
1D(r, α), onde D = {(r, α) : r ∈ [0, 1), α ∈ [0, 2π)}. Assim,
XY = (R cos θ)(R sen θ), donde
E[XY ] = E[(R cos θ)(R sen θ)]
= E[R2 cos θ sen θ]
Calculando, temos que E[R2 cos θ sen θ] = 0, já que
∫ 2π
0
cosα senα dα = 0. Por sua vez,
E[X] = E[R cos θ] =
∫ 2π
0
∫ 1
0
r cosα · 1
π
drdθ = 0.
Isso é suficiente para provar que Cov(X, Y ) = 0.
Exerćıcio 6.11. Sejam X e Y variáveis aleatórias independentes, ambas com distribuição
Be(1
2
).
(a) Mostre que X + Y e |X − Y | são não-correlacionadas.
(b) Elas são independentes?
17
Solução.
(a) Mostraremos que Cov(X + Y, |X − Y |) = 0. Comece observando que |X − Y | ∼ Be(1
2
).
De fato, |X − Y | assumeapenas os valores 0 e 1. Para que |X − Y | seja 0, devemos ter
X = 1 e Y = 1, ou X = 0 e Y = 0. Ou seja,
{|X − Y | = 0} = {X = 0, Y = 0} ⊔ {X = 1, Y = 1},
e portanto temos que
P(|X − Y | = 0) = P(X = 0, Y = 0) + P(X = 1, Y = 1)
= P(X = 0) · P(Y = 0) + P(X = 1) · P(X = 1)
= 1
2
· 1
2
+ 1
2
· 1
2
= 1
2
,
onde, acima, utilizamos que X e Y são independentes. Dáı, P(|X − Y | = 1) = 1
2
, e segue
que |X − Y | tem distribuiçãpo Bernoulli com parâmetro 1
2
. Portanto E[|X − Y |] = 1
2
.
Assim, por propriedades da covariância, temos que
Cov(X + Y, |X − Y |) = Cov(X, |X − Y |) + Cov(Y, |X − Y |).
Provaremos que Cov(X, |X−Y |) = 0, e de maneira análoga prova-se que Cov(Y, |X−Y |) =
0. Como |X − Y | ∼ Be(1
2
), segue que
Cov(X, |X − Y |) = E[X · |X − Y |]− E[X] · E[|X − Y |]
= E[X · |X − Y |]− 1
4
.
Para conclui o item, basta mostrar que E[X · |X − Y |] = 1
4
. Chamando g(X, Y ) =
X · |X − Y |, temos que
E[g(X, Y )] =
1∑
x=0
1∑
y=0
x · |x− y| · P(X = x, Y = y)
= P(X = 1, Y = 0) = 1
4
,
onde acima utilizamos que para x = 0 e para x, y = 1, temos que x · |x − y| = 0. O
resultado segue.
(b) Não. Basta observar que P(X + Y = 1, |X − Y | = 0) = 0, pois estes são eventos
disjuntos. No entanto, ambos têm probabilidade positiva, e o resultado segue.
Exerćıcio 6.13. Sejam X e Y variáveis aleatórias i.i.d.
(a) Calcule ρ(X, 2X) e ρ(X,X + Y ).
(b) Saberia explicar, sem fazer o cálculo do item anterior, por que os valores de ρ(X, 2X)
e ρ(X,X + Y ) são iguais ou diferentes?
18
Solução.
(a) Por propriedades do coeficiente de correlação, temos que
ρ(X, 2X) = 2
|2|ρ(X,X) = 1.
Por sua vez, por serem X e Y i.i.d. temos que σ(X +Y ) = σ(X)+σ(Y ) =
√
2σ(X). Dáı,
ρ(X,X + Y ) =
1
2σ(X)2
· Cov(X − EX,X + Y − E[X + Y ])
=
1√
2VarX
· [Cov(X − EX,X − EX) + Cov(X − EX, Y − EY )]
=
1√
2VarX
· [VarX + Cov(X, Y )]
=
1√
2VarX
· [VarX + E[XY ]− EX · EY ]
=
1√
2
.
(b) Sim. Basta se atentar ao fato que Cov(X,X) = VarX, enquanto que Cov(X, Y ) = 0
se X e Y são independentes. No entanto, para a definição do coeficiente de correlação,
sempre estamos supondo 0 < VarX,VarY < +∞. Dáı, os resultados serão diferentes.
Exerćıcio 6.15. Prove que E[|X|] ≤
√
E[X2] sem usar as desigualdades de Jensen e
Lyapunov.
Solução. Se X não tem segundo momento finito, então E[X2] = +∞, e a desigualdade
segue trivialmente. Se X tem segundo momento finito, chamando Y = 1, temos que
E[Y 2] = 1 < +∞, e pela Desigualdade de Cauchy-Schwarz segue que
E[|X|] = E[|X · Y |] ≤
√
E[X2]
√
E[Y 2] =
√
E[X2],
o que mostra o resultado.
Exerćıcio 6.17. Considere uma sequência de variáveis aleatórias X1, X2, X3, . . . i.i.d.
com distribuição Be(p). Encontre um número n para o qual a média observada, dada por
X̃n =
1
n
n∑
j=1
Xj,
não difira da média p por mais de 0, 01, com probabilidade mı́nima de 0, 95.
19
Solução. Queremos encontrar um número natural n para o qual vale
P(|E[X̃n]− p| < 0, 01) ≥ 0, 95.
A priori, isto não tem cara de nenhuma desigualdade. Mas decompondo
Ω = {|E[X̃n]− p| < 0, 01} ⊔ {|E[X̃n]− p| ≥ 0, 01},
isso é equivalente a provar que
1− P(|E[X̃n]− p| ≥ 0, 01) ≥ 0, 95,
e portanto basta provar que
P(|E[X̃n]− p| ≥ 0, 01) ≤ 0, 05.
Utilizaremos a desigualdade de Markov. Ela nos dá que
P(|E[X̃n]− p| ≥ 0, 01) ≤ E[|X̃n − p|]
0, 01
.
Então é suficiente encontrar n de tal modo que E[|X̃n−p|] ≤ 0, 01 ·0, 05 = 0, 0005. Como a
sequência de variáveis aleatórias (Xj)j é i.i.d. com distribuição Bernoulli p, então
∑n
j=1Xj
tem distribuição binomial com parâmetros n, p. Além do mais, chamando Yn =
∑n
j=1 Xj,
temos que
E[|X̃n − p|] = 1
n
· E[|Yn − np|] = 1
n
· E[|Yn − E[Yn]|]
Pela desigualdade de Cauchy-Schwarz, segue que
E[|X̃n − p|] ≤ 1
n
√
E[(Yn − EYn)2] =
1
n
√
Var(Yn) =
1
n
√
np(1− p),
e portanto segue que E[|X̃n− p|] ≤ 1√
n
√
p(1− p). Para resolver a questão, basta portanto
encontrar n tal que
1√
n
≤ 0, 0005√
p(1− p)
,
e portanto basta tomar
n =
⌈
p(1− p)
0, 00052
⌉
.
Exerćıcio 6.19. Se X ≥ 0 quase certamente, então
P(X = 0) ≤ VarX
E[X2]
≤ VarX
(EX)2
.
20
Solução. A última desigualdade segue do fato de ser E[X2] ≥ (EX)2. Utilizaremos a
Desigualdade de Paley-Zigmundo para a = 0 para provar que
P(X = 0) ≤ VarX
E[X2]
.
Como, por hipótese, temos P(X ≥ 0) = 1, e a Desigualdade de Paley-Zigmund para a = 0
nos diz que P(X > 0) ≥ (EX)2/E[X2], temos que
P(X = 0) = 1− P(X > 0) ≤ 1− (EX)2
E[X2]
=
E[X2]− (EX)2
E[X2]
=
VarX
E[X2]
,
como queŕıamos demonstrar. O resultado segue.
Exerćıcio 6.20. Sejam X e Y variáveis aleatórias. Prove que [FX,Y (x, y)]
2 ≤ FX(x)FY (y)
para todos x, y ∈ R.
Solução. Provaremos algo mais geral utilizando o Exerćıcio 16 do Caṕıtulo 1, que diz que
P(A ∪ B) · P(A ∩ B) ≤ P(A) · P(B), quaisquer que sejam os eventos A e B. Afirmamos
que P(A ∩ B)2 ≤ P(A) · P(B) para quaisquer eventos A e B. O resultado segue tomando
A = {X ≤ x} e B = {Y ≤ y}. A prova da afirmação, no entanto, é imediata. Basta
observar que P(A ∪B) ≥ P(A ∩B), e o resultado segue.
Depois de tudo
Dedicarei este espaço para escrever algumas coisas que julguei legais enquanto estudava.
Proposição 1 (Relação da Beta com a Gama). Sejam a, b > 0 e defina
B(a, b) =
∫ 1
0
xa−1(1− x)b−1dx.
Então B(a, b) =
Γ(a)Γ(b)
Γ(a+ b)
, onde Γ é a função gama.
Demonstração. Para provar a proposição, desenvolveremos Γ(a)Γ(b) e faremos uma mu-
dança de variáveis. Comece notando que
Γ(a)Γ(b) =
∫ ∞
0
e−xxa−1dx ·
∫ ∞
0
e−yyb−1dy
=
∫ ∞
0
∫ ∞
0
e−x−yxa−1yb−1dxdy.
Fazendo a mudança de variáveis x = st e y = s − st, temos que x + y = s, e portanto s
varia ainda de 0 a +∞, mas t = (y − s)/s = x/(x+ y), e como x e y são positivos, segue
21
que 0 < t < 1. Além do mais, o determinante do jacobiano da transformação é s. Assim,
temos que
Γ(a)Γ(b) =
∫ ∞
0
∫ 1
0
e−s(st)a−1(s(1− t))b−1s dtds
=
∫ ∞
0
∫ 1
0
e−ssata−1sb−1(1− t)b−1dtds
=
∫ ∞
0
e−ssa+b−1ds ·
∫ 1
0
ta−1(1− t)b−1dt
= Γ(a+ b) ·B(a, b),
o que conclui a demonstração.
A proposição abaixo só serve para a variável aleatória geométrica, mas eu me dei conta
disso tarde demais.
Proposição 2. Seja X uma variável aleatória discreta tomando valores nos inteiros po-
sitivos e seja f(n) = P(X = n). Se existe α ̸= 1 constante para o qual f(n) = αf(n− 1)
para todo n ≥ 1, então EX = f(1)+α
1−α
. Em particular, X é integrável.
Demonstração. Comece observando que
EX =
∞∑
n=1
nf(n) = f(1) +
∞∑
n=2
nf(n) = f(1) + α ·
∞∑
n=2
nf(n− 1).
Aplicando a mudança de variável n 7→ m+ 1 e rerotulando de volta para n, temos que
EX = f(1) + α ·
∞∑
n=1
(n+ 1)f(n) = f(1) + α · (EX + 1).
Resolvendo a equação em EX, o resultado segue.
Proposição 3. Sob as mesmas hipóteses da proposition 2, exceto por X assumir valores
não-negativos, temos EX = f(1)+α·(1−f(0))
1−α
.
Demonstração. Os cálculos são idênticos aos da proposition 2.
Corolário 1. Sob as mesmas hipóteses da proposition 3, E[Xn] é integrável para todo
n ≥ 1 natural e E[Xn] é um polinômio de grau 1 em f(0), f(1), . . . , f(n).
22
	Vetores aleatórios
	Esperança Matemática
	Momentos e Desigualdades