Buscar

Mauro_ME310_cap2

Prévia do material em texto

2013
ME-310. PROBABILIDADE II
CÁPITULO 2: Modelos absolutamente contínuos.
Mauro S. de F. Marques
msdfm
– p. 1/125
Recordando a definição dada no Capítulo 2, dizemos
que uma função de distribuição FX (ou uma variável
aleatória X) é absolutamente contínua se FX pode ser
escrita na forma:
FX(x) =
∫ x
−∞
fX(y)dy,
para alguma função não negativa
fX : R 7→ R.
Um tal função fX é chamada func¸a˜o densidade de
probabilidade.
msdfm
– p. 2/125
Os seguinte fatos são importantes:
1)
1 = FX(+∞) = lim
x→∞
∫ x
−∞
fX(y)dy =
∫ ∞
−∞
fX(y)dy.
2) FX não muda se fX(x) é modificada em um
número finito (ou mesmo contável) de pontos x.
Portanto, uma função densidade de probabilidade não
é única.
msdfm
– p. 3/125
3) Como
P (a < X ≤ b) = FX(b)− FX(a)
temos
P (a < X ≤ b) =
∫ b
−∞
fX(x)dx−
∫ a
−∞
fX(x)dx =
∫ b
a
fX(x)dx,
isto é, a probabilidade dos valores de X pertencerem a um
intervalo (a, b] é dada pela área de
{(x, y) : a < x ≤ b, 0 < y ≤ fX(x)}.
4)Se I é um intervalo qualquer
P (X ∈ I) =
∫
I
fX(x)dx
msdfm– p. 4/125
5.Se FX(x) é derivável em x, então, pelo Terema Fundamental
do Cálculo,
dFX(x)
dx
= fX(x).
No caso de uma variável aleatória absolutamente
contínua, a função de distribuição é totalmente
caracterizada pela função densidade de probabilidade
fX .
X←→ FX ←→ fX
msdfm
– p. 5/125
Distribuição Uniforme em (a,b) (X ∼ U(a, b)).
Dizemos que uma variável aleatóriaX tem distribuição uniforme
em (a, b], −∞ < a < b < +∞, se
FX(x) =


0 se x < a
x−a
b−a se a ≤ x < b
1 se x ≥ b
Como FX é diferenciável, exceto para nos pontos a e b, temos
fX(x) =
1
b− a1(a,b](x).
msdfm
– p. 6/125
UNIFORMES (−2, 2); (−1, 2); (0, 1) e (0, 2.5)
x
f x
-3 -2 -1 0 1 2 3
0 .
0
0 .
0 5
0 .
1 0
0 .
1 5
0 .
2 0
0 .
2 5
U(-2,2)
x
f x
-3 -2 -1 0 1 2 3
0 .
0
0 .
1
0 .
2
0 .
3
U(-1,2)
x
f x
-3 -2 -1 0 1 2 3
0 .
0
0 .
2
0 .
4
0 .
6
0 .
8
1 .
0
U(0,1)
x
f x
-3 -2 -1 0 1 2 3
0 .
0
0 .
1
0 .
2
0 .
3
0 .
4
U(0,2.5)
msdfm– p. 7/125
Observac¸o˜es:
1. Note que fX(x) é simétrica em torno de a+b2 , isto é
fX
(a+ b
2
− x
)
= fX
(a+ b
2
+ x
)
, ∀x.
Logo, como X é limitada, E(X) existe e
E(X) =
a+ b
2
.
2. Quanto maior a diferença (b− a) maior a dispersão
de fX .
msdfm
– p. 8/125
Segue trivialmente que
E(X) =
∫ +∞
−∞
xfX(x)dx =
∫ b
a
x
1
b− adx =
a+ b
2
E(X2) =
∫ +∞
−∞
x2fX(x)dx =
∫ b
a
x2
1
b− adx =
b3 − a3
3(b− a) .
V ar(X) = E(X2)−(E(X))2 = b
3 − a3
3(b− a)−
(a+ b
2
)2
=
(b− a)2
12
.
msdfm
– p. 9/125
Proposic¸a˜o 1.
U ∼ U(0, 1) =⇒ X = (b− a)U + a ∼ U(a, b), a < b.
X ∼ U(a, b) =⇒ U = X − a
b− a ∼ U(0, 1).
Demonstrac¸a˜o: Sabemos que no caso absolutamente contínuo, para α 6= 0,
fαW+β(v) =
1
|α|fW
(v − β
α
)
.
Portanto
fX(x) = f(b−a)U+a(x) =
1
b− afU
(x− a
b− a
)
=
1
b− a1(0,1]
(x− a
b− a
)
=
1
b− a1(a,b](x).
fU (u) = f 1
b−a
X+ a
b−a
(u) =
1
1
b−a
fX
(u− b
b−a
1
b−a
)
= (b−a) 1
b− a1(a,b]((b−a)u−b) = 1(0,1](u).
c.q.d
msdfm
– p. 10/125
Proposic¸a˜o 2. Seja F uma func¸a˜o de distribuic¸a˜o de
probabilidade invertı´vel. Se
U ∼ U(0, 1), enta˜o X = F−1(U) ∼ F,
isto e´, FX = F .
Demonstrac¸a˜o: Seja x ∈ R. Então.
FX(x) = P (X ≤ x) = P (F−1(U) ≤ x) =
P (F (F−1(U)) ≤ F (x)) = P (U ≤ F (x)) = FU(F (x)) = F (x),
dado que 0 ≤ F (x) ≤ 1.
c.q.d
msdfm
– p. 11/125
Proposic¸a˜o 3. Seja F uma func¸a˜o de distribuic¸a˜o de
probabilidade invertı´vel. Se X ∼ F , enta˜o
Y = F (X) ∼ U(0, 1).
Demonstrac¸a˜o: Seja y ∈ R. Então
FY (y) = P (Y ≤ y) = P (F (X) ≤ y) =
=


0 se y < 0
P (F−1(F (X)) ≤ F−1(y)) = P (X ≤ F−1(y)) = F (F−1(y)) = y se 0 ≤ y < 1
1 se y ≥ 1
=


0 se y < 0
y se 0 ≤ y < 1
1 se y ≥ 1
c.q.d
msdfm
– p. 12/125
Distribuição Exponêncial com parâmetro λ > 0
(X ∼ Exp(λ)).
Dizemos que a variável aleatória X tem distribuição
exponêncial com parâmetro λ > 0 se
FX(x) =
{
0 se x < 0
1− e−λx se x ≥ 0
Exceto no ponto 0, FX é diferenciável, logo
fX(x) = λe
−λx1[0,∞)(x).
msdfm
– p. 13/125
Densidades exponênciais λ = 0, 5, 1, 2.
x
f x
0.0 0.5 1.0 1.5 2.0 2.5 3.0
0 .
1
0 .
2
0 .
3
0 .
4
0 .
5
Exp(0.5)
x
f x
0.0 0.5 1.0 1.5 2.0 2.5 3.0
0 .
2
0 .
4
0 .
6
0 .
8
1 .
0
Exp(1)
x
f x
0.0 0.5 1.0 1.5 2.0 2.5 3.0
0 .
0
0 .
5
1 .
0
1 .
5
2 .
0
Exp(2)
x
f x
0.0 0.5 1.0 1.5 2.0 2.5 3.0
0 .
0
0 .
5
1 .
0
1 .
5
2 .
0
Exp(1) e Exp(2)
msdfm – p. 14/125
Observac¸o˜es:
1. O
max
x
fX(x) = λ
é atingido em x = 0.
3. λ "grande" concentra maior massa de probabilidade próximo a 0; λ "pequeno" espalha massa
de probabilidade.
4. fX tende a 0 mais rapidamente quando x cresce para λ grande.
dfX(x)
dx
= −λ2e−λx.
msdfm
– p. 15/125
Proposic¸a˜o 4.
X ∼ Exp(λ)) =⇒ Y = λX ∼ Exp(1).
Y ∼ Exp(1) =⇒ X = Y
λ
∼ Exp(λ).)
Demonstrac¸a˜o: Exercício.
c.q.d
msdfm
– p. 16/125
Para X ∼ Exp(λ) temos:
E(X) =
∫ +∞
−∞
xfX(x)dx =
∫ ∞
0
xλe−λxdx
u=x,
dv=e−λxdx
=
λ
(
x
(
− 1
λ
e−λx
)∣∣∣∞
0
−
∫ ∞
0
(
− 1
λ
e−λx
)
dx
)
=
∫ ∞
0
e−λxdx =
1
λ
.
e
E(X2) =
∫ +∞
−∞
x2fX(x)dx =
∫ ∞
0
x2λe−λxdx exerc´icio=
2
λ2
.
Logo
V ar(X) = E(X2)− (E(X))2 = 2
λ2
− 1
λ2
=
1
λ2
.
msdfm
– p. 17/125
Falta de memória
Teorema 1. Seja X uma varia´vel aleato´ria abslutamente
contı´nua e na˜o negativos. Enta˜o X tem distribuic¸a˜o exponencial
se e somente se X na˜o tem memo´ria,isto e´
P (X > x+ t
∣∣X ≥ t) = P (X > x), ∀x ≥ 0, t ≥ 0.
Demonstrac¸a˜o:
Fato: Seja E : [0,∞) 7→ R. Então,
E(x+ t) = E(x)× E(t)⇐⇒ E(x) = exp(ax) = eax, a ∈ R.
msdfm
– p. 18/125
Inicialmente vamos assumir a falta de memória.
P (X > x+ t
∣∣X ≥ t) = P (X > x)⇒ P ([X > x+ t] ∩ [X > t])
P (X > t)
= P (X > x)⇒
P (X > x+ t)
P (X > t)
= P (X > x)⇒ P (X > x+ t) = P (X > x)P (X > t).
Logo,
P (X > x) = eax
Como P (X > x) é decrescente, devemos ter a = −λ com
λ > 0. Assim, para x > 0,
FX(x) = 1− P (X > x) = 1− e−λx,
Mostrando que X ∼ Exp(λ).
msdfm
– p. 19/125
A recíproca é trivial! Assumindo X ∼ Exp(λ), temos
P (X > x+ t
∣∣X ≥ t) = P (X > x+ t)
P (X > t)
=
e−λ(x+t)
e−λt
= e−λx = P (X > x).
c.q.d
msdfm
– p. 20/125
Distribuição de Normal (ou Gaussiana) com parâmetros
µ e σ2 (X ∼ N(µ, σ2))
Dizemos que a variável aleatória X tem distribuic¸a˜o
de Normal (ou Gaussiana) com paraˆmetros µ ∈ R
e σ2 > 0 se
FX(x) =
∫ x
−∞
1√
2πσ
exp
(
− 1
2
(u− µ
σ
)2)
du
FX é trivialmente diferenciável, logo
fX(x) =
1√
2πσ
exp
(
− 1
2
(x− µ
σ
)2)
.
msdfm
– p. 21/125
Densidades Normais
-3 -2 -1 0 1 2 3
0 .
0
0 .
1
0 .
2
0 .
3
0 .
4
N(0,1)
-3 -2 -1 0 1 2 3
0 .
0
0 .
1
0 .
2
0 .
3
0 .
4
0 .
5
NORMAIS MEDIA=0, VARIANCIAS=0,8,1,0 e 1,2
-3 -2 -1 0 1 2 3
0 .
0
0 .
1
0 .
2
0 .
3
0 .
4
NORMAIS MEDIA=-1,5,0,1,5 VARIANCIAS=1
msdfm– p. 22/125
Observac¸o˜es:
1. Note que fX(x) é simétrica em torno de µ, isto é
fX(µ− x) = fX(µ+ x), ∀x.
Logo, se E(X) existe, então E(X) = µ.
2.
maxx fX(x) =
1√
2πσ
é atingido em x = µ.
3. σ "pequeno"concentra maior massa de probabilidade em torno
de µ; σ "grande"espalha massa de probabilidade. Logo σ2 mede
dispersão.
4. fX tem pontos de inflexão (mudança de concavidade) a direita
ea esquerda de µ.
Exercı´cio: Encontre estes pontos.
msdfm
– p. 23/125
É interessante mostrar que
fX(x) =
1√
2πσ
exp
(
− 1
2
(x− µ
σ
)2)
.
realmente define um função densidade de
probabilidade, isto é
fX(x) ≥ 0 e
∫ +∞
−∞
fX(x)dx = 1, ∀µ ∈ R, ∀σ2 > 0.
De fato: Claramente fX(x) ≥ 0.
msdfm
– p. 24/125
Para mostrar que∫ +∞
−∞
1√
2πσ
e−
1
2
(
x−µ
σ
)2
dx = 1,
considere a mudança de variável z = x−µσ .∫ +∞
−∞
1√
2πσ
e−
1
2
(
x−µ
σ
)2
dx
z=x−µ
σ=
∫ +∞
−∞
1√
2πσ
e−
1
2
z2σdz =
∫ +∞
−∞
1√
2π
e−
1
2
z2dz.
msdfm
– p. 25/125
Seja
I =
∫ +∞
−∞
exp
(− 1
2
z2
)
dz (> 0).
I2 = I × I =
∫ +∞
−∞
exp
(− 1
2
z21
)
dz1
∫ +∞
−∞
exp
(− 1
2
z22
)
dz2 =
∫ +∞
−∞
∫ +∞
−∞
exp
(− 1
2
z21
)
exp
(− 1
2
z22
)
dz1dz2 =
∫ +∞
−∞
∫ +∞
−∞
exp
(− 1
2
(z21+z
2
2)
)
dz1dz2.
Fazendo a transformação em coordenadas polares
z1 = r sin(θ) e z2 = r cos(θ),
temos
I2 =
∫ +∞
0
∫ 2π
0
exp
(− 1
2
(r2)
)
rdθdr =
∫ 2π
0
dθ
∫ +∞
0
r exp
(− 1
2
(r2)
)
dr = 2π.
=⇒ I =
√
2π.
msdfm
– p. 26/125
Logo, como
I =
√
2π
temos∫ +∞
−∞
1√
2πσ
exp
(
−1
2
(x− µ
σ
)2)
dx =
∫ +∞
−∞
1√
2π
exp
(−1
2
z2
)
dz =
1√
2π
∫ +∞
−∞
exp
(− 1
2
z2
)
dz =
1√
2π
× I = 1√
2π
×
√
2π = 1.
Isso mostra que
fX(x) =
1√
2πσ
exp
(
− 1
2
(x− µ
σ
)2)
.
é uma função densidade de probabilidade para todo µ ∈ R e
σ2 > 0. msdfm
– p. 27/125
Proposic¸a˜o 5.
X ∼ N(µ, σ2) =⇒ Z = X − µ
σ
∼ N(0, 1).
Z ∼ N(0, 1) =⇒ X = σZ + µ ∼ N(µ, σ2)
Demonstrac¸a˜o: Exercício. c.q.d
msdfm
– p. 28/125
Observac¸o˜es:
1.A Proposição acima permite que cálculos de probabilidades envolvendoN(µ, σ2) sejam feitos
apenas para o casoN(0, 1). De fato,seX ∼ N(µ, σ2),
FX(x) = P (X ≤ x) = P
(X − µ
σ
≤ x− µ
σ
)
= P
(
Z ≤ x− µ
σ
)
= FZ
(x− µ
σ
)
,
onde Z ∼ N(0, 1).
2.Valores numérico para
FZ(z) =
∫ z
−∞
1√
2π
exp
(− 1
2
u2
)
du, z ∈ R,
só são obtidos aproximandamente. Tabelas para:
FZ(z), z ∈ R, FZ(z), z > 0, FZ(z)− FZ(0) = FZ(z)− 0.5, z > 0, etc...
estão facilmente disponíveis.
3.FZ(−z) = 1− FZ(z) z > 0.
msdfm
– p. 29/125
A seguinte proposição permite o cálculo aproximado para
valores de FZ , Z ∼ N(0, 1) e mostra a razão de convergência
da cauda da distribuição para zero quando z →∞.
Proposic¸a˜o 6. Seja Z ∼ N(0, 1). enta˜o
(i)
(
1
z
− 1
z3
)
fZ(z) ≤ (1− FZ(z)) ≤ 1zfZ(z) para z > 0.
(ii) Para aproximac¸o˜es mais refinadas temos
(1
z
− 1
z3
+
1× 3
z5
− 1× 3× 5
z7
+ · · ·+ (−1)k 1× 3× 5× · · · × (2k − 1)
z2k+1
)
fZ(z)

≤ (1− FZ(z)) para k impar≥ (1− FZ(z)) para k par
z > 0.
msdfm– p. 30/125
Demonstrac¸a˜o:
1− FZ(z) =
∫ ∞
z
1√
2π
exp
(− 1
2
x2
)
dx =
1√
2π
∫ ∞
z
e−
x2
2 dx =
1√
2π
∫ ∞
z
1
x
xe−
x2
2 dx
( u=x−1
dv=x exp(− x2
2
)
)
=
1√
2π
(
− 1
x
e−
x2
2
∣∣∣∞
z
−
∫ ∞
z
1
x2
e−
x2
2 dx
)
=
1
z
1√
2π
e−
z2
2 − 1√
2π
∫ ∞
z
1
x2
e−
x2
2 dx =
1
z
fZ(z)−
1√
2π
∫ ∞
z
1
x2
e−
x2
2 dx
Temos então que:
1− FZ(z) =
1
z
fZ(z)−
1√
2π
∫ ∞
z
1
x2
e−
x2
2 dx
Logo
1− FZ(z) ≥
1
z
fZ(z).
msdfm
– p. 31/125
Por outro lado,
1−FZ(z)−
1
z
fZ(z) = −
1√
2π
∫ ∞
z
1
x2
e−
x2
2 dx = − 1√
2π
∫ ∞
z
1
x3
xe−
x2
2 dx
( u=x−3
dv=x exp(− x2
2
)
)
= .
− 1√
2π
(
− 1
x3
e−
x2
2
∣∣∣∞
z
−
∫ ∞
z
3
x4
e−
x2
2 dx
)
= − 1
z3
fZ(z) +
3√
2π
∫ ∞
z
1
x4
e−
x2
2 dx.
Temos então
1− FZ(z) =
1
z
fZ(z)−
1
z3
fZ(z) +
3√
2π
∫ ∞
z
1
x4
e−
x2
2 dx.
Logo
1− FZ(z) ≥
1
z
fZ(z)−
1
z3
fZ(z) =
(1
z
− 1
z3
)
fZ(z).
A segunda parte segue por indução e aplicação de forma análoga
de integração por partes. c.q.d
msdfm
– p. 32/125
Exercı´cio: Mostre que
lim
z→∞
z(1− FZ(z))
fz(z)
= 1.
Interprete este resultado!
msdfm
– p. 33/125
Lucas Machado
Nota
Exercício importantenull
Proposic¸a˜o 7. Seja Z ∼ N(0, 1). Enta˜o
(i) E(Z2n+1) = 0, n = 1, 2, . . .
(ii) E(Z2n) = (2n)!
2nn!
, n = 0, 1, 2, . . . , (0! = 1)
Demonstrac¸a˜o: Inicialmente note que as integrais
∫ +∞
−∞
zk
1√
2π
e−
z2
2
existem uma vez que e−
z2
2 converge a 0 mais rapidamente que |z|k vai para +∞ qualquer que
seja k (calcule limz→±∞ e
−
z2
2
zk
).
Para o caso impar,
E(Z2n+1) =
∫ +∞
−∞
z2n+1
1√
2π
e−
z2
2 dz =
∫ +∞
−∞
(z)
(
z2n
1√
2π
e−
z2
2
)
dz =
∫ +∞
−∞
(funcca˜o impar)(funcca˜o par)dz =
∫ +∞
−∞
(funcca˜o impar)dz = 0
msdfm
– p. 34/125
Para o caso par,
E(Z2k) =
∫ +∞
−∞
z2k
1√
2π
e−
z2
2 dz
u=exp(z2/2)
dv=z2k
=
du=−z exp(z2/2)
v=z2k+1/(2k+1)
=
1√
2π
( x2k+1
2k + 1
e−
z2
2
∣∣∣+∞
−∞
−
∫ +∞
−∞
z2k+1
2k + 1
(−z)e− z
2
2 dz
)
=
=
1
2k + 1
∫ +∞
−∞
z2k+2
1√
2π
e−
z2
2 dz = E(Z2k+2).
Temos então a seguinte formula recursiva.
E
(
Z2(k+1)
)
= (2k + 1)E
(
Z2k
)
.
msdfm
– p. 35/125
Aplicando-se a formula E
(
Z2(k+1)
)
= (2k + 1)E
(
Z2k
)
sucessivamente até k = 0 obtemos
E
(
Z2n
)
=
(
2(n− 1) + 1))E(Z2(n−1)) = (2n− 1)E(Z2(n−1)) =
= (2n− 1)(2(n− 2) + 1)E(Z2(n−2)+1) = (2n− 1)(2n− 3)E(Z2(n−2)) =
= (2n− 1)(2n− 3)(2n− 5)E(Z2(n−3)) =
=
.
.
. =
(2n− 1)(2n− 3)(2n− 5) · · · (5)(3)E(Z2) =
(2n− 1)(2n− 3)(2n− 5) · · · (5)(3)E(Z0) = (2n− 1)(2n− 3)(2n− 5) · · · (5)(3)(1) =
[2n](2n− 1)[2n− 2](2n− 3)[2n− 4](2n− 5) · · · [6](5)[4](3)[2](1)
[2n][2n− 2][2n− 4] · · · [6][4][2] =
(2n)!
2[n]2[n− 1]2[n− 2] · · · 2[3]2[2]2[1] =
(2n)!
2nn!
.
c.q.d
msdfm
– p. 36/125
Colora´rio 1. Se Z ∼ N(0, 1), enta˜o
E(Z) = 0 e V ar(Z) = E(Z2) = 1.
Colora´rio 2. SeX ∼ N(µ, σ2), enta˜o
E
((X − µ
σ
)2n+1)
= 0 e E
((X − µ
σ
)2n)
=
(2n)!
2nn!
.
Em particular
E
(X − µ
σ
)
= 0 e portanto E(X) = µ
e
E
((X − µ
σ
)2)
=
(2× 1)!
21 × 1! = 1 e portanto V ar(X) = E((X − µ)
2) = σ2.
Demonstrac¸a˜o:
X − µ
σ
∼ N(0, 1).
c.q.d
msdfm
– p. 37/125
Teorema de De Moivre-Laplace
O Teorema de De Moivre-Laplace trata da aproximação da
distribuição binomial pela distribuição normal.
Teorema 2. (De Moivre-Laplace) Seja Sn ∼ B(n, p). Para a e b
duas constantes quaisquer tais que −∞ < a < b < +∞. Enta˜o,
lim
n→∞
P
(
a <
Xn − np√
np(1− p) ≤ b
)
=
∫ b
a
1√
2π
e−
z2
2 dz.
A demonstração do Teorema de De Moivre-Laplace é bastante
detalhada. Será apresentada a seguir por razões ilustrativas e
pode ser omitida. Esse resultado foi posteriormete generalizado
via o Teorema Central do Limite, com uma demostração bem
mais “simples”, a ser estudado em Probabilidade II.
msdfm
– p. 38/125
Independentemente da demonstração, podemos visualizar
gráficamente o resultado da aproximação local da distribuição
binomial pela distribuição normal (Proposição 8), isto é:
lim
n→∞
(
P (Xn = k)
1√
2pinp(1−p)e
−x2n,k/2
)
= lim
n→∞
( (
n
k
)
pk(1− p)n−k
1√
2pinp(1−p)e
−x2n,k/2
)
,
uniformemente em k; onde xn,k = k−np√
np(1−p)
msdfm
– p. 39/125
Aproximação local da Binomial pela Normal.
k
P (
X =
k )
0 2 4 6 8 10
0 .
0
0 .
1
0 .
2
0 .
3
0 .
4
n=10, p=0.1
P (
X =
k )
0 .1 5
0 .
2 0
0 .
2 5
0 .
3 0
n=10, p=0.2
– p. 40/125
Aproximação local da Binomial pela Normal.
k
P (
X =
k )
0 2 4 6 8 10
0 .
0
0 .
0 5
0 .
1 0
0 .
1 5
0 .
2 0
0 .
2 5
n=10, p=0.4
P (
X =
k )
0 .
1 0
0 .
1 5
0 .
2 0
0 .
2 5
n=10, p=0.5
– p. 41/125
Apêndice:Formula de Stirling
O resultado fundamental para a demosntração do Teorema de De
Moivre-Laplace é conhecido como Aproximação de Stirling,
dado por:
lim
n→∞
n! en√
2πn nn
= 1.
Em outras palavras, para n grande,
n! ≈
√
2πn nn e−n.
A demonstração será apresentada em uma sequência de lemas.
msdfm
– p. 42/125
Apêndice
Lema 1. Se |x| ≤ 1− δ, 0 < δ < 1/3, enta˜o
lg(1 + x) = x− x
2
2
+ ϑ(x),
onde |ϑ(x)| ≤ |x|3.
Demonstrac¸a˜o: Pela expansão de Taylor para ln(1 + x), temos
lg(1 + x) = x− x
2
2
+
∞∑
k=3
(−1)k−1 x
k
k!
.
Logo,
ϑ(x) =
∞∑
k=3
(−1)k−1 x
k
k!
≤
∞∑
k=3
|x|k
k!
≤ 1
3
∞∑
k=3
|x|k = |x|
3
3(1− |x|) .
Como para |x| ≤ 1− δ, 0 < δ < 1/3, 3(1− |x|) ≥ 1, o lema esta demonstrado.
c.q.d
msdfm
– p. 43/125
Apêndice
Lema 2.
lim
n→∞
(
lnn!− (n+ 1
2
)
lnn+ n
)
= C,
onde C e´ uma constante a ser posteriormente determinada.
Demonstrac¸a˜o: Seja
dn = lnn!−
(
n+
1
2
)
lnn+ n.
Então
dn−dn+1 =
(
lnn!−(n+1
2
)
lnn+n
)
−
(
ln(n+1)!−((n+1)+1
2
)
ln(n+1)+(n+1)
)
= +
− ln(n+1)+((n+1)+1
2
)
ln(n+1)−(n+1
2
)
lnn−1 = (n+1
2
)
ln(n+1)−(n+1
2
)
lnn−1 =
(
n+
1
2
)(
ln(n+ 1)− lnn)− 1 = (n+ 1
2
)
ln(1 +
1
n
)− 1
msdfm
– p. 44/125
Apêndice
Pelo Lema 1,para n ≥ 2
dn − dn+1 =
(
n+
1
2
)
ln(1 +
1
n
)− 1 =
(
n+
1
2
)( 1
n
− 1
2n2
+ ϑ
( 1
n
))
− 1 =
(
n+
1
2
)
ϑ
( 1
n
)
+
((
n+
1
2
)( 1
n
− 1
2n2
)
− 1
)
=
(
n+
1
2
)
ϑ
( 1
n
)
− 1
4n2
.
Logo,
|dn−dn+1| =
∣∣∣(n+1
2
)
ϑ
( 1
n
)
− 1
4n2
∣∣∣ ≤ (n+1
2
) 1
n3
+
1
4n2
=
1
n2
((
n+
1
2
) 1
n
+
1
4
)
≤ 2
n2
Usando o teste da comparação, é facil ver que
∑
n |dn − dn+1| converge. Como convergência
absoluta implica em convergência temos
limn→∞
∑n
k=1(dk − dk+1) = limn→∞(d1 − dn+1)
existe e é finito. Consequentemente,
limn→∞ dn+1 = d1 − C1 = C.
c.q.d
msdfm
– p. 45/125
Apêndice
Lema 3.
lim
n→∞
n!en
nn+
1
2
= K, K > 0.
Demonstrac¸a˜o: Partindo do resultado do Lema 2 temos,
lim
n→∞ dn = C =⇒ limn→∞ e
dn = eC .
Como
dn = lnn!−
(
n+
1
2
)
lnn+ n.
e
edn =
n!en
nn+
1
2
,
segue que
lim
n→∞
n!en
nn+
1
2
= eC = K
c.q.d
msdfm
– p. 46/125
Apêndice
Lema 4. (Desigualdade de Wallis)
nπ ≤
(
2n(n!)2
(2n)!
)2
≤ 2n+ 1
2
π.
Demonstrac¸a˜o: Seja
In =
∫ π/2
0
senn(x)dx.
é fácil ver que
I0 =
π
2
e I1 = 1.
Para n ≥ 2, escrevemos
In =
∫ π/2
0
senn−1(x)sen(x)dx.
e integramos por partes.
msdfm
– p. 47/125
Apêndice
Assim, definindo
u = senn−1(x) e dv = sen(x)
(
=⇒ du = (n− 1)senn−2(x)dx e v = −cos(x)),
obtemos:
In = sen
n−1(x)cos(x)
∣∣∣π/2
0
−
∫ π/2
0
(−cos(x))(n− 1)senn−2(x)cos(x)dx =
= (n− 1)
∫ π/2
0
cos2(x)senn−2(x)dx = (n− 1)
∫ π/2
0
(1− sen2(x))senn−2(x)dx =
(n− 1)
∫ π/2
0
senn−2(x)dx− (n− 1)
∫ π/2
0
senn(x)dx = (n− 1)In−2 − (n− 1)In.
Logo,
In =
n− 1
n
In−2, para n ≥ 2.
msdfm
– p. 48/125
Apêndice
Temos então que,
I2k
I2k−2
=
2k − 1
2k
=
(2k)× (2k − 1)
(2k)× (2k) =
(2k)× (2k − 1)
22 × k × k .
Por outro lado,
I2n
I0
=
I2 × I4 × I6 × · · · × I2(n−1) × I2n
I0 × I2 × I4 × · · · × I2n−2
=
n∏
k=1
(
I2k
I2k−2
)
=
n∏
k=1
(
(2k − 1)(2k)
22 × k × k
)
(1× 2)× (3× 4)× · · · × ((2n− 1)× (2n))
=
22n
( n∏
k=1
k
)2
=
(2n)!
22n(n!)2
.
Como I0 = π/2, obtemos
I2n =
(2n)!
22n(n!)2
π
2
. (∗)
msdfm
– p. 49/125
Apêndice
Analogamente,
I2n+1 =
I2n+1
I1
=
n∏
k=1
(
2k
2k + 1
)
=
n∏
k=1
(
(2k)(2k)
(2k)(2k + 1)
)
=
22n(n!)2
(2n+ 1)!
Logo,
I2n+1 =
22n(n!)2
(2n+ 1)!
=
1
2n+ 1
22n(n!)2
(2n)!
=
1
2n+ 1
(π/2)
(2n)!
22n(n!)2
(π/2)
,
ou seja,
I2n+1 =
π
2(2n+ 1)
1
I2n
ou I2nI2n+1 =
π
2(2n+ 1)
.
Pela relação recursiva sabemos que
I2n+1 =
2n
2n+ 1
I2n−1,
msdfm
– p. 50/125
Apêndice
Consequentemente,como
I2nI2n+1 =
π
2(2n+ 1)
(∗∗)
e
π
2(2n+ 1)
= I2nI2n+1 = I2n
2n
2n+ 1
I2n−1
isto é,
I2nI2n−1 =
π
2(2n+ 1)
2n+ 1
2n
=
π
4n
. (∗ ∗ ∗)
Observe também que, como 0 ≤ sen(x) ≤ 1, para 0 ≤ x ≤ π/2, a sequência (In : n ≥ 0) é
decrescente. Portanto,
I2n+1 ≤ I2n ≤ I2n−1 e I2n+1I2n ≤ I22n ≤ I2nI2n−1.
Usando (*),(**) e (***) obtemos,
π
2(2n+ 1)
≤
( (2n)!
22n(n!)2
π
2
)2 ≤ π
4n
=⇒ nπ ≤
(
2n(n!)2
(2n)!
)2
≤ 2n+ 1
2
π.
c.q.d
msdfm
– p. 51/125
Apêndice
Lema 5. O valor deK no Lema 3 e´ dado por
K =
√
2π.
Demonstrac¸a˜o: Seja
Sn =
n!en
nn+
1
2
.
Pelo Lema 3 sabemos que
lim
n→∞Sn = K > 0.
Escrevendo
n! = nn+
1
2 e−nSn
e aplicando na desiguladade de Wallis obtemos
nπ ≤
(
2n(nn+
1
2 e−nSn)2
(2n)2n+
1
2 e−2nS2n
)
≤ 2n+ 1
2
π.
msdfm
– p. 52/125
Apêndice
Ou seja
nπ ≤
(
2nn2n+1e−2nS2n
(2n)2n+
1
2 e−2nS2n
)2
≤ 2n+ 1
2
π,
que é equivalente a
π ≤ S
4
n
2S22n
≤ 2n+ 1
2n
π.
Fazendo n→∞ na desigualdade acima , comoK > 0, obtemos
π ≤ K
4
2K2
≤ π.
Portanto,
K2 = 2π, e como desejado K =
√
2π.
c.q.d
msdfm
– p. 53/125
De Moivre-Laplace, limite local
Sabemos que, para Xn ∼ B(n, p),
P (Xn = k) =
(n
k
)
pk(1− p)n−k, n ≥ 1, k = 1, 2, . . . , n.
Proposic¸a˜o 8. Considere p ∈ (0, 1),
xn,k =
k − np√
np(1− p)
, 0 ≤ k ≤ n
e A, uma constante positiva arbitra´ria, fixada. Enta˜o para os
valores permitidos de k tal que
|xn,k| ≤ A,
temos
lim
n→∞
(
P (Xn = k)
1√
2πnp(1−p) e
−x2
n,k
/2
)
= lim
n→∞
( (n
k
)
pk(1− p)n−k
1√
2πnp(1−p) e
−x2
n,k
/2
)
,
uniformemente em k.
msdfm
– p. 54/125
Demonstrac¸a˜o: Escrevendo
m! =
√
2πmm+
1
2 e−mRm, onde Rm =
m!em
√
2πmm+
1
2
,
temos
n!
k!(n− k)p
k(1−p)n−k =
√
2πnn+
1
2 e−nRn√
2πkk+
1
2 e−kRk
√
2π(n− k)(n−k)+ 12 e−(n−k)Rn−k
pk(1−p)n−k =
Rn
RkRn−k
√
n
2πk(n− k)
(np
k
)k(n(1− p)
n− k
)n−k
=
Rn
RkRn−k
√
n
2π k
np
np
(n−k)
n(1−p)n(1− p)
(np
k
)k(n(1− p)
n− k
)n−k
=
√
np
k
(n− 1)p
n− k
Rn
RkRn−k
√
1
2πnp(1− p)
(np
k
)k(n(1− p)
n− k
)n−k
.
msdfm
– p. 55/125
Temos então
n!
k!(n−k)p
k(1− p)n−k
1√
2πnp(1−p)
= ψ1(n, k)ψ2(n, k)ψ3(n, k),
onde
ψ1(n, k) =
√
np
k
(n− 1)p
n− k ,
ψ2(n, k) =
Rn
RkRn−k
e
ψ3(n, k) =
(np
k
)k(n(1− p)
n− k
)n−k
.
msdfm
– p. 56/125
Como
xn,k =
k − np√
np(1− p)
=⇒

k = np+
√
np(1− p)xn,k e
n− k = n(1− p)−
√
np(1− p)xn,k.
e como |xn,k| ≤ A,, obtemos, uniformemente em k,
lim
n→∞
k
np
= lim
n→∞
np+
√
np(1− p)xn,k
np
= lim
n→∞
(
1 +
√
np(1− p)xn,k
np
)
= 1. (♦)
Analogamente,
lim
n→∞
n− k
n(1− p) = 1 (♦♦).
Segue de (♦) e (♦♦), que
lim
n→∞ψ1(n, k) = limn→∞
√
np
k
(n− 1)p
n− k = 1.
msdfm
– p. 57/125
Do Lema 5, como |xn,k| ≤ A,, temos
lim
n→∞Rn = 1.
Consequentemente
lim
n→∞Rk = limn→∞Rnp+
√
np(1−p)xn,k = 1.
e
lim
n→∞Rn−k = limn→∞Rn(1−p)−√
np(1−p)xn,k = limn→∞R
√
n(
√
n(1−p)−
√
p(1−p)xn,k = 1.
Logo,
lim
n→∞ψ2(n, k) = limn→∞
Rn
RkRn−k
= 1
msdfm
– p. 58/125
Resta estudar o comportamento assintotico de ψ3(n, k) =
(
np
k
)k(n(1−p)
n−k
)n−k
. Para tanto
vamos considerar
ln
((np
k
)k(n(1− p)
n− k
)n−k)
= ln
(np
k
)k
+ ln
(n(1− p)
n− k
)n−k
.
Usando a definição de xn,k obtemos
ln
(np
k
)k
= ln
(k −√np(1− p)xn,k
k
)k
= k ln
(
1−
√
np(1− p)xn,k
k
)
=
e analogamente
ln
(
n(1−p)
n−k
)n−k
= (n− k) ln
(
1 +
√
np(1−p)xn,k
n−k
)
.
Logo
ln
((np
k
)k(n(1− p)
n− k
)n−k)
= k ln
(
1−
√
np(1− p)xn,k
k
)
+(n−k) ln
(
1+
√
np(1− p)xn,k
n− k
)
msdfm
– p. 59/125
Como |Xn,k| < A, seque de (♦) e (♦♦) que , para n suficientemente grande
∣∣∣∣
√
np(1− p)xn,k
k
∣∣∣∣ =
∣∣∣∣
√
(1− p)xn,k
k
np
√
np
∣∣∣∣ < 1− δ
e ∣∣∣∣
√
np(1− p)xn,k
n− k
∣∣∣∣ =
∣∣∣∣
√
pxn,k
n−k
n(1−p)
√
n(1− p)
∣∣∣∣ < 1− δ
Podemos então aplicar o Lema 1 a
ln
(np
k
)k
= k ln
(
1−
√
np(1− p)xn,k
k
)
e
ln
(n(1− p)
n− k
)n−k
= (n− k) ln
(
1 +
√
np(1− p)xn,k
n− k
)
.
msdfm
– p. 60/125
Temos portanto,
ln
(np
k
)k
= k
((
−
√
np(1− p)xn,k
k
)−1
2
(
−
√
np(1− p)xn,k
k
)2
+ϑ
(
−
√
np(1− p)xn,k
k
))
=
k
(
−
√
np(1− p)xn,k
k
−
np(1− p)x2n,k
2k2
+ ϑ
(
−
√
np(1− p)xn,k
k
))
.
e
ln
(n(1− p)
n− k
)n−k
= (n−k)
(√np(1− p)xn,k
n− k −
np(1− p)x2n,k
2(n− k)2 +ϑ
(√np(1− p)xn,k
n− k
))
.
Somando os dois logaritmos temos,
ln
((np
k
)k(n(1− p)
n− k
)n−k)
=
= −
np(1− p)x2n,k
2k
−
np(1− p)x2n,k
2(n− k) +kϑ
(
−
√
np(1− p)xn,k
k
))
+(n−k)ϑ
(√np(1− p)xn,k
n− k
))
msdfm
– p. 61/125
A ultima expressão pode ser rearrumada após alguma manipulação na forma,
(
np
k
)k(n(1−p)
n−k
)n−k
e
−
x2
n,k
2
np
k
n(1−p)
n−k
= e
kϑ
(
−
√
np(1−p)xn,k
k
)
+(n−k)ϑ
(√
np(1−p)xn,k
n−k
)
.
Do Lema 1 temos que |ϑ(x)| ≤ |x|3, logo
∣∣∣∣kϑ(−
√
np(1− p)xn,k
k
))
+ (n− k)ϑ
(√np(1− p)xn,k
n− k
))∣∣∣∣ ≤
k
∣∣∣∣
√
np(1− p)xn,k
k
∣∣∣∣3+(n−k)
∣∣∣∣
√
np(1− p)xn,k
n− k
∣∣∣∣3 ≤
(
A
√
p(1− p))3
n1/2
((n
k
)2
+
( n
n− k
)2)
.
Seque de (♦) e (♦♦) que essa cota superior claramente converge a zero quando n cresce.
msdfm
– p. 62/125
Consequentemente
lim
n→∞
(
np
k
)k(n(1−p)
n−k
)n−k
e
−
x2
n,k
2
np
k
n(1−p)
n−k
= 1 = lim
n→∞
(
np
k
)k(n(1−p)
n−k
)n−k
e−
x2
n,k
2
,
onde para última igualdade usamos novamente (♦) e (♦♦).
Consequentemente, compilando os resultados obtemos,
lim
n→∞
n!
k!(n−k)p
k(1− p)n−k
1√
2πnp(1−p) e
−
x2
n,k
2
= lim
n→∞ψ1(n, k)ψ2(n, k)ψ3(n, k)e
x2
n,k
2 = 1× 1× 1 = 1.
Em outras palavras,
lim
n→∞
( (n
k
)
pk(1− p)n−k
1√
2πnp(1−p) e
−x2
n,k
/2
)
, uniformemente em k.
c.q.d
msdfm
– p. 63/125
Apêndice; Demonstração do Teorema de De Moivre-
Laplace
Recordando, queremos mostrar que
lim
n→∞P
(
a <
Xn − np√
np(1− p)
≤ b
)
=
∫ b
a
1√
2π
e
z2
2 dz, −∞ < a < b < +∞.
Demonstrac¸a˜o: Seja k um valor possível deXn. Assim,
Xn = k ⇐⇒ Xn − np√
np(1− p)
= xn,k, xn,k =
k − np√
np(1− p)
e
P
(
a <
Xn − np√
np(1− p)
≤ b
)
=
∑
a<xn,k≤b
P (Xn = k).
Note que o somatório tem somente um número finito de parcelas.
P
(
a <
Xn − np√
np(1− p)
≤ b
)
=
∑
a<xn,k≤b
1√
2πnp(1− p)
e−x
2
n,k/2
P (Xn = k)
1√
2πnp(1−p) e
−x2
n,k
/2
msdfm
– p. 64/125
Como
xn,k =
k−np√
np(1−p) =⇒ xn,k+1 − xn,k =
1√
np(1−p)
temos
1√
2πnp(1− p)
e−x
2
n,k/2 =
1√
2π
e−x
2
n,k/2(xn,k+1 − xn,k).
Logo,
P
(
a <
Xn − np√
np(1− p)
≤ b
)
=
∑
a<xn,k≤b
(
1√
2π
e−
x2
n,k
2 (xn,k+1 − xn,k)
)(
P (Xn = k)
1√
2πnp(1−p) e
−
x2
n,k
2
)
=
∑
a<xn,k≤b
(
1√
2π
e−
x2
n,k
2 (xn,k+1 − xn,k)
)(
1 + ̺(k, n)
)
,
onde
limn→∞ ̺(k, n) = limn→∞ P (Xn=k)
1√
2pinp(1−p)
e
−
x2
n,k
2
− 1 = 0, uniformemente em k.
msdfm
– p. 65/125
P
(
a <
Xn − np√
np(1− p)
≤ b
)
=
∑
a<xn,k≤b
(
1√
2π
e−
x2
n,k
2 (xn,k+1−xn,k)
)
+
∑
a<xn,k≤b
(
1√
2π
e−
x2
n,k
2 (xn,k+1−xn,k)̺(k, n)
)
=
∫ b
a
1√
2π
e
z2
2 dz +R1(n, k) +R2(n, k),
onde
R1(n) =
∑
a<xn,k≤b
1√
2π
e−
x2
n,k
2 (xn,k+1 − xn,k)−
∫ b
a
1√
2π
e
z2
2 dz
e
R2(n) =
∑
a<xn,k≤b
(
1√
2π
e−
x2
n,k
2 (xn,k+1 − xn,k)̺(k, n)
)
.
Sabemos que
a < xn,k ≤ b⇐⇒ np+ a
√
np(1− p) < k ≤ np+ b
√
np(1− p), k = 0, 1, 2, . . . n.
msdfm
– p. 66/125
Para finalizar a demonstração devemos mostrar que
lim
n→∞R1(n) = limn→∞R2(n) = 0.
Para tanto, como a correspondência entre k e xn,k é um a um, temos para k = 0, 1, 2, . . . n,
xn,k assumindo valores no intervalo
[
−
√
np
(1− p) ,
√
np
p
]
, a incrementos xn,k+1 − xn,k =
1√
np(1− p)
.
Para n suficientemente grande
(a, b] ⊂
[
−
√
np
(1− p) ,
√
np
p
]
.
Para cada n sejam l e u o menor e o maior valor de k tais que
xn,l−1 ≤ a < xn,l < xn,1+1 < · · · < xn,u ≤ b < xn,u+1.
msdfm
– p. 67/125
Pela definição de Integral de Riemann
lim
n→∞
∑
a<xn,k≤b
1√
2π
e−
x2
n,k
2 (xn,k+1 − xn,k) =
lim
n→∞
u∑
k=l
1√
2π
e−
x2
n,k
2 (xn,k+1 − xn,k) =
∫ b
a
1√
2π
e
z2
2 dz.
Logo
lim
n→∞R1(n) = 0.
msdfm
– p. 68/125
Por outro lado,
|R2(n)| ≤
∑
a<xn,k≤b
∣∣∣∣∣ 1√2π e−
x2
n,k
2 (xn,k+1 − xn,k)̺(k, n)
∣∣∣∣∣ =
∑
a<xn,k≤b
(
1√
2π
e−
x2
n,k
2 (xn,k+1 − xn,k)
)
|̺(k, n)| ≤
supa<xn,k≤b |̺(k, n)|
∑
a<xn,k≤b
(
1√
2π
e−
x2
n,k
2 (xn,k+1 − xn,k)
)
.
Sabemos que
lim
n→∞ supa<xn,k≤b
|̺(k, n)| = 0, pois lim
n→∞ ̺(k, n) = 0, uniformemente em k,
e
lim
n→∞
(
1√
2π
e−
x2
n,k
2 (xn,k+1 − xn,k)
)
=
∫ b
a
1√
2π
e
z2
2 dz.
Consequentemente
lim
n→∞R2(n) = 0.
c.q.d
msdfm
– p. 69/125
Função e distribuição Gama
A função Gama aparece naturalmente em diferentes áreas da
matemática. Aqui será usada para definir uma importante e útil
familia de funções densidade de probabilidade.
Define-se a func¸a˜o gama Γ por
Γ(ν) =
∫ ∞
0
tν−1e−tdt, ν > 0.
msdfm
– p. 70/125
Gráfico da Função Gama
s
G
a m
a ( s
)
0.5 1.0 1.5 2.0 2.5 3.0
1 .
0
1 .
2
1 .
4
1 .
6
1 .
8
2 .
0
FUNCAO GAMA
msdfm
– p. 71/125
Propriedades relevantes
P1. Γ(1) = 1
item limν→0 Γ(ν) = +∞.
P2. Γ(ν) = (ν − 1)Γ(ν − 1), ν > 1.
Em particular Γ(n+ 1) = n!, para n ∈ N.
P3. Γ(1/2) =
√
π.
P4. Γ(n+ 1/2) = (2n)!
√
π
n!4n
.
P5. Função Gama com parâmetro:
Γ(S) =
∫ ∞
0
λνtν−1e−λtdu, λ > 0.
msdfm
– p. 72/125
Demonstrações:
P1. Γ(1) =
∫∞
0
t1−1e−tdt =
∫∞
0
e−tdt = −e−t
∣∣∣∞
0
= 1.
P2. Γ(ν) =
∫∞
0
tν−1e−tdt
u=tν−1; dv=e−t
=
tν−1(−e−t)
∣∣∣∞
0
− ∫∞
0
(−e−t)(ν − 1)tν−2dt =
(ν − 1) ∫∞
0
t(ν−1)−1e−tdt = (ν − 1)Γ(ν − 1).
P3. Γ(1/2) =
∫∞
0
t(1/2)−1e−tdt =
∫∞
0
t−
1
2 e−tdt
x2
2
=t
=∫∞
0
x2
2
− 1
2 e−
x2
2
dx
x
=
√
2
∫∞
0
e−
x2
2 dx =
√
2
√
2π
∫∞
0
2√
2π
e−
x2
2 dx =
√
2
√
2π 1
2
=
√
π
msdfm
– p. 73/125
P4.
Γ(n+
1
2
)
P3
= (n+
1
2
−1)Γ(n− 1
2
−1)+(n− 1
2
)Γ(n−1
2
)
P3
= (n− 1
2
)(n− 3
2
)Γ(n− 3
2
) =
.
.
.
= (n− 1
2
)(n− 3
2
)(n− 5
2
) · · · (n− 2n− 1
2
)Γ(n− 2n− 1
2
) =
(n− 1
2
)(n− 3
2
)(n− 5
2
) · · · 1
2
Γ(
1
2
) =
2n− 1
2
2n− 3
2
2n− 5
2
· · · 3
2
1
2
Γ(
1
2
) =
(
2n
2n
)
2n− 1
2
(
2n− 2
2n− 2
)
2n− 3
2
(
2n− 4
2n− 4
)
2n− 5
2
· · ·
(
4
4
)
3
2
(
2
2
)
1
2
)Γ(
1
2
) =
2n(2n− 1)(2n− 2)(2n− 3) · · · 4 3 2 1
2 n 2 (n− 1) 2 (n− 2) 2 · · · 4 2 2 2Γ(
1
2
) =
(2n)!
√
π
n!4n
.
msdfm
– p. 74/125
P5. Seja λ > 0.
Γ(ν) =
∫ ∞
0
tν−1e−tdt t=λs=
∫ ∞
0
(λs)ν−1e−λsλds =
∫ ∞
0
λνsν−1e−λsds.
Por P5 temos que
∫ ∞
0
λν
Γ(ν)
sν−1e−λsds = 1,
para ν > 0 e λ > 0.
msdfm
– p. 75/125
Outras propriedades
P1. limν→0 Γ(ν) = +∞.
P2. A integral que define a função gama converge
uniformemente em ν sendo portanto Γ contínua.
msdfm
– p. 76/125
Distribuição Gama G(ν, λ)
Em vista da Propriedade 5 temos que para par de
parâmetros ν > 0 e λ > 0 a função
fX(x) =
λν
Γ(ν)
xν−1e−λx1[0,∞)(x)
define uma função densidade de probabilidade.
msdfm
– p. 77/125
x
f ( x
)
0 2 4 6 8 10
0 .
0
0 .
2
0 .
4
0 .
6
0 .
8
Gama(1,1)=Exp(1)
x
f ( x
)
0 2 4 6 8 10
0 .
0
0 .
1
0 .
2
0 .
3
Gama(1,2)
x
f ( x
)
0 2 4 6 8 10
0 .
0
0 .
0 5
0 .
1 0
0 .
1 5
0 .
2 0
Gama(1,5)
x
f ( x
)
0 2 4 6 8 10
0 .
0
0 .
2
0 .
4
0 .
6
0 .
8
Densidades Gama
msdfm– p. 78/125
x
f ( x
)
0 2 4 6 8 10
0 .
0
0 .
2
0 .
4
0 .
6
Gama(2,2)
x
f ( x
)
0 2 4 6 8 10
0 .
0
0 .
1
0 .
2
0 .
3
Gama(1,2)
x
f ( x
)
0 2 4 6 8 10
0 .
0 5
0 .
1 0
0 .
1 5
Gama(0.5,2)
x
f ( x
)
0 2 4 6 8 10
0 .
0
0 .
2
0 .
4
0 .
6
Densidades Gama
msdfm– p. 79/125
Proposic¸a˜o 9. Se X ∼ G(λ, ν) e α > −ν, enta˜o
E(Xα) =
Γ(α + ν)
Γ(ν)λα
.
Demonstrac¸a˜o:
E(Xα) =
∫ ∞
0
xα
λν
Γ(ν)
xν−1e−λxdx =
λν
Γ(ν)
∫ ∞
0
xα+ν−1e−λxdx =
1
Γ(ν)λα
∫ ∞
0
λα+νx(α+ν)−1e−λxdx =
Γ(α + ν)
Γ(ν)λα
c.q.d
msdfm
– p. 80/125
Em particular,
E(Xk) =
Γ(k + ν)
Γ(ν)λk
=
(k + ν − 1)(k + ν − 2) · · · (ν + 1)νΓ(ν)
Γ(ν)λk
=
(k + ν − 1)(k + ν − 2) · · · (ν + 1)ν
λk
.
Logo
E(X) =
ν
λ
; E(X2) =
(ν + 1)ν
λ2
e
V ar(X) =
(ν + 1)ν
λ2
−
(ν
λ
)2
=
ν
λ2
.
Usualmente 1
λ
é chamado paramero de escala e ν paramero de
forma. msdfm
– p. 81/125
Função e distribuições do tipo Beta
Assim como a Função Gama, uma outra função
matemática usada para definir familias de
distribuições de probabilidade absolutamante
contínuas é conhecida como Função Beta definida por
β(µ, ν) =
∫ 1
0
tµ−1(1− t)ν−1dt, µ > 0, ν > 0.
Logo, para todo µ > 0 e ν > 0
msdfm
– p. 82/125
Propriedades:
P1. β(µ, ν) = β(ν, µ).
P2. β(µ, ν) = Γ(µ)Γ(ν)
Γ(µ+ν)
.
P3. β(µ+ 1, ν) = µ
µ+ν
β(µ, ν).
P1.
β(µ, ν) =
∫ 1
0
tµ−1(1−t)ν−1dt v=1−t=
∫ 0
1
(1−v)µ−1vν−1(−dv) =
∫ 1
0
vν−1(1− v)µ−1dv = β(ν, µ).
msdfm
– p. 83/125
P2.
Γ(µ)Γ(ν) =
∫ ∞
0
xµ−1e−xdx
∫ ∞
0
yν−1e−ydy =
∫ ∞
0
∫ ∞
0
xµ−1yν−1e−(x+y)dxdy.
Fazendo

t = x+ ys = x
x+y
temos

x = sty = (1− s)t e J(s, t) = det

 t s
−t (1− s)

 = t.
Logo, pelo TMV,
Γ(µ)Γ(ν) =
∫ ∞
0
∫ 1
0
(st)µ−1
(
(1− s)t)ν−1e−ttdsdt =
∫ ∞
0
tµ+ν−1e−tdt
∫ 1
0
sµ−1(1− s)ν−1ds = Γ(µ+ ν)β(µ, ν).
Portanto,
β(µ, ν) =
Γ(µ)Γ(ν)
Γ(µ+ ν)
.
msdfm
– p. 84/125
P3.
β(µ+ 1, ν) =
Γ(µ+ 1)Γ(ν)
Γ(µ+ 1 + ν)
P2
= .
µΓ(µ)Γ(ν)
(µ+ ν)Γ(µ+ ν)
=
µ
µ+ ν
β(µ, ν).
msdfm
– p. 85/125
Distribuição BETA 1 (β1(µ, ν))
Como para µ > 0 e ν > 0,∫ 1
0
1
β(µ, ν)
tµ−1(1− t)ν−1dt = 1,
a função
f(x) =
1
β(µ, ν)
xµ−1(1− x)ν−11(0,1)(x)
define uma função de densidade de probabilidade. A distribuição
de probabilidade associada é chamada de Distribuic¸a˜o Beta 1
com paraˆmeros µ > 0 e ν > 0.
A familia β1 é bastante rica na modelagem de distribuições de
probabilidade com suporte em (0, 1), em particular, note que
β1(1, 1) = U(0, 1).
msdfm
– p. 86/125
Proposic¸a˜o 10. Se X ∼ β1(µ, ν), enta˜o
E(Xα) =
β(µ+ α, ν)
β(µ, ν)
,
para α > −µ.
Demonstrac¸a˜o:
E(Xα) =
∫ 1
0
xα
1
β(µ, ν)
xµ−1(1−x)ν−1dx = 1
β(µ, ν)
∫ 1
0
xµ+α−1(1−x)ν−1dx = β(µ+ α, ν)
β(µ, ν)
.
c.q.d
Em particular,
E(Xk) =
β(µ+ k, ν)
β(µ, ν)
=
(µ+ k − 1)(µ+ k − 2) · · · (µ+ 1)µ
(µ+ ν + k − 1)(µ+ ν + k − 2) · · · (µ+ ν + 1)(µ+ ν) ;
E(X) =
µ
µ+ ν
; E(X2) =
(µ+ 1)µ
(µ+ ν + 1)µ+ ν
e V ar(X) =
µν
(µ+ ν + 1)(µ+ ν)2
.
msdfm
– p. 87/125
Densidades beta 1
x
f ( x
)
0.0 0.2 0.4 0.6 0.8 1.0
1 .
0
1 .
5
2 .
0
2 .
5
3 .
0
Beta(0.5,0.5)
x
f ( x
)
0.0 0.2 0.4 0.6 0.8 1.0
1 .
0
1 .
1
1 .
2
1 .
3
Beta(0.9,0.9)
x
f ( x
)
0.0 0.2 0.4 0.6 0.8 1.0
0 .
8 0
0 .
8 5
0 .
9 0
0 .
9 5
1 .
0 0
1 .
0 5
Beta(1.1,1.1)
x
f ( x
)
0.0 0.2 0.4 0.6 0.8 1.0
0 .
0
0 .
5
1 .
0
1 .
5
2 .
0
2 .
5
Beta(5,5)
msdfm – p. 88/125
Densidades beta 1
x
f ( x
)
0.0 0.2 0.4 0.6 0.8 1.0
0
1
2
3
4
5
6
Beta(0.5,1.5)
x
f ( x
)
0.0 0.2 0.4 0.6 0.8 1.0
0 .
0
0 .
2
0 .
4
0 .
6
0 .
8
1 .
0
1 .
2
1 .
4
Beta(1.5,2)
x
f ( x
)
0.0 0.2 0.4 0.6 0.8 1.0
0 .
0
0 .
5
1 .
0
1 .
5
Beta(2.5,2)
x
f ( x
)
0.0 0.2 0.4 0.6 0.8 1.0
0 .
0
0 .
5
1 .
0
1 .
5
2 .
0
2 .
5
Beta(2,5)
msdfm – p. 89/125
Distribuição BETA 2 (β2(µ, ν))
0utra importante familia de distribuições de probabilidade com
suporte em (0,∞) pode ser obtida atraves de uma transformação
de uma variável aleatória com distribuição Beta 1 ( Proposição 6)
ou diretamente a partir da definição da seguinte familia de
densidades de probabilidade:
f(x) =
1
β(µ, ν)
xµ−1
(1 + x)µ+ν
1(0,∞)(x) =
=
Γ(µ+ ν)
Γ(µ)Γ(ν)
xµ−1
(1 + x)µ+ν
1(0,∞)(x), µ > 0, ν > 0.
msdfm
– p. 90/125
Note que f define uma função densidade de probabilidade. De
fato,
(a) Claramente f(x) ≥ 0, ∀ x ∈ R.
(b) Por outro lado,
∫ +∞
−∞
f(x)dx =
1
β(µ, ν)
∫ +∞
0
xµ−1
(1 + x)µ+ν
dx
y= x
1+x
=
1
β(µ, ν)
∫ 1
0
( y
1− y
)µ−1 1(
1 + y
1−y
)µ+ν dy(1− y)2 = 1β(µ, ν)
∫ 1
0
yµ−1(1−y)ν−1dy =
1
β(µ, ν)
∫ 1
0
yµ−1(1− y)−(µ−1)+(µ+ν)−2dy = 1
β(µ, ν)
∫ 1
0
yµ−1(1− y)ν−1dy =
=
β(µ, ν)
β(µ, ν)
= 1.
Logo, f é uma função de probabilidade para µ > 0 e ν > 0. msdfm
– p. 91/125
Densidades beta 2
x
f ( x
)
0 2 4 6 8 10
0 .
0
0 .
5
1 .
0
1 .
5
2 .
0
Beta2(1,2)
x
f ( x
)
0 2 4 6 8 10
0 .
0
0 .
1
0 .
2
0 .
3
0 .
4
0 .
5
0 .
6
Beta2(2,2)
x
f ( x
)
0 2 4 6 8 10
0 .
0
0 .
1
0 .
2
0 .
3
0 .
4
Beta2(3,2)
x
f ( x
)
0 2 4 6 8 10
0 .
0
0 .
2
0 .
4
0 .
6
0 .
8
1 .
0
Beta2(2,3)
msdfm– p. 92/125
Densidades beta 2
x
f ( x
)
0 2 4 6 8 10
0 .
0 5
0 .
1 0
0 .
1 5
0 .
2 0
0 .
2 5
0 .
3 0
Beta2(2,1)
x
f ( x
)
0 2 4 6 8 10
0 .
0
0 .
1
0 .
2
0 .
3
0 .
4
0 .
5
Beta2(6,4)
x
f ( x
)
0 2 4 6 8 10
0 .
0
0 .
2
0 .
4
0 .
6
0 .
8
1 .
0
1 .
2
1 .
4
Beta2(6,10)
x
f ( x
)
0 2 4 6 8 10
0 .
0
0 .
1
0 .
2
0 .
3
0 .
4
0 .
5
Beta2(10,6)
msdfm– p. 93/125Proposic¸a˜o 11. SeX ∼ β2(µ, ν), enta˜o
E(Xα) =
β(µ+ α, ν − α)
β(µ, ν)
, −µ < α < ν.
Demonstrac¸a˜o:
E(Xα) =
∫ ∞
0
xα
1
β(µ, ν)
xµ−1
(1 + x)µ+ν
dx =
1
β(µ, ν)
∫ ∞
0
xα+µ−1
(1 + x)µ+ν
dx =
β(µ+ α, ν − α)
β(µ, ν)
∫ ∞
0
1
β(µ+ α, ν − α)
xα+µ−1
(1 + x)(µ+α)+(ν−α)
dx =
β(µ+ α, ν − α)
β(µ, ν)
c.q.d
Em particular,
E(Xk) =
β(µ+ k, ν − k)
β(µ, ν)
=
(µ+ k − 1)(µ+ k − 2) · · ·µ
(ν − 1)(ν − 2) · · · (ν − k) , k = 1, 2, . . . [ν − 1]
E(X) =
µ
ν − 1 , ν > 1, E(X
2) =
(µ+ 1)µ
(ν − 1)(ν − 2) , ν > 2 e V ar(X) =
µ(µν − 1)
(ν − 1)2(ν − 2) , ν > 2.
msdfm
– p. 94/125
Relações
Proposic¸a˜o 12. SeX1 eX2 sa˜o varia´veis aleato´rias independentes com
Xi ∼ G(λ, νi), i = 1, 2, enta˜o
X1 +X2 ∼ G(λ, ν1 + ν2).
Demonstrac¸a˜o: Sabemos que fX1+X2 (z) =
∫+∞
−∞ fX1 (z − x)fX2 (x)dx. Logo
fX1+X2 (z) =
∫ +∞
−∞
λν1
Γ(ν1)
(z−x)ν1−1e−λ(z−x)1(0,∞)(z−x)
λν2
Γ(ν2)
xν2−1e−λx1(0,∞)(x) =
λν1+ν2
Γ(ν1)Γ(ν2)
e−λz1(0,∞)(z)
∫ z
0
(z − x)ν1−1xν2−1dx t=x/z=
λν1+ν2
Γ(ν1)Γ(ν2)
zν1+ν2−1e−λz1(0,∞)(z)
∫ 1
0
(1− t)ν1−1tν2−1dt =
λν1+ν2
Γ(ν1)Γ(ν2)
zν1+ν2−1e−λz1(0,∞)(z)β(ν2, ν1) =
λν1+ν2
Γ(ν1 + ν2)
z(ν1+ν2)−1e−λz1(0,∞)(z).
c.q.d
msdfm
– p. 95/125
Colora´rio 3. Se X1, X2, . . . , Xn sa˜o varia´veis
aleato´rias independentes com
Xi ∼ G(λ, νi), i = 1, 2, . . . n,enta˜o
n∑
i=1
Xi ∼ G(λ,
n∑
i=1
νi).
msdfm
– p. 96/125
Proposic¸a˜o 13. SeX e Y sa˜o varia´veis aleato´rias independentes comX ∼ G(λ, µ) e
Y ∼ G(λ, ν) enta˜o
X
Y
∼ β2(µ, ν).
Demonstrac¸a˜o: Sabemos que fX/Y (z) =
∫+∞
−∞ |x|fX(zx)fY (x)dx. Logo,
fX/Y (z) =
∫ +∞
−∞
|x| λ
µ
Γ(µ)
(zx)µ−1e−λzx1(0,∞)(zx)
λν
Γ(ν)
xν−1e−λx1(0,∞)(x)dx =
λµ+ν
Γ(µ)Γ(ν)
zµ−11(0,∞)(z)
∫ +∞
0
xµ+ν−1e−λx(z+1)dx
u=λ(z+1)x
=
λµ+ν
Γ(µ)Γ(ν)
zµ−11(0,∞)(z)
∫ +∞
0
( u
λ(z + 1)
)µ+ν−1
e−u
du
λ(z + 1)
=
1
Γ(µ)Γ(ν)
zµ−1
(1 + z)µ+ν
1(0,∞)(z)
∫ +∞
0
uµ+ν−1e−udu =
Γ(µ+ ν)
Γ(µ)Γ(ν)
zµ−1
(1 + z)µ+ν
1(0,∞)(z) =
1
β(µ,ν)
zµ−1
(1+z)µ+ν
1(0,∞)(z).
c.q.d
msdfm
– p. 97/125
Proposic¸a˜o 14.
(i) X ∼ β2(µ, ν) ⇐⇒ X1+Xβ1(µ, ν).
(ii) Y ∼ β1(µ, ν) ⇐⇒ Y1−Y β2(µ, ν).
Demonstrac¸a˜o: : Exercı´cio (Use técnica do jacobiano no caso univariado) c.q.d
Proposic¸a˜o 15. Se X e Y sa˜o varia´veis aleato´rias
independentes com X ∼ G(λ, µ) e Y ∼ G(λ, ν) enta˜o
X
X + Y
∼ β1(µ, ν).
Demonstrac¸a˜o: : Exercı´cio (Sugestão: Sabemos que quociente x
Y
é β2. Aplicando a Proposição
6 obtemos.... ) c.q.d
msdfm
– p. 98/125
Distribuições derivadas da Normal:
1. Distribuic¸a˜o χ2
Proposic¸a˜o 16. Se X ∼ N(0, 1), enta˜o
X2 ∼ G
(1
2
,
1
2
)
Demonstrac¸a˜o: Para y ≤ 0, P (X2 ≤ y) = 0. Se y > 0,
P (X2 ≤ y) = P (−√y ≤ X ≤ √y) simetria= 2P (0 < X ≤ √y) =
2
∫ √y
0
1√
2π
e−
x2
2 dx
z=x2
= 2
∫ z
0
1√
2
√
π
e−
1
2
z dz
2
√
z
dz =
∫ z
0
(1/2)1/2
Γ(1/2)
z
1
2
−1e−
1
2
zdz.
Ou seja
X2 ∼ G
(1
2
,
1
2
)
c.q.d
msdfm
– p. 99/125
Colora´rio 4. Sejam X1, X2, . . . , Xn varia´veis aleato´rias
independentes e identicamente distribuidas N(0, 1). Enta˜o,
n∑
i=1
Xi ∼ G(1
2
,
n
2
)
.
Demonstrac¸a˜o: Corolários 1 e 2. c.q.d
Definic¸a˜o: A distribuição G(1
2
, n
2
)
é usualmente chamada de
distribuição chi-quadrado com n graus de liberdade e denotada
por χ2n. Assim se Y ∼ G(12 , n2
)
= χ2n,
fY (y) =
x(n/2)−1e−x/2
2n/2Γ(n/2)
1(0,∞)(y).
msdfm
– p. 100/125
Colora´rio 5. Se Y ∼ χ2n, enta˜o
(i) E(Xα) = Γ((n/2)−α)
(1/2)αΓ(n/2)
= (n/2)((n/2)−1)···((n/2)+α−1)
(1/2)α
.
(ii) E(Xk) = n(n+ 2) · · · (n+ 2k − 2).
(iii) E(X) = n e V ar(X) = 2n.
Demonstrac¸a˜o: Proposição 1. c.q.d
Observac¸o˜es:
(a) n = 2 ⇒ χ22 = Exp(1/2).
(b) Será mostrado posteriormente (Teorema Central do Limite)
que para n "grande",
χ2n ≈ N(n, 2n).
msdfm
– p. 101/125
Densidades χ2n
x
f ( x
)
0 1 2 3 4 5
0 .
0
0 .
5
1 .
0
1 .
5
Chi-quadrado(1)
x
f ( x
)
0 1 2 3 4 5
0 .
1
0 .
2
0 .
3
0 .
4
0 .
5
Chi-quadrado(2)=Exp(1/2)
x
f ( x
)
0 1 2 3 4 5
0 .
1 0
0 .
1 5
0 .
2 0
Chi-quadrado(3)
x
f ( x
)
0 2 4 6 8 10
0 .
0
0 .
0 5
0 .
1 0
0 .
1 5
Chi-quadrado(5)
msdfm– p. 102/125
Densidades χ2n
x
f ( x
)
0 10 20 30 40 50 60
0 .
0
0 .
0 2
0 .
0 4
0 .
0 6
0 .
0 8
0 .
1 0
Chi-quadrado(10)
x
f ( x
)
0 10 20 30 40 50 60
0 .
0
0 .
0 2
0 .
0 4
0 .
0 6
Chi-quadrado(20)
x
f ( x
)
0 10 20 30 40 50 60
0 .
0
0 .
0 1
0 .
0 2
0 .
0 3
0 .
0 4
0 .
0 5
Chi-quadrado(30)
x
f ( x
)
0 10 20 30 40 50 60
0 .
0
0 .
0 1
0 .
0 2
0 .
0 3
0 .
0 4
0 .
0 5
Chi-quadrado(30) versus N(30,2*30)
msdfm– p. 103/125
Erros de aproximação X ∼ χ230, Z ∼ N(30, 60)
u |fX(u)− fZ(u)|
6 0.00042
12 0.00235
18 0.000680
24 0.007090
30 0.000285
36 0.005415
42 0.001405
48 0.001093
54 0.000756
60 0.000228
u |FX(u)− FZ(u)|
6 0.00097
12 0.00867
18 0.01920
24 0.00869
30 0.03435
36 0.01121
42 0.01091
48 0.00976
54 0.00362
60 0.00087
msdfm– p. 104/125
Distribuições derivadas da Normal:
1. Distribuic¸a˜o F de Fisher.
Considere X e Y variáveis aleatórias independentes com
distribuições χ2m = G(1/2,m/2) e χ2n = G(1/2, n/2),
respectivamente.
Seja F a variável aleatória definida por:
F =
(
X
m
)
(
Y
n
) = ( n
m
)X
Y
.
Definic¸a˜o: A distribuição da variável aleatória F é chamada
distribuic¸a˜o F comm e n graus de liberdade e denotafa por Fm,n
msdfm
– p. 105/125
A densidade de uma distribuição Fm,n pode ser facilmante
encontrada. Pela Proposição 5, temos que
W =
X
Y
∼ β2(m/2, n/2),
ou seja
fW (w) =
1
β(m/2, n/2)
w(m/2)−1
(1 + w)(m/2)+(n/2)
1(0,∞)(w).
Sabemos que para todo a ∈ R,
faW (u) =
1
|a|fW (u/a) :
msdfm
– p. 106/125
Logo,como
F =
( n
m
)X
Y
=
( n
m
)
W
temos
fF (v) =
1(
n
m
)fW
(
v(
n
m
)
)
=
m
n
fW
(m
n
v
)
=
m
n
1
β(m/2, n/2)
(
m
n
v
)(m/2)−1
(
1 +
(
m
n
v
))(m/2)+(n/2) 1(0,∞)(v).
Exercı´cios: Use os resultados sobre a distribuicão β2 para calcular os momentos da distribuiçõ
Fm,n. Cuidado com possíveis restrições nos graus de liberdade.
msdfm
– p. 107/125
D
en
sid
ad
esF
m
,nx
f ( x )
0
1
2
3
4
0 . 1 0 . 2 0 . 3 0 . 4 0 . 5 0 . 6
F(3,4)
x
f ( x )
0
1
2
3
4
0 . 1 0 . 2 0 . 3 0 . 4 0 . 5 0 . 6
F(4,3)
x
f ( x )
0
1
2
3
4
5
0 . 0 0 . 1 0 . 2 0 . 3 0 . 4 0 . 5 0 . 6
F(5,6)
x
f ( x )
0
1
2
3
4
5
0 . 0 0 . 1 0 . 2 0 . 3 0 . 4 0 . 5 0 . 6
F(6,5)
m
sdfm
–
p.108/125
Densidades Fm,n
x
f ( x
)
0 2 4 6 8 10
0 .
0
0 .
2
0 .
4
0 .
6
F(10,5)
x
f ( x
)
0 2 4 6 8 10
0 .
0
0 .
2
0 .
4
0 .
6
F(10,10)
x
f ( x
)
0 1 2 3 4
0 .
0
0 .
2
0 .
4
0 .
6
F(5,10)
x
f ( x
)
0 1 2 3 4
0 .
0
0 .
2
0 .
4
0 .
6
0 .
8
F(10,30)
msdfm– p. 109/125
Distribuições derivadas da Normal:
1. Distribuic¸a˜o t de Student.
Considere Z eX variáveis aleatórias independentes com distribuiçõesN(0, 1) e χ2n,
respectivamente.
Seja T a variável aleatória definida por:
T =
Z√
X/n
.
Definic¸a˜o: A distribuição da variável aleatória T é chamada distribuic¸a˜o t de Student com n
graus de liberdade e denotafa por tn
Exercicio 1.: Use a técnica do jacobiano para mostrar que a densidade de T é dada por:
fT (t) =
1√
nπ
Γ((n+ 1)/2)
Γ(n/2)(
1 +
t2
n
)−(n+1)/2
.
Sugestão: Considere inicialmente a transformação:
T = Z√
X/n
U = X.
msdfm– p. 110/125
Seja n > 1, é fácil ver que
E(T ) = E
(
Z√
X/n
)
independeˆncia
= E(Z)E
(
1√
X/n
)
= 0.
Sabemos que
T 2 =
Z2
X/n
∼ F1,n, ou equivalentemente, T
2
n
=
Z2
X
∼ β2(1/2, n/2).
Pela Proposição 3,
E
(T 2
n
)
=
1/2
(n/2)− 1 , para (n/2) > 1.
Logo,
V ar(T ) = E(T 2) =
n
(n− 2) , para n > 2.
Exercicio 2.: Escreva fT para n = 1 e mostre que nesse caso E(|X|) não existe. Analogamente,
para n = 2, E(X2) não existe. msdfm
– p. 111/125
Outras distribuições:
Exercicio 2.: Escreva fT para n = 1 e mostre que nesse caso
E(|X|) não existe. Analogamente, para n = 2, E(X2) não
existe.
msdfm
– p. 112/125
Densidades tm,n
x
f ( x
)
-3 -2 -1 0 1 2 3
0 .
0 5
0 .
1 0
0 .
1 5
0 .
2 0
0 .
2 5
0 .
3 0
t(1)=Cauchy(0,1)
x
f ( x
)
-3 -2 -1 0 1 2 3
0 .
0 5
0 .
1 0
0 .
1 5
0 .
2 0
0 .
2 5
0 .
3 0
0 .
3 5
t(2)
x
f ( x
)
-3 -2 -1 0 1 2 3
0 .
1
0 .
2
0 .
3
t(5)
x
f ( x
)
-3 -2 -1 0 1 2 3
0 .
1
0 .
2
0 .
3
t(1) X t(2) X t(5)
msdfm– p. 113/125
Densidades tm,n
x
f ( x
)
-3 -2 -1 0 1 2 3
0 .
0
0 .
1
0 .
2
0 .
3
0 .
4
t(10)
x
f ( x
)
-3 -2 -1 0 1 2 3
0 .
0
0 .
1
0 .
2
0 .
3
0 .
4
t(20)
x
f ( x
)
-3 -2 -1 0 1 2 3
0 .
0
0 .
1
0 .
2
0 .
3
0 .
4
t(30)
x
f ( x
)
-3 -2 -1 0 1 2 3
0 .
0
0 .
1
0 .
2
0 .
3
0 .
4
t(10) X t(20) X t(30) X N(0,1)
msdfm– p. 114/125
Erro de aproximação para a densidade t30 pela da
N(0, 1)
x
f ( x
)
-3 -2 -1 0 1 2 3
0 .
0
0 .
1
0 .
2
0 .
3
0 .
4
t(30) X N(0,1)
x |fT (x)− fZ(x)|
-3.0 0.00235
-2.5 0.00353
-2.0 0.00286
-1.5 0.00056
-1.0 0.00398
-0.5 0.00419
0.0 0.00331
0.5 0.00419
1.0 0.00398
1.5 0.00056
2.0 0.00286
2.5 0.00353
3.0 0.00235
msdfm
– p. 115/125
Distribuição de Cauchy com parâmetros µ ∈ R e σ > 0
msdfm
– p. 116/125
Distribuição de Lognormal com parâmetros µ ∈ R e
σ2 > 0
msdfm
– p. 117/125
Distribuição normal multivariada
Nesta secc¸a˜o, por questo˜es de notac¸a˜o, vetores em Rn
(aleato´rios ou na˜o) sera˜o entendidos como vetores coluna.
Proposic¸a˜o 17. Seja ~X um vetor aleato´rio absolutamente
contı´nuo, de dimensa˜o n (n× 1) e com func¸a˜o densidade de
probabilidade f ~X . Defina o vetor aleato´rio
~Y = A ~X +~b,
onde A e´ uma matriz n× n e~b um vetor n× 1. Se A e´ na˜o
singular, enta˜o
f~Y (~y) =
1
|det(A)|f ~X(A
−1(~y −~b)).
msdfm
– p. 118/125
Demonstrac¸a˜o:
Pelo TMV, se a transformação ~y = g(~x) de Rn emRn é
invertível, ∂xi
∂yj
existe para i, j = 1, 2, . . . , n e o jacobiano da
transformação, J(~y) = det
(
∂xi
∂yj
)
i,j=1,2,...,n
, é não nulo, então
f~Y (~y) = f ~X(g
−1(~y))|J(~y)|
Na proposisão, é facil ver que:
g−1(~y) = A−1(~y −~b) e J(~y) = det(A−1) = 1
det(A)
.
Logo,
f~Y (~y) =
1
|det(A)|f ~X(A
−1(~y −~b)).
c.q.d
– p. 119/125
Definições, notações e observaões
(a) Se ~X′ = (X1, X2, . . . , Xn) é um vetor aleatório onde E(X2i ) <∞ para i = 1, 2, . . . , n,
definimos o vetor me´dia de ~X por
~µ ~X = E(
~X) =


E(X1)
E(X2)
.
.
.
E(Xn)


e matriz de covariancia de ~X por
Σ ~X =


Cov(X1, X1) Cov(X1, X2) · · · Cov(X1, Xn)
Cov(X2, X1) Cov(X2, X2) · · · Cov(X2, Xn)
.
.
.
.
.
.
.
.
.
.
.
.
Cov(Xn, X1) Cov(Xn, X2) · · · Cov(Xn, Xn)


msdfm
– p. 120/125
(b) Exercı´cio: Mostre que Σ ~X é simétrica e positiva definida.
(c) Para ~Y = A ~X +~b, como na Proposição 9, temos
Yi =
n∑
j=1
ai,jXj + bi, i = 1, 2, . . . n.
(c1)Exercı´cio: Mostre que
~µ~Y = E(
~Y ) = E(A ~X +~b) = A~µ ~X +
~b
(c2)Exercı´cio: Mostre que
Σ~Y = AΣ ~XA
′.
msdfm
– p. 121/125
Proposic¸a˜o 18. Se Z1, Z2, . . . , Zn sa˜o varia´veis aleato´rias
independentes e identicamente distribuidas N(0, 1) e
~Y = A~Z +~b
, onde A e´ uma matriz n× n na˜o singular e~b um vetor
n× 1,enta˜o
f~Y (~y) =
1
(2π)n/2|det(Σ~Y )|1/2
exp(−1/2(~y − ~µ~Y )′Σ−1~Y (~y − ~µ~Y )),
onde
~µ = ~b e Σ~Y = AA
′.
msdfm
– p. 122/125
Demonstrac¸a˜o: Seja ~Z′ = (Z1, Z2, . . . , Zn).
f~Z(~z)
independencia
=
n∏
i=1
fZi (zi) =
n∏
i=1
1√
2π
e−z
2
i /2 =
1
(2π)n/2
e−
∑n
i=1 z
2
i /2 =
1
(2π)n/2
e−~z
′~z/2.
Claramente (exercíıcio),
~y = A~z +~b =⇒ ~z = A−1(~y −~b) e J(~z) = A−1.
Pela Proposição 9,
f~Y (~y) =
1
|det(A)|f~Z(A
−1(~y −~b)) = 1
(2π)n/2|det(A)| e
−
(
A−1(~y−~b)
)
′
(
A−1(~y−~b)
)
/2 =
1
(2π)n/2|det(A)| e
−(~y−~b)′
(
A−1
)
′
(
A−1
)
(~y−~b)
)
/2 =
1
(2π)n/2|det(A)| e
−(~y−~b)′
(
AA′
)
−1
(~y−~b)/2
msdfm
– p. 123/125
Fazendo
~µY = b e Σ~Y = AA
′,
temos
A = Σ
1/2
~Y
, e |det(A)| = |det(Σ1/2
~Y
)| = |det(Σ~Y )|1/2.
Portanto,
f~Y (~y) =
1
(2π)n/2|det(Σ~Y )|1/2
exp(−1/2(~y − ~µ~Y )′Σ−1~Y (~y − ~µ~Y )).
c.q.d
Definic¸a˜o: Um vetor aleatório absolutamente contínuo com
função densidade de probabilidade dada na Proposição 10 acima
é dito ter uma distribuic¸a˜o normal multivariada com vetor
me´dia ~µ~Y e matriz de covariaˆncia Σ~Y . Notação: Nn(~µ~Y ,Σ~Y ).
msdfm
– p. 124/125
Exercı´cio. Mostre que no caso n = 2 a densidade de uma
distribuição normal bivariada se reduz a:
fY1,Y2 (y1, y2) =
1
2π(1− ρ2)(1/2) exp
(
− 1
2(1− ρ2)
((y1 − µ1
σ1
)2−2ρ(y1 − µ1
σ1
)(y2 − µ2
σ2
)
+
(y2 − µ2
σ2
)2))
,
onde
~µ~Y =

 µ1
µ2

 e ,Σ~Y =

 σ21 σ1σ2ρ
σ1σ2ρ σ22

 ,
σ21 = V ar(Y1), σ
2
2 = V ar(Y2) e ρ =
Cov(Y1, Y2)
σ1σ2
= Corr(Y1, Y2).
msdfm
– p. 125/125
	small Distribuic c~ao Uniforme em (a,b)null$(Xsim U(a,b))$.
	small UNIFORMES $(-2,2);(-1,2);(0,1)$nulle $(0,2.5)$
	small Distribuic c~ao Expon^encial com par^ametro $lambda >0$\ $(Xsim Exp(lambda ))$.
	small Densidades expon^enciais $lambda =0,5, 1, 2$.
	small Falta de mem'oria
	small Distribuic c~ao de Normal (ou Gaussiana)nullcom par^ametros $mu $ e $sigma ^2$ ($Xsim N(mu ,sigma ^2)$) 
	small Densidades Normais
	small 
	small 
	small Teorema de De Moivre-Laplace
	small Aproximac c~ao local da Binomial pela Normal.
	small Aproximac c~ao local da Binomial pela Normal.
	small Ap^endice:Formula de Stirling
	Ap^endice
	Ap^endice
	Ap^endice
	Ap^endice
	Ap^endice
	Ap^endice
	Ap^endice
	Ap^endice
	Ap^endice
	Ap^endice
	Ap^endice
	small De Moivre-Laplace, limite local
	small Ap^endice; Demonstrac c~ao do Teorema de De Moivre-Laplace
	small Func c~ao e distribuic c~ao Gama
	small Gr'afico da Func c~ao Gama
	small Propriedades relevantes
	small Demonstrac c~oes:
	small Outras propriedades
	small Distribuic c~ao Gama $G(nullu ,lambda )$
	small Func c~ao e distribuic c~oes do tipo Beta
	small Propriedades:
	small Distribuic c~ao BETA 1 $(nulleta _1(mu ,nullu ))$
	small Densidades beta 1
	small Densidades beta 1
	small Distribuic c~ao BETA 2 $(nulleta _2(mu ,nullu ))$
	small Densidades beta 2
	small Densidades beta 2
	small Relac c~oes
	small Distribuic c~oes derivadas da Normal:
	small Densidades $chi ^2_n$
	small Densidades $chi ^2_n$
	small Erros de aproximac c~ao $Xsim chi ^2_{30}, Zsim N(30,60)$
	small Distribuic c~oes derivadas da Normal:
	small Densidades F$_{m,n}$
	small Densidades F$_{m,n}$
	small Distribuic c~oes derivadas da Normal:
	small Outras distribuic c~oes:
	small Densidades $mathbf {t}_{m,n}$
	small Densidades $mathbf {t}_{m,n}$
	small Erro de aproximac c~ao para a densidade $t_{30}$ pelada $N(0,1)$
	small Distribuic c~ao de Cauchy com par^ametros $mu in mathbb {R}$ e $sigma >0$
	small Distribuic c~ao de Lognormal com par^ametros $mu in mathbb {R}$ e $sigma ^2>0$
	small Distribuic c~ao normal multivariada
	small Definic c~oes, notac c~oes e observa~oes

Continue navegando