Buscar

Mauro_ME310_cap1

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 100 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 100 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 100 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

2013
ME-310. PROBABILIDADE II
CÁPITULO 1: Revisão e complementos
Mauro S. de F. Marques
msdfm
– p. 1/100
Vetores aleatórios
Um vetor ~X = (X1, X2, . . . , Xn), onde cada coordenada Xi é
uma variável aleatória, é chamado um vetor aleato´rio.
Podemos também definir um vetor aleatório,
~X = (X1, X2, . . . , Xn),
como uma aplicação
~X : Ω 7→ Rn
ω ~X(ω) = (X1(ω), X2(ω), . . . , Xn(ω)),
onde para cada i,
[Xi ≤ x] ∈ F , ∀x ∈ R.
msdfm
– p. 2/100
Probabilisticamente um vetor aleatório estará
caracterizado se conhecermos a sua
func¸a˜o distribuic¸a˜o de probabilidade conjunta
definida por
F ~X : R
n 7→ R
~x F ~X(~x),
onde
F ~X(~x) ≡ FX1,X2,...,Xn(x1, x2, . . . , xn) =
= P (∩ni=1[Xi ≤ xi]) ≡ P (X1 ≤ x1, X2 ≤ x2, . . . , Xn ≤ xn).
msdfm
– p. 3/100
Uma função distribuição de probabilidade conjunta tem
propriedades análogas àquelas do caso univariado e a verificação
é deixada como exercício.
1. 0 ≤ F ~X(~x) ≤ 1
2. F ~X é não decrescente em cada coordenada.
3. F ~X é contínua a direita em cada coordenada.
4. limxi→−∞FX1,X2,...,Xn(x1, x2, . . . , xn) = 0, ∀i ∧
limxi→∞,i=1,2,...,nFX1,X2,...,Xn(x1, x2, . . . , xn) = 1.
msdfm
– p. 4/100
5. Adicionalmente, no caso multivariado, temos que, para todo
par de reais
(ai, bi), ai < bi, i = 1, 2, . . . , n,
△(1)a1,b1△
(2)
a2,b2
. . .△(n)an,bnFX1,X2,...,Xn (x1, x2, . . . , xn) ≥ 0,
onde
△(i)ai,big(y1, . . . , yi, . . . , yn) = g(y1, . . . , bi, . . . , yn)− g(y1, . . . , ai, . . . , yn).
No caso n = 2, a Propriedade 5 se reduz a (Exercício )
△(1)a1,b1△
(2)
a2,b2
FX1,X2 (x1, x2) =
FX1,X2 (b1, b2)− FX1,X2 (a1, b2)− FX1,X2 (b1, a2) + FX1,X2 (a1, a2) ≥ 0
e
△(1)a1,b1△
(2)
a2,b2
FX1,X2 (x1, x2) = P (a1 < X1 ≤ b1, a2 < X2 ≤ b2).
msdfm
– p. 5/100
Fato: Dado uma função G : Rn 7−→ R, satisfazendo
as condições 1,2,3,4 e 5, então G é a função de
distribuição conjunta de algum vetor aleatório, isto é,
G = FX1,X2,...,Xn,
para algum vetor aleatório X1, X2, . . . , Xn.
A demostração de tal fato está acima do nível aqui
desejado e será omitida!
X1, X2, . . . , Xn ←→ FX1,X2,...,Xn.
– p. 6/100
Dado um subvetor (Xi1 , Xi2 , . . . , Xin), do vetor aleatório
(X1, X2, . . . , Xn), a distribuição de probabilidade conjunta deste
subvetor, neste contexto, é chamada de distribuic¸a˜o conjunta
marginal de (Xi1 , Xi2 , . . . , Xik) pode ser obtida fazendo todas
as coordenadas que não são de interesse na distribuição conjunta
de X1, X2, . . . , Xn tenderem para +∞, isto é,
lim
xi→∞, i 6=i1,i2,...,ik
FX1,X2,...,Xn(x1, x2, . . . , xn) =
FXi1 ,Xi2 ,...,Xik (xi1 , xi2 , . . . , xik)
msdfm
– p. 7/100
Dizemos que as variáveis aleatórias (X1, X2, . . . , Xn)
são independentes se os eventos
[X1 ≤ x1], [X2 ≤ x2], . . . , [Xn ≤ xn] são
indapendentes para todo (x1, x2, . . . , xn) em Rn.
Exercicio: Mostre que (X1, X2, . . . , Xn) são
independentes, se e somente se
FX1,X2,...,Xn(x1, x2, . . . , xn) = FX1(x1)FX2(x2). · · · .FXn(xn)
para todo (x1, x2, . . . , xn) em Rn.
msdfm
– p. 8/100
Note que a condição no exercício anterior implica em
FXi1 ,Xi2 ,...,Xik (xi1 , xi2 , . . . , xik) = FXi1 (xi1)FXi2 (xi2) · · ·FXik (xik),
para todo (i1, i2, . . . , ik) ⊂ {1, 2, . . . , n}. Logo (Exercício):
(X1, X2, . . . , Xn) independentes⇐⇒ (Xi1 , Xi2 , . . . , Xik) independentes.
para todo (i1, i2, . . . , ik) ⊂ {1, 2, . . . , n}.
msdfm
– p. 9/100
Um vetor aleatório ~X = (X1, X2, . . . , Xn) (ou uma função
distribuição de probabilidade conjunta) é dito ser discreto se as
variáveis aleatórias X1, X2, . . . , Xn são todas discretas. Neste
caso, existe um conjunto contável
D ~X ⊂ DX1 ×DX2 × · · · ×DXn
tal que
P ( ~X ∈ D ~X) = P ({ω : ~X(ω) ∈ D ~X}) = 1;
e
FX1,X2,...,Xn (x1, x2, . . . , xn) =∑∑
· · ·
∑
y1≤x1,y2≤x2,...,yn≤xn
P (X1 = y1, X2 = y2, . . . , Xn = yn).
Note que o somatório está bem definido uma vez que
P (X1 = y1, X2 = y2, . . . , Xn = yn) = 0 para (y1, y2, . . . , yn) 6∈ D ~X .
msdfm
– p. 10/100
EXERC´ICIO:Mostre que um vetor
aleatório discreto é independente se e
somente se
P (X1 = x1, X2 = y2, . . . , Xn = xn) =
P (X1 = x1)P (X2 = x2) · · ·P (Xn = xn),
∀(x1, x2, . . . , xn).
msdfm
– p. 11/100
EXEMPLOS:
1.Consideremos uma urna com 3 bolas vermelhas, 4
bolas brancas e 5 bolas azuis. Suponhamos que 3
bolas sejam simultaneamente selecionadas ao acaso e
que o vetor aleatório (X, Y ) represente,
respectivamente, o número de bolas vermelhas e o
número de bolas brancas selecionadas.Então,
P (X = x, Y = y) =
(
3
x
)(
4
y
)(
5
3−x−y
)
(
12
3
) ,
para x = 0, 1, 2, 3; y = 0, 1, 2, 3, comx+ y ≤ 3.
msdfm
– p. 12/100
2. Seja (X,Y ) o vetor aleatório representando, respectivamente a soma e o máximo dos pontos
obtidos em dois lançamentos de um dado equilibrado. A função de probabilidade de (X,Y ) é
dada por
(x,y) 1 2 3 4 5 6 P(X=x)
2 1/36 0 0 0 0 0 1/36
3 0 2/36 0 0 0 0 2/36
4 0 1/36 2/36 0 0 0 3/36
5 0 0 2/36 2/36 0 0 4/36
6 0 0 1/36 2/36 2/36 0 5/36
7 0 0 0 2/36 2/36 2/36 6/36
8 0 0 0 1/36 2/36 2/36 5/36
9 0 0 0 0 2/36 2/36 4/36
10 0 0 0 0 1/36 2/36 3/36
11 0 0 0 0 0 2/36 2/36
12 0 0 0 0 0 1/36 1/36
P(Y=y) 1/36 3/36 5/36 7/36 9/36 11/36 1
msdfm
– p. 13/100
EXERC´ICIO: No Exemplo 2, X e Y são
variáveis aleatórias independentes?
msdfm
– p. 14/100
Um vetor aleatório ~X = (X1, X2, . . . , Xn) (ou uma função
distribuição de probabilidade conjunta) é dito ser absolutamnete
contı´nuo se
F ~X(~x) = FX1,X2,...,Xn(x1, x2, . . . , xn) =∫ x1
−∞
∫ x2
−∞
· · ·
∫ xn
−∞
fX1,X2,...,Xn(y1, y2, . . . , yn)dy1dy2 · · · dyn,
para alguma função
f ~X = fX1,X2,...,Xn : R
n 7→ R,
"não negativa". Uma tal função f ~X = fX1,X2,...,Xn é chamada
func¸a˜o densidade de probabilidade conjunta.
msdfm
– p. 15/100
Os seguinte fatos são importantes:
1)
1 = FX1,X2,...,Xn (+∞,+∞, . . . ,+∞) =
lim
x1→∞
lim
x2→∞
. . . lim
xn→∞
∫ x1
−∞
∫ x2
−∞
· · ·
∫ xn
−∞
fX1,X2,...,Xn (y1, y2, . . . , yn)dy1dy2 · · · dyn =
∫ +∞
−∞
∫ +∞
−∞
· · ·
∫ +∞
−∞
fX1,X2,...,Xn (y1, y2, . . . , yn)dy1dy2 · · · dyn
2) F ~X não muda se f ~X é modificada em um número
finito (ou mesmo contável) de pontos ~x. Portanto,
uma função densidade de probabilidade não é única.
msdfm
– p. 16/100
3)
P (a1 < X1 ≤ b1, a2 < X2 ≤ b2, . . . , an < Xn ≤ bn, ) =∫ b1
a1
∫ b2
a2
· · ·
∫ bn
an
fX1,X2,...,Xn (y1, y2, . . . , yn)dy1dy2 · · · dyn
4.Se FX1,X2,...,Xn(x1, x2, . . . , xn) é derivável em (x1, x2, . . . , xn),
então, pelo Terema Fundamental do Cálculo,
∂nFX1,X2,...,Xn(x1, x2, . . . , xn)
∂x1∂x2 · · · ∂xn = fX1,X2,...,Xn(x1, x2, . . . , xn).
5. (Elementar) Um vetor absolutamante continuo
X1, X2, . . . , Xn assume valores em um conjunto infinito não
enumerával.
msdfm
– p. 17/100
EXERC´ICIO:Mostre que um vetor
aleatório absolutamente contínuo é
independente se e somente se
fX1,X2,...,Xn(x1, x2, . . . , xn) =
fX1(x1)fX2(x2) · · · fXn(xn),
∀(x1, x2, . . . , xn).
msdfm
– p. 18/100
Funções de probabilidade e densidades marginais
Caso bidimensional absolutamennte contı´nuo:
FX,Y (x, y) =
∫ x
−∞
∫ y
−∞
fX,Y (u, v)dvdu.
Distribuição marginal de X
FX(x) = lim
y→∞
FX,Y (x, y) =
lim
y→∞
∫ x
−∞
∫ y
−∞
fX,Y (u, v)dvdu =
∫ x
−∞
∫ +∞
−∞
fX,Y (u, v)dvdu =
∫ x
−∞
(∫ +∞
−∞
fX,Y (u, v)dv
)
du =
∫ x
−∞
g(u)du
msdfm
– p. 19/100
FX(x) =
∫ x
−∞
g(u)du =⇒
X absolutamente cont´inua e
g(x) = fX(x) =
∫ +∞
−∞
fX,Y (u, v)dv
msdfm
– p. 20/100
Caso multivariado absolutamennte contı´nuo:
fXi1 ,Xi2 ,...,Xik (xi1 , xi2 , . . . , xik) =∫ +∞
−∞
(n−k)· · ·
∫ +∞
−∞
fX1,...,Xn(x1, , . . . , xn)dxj1dxj2 · · · dxjn−k ,jl 6= i1, i2, . . . ik, l = 1, 2, . . . , n− k.
(EXERC´ICIO!)
msdfm
– p. 21/100
Caso bidimensional discreto:
FX,Y (x, y) =
∑
u≤x
∑
v≤y
P (X = u, Y = v) =
∑
u≤x
∑
v≤y
pX,Y (u, v).
FX(x) = lim
y→∞FX,Y (x, y) = limy→∞
∑
u≤x
∑
v≤y
pX,Y (u, v) =
∑
u≤x
∑
v<∞
pX,Y (u, v) =
∑
u≤x
pX(u) =
∑
u≤x
P (X = u).
Caso multivariado discreto:
P (Xi1 = xi1 , Xi2 = xi2 , . . . , Xik = xik ) =
∑
xj1
(n−k)· · ·
∑
xjn−k
P (X1 = x1, . . . , Xn = xn),
jl 6= i1, i2, . . . ik, l = 1, 2, . . . , n− k.
(EXERC´ICIO!) msdfm
– p. 22/100
Exercício:
As funções abaixo podem ser funções bivariadas de distribuição
de probabilidade acumuladas de alguma variável aleatória?
Justifique!
(i) F (x, y) = (1− e−x)(1− e−y)1[0,∞)(x)1[0,∞)(y).
(ii) F (x, y) = (1− e−x−y)1[0,∞)(x)1[0,∞)(y).
(iii) F (x, y) =
(1− e−x − xe−y)1[0,y](x) + (1− e−y − ye−x)1[0,x](y).
(iv) F (x, y) =∫ x
−∞
∫ y
−∞
1
2π
√
1−ρ2
exp
(− 1
2(1−ρ2)(u
2 − 2ρuv + v2))dudv,
ρ2 < 1.
msdfm
– p. 23/100
Exemplos:
1. Considere um ponto escolhido ao acaso em um quadrado de
lado. Uma forma conveniente para representar o espaço amostral
é:
Ω = {(ω1, ω2) ∈ R2 : 0 < ω1 ≤ 1, 0 < ω1 ≤ 1}.
Defina
X(ω1, ω2) = min(ω1, ω2) e Y (ω1, ω2) = max(ω1, ω2).
Para encontrar a distribuição donjunta de (X, Y ),consideremos o
evento
[X ≤ x, Y ≤ y] =
{(ω1, ω2) ∈ Ω : min(ω1, ω2) ≤ x,max(ω1, ω2) ≤ y}
msdfm
– p. 24/100
1. Se x ≤ 0 ou y ≤ 0
[X ≤ x, Y ≤ y] = ∅
2. Se x ≥ y,
[X ≤ x, Y ≤ y] = [Y ≤ y]
3. Se x < 1 ≤ y,
[X ≤ x, Y ≤ y] = [X ≤ x]
4. Se 0 < x < y ≤ 1, é fácil ver graficamente que
[X ≤ x, Y ≤ y] = [0 < X < Y ≤ y] ∪ [Y > y]
5. Se x ≥ 1 e y ≥ 1,
[X ≤ x, Y ≤ y] = Ω
msdfm
– p. 25/100
Logo,
FX,Y (x, y) = P (X ≤ x, Y ≤ y) =


P (∅) se x ≤ 0 ou y ≤ 0
P (Y ≤ y) se 0 < y ≤ x
P (X ≤ x) se 0 < x < 1 ≤ y
P (0 < X ≤ Y ≤ y) + P (Y > y) se 0 < x < y ≤ 1
P (Ω) se x ≥ 1 e y ≥ 1
msdfm
– p. 26/100
Calculando as probabilidades necessárias temos:
(i) P (Y ≤ y) = P ({(ω1, ω2) ∈ Ω : max(ω1, ω2) ≤ y}) =
P ({(ω1, ω2) ∈ Ω : 0 < ω1 ≤ y, 0 < ω2 ≤ y}) = y2.
(ii) P (X ≤ x) = P ({(ω1, ω2) ∈ Ω : min(ω1, ω2) ≤ x}) =
1− P ({(ω1, ω2) ∈ Ω : min(ω1, ω2) > x}) =
1− P ({(ω1, ω2) ∈ Ω : ω1 > x, ω2 > x}) = 1− (1− x)2.
(iii) P (0 < X < Y ≤ y) =
P ({(ω1, ω2) ∈ Ω : x < min(ω1, ω2) ≤ max(ω1, ω2) ≤ y} =
P ({(ω1, ω2) ∈ Ω : x < ω1 ≤ y, x < ω2) ≤ y} = (y − x)2.
(iv) P (Y > y) = 1− P (Y ≤ y) = 1− y2.
msdfm
– p. 27/100
Obtemos então:
FX,Y (x, y) =

0 se x ≤ 0 ou y ≤ 0
y2 se 0 < y ≤ x
1− (1− x)2 = x(2− x) se 0 < x < 1 ≤ y
(y − x)2 + (1− y2) = 1− 2xy + x2 se 0 < x < y ≤ 1
1 se x ≥ 1 e y ≥ 1
msdfm
– p. 28/100
Exercício (trabalhoso, use um pouco de geometria ana-
lítiva em R2)
2. Considere o experimento aleatório onde um ponto ao acaso e
escolhido em um círculo de raio R , isto é,
Ω = {(u, v) : u2 + v2 ≤ R2}.
Defina
X((u, v)) =
√
u2 + v2; Y ((u, v)) = |u|+ |v| e Z((u, v)) = max(u, v).
(i) Encontre, seguindo a ordem abaixo,
(a) FX , FY e FZ
(b) FX,Y , FX,Z e FY,Z
(c) FX,Y,Z
(ii) X ,Y e Z são independentes?
(iii) X ,Y e Z são absolutamente contínuas?
msdfm
– p. 29/100
Transformações de Variáveis aleatr´ias
Considere X uma variável aleatória com distribuição
FX . Seja g : R 7→ R uma função tal que
Y = g(X) = g ◦X
é uma variável aleatória.
Note que:
Ω
X−→ R g−→ R
Portanto
Y = g(X) : Ω 7−→ R.
Pergunta: Qual á a distribuição da variável aleatória
Y ?
msdfm
– p. 30/100
FY (y) = P (Y ≤ y) = P ({ω : Y (ω) ≤ y}) =
P
({ω : g(X(ω)) ≤ y}) = P (g(X) ≤ y).
= P
({ω : X(ω) ∈ {x : g(x) ≤ y}}) =
P
(
X ∈ {x : g(x) ≤ y}) =

∑
{x:g(x)≤y}P (X = x) se X e´ discreto
∫
{x:g(x)≤y}fX(x)dx se X e´ abs. cont´inuo
msdfm
– p. 31/100
EXEMPLOS
1. Y = g(X) = X2.
FY (y) = P (Y ≤ y) = P (g(X) ≤ y) = P (X2 ≤ y) =
0 se y < 0P (−√y ≤ X ≤ √y) se y ≥ 0.
Se y ≥ 0,
FY (y) + P (−√y ≤ X ≤ √y) =
P ([X = −√y] ∪ [−√y < X ≤ √y)]) =
P (X = −√y) + P (−√y < X ≤ √y) =(
FX(−√y)− FX(−√y−)
)
+
(
FX(
√
y)− FX(−√y)
)
=
FX(
√
y)− FX(−√y−).
– p. 32/100
Assim,
Y = g(X) = X2 =⇒
FY (y) = P (Y ≤ y) =

0 se y < 0FX(√y)− FX(−√y−) se y ≥ 0.
No caso discreto, Y também discreto e:
FY (y) =
∑
x≤√y
P (X = x)−
∑
x<−√y
P (X = x)
e
P (Y = y) = P (X =
√
y) + P (X = −√y)
msdfm
– p. 33/100
No caso X absolutamente contínuo, Y também é
absolutamente contínuo e:
FY (y) = P (Y ≤ y) ={
0 se y < 0
FX(
√
y)− FX(−√y) se y ≥ 0.
=
{
0 se y < 0∫ √y
−√y fX(x)dx se y ≥ 0.
msdfm
– p. 34/100
Como
FY (y) = P (Y ≤ y) =

0 se y < 0FX(√y)− FX(−√y) se y ≥ 0,
se FX é diferenciável em
√
y e −√y, então FY é diferenciável
em y e
fY (y) =
dFY (y)
dy
=


0 se y < 0
d
(
FX (
√
y)−FX (−√y)
)
dy
se y ≥ 0,

0 se y < 0fX(√y)( 12√y )− fX(−√y)(− 12√y ) se y ≥ 0,
=
1
2
√
y
(
fX(
√
y) + fX(−√y)
)
1[0,∞)(y).
msdfm
– p. 35/100
EXERC´ICIO: Dado X ∼ FX , encontre FY quando
(i) Y = |X|.
(ii) Y =
√|X|.
(iii) Y = X3.
(iv) Y = sen(X) e X é absolutamente contínuo. Y é
absolutamente contínuo?
msdfm
– p. 36/100
Transformação afim
Dado X ∼ FX , qual é a distribuição de Y = aX + b,
onde a e b são números reais?
FY (y) = P (Y ≤ y) = P (aX + b ≤ y) = P (aX ≤ y − b) =

P (X ≥ y−b
a
) se a < 0
P (Ω) = 1 se y − b ≥ 0 e a = 0
P (∅) = 0 se y − b < 0 e a = 0
P (X ≤ y−b
a
) se a > 0
Para a 6= 0
FY (y) =

1− P (X <
y−b
a
) = 1− FX((y−ba )−) se a < 0
P (X ≤ y−b
a
) = FX(
y−b
a
) se a > 0
msdfm– p. 37/100
Y = aX + b, a 6= 0
Se FX é absolutamente contínua e diferenciável em
y−b
a :
FY (y) =
{
1− FX(y−ba ) se a < 0
FX(
y−b
a ) se a > 0
e
fY (y) =
dFY (y)
dy
=
{−fX(y−ba )1a se a < 0
fX(
y−b
a )
1
a se a > 0
,
Ou seja
fY (y) =
1
|a|fX
(y − b
a
)
msdfm
– p. 38/100
Seja Y = g(X) com g contínua e invertível.
FY (y) = P (Y ≤ y) = P (g(X) ≤ y) =
=
{
P (X ≤ g−1(y)) se g e´ crescente
P (X ≥ g−1(y)) se g e´ decrescente
=
{
P (X ≤ g−1(y)) se g e´ crescente
1− P (X < g−1(y)) se g e´ decrescente
=
{
FX(g
−1(y)) se g e´ crescente
1− FX(g−1(y)−) se g e´ decrescente
msdfm
– p. 39/100
Y = g(X) com g contínua,invertível e diferenciável
Se FX é absolutamente contínua e diferenciável em g−1(y):
FY (y) =

FX(g
−1(y)) se g e´ crescente
1− FX(g−1(y)) se g e´ decrescente
e
fY (y) =
dFY (y)
dy
=

fX(g
−1(y))dg
−1(y)
dy
se g e´ crescente
−fX(g−1(y))dg−1(y)dy se g e´ decrescente
ou
fY (y) =
∣∣∣dg−1(y)
dy
∣∣∣fX(g−1(y)) = 1∣∣dg(y)
dy
∣∣fX(g−1(y)).
msdfm
– p. 40/100
Exercı´cios:
1. Seja X uma variável aleatória com distribuição
FX(x) = (1− e−x)1(0,∞)(x). Encontre a distribuição de
Y = (1− e−X)1(0,∞)(X). Y é absolutamente contínua?
Em caso positivo, qual é a densidade de Y
2. Seja U uma variável aleatória com função densidade de
probabilidade dada por fU(u) = 1(0,1)(u). Encontre a
dsitribuição de Y = − ln(1− U).
3. Seja X uma variável aleatório com distribuição FX(x)
absolutamente contínua e invertível. Encontre a
distribuição de Y = F−1X (U).
4. Sejam U e FX(x) como nos exercícios 2 e 3. Encontre a
distribuição de Y = FX(X). Y tem uma função densidade
de probabilidade?
– p. 41/100
Transformações de vetores aleatórios
Considere ~X = (X1, X2, . . . , Xn) um vetor aleatório e uma
transformação g : Rn 7−→ R.Defina a variável aleatória Y por
Y = g( ~X) = g(X1, X2, . . . , Xn).
Dada distribuição conjunta de (X1, X2, . . . , Xn), FX1,X2,...,Xn ,
queremos obter a distribuição de Y, FY . Para tanto temos,
FY(y) = P (Y ≤ y) = P (g(X1, X2, . . . , Xn) ≤ y) =
P ((X1, X2, . . . , Xn) ∈ Ay),
onde
Ay = {(x1, x2, . . . , xn) ∈ Rn; g(x1, x2, . . . , xn) ≤ y} = g−1
[
(−∞, y]].
msdfm
– p. 42/100
Caso discreto:
Claro que (X1, X2, . . . , Xn) discreto implica em Y discreto,
logo, para D ~X um conjunto discreto tal que P ( ~X ∈ D ~X) = 1,
temos
P (Y = y) =
∑
(xm,1,xm,2,...,xm,n):
g((xm,1,xm,2,...,xm,n))=y
(xm,1,xm,2,...,xm,n)∈D ~X
P (X1 = xm,1, X2 = xm,2, . . . , Xn = xm,n)
Ou equivalentemente
FY (y) = P ( ~X ∈ Ay) = P ( ~X ∈ (Ay ∩D ~X) =
∑
(xm,1,xm,2,...,xm,n):
g((xm,1,xm,2,...,xm,n))≤y
(xm,1,xm,2,...,xm,n)∈D ~X
P (X1 = xm,1, X2 = xm,2, . . . , Xn = xm,n).
O problema agora, que pode ser trabalhoso, se resume
contagem! msdfm
– p. 43/100
Exemplos bivariados
Considere (X1, X2) um vetor aleatório com
distribuição FX1,X2. Seja g : R2 7→ R uma função tal
que
Y = g(X1, X2) = g ◦ (X1, X2)
é uma variável aleatória.
Note que:
Ω
(X1,X2)−→ R2 g−→ R
Portanto
Y = g(X1, X2) : Ω 7−→ R.
Pergunta: Qual é a distribuição da variável aleatória
Y ?
msdfm
– p. 44/100
FY (y) = P (Y ≤ y) = P ({ω : Y (ω) ≤ y}) =
P
({ω : g((X1, X2)(ω)) ≤ y}) = P (g(X1, X2) ≤ y).
= P
({ω : (X1, X2)(ω) ∈ {(x1, x2) : g(x1, x2) ≤ y}}) =
P
(
(X1, X2) ∈ {(x1, x2) : g(x1, x2) ≤ y}
)
=


∑
{(x1,x2):g(x1,x2)≤y}P (X1 = x1, X2 = x2) se (X1, X2) e´ discreto
∫
{(x1,x2):g(x1,x2)≤y}fX1,X2 (x1, x2)dx1dx2 se (X1, X2) e´ abs. cont´inuo
msdfm
– p. 45/100
Y = g(X1, X2) = X1 +X2
Caso discreto: Basta encontrar (P (Y = y) : y ∈ R).
P (X1 +X2 = y) =∑
{(x1,x2):x1+x2=y}
P (X1 = x1, X2 = x2) =∑
x2
P (X1 = y − x2, X2 = x2) =
msdfm
– p. 46/100
Y = g(X1, X2) = X1 +X2
Caso absolutamente contı´nuo:
FY (y) = P
(
(X1, X2) ∈ {(x1, x2) : x1 + x2 ≤ y}
)
=∫
{(x1,x2):x1+x2≤y}
fX1,X2(x1, x2)dx1dx2 =
∫ +∞
−∞
∫ −x1+y
−∞
fX1,X2(x1, x2)dx2dx1
Fazendo z = x1 + x2 na integral interna temos:∫ +∞
−∞
∫ +y
−∞
fX1,X2(x1, z − x1)dzdx1
msdfm
– p. 47/100
FY (y) =
∫ +∞
−∞
∫ +y
−∞
fX1,X2(x1, z − x1)dzdx1.
Como o integrando é não negativo podemos inverter a ordem de
integração obtendo:
FY (y) =
∫ +y
−∞
∫ +∞
−∞
fX1,X2(x1, z − x1)dx1dz =
∫ +y
−∞
(∫ +∞
−∞
fX1,X2(x1, z − x1)dx1
)
dz =
∫ +y
−∞
h(z)dz.
Logo, Y é absolutamente contínuo, isto é,
FY (y) =
∫ +y
−∞
fY (z)dz, onde fY (y) =
∫ +∞
−∞
fX1,X2(x1, y−x1)dx1
msdfm
– p. 48/100
Para Y = X1 +X2 temos no caso em que X1 e X2
são independentes que:
Caso discreto:
P (X1+X2 = y) =
∑
x2
P (X1 = y−x2)P (X2 = x2).
Caso absolutamente contı´nuo:
fY (y) =
∫ +∞
−∞
fX1(x1)fX2(y − x1)dx1
msdfm
– p. 49/100
Y = max(X1, X2)
FY (y) = P (Y ≤ y) = P (max(X1, X2) ≤ y) =
P (X1 ≤ y,X2 ≤ y) = FX1,X2(y, y).
Caso particular: X1 e X2 independentes e FX1 = FX2
FY (y) = FX1,X2(y, y) = FX1(y)FX2(y) =
(
FX1(y)
)2
.
Além disto, se FX1 é absolutamente contínua e
derivável em y, então
fY (y) =
dFY (y)
dy
= 2FX1(y)fX1(y).
msdfm
– p. 50/100
Y = g(X1, X2) = X1X2, (X1, X2) com densidade fX1,X2 .
Para y > 0,
FY (y) = P (Y ≤ y) = P (X1X2 ≤ y) =
∫ ∫
x1x2≤y
fX1,X2 (x1, x2)dx1dx2 =
ver gra´fico em R2
=
∫ 0
−∞
∫ ∞
y/x1
fX1,X2 (x1, x2)dx1dx2+
∫ ∞
0
∫ y/x1
−∞
fX1,X2 (x1, x2)dx1dx2 =
(fazendo z = x1x2, x2 = z/x1, dx2 = dz/x1, temos)
=
∫ 0
−∞
∫ ∞
y
fX1,X2 (x1, z/x1)
dz
x1
dx1 +
∫ ∞
0
∫ y
−∞
fX1,X2 (x1, z/x1)
dz
x1
dx1 =
∫ 0
−∞
∫ y
−∞
fX1,X2 (x1, z/x1)
dz
−x1
dx1 +
∫ ∞
0
∫ y
−∞
fX1,X2 (x1, z/x1)
dz
x1
dx1 =
∫ y
−∞
(∫ ∞
−∞
1
|x1|
fX1,X2 (x1, z/x1)dx1]
)
dz.
msdfm
– p. 51/100
Analogamente para y < 0 (Exercício).
Logo,se Y = X1X2, como
FY (y) =
∫ y
−∞
(∫ ∞
−∞
1
|x1|fX1,X2(x1, z/x1)dx1]
)
dz,
temos
fY (y) =
d
dy
FY (y) =
∫ ∞
−∞
1
|x|fX1,X2(x, y/x)dx.
Exercı´cio: Para (X1, X2) discreto, encontre P (X1X2 = y).
msdfm
– p. 52/100
Exercícios
Para (X1, X2) um vetor aleatório com distribuição
FX1,X2, encontre a distribuição de
1. Y = X1 −X2.
2. Y = X1/X2.
3. Y = min(X1, X2).
Detalhe os resultados acima para os casos discreto,
absolutamente contínuo e independente.
msdfm
– p. 53/100
Exemplos multivariados
SejaX1, X2, . . . , Xn variaáveis aleatórias independentes.
2. Defina Y = min(X1, X2, . . . , Xn).
FY (y) = P (Y ≤ y) = P (min(X1, X2, . . . , Xn) ≤ y) = P
( ∪ni=1 [Xi ≤ y]) =
1−P (∩ni=1 [Xi > y]) independeˆncia= 1−
n∏
i=1
P (Xi > y) = 1−
n∏
i=1
(
1−P (Xi ≤ y)
)
=
1− (
n∏
i=1
(
1− FXi (y)
)
.
Se FXi = FX , ∀i, então
FY (y) = 1− (
n∏
i=1
(
1− FXi (y)
)
= 1− (
n∏
i=1
(
1− FX(y)
)
= 1− (1− FX(y))n.
Se FX é absolutamente contínua , então FY é absolutamente contínua e
fY (y) =
d
dy
FY (y) = n
(
1− FX(y)
)n−1
fX(y).
msdfm
– p. 54/100
Defina Z = max(X1, X2, . . . , Xn).
FZ(y) = P (Z ≤ z) = P (max(X1, X2, . . . , Xn) ≤ z) = P
( ∩ni=1 [Xi ≤ z]) =
independeˆncia
=
n∏
i=1
P (Xi ≤ z) =
n∏
i=1
FXi (z).
Se FXi = FX , ∀i, então
FZ(z) =
n∏
i=1
FXi (z) =
n∏
i=1
FX(z) =
(
FX(z)
)n
Se FX é absolutamente contínua , então FZ é absolutamente contínua e
fZ(z) =
d
dz
FZ(z) = n
(
FX(z)
)n−1
fX(z).
msdfm
– p. 55/100
De vetor para vetor
Generalizando os casos anteriore, considere agora ~X = (X1, X2, . . . , Xn) um vetor aleatório e
uma transformação g : Rn 7−→ Rm.Defina o vetora aleatório
~Y = (Y1, Y2, . . . , Ym) = g( ~X) = g(X1, X2, . . . , Xn) =
(g1(X1, X2, . . . , Xn), g2(X1, X2, . . . , Xn), . . . , gm(X1, X2, . . . , Xn)).
Dada distribuição conjunta, FX1,X2,...,Xn , queremos obter a distribuição conjunta
FY1,Y2,...,Ym . A idéia permanece a mesma:
FY1,Y2,...,Ym (y1, y2, . . . , ym) = P (Y1 ≤ y1, , Y2 ≤ y2, . . . , Ym ≤ ym) =
P ((X1, X2, . . . , Xn) ∈ Ay1,y2,...,ym ),
onde
Ay1,y2,...,ym = g
−1[(−∞, y1)× · · · × (−∞, ym)]) =
{(x1, x2, . . . , xn) ∈ Rn; g1(x1, x2, . . . , xn) ≤ y1, . . . , gm(x1, x2, . . . , xn) ≤ ym}.
msdfm
– p. 56/100
Exemplo
ConsidereX1, X2, . . . , Xn variáveis aleatórias independentes. Defina
Y1 = min(X1, X2, . . . , Xn) e Y2 = max(X1, X2, . . . , Xn).
FY1,Y2 (y1, y2) = P (Y1 ≤ y1, Y2 ≤ y2) =
P (min(X1, X2, . . . , Xn) ≤ y1,max(X1, X2, . . . , Xn) ≤ y2) =
P
(( ∪ni=1 [Xi ≤ y1]) ∩ ( ∩nj=1 [Xj ≤ y2])) = P (A ∩B),
onde A = ∪ni=1[Xi ≤ y1] e B = ∩nj=1[Xj ≤ y2]. Como
B = (A ∩B) ∪ (Ac ∩B),
temos
P (A∩B) = P (B)−P (Ac∩B) = P
(
∩nj=1[Xj ≤ y2]
)
−P
((∩ni=1[Xi > y1])∩(∩nj=1[Xj ≤ y2])) =
= P
(
∩nj=1 [Xj ≤ y2]
)
− P
(
∩i ([y1 < Xi ≤ y2]
)
.
msdfm
– p. 57/100
Agora, para y1 < y2,
P
(
∩nj=1 [Xj ≤ y2]
)
ind.
=
n∏
j=1
P
(
Xj ≤ y2
)
=
n∏
j=1
FXj (y2).
P
(
∩ni=1 ([y1 < Xi ≤ y2]
)
ind.
=
n∏
i=1
P
(
y1 < Xi ≤ y2
)
=
n∏
i=1
(
FXi (y2)− FXi (y1)
)
.
Consequentemente
FY1,Y2(y1, y2) =
n∏
j=1
FXj(y2)−
n∏
i=1
(
FXi(y2)− FXi(y1)
)
.
msdfm
– p. 58/100
Se FXi = FX , ∀i,
FY1,Y2(y1, y2) =
(
FX(y2)
)n − (FX(y2)− FX(y1))n
Se FX é absolutamente contínua, FY1,Y2 é absolutamente
contínua e
fY1,Y2(y1, y2) =
∂2
∂y1∂y2
FY1,Y2(y1, y2) =
n(n− 1)(FX(y2)− FX(y1))n−2fX(y1)fX(y2).
Exercı´cio: O que acontece quando y2 ≤ y1?
msdfm
– p. 59/100
Técnica do jacobiano
Teorema de Mudanc¸a de Varia´veis (TMV): Sejam
A ⊂ Rn, B ⊂ Rn conjuntos abertos e seja g : Rn 7→ Rn, isto é,
g(x1, x2, . . . , xn) = (g1(x1, x2, . . . , xn), . . . , gn(x1, x2, . . . , xn)),
onde gi :: Rn 7→ R, i = 1, 2, . . . , n. Suponhamos que:
1. g é bijetora entre A e B, logo,
g−1(y1, y2, . . . , yn) = ((g−1)1(y1, y2, . . . , yn), . . . , (g−1)n(y1, y2, . . ., yn))
existe em B
2. As derivadas parciais ∂(g
−1)i
∂yj
= ∂xi
∂yj
existem para
i, j = 1, 2, . . . , n.
3. O jacobiano
J(~y) = J(y1, y2, . . . , yn) = det
(
∂(g−1)i
∂yj
)
i,j=1,2,...,n
seja não nulo.
msdfm
– p. 60/100
Então
∫
· · ·
∫
C
f(x1, . . . , xn)dx1 . . . dxn =
∫
· · ·
∫
g(C)
f((g−1)1(y1, . . . , yn), . . . , (g−1)n(y1, . . . , yn))|J(y1 . . . , yn)|dy1 . . . dyn
para toda função f : Rn 7→ R integrável em C ⊂ A, onde
g(C) = {((y1, . . . , yn) : (y1, . . . , yn) = g(x1, . . . , xn), (x1, . . . , xn) ∈ C}.a
msdfm
aA demosntrac¸a˜o deste resultado pode ser encontrada em bons textos
de ca´lculo
– p. 61/100
Teorema 1. SejamX1, X2, . . . , Xn varia´veis aleato´rias absolutamente contı´nuas com func¸a˜o
densidade de probabilidade conjunta fX1,X2,...,Xn e seja A ⊂ Rn um conjunto aberto tal que
P ((X1, X2, . . . , Xn) ∈ A) = 1. Sejam Y1, Y2, . . . , Yn varia´veis aleato´rias definidas por
Yi = gi(X1, X2, . . . , Xn), i = 1, 2, . . . n,
onde a func¸a˜o
g = (g1, g2, . . . , gn) : R
n 7→ Rn
satisfaz as condic¸o˜es do TMV. Enta˜o Y1, Y2, . . . , Yn sa˜o varia´veis aleato´rias absolutamente
contı´nuas com func¸a˜o densidade de probabilidade conjunta dada por
fY1,...,Yn (y1, . . . , yn) =
fX1,...,Xn (g
−1
1 (y1, . . . , yn), . . . , g
−1
n (y1, . . . , yn))|J(y1 . . . , yn)|1g(A)(y1, . . . , yn).
msdfm
– p. 62/100
Idéia da demonstração
FY1,...,Yn (y1, . . . , yn) = P (Y1 ≤ y1, . . . , Yn ≤ yn) =
P ((Y1, . . . , Yn) ∈ B) = P (g(X1, . . . , Xn) ∈ B) =
P ((X1, . . . , Xn) ∈ g−1(B)) = P ((X1, . . . , Xn) ∈ g−1(B) ∩A) =
P ((X1, . . . , Xn) ∈ C), onde B = (−∞, y1]× · · · × (−∞, yn].
FY1,...,Yn (y1, . . . , yn) =
∫
· · ·
∫
C
fX1,...,Xn (x1, . . . , xn)dx1 . . . dxn
TMV
=
∫
· · ·
∫
g(C)
fX1,...,Xn ((g
−1)1(z1, . . . , zn), . . . , (g−1)n(z1, . . . , zn))|J(z1 . . . , zn)|dz1 . . . dzn
∫
· · ·
∫
B∩g(A)
fX1,...,Xn ((g
−1)1(z1, . . . , zn), . . . , (g−1)n(z1, . . . , zn))|J(z1 . . . , zn)|dz1 . . . dzn
∫
· · ·
∫
B
fX1,...,Xn ((g
−1)1(z1, . . . , zn), . . . , (g−1)n(z1, . . . , zn))|J(z1 . . . , zn)|1g(A)(~z)dz1 . . . dzn
∫ y1
−∞
· · ·
∫ yn
−∞
fX1,...,Xn ((g
−1)1(z1, . . . , zn), . . . , (g−1)n(z1, . . . , zn))|J(~z)|1g(A)(~z)dz1 . . . dzn
msdfm
– p. 63/100
FY1,...,Yn (y1, . . . , yn) =∫ y1
−∞
· · ·
∫ yn
−∞
fX1,...,Xn (g
−1
1 (z1, . . . , zn), . . . , g
−1
n (z1, . . . , zn))|J(~z)|1g(A)(~z)dz1 . . . dzn,
temos que
fY1,...,Yn (y1, . . . , yn) =
fX1,...,Xn ((g
−1)1(y1, . . . , yn), . . . , (g−1n )1(y1, . . . , yn))|J(y1 . . . , yn)|1g(A)(y1, . . . , yn).
c.q.d
Exercı´cio optativo: Comente sobre os pontos obscuros na
demosntração.
msdfm
– p. 64/100
Exemplos:
1. Sejam X1, X2 e X3 variáveis aleatórias absolutamente
contínuas, independentes e identicamente distribuidas com
densidade
fXi (x) = e
−x1(0,∞)(x), i = 1, 2, 3.
Defina
Y1 =
X1
X1 +X2
, Y2 =
X1 +X2
X1 +X2 +X3
e Y3 = X1 +X2 +X3.
Queremos encontrar a distribuição de (Y1, Y2, Y3)
Como X1, X2 e X3 são independentes e identicamente
distribuidas
fX1,X2,X3 (x1, x2, x3) = fX1 (x1)fX2 (x2)fX3 (x3) =
e−x11(0,∞)(x1)e−x21(0,∞)(x2)e−x31(0,∞)(x3) =
e−(x1+x2+x3)1(0,∞)(x1)1(0,∞)(x2)1(0,∞)(x3).
Note que A = (0,∞)× (0,∞)× (0,∞).
msdfm– p. 65/100
Seja
g(x1, x2, x3) = (g1(x1, x2, x3), g2(x1, x2, x3), g3(x1, x2, x3)) =
(
x1
x1 + x2
,
x1 + x2
x1 + x2 + x3
, x1 + x2 + x3)


y1 =
x1
x1+x2
y2 =
x1+x2
x1+x2+x3
y3 = x1 + x2 + x3
⇐⇒


x1 = y1y2y3
x2 = (1− y1)y2y3
x3 = (1− y2)y3
Logo g−1 existe e é dada por
g−1(y1, y2, y3) = ((g−1)1(y1, y2, y3), (g−1)2(y1, y2, y3), (g−1)3(y1, y2, y3)) =
(y1y2y3, (1− y1)y2y3, (1− y2)y3)
msdfm
– p. 66/100
Calculando o jacobiano obtemos
J(y1, y2, y3) = det
(
∂(g−1)i(y1, y2, y3)
∂yj
)
=
det


y2y3 y1y3 y1y2
−y2y3 (1− y1)y3 (1− y1)Y2
0 −y3 1− y2

 = y2y23 6= 0.
Aplicando a técinica do jacobiano
fY1,Y2,Y3 (y1, y2, y3) =
fX1,X2,X3 ((g
−1)1(y1, y2, y3), (g−1)2(y1, y2, y3), (g−1)3(y1, y2, y3))|J(y1, y2, y3)| =
fX1,X2,X3 (y1y2y3, (1− y1)y2y3, (1− y2)y3)|y2y23 | =
y2y
2
3e
−y31(0,∞)(y1y2y3)1(0,∞)((1− y1)y2y3)1(0,∞)((1− y2)y3).
msdfm
– p. 67/100
Para encontrar B = g[A], como x1, x2 e x3são não negativos e a
transformação (x1, x2, x3)! (y1, y2, y3) é 1− 1,segue que
0 < gey1 =
x1
x1 + x2
< 1, 0 < y2 =
x1 + x2
x1 + x2 + x3
< 1, 0 < y3 = x1 + x2 + x3 <∞.
Logo
1(0,∞)(y1y2y3)1(0,∞)((1−y1)y2y3)1(0,∞)((1−y2)y3) = 1(0,1)(y1)1(0,1)(y2)1((0,∞)(y3).
e
fY1,Y2,Y3 (y1, y2, y3) = y2y
2
3e
−y31(0,1)(y1)1(0,1)(y2)1((0,∞)(y3).
Note que a tranformação g é tal que
A = (0,∞)× (0,∞)× (0,∞) g7→ (0, 1)× (0, 1)× (0,∞) = B = g[A].
Exercı´cio: Encontre fY1 , fY2 e fY3 . Y1, Y2 e Y3 são
independentes?
msdfm
– p. 68/100
2.Sejam X1 e X2 variáveis aleatórias absolutamente contínuas,
independentes e identicamente distribuidas com densidade
fXi (x) =
1
β − 11(1,β)(x), β > 1, i = 1, 2.
Defina
Y1 = X1X2, e Y2 = X2.
Queremos encontrar fY1,Y2 . Temos que
fX1,X2(x1, x2) =
1
(β − 1)21(1,β)(x1)1(1,β)(x2), β > 1,
onde A = (1, β)× (1, β). E
(y1, y2) = g(x1, x2) = (g1(x1, x2), g2(x1, x2)) = (x1x2, x2).
msdfm
– p. 69/100
{
y1 = x1x2
y2 = x2
⇐⇒
{
x1 =
y1
y2
x2 = y2
Logo g é invertível em A e
g−1(y1, y2) = ((g−1)1(y1, y2), (g−1)2(y1, y2)) =
(y1
y2
, y2
)
.
O jacobiano da transformação é edado por
J(y1, y2) = det
(
∂(g−1)i(y1, y2)
∂yj
)
= det

 1y2 − y1y22
0 1

 = 1
y2
6= 0.
msdfm
– p. 70/100
Pela técnica do jacobiano temos
fY1,Y2 (y1, y2) = fX1,X2 ((g
−1)1(y1, y2), (g−1)2(y1, y2))|J(y1, y2)|1g[A](y1, y2)| =
1
(β − 1)2y2
1(1,β)
(y1
y2
)
1(1,β)(y2).
Para explicitar g[A] observe que

1 < x1 =
y1
y2
< β
1 < x2 = y2 < β
⇐⇒

y2 < y1 < βy21 < y2 < β
msdfm
– p. 71/100
Graficamente: de A para B = g[A]
✻
x2
✲ x1
A
1 β
1
β g
 
✻
y2
✲ y1
B = g[A]
1 β
1
β
β2
■y2 = y1β
❘
y2 = y1
Logo
fY1,Y2(y1, y2) =
1
(β−1)2y21(y2,βy2)(y1)1(1,β)(y2).
Exercı´cio: Y1 e Y2 são independentes? Justifique!
Exercı´cio:Compare g[A] dos exemplos 1 e 2. Comente!
msdfm
– p. 72/100
Caso: g não invertível
Proposic¸a˜o 1. Considere um vetor aleato´rio absolutamente contı´nuo ~X = (X1, X2, . . . , Xn)
com densidade fX1,X2,...,Xn e uma transformac¸a˜o g : Rn 7→ Rn. Seja
RX = {~x = (x1, . . . , xn) : ~x = ~X(ω)} ⊂ ~X(Ω),
com P ( ~X ∈ RX) = 1 e tal que RX = ∪Mk=1Ak;Ak aberto; Ak ∩A′k k 6= k′. Para
k = 1, 2, . . .M defina
g(k) = (g
(k)
1 , g
(k)
2 , . . . , g
(k)
n ) : Ak 7−→ Rn
~x g(k)(~x) = g(~x)
isto e´, g(k) e´ a restric¸a˜o de g a Ak . Asumindo que cada g(k) satisfaz as condic¸o˜es do TVM e
definindo ~Y = (Y1, Y2, . . . , Yn) = g(X1, X2, . . . , Xn) = g( ~X) temos
fY1,...,Yn (y1, . . . , yn) = fY1,...,Yn (~y) =∑M
k=1 fX1,...,Xn
(
(g
(k)
1 )
−1(~y), . . . , (g(k)n )−1(~y)
)
|Jk(~y)|1g[Ak](~y).
onde
Jk(~y) = Jk(y1, . . . , yn) =
(
∂(g
(k)
i )
−1(y1, . . . , yn)
∂yj
)
i,j=1,2,...,n
.
msdfm
– p. 73/100
“Ide´ia da demonstrac¸a˜o”: Seja
B~y = [Y1 < y1, . . . , Yn < yn] e B~y = [Y1 ≤ y1, . . . , Yn ≤ yn].
FY1,...Yn (y1, . . . , yn) = P (Y1 ≤ y1, . . . , Yn ≤ yn) =
P
(
(X1, X2, . . . , Xn) ∈ g−1
[
B~y
])
= P
(
(X1, X2, . . . , Xn) ∈
(
g−1
[
B~y ]
) ∩RX) =
P
(
(X1, X2, . . . , Xn) ∈
(
g−1
[
B~y ]
) ∩ (∪Mk=1Ak)) =
M∑
k=1
P
(
(X1, X2, . . . , Xn) ∈
(
g−1
[
B~y ]
) ∩Ak) =
M∑
k=1
∫
. . .
∫
(g−1
[
B~y ]
)
∩Ak
fX1,...,Xn (x1, . . . , xn)dx1 . . . dxn
TMV
=
M∑
k=1
∫
. . .
∫
B~y∩(g(k)(Ak))
fX1,...,Xn
(
(g
(k)1 )
−1(~z), . . . , (g(k)n )−1(~z)
)
|Jk(~z)|dz1 . . . dzn.
msdfm
– p. 74/100
Ou seja,
FY1,...Yn (y1, . . . , yn) =
M∑
k=1
∫
. . .
∫
B~y∩(g(k)(Ak))
fX1,...,Xn
(
(g
(k)
1 )
−1(~z), . . . , (g(k)n )−1(~z)
)
|Jk(~z)|dz1 . . . dzn =
M∑
k=1
∫
. . .
∫
B~y
fX1,...,Xn
(
(g
(k)
1 )
−1(~z), . . . , (g(k)n )−1(~z)
)
|Jk(~z)|1g(Ak)(~y)dz1 . . . dzn.
∫ y1
−∞
. . .
∫ yn
−∞
(
M∑
k=1
fX1,...,Xn
(
(g
(k)
1 )
−1(~z), . . . , (g(k)n )−1(~z)
)
|Jk(~z)|1g(Ak)(~y)
)
dz1 . . . dzn.
Consequentemente,
fY1,...,Yn (y1, . . . , yn) =
∂n
∂y1 . . . ∂yn
FY1,...Yn (y1, . . . , yn) =
M∑
k=1
fX1,...,Xn
(
(g
(k)
1 )
−1(~y), . . . , (g(k)n )−1(~y)
)
|Jk(~y)|1g(Ak)(~y)
c.q.d
msdfm– p. 75/100
Exemplos:
1. ConsidereX ∼ fX e Y = X2. Temos então,
RX = (−∞, 0) ∪ (0,∞) = A1 ∪A2.
g(1) : (−∞, 0) 7→ R e g(2) : (0,∞) 7→ R
x g(1)(x) = x2 x g(2)(x) = x2
;
(g(1))−1(y) = −√y e (g(2))−1(y) = √y;
J1(y) = − 1
2
√
y
e J2(y) =
1
2
√
y
.
Pela Proposição 1,
fY (y) = fX((g
(1))−1(y))|J1(y)|1g(A1)(y) + fX((g(2))−1(y))|J2(y)|1g(A2)(y) =
fY (y) = fX(−√y)
∣∣∣− 1
2
√
y
∣∣∣1(0,∞)(y) + fX(√y)∣∣∣ 1
2
√
y
∣∣∣1(0,∞)(y) =
1
2
√
y
(fX(−√y) + fX(√y)1(0,∞)(y).
msdfm
– p. 76/100
2. SejamX1, X2 eX3 variáveis aleatórias absolutamante contínuas, independentes e
identicamente distribuidas com densidade fX , ou seja,
fX1,X2,X3 (x1, x2, x3) = fX(x1)fX(x2)fX(x3).
Seja
g : R3 7−→ R3.
definida por
g(x1, x2, x3) = ordenar(x1, x2, x3) = (y1, y2, y3),
isto é,
y1 = min(x1, x2, x3), y2 = (valor intermedia´rio)(x1, x2, x3) e y3 = max(x1, x2, x3).
Claramente, g não é invertível. Consider a seguinte decomposição de
RX1,X2,X3 = A1 ∪A2 ∪A3 ∪A4 ∪A5 ∪A6 ⊂ R3,
msdfm
– p. 77/100
onde
A1{(x1, x2, x3) ∈ R3 : x1 < x2 < x3}, A2{(x1, x2, x3) ∈ R3 : x1 < x3 < x2},
A3{(x1, x2, x3) ∈ R3 : x2 < x1 < x3}, A4{(x1, x2, x3) ∈ R3 : x2 < x3 < x1}
A5{(x1, x2, x3) ∈ R3 : x3 < x1 < x2} e A6{(x1, x2, x3) ∈ R3 : x3 < x2 < x1}.
Note que g(k), a restrição de g = ordenar a Ak satisfaz as consições do TMV para
k = 1, 2, 3, 4, 5, 6.. De fato
g(1)(x1, x2, x3) = (x1, x2, x3) = (y1, y2, y3), g
(2)(x1, x2, x3) = (x1, x3, x2) = (y1, y2, y3),
g(3)(x1, x2, x3) = (x2, x1, x3) = (y1, y2, y3), g
(4)(x1, x2, x3) = (x2, x3, x1) = (y1, y2, y3),
g(5)(x1, x2, x3) = (x3, x1, x2) = (y1, y2, y3) e g
(6)(x1, x2, x3) = (x3, x2, x1) = (y1, y2, y3)
e
−∞ < y1 < y2 < y3 < +∞.
msdfm
– p. 78/100
Com jacobianos
J1(y1, y2, y3) = det


1 0 0
0 1 0
0 0 1

 = 1, J2(y1, y2, y3) = det


1 0 0
0 0 1
0 1 0

 = −1,
J3(y1, y2, y3) = det


0 1 0
1 0 0
0 0 1

 = −1, J4(y1, y2, y3) = det


0 1 0
0 0 1
1 0 0

 = 1,
J5(y1, y2, y3) = det


0 0 1
1 0 0
0 1 0

 = 1, e J4(y1, y2, y3) = det


0 0 1
0 1 0
1 0 0

 = −1.
Logo
|Jk(y1, y2, y3)| = 1, para todo k.
msdfm
– p. 79/100
Aplicando a Proposição 1
fY1,Y2,Y3 (y1, y2, y3) =
6∑
k=1
fX1,X2,X3
(
(g(k))−1(y1, y2, y3)
)
|Jk(y1, y2, y3)1g(Ak)(y1, y2, y3) =
fX1,X2,X3 (y1, y2, y3)1(−∞,y2)(y1)1(−∞,y3)(y2)+
fX1,X2,X3 (y1, y3, y2)1(−∞,y2)(y1)1(−∞,y3)(y2)+
fX1,X2,X3 (y2, y1, y3)1(−∞,y2)(y1)1(−∞,y3)(y2)+
fX1,X2,X3 (y2, y3, y1)1(−∞,y2)(y1)1(−∞,y3)(y2)+
fX1,X2,X3 (y3, y1, y2)1(−∞,y2)(y1)1(−∞,y3)(y2)+
fX1,X2,X3 (y3, y2, y1)1(−∞,y2)(y1)1(−∞,y3)(y2) =
6 fX(y1)fX(y2)fX(y3)1(−∞,y2)(y1)1(−∞,y3)(y2) =
3! fX(y1)fX(y2)fX(y3)1(−∞,y2)(y1)1(−∞,y3)(y2)
msdfm
– p. 80/100
EXERCÍCIOS:
1. Encontre fY2 para o Exemplo 2.
2. Generalize o resultado do Exemplo 2 para o caso n dimensional. Isto é, paraX1, X2, . . . , Xn
variáveis aleatórias absolutamante contínuas, independentes e identicamente distribuidas com
densidade fX e
g : Rn 7−→ Rn.
definida por
g(x1, x2, . . . , xn) = ordenar(x1, x2, . . . , xn) = (y1, y2, . . . , yn),
Encontre fY1,Y2,...,Yn .
O vetor aleatório (Y1, Y2, . . . , Yn) = ordenar(X1, X2, . . . , Xn) é conhecido com estatı´stica
de ordem correspendente a amostra aleato´riaX1, X2, . . . , Xn e a coordenada Yk por
k-e´sima estatı´sticas de ordem. Na literatura a seguinte notação é usualmente utilizada
X(1) = Y1, X(2) = Y2, . . . , X(n) = Yn.
msdfm
– p. 81/100
3. Com relação ao exercício 2, encontre:
(i) fX(k) , k = 1, 2, . . . , n.
(ii) fX(j),X(k) , j, k = 1, 2, . . . , n : j < k.
4 SejamX1 eX2 variáveis aleatórias absolutamante contínuas, independentes e identicamente
distribuidas com densidade fX(x) = e−x1(0,∞)(x). Encontre a função densidade de
probabilidade conjunta de
Y1 = 2X1 +X2 e Y2 = X1 − 3X2.
5 SejamX1 eX2 variáveis aleatórias absolutamante contínuas, independentes e identicamente
distribuidas com distribuiçãoN(0, 1)
(i) Encontre a função densidade de probabilidade conjunta de
Y1 = aX1 + bX2 e Y2 = cX1 + dX2.
(ii) Encontre a função densidade de probabilidade
Y1 = aX1 + bX2.
msdfm
– p. 82/100
Desigualdades
Nesta secção mostraremos algumas desigualdades envolvendo
momentos de variáveis aleatórias.
Proposic¸a˜o 2. (Desigualdade ba´sica) Seja X uma varia´vel
aleato´ria na˜o-negativa. Enta˜o
∀ǫ > 0, P (X > ǫ) ≤ E(X)
ǫ
.
Demonstrac¸a˜o: Se E(X) não é finita, a desiguladade é trivial,
caso contrário
∀ǫ > 0, E(X) = E(X1Ω) = E
(
X(1(−∞,ǫ](X) + 1(ǫ,∞)(X))
)
=
E
(
X1(−∞,ǫ](X)
)
+ E
(
X1(ǫ,∞)(X)
) ≥ E(X1(ǫ,∞)(X)) ≥
E
(
ǫ1(ǫ,∞)(X)
)
= ǫE
(
1(ǫ,∞)(X)
)
= ǫP (X > ǫ).
c.q.d
msdfm
– p. 83/100
Colora´rio 1. (Desigualdade de Markov) Para toda varia´vel
aleato´ria X ,
∀ǫ > 0, ∀α > 0, P (|X| > ǫ) ≤ E(|X|
α)
ǫα
.
Demonstrac¸a˜o: Como
|X| > ǫ ⇐⇒ |X|α > ǫα,
a demosntração é uma conseqüência imediata da Desigualdade
Básica aplicada à variável aleatória não-negativa |X|k. De fato
∀ǫ > 0, P (|X| > ǫ) = P (X|kα > ǫα) ≤ E(|X|
α)
ǫα
.
c.q.d
msdfm
– p. 84/100
Colora´rio 2. (Desigualdade de Chebyshev) Seja X uma
varia´vel aleato´ria com segundo momento finito,
∀ǫ > 0, P (|X − E(X)| > ǫ) ≤ V ar(X)
ǫ2
.
Demonstrac¸a˜o: Como
|X − E(X)| > ǫ ⇐⇒ (X − E(X))2 > ǫ2,
pela Desigualdede Básica (ou pela Desigualdade de Markov),
∀ǫ > 0, P (|X − E(X)| > ǫ) = P ((X − E(X))2 > ǫ2) ≤
E((X − E(X))2)
ǫ2
=
V ar(X)
ǫ2
.
c.q.d
msdfm
– p. 85/100
Uma primeira aplicação interessante da Desigualdade
de Chebyshev é a seguinte: para toda variável
aleatória com segundo momento finito, com média µ
e desvio padrão σ,
P (|x− µ| > kσ) ≤ V ar(X)
k2σ2
=
σ2
k2σ2
=
1
k2
.
Em outras palavras, se E(X2) é finito, então,
independente da distribuição, 1/k é uma cota superior
para a massa de probabilidade fora do intervalo
[µ− kσ, µ+ kσ].
msdfm
– p. 86/100
Outra aplicação, talves a mais importante, da Desigualdade de Chebyshev é a seguinte:
Considere sucessivas repetições independentes de um experimento aleatória E e A um evento
associado a esse experimento. Seja ϕn(A) o número de ocorrências do evento A nas n primeiras
realizações do experimento E . Sabemos que ϕn(A) tem distirbuição binomial com parâmetros n
e P (A), logo a freqüência relativa de ocorrências do evento A n primeiras realizações do
experimento E , ϕn(A)/n, tem valor esperado P (A) e variância P (A)(1− P (A))/n. Segue
pela Desigualdade de Chebyshev que
P
(∣∣∣ϕn(A)
n
− P (A)
∣∣∣ > ǫ) ≤ P (A)(1− P (A))/n
ǫ2
≤ 1
4nǫ2
.
Ou seja, quando n cresce, a probabilidade da freqüência relativa de ocorrências do evento A
distar da probabilidade de A por uma magnitude maior que ǫ, converge a zero.
Esse resultado nos fornece uma intrepretac¸a˜o rigorosa do significado no nu´mero P (A).
msdfm
– p. 87/100
A aplicação do ´´slide” anterior pode ser generalizada emuma
importante versão do resultado, a ser estudado detalhadamente
no Capítulo 4, conhecido com Lei Fraca dos Grandes Numeros.
Para tanto, consideremos X1, X2, ..., Xn variáveis aleatórias
independentes, todas com média µ e variância σ2. Seja X¯n, a
média amostral, isto é,
X¯n =
∑n
i=1Xi
n
.
Temos então que
E
(
X¯n) = E
(∑n
i=1Xi
n
)
=
1
n
n∑
i=1
E(Xi) =
1
n
n∑
i=1
µ =
nµ
n
= µ.
e
V ar(X¯n) = V ar
(∑n
i=1Xi
n
)
=
1
n2
n∑
i=1
V ar(Xi) =
1
n2
n∑
i=1
σ2 =
nσ2
n2
=
σ2
n
.
msdfm
– p. 88/100
Como
E
(
X¯n) = µ ∧ V ar(X¯n) = σ
2
n
,
Segue pela Desigualdade de Chebyshev que
P (|X¯n − E(X¯n)| > ǫ) = P (|X¯n − µ| > ǫ
)
≤
V ar(X¯n)
ǫ2
≤ σ
2/n
ǫ2
=
σ2
nǫ2
.
Ou seja, quando n cresce, a probabilidade da média amostral X¯n
distar da média populacional µ por uma magnitude maior que ǫ,
converge a zero.
id
– p. 89/100
Inicialmente vamos recordar que uma funcão h : R→ R é dita
ser convexa se
∀ǫ ∈ [0, 1], ∀x, y ∈ R, h(ǫx+ (1− ǫ)y) ≤ ǫh(x) + (1− ǫ)h(y).
Sabemos que uma função convexa é diferenciável em um
intervalo.
Para h convexa, considere
y = h(x0) + λ(x− x0)
a reta tangente a curva
(x, h(x)), x ∈ R
no ponto (xo, h(x0)). Com h é convexa, é fácil ver que
∀x ∈ R, h(x) ≥ h(x0) + λ(x− x0).
id
– p. 90/100
Como os resultados do em mente podemos demonstrar a seguinte desigualdade
Proposic¸a˜o 3. Seja h uma func¸ao convexa. Se as varia´veis aleato´riasX e h(X) teˆm esperanc¸as
finitas, enta˜o
E
(
h(X)
) ≥ h(E(X)).
Demonstrac¸a˜o: Pelo resultado no ´´slide” anterior
∀x ∈ R, h(x) ≥ h(x0) + λ(x− x0).
Logo
h(X) ≥ h(x0) + λ(X − x0).
Portanto
E
(
h(X)
) ≥ h(x0) + λ(E(X)− x0),
e o resultado estará demonstrado tomando x0 igual E(X), pois
E
(
h(X)
) ≥ h(E(X))+ λ(E(X)− E(X)) = h(E(X))
c.q.d
id
– p. 91/100
Como um corolário do resulatado anterior temos a
seguinte desigualdade:
Colora´rio 3. Seja X uma varia´vel aleato´ria, tal que,
para β um nu´mero real positivo,
E
(|X|β) <∞.
Enta˜o
∀α ∈ R, 0 < α ≥ β,
(
E
(|X|α))1/α ≤ (E(|X|β))1/β.
msdfm
– p. 92/100
Demonstrac¸a˜o:
0 < α ≤ β ⇒ β
α
≥ 1.
logo
h(x) = |x| βα
é convexa. Pela Desigualdade de Jensen aplicada a
Y = |X|α,
E(h(Y )) ≥ h(E(Y ))⇒ E(|Y | βα ) ≥ ∣∣∣E(Y )∣∣∣ βα ⇒
E
(∣∣|X|α∣∣ βα ) ≥ ∣∣∣E(|X|α)∣∣∣ βα ⇒ E(|X|β) ≥ (E(|X|α)) βα ⇒
(
E
(|X|β)) 1β ≥ (E(|X|α)) 1α .
c.q.d
msdfm
– p. 93/100
As próximas desigualdades envolvem produtos de variáveis
aleatorias e a relação entre esses e a associação linear entre as
variáveis consideradas.
Proposic¸a˜o 4. (Desiguladade de Cauchy-Schwarz,caso particular) SejamX e Y varia´veis
aleato´rias tais que
E(X2) = E(Y 2) = 1.
Enta˜o
E(XY ) <∞
e ∣∣E(XY )∣∣ ≤ E(|XY |) ≤ 1,
com igualdade se e somente se


P (Y = +X) = 1 E(XY ) = 1
P (Y = −X) = 1 E(XY ) = −1.
– p. 94/100
Demonstrac¸a˜o:
0 ≤ (|X| − |Y |)2 = X2 + Y 2 − 2|X||Y | ⇒
0 ≤ E(X2 + Y 2 − 2|X||Y |) = E(X2) + E(Y 2)− 2E(|X||Y |) =
1 + 1− 2E(|XY |) = 2− 2E(|XY |) ⇒ E(|XY |) ≤ 1.
Isso também mostra que ∣∣E(XY )∣∣ ≤ E(|XY |) ≤ 1 <∞.
Resta mostra o que ocorre quando temos igualdade.
E(XY ) = ±1⇒
E
(
(X ± Y )2) = E(X2) + E(Y 2)± 2E(XY ) = 1 + 1± 2⇒


E
(
(X − Y )2) = 0 E(XY ) = 1
E
(
(X + Y )2
)
= 0 E(XY ) = −1
⇒


P (Y = +X) = 1 E(XY ) = 1
P (Y = −X) = 1 E(XY ) = −1
.
c.q.d
msdfm
– p. 95/100
Proposic¸a˜o 5. (Desiguladade de Cauchy-Schwarz(Caso Geral)) SejamX e Y varia´veis
aleato´rias com segundo momento finito. Enta˜o
E(XY ) <∞
e ∣∣E(XY )∣∣ ≤ E(|XY |) ≤√E(X2)E(Y 2),
com igualdade se e somente se


P
(
Y = +
√
E(Y 2)√
E(X2)
X
)
= 1 E(XY ) =
√
E(X2)E(Y 2)
P
(
Y = −
√
E(Y 2)√
E(X2)
X
)
= 1 E(XY ) = −
√
E(X2)E(Y 2).
msdfm
– p. 96/100
Demonstrac¸a˜o: Defina
X˜ = X
/√
E(X2) ∧ Y˜ = Y
/√
E(Y 2).
Como
E(X˜2) = E
(
X2
E(X2)
)
=
E(X2)
E(X2)
= 1 ∧ E(Y˜ 2) = E
(
Y 2
E(Y 2)
)
=
E(Y 2)
E(Y 2)
= 1,
pela Proposição 4, segue que
∣∣E(X˜Y˜ )∣∣ ≤ E(|X˜Y˜ |) ≤ 1 ∧ ∣∣E(X˜Y˜ )∣∣ = 1⇔


P (Y˜ = +X˜) = 1 E(X˜Y˜ ) = +1
P (Y˜ = −X˜) = 1 E(X˜Y˜ ) = −1
.
msdfm
– p. 97/100
Ou seja ∣∣∣∣∣E
(
X√
E(X2)
Y√
E(Y 2)
)∣∣∣∣∣ ≤ E
(∣∣∣∣∣ X√E(X2)
Y√
E(Y 2)
∣∣∣∣∣
)
≤ 1
e ∣∣∣∣∣E
(
X√
E(X2)
Y√
E(Y 2)
)∣∣∣∣∣ = 1⇔


P
(
Y√
E(Y 2)
= + X√
E(X2)
)
= 1 E
(
X√
E(X2)
Y√
E(Y 2)
)
= +1
P
(
Y√
E(Y 2)
= − X√
E(X2)
)
= 1 E
(
X√
E(X2)
Y√
E(Y 2)
)
= −1.
msdfm
– p. 98/100
Reescrevendo, obtemos
|E(XY )| ≤ E(|XY |) ≤
√
E(X2)E(Y 2)
e
|E(XY )| = 1⇔


P
(
Y = +
√
E(Y 2)√
E(X2)
X
)
= 1 E(XY ) = +
√
E(X2)E(Y 2)
P
(
Y = +
√
E(Y 2)√
E(X2)
X
)
= 1 E(XY ) = −
√
E(X2)E(Y 2).
c.q.d
msdfm
– p. 99/100
Lucas Machado
Nota
Y = -
Colora´rio 4. (IMPORTANTE) SejamX e Y varia´veis aleato´rias com segundo momento finito.
Enta˜o
|ρ(X,Y )| =
∣∣∣∣∣ Cov(X,Y )√V ar(X)V ar(Y )
∣∣∣∣∣ ≤ 1
e
|ρ(X,Y )| = 1 ⇔ P (Y = aX + b) = 1,
onde
a =


+
V ar(Y )
V ar(X)
ρ(X,Y )| = 1
− V ar(Y )
V ar(X)
ρ(X,Y )| = −1
∧ b = E(Y )− V ar(Y )
V ar(X)
E(X)
Demonstrac¸a˜o: EXERCÍCIO.
Observe que o coeficiente de correlação ρ(X, Y ) é uma medida
de associação LINEAR entre X e Y , sendo −1 associacão linear
exata negativa, 0 ausência de associação e 1 associacão linear
exata positiva.
msdfm
– p. 100/100
	small Vetores aleat'orios
	small EXEMPLOS:
	small Func c~oes de probabilidade e densidades marginais
	small Exerc'{i }cio:
	small Exemplos:
	small Exerc'{i }cio (trabalhoso, use um pouco de geometria anal'{i }tiva em $mathbb {R}^2$)
	small Transformac c~oes de Vari'aveis aleat'rias
	small EXEMPLOS
	small Transformac c~ao afim
	small $Y=aX+b, anulle 0$
	small $Y=g(X)$nullcom $g$ cont'{i }nua,invert'{i }vel e diferenci'avel
	small nullf Exerc'{i }cios:
	small Transformac c~oes de vetores aleat'orios
	small Exemplos bivariados
	small $Y=g(X_1,X_2)=X_1+X_2$
	small Exerc'{i }cios
	small Exemplos multivariados
	small De vetor para vetor
	small Exemplo
	small T'ecnica do jacobiano
	small Id'eia da demonstrac c~ao
	small Exemplos:
	small Graficamente: de $A$ para $B=g[A]$
	small Caso: $g$ n~ao invert'{i }vel
	small Exemplos:
	small EXERC'ICIOS:
	Desigualdades

Outros materiais