Buscar

Processos Estocásticos e Teoria da Probabilidade

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 39 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 39 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 39 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

PROCESSOS ESTOCA´STICOS
Prof. Daniel Branda˜o
2010
Suma´rio
1 Teoria da Probabilidade 4
1.1 Espac¸o Amostral e Eventos . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 A Noc¸a˜o e os Aximas da Probabilidade . . . . . . . . . . . . . . . . . . . . 5
1.2.1 Definic¸a˜o da Frequeˆncia Relativa . . . . . . . . . . . . . . . . . . . 5
1.2.2 Definic¸a˜o Axioma´tica . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.3 Propriedades Elementares da Probabilidade . . . . . . . . . . . . . 6
1.3 Eventos Igualmente Prova´veis . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Espac¸o Amostral Finito . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Eventos Igualmente Prova´veis . . . . . . . . . . . . . . . . . . . . . 6
1.4 Probabilidade Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.2 Regra de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Probabilidade Total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Eventos independentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2 Varia´veis Aleato´rias 9
2.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Varia´veis Aleato´rias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.2 Eventos Definidos por Varia´veis Aleato´rias . . . . . . . . . . . . . . 10
2.3 Func¸a˜o de Distribuic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3.2 Propriedades da FX(x) . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3.3 Determinac¸a˜o de Probabilidades pela Func¸a˜o de Distribuic¸a˜o . . . . 10
2.4 Varia´veis Aleato´rias Discretas e fmp . . . . . . . . . . . . . . . . . . . . . . 11
2.4.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4.2 Func¸a˜o Massa de Probabilidade . . . . . . . . . . . . . . . . . . . . 11
2.4.3 Propriedades da pX(x) . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.5 Varia´veis Aleato´rias Cont´ınuas e fdp . . . . . . . . . . . . . . . . . . . . . 11
2.5.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.5.2 Func¸a˜o Densidade de Probabilidade . . . . . . . . . . . . . . . . . . 12
2.5.3 Propriedades de fX(x) . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.6 Me´dia e Variaˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.6.1 Me´dia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.6.2 Momento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.6.3 Variaˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.7 Algumas Distribuic¸o˜es Especiais . . . . . . . . . . . . . . . . . . . . . . . . 13
2.7.1 Distribuic¸a˜o Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . 13
1
2.7.2 Distribuic¸a˜o Binomial . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.7.3 Distribuic¸a˜o de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.7.4 Distribuic¸a˜o Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.7.5 Distribuic¸a˜o Exponencial . . . . . . . . . . . . . . . . . . . . . . . . 15
2.7.6 Distribuic¸a˜o Normal (ou Gaussiana) . . . . . . . . . . . . . . . . . 16
2.8 Distribuic¸a˜o Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.9 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3 Varia´veis Aleato´rias Multidimensionais 20
3.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.2 Varia´veis Aleato´rias Bidimensionais . . . . . . . . . . . . . . . . . . . . . . 20
3.2.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3 Func¸a˜o de Distribuic¸a˜o Conjunta . . . . . . . . . . . . . . . . . . . . . . . 21
3.3.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3.2 Propriedades de FXY (x, y) . . . . . . . . . . . . . . . . . . . . . . . 21
3.3.3 Func¸a˜o de Distribuic¸a˜o Marginal . . . . . . . . . . . . . . . . . . . 22
3.4 V.A. Discreta - FMP Conjunta . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4.1 FMP Conjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4.2 Propriedades de pXY (xi, yj) . . . . . . . . . . . . . . . . . . . . . . 22
3.4.3 FMP Marginal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.4.4 Varia´veis Aleato´rias Independentes . . . . . . . . . . . . . . . . . . 23
3.5 Varia´veis Aleato´rias Cont´ınuas - FDP Conjunta . . . . . . . . . . . . . . . 24
3.5.1 Func¸a˜o Densidade de Probabilidade Conjunta . . . . . . . . . . . . 24
3.5.2 Propriedades de fXY (x, y) . . . . . . . . . . . . . . . . . . . . . . . 24
3.5.3 FDP Marginal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.5.4 Varia´veis Aleato´rias Independentes . . . . . . . . . . . . . . . . . . 25
3.6 Distribuic¸o˜es Condicionais . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.6.1 Func¸a˜o Massa de Probabilidade Condicional . . . . . . . . . . . . . 25
3.6.2 Propriedades de pY |X(yj|xi) . . . . . . . . . . . . . . . . . . . . . . 26
3.6.3 Func¸a˜o Densidade de Probabilidade Condicional . . . . . . . . . . . 26
3.6.4 Propriedades de fY |X(x|y) . . . . . . . . . . . . . . . . . . . . . . . 26
3.7 Coeficientes de Covariaˆncia e Correlac¸a˜o . . . . . . . . . . . . . . . . . . . 27
3.8 Me´dia e Variaˆncia Condicionais . . . . . . . . . . . . . . . . . . . . . . . . 29
3.9 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4 Func¸a˜o de uma Varia´vel Aleato´ria 32
4.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.2 Func¸o˜es de Uma Varia´vel Aleato´ria . . . . . . . . . . . . . . . . . . . . . . 32
4.2.1 Varia´vel Aleato´ria g(X) . . . . . . . . . . . . . . . . . . . . . . . . 32
4.2.2 Determinac¸a˜o de fY (y) por fX(x) . . . . . . . . . . . . . . . . . . . 32
4.3 Func¸a˜o de Duas Varia´veis Aleato´rias . . . . . . . . . . . . . . . . . . . . . 33
4.3.1 Um Func¸a˜o de Duas Varia´veis Aleato´rias . . . . . . . . . . . . . . . 33
4.3.2 Duas Func¸o˜es de Duas Varia´veis Aleato´rias . . . . . . . . . . . . . . 33
4.3.3 Determinando fZW (z, w) por fXY (x, y) . . . . . . . . . . . . . . . . 34
4.4 Esperanc¸a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.4.1 Esperanc¸a de uma Func¸a˜o de Uma Varia´vel Aleato´ria . . . . . . . . 35
4.4.2 Esperanc¸a de uma Func¸a˜o de Mais de Uma Varia´vel Aleato´ria . . . 35
4.4.3 Propriedade de Linearidade da Esperanc¸a . . . . . . . . . . . . . . 35
4.4.4 Esperanc¸a Condicional com uma Varia´vel Aleato´ria . . . . . . . . . 35
2
4.5 Func¸o˜es Geradoras de Momento . . . . . . . . . . . . . . . . . . . . . . . . 36
4.5.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.5.2 Func¸a˜o Geradora de Momento Conjunta . . . . . . . . . . . . . . . 36
4.6 Func¸a˜o Caracter´ıstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.6.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.6.2 Func¸o˜es Caracter´ısticas Conjuntas . . . . . . . . . . . . . . . . . . . 37
3
Cap´ıtulo 1
Teoria da Probabilidade
O estudo da Teoria da Probabilidade iniciou da ana´lise de certos jogos de azar e possui
aplicac¸o˜es na maioria das a´reas da cieˆncia e engenharia. No´s iremos relebrar os conceitos
ba´sicos de probabilidade.
1.1 Espac¸o Amostral e Eventos
No estudo da probabilidade, qualquer processo de observac¸a˜o e´ referido como um exper-
imento. Os resultados deuma observac¸a˜o sa˜o chamados resultados do experimento.
Um experimento e´ chamado um experimento aleato´rio se seus resultados na˜o podem
ser previstos. Exemplos t´ıpicos de experimento aleato´rio sa˜o jogar um dado ou tirar uma
carta de um mac¸o.
O conjunto de todos os poss´ıveis resultados de um experimento aleato´rio e´ chamado
espac¸o amostral, e sera´ denotado por S. Um elemento em S e´ chamado de ponto
amostral. Cada resultado de um experimento aleato´rio corresponde a um ponto amostral.
Exemplo 1.1.1. O espac¸o amostral do exeprimento de jogar uma moeda (a) uma vez e
(b) duas vezes e´:
(a)Existem duas possibilidades, cara ou coroa. Enta˜o:
S = {H,T}
(b) Existem 4 poss´ıveis resultados. Eles sa˜o pares de caras e coroas. Enta˜o
S = {HH,HT, TH, TT}
Exemplo 1.1.2. O espac¸o amostral de um experimento de medir (em horas) o tempo de
vida de um transistor:
Claramente todos os poss´ıveis resultados sa˜o todos os nu´meros reais na˜o negativos.
Isto e´,
S = {τ : 0 ≤ τ ≤ ∞}
onde τ representa a vida de um transistor em horas.
Uma vez que no´s identificamos o espac¸o amostral S, como o conjunto de todos os
poss´ıveis resultados de um experimento aleato´rio, vamos rever algumas anotac¸o˜es no
seguinte conjunto.
4
Se ζ e´ um elemento de S, enta˜o no´s escrevemos
ζ ∈ S.
Se ζ na˜o e´ um elemento de S, enta˜o escrevemos:
ζ /∈ S.
Um conjunto A e´ chamado subconjunto de B, denotado por
A ⊂ B.
Se cada elemento de A e´ tambe´m elemento de B
Qualquer subconjunto de um espac¸o amostral S e´ chamado um evento. Um ponto
amostal de S e´ frequentemente referido como um evento elementar.
Note que o espac¸o amostral S e´ o subconjunto de si pro´prio, isto e´, S ⊂ S. Uma
vez que S e´ o conjunto de todos os poss´ıveis resultados, ele e´ frequentemnte chamado de
evento determinado.
1.2 A Noc¸a˜o e os Aximas da Probabilidade
Uma atribuic¸a˜o de um nu´mero real a um evento definido em um espac¸o amostral S e´
conhecido como a medida da probabilidade. Considere um experimento aleato´rio com um
espac¸o amostral S e seja A um evento particular definido em S.
1.2.1 Definic¸a˜o da Frequeˆncia Relativa
Suponha que o experimento aleato´rio e´ repetido n vezes. Se o evento A ocorre n(A) vezes,
enta˜o a probabilidade do evento A, denotado por P (A), e´ definido como
P (A) = lim
n→∞
n(A)
n
onde n(A)/n e´ chamado de frequencia relativa do evento A. Note que este limite talvez
na˜o exista, e, ale´m disso, ha´ muitas situac¸o˜es em que o conceito de repetibilidade talvez
na˜o seja va´lido.
E´ claro que para um evento qualquer A, a frenqueˆncia relativa de A possue as seguintes
propriedades:
1. 0 ≤ n(A)/n ≤ 1, onde n(A)/n = 0 se A na˜o ocorre em nenhuma das n repetic¸o˜es e
n(A)/n = 1 se A ocorre em todas as n repetic¸o˜es.
2. Se A e B sa˜o eventos mutualmente exclusivos, enta˜o
n(A ∪B) = n(A) + n(B)
e
n(A ∪B)
n
=
n(A)
n
+
n(B)
n
.
5
1.2.2 Definic¸a˜o Axioma´tica
Seja S um espac¸o amostral e A um evento em S. Enta˜o na definic¸a˜o axioma´tica, a
probabilidade P (A) de um evento A e´ um nu´mero real atribu´ıdo a A o qual satisfaz os
treˆs seguintes axiomas:
1. P (A) ≥ 0;
2. P (S) = 1;
3. P (A ∪B) = P (A) + P (B), se A ∩B = ∅.
1.2.3 Propriedades Elementares da Probabilidade
Usando os axiomas acima, as seguintes propriedades de probabilidade podem ser obtidas:
1. P (A¯) = 1− P (A);
2. P (∅) = 0;
3. P (A) ≤ P (B) se A ⊂ B;
4. P (A) ≤ 1;
5. P (A ∪B) = P (A) + P (B)− P (A ∩B);
1.3 Eventos Igualmente Prova´veis
1.3.1 Espac¸o Amostral Finito
Considere um espac¸o amostral finito S com n elementos
S = {ζ1, ζ2, ..., ζn}
onde ζi sa˜o eventos elementares. Seja P (ζi) = pi. Enta˜o
1. 0 ≤ pi ≤ 1 i = 1, 2, ..., n;
2.
∑n
i=1 pi = p1 + p2 + ...+ pn = 1;
3. Se A = ∪i∈Iζi, onde I e´ uma colec¸a˜o de subscritos, enta˜o
P (A) =
∑
ζi∈A
P (ζi) =
∑
i∈I
pi
1.3.2 Eventos Igualmente Prova´veis
Quando todos os eventos elementares ζi (i=1,2,...,n) sa˜o igualmente prova´veis, isto e´,
p1 = p2 = · · · = pn
enta˜o, da propriedade 2 acima, temos
pi = 1/n
e
P (A) = n(A)/n
onde n(A) e´ o nu´mero de resultados pertencentes ao evento A e n e´ o nu´mero de pontos
amostrais em S.
6
1.4 Probabilidade Condicional
1.4.1 Definic¸a˜o
A probabilidade condicional de um evento A dado um evento B, denotado por P (A|B),
e´ definido como
P (A|B) = P (A ∩B)
P (B)
, P (B) > 0
onde P (A ∩B) e´ a probabilidade conjunta de A e B. Similarmente,
P (B|A) = P (A ∩B)
P (A)
, P (A) > 0
e´ a probabilidade condicional de um evento B dado o evento A. Das equac¸o˜es acima,
temos
P (A ∩B) = P (A|B)P (B) = P (B|A)P (A)
Esta equac¸a˜o e´ usada na maioria das vezes para encontrar a probabilidade conjunta de
eventos.
1.4.2 Regra de Bayes
Da equac¸a˜o acima, podemos obter a seguinte regra de Bayes:
P (A|B) = P (B|A)P (A)
P (B)
1.5 Probabilidade Total
Os eventos A1, A2, ..., An sa˜o chamados mutualmente exclusivos e exaustivos se
∪ni=1Ai = A1 ∪ A2 ∪ · · · ∪ An = S e Ai ∩ Aj = ∅ i 6= j
Seja B um evento qualquer em S. Enta˜o
P (B) =
n∑
i=1
P (B ∩ Ai) =
n∑
i=1
P (B|Ai)P (Ai)
o qual e´ conhecida como a probabilidade total do evento B. Seja A = Ai na regra de
Bayes; enta˜o, usando a equac¸a˜o anterior, obtemos
P (Ai|B) = P (B|Ai)P (Ai)∑n
i=1 P (B|Ai)P (Ai)
Note que os termos do lado direito sa˜o todos condicionais aos eventos Ai, enquanto que
o termo da esquerda e´ condicional a` B.
7
1.6 Eventos independentes
Dois eventos A e B sa˜o ditos independentes se e somente se
P (A ∩B) = P (A)P (B)
Segue imediatemente que se A e B sa˜o independentes, enta˜o
P (A|B) = P (A) P (B|A) = P (B)
Se dois eventos A e B sa˜o indenpendentes, enta˜o podemos mostrar que A e B¯ sa˜o
tambe´m independentes; isto e´
P (A ∩ B¯) = P (A)P (B¯)
Enta˜o
P (A|B¯) = P (A)
Assim, se A e´ independente de B, enta˜o a probabilidade de A permanece inalterada
independentemente se B acontece ou na˜o.
De uma forma geral, os eventos A1, A2, ..., An sa˜o independentes se e somente se para
cada subconjunto {Ai1, Ai2, ..., Aik} (2 ≤ k ≤ n) destes eventos,
P (Ai1 ∩ Ai2 ∩ ... ∩ Aik) = P (Ai1)P (Ai2)...P (Aik)
Finalmente, definimos um conjunto infinito de eventos como independente e se, somente
se, todo subconjunto finito destes eventos e´ independente.
8
Cap´ıtulo 2
Varia´veis Aleato´rias
2.1 Introduc¸a˜o
Neste cap´ıtulo, introduziremos os conceito de varia´veis aleato´rias. O propo´sito principal
de usar uma varia´vel aleato´ria e´ assim que podemos definir certas func¸o˜es de probabilidade
que tornam conveniente e fa´cil de calcular a probabilidade de va´rios eventos.
2.2 Varia´veis Aleato´rias
2.2.1 Definic¸a˜o
Considere um experimento aleato´rio com espac¸o amostral S. Uma varia´vel aleato´ria X(ζ)
e´ uma func¸a˜o real que associa um nu´mero real chamado valor de X(ζ) para cada ponto
amostral ζ de S. Frequentemente, usamos simplesmente X para esta func¸a˜o em vez de
X(ζ) e usamos “v.a” para denotar a varia´vel aleato´ria.
O espac¸o amostral S e´ chamado de domı´nio da v.a X, e a colec¸a˜o de todos os nu´meros
(valores de X(ζ)) e´ chamado de imagem da v.a X. Assim, a imagem de X e´ subconjunto
dos nu´meros reais.
Note que duas ou mais pontos amostrais diferentes podem dar o mesmo valor de X,
mas diferentes nu´meros na imagem na˜o podem ser atribu´ıdos ao mesmo ponto amostral.
Exemplo 2.2.1. No exeprimento de jogar uma moeda uma vez, podemos definir a v.a X
como
X(H) = 1 e X(T ) = 0 (2.1)
9
Note que podemos tambe´m definir outra v.a., digamos que Y com
Y (H) = 0, Y (T ) = 1 (2.2)
2.2.2 Eventos Definidos por Varia´veis Aleato´rias
Se X e´ uma v.a. e x e´ um nu´mero real fixado, podemos definir o evento (X = x) como
(X = x) = {ζ;X(ζ) = x} (2.3)
Similarmente, para nu´meros fixados x, x1, x2, podemos definir os seguintes eventos:(X ≤ x) = {ζ;X(ζ) ≤ x} (2.4)
(X > x) = {ζ;X(ζ) > x} (2.5)
(x1 < X ≤ x2) = {ζ;x1 < X(ζ) ≤ x2} (2.6)
Exemplo 2.2.2. No experimento de jogar uma moeda treˆs vezes, o espac¸o amostral S1
consistindo de oito pontos amostrais igualmente prova´veis S1 = {HHH, . . . , TTT}. Se
X e´ uma v.a. dando o nu´mero de caras obtidas, calcule (a) P(X=2); (b) P(x¡2).
2.3 Func¸a˜o de Distribuic¸a˜o
2.3.1 Definic¸a˜o
A func¸a˜o de ditribuic¸a˜o [ ou func¸a˜o de distribuic¸a˜o acumulada(fda)] de X e´ a func¸a˜o
definida por
FX(x) = P (X ≤ x) −∞ < x <∞ (2.7)
A maioria das informac¸o˜es sobre um experimento aleato´rio descrito pelo v.a. X e´
determinada pelo comportamento da FX(x).
2.3.2 Propriedades da FX(x)
1. 0 ≤ FX(x) ≤ 1;
2. FX(x1) ≤ FX(x2) se x1 ≤ x2;
3. limxto∞ FX(x) = FX(∞) = 1;
4. limx→−∞ FX(x) = FX(−∞) = 0;
5. limx→a+ FX(a+) = FX(a) a+ = lim0<�→0 a+ �.
Exemplo 2.3.1. Considere a v.a definida no exemplo 2. Calcule e esbocea fda FX(x) de
X.
2.3.3 Determinac¸a˜o de Probabilidades pela Func¸a˜o de Distribuic¸a˜o
Pela definic¸a˜o de fda, podemos calcular outras probabilidades, tal como P (a < X ≤ b),
P (X > a), e P (X < b):
P (a < X ≤ b) = FX(b)− FX(a) (2.8)
P (X > a) = 1− FX(a) (2.9)
P (x < b) = FX(b
−) b− = lim
0<�→0
b− � (2.10)
10
2.4 Varia´veis Aleato´rias Discretas e fmp
2.4.1 Definic¸a˜o
Seja X uma v.a. com fda FX(x). Se FX(x) assume somente valores inteiros e e´ constante
entre esses valores, enta˜o X e´ chamada uma varia´vel aleato´ria discreta.
2.4.2 Func¸a˜o Massa de Probabilidade
Suponha que os saltos em FX(x) de uma v.a. discreta X ocorre nos pontos x1, x2, ... onde
a sequencia pode ser finita ou infinita conta´vel, e assumimos xi < xj se i < j. Enta˜o
FX(xi)− FX(xi−1) = P (X ≤ xi)− P (X ≤ xi−1) = P (X = x) (2.11)
Seja
pX(x) = P (X = x) (2.12)
A func¸a˜o pX(x) e´ chamada de func¸a˜o massa de probabilidade (fmp) da v.a. discreta X.
2.4.3 Propriedades da pX(x)
1. 0 ≤ pX(xk) ≤ 1; k = 1, 2, ...;
2. pX(x) = 0, se x 6= xk(k = 1, 2, ...);
3.
∑
k pX(xk) = 1.
A fda FX(x) de uma v.a. discreta X pode ser obtida por
FX(x) = P (X ≤ x) =
∑
xk≤x
pX(xk) (2.13)
2.5 Varia´veis Aleato´rias Cont´ınuas e fdp
2.5.1 Definic¸a˜o
Seja X uma v.a. com fda FX(x). Se FX(x) e´ cont´ınua e tambe´m possiu uma derivada
dFX(x)/dx a qual existe em toda parte exceto em um poss´ıvel nu´mero de pontos e e´
cont´ınua por partes, enta˜o X e´ chamada uma varia´vel aleato´ria cont´ınua Alternativa-
mente, X e´ uma v.a. cont´ınua somente se a imagem de FX(x) conte´m um intervalo de
nu´meros reais.
Assim, se X e´ uma v.a. cont´ınua, enta˜o
P (X = x) = 0 (2.14)
Note que este e´ um exemplo de um evento com probabilidade 0, isto na˜o e´ necessariamante
o evento imposs´ıvel ∅.
Na maioria das aplicac¸o˜es, a v.a. e´ discreta ou cont´ınua. Mas se a FX(x) de uma v.a.
X possui caracter´ısticas de v.a discreta e cont´ınua, enta˜o a v.a. X e´ chamada v.a. mista.
11
2.5.2 Func¸a˜o Densidade de Probabilidade
Seja
fX(x) =
dFX(x)
dx
(2.15)
A func¸a˜o fX(x) e´ chamada de func¸a˜o densidade de probabilidade de uma v.a. cont´ınua
X.
2.5.3 Propriedades de fX(x)
1. fX(x) ≥ 0;
2.
∫∞
−∞ dx = 1;
3. fX(x) e´ cont´ınua por partes;
4. P (a < X ≤ b) = ∫ b
a
fX(x)dx.
A fda FX(x) de uma v.a. cont´ınua X pode ser obtida por
FX(x) = P (X ≤ x) =
∫ x
−∞
fX(ξ)dξ (2.16)
Pela eq. 2.14, se X e´ uma v.a. cont´ınua, enta˜o
P (a < X ≤ b) = P (a ≤ X ≤ b) = P (a ≤ X ≤ b) = P (a ≤ X < b) = P (a < X < b)(2.17)
=
∫ b
a
fX(x)dx = FX(b)− FX(a) (2.18)
2.6 Me´dia e Variaˆncia
2.6.1 Me´dia
A Me´dia (ou valor experado) de uma v.a. X, denotado por µX ou E(X), e´ definida por
µX = E(X) =
{ ∑
k xkpX(xk) se X e´ discreta∫∞
−∞ xfX(x)dx se X e´ cont´ınua
(2.19)
2.6.2 Momento
O n-e´simo momento de uma v.a. X e´ definido por
E(Xn) =
{ ∑
k x
n
kpX(xk) se X e´ discreta∫∞
−∞ x
nfX(x)dx se X e´ cont´ınua
(2.20)
Note que a me´dia de X e´ o primeiro momento de X.
12
2.6.3 Variaˆncia
A variaˆncia de uma v.a. X, denotado por σ2X ou V ar(X), e´ definido por
σ2X = V ar(X) = E{[X − E(X)]2} (2.21)
Assim,
σ2X =
{ ∑
k(xk − µX)2pX(xk) se X e´ discreta∫∞
−∞(x− µX)2fX(x)dx se X e´ cont´ınua
(2.22)
Note da definic¸a˜o 2.21 que
V ar(X) ≥ 0
O desvio padra˜o de uma v.a. X, denotado por σX , e´ a raiz quadrada positiva da V ar(X).
Expandindo o lado direito da eq. 2.21, podemos obter a seguinte relac¸a˜o:
V ar(X) = E(X2)− [E(X)]2
a qual e´ uma fo´rmula u´til para determinar a variaˆncia.
2.7 Algumas Distribuic¸o˜es Especiais
2.7.1 Distribuic¸a˜o Bernoulli
Uma v.a. X e´ chamada de v.a. de Bernoulli com paraˆmetro p se a fmp e´ dada por
pX(k) = P (X = k) = p
k(1− p)1−k, k=0,1
onde 0 ≤ p ≤ 1.
Pela eq. ??, a fda FX(x) da v.a. Bernoulli X e´ dado por
FX(x) =

0 se x < 0
1− p se 0 ≤ x < 1
1 se x ≥ 1
(2.23)
A me´dia e a variaˆncia de uma v.a. de Bernoulli X sa˜o
µX = E(X) = p (2.24)
σ2X = V ar(X) = p(1− p) (2.25)
Uma v.a. de Bernoulli X e´ associado com algum experimento o qual o resultado pode
ser classificado como um ”sucesso´´ ou um ”fracasso´´, e a probabilidade de um sucesso
e´ p e a probabilidade de um fracasso e´ 1− p.
2.7.2 Distribuic¸a˜o Binomial
Uma v.a. X e´ chamada de v.a. binomial com paraˆmetros (n, p) se sua fmp e´ dada por
pX(x) = P (X = k) =
(
n
k
)
pk(1− p)n−k k = 0, 1, ..., n (2.26)
onde 0 ≤ p ≤ 1 e (
n
k
)
=
n!
k!(n− k)! (2.27)
13
o qual e´ conhecido como o coeficiente binomial.
A fda de X correspondente e´
FX(x) =
n∑
k=0
(
n
k
)
pk(1− p)n−k n ≤ x < n+ 1
A me´dia e a variaˆncia de uma v.a. binomial X sa˜o
µX = E(X) = np
σ2X = V ar(X) = np(1− p)
Uma v.a. binomial X e´ associado com algum experimento nos quais n tentativas de
Bernoulli independentes sa˜o executadas e X representa o nu´mero de sucessos que ocorrer
em n experimentos. Note que a v.a. Bernoulli e´ justamente uma v.a. binomial com
paraˆmetros (1, p).
Exemplo 2.7.1. Uma fonte de bina´rios gera os digitos 1 e 0 aleatoriamente com proba-
bilidade 0.6 e 0.4 respectivamente.
(a) Qual a probabilidade de dois 1s e treˆs 0s ocorrerem em uma sequeˆncia de cinco
digitos;
(b) Qual a probabilidade que pelo menos treˆs 1s ocorram em uma sequeˆncia de cinco
digitos.
Exemplo 2.7.2. Uma moeda honesta e´ lanc¸ada 10 vezes. Calcule a probabilidade de
ocorrer 5 ou 6 caras.
2.7.3 Distribuic¸a˜o de Poisson
Uma v.a. X e´ chamada de v.a. de Poisson com paraˆmetro λ(> 0) se sua fmp e´ dada por
pX(k) = P (X = k) = e
−λλ
k
k!
k = 0, 1, ...
A fda correspondente de X e´
FX(x) = e
−λ
n∑
k=0
λk
k!
n ≤ x < n+ 1
A me´dia e a variaˆncia de uma v.a. de Poisson X sa˜o
µX = E(X) = λ
σ2X = V ar(X) = λ
A v.a. de Poisson possui uma gama enorme de aplicac¸o˜es em diversas a´reas porque
ela pode ser usada como uma aproximac¸a˜o para uma v.a. binomial com paraˆmetros (n, p)
quando n e´ grande e p e´ suficientemente pequeno de forma que np e´ de um tamanho
moderado.
E´ fa´cil provar que (
n
k
)
pk(1− p)1−k ≈ e−λλ
k
k!
Alguns exemplos de uma v.a. de Poisson sa˜o:
14
1. O nu´mero de chamadas telefonicas chegando a` um centro de comutac¸a˜o durante
va´rios intervalos de tempo;
2. O nu´mero de erros de impressa˜o em uma pa´gina de um livro;
3. o nu´mero de clientes entrando em um banco durante va´rios intervalos de tempo.
Exemplo 2.7.3. Um canal de transmissa˜o de ru´ıdo tem probabilidade de erro por digito
de p=0.01.
(a) Calcule a probabilidade de receber mais de um erro em 10 digitos.
(b) Repita (a), usando a aproximac¸a˜o de Poisson.
Exemplo 2.7.4. O nu´mero de chamadas telefoˆnicas chegando em um painel de comando
durante um per´ıodo de 10 minutos e´ conhecido como uma v.a. de Poisson X com λ = 2.
(a) Calcule a probabilidade que mais de treˆs chamadas cheguem durante um per´ıodode 10 minutos.
(b) Calcule a probabilidade que nenhuma chamada chegue durante o per´ıodo de 10
minutos.
2.7.4 Distribuic¸a˜o Uniforme
Uma v.a. X e´ chamada v.a. uniforme sobre (a, b) se sua fdp e´ dada por
fX(x) =
{
1
b−a a < x < b
0 caso contra´rio
A fda correspondente de X e´
FX(x) =

0 x ≤ a
x−a
b−a a < x < b
1 x ≥ b
A me´dia e a variaˆncia de uma v.a. uniforme X sa˜o
µX =
a+ b
2
σ2X =
(b− a)2
12
Uma v.a. X e´ frequentemente usada quando na˜o temos nenhum conhecimento pre´vio
da fda e todos os valores cont´ınuos em algum intervalo sa˜o igualmente prova´veis.
2.7.5 Distribuic¸a˜o Exponencial
Uma v.a. X e´ chamada v.a. exponencial com paraˆmetro λ(> 0) se sua fdp e´ dada por
fX(x) =
{
λe−λx x > 0
0 x < 0
A fda corespondente de X e´
fX(x) =
{
1− e−λx x ≥ 0
0 x < 0
15
A me´dia e a variaˆncia de uma v.a. exponencial X sa˜o
µX = 1/λ
σ2X = 1/λ
2
Exemplo 2.7.5. Assuma que o tempo de uma chamada telefoˆnica em minutos e´ uma v.a.
exponencial X com paraˆmetro λ = 1/10. Se algue´m chega a uma cabine de telefone pouco
antes de sua chegada, encontre a probabilidade de que voceˆ tera´ que esperar (a) menos
que 5 minutos, e (b) entre 5 e 10 minutos.
2.7.6 Distribuic¸a˜o Normal (ou Gaussiana)
Uma v.a. X e´ chamada v.a. normal se sua fdp e´ dada por
fX(x) =
1√
2piσ
e−(x−µ)
2/2σ2
A fda correspondente de X e´
FX(x) =
1√
2piσ
∫ x
−∞
e−(ξ−µ)
2/(2σ2)dξ =
∫ (x−µ)/σ)
−∞
e−ξ
2/2dξ (2.28)
Esta integral na˜o pode ser resolvida em uma forma fechada e deve ser resolvida nu-
mericamente. E´ conveniente usar a func¸a˜o Φ(z), definida como
Φ(z) =
1√
2pi
∫ z
−∞
e−ξ
2/2dξ
para ajudar a resolver o valor de FX(x). Enta˜o, a eq. 2.28 pode ser escrita como
FX(x) = Φ
(
x− µ
σ
)
Note que Φ(−z) = 1− Φ(z).
A me´dia e a variaˆncia de uma v.a. normal X sa˜o
µX = µ
σ2X = σ
2
Usamos a notac¸a˜o N(µ, σ2) para denotar que X e´ uma v.a. normal com me´dia µ e
variaˆncia σ2. Uma v.a. normal Z com me´dia zero e variaˆncia um - isto e´, Z = N(0, 1) -
e´ chamada de v.a. normal padra˜o.
Exemplo 2.7.6. Uma linha de produc¸a˜o fabrica resistores de 1000-ohm (Ω) que tem
toleraˆncia de 10%. Seja X a v.a. que denota a resisteˆncia do resistor. Assumindo que
X e´ uma v.a. normal com me´dia 1000 e variaˆncia 2500, calcule a probabilidade de um
resistor escolhido aleatoriamente seja rejeitado.
16
2.8 Distribuic¸a˜o Condicional
Ja´ vimos que a probabilidade condicional de um evento A dado o evento B e´ definido
como
P (A|B) = P (A ∩B)
P (B)
P (B) > 0
A fda condicional FX(x|B) de uma v.a. X dado o evento B e´ definido por
FX(x|B) = P (X ≤ x|B) = P{(X ≤ X) ∩B}
P (B)
A fda condicional FX(x|B) tem as mesmas propriedades de FX(x).Em particular,
FX(−∞|B) = 0 FX(∞|B) = 1
P (a < X ≤ b|B) = FX(b|B)− FX(a|B)
Se X e´ uma v.a. discreta, enta˜o a fmp condicional pX(xk|B) e´ definida como
pX(xk|B) = P (X = xk|B) = P{(X = xk) ∩B}
P (B)
Se X e´ uma v.a. cont´ınua, enta˜o a fdp condicional fX(x|B) e´ definida como
fX(x|B) = dFX(x|B)
dx
2.9 Exerc´ıcios
1. A probabilidade de um bem sucedido lanc¸amento de foguete e´ igual a 0,8. Suponha
que tentativas de lanc¸amento sejam feitas ate´ que tenham ocorrido 3 lanc¸amentos
bem sucedidos. Qual o nu´mero me´dio de tentativas para a ocorreˆncia dos 3 lanc¸amentos
bem sucedidos?
2. Considere a v.a discreta X que tem como fmp
pX(x) =
(
1
2
)xk
;xk = 1, 2, 3, ...
Seja A = {ζ;X(ζ) = 1, 3, 5, 7, ...}. Calcule P (A).
3. Considere a func¸a˜o dada por
p(x) =
{
k
x2
;x = 1, 2, 3, ...
0, caso contrario
onde k e´ uma constante. Calcule o valor de k tal que p(x) pode ser a fmp de uma
v.a discreta X.
4. Sabe-se que o disquete produzido por uma empresa A sera´ defeituoso com proba-
bilidade 0.01. A empresa vende o disquete em pacotes de 10 e oferece a garantia de
substituic¸a˜o que, no ma´ximo, 1 dos 10 discos esta´ com defeito. Calcule a probabili-
dade que um pacote comprado tera´ que ser substituido.
17
5. Um sistema de transmissa˜o digital tem uma probabilidade de erro de 10−6 por d´ıgito.
Calcule a probabilidade de 3 ou mais erros em 106 d´ıgitos usando a aproximac¸a˜o da
Distribuic¸a˜o de Poisson.
6. Sabe-se que o tempo (em horas) entre consecutivos acidentes de tra´fego pode ser
descrito por uma v.a exponencial X com paraˆmetro λ = 1/60. Calcule (a) P (X ≤
60), (b) P (X > 120); e (c) P (10 < X ≤ 100).
7. Dados Bina´rios sa˜o transmitidos atrave´s de um canal de ru´ıdos em blocos de 16
d´ıgitos bina´rios. A probabilidade que um d´ıgito recebido e´ em erro como resultado
do canal de ru´ıdo e´ 0.01. Assuma que os erros ocorridos em va´rias posic¸o˜es d´ıgito
dentro de um bloco sa˜o independentes.
(a) Calcule a me´dia e a variaˆncia do nu´mero de erros por bloco.
(b) Calcule a probabilidade que o nu´mero de erros por blocos e´ maior ou igual a 4.
8. Seja a v.a cont´ınua X que denota o peso ( em libras) de um pacote. O conjunto
imagem do peso do pacote e´ entre 45 e 60 libras.
(a) Determine a probabilidade que um pacote ter peso maior que 50 libras.
(b) Calcule a me´dia e a variaˆncia de peso dos pacotes.
dica: Assuma que X e´ uma distribuic¸a˜o uniforme (45,60).
9. Em uma produc¸a˜o de chips de memoria de computador, a empresa A produz um
chip com defeito para cada nove chips bons. Seja X o tempo para falha (em meses)
dos chips. Sabendo que X e´ uma v.a exponencial com paraˆmetro λ = 1/2 para um
chip defeituoso e λ = 1/10 para um chip bom. Calcule a probabilidade que um chip
comprado aleatoriamente ira´ falhar antes de (a) seis meses de uso; (b) um ano de
uso.
10. Seja X a v.a denota o nu´mero de componentes defeituosos em um amostra aleato´ria
de n componentes, selecionado sem reposic¸a˜o de um total de N componentes, r das
quais esta˜o com defeitos. A v.a X e´ conhecida como a v.a hipergeome´trica com
paraˆmetros (N, r, n).
(a) Calcule a fmp de X.
(b) Calcule a me´dia e a variaˆncia de X.
Dica: Para Achar E(X), note que:
(
r
x
)
=
r
x
(
r − 1
x− 1
)
e
(
N
n
)
=
n∑
x=0
(
r
x
)(
N − r
n− x
)
Para encontrar a V ar(X), primeiro calcule E[X(X − 1)].
11. Um lote de 100 fus´ıveis e´ inspecionado pelo seguinte processo: cinco fus´ıveis sa˜o
selecionados aleatoriamente, e se todos cinco ”enchem”a amperagem especificada,
o lote e´ aceito. Suponha que o lote contenha 10 fus´ıveis defeituosos. Calcule a
probabilidade de aceitac¸a˜o do lote.
Dica: Seja X a v.a igual ao nu´mero de fus´ıveis defeituosos na amostra de 5 e use o
resultado do problema anterior.
18
12. Suponha que a probabilidade que um bit transmitido atrave´s de um canal de co-
municac¸a˜o digital e recebido com erro e´ 0.1. Assumindo que as transmisso˜es sa˜o
eventos independentes, calcule a probabilidade que o terceiro erro ocorra no 10o bit.
19
Cap´ıtulo 3
Varia´veis Aleato´rias
Multidimensionais
3.1 Introduc¸a˜o
Em muitas aplicac¸o˜es e´ importante estudar duas ou mais v.a.’s definidas no mesmo espac¸o
amostral. Neste cap´ıtulo, no´s primeiro consideraremos o caso de duas v.a.’s com dis-
tribuic¸o˜es associadas e algumas propriedades, tal como independencia de v.a.’s. Estes
conceitos sa˜o enta˜o extendidos para o caso de va´rias v.a.’s definidas em um mesmo espac¸o
amostral.
3.2 Varia´veis Aleato´rias Bidimensionais
3.2.1 Definic¸a˜o
Seja S o espac¸o amostral de um experimento aleato´rio. Seja X e Y duas v.a.’s. Enta˜o o
par (X, Y ) e´ chamado de v.a. bidimensional (ou vetor aleato´rio bidimensional), se cada
X e Y associam um nu´mero real com cada elemento de S. Assim, a v.a. bidimensional
(X, Y ) pode ser considerado como uma func¸a˜o que para cada ponto ζ em S associa um
ponto (x, y) no plano. O contra-domı´nio de uma v.a. bidimensional (X, Y ) e´ denotado
por Rxy e definido por
Rxy = {(x, y); ζ ∈ S e X(ζ) = x, Y (ζ)= y}
Se a v.a.’s X e Y sa˜o cada uma, por si mesmas, v.a.’s discretas, enta˜o (X, Y ) e´ chamada
v.a. bidimensional discreta.
Similarmente, se X e Y sa˜o cada uma, por si mesmas, v.a.’s cont´ınuas, enta˜o (X, Y )
e´ chamada v.a. bidimensional cont´ıua.
Se X ou Y e´ discreta e a outra e´ cont´ınua, enta˜o (X, Y ) e´ chamada v.a. bidimensional
mista.
Exemplo 3.2.1. Considere um experimento de lanc¸ar uma moeda honesta duas vezes.
Seja (X, Y ) uma v.a. 2D, onde X e´ o nu´mero de caras que ocorre nos dois lanc¸amentos
e Y e´ o nu´mero de coroas que ocorre nos dois lanc¸amentos. Calcule P (X = 2, Y =
0), P (X = 0, Y = 2), P (X = 1, Y = 1)
20
3.3 Func¸a˜o de Distribuic¸a˜o Conjunta
3.3.1 Definic¸a˜o
A func¸a˜o de distribuic¸a˜o acumulada conjunta (fda conjunta) de X e Y , denotada por
FXY (x, y), e´ a func¸a˜o definida por
FXY (x, y) = P (X ≤ x, Y ≤ y) (3.1)
O evento (X ≤ x, Y ≤ y) na equac¸a˜o 3.1 e´ equivalente ao evento A ∩ B, onde A e B
sa˜o os eventos definidos por
A = {ζ ∈ S;X(ζ) ≤ x} e B = {ζ ∈ S;Y (ζ) ≤ y}
e
P (A) = FX(x) e P (B) = FY (y)
Assim,
FXY (x, y) = P (A ∩B)
Se, para valores particulares de x e y, A e B sa˜o eventos independentes de S, enta˜o
FXY (x, y) = P (A ∩B) = P (A)P (B) = FX(x)FY (y)
Duas v.a.s X e Y sera˜o chamadas independentes se
FXY (x, y) = FX(x)FY (y)
para todos os valores de x e y.
3.3.2 Propriedades de FXY (x, y)
A fda conjunta de duas v.a.’s possuem muitas propriedades ana´logas a`s das fda de uma
v.a. simples.
• 0 ≤ FXY (x, y) ≤ 1;
• Se x1 ≤ x2 e y1 ≤ y2 enta˜o FXY (x1, y1) ≤ FXY (x2, y1) ≤ FXY (x2, y2) e FXY (x1, y1) ≤
FXY (x1, y2) ≤ FXY (x2, y2)
• limx→∞;y→∞ FXY (x, y) = FXY (∞,∞) = 1;
• limx→−∞ FXY (x, y) = FXY (−∞, y) = 0;
• limy→−∞ FXY (x, y) = FXY (x,−∞) = 0
• limx→a+ FXY (a+, y) = FXY (a, y);
• limy→b+ FXY (x, b+) = FXY (x, b);
• P (x1 < X ≤ x2, Y ≤ y) = FXY (x2, y) − FXY (x1, y); P (X ≤ x, y1 < Y ≤ y2) =
FXY (x, y2)− FXY (x, y1);
21
3.3.3 Func¸a˜o de Distribuic¸a˜o Marginal
Visto que
lim
y→∞
(X ≤ x, Y ≤ y) = (X ≤ x, Y ≤ ∞) = (X ≤ X)
desde que a condic¸a˜o y ≤ ∞ e´ sempre satisfeita. Enta˜o
lim
y→∞
FXY (x, y) = FXY (x,∞) = FX(x) (3.2)
Similarmente,
lim
x→∞
FXY (x, y) = FXY (∞, y) = FY (y) (3.3)
As fda’s FX(x) e FY (y), quando obtidas pelas equac¸o˜es 3.2 e 3.3, sa˜o referidas como as
fda’s marginais de X e Y respectivamente.
Exemplo 3.3.1. A fda conjunta de uma v.a. 2D e´ dada por
FXY (x, y) =
{
(1− eαx)(1− e−βy) x ≥ 0; y ≥ 0;α, β > 0
0 caso contra´rio
(a) Calcule as fda’s marginais de X e Y .
(b) Mostre que X e Y sa˜o independentes.
(c) Calcule P (X ≤ 1, Y ≤ 1), P (X ≤ 1), P (Y > 1), P (X > x, Y > y)
3.4 V.A. Discreta - FMP Conjunta
3.4.1 FMP Conjunta
Seja (X, Y ) uma v.a. 2D discreta e suponha que (X, Y ) assumam os valores (xi, yj) para
um certo conjunto de inteiros i e j. A func¸a˜o
pXY = P (X = xi, Y = yj)
e´ chamada a func¸a˜o massa de probabilidade conjunta (fmp conjunta) de (X, Y ).
3.4.2 Propriedades de pXY (xi, yj)
1. 0 ≤ pXY (xi, yj) ≤ 1;
2.
∑
xy
∑
xy pXY (xi, yj) = 1;
3. P [(X, Y ) ∈ A] = ∑∑(xi,yj)∈RApXY (xi, yj), onde o somato´rio e´ sobre os pontos
(xi, yj) no contra-domı´nio RA correspondente ao evento A.
A fda conjunta de uma v.a. 2D (X, Y ) e´ dada por
FXY (x, y) =
∑
xi≤x
∑
yj≤y
pXY (xi, yj)
22
3.4.3 FMP Marginal
Suponha que para um valor fixo X = xi, a v.a. Y pode assumir apenas os poss´ıveis
valores yj (j = 1, 2, ..., n). Enta˜o
P (X = xi) = pX(xi) =
∑
yi
pXY (xi, yj)
onde o somato´rio e´ tomado sobre todos os pares (xi, yj) com xi fixo. Similarmente,
P (Y = yj) = pY (yj) =
∑
xi
pXY (xi, yj)
onde o somato´rio e´ tomado sobre todos os pares (xi, yj) com yj fixo.
As fmp’s pX(xi) e pY (yj) sa˜o chamadas de fmp’s marginais de X e Y , respectivamente.
3.4.4 Varia´veis Aleato´rias Independentes
Se X e Y sa˜o v.a.’s independentes, enta˜o
pXY (xi, yj) = pX(xi)pY (yj)
Exemplo 3.4.1. Dois dados honestos sa˜o jogados. Considere uma v.a. 2D (X, Y ).
Seja X = 0 ou 1 conforme o primeiro dado mostre um nu´mero par ou ı´mpar de pontos.
Similarmente, seja Y = 0 ou 1 conforme o segundo dado.
(a) Encontre o contra-domı´nio RXY de (X, Y );
(b) Calcule a fmp’s conjuntas de (X, Y ).
Exemplo 3.4.2. Considere um canal de comunicac¸a˜o bina´rio mostrado na figura Seja
(X, Y ) a v.a. 2D onde X e´ a entrada do canal e Y e´ a saida do canal. Seja P (X = 0) = 0.5
e P (Y = 1|X = 0) = 0.1, e P (Y = 0|X = 1) = 0.2.
(a)Calcule a fmp conjunta de (X, Y );
(b)Encontre a fmp’s marginais de X e de Y ;
(c)X e Y sa˜o independentes?
23
3.5 Varia´veis Aleato´rias Cont´ınuas - FDP Conjunta
3.5.1 Func¸a˜o Densidade de Probabilidade Conjunta
Seja (X, Y ) uma v.a. 2D cont´ınua com fda FXY (x, y). A func¸a˜o
fXY (x, y) =
∂2fXY (x, y)
∂x∂y
(3.4)
e´ chamada func¸a˜o densidade de probabilidade conjunta de (X, Y ). Integrando a Eq. 3.4,
obtemos
FXY (x, y) =
∫ x
−∞
∫ y
−∞
fXY (ξ, η)dηdξ
3.5.2 Propriedades de fXY (x, y)
1. fXY (x, y) ≥ 0;
2.
∫∞
−∞
∫∞
−∞ fXY (x, y)dydx = 1;
3. fXY (x, y) e´ cont´ınua para todos os valores de x e y exceto em um conjunto finito de
pontos;
4. P [(X, Y ) ∈ A] = ∫ ∫
RA
fXY (x, y)dydx
5. P (a < X ≤ b, c < Y ≤ d) = ∫ d
c
∫ b
a
fXY (x, y)dxdy
Visto que P (X = a) = 0 = P (Y = c), segue-se que
P (a < X ≤ b, c < Y ≤ d) = P (a ≤ X ≤ b, c ≤ Y ≤ d)
= P (a ≤ X < b, c ≤ Y < d)
= P (a < X < b, c < Y < d) =
∫ d
c
∫ b
a
fXY (x, y)dxdy
3.5.3 FDP Marginal
Pela Eq. 3.2,
FX(x) = FXY (x,∞) =
∫ x
−∞
∫ ∞
−∞
fXY (ξ, η)dηdξ
Enta˜o,
fX(x) =
dFX(x)
dx
=
∫ ∞
−∞
fXY (x, η)dη
ou
fX(x) =
∫ ∞
∞
fXY (x, y)dy (3.5)
Similarmente,
fY (y) =
∫ ∞
−∞
(x, y)dx (3.6)
As fdp’s fX(x) e fY (y), quando obtidas pelas equac¸o˜es 3.5 e 3.6, sa˜o chamadas de fdp’s
marginais de X e de Y , respectivamente.
24
3.5.4 Varia´veis Aleato´rias Independentes
Se X e Y sa˜o independentes, temos
FXY (x, y) = FX(x)FY (y)
Enta˜o
∂2FXY (x, y)
∂x∂y
=
∂
∂x
FX(x)
∂
∂y
FY (x)
ou
fXY (x, y) = fX(x)fY (Y ) (3.7)
Assim, dizemos que duas v.a.’s X e Y sa˜o independentes se e somente se a Eq. 3.7 e´
satisfeita.
Exemplo 3.5.1. A fdp conjunta de uma v.a. 2D (X, Y ) e´ dada por
fXY (x, y) =
{
k(x+ y) 0 < x < 2, 0 < y < 2
0 caso contra´rio
onde k e´ uma constante.
(a)Calcule o valor de k;
(b) Encontre as fdp’s marginais de X e Y ;
(c) X e Y sa˜o independentes?
Exemplo 3.5.2. Suponha que seja selecionado um ponto aleatoriamente dentro de um
c´ırculo com raio R. Se colocarmos o centro do c´ırculo na origem e definir X e Y para
as coordenadas dos pontos escolhidos, enta˜o (X, Y ) e´ uma v.a. uniforme 2D com fdp
conjunta dada por
fXY (x, y) =
{
k x2 + y2 ≤ R2
0 x2 + y2 > R2
onde k e´ uma constante.
(a) Determine o valor de k.
(b) Calcule as fdp’s marginais de X e Y .
(c) Encontrar a probabilidade da distaˆncia entre a origem e o ponto selecionado na˜o
ser maior do que a.
3.6 Distribuic¸o˜es Condicionais
3.6.1 Func¸a˜o Massa de Probabilidade Condicional
Se (X, Y ) e´ uma v.a. 2D com fmp conjunta pXY (x, y), enta˜o a fmp condicional de Y dado
X = xi, e´ definido por
pY |X(yj|xi) = pXY (xi, yj)
pX(xi)
pX(xi) > 0.
Similarmente, podemos definir pX|Y (xi|yj) como
pX|Y (xi|yj) = pXY (xi, yj)
pY (yj)
pY (yj) > 0.
25
3.6.2 Propriedades de pY |X(yj|xi)
1. 0 ≤ pY |X(yj|xi) ≤ 1;
2.
∑
yj
pY |X(yj|xi) = 1.
Observe que se X e Y sa˜o independentes, enta˜o
pY |X(yj|xi) = pY (yj) e pX|Y (xi|yj) = pX(xi)
3.6.3 Func¸a˜o Densidade de Probabilidade Condicional
Se (X, Y ) e´ uma v.a. 2D com fdp conjunta fXY (x, y), enta˜o a fdp condicional de Y , dado
que X = xi, e´ definido por
fY |X(y|x) = fXY (x, y)
fX(x)
fX(x) > 0.
Similarmente, podemos definir fX|Y (x|y)
fX|Y (x|y) = fXY (x, y)
fY (y)
fY (y) > 0.
3.6.4Propriedades de fY |X(x|y)
1. fY |X(y|x) ≥ 0;
2.
∫∞
−∞ fY |Xdy = 1
Como definido no caso discreto, se X e Y sa˜o independentes, enta˜o
fY |X(x, y) = fY (y) e fX|Y (x|y) = fX(x)
Exemplo 3.6.1. Considere a v.a. 2D (X, Y ) com fdp conjunta
fXY (x, y) =
{
k(x+ y) 0 < x < 2, 0 < y < 2
0 caso contra´rio
(a) Encontre as fdp’s condicionais fY |X(y|x) e fX|Y (x|y);
(b) Encontre P (0 < Y < 1/2|X = 1).
Exemplo 3.6.2. A fdp conjunta da v.a. (X, Y ) e´ dada por
fXY (x, y) =
{
1
y
e−x/ye−y x > 0, y > 0
0 caso contra´rio
(a) Mostre que fXY (x, y) satisfaz a propriedade (2) das fdp’s;
(b) Calcule P (X > 1|Y = y).
26
3.7 Coeficientes de Covariaˆncia e Correlac¸a˜o
A (k, n)-e´simo momento de uma v.a. bidimensional (X, Y ) e´ definido por
mkn = E(X
kY n) =
{ ∑
yj
∑
xi
xki y
n
j pXY (xi, yj) caso discreto∫∞
−∞
∫∞
−∞ x
kynfXY (x, y)dxdy caso cont´ınuo
Se n = 0, obtemos o k-e´simo momento de X e se k = 0 obtemos o n-e´simo momento de
Y . Assim,
m10 = E(X) = µX e m01 = E(Y ) = µY
Se (X, Y ) e´ uma v.a. bidimensional discreta, enta˜o
µX =
∑
yj
∑
xi
xipXY (xi, yj)
=
∑
xi
xi
∑
yj
pXY (xi, yj)

=
∑
xi
xipX(xi)
Da mesma forma,
µY =
∑
xi
∑
yj
yjpXY (xi, yj)
=
∑
yj
yj
[∑
xi
pXY (xi, yj)
]
=
∑
yj
yjpY (yj)
Similarmente, temos
E(X2) =
∑
yj
∑
xi
x2i pXY (xi, yj) =
∑
xi
x2i pX(xi)
E(Y 2) =
∑
yj
∑
xi
y2jpXY (xi, yj) =
∑
xi
y2jpX(xi)
Se (X, Y ) e´ uma v.a. bidimensional cont´ınua, enta˜o
µX =
∫ ∞
−∞
∫ ∞
−∞
xfXY (x, y)dxdy
=
∫ ∞
−∞
x
[∫ ∞
−∞
fXY (x, y)dy
]
dx
=
∫ ∞
−∞
xfX(x)dx
27
E,
µY =
∫ ∞
−∞
∫ ∞
−∞
yfXY (x, y)dxdy
=
∫ ∞
−∞
y
[∫ ∞
−∞
fXY (x, y)dx
]
dy
=
∫ ∞
−∞
yfY (y)dy
Similarmente,
µX =
∫ ∞
−∞
∫ ∞
−∞
x2fXY (x, y)dxdy =
∫ ∞
−∞
x2fX(x)dx
µY =
∫ ∞
−∞
∫ ∞
−∞
y2fXY (x, y)dxdy =
∫ ∞
−∞
y2fY (y)dx
A variaˆncia de X e de Y sa˜o facilmente obtidas. O (1, 1)-e´simo momento conjunto de
(X, Y )
m11 = E(XY )
e´ chamado de correlac¸a˜o de X e Y . Se E(XY ) = 0, enta˜o dizemos que X e Y sa˜o
ortogonais. A covariaˆncia de X e Y , denotado por Cov(X, Y ) ou σXY e´ definido como
Cov(X, Y ) = σXYE[(X − µX)(Y − µY )] (3.8)
Expandindo a Eq. 3.8, obtemos
Cov(X, Y ) = E(XY )− E(X)E(Y ) (3.9)
Se Cov(X, Y ) = 0, enta˜o dizemos que X e Y sa˜o na˜o-correlatados. Da Eq. 3.9, vemos
que X e Y sa˜o na˜o-correlatados se
E(XY ) = E(X)E(Y ).
Note que se X e Y sa˜o independentes, enta˜o pode ser mostrada que elas sa˜o de-
scorrelatadas, mas o oposto na˜o e´ verdeiro em geral: isto e´, o fato de X e Y serem
descorrelatadas, em geral, na˜o implica na sua independeˆncia. O coeficiente de correlac¸a˜o,
denotado por ρ(X, Y ) ou ρXY e´ definido por
ρ(X, Y ) =
Cov(X, Y )
σXσY
=
σXY
σXσY
Pode ser provado que |ρXY | ≤ 1.
Note que o coeficiente de correlac¸a˜o de X e Y e´ uma medida de dependeˆncia linear
entre X e Y .
Exemplo 3.7.1. Suponha que a v.a. 2D (X, Y ) e´ uniformemente distribuida sobre um
c´ırculo unita´rio.
(a) X e Y sa˜o independentes?
(b) X e Y sa˜o correlatados?
Exemplo 3.7.2. Seja (X, Y ) uma v.a. 2D com fdp conjunta
fXY (x, y) =
x2 + y2
4pi
e−(x
2+y2)/2 ∞ < x <∞,−∞ < y <∞
Mostre que X e Y na˜o sa˜o independentes mas sa˜o descorrelatadas.
28
3.8 Me´dia e Variaˆncia Condicionais
SE (X, Y ) e´ uma v.a. 2D discreta com fmp conjunta pXY (xi, yj), enta˜o a me´dia condicional
(ou esperanc¸a condicional) de Y dado X = xi, e´ defeinido por
µY |xi = E(Y |xi) =
∑
yj
yjpXY (yj|xi)
A variaˆncia condicional de Y dado que X = xi e´ definido por
σ2Y |xi = V ar(Y |xi) = E[(Y − µY |xi)2|xi] =
∑
yi
(yi − µY |xi)2pY |xi(Y |xi)
a qual pode ser reduzida para
V ar(Y |xi) = E(Y 2|xi)− [E(Y |xi)]2
A me´dia de X dado Y = yj e a variaˆncia de X dado Y = yj sa˜o definidas por expresso˜es
similares.
Note que a me´dia condicional de Y dado X = xi, e´ uma func¸a˜o de xi somente.
Similarmente, a me´dia condicional de X dado Y = yj e´ uma func¸a˜o de yj.
Se (X, Y ) e´ uma v.a. 2D cont´ınua com fdp conjunta fXY (x, y), a me´dia condicional
de Y dado X = x e´ definido por
µY |x = E(Y |x) =
∫ ∞
∞
yfY |X(y, x)dy
A variaˆncia condicional de Y dado X = x e´ definida como
σY |x = V ar(Y |x) =
∫ ∞
−∞
(y − µY |x)2fY |X(y|x)dy
Que pode ser reduzida para
V ar(Y |x) = E(Y 2|x)− [E(Y |x)]2
Exemplo 3.8.1. A fdp conjunta de uma v.a. 2D (X, Y ) dada por
fXY (x, y) =
{
k 0 < y ≤ x < 1
0 caso contra´rio
(a) Calcule as fdp’s marginais de X e Y .
(b) Encontre as fdp’s condicionais fY |X(y|x) e fX|Y (x|y)
(c) Calcule as me´dias condicionais E(Y |x) e E(X|y).
(d) Calcule as variaˆncias condicionais V ar(Y |x) e V ar(X|y).
3.9 Exerc´ıcios
1. Considere um experimento de tirar aleatoriamente treˆs bolas de uma urna contendo
duas vermelhas, treˆs brancas e quatro bolas azuis. Seja (X, Y ) uma v.a bidimen-
sional onde X e Y denotam, respectivamente, o nu´mero de bolas vermelhas e de
bolas brancas selecinadas.
(a) Calcule a imagem de (X, Y ).
(b) Calcule as fmp’s conjuntas de (X, Y ).
(c) X e Y sa˜o independentes?
29
2. A fmp de uma v.a bidimensional (X, Y ) e´ dada por
pxy(xi, yj) =
{
k(2xi + yj), xi = 1, 2; yj = 1, 2
0, caso contra´rio
onde k e´ uma constante.
(a) Calcule o valor de k.
(b) Calcule as fmp’s marginais de X e Y .
(c) X e Y sa˜o independentes?
3. Considere um experimento de jogar duas moedas treˆs vezes. A moeda A e´ honesta,
mas a moeda B na˜o e´ honesta, com P (H) = 1/4 e P (T ) = 3/4. Considere uma v.a
bidimensional (X, Y ), onde X denota o nu´mero de caras resultantes da moeda A e
Y denota o nu´mero de caras resutantes da moeda B.
(a) Ache a imagem de (X, Y ).
(b) Calcule as fmp’s conjuntas de (X, Y ).
(c) Calcule P (X = Y ), P (X > Y ) e P (X + Y ≤ 4).
4. Um elaborador tem usado dois processos de produc¸a˜o diferentes para fabricar chips
de memo´ria de computador. Seja (X, Y ) uma v.a bidimensional onde X denota o
tempo de falha do chip criado pelo processo A e Y denota o tempo de falha do chip
criado pelo processo B. Assuma que a fdp de (X, Y ) e´
fxy(xi, yj) =
{
abe−(ax+by), x > 0; y > 0
0, caso contra´rio
onde a = 10−4 e b = 1.2(10−4), determine P (X > Y ).
5. Considere a v.a bidimensional (X, Y ) do problema 2.
(a) calcule as fmp’s condicionais pY |X(yj|xi) e pX|Y (xi|yj).
(b) Calcule P (Y = 2|X = 2) e P (X = 2|Y = 2).
6. Seja (X,Y) uma v.a bidimensional. Se X e Y sa˜o independentes, mostre que X e Y
sa˜o descorrelatados.
7. Suponha que a fmp conjunta de uma v.a bidimensional (X,Y) e´ dada por
pxy(xi, yj) =
{
1/3, (0, 1), (1, 0), (2, 1)
0, caso contra´rio
(a) X e Y sa˜o independentes?
(b) X e Y sa˜o descorrelatadas?
8. Seja (X,Y) uma v.a bidimensional com fdp conjunta
fxy(x, y) =
x2 + y2
4pi
e−(x
2+y2)/2 −∞ < x <∞, −∞ < x <∞
Mostre que X e Y na˜o sa˜o independentes mas sa˜o descorrelatadas.
30
9. Considere a v.a bidimensional (X,Y) do problema 2. Calcule a me´dia e a variaˆncia
condicionais de Y dado xi = 2.
10. Considere um experimento de jogar uma moeda honesta treˆs vezes. Seja (X,Y) a
v.a bidimensional onde X denota o nu´mero de caras nos primeiros dois lanc¸amentos
e Y denota o nu´mero de caras no terceiro lanc¸amento.
(a) Ache a imagem de X, Y e de (X,Y).
(b) Calcule (i) P (X ≤ 2, Y ≤ 1); (ii) P (X ≤ 1, Y ≤ 1); e (iii) P (X ≤ 0, Y ≤ 0).
11. A fdp conjunta de (X,Y) e´ dada por
fxy(x, y) =
{
e−(x+y), x > 0, y > 0
0, caso contra´rio
(a) X e Y sa˜o independentes?
(b) Calcule as fdp’s condicionais de X e Y.
31
Cap´ıtulo 4
Func¸a˜o de uma Varia´vel Aleato´ria
4.1 Introduc¸a˜o
Neste cap´ıtulo estudaremos um pouco sobre os conceitos ba´sicos de func¸o˜es de varia´veis
aleato´rias e investigaremos ovalor esperado de uma certa func¸a˜o de uma varia´vel aleato´ria.
4.2 Func¸o˜es de Uma Varia´vel Aleato´ria
4.2.1 Varia´vel Aleato´ria g(X)
Dado uma v.a. X e uma func¸a˜o g(X), a expressa˜o
Y = g(X)
define uma nova v.a. Y . Com y um nu´mero dado, denotamos Dy o subconjunto de RX
(contra-domı´nio de X) tal que g(x) ≤ y. Enta˜o
(Y ≤ y) = [g(X) ≤ y] = (X ∈ Dy)
onde (X ∈ Dy) e´ o envento consistindo de todos os resultados ζ tal que o ponto X(ζ) ∈
DY .
Enta˜o
FY (y) = P (Y ≤ y) = P [g(X) ≤ y] = P (X ∈ Dy)
Se X e´ uma v.a. cont´ınua com fdp fX(x), enta˜o
FY (y) =
∫
DY
fX(x)dx
4.2.2 Determinac¸a˜o de fY (y) por fX(x)
Seja X uma v.a. cont´ınua com fdp fX(x). Se a transformac¸a˜o y = g(x) e´ um-a-um e
possui a transformac¸a˜o inversa
x = g−1(y) = h(y)
enta˜o a fdp de Y e´ dada por
fY (y) = fX(x)
∣∣∣∣dxdy
∣∣∣∣ = fX [h(y)] ∣∣∣∣dh(y)d(y)
∣∣∣∣
32
Note que se g(x) e´ uma func¸a˜o cont´ınua mono´tona crecente ou decrescente, enta˜o a
transformac¸a˜o y = g(x) e´ uma-a-uma.
Se a transformac¸a˜o y = g(x) na˜o e´ uma-a-uma, fY (y) e´ obtida como segue: Denotando
as ra´ızes reais de y = g(x) por xk, isto e´ ,
y = g(x1) = · · · = g(xk) = · · ·
enta˜o
fY (y) =
∑
k
fX(xk)
|g′(xk)|
onde g′(x) e´ a derivada de g(x).
Exemplo 4.2.1. Seja Y = aX + b. Determine a fdp de Y , se X e´ uma v.a. uniforme
em (0, 1).
Exemplo 4.2.2. Seja Y = X2. Calcule a fdp de Y se X e´ uma v.a. uniforme em (1, 2).
4.3 Func¸a˜o de Duas Varia´veis Aleato´rias
4.3.1 Um Func¸a˜o de Duas Varia´veis Aleato´rias
Dado duas v.a.’s X e Y e uma func¸a˜o g(x, y), a expressa˜o
Z = g(X, Y )
define uma nova v.a. Z. Sendo z um nu´mero dado, denotamos DZ o subconjunto de RXY
[contra-domı´nio de (X, Y )] tal que g(x, y) ≤ z. Enta˜o
(Z ≤ z) = [g(X, Y ) ≤ z] = {(X, y) ∈ DZ}
onde {(X, Y )inDZ} e´ o evento consistindo de todos os resultados ζ tal que o ponto
{X(ζ), Y (ζ)}inDZ .
Enta˜o
FZ(z) = P (Z ≤ z) = P [g(X, Y ) ≤ z] = P{(X, Y ) ∈ DZ}
Se X e Y sa˜o v.a.’s cont´ınuas com fdp conjunta fXY (x, y), enta˜o
FZ(z) =
∫ ∫
DZ
fXY (x, y)dxdy
4.3.2 Duas Func¸o˜es de Duas Varia´veis Aleato´rias
Dado duas v.a.’s X e Y e duas func¸o˜es g(x, y) e h(x, y), a expressa˜o
Z = g(X, Y ) e W = h(X, Y )
define duas novas v.a.’s Z e W . Sendo z e w dois nu´meros dados, denotamos por DZW o
subconjunto de RXY [contra-domı´nio de (X, Y )] tal que g(x, y) ≤ z e h(x, y) ≤ w. Enta˜o
(Z ≤ z,W ≤ w) = [g(X, Y ) ≤ z, h(X, Y ) ≤ w] = {(X, Y ) ∈ DZW}
33
onde {(X, Y ) ∈ DZW} e´ o evento consistindo de todos os resultados poss´ıveis ζ tal que o
ponto {X(ζ), Y (ζ)} ∈ DZW .
Enta˜o
FZW (z, w) = P (Z ≤ z,W ≤ w) = P [g(X, Y ) ≤ z, h(X, Y ) ≤ w]
= P{(X, Y ) ∈ DZW}
No caso cont´ınuo, temos
FZW (z, w) =
∫ ∫
DZW
fXY (x, y)dxdy
4.3.3 Determinando fZW (z, w) por fXY (x, y)
Seja X e Y v.a.’s cont´ınuas com fdp conjunta fXY (x, y). Se a transformac¸a˜o
z = g(x, y) e w = h(x, y)
e´ injetiva e possui a transformac¸a˜o inversa
x = q(z, w) e y = r(z, w)
enta˜o a fdp conjunta de Z e W e´ dada por
fZW (z, w) = fXY (x, y)|J(x, y)|−1
onde x = q(z, w), y = r(x, y), e
J(x, y) =
∣∣∣∣∣ ∂g∂x ∂g∂y∂h∂x ∂h∂y
∣∣∣∣∣ =
∣∣∣∣ ∂z∂x ∂z∂y∂w
∂x
∂w
∂y
∣∣∣∣
o qual e´ o jacobiano da transformac¸a˜o.
Definimos
J(x, y) =
∣∣∣∣ ∂q∂z ∂q∂w∂r
∂z
∂r
∂w
∣∣∣∣ = ∣∣∣∣ ∂x∂z ∂x∂w∂y
∂z
∂y
∂w
∣∣∣∣
enta˜o
|J(z, w)| = |J(x, y)|−1.
Exemplo 4.3.1. A voltagem V e´ um func¸a˜o do tempo t e e´ dada por
V (t) = X cos(ωt) + Y sin(ωt)
na qual ω e´ uma frequencia angular constante e X = Y = N(0;σ2) e sa˜o independentes.
(a) Mostre que V (t) pode ser escrita como
V (t) = R(cos(ωt−Θ))
onde R =
√
X2 + Y 2 e Θ = tan−1 X
Y
.
(b) Calcule as fdp’s das v.a.’s R e Θ e mostre que R e Theta sa˜o independentes.
34
4.4 Esperanc¸a
4.4.1 Esperanc¸a de uma Func¸a˜o de Uma Varia´vel Aleato´ria
A esperanc¸a de Y = g(X) e´ dada por
E(Y ) = E[g(X)] =
{ ∑
i g(xi)pX(xi) caso discreto∫∞
−∞ g(x)fX(x)dx caso cont´ınuo
4.4.2 Esperanc¸a de uma Func¸a˜o de Mais de Uma Varia´vel Aleato´ria
Seja X1, . . . , Xn n v.a.’s e seja Y = g(X1, . . . , Xn). Enta˜o
E(Y ) = E[g(X)] =
{ ∑
x1
· · ·∑xn g(x1, . . . , xn)pX1···Xn(x1, . . . , xn) c. d.∫∞
−∞ · · ·
∫∞
−∞ g(x1, . . . , xn)fX1···Xn(x1, . . . , xn)dx1 · · · dxn c. c.
4.4.3 Propriedade de Linearidade da Esperanc¸a
Note que a operac¸a˜o esperanc¸a e´ linear, e temos
E
(
n∑
i=1
aiXi
)
=
n∑
i=1
aiE(xi)
onde os a′is sa˜o constantes. Se as v.a.’s X e Y sa˜o independentes, enta˜o temos
E[g(X)h(Y )] = E[g(X)]E[h(Y )]
A relac¸a˜o acima pode ser generalizado para um conjunto mutualmente independentes
de n v.a.’s X1, . . . Xn:
E
[
n∏
i=1
gi(Xi)
]
=
n∏
i=1
e[gi(Xi)]
4.4.4 Esperanc¸a Condicional com uma Varia´vel Aleato´ria
Ja´ definimos a esperanc¸a condicional de Y dado X = x , E(Y |x), o que e´, em geral, uma
func¸a˜o de x, dizemos H(X). Agora H(X) e´ uma func¸a˜o da v.a. X; isto e´,
H(X) = E(Y |x)
Assim, E(Y |x) e´ uma func¸a˜o da v.a. X. Note que E(Y |x) tem a seguinte propriedade
E[E(Y |X)] = E(Y ).
Exemplo 4.4.1. Seja X uma v.a. uniforme sobre (0, 1) e Y = eX
(a)Encontre E(Y ) usando fY (y);
(b)Encontre E(X) usando fX(x).
Exemplo 4.4.2. Seja X e Y definidos por
X = cos Θ e Y = sin Θ
onde Θ e´ uma v.a. uniformemente distribuida sobre (0, 2pi).
(a) Mostre que X e Y sa˜o descorrelatadas;
(b) Mostre que X e Y sa˜o independentes.
35
4.5 Func¸o˜es Geradoras de Momento
4.5.1 Definic¸a˜o
A func¸a˜o geradora de momento de uma v.a. X e´ definido por
MX(t) = E(e
tX) =
{ ∑
i e
txipX(xi) caso discreto∫∞
−∞ e
txfX(x)dx caso cont´ınuo
onde t e´ uma varia´vel real. Note que MX(t) pode na˜o existir para algumas v.a.’s. Em
geral, MX(t) existira´ somente para aqueles valores de t para o qual a soma ou integral
converge absolutamente. Suponha que MX(t) existe. Se expressarmos e
tX formalmente e
tomarmos a esperanc¸a, temos
MX(t) = E(e
tX) = E
[
1 + tX +
1
2!
(tX)2 + · · ·+ 1
k!
(tX)k + · · ·
]
= 1 + tE(X) +
t2
2!
E(X2) + · · ·+ t
k
k!
E(Xk) + · · ·
Suponha que MX(t) existe. Se expressarmos e
tX formalmente e tomarmos a esperanc¸a,
temos
MX(t) = E(e
tX) = E
[
1 + tX +
1
2!
(tX)2 + · · ·+ 1
k!
(tX)k + · · ·
]
(4.1)
= 1 + tE(X) +
t2
2!
E(X2) + · · ·+ t
k
k!
E(Xk) + · · · (4.2)
e o k-e´simo momento de X e´ dado por
mk = E(X
k) = MX(0)
com k = 1, 2, . . ., onde
M
(k)
X (0) =
dk
dtk
MX(t)
∣∣∣∣
t=0
4.5.2 Func¸a˜o Geradora de Momento Conjunta
A func¸a˜o geradora de momento conjunta MXY (t1, t2) de duas v.a.’s X e Y e´ definda por
MXY (t1, t2) = E[e
(t1X+t2Y )]
onde t1 e t2 sa˜o varia´veis reais. Procedendo como na eq. 4.1, podemos estabelecer que
MXY (t1, t2) = E[e
(t1X+t2Y )] =
∞∑
k=0
∞∑
n=0
tk1t
n
2
k!n!
E(XkY n)
e o (k, n) momento conjunto de X e Y e´ dado por
mkn = E(X
kY n) = M
(kn)
XY (0, 0)
onde
M
(kn)
XY (0, 0) =
∂k+n
∂kt1∂nt2
MXY (t1, t2)
∣∣∣∣
t1=t2=0
36
Exemplo 4.5.1. Seja o momento de uma v.a. discreta X dado por
E(Xk) = 0.8 k = 1, 2, ...
(a)Encontre a func¸a˜o geradora de momento de X;
(b)Calcule P (X = 0) e P (X = 1).
Exemplo 4.5.2. Calcule a func¸a˜o geradora de momento de uma v.a. normal padra˜o
X = N(0; 1) e calcule os treˆs primeiros momentos de X.
4.6 Func¸a˜o Caracter´ıstica
4.6.1 Definic¸a˜o
A func¸a˜o Caracter´ıtica de uma v.a. X e´ definida por
ΨX(ω) = E(e
jωX =
{ ∑
i e
jωxipX(xi) caso discreto∫∞
−∞ e
jωxfX(x)dx caso cont´ınuo
(4.3)
quando ω e´ uma varia´vel real e j =
√−1. Note que ΨX(ω) e´ obtida trocando t em MX(t)
por jω se MX(t) existe. Assim, a func¸a˜o caracter´ıstica possue todas as propriedades da
func¸a˜o geradora de momento.
Agora,
|ΨX(ω)| =
∣∣∣∣∣∑
i
ejωxipX(xi)
∣∣∣∣∣ ≤∑i
∣∣ejωxi∣∣ pX(xi) = ∑
i
pX(xi) = 1 <∞
para o caso discreto e
|ΨX(ω)| =
∣∣∣∣∫ ∞−∞ ejωxfX(x)dx
∣∣∣∣ ≤ ∫ ∞−∞ ∣∣ejωx∣∣ fX(x)dx =
∫ ∞
−∞
fX(x)dx = 1 <∞
para o caso cont´ınuo.
Dessa forma, A func¸a˜o caracter´ıstica ΨX(ω) e´ sempre definida mesmo se a func¸a˜o
momento MX(t) na˜o e´. Note que ΨX(ω) da Eq. 4.3 para o caso cont´ınuo e´ a transformada
de Fourier ( com o sinal de j trocado) de fX(x). Por causa deste fato, se ΨX(ω) e´
conhecida, fX(x) pode ser encontrada pela transformada de Fourier inversa; isto e´,
fX(x) =
1
2pi
∫ ∞
−∞
ΨX(ω)e
−jωxdω
4.6.2 Func¸o˜es Caracter´ısticas Conjuntas
A func¸a˜o caracter´ıstica conjunta ΨXY (ω1, ω2) de duas v.a.’s X e Y e´ definida por
ΨXY (ω1, ω2) = E[e
j(ω1X+ω2Y )] =
{ ∑
i
∑
k e
j(ω1xi+ω2yk)pXY (xi, yk) caso discreto∫∞
−∞
∫∞
−∞ e
j(ω1x+ω2y)fXY (x, y)dxdy caso cont´ınuo
(4.4)
onde ω1 e ω2 sa˜o varia´veis reais.
37
A expressa˜o da equac¸a˜o 4.4 para o caso cont´ınuo e´ reconhecida como a transformada
de Fourier bidimensional ( com o sinal de j trocado) de fXY (x, y). Assim, da transformada
de Fourier inversa, obtemos
fXY (x, y) =
1
(2pi)2
∫ ∞
−∞
∫ ∞
−∞
ΨXY (ω1, ω2)e
−j(ω1x+ω2y)dω1dω2
Das equac¸o˜es 4.3 e 4.4 vemos que
ΨY (ω) = ΨXY (ω, 0) e ΨY (ω) = ΨXY (0, ω)
as quais sa˜o chamadas func¸o˜es caracter´ısticas marginais.
Exemplo 4.6.1 (4.59). A func¸a˜o caracter´ıstica de uma v.a. X e´ dada por
ΨX(ω) =
{
1− |ω|, |ω| < 1
0 |ω| > 1
Calcule a fdp de X.
38
	Teoria da Probabilidade
	Espaço Amostral e Eventos
	A Noção e os Aximas da Probabilidade
	Definição da Frequência Relativa
	Definição Axiomática
	Propriedades Elementares da Probabilidade
	Eventos Igualmente Prováveis
	Espaço Amostral Finito
	Eventos Igualmente Prováveis
	Probabilidade Condicional
	Definição
	Regra de Bayes
	Probabilidade Total
	Eventos independentes
	Variáveis Aleatórias
	Introdução
	Variáveis Aleatórias
	Definição
	Eventos Definidos por Variáveis Aleatórias
	Função de Distribuição
	Definição
	Propriedades da FX(x)
	Determinação de Probabilidades pela Função de Distribuição
	Variáveis Aleatórias Discretas e fmp
	Definição
	Função Massa de Probabilidade
	Propriedades da pX(x)
	Variáveis Aleatórias Contínuas e fdp
	Definição
	Função Densidade de Probabilidade
	Propriedades de fX(x)
	Média e Variância
	Média
	Momento
	Variância
	Algumas Distribuições Especiais
	Distribuição Bernoulli
	Distribuição Binomial
	Distribuição de Poisson
	Distribuição Uniforme
	Distribuição Exponencial
	Distribuição Normal (ou Gaussiana)
	Distribuição Condicional
	Exercícios
	Variáveis Aleatórias Multidimensionais
	Introdução
	Variáveis Aleatórias Bidimensionais
	Definição
	Função de Distribuição Conjunta
	Definição
	Propriedades de FXY(x,y)
	Função de Distribuição Marginal
	V.A. Discreta - FMP Conjunta
	FMP Conjunta
	Propriedades de pXY(xi,yj)
	FMP Marginal
	Variáveis Aleatórias Independentes
	Variáveis Aleatórias Contínuas - FDP Conjunta
	Função Densidade de Probabilidade Conjunta
	Propriedades de fXY(x,y)
	FDP Marginal
	Variáveis Aleatórias Independentes
	Distribuições Condicionais
	Função Massa de Probabilidade Condicional
	Propriedades de pY|X(yj|xi)
	Função Densidade de Probabilidade Condicional
	Propriedades de fY|X(x|y)
	Coeficientes de Covariância e Correlação
	Média e Variância Condicionais
	Exercícios
	Função de uma Variável Aleatória
	Introdução
	Funções de Uma Variável Aleatória
	Variável Aleatória g(X)
	Determinação de fY(y) por fX(x)
	Função de Duas Variáveis Aleatórias
	Um Função de Duas Variáveis Aleatórias
	Duas Funções de Duas Variáveis Aleatórias
	Determinando fZW(z,w) por fXY(x,y)
	Esperança
	Esperança de uma Função de Uma Variável Aleatória
	Esperança de uma Função de Mais de Uma Variável Aleatória
	Propriedade de Linearidade da Esperança
	Esperança Condicional com uma Variável Aleatória
	Funções Geradoras de Momento
	Definição
	Função Geradora de Momento Conjunta
	Função Característica
	Definição
	Funções Características Conjuntas

Outros materiais