Buscar

Apostila_Avaliação e Desempenho

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 160 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 160 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 160 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Avaliac¸a˜o e Desempenho
MAB-515, DCC/UFRJ
Apostila
Paulo Aguiar, DCC/IM
27 de julho de 2013
1
Conteu´do
1 Motivac¸a˜o 6
2 Revisa˜o de Ana´lise Combinato´ria 10
3 Alocac¸a˜o de bolas em urnas 14
4 Teoria de Probabilidade 15
5 Eventos igualmente prova´veis 18
6 Probabilidade Condicional 21
7 Problemas de Aplicac¸a˜o 23
8 Aplicac¸a˜o: Confiabilidade (”Reliability”) 26
9 Experimentos de Bernoulli 28
10 Varia´veis Aleato´rias 29
10.1 Varia´vel Discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
10.2 Func¸a˜o Distribuic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
10.3 Func¸o˜es Singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
10.4 Varia´vel Aleato´ria Cont´ınua . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
10.5 Propriedade da Falta de Memo´ria . . . . . . . . . . . . . . . . . . . . . . . . 35
10.6 Relac¸a˜o entre Distribuic¸a˜o Exponencial e Processo Poisson . . . . . . . . . . 36
10.7 Varia´vel Aleato´ria Mista . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
11 Func¸o˜es de Varia´veis Aleato´rias 39
11.1 Metodologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
11.2 Gerac¸a˜o de Distribuic¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
12 Distribuic¸a˜o Conjunta Cumulativa de V.As. 44
2
13 Propriedades de Varia´veis Aleato´rias 49
13.1 Me´dia, Esperanc¸a ou Valor Esperado . . . . . . . . . . . . . . . . . . . . . . 49
13.2 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
13.3 Esperanc¸a Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
13.4 Variaˆncia Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
14 Transformadas 60
14.1 Transformada de Laplace Unilateral para Func¸o˜es Cont´ınuas . . . . . . . . . 60
14.1.1 Analiticidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
14.1.2 Propriedades da Transformada de Laplace . . . . . . . . . . . . . . . 65
14.1.3 Alguns Pares de Transformadas de Laplace . . . . . . . . . . . . . . . 67
14.2 Transformada Z para Func¸o˜es Discretas . . . . . . . . . . . . . . . . . . . . . 68
14.2.1 Analiticidade da Transformada Z dentro do c´ırculo unita´rio . . . . . . 73
14.2.2 Propriedades da Transformada Z . . . . . . . . . . . . . . . . . . . . 74
14.2.3 Pares de Transformadas Z . . . . . . . . . . . . . . . . . . . . . . . . 75
15 Teoria de Filas 76
15.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
15.2 A fila M/M/1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
15.3 A fila M/G/1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
15.3.1 A Vida Residual do Servic¸o . . . . . . . . . . . . . . . . . . . . . . . 81
15.3.2 A Me´dia do Per´ıodo Ocupado . . . . . . . . . . . . . . . . . . . . . . 83
15.3.3 A Transformada de Laplace da pdf do Per´ıodo Ocupado . . . . . . . 84
15.3.4 A transformada Z do nu´mero presente na fila M/G/1 . . . . . . . . . 85
15.3.5 A transformada de Laplace do tempo gasto na fila M/G/1 FCFS . . . 87
15.4 A Fila M/G/1 com Fe´rias . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
15.4.1 O Per´ıodo Ocioso na Fila M/G/1 com fe´rias . . . . . . . . . . . . . . 89
15.4.2 O Per´ıodo Ocupado na Fila M/G/1 com Fe´rias . . . . . . . . . . . . 91
15.4.3 A transformada Z do nu´mero presente na fila M/G/1 com fe´rias . . . 91
3
15.4.4 A transformada de Laplace do tempo gasto na fila M/G/1 com fe´rias
FCFS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
15.5 Fila M/G/1 com disciplina LCFS sem interrupc¸a˜o de servic¸o . . . . . . . . . 94
15.6 M/G/1 com Disciplina LCFS com interrupc¸a˜o de servic¸o e continuidade . . . 95
15.7 M/G/1 com disciplina LCFS com interrupc¸a˜o de servic¸o sem continuidade . 96
15.8 Sistema de Filas com Classes de Usua´rios . . . . . . . . . . . . . . . . . . . . 98
15.9 Lei da Conservac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
15.10Redes de Filas M/M/1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
16 Desigualdades e Limites 108
16.1 Normalizac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
16.2 Func¸a˜o de Gauss ou Distribuic¸a˜o Normal . . . . . . . . . . . . . . . . . . . . 110
16.3 Teorema do Limite Central . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
16.4 Aproximando Distribuic¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
16.5 Percentil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
16.6 Estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
16.6.1 Estimando a Me´dia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
16.6.2 Estimando a Variaˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . 115
16.7 Intervalo de Confianc¸a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
16.7.1 Intervalo de Confianc¸a para a Me´dia de uma Populac¸a˜o com Variaˆncia
Desconhecida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
16.7.2 Intervalo de Confianc¸a para a Me´dia de uma Populac¸a˜o com Variaˆncia
Conhecida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
16.7.3 Distribuic¸a˜o χ2 (chi-square) . . . . . . . . . . . . . . . . . . . . . . . 118
16.7.4 Intervalo de Confianc¸a para a Variaˆncia de uma Populac¸a˜o Normal
com Me´dia Desconhecida . . . . . . . . . . . . . . . . . . . . . . . . . 118
16.7.5 Intervalos Parciais de Confianc¸a . . . . . . . . . . . . . . . . . . . . 120
16.7.6 Intervalo de Confianc¸a para Proporc¸o˜es . . . . . . . . . . . . . . . . 121
16.7.7 Comparac¸a˜o de Alternativas . . . . . . . . . . . . . . . . . . . . . . 123
17 Simulac¸a˜o 125
4
17.1 Gerac¸a˜o de Nu´meros (Pseudo) Aleato´rios . . . . . . . . . . . . . . . . . . . . 125
17.2 Simulac¸a˜o de M/M/1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
17.3 Medidas de Desempenho . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
17.4 Ca´lculo das Estat´ısticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
17.5 Depurac¸a˜o do Modelo Simulado . . . . . . . . . . . . . . . . . . . . . . . . . 131
17.6 Me´todo de Ana´lise de Resultado . . . . . . . . . . . . . . . . . . . . . . . . . 132
17.7 Da Escolha das Sementes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
18 Cadeia de Markov em Tempo Discreto 135
18.1 Classificac¸a˜o dos Estados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
18.2 Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
18.3 Tempo me´dio para ir de um estado a outro . . . . . . . . . . . . . . . . . . . 142
18.4 Espac¸o de Estados Infinito . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
19 Cadeia de Markov em Tempo Cont´ınuo 150
19.1 CMTC Homogeˆnea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
19.2 Processo Nascimento e Morte (Birth-Death Processes) . . . . . . . . . . . . . 153
19.3 Processo de Nascimento Puro com taxa constante . . . . . . . . . . . . . . . 156
19.4 Soluc¸a˜o de CMTC em Equil´ıbrio . . . . . . . . . . . . . . . . . . . . . . . . 157
19.5 Tempo me´dio entre retornos a um estado . . . . . . . . . . . . . . . . . . . . 158
19.6 Tempo me´dio para ir de um estado a outro . . . . . . . . . . . . . . . . . . . 160
5
1 Motivac¸a˜o
Experimento 1: Duas pessoas, A e B, lanc¸am, a cada vez, uma moeda ao ar. Ganha o
jogo quem tira CARA primeiro. Suponhamos que A inicia o jogo. Assuma:
• Probabilidade de dar CARA = P{CARA} = p, 0 < p < 1
• Probabilidadede dar COROA = P{COROA} = 1− p
Pergunta: Seria razoa´vel ter p = 1 ou p = 0? O que significaria?
Queremos obter:
P{ pessoa A ganhar o jogo } = PA
= P{ quem comec¸a ganha}
= Pinicia
Soluc¸a˜o pelo me´todo da enumerac¸a˜o de todas as possibilidades:
Evento Probabilidade Explicac¸a˜o
A ganha na jogada 1 p
A ganha na jogada 3 (1− p)2p A perde, B perde e A ganha
A ganha na jogada 5 (1− p)4p
A ganha na jogada 7 (1− p)6p
· · · · · ·
PA = Pinicia
∑∞
n=0(1− p)2np = 1/(2− p)
Recordac¸a˜o: Se´rie Geome´trica
∞∑
n=0
qn = 1 + q + q2 + · · ·
= 1 + q(1 + q + q2 + · · · )
= 1 + q
∞∑
n=0
qn
e enta˜o
∑∞
n=0 q
n = 1/(1− q).
OBS.:
∑∞
n=0 q
n tem que convergir e portanto 0 < q < 1.
Em geral, an = a0q
n−1 e
∑∞
n=0 an =
a0
1−q .
Tambe´m, Sn =
∑n
i=1 ai =
a0−anq
1−q , onde an = aoq
n−1.
0chap1.tex, 07/09/09
6
Soluc¸a˜o recursiva:
Se A na˜o ganhar na primeira jogada, a partir da segunda jogada seria como se B estivesse
iniciando o jogo naquele momento e a probabilidade de B ganhar seria igual a Pinicia = PA.
Vamos montar o pensamento recursivo, condicionando na ocorreˆncia do resultado da
primeira jogada. A te´cnica de condicionamento e´ muito importante na soluc¸a˜o de problemas
complexos.
Podemos enta˜o escrever:
PA = P{A ganhar e deu cara na jogada 1} + P{A ganhar e deu coroa na jogada 1}
= P{ A ganhar | deu cara na jogada 1}× P{deu cara na jogada 1} +
P{ A ganhar | deu coroa na jogada 1} × P{deu coroa na jogada 1}
= 1× p+ (1− p)× P{ B na˜o ganha o jogo a partir da jogada 2}
= p+ (1− p)(1−P{B ganha o jogo a partir da jogada 2})
= p+ (1− p)(1− Pinicia)
= p+ (1− p)(1− PA), e enta˜o, PA = 1/(2− p)
Conceito: probabilisticamente o jogo se repete apo´s o resultado de uma coroa, e tudo
acontece como se o pro´ximo jogador estivesse iniciando o jogo novamente.
*
Experimento 2: lance uma moeda treˆs vezes. Seja X o nu´mero de caras obtido e Y o
nu´mero de coroas obtido.
Eventos ba´sicos: {coroa,cara}
Espac¸o de amostragem do experimento :
{(cara,cara,cara), (cara,cara,coroa), · · · , (coroa,coroa,coroa)}
Total de amostras = 23 = 8. Suponha uma moeda honesta, P{cara} = P{coroa} = 1/2.
espac¸o amostral prob X Y evento X < Y
jogada 1 jogada 2 jogada 3
cara cara cara 1/8 3 0
cara cara coroa 1/8 2 1
cara coroa cara 1/8 2 1
cara coroa coroa 1/8 1 2 x
coroa cara cara 1/8 2 1
coroa cara coroa 1/8 1 2 x
coroa coroa cara 1/8 1 2 x
coroa coroa coroa 1/8 0 3 x
Comprove que:
P{Y = 0} = 1/8, P{Y = 1} = 3/8, P{Y = 2} = 3/8, P{Y = 3} = 1/8.
Vamos analisar o significado do condicionamento. Vamos calcular P{Y = n|X < Y },
para os valores poss´ıveis de n. Pela tabela acima, os eventos que garantem X < Y esta˜o
7
Fila de requisic¸o˜es Mo´dulos de Memo´ria
------+----+-----+----+----
| rn+1 | rn | ... | r2 | r1 | ---
------+----+-----+----+---- -->| 0 |------->
| | | --- / ---
| | ---> | S |-- ---
| --------> | C |----->| 1 |------->
| . | A | ---
| . | N |-- ...
| . | N | \ ---
-------------------> | E | -->|n-1|
| R | ---
---
Figura 1 - Arquitetura da Memo´ria
marcados com x.
Observe que dos 8 eventos poss´ıveis, apenas 4 satisfazem a condic¸a˜o X < Y . Isto significa
que o espac¸o amostral ficou reduzido a 4 amostras, igualmente prova´veis. Dentro deste novo
espac¸o amostral, cada uma destas amostras tem probabilidade 1/4.
P{Y = n|X < Y } = 0 , n=0
= 0 , n=1
= 3/4 , n=2
= 1/4 , n=3
Observe que P{Y = n|Y > 2} =
{
0 n = 0, 1, 2
1 n = 3
. Neste caso so´ um ponto amostral
ocorre e nele Y = 3.
*
Aplicac¸a˜o: avaliac¸a˜o de desempenho de memo´rias entrelac¸adas
Seja considerada a arquitetura de memo´ria mostrada na Figura 1.
< enderec¸o de memo´ria > = < # do mo´dulo >< palavra >
As requisic¸o˜es ri ∈ {0, 1, · · · , n− 1}.
A fila de requisic¸o˜es e´ analisada no ciclo anterior. Mo´dulos sa˜o alocados ate´ que a
requisic¸a˜o a um mo´dulo ja´ ocupado ocorra. Um ma´ximo de n requisic¸o˜es e´ analisado por
vez.
Seja k = nu´mero de mo´dulos alocados por ciclo, com pmf ( probability mass function -
func¸a˜o de massa de probabilidade, pois a distribuic¸a˜o e´ discreta) P (k), k = 1, 2, · · · , n.
8
Bn =
∑n
k=1 kP (k)
△
=
banda de passagem me´dia da memo´ria, B − n ≤ n.
M ciclos de processador por ciclo de memo´ria tal que M ≤ n.
Suposic¸a˜o: P (ri = j) = 1/n, ∀j. Os ri sa˜o i.i.d. (independentes e identicamente
distribu´ıdos).
Forma de escolher Possibilidades
2a. req. diferente da 1a. n−1
n
3a. 6= 2a. 6= 1a. n−2
n
4a. 6= 3a. 6= 2a. 6= 1a. n−3
n
...
...
k 6= = anteriores n−k+1
n
k + 1 = um dos k anteriores k
n
Enta˜o:
P (k) =
(n− 1)(n− 2) · · · (n− k + 1)
nk−1
k
n
=
k(n− 1)(n− 2) · · · (n− k + 1)
nk
Bn =
n∑
k=1
kP (k) ≈ n0,56, 1 ≤ n ≤ 45.
Neste modelo, instruc¸o˜es e dados sa˜o tratados igualmente.
***
9
2 Revisa˜o de Ana´lise Combinato´ria
Motivac¸a˜o: Ca´lculo do Nu´mero de Placas com treˆs letras e quatro nu´meros
LLLNNNN
Quantas placas com 7 identificadores sa˜o poss´ıveis, se as 3 primeiras posic¸o˜es sa˜o letras
e as outras 4 sa˜o nu´meros?
Assuma: alfabeto com 26 letras.
Resposta: 26.26.26.10.10.10.10 = 175.760.000
E se letras nem nu´meros podem ser repetidos?
Resposta: 26.25.24.10.9.8.7 = 78.624.000
*
Princ´ıpio Ba´sico de Contagem
Se r experimentos sa˜o realizados nos quais o primeiro pode ter n1 resultados diferentes, e
para cada um desses n1 resultados podemos ter n2 resultados do segundo experimento, e para
cada um desses poss´ıveis resultados dos 2 primeiros experimentos ha´ n3 poss´ıveis resultados
do terceiro experimento e assim sucessivamente, o nu´mero total de resultados poss´ıveis dos
r experimentos e´ n1 × n2 × · · · × nr.
*
Permutac¸a˜o
Permutac¸a˜o e´ um arranjo ordenado.
Dado o conjunto {a,b,c}, quantas permutac¸o˜es de 3 letras sa˜o poss´ıveis?
abc bac cab
acb bca cba
Use o princ´ıpio ba´sico de contagem:
3 × 2 × 1 = 6 resultados poss´ıveis
Para n posic¸o˜es: n(n− 1)(n− 2) · · ·2.1 = n!
*
0chap2.tex, 12/11/2012
10
Aplicac¸a˜o
Temos 10 livros: 4 de matema´tica, 3 de qu´ımica, 2 de histo´ria e 1 de l´ınguas. Quantos
arranjos sa˜o poss´ıveis, considerando que livros do mesmo to´pico ficam juntos na prateleira?
Resposta: mat. qu´ımica hist. l´ınguas
4! 3! 2! 1!
Arranjo dos to´picos:
4!
Total: 4! x(4! x 3! x 2! x 1!) = 6912.
*
Permutac¸a˜o com elementos repetidos
Quantas sa˜o as permutac¸o˜es poss´ıveis da palavra PEPPER?
Assumindo todas as letras diferentes, P1E1P2P3E2R, temos 6! permutac¸o˜es.
Quando os P s na˜o sa˜o distintos: 3! das permutac¸o˜es acima sa˜o ideˆnticas.
P1E1P2P3E2R
P1E1P3P2E2R
P2E1P1P3E2R
P2E1P3P1E2R
P3E1P1P2E2R
P3E1P2P1E2R
Se os Es na˜o sa˜o distintos: 2! permutac¸o˜es ideˆnticas podem ser conseguidas a partir de
cada uma das acima.
Enta˜o, 6!
3!2!
permutac¸o˜es sa˜o poss´ıveis.
Generalizando:
Existem n1
n1!n2!···nr! permutac¸o˜es de n objetos, onde n1 sa˜o ideˆnticos, n2 sa˜o ideˆnticos, etc.,
e n = n1 + n2 + · · ·+ nr.
Exemplo: Quantos sinais diferentes podem ser conseguidos com 9 bandeiras de igual
formato, sendo 4 brancas, 3 vermelhas e 2 azuis?
Resposta: 9!
4!3!2!
.
*
11
Combinac¸o˜es
Dados n objetos, de quantas maneiras posso escolher r objetos?
Exemplo: n=5, conjunto {A,B,C,D,E}, e r=3.
Se a ordem e´ relevante, ou seja, ABC diferente de CBA, enta˜o:
5 × 4 × 3 = 60 arranjos poss´ıveis
Se a ordem na˜o e´ relevante, enta˜o cada uma das 3! permutac¸o˜es sa˜o ideˆnticas para cada
grupo de 3 letras.
Enta˜o: 5.4.3
3!
= 10 =
(
5
3
)
.
As combinac¸o˜es poss´ıveis de cinco elementos treˆs a treˆs sa˜o mostradas abaixo:
ABC ABD ABE ACD ACE ADE BCD BCE BDE CDE(
5
3
)
= 5!
3!2!
Em geral:(
n
r
)
=
(
n
n−r
)
= n!
r!(n−r)! , r ≤ n
Convenc¸a˜o:
(
n0
)
= 1, 0! = 1.
Exemplo: Sistema de cobranc¸a de peda´gio com 5 postos. Existem 5 cobradores, dos
quais 2 sa˜o surdos e 3 sa˜o sauda´veis. Quantas sa˜o as ordenac¸o˜es em que duas pessoas surdas
na˜o sa˜o vizinhas?
B = cobrador que ouve bem
S = cobrador surdo
Enumerando todas as possibilidades:
BBSBS BSBSB BSBBS SBSBB SBBSB SBBBS
Soluc¸a˜o:
Fixe os que ouvem bem : B B B
Preencha os surdos a` vontade nos espac¸os, ou seja, escolha 2 espac¸os dentre 4.
Resposta:
(
4
2
)
.
No caso geral de n cobradores sauda´veis em surdos a resposta seria
(
n+1
m
)
, comm ≤ n+1.
*
12
Identidade Combinatorial(
n
r
)
=
(
n− 1
r − 1
)
+
(
n− 1
r
)
, 1 ≤ r ≤ n
onde convenciona-se que
(
k
k+1
)
= 0, ∀k ≥ 0.
*
Teorema Binomial
(x+ y)n =
n∑
k=0
(
n
k
)
xkyn−k
Aplicac¸a˜o: Quantos subconjuntos de um conjunto de n elementos podem ser formados?
n∑
k=0
(
n
k
)
= (1 + 1)n = 2n.
Destes subconjuntos, 2n − 1 conte´m pelo menos 1 elemento.
*
Expressa˜o Multinomial
De quantas maneiras podemos dividir n objetos distintos em grupos de tamanhos n1, n2, · · · , nr
tal que n =
∑r
i=1 ni?
Resposta:
(
n
n1
)(
n−n1
n2
)(
n−n1−n2
n3
) · · · (n−∑r−1i=1 ni
nr
)
= n!
n1!n2!···nr !
13
3 Alocac¸a˜o de bolas em urnas
Problema 1: Dadas n bolas e r urnas, de quantas maneiras podemos alocar as bolas nas
urnas, sendo admitido que urnas fiquem vazias?
Soluc¸a˜o: Assuma 5 bolas (n = 5) e 3 urnas (r = 3). Represente o conteu´do das urnas pelo
nu´mero de bolas em cada urna e separe por v´ırgula estes nu´meros. Assim, uma alocac¸a˜o de
3 bolas na primeira urna, 1 bola na segunda urna e 1 bola na terceira urna seria representada
por <000,0,0>. Enta˜o a soluc¸a˜o do problema pode ser colocada como:
, ,
- - - - - - -
Escolha dois trac¸os dentre os 7 trac¸os para posicionar as v´ırgulas, ou seja
(
7
2
)
maneiras. Em
geral escolha (r− 1) trac¸os dentre os (n+ r− 1)trac¸os, ou seja (n+r−1
r−1
)
=
(
n+r−1
n
)
maneiras.
*
Problema 2: Assumindo que n ≥ r, de quantas forma podemos alocar as bolas nas urnas
sendo que cada urna contenha pelo menos uma bola?
Soluc¸a˜o: Apo´s alocarmos r bolas para garantir a alocac¸a˜o mı´nima de 1 bola por urna,
sobram (n − r) para serem distribu´ıdas como no problema 1. Portanto, (n−r+r−1
r−1
)
=
(
n−1
r−1
)
maneiras.
Pelos resultados anteriores, assumindo que xi seja o conteu´do da i-e´sima urna, com∑i=r
i=1 xi = N , existem
(
n+r−1
n
)
vetores (x1, x2, · · · , xr) satisfazendo x1 + x2 + · · · + xr =
N e xi ≥ 0, e existem
(
n−1
r−1
)
vetores (x1, x2, · · · , xr) satisfazendo x1 + x2 + · · · + xr =
N e xi > 0.
*
Aplicac¸a˜o: Capital para investimento $20. Investimento mı´nimo $1. Existem 4 oportuni-
dades de investimento.
Pergunta: De quantas formas posso investir?
x1 + x2 + x3 + x4 = 20, xi ≥ 0.(
23
3
)
= 1771 maneiras, se todo o dinheiro necessita ser investido.
Se x5 representa a parte na˜o investida enta˜o:
x1 + x2 + x3 + x4 + x5 = 20, xi ≥ 0
(
24
4
)
= 10.626 possibilidades.
0chap3-6.tex, 07/09/09
14
4 Teoria de Probabilidade
A teoria de probabilidade esta´ baseada na observac¸a˜o de que uma colec¸a˜o grande de fatos
aleato´rios gera regularidade estat´ıstica.
Modelo
• Espac¸o de Amostragem S = colec¸a˜o de todos os eventos ba´sicos exaustivos e exclusivos
de um experimento. Os eventos ba´sicos sa˜o chamados pontos do espac¸o S.
Exemplos:
– Experimento: lanc¸ar uma moeda.
S= { cara, coroa } = { H,T }.
– Experimento: lanc¸ar uma moeda 2 vezes.
S = { (H,T), (H,H), (T,H), (T,T) }.
– Experimento: tirar uma bola no escuro de uma urna contendo 3 bolas: preta,
vermelha, e branca.
S = { p, v, b }.
• Famı´lia de Eventos E .
E e´ um conjunto de pontos de amostragem, satisfazendo determinada propriedade. Cor-
responde a uma classe ou resultado no mundo real.
Exemplo:
Dado o experimento: lanc¸ar uma moeda 2 vezes.
Evento E = pelo menos uma cara ocorre = { (H,T),(T,H),(H,H) }.
Se qualquer um dos eventos ba´sicos acima acontece, enta˜o o evento E acontece.
Evento F = pelo menos uma coroa ocorre = { (H,T),(T,H),(T,T) }.
Intersec¸a˜o de E e F = EF = {(H,T),(T,H) } = pelo menos uma cara e uma coroa.
Diagramas de Venn
*
15
Leis de DeMorgan
(
⋃n
i=1Ei)
C
=
⋂n
i=1E
C
i , ou seja, se um ponto na˜o pertence a nenhum dos eventos Ei,
enta˜o ele tem que pertencer a` intersec¸a˜o dos complementos destes eventos.
(
⋂n
i=1Ei)
C
=
⋃n
i=1E
C
i se um ponto na˜o pertence a` intersec¸a˜o dos eventos Ei, enta˜o ele
pertence a um dos complementos ECi .
***
Axiomas
1. ∀ evento E, 0 ≤ P (E) ≤ 1.
2. P (S) = 1.
3. Se E1 e E2 sa˜o eventos mutuamente exclusivos E1
⋂
E2 = Φ (”disjoint”) enta˜o P (E1
⋃
E2) =
P (E1) + P (E2).
***
Definic¸a˜o
{E1, E2, · · · , En} e´ um conjunto exaustivo de eventos se E1
⋃
E2
⋃ · · ·⋃En = S.
O conjunto {Ei} e´ mutuamente exclusivo se Ei
⋂
Ej = Φ para todo i 6= j.
Propriedades
E
⋃
EC = S, E
⋂
EC = Φ, EΦ = Φ, E
⋃
S = S, E
⋃
Φ = E,
SC = Φ, ΦC = S, E
⋂
S = E.
*
Partic¸a˜o
{Ei} e´ uma partic¸a˜o de S se e somente se {Ei} e´ exaustivo e mutuamente exclusivo.
Proposic¸o˜es
1. P (EC) = 1− P (E).
Demo: 1 = P (S) = P (E
⋃
EC) = P (E) + P (EC).
2. Se E ⊂ F , enta˜o P (E) ≤ P (F ).
Demo: Se E ⊂ F , enta˜o F = E⋃ECF . Sendo E e ECF mutuamente exclusivos,
pelo axioma 3 temos P (F ) = P (E) + P (ECF ), o que comprova o resultado pois
P (ECF ) ≥ 0.
16
3. P (E
⋃
F ) = P (E) + P (F )− P (EF )
Demo: Fac¸a como exerc´ıcio.
Para treˆs elementos temos:
P(A
⋃
B
⋃
C ) = P(A) + P(B) + P(C) - P(AB) - P(AC) - P(BC) + P(ABC).
Para quatro elementos temos:
P(A
⋃
B
⋃
C
⋃
D) = P(A) + P(B) + P(C) + P(D) - P(AB) - P(AC) - P(AD) -
P(BC) - P(BD) - P(CD) + P(ABC) + P(ABD) + P(BCD) - P(ABCD).
Generalizando:
P (E1
⋃
E2
⋃
· · ·
⋃
En) =
n∑
i=1
P (Ei)−
∑
i1<i2
P (Ei1Ei2) + · · ·
(−1)r+1
∑
i1<i2<···ir
P (Ei1Ei2 · · ·Eir) + · · ·
(−1)n+1P (E1E2 · · ·En).
A soma
∑
i1<i2<···<ir P (Ei1Ei2 · · ·Eir) e´ feita sobre os
(
n
r
)
poss´ıveis conjuntos de tama-
nho r do conjunto {1, 2, · · · , n}.
17
5 Eventos igualmente prova´veis
Problema 1: Se duas bolas sa˜o retiradas aleatoriamente de uma urna contendo 6 bolas
brancas e 5 pretas, qual e´ a probabilidade de que uma das bolas seja branca e a outra seja
preta?
Soluc¸a˜o 1: Assuma cada bola marcada individualmente.
Total de resultados poss´ıveis = 11 x 10 = 110 possibilidades.
Maneiras em que a 1a bola e´ branca e a 2a e´ preta = 6 x 5 = 30.
Maneiras em que a 1a bola e´ preta e a 2a e´ branca = 5 x 6 = 30.
Probabilidade =
# de eventos satisfazendo condic¸a˜o
# total de eventos
= 60
110
= 6
11
.
Soluc¸a˜o 2: Assuma que a ordem e´ irrelevante.
Total de resultados poss´ıveis =
(
11
2
)
= 55.
Resultados com uma bola preta e uma branca =
(
6
1
)(
5
1
)
= 30.
Probabilidade = 30
55
= 6
11
.
*
Problema 2: Assuma um jogo de poquer jogado com 52 cartas. Qual a probabilidade de
se receber uma sequeˆncia (as cartas em sequeˆncia e na˜o todas do mesmo naipe)?
Soluc¸a˜o: Suponha a ma˜o: A, 2, 3, 4 e 5.
Cada carta pode ser de um dos 4 naipes. Existem portanto 45 possibilidades, e destas 4
sa˜o com cartas do mesmo naipe (”flush”).
Portanto temos (45 − 4) sequeˆncias do tipo (A 2 3 4 5), que na¨o sa˜o ”flush”.
De quantas maneiras podemos organizar sequeˆncias ? Resposta: 10 maneiras.
(A 2 3 4 5), (2 3 4 5 6), · · · , (10 J Q K A)
Total de combinac¸o˜es de 5 cartas =
(
52
5
)
Probabilidade da sequeˆncia = 10(4
5−4)
(525 )
≈ 0, 0039
*
Problema 3: ”Full House”= (par + trinca ). Qual a probabilidade do ”full house”?
Soluc¸a˜o: PPTTT(
4
2
)(
4
3
)
possibilidades na escolha dos naipes.
Possibilidades de se escolher o par = 13.
18
Possibilidades de se escolher a trinca depois de escolhido o par = 12
Probabilidade =
12.13.(42).(
4
3)
(525 )
≈ 0, 0014
***
Aplicac¸a˜o: Suponha que N homens lancem seus chape´us no centro de uma sala. Os chape´us
sa˜o misturados e enta˜o cada homem seleciona um chape´u aleatoriamente.
Qual e´ a probabilidade de que nenhum homem selecione seu pro´prio chape´u?
Se N →∞ para que valor deve convergir a probabilidade?
Soluc¸a˜o: Seja Ei = evento de que o i-e´simo homem seleciona seu pro´prio chape´u.
P (
N⋃
i=1
Ei) =
n∑
i=1
P (Ei)−
∑
i1<i2
P (Ei1Ei2) + · · ·
(−1)n+1
∑
i1<i2<···in
P (Ei1Ei2 · · ·Ein) + · · ·
(−1)N+1P (E1E2 · · ·EN)
= prob. de pelo menos 1 pessoa apanhar seu pro´prio chape´u.
Seja i1 o nu´mero do chape´u escolhido pelo homem H1. Se i1 = 1, enta˜o H1 escolheu
seu pro´prio chape´u. Em geral, a amostra do experimento pode ser expressa pela n-tupla
(i1, i2, · · · , in), onde ii e´ o chape´u escolhido pelo homem Hi. O total de amostras e´ N !.
Uma amostra (1, 2, 3, · · · , N) indica que cada homem seleciona o seu pro´prio chape´u.
Seja (Ei1Ei2 · · ·Ein) o evento em que cada um dos n homens i1, i2, · · · , in seleciona o seu
pro´prio chape´u. Observe que nada e´ assumido quanto aos outros homens. Dos (N − n) que
sobraram, o primeiro pode escolher o chape´u de (N−n) maneiras. O segundo de (N−n−1)
e assim sucessivamente. As possibilidades sa˜o (N − n)!.
P (Ei1Ei2 · · ·Ein) = (N−n)!N ! .
Ha´
(
N
n
)
termos em
∑
i1<i2<···<in P (Ei1Ei2 , · · ·Ein), enta˜o∑
i1<i2<···<in P (Ei1Ei2 · · ·Ein) =
(
N
n
) (N−n)!
N !
= 1
n!
,
e enta˜o
P (
⋃N
i=1Ei) = 1− 12! + 13! − · · ·+ (−1)N+1 1N ! .
Portanto a probabilidade de nenhum homem selecionar seu pro´prio chape´u e´
1
2!
− 1
3!
+ · · ·+ (−1)N 1
N !
. Esta probabilidade tende para 1
e
= 0, 36755 com N →∞.
***
19
O problema dos Pontos: Tentativas independentes resultam em sucesso com probabili-
dade p e fracasso com probabilidade 1− p. Qual a probabilidade de que n sucessos ocorram
antes de m fracassos?
Soluc¸a˜o (Fermat): Pn,m = prob. de n sucessos antes de m fracassos.
Pn,m = pPn−1,m + (1− p)Pn,m−1, n ≥ 1, m ≥ 1, com as condic¸o˜es de contorno P0,m = 1
e Pn,0 = 0.
Soluc¸a˜o (Pascal): Para que n sucessos ocorram antes de m fracassos e´ necessa´rio e sufi-
ciente que pelo menos n sucessos ocorram em n+m− 1 tentativas.
P (k sucessos em n+m− 1 tentativas ) = (n+m−1
k
)
pk(1− p)n+m−1−k, e enta˜o
Pn,m =
∑n+m−1
k=n
(
n+m−1
k
)
pk(1− p)n+m−1−k.
Associac¸a˜o: A e B jogam um jogo em que A ganha 1 ponto quando um sucesso ocorre e B
ganha um ponto quando um fracasso ocorre. A probabilidade desejada e´ a probabilidade de
que A ganharia, se ao interromper o jogo, A necessitasse de n e B necessitasse de m pontos
para ganhar.
Suponha que cada jogador coloca R$ C e cada um tem chance de ganhar de 1/2 = p. Se
n pontos sa˜o necessa´rios ao vencedor e o jogador A tem 1 ponto e B nenhum, enta˜o, sendo
o jogo interrompido nesta situac¸a˜o, A tem o direito a 2CPn−1,n = 2C
∑2n−2
k=n−1
(
2n−2
k
)
(1
2
)2n−2.
Mostre que o resultado acima e´ igual a C
[
1 + (1/2)2n−2
(
2n−2
n−1
)]
.
Explicac¸a˜o do Racioc´ınio de Pascal
Suponha 2 sucessos antes de 3 falhas. Analisamos as n+m− 1 = 4 primeiras tentativas
no nosso experimento.
Porque?
Enumere todas as possibilidades, que constituem os eventos ba´sicos de nosso espac¸o
amostral: ffff,sfff,fsff,ssff,ffsf,sfsf,fssf,sssf,fffs,sffs,fsfs,ssfs,ffss,sfss,fsss,ssss.
Observe que analisando o resultado de 4 tentativas englobamos todos os eventos ba´sicos
que satisfazem o evento 2 sucessos antes de 3 falhas. Se analisa´ssemos apenas 3 tentativas
isto na˜o seria mais verdade, pois ter´ıamos por exemplo o evento ba´sico ffs e ficar´ıamos na
indecisa˜o do que ocorreria na quarta tentativa.
Nu´mero de sequeˆncias com k=2 sucessos =
(
4
2
)
= 6 com prob. associada de p2(1− p)2;
Nu´mero de sequeˆncias com k=3 sucessos =
(
4
3
)
= 4 com prob. associada de p3(1− p);
Nu´mero de sequeˆncias com k=4 sucessos =
(
4
4
)
= 1 com prob. associada de p4(1− p)0.
***
20
6 Probabilidade Condicional
Definic¸a˜o: P (A|B) = P (A
⋂
B)
P (B)
= P (AB)
P (B)
, onde P (B) 6= 0.
O condicionamento a` ocorreˆncia do evento B restringe o espac¸o de amostragem aos pontos
que satisfazem B. A divisa˜o por P (B) normaliza a medida.
*
Definic¸a˜o: eventos estatisticamente independentes.
P (AB) = P (A)P (B) =⇒ P (A/B) = P (A), ou seja o conhecimento da ocorreˆncia de B
na˜o afeta a probabilidade do evento A.
*
Teorema da Probabilidade Total
Assuma que {Ai} e´ uma partic¸a˜o. Enta˜o P (B) =
∑n
i=1 P (AiB). Aplicando o conceito de
probabilidade condicional vem:
P (B) =
∑n
i=1 P (B|Ai)P (Ai).
A probabilidade P (Ai) pode ser conhecida e a probabilidade P (B|Ai) pode ser mais fa´cil
de ser calculada.
*
Teorema de Bayes: P (Ai|B) = P (B|Ai)P (Ai)∑n
j=1 P (B|Aj)P (Aj) =
P (AiB)
P (B)
.
*
Aplicac¸a˜o: Dois carteadores geˆmeos jogam em um mesmo cassino, sendo que um deles e´
honesto e o outro desonesto. Suponha que voce jogou com um deles aleatoriamente e perdeu.
Qual a probabilidade de que tenha jogado com o carteador desonesto?
DH = evento de jogar com o carteador honesto;
DD = evento de jogar com o carteador desonesto;
L = evento de perder;
W = evento de ganhar.
P (L|DH) = 1/2; P (L|DD) = p, p > 1/2.
Quero calcular P (DD|L) = P(ter escolhido o desonesto | perdi).
Soluc¸a˜o: Aplique o Teorema de Bayes:
21
P (DD|L) = P (L|DD)P (DD)P (L|DD)P (DD)+P (L|DH)P (DH ) =
p.1/2
p.1/2+1/2.1/2
= 2p
2p+1
.
Se p = 1, ou seja, o carteador e´ totalmente desonesto, enta˜o P (DD|L) = 2/3. Porque?
Monte a a´rvore de eventos.
22
7 Problemas de Aplicac¸a˜o
O problema da ru´ına do jogador (resolvido por Bernoulli e publicado 8 anos apo´s sua
morte em 1713)
Dois jogadores A e B apostam no resultado do lanc¸amento de uma moeda. Com proba-
bilidade p da´ cara e A ganha 1 de B. Com probabilidade 1− p = q da´ coroa e B ganha 1 de
A. O jogo termina, quando um dos jogadores esta´ falido, e o outro tem todo o capital N .
Qual a probabilidade de A ganhar o jogo, quando ele inicia com i de capital e B com
N − i de capital?
Seja Ei o evento em que A fica com todo o dinheiro, quando ele inicia com i e B com
N − i. O capital total e´ de N .
Condicionando no resultado do primeiro lanc¸amento, obtemos:
Pi = P (Ei) = P (Ei|H)P (H) + P (Ei|Hc)P (Hc)
= pP (Ei|H) + (1− p)P (Ei|Hc)
= pP (Ei|H) + qP (Ei|Hc)
Observe que se no primeiro lanc¸amento a moeda der cara, a situac¸a˜o apo´s este lanc¸amento
sera´ A com i+ 1 e B com N − (i+ 1). Assim,
P (Ei|H) = Pi+1
P (Ei|Hc) = Pi−1, e enta˜o
Pi = pPi+1 + qPi−1, i = 1, 2, · · · , N − 1
Resoluc¸a˜o da equac¸a˜o
As condic¸o˜es de contorno sa˜o P0 = 0 (se o capital inicial de A e´ zero, enta˜o B ja´ esta´ com
todo o dinheiro, e o jogo termina instantaneamente) e PN = 1 (se o capital de B e´ zero e o
de A e´ N , enta˜o A inicialmente esta´ com todo o dinheiro, e o jogo termina instantaneamente
com A vencedor).
Podemos reescrever a equac¸a˜o como:
pPi + qPi = pPi+1 + qPi−1, ou Pi+1 − Pi = qp(Pi − Pi−1), i = 1, 2, · · · , N − 1.
0chap7-9.tex, 12/11/2012
23
Desenvolvendo:
P2 − P1 = q
p
(P1 − P0) = q
p
P1
P3 − P2 = q
p
(P2 − P1) =
(
q
p
)2
P1
...
Pi − Pi−1 = q
p
(Pi−1 − Pi−2) =
(
q
p
)i−1
P1
...
PN − PN−1 = q
p
(PN−1 − PN−2) =
(
q
p
)N−1
P1
Somando as primeiras i− 1 equac¸o˜es, obtemos:
Pi − P1 = P1
[
q
p
+
(
q
p
)2
+ · · ·+
(
q
p
)i−1]
, ou
Pi =


1−( q
p
)i
1− q
p
P1, se
q
p
6= 1 ou p 6= 1/2;
iP1, se
qp
= 1 ou p = 1/2.
Usando o fato de que PN = 1, obtemos
P1 =


1−( q
p
)
1−( q
p
)N
, para p 6= 1/2;
1
N
, para p = 1/2.
E finalmente,
Pi =


1−( q
p
)i
1−( q
p
)N
, para p 6= 1/2;
i
N
, para p = 1/2.
Se Qi for a probabilidade de B ficar com todo o dinheiro, quando ele inicia com N − i,
por simetria
Qi =


1−(p
q
)N−i
1−(p
q
)N
, para q 6= 1/2;
N−i
N
, para q = 1/2.
Ale´m do mais, mostra-se que Pi +Qi = 1, tanto para p = q = 1/2, como para q 6= 1/2.
Interpretac¸a˜o: os jogadores na˜o jogam por tempo indefinido.
Valores nume´ricos: Se A comec¸a com 5, B com 10 e p = 1/2, enta˜o P5 = 1/3. Se p = 0, 6,
enta˜o P5 = 0, 87.
24
***
Teste de Drogas
Duas drogas devem ser analisadas quanto ao seu poder de cura. A droga i tem probabi-
lidade de cura Pi, que na˜o e´ conhecida. Temos que tentar decidir se P1 > P2 ou P1 < P2.
Experimento: Pares de doentes sa˜o tratados sequencialmente, um membro do par
recebendo a droga 1 e o outro membro a droga 2. Os resultados de cada par sa˜o determinados
e o teste pa´ra, quando o nu´mero acumulado de curas de uma das drogas supera o nu´mero
acumulado de curas da outra droga por um valor M .
Xj =
{
1 se o paciente do j-e´simo par com droga 1 e´ curado
0 em caso contra´rio
Yj =
{
1 se o paciente do j-e´simo par com droga 2 e´ curado
0 em caso contra´rio
O experimento pa´ra no N-e´simo par, quando
∑N
i=1Xi−
∑N
i=1 Yi = M , e enta˜o assumimos
que P1 > P2, ou
∑N
i=1 Yi −
∑N
i=1Xi = M , e, enta˜o, assumimos que P2 > P1. No primeiro
caso, a droga 1 e´ considerada melhor, e, no segundo caso, a droga 2 e´ a escolhida, como
tendo o melhor desempenho.
Qual a probabilidade do teste apontar uma decisa˜o incorreta? Ou seja, na realidade
P1 > P2 e o teste aponta P2 > P1?
Soluc¸a˜o: Vamos analisar o comportamento da varia´vel
∑
Xi −
∑
Yi. Esta varia´vel e´
incrementada de 1 com probabilidade P1(1 − P2), decrementada de 1 com probabilidade
P2(1−P1), e permanece inalterada com probabilidade P1P2+(1−P1)(1−P2). Considerando
apenas os pares que provocam incrementos ou decrementos nesta varia´vel, podemos calcular
PX = P (
∑
Xi −
∑
Yi subir 1| subiu ou desceu 1) = P1(1−P2)P1(1−P2)+P2(1−P1) , e
PY = P (
∑
Xi −
∑
Yi descer 1| subiu ou desceu 1) = P2(1−P1)P1(1−P2)+P2(1−P1) = 1− PX .
A probabilidade do teste indicar P2 > P1 e´ igual a` probabilidade do jogador 1 que ganha
com probabilidade PX perder M antes de alcanc¸ar 2M (significa que o outro jogador e´ o
vencedor, ou seja probabilidade QM ).
P (teste indicar P2 > P1) = 1− P (ganhar 2M antes de atingir zero, comec¸ando com M)
= P (alcanc¸ar zero antes de atingir 2M , comec¸ando com M)
= 1− 1−(
1−PX
PX
)M
1−( 1−PX
PX
)2M
= 1− 1−(
PY
PX
)M
1−( PY
PX
)2M
=
1−(PX
PY
)M
1−(PX
PY
)2M
Se P1 = 0, 6 e P2 = 0, 4 , a probabilidade de decisa˜o incorreta e´ 0,017 , quando M = 5, e
reduz a 0,0003 para M = 10.
***
25
8 Aplicac¸a˜o: Confiabilidade (”Reliability”)
i
Evento Ai = componente i funciona perfeitamente.
Ri = confiabilidade do componente i = P (Ai).
21
Sistema S
RS = P (A1A2) = P (A1)P (A2) = R1R2.
1
2
Sistema S
Redundaˆncia: AS = AS
c = A1
⋂
A2, ou seja, o sistema S so´ na˜o funciona, se ambos os
componentes estiverem com defeito.
RS = P (A1
⋃
A2)
1−RS = [1− P (A1)][1− P (A2)]
RS = 1−
2∏
i=1
(1−Ri)
Redundaˆncia RS
1 0,80
2 0,96
3 0,992
4 0,9984
*
26
Sistema de Redundaˆncia Tripla
Sistema opera com 3 elementos em paralelo, e o sistema esta´ operacional, quando pelo
menos 2 elementos esta˜o OK. Este sistema se chama TMR, ou seja, Triple Module Redun-
dancy.
RTMR =
∑3
i=2
(
3
i
)
Ri(1− R)3−i = 3R2 − 2R3.
RTMR =


> R se R > 1
2
= R se R = 1
2
< R se R < 1
2
***
27
9 Experimentos de Bernoulli
Experimento:
{
sucesso
falha
{
0
1
{
bom
ruim
{
cara
coroa
{
probabilidade p
probabilidade (1− p)
*
Recordac¸a˜o: Multinomial
De quantas maneiras podemos dividir n objetos distintos em grupos de tamanhos n1, n2, · · · , nr
t.q. n =
∑r
i=1 ni?
R:
(
n
n1
)(
n−n1
n2
)(
n−n1−n2
n3
) · · · (n−∑r−1i=1 ni
nr
)
= n!
n1!n2!···nr !
*
Sequeˆncia de Experimentos de Bernoulli
Repete-se o experimento de Bernoulli de forma independente.
Pergunta: Qual a probabilidade de k caras em n lanc¸amentos de uma moeda?
R:
(
n
k
)
pk(1− p)(n−k).
*
Problema: Qual a probabilidade de que em n passadas pelo co´digo abaixo, ni execuc¸o˜es do
comando Si sa˜o efetuadas, sendo que CASE i ocorre com probabilidade pi?
CASE I OF
1: S1 ;
2: S2 ;
...
k: Sk;
END
R: n!
n1!n2!···nk!p
n1
1 p
n2
2 · · · pnkk =
(
n
n1n2···nk
)
pn11 p
n2
2 · · · pnkk
Observe que
∑
∀n=∑ki=0 ni
[(
n
n1n2···nk
)
pn11 p
n2
2 · · ·pnkk
]
= (p1 + p2 + · · ·+ pk)n = 1.
***
28
10 Varia´veis Aleato´rias
Seja um espac¸o amostral S, com uma partic¸a˜o formada de treˆs eventos: ganha, perde e
empata. Uma varia´vel aleato´ria X e´ definida como uma associac¸a˜o de valores aos pontos do
espac¸o S. Por exemplo,
X(w) =


+5 w ∈ ganha
0 w ∈ empata
−5 w ∈ perde
P (X = −5) = 3/8 = soma das prob. de todos os pontos ∈ perde
P (X = 0) = 1/4
P (X = +5) = 3/8
Definic¸a˜o: Uma varia´vel aleato´ria X no espac¸o amostral S e´ uma func¸a˜o X : S → R
que associa um nu´mero real X(w) a cada ponto de amostra w ∈ S.
Exemplo: Suponha que uma moeda e´ tal que P (H) = p e P (T ) = 1− p.
A moeda e´ lanc¸ada ate´ que uma cara ocorra ou um total de n lanc¸amentos ocorram. Se
X representa o nu´mero de vezes que a moeda foi lanc¸ada, X e´ uma varia´vel aleato´ria que
assume os valores 1, 2, · · · , n com as seguintes probabilidades:
P (X = 1) = P (H) = p
P (X = 2) = P (T,H) = (1− p)p
P (X = 3) = P (T, T,H) = (1− p)2p
...
...
P (X = n− 1) = P (T, · · · , T,H) = (1− p)n−2p
P (X = n) = P (T, · · · , T,H) = (1− p)n−1p+ (1− p)n−1(1− p) = (1− p)n−1
Mostrar que
∑n
i=1 P (X = i) = 1.
Demo:
n∑
i=1
P (X = i) = p+ (1− p)p+ · · ·+ (1− p)n−2p+ (1− p)n−1
= p
[
1 + (1− p) + · · ·+ (1− p)n−2]+ (1− p)n−1
= p
1− (1− p)n−1
1− (1− p) + (1− p)
n−1 = 1
X assume um nu´mero finito de valores.
*
Exemplo: X representa o nu´mero de lanc¸amentos ate´ se obter uma cara. X e´ uma varia´vel
aleato´ria que assume os valores 1, 2, · · · com as seguintes probabilidades:
0chap10.tex, 19/05/2013
29
P (X = 1) = P (H) = p
P (X = 2) = P (T,H) = (1− p)p
P (X = 3) = P (T, T,H) = (1− p)2p
...
...∑∞
i=1 P (X = i) = p+ (1− p)p+ · · · =
∑∞
i=0 p(1− p)i = p1−(1−p) = 1
X assume um nu´mero infinito, pore´m conta´vel, de valores.
***
10.1 Varia´vel Discreta
Uma varia´vel aleato´ria discreta e´ aquela que assume um nu´mero finito ou conta´vel de valores.
Definimos P (X = i) como sendo a func¸a˜o de massa de probabilidade (PMF - Probability
Mass Function) de X .
Varia´vel de Bernoulli
X e´ uma v.a. de Bernoulli, se P (X = 0) = P (fracasso) = 1 − p e P (X = 1) =
P (sucesso) = p, com 0 < p < 1.
Varia´vel Binomial
Assuma n experimentos de Bernoulli. Seja Y o nu´mero de sucessos nos n experimentos.
Y e´ dita binomial com paraˆmetros (n, p).
P (Y = i) =
(
n
i
)
pi(1− p)n−i, i = 0, 1, · · · , n
n∑
i=0
P (Y = i) = (p+ (1− p))n = 1
*
Aplicac¸a˜o da Binomial: Um job executa n vezes pela CPU. Seja Xi o nu´mero de acessos
ao disco i. No diagrama, p1 + p2 = 1. P (X1 = k) =
(
n
k
)
pk1(1− p1)n−k, 0 ≤ k ≤ n.
*
30
Poisson
Uma varia´vel aleato´ria X e´ Poisson com paraˆmetro λ > 0, se
P (i) = P (X = i) = λ
i
i!
e−λ, λ > 0.
Observe que
∑∞
i=0 P (i) = e
−λ∑∞
i=0
λi
i!
= e−λeλ = 1.
Muitos processos no mundo real podem ser aproximados pelo processoPoisson. Sabendo
que pessoas podem tomar uma decisa˜o afirmativa com probabilidade p ou uma decisa˜o nega-
tiva com probabilidade (1− p), enta˜o o nu´mero de pessoas que tomam a decisa˜o afirmativa,
dentre uma populac¸a˜o com n pessoas, pode ser expresso pela distribuic¸a˜o binomial, ou seja,
probabilidade de i pessoas optarem pela decisa˜o afirmativa =
(
n
i
)
pi(1−p)n−i. Mostra-se que
a distribuic¸a˜o binomial tende para Poisson com λ = np, se n >> 1 e λ e´ moderado.
P (X = i) =
(
n
i
)
pi(1− p)(n−i)
= n!
(n−i)!i!
(
λ
n
)i (
1− λ
n
)n−i
= n(n−1)(n−2)···(n−i+1)
ni
λi
i!
(1− λ
n
)n
(1− λ
n
)i
Para n >> 1, (1− λ
n
)n ≈ e−λ, n(n−1)(n−2)···(n−i+1)
ni
≈ 1 e (1− λ
n
)i ≈ 1.
Enta˜o, P (X = i) ≈ λi
i!
e−λ.
*
Distribuic¸a˜o Geome´trica
Seja X o tempo de permaneˆncia num estado. Muda-se de estado com probabilidade p e
permanece-se no estado com probabilidade 1−p. Transic¸o˜es de estado ocorrem em instantes
bem definidos de tempo.
Enta˜o:
P (X = n) = (1− p)n−1p, n ≥ 1.
*
Binomial Negativa
Experimentos independentes com probabilidade p de sucesso (sequeˆncia de experimen-
tos de Bernoulli). Assuma que X e´ o nu´mero de experimentos ate´ que r sucessos sejam
alcanc¸ados.
P (X = n) =
(
n−1
r−1
)
pr(1− p)n−r, n ≥ r, pode ser entendida como
P(r-e´simo sucesso ocorre no n-e´simo experimento)
*
31
Aplicac¸a˜o: Problema de Banach
Duas caixas de fo´sforos, uma no bolso esquerdo e outra no bolso direito. Considere o
momento em que se descobre que uma das caixas esta´ vazia, sendo aleatoriamente escolhidos
os bolsos a cada palito. Assumindo que cada caixa tem inicialmente N fo´sforos, qual e´ a
probabilidade de que existam exatamente k fo´sforos na outra caixa?
E = evento de que a caixa da direita esta´ vazia e ha´ k fo´sforos na caixa da esquerda.
O evento E acontece se a (N+1)-e´sima escolha da caixa da direita e´ feita na N-k+N+1
tentativa, onde (N-k) corresponde ao nu´mero de fo´sforos ja´ retirados da caixa da esquerda e
N corresponde ao nu´mero de fo´sforos retirados da caixa da direita. Observe que ja´ retiramos
todos os fosforos da caixa da direita, quando, na tentativa de tirar mais um fo´sforo do bolso
direito, descobrimos que a caixa naquele bolso esta´ vazia.
Usando a binomial negativa com p = 1/2, r = N + 1, n = 2N − k + 1 temos
P (E) =
(
2N−k
N
)
(1
2
)2N−k+1
A probabilidade procurada e´ 2P(E), porque a (N+1) escolha pode ocorrer ao encontrar-
mos vazia tanto a caixa da direita quanto a caixa da esquerda.
***
10.2 Func¸a˜o Distribuic¸a˜o
A func¸a˜o de distribuic¸a˜o de probabilidade (PDF - Probability Distribution Function) ou
func¸a˜o de distribuic¸a˜o acumulativa (CDF - Cummmulative Distribution Function) da varia´vel
X e´ definida como
FX(x) = P (X ≤ x), −∞ < X <∞
Propriedades:
• FX(.) e´ na˜o decrescente.
• a < b =⇒ FX(a) ≤ FX(b).
• limx→∞ FX(x) = 1 e limx→−∞ FX(x) = 0.
• P (a < X ≤ b) = FX(b)− FX(a), porque {X ≤ b} = {a < X ≤ b}
⋃ {X ≤ a}.
***
10.3 Func¸o˜es Singulares
Sa˜o u´teis para permitir estender o conceito de integrac¸a˜o e derivac¸a˜o para func¸o˜es com
discontinuidades. O emprego das func¸o˜es singulares sera´ exemplificado na descric¸a˜o das
32
propriedades associadas a`s varia´veis aleato´rias. As func¸o˜es singulares mais u´teis sa˜o:
• Func¸a˜o Impulso u0(t) ou δ(t) (Delta de Dirac)
u0(t) =⇒
∫ 0+
0− u0(t)dt = 1
• Func¸a˜o Degrau u−1(t) ou u(t)
u−1(t) =
{
0 , se t < 0
1 , se t ≥ 0
u−1(t) =
∫ t
0− u0(y)dy
• Func¸a˜o Rampa u−2(t)
u−2(t) = tu−1(t) =
{
t , se t ≥ 0
0 , se t < 0
u−2(t) =
∫ t
0− u−1(y)dy
***
10.4 Varia´vel Aleato´ria Cont´ınua
Uma varia´vel aleato´ria cont´ınua e´ aquela que assume um nu´mero infinito e inconta´vel de
valores. Seja X , uma varia´vel aleato´ria cont´ınua. Dado um intervalo B, podemos exprimir
P (X ∈ B) da forma abaixo:
P (X ∈ B) = ∫
B
fX(x)dx
A func¸a˜o fX(x) e´ chamada de densidade de probabilidade ou comumente pdf (probability
density function) de X . Observe que
P (X ∈ (−∞,∞)) = ∫∞−∞ fX(x)dx = 1.
Por outro lado, podemos obter FX(a) = P (X ≤ a) = P (X < a) como
FX(a) =
∫ a
−∞ fX(x)dx
A func¸a˜o FX(.) e´ definida como a PDF (Probability Distribution Function) de X , ou
func¸a˜o de distribuic¸a˜o de probabilidade de X , ou ainda func¸a˜o de distribuic¸a˜o acumulativa
(CDF) de X . Observamos ainda que,
P (X > a) = 1− P (X ≤ a) = 1− FX(a) =
∫∞
a
fX(x)dx
P (a < X ≤ b) = ∫ b
a
fX(x)dx
Simplificando a notac¸a˜o, representaremos fX(x) = f(x). Enta˜o:
f(x) ≥ 0, f(x) = dF (x)
dx
33
Observe que: P (x < X ≤ x+ dx) = f(x)dx.
E se a func¸a˜o f(x) na˜o possui impulsos em a e b, enta˜o sera´ sempre va´lido dizer:
P (a < X < b) = P (a ≤ X < b) = P (a ≤ X ≤ b).
*
Distribuic¸a˜o Uniforme no intervalo (0,1)
X e´ uma varia´vel aleato´ria com distribuic¸a˜o uniforme no intervalo (0,1), se
f(x) = u−1(x)− u−1(x− 1) e F (x) = u−2(x)− u−2(x− 1).
Exerc´ıcio: desenhar a pdf e a PDF de uma distribuic¸a˜o uniforme em (0,1).
*
Distribuic¸a˜o Uniforme no intervalo (a,b)
X e´ uma varia´vel aleato´ria com distribuic¸a˜o uniforme no intervalo (a,b), se
f(x) = 1
b−a [u−1(x− a)− u−1(x− b)] e F (x) = 1b−a [u−2(x− a)− u−2(x− b)].
Exerc´ıcio: desenhar a pdf e a PDF de uma distribuic¸a˜o uniforme em (a,b).
*
Distribuic¸a˜o Exponencial
X tem distribuic¸a˜o exponencial, se pdf f(x) =
{
λe−λx , x ≥ 0
0 , x < 0
= λe−λxu−1(x) e
CDF F (x) =
∫ x
−∞ f(y)dy =
{
1− e−λx , x ≥ 0
0 , x < 0
= (1− e−λx)u−1(x)
*
Uma varia´vel aleato´ria e´ perfeitamente caracterizada pela sua pdf ou PDF.
*
O uso da func¸a˜o degrau na descric¸a˜o da PDF e da CDF serve para explicitar as restric¸o˜es
no domı´nio da func¸a˜o de forma clara e concisa.
***
34
10.5 Propriedade da Falta de Memo´ria
Uma varia´vel X na˜o negativa e´ sem memo´ria se
P (X > s+ t | X > t) = P (X > s), para s, t ≥ 0.
Se pensarmos que X e´ o tempo de vida de um componente, a probabilidade de que ele
sobreviva mais s segundos dado que ja´ funcionou t segundos, onde s e´ independente de t, e´
igual a` probabilidade inicial de que ele funcione por s segundos.
P (X > s+ t | X > t) = P (X>s+t e X>t)
P (X>t)
= P (X>s+t)
P (X>t)
= P (X > s)
Uma condic¸a˜o equivalente para definir falta de memo´ria seria
P (X > s+ t) = P (X > s)P (X > t) ou 1− F (s+ t) = (1− F (s))(1− F (t)),
e pode-se provar que so´ a distribuic¸a˜o exponencial satisfaz a relac¸a˜o dentre as func¸o˜es
cont´ınuas.
*
Taxa de falha em Distribuic¸a˜o Exponencial
X e´ a vida de um componente. Suponha que o componente ja´ funcionou por t segundos e
queremos a probabilidade de que ele falhara´ num tempo adicional dt, ou seja X ≤ (t, t+ dt).
P (X ∈ (t, t+ dt) | X > t) = P (t<X≤t+dt)
P (X>t)
= f(t)dt
1−F (t)
λ(t) = f(t)
1−F (t) e´ chamada taxa de falha e representa a densidade de probabilidade de que
um item com t segundos de vida ira´ falhar.
No caso de distribuic¸a˜o exponencial,
λ(t) = λe
−λt
e−λt = λ , ou seja, a taxa de falha e´ constante.
*
Falta de Memo´ria em Distribuic¸a˜o Discreta
Seja a distribuic¸a˜o geome´trica P (N = k) = p(1 − p)k−1, k ≥ 1. Se N representa o
tempo de permaneˆncia em um estado, pela pro´pria obtenc¸a˜o de N a distribuic¸a˜o e´ sem
memo´ria. A decisa˜o de deixar (probabilidade p) ou permanecer no estado (probabilidade
(1− p)) independe do passado.
P (N > k1) =
∑∞
k=k1+1
p(1− p)k−1 = p(1− p)k1 ∑∞k−k1=1(1− p)k−k1−1
= p(1− p)k1 1
p
= (1− p)k1
P (N > k2) = (1− P )k2
P (N > k1 + k2) = (1− p)k1+k2 = P (N > k1) P (N > k2)
o que mostra matematicamente que a distribuic¸a˜o geome´trica e´ sem memo´ria.
35
*
Pode-se provar que a u´nica distribuic¸a˜o cont´ınua sem memo´ria e´ a exponencial. Da mesma
forma, prova-se que a u´nica distribuic¸a˜o discreta sem memo´ria e´ a geome´trica.
***10.6 Relac¸a˜o entre Distribuic¸a˜o Exponencial e Processo Poisson
Suponha que chegadas ocorram num intervalo T , segundo um processo Poisson. O nu´mero
de chegadas durante um determinado intervalo de tempo T e´ dado pela fo´rmula de Poisson:
P{k chegadas durante T} = Pk(T ) = (λT )
k
k!
e−λT
onde λ e´ a taxa me´dia de chegadas de fregueses por segundo.
Pode-se ver que para o Processo Poisson P{nenhuma chegada em T} = e−λT . Supondo
que uma chegada ocorreu no instante zero, a probabilidade de que a pro´xima chegada ocorra
entre T e (T + dt), assumindo independeˆncia entre eventos, e´:
P{pro´xima chegada em (T, T + dt) } =
= P{nenhuma chegada em (0, T ) e pelo menos 1 chegada em (T, T + dt)}
= P{nenhuma chegada em (0, T ) }P{ 1 chegada em (T, T + dt)}
= e−λT e−λdtλdt = λe−λ(T+dt)dt = λe−λTdt (dt→ 0)
Observe que a probabilidade de duas ou mais chegadas no intervalo (T, T + dt) e´ O(dt2),
ou seja, cai igual ou mais rapidamente que dt2.
Se f(x) e´ O(xn) com x→ 0, enta˜o limx→0 f(x)xn <∞.
Em geral, a notac¸a˜o O(g(x)) com x→ x0 refere-se a qualquer func¸a˜o que (com x→ x0)
decai a zero pelo menos ta˜o ra´pido quanto g(x) (onde g(x) > 0), isto e´,
lim
x→x0
∣∣∣∣O(g(x))g(x)
∣∣∣∣ <∞
Por outro lado, a notac¸a˜o o(g(x)) com x → x0 refere-se a qualquer func¸a˜o que (com
x→ x0) decai a zero mais ra´pido que g(x) (onde g(x) > 0), isto e´,
lim
x→x0
∣∣∣∣o(g(x))g(x)
∣∣∣∣ = 0
Se levamos em conta apenas os comportamentos O(dt), isto e´, uma aproximac¸a˜o de
primeira ordem, enta˜o precisamos considerar apenas uma chegada no evento pelo menos
uma chegada acima.
Conclusa˜o: um processo Poisson possui tempo entre chegadas exponencial.
36
*
Se analisarmos o caminho inverso, isto e´, supondo o tempo entre chegadas exponencial com
paraˆmetro λ, e assumindo X1 o instante da primeira chegada (assuma que no instante zero
algue´m chegou) e X2 o tempo entre a primeira e a segunda chegada, podemos verificar que:
P{0 chegadas em T} = P (X1 > T ) = e−λT .
P{1 chegada em T} = P (X1 < T e X2 +X1 > T )
=
∫∞
0
P (X1 < T e X2 +X1 > T | t ≤ X1 ≤ t+ dt)P (X1 ∈ (t, t + dt))
=
∫ T
O
P (X2 > T − t)λe−λtdt
= λ
∫ T
0
e−λ(T−t)e−λtdt
= λTe−λT
Estas probabilidades concordam com o resultado dado pela fo´rmula de Poisson.
Demonstra-se que se um processo possui tempo entre chegadas exponencial,
ele e´ um Processo Poisson.
O processo Poisson sera´ estudado em Cadeia de Markov como exemplo de um Processo
de Nascimento Puro. No cap´ıtulo de Cadeia de Markov, deduziremos a fo´rmula de Poisson.
***
10.7 Varia´vel Aleato´ria Mista
Uma varia´vel aleato´ria mista e´ aquela que engloba tanto o comportamento discreto, com
concentrac¸o˜es de probabilidades em pontos determinados, como o comportamento cont´ınuo
em outros intervalos.
Um bom exemplo de varia´vel mista e´ a exponencial truncada Xˆ para o intervalo [a, b].
Esta exponencial e´ obtida a partir de uma exponencial X , concentrando no ponto a a pro-
babilidade P (X < a) = 1 − e−λa e no ponto b a probabilidade P (X > b) = e−λb. A pdf de
Xˆ e´ dada por
fXˆ(x) = (1− e−λa)u0(x− a) + λe−λx[u−1(x− a)− u−1(x− b)] + e−λbu0(x− b)
Para obter a CDF FXˆ = P (Xˆ < x), devemos integrar a pdf mista fXˆ(x). Os termos
(1− e−λa)u0(x− a) e e−λbu0(x− b), que envolvem uma constante multiplicando um impulso,
podem ser integrados diretamente fornecendo os degraus (1−e−λa)u−1(x−a) e e−λbu−1(x−b),
respectivamente.
37
Cuidado maior deve ser tomado ao se integrar λe−λx[u−1(x−a)−u−1(x−b)], que pode ser
escrita como λe−λxu−1(x−a)−λe−λxu−1(x−b). Vamos integrar cada termo separadamente,
respeitando o domı´nio de integrac¸a˜o definido por cada func¸a˜o degrau.
Integrando o primeiro termo de a a x, obtemos (e−λa − e−λx) para x > a, ou seja,
(e−λa − e−λx)u−1(x− a).
Integrando o segundo termo de b a x, obtemos (e−λb − e−λx) para x > b, ou seja,
(e−λb − e−λx)u−1(x− b).
Enta˜o, FXˆ(x) = (1− e−λa)u−1(x− a) + e−λbu−1(x− b) + (e−λa − e−λx)u−1(x− a)
−(e−λb − e−λx)u−1(x− b) = (1− e−λx)u−1(x− a) + e−λxu−1(x− b).
De fato, a CDF FXˆ(x) = (1− e−λx)u−1(x− a) + e−λxu−1(x− b) e´ nula para x < a. Para
a < x < b, a CDF e´ dada por e−λa−e−λx, como esperado. Observe que para x > b os termos
exponenciais se anulam e a CDF fica constante em 1, como deve ser. A expressa˜o com uso
das func¸o˜es singulares simplifica a descric¸a˜o da func¸a˜o, mantendo a clareza matema´tica.
***
38
11 Func¸o˜es de Varia´veis Aleato´rias
Questa˜o:
Assuma Y = G(X) = e−X , onde X e Y sa˜o duas varia´veis aleato´rias. Se −∞ < X <∞,
enta˜o Y > 0. Y e´ uma func¸a˜o decrescente de X . Dado fX(x), como obter fY (y)?
Os passos sa˜o os seguintes:
1. {Y ≤ y} = {e−X ≤ y} = {−X ≤ ln y} = {X ≥ − ln y}
2. FY (y) = P{Y ≤ y} = P{X ≥ − ln y} =
∫∞
− ln y fX(x)dx
3. fY (y) =
d
dy
[∫∞
− ln y fX(x)dx
]
, y > 0
Para realizar o u´ltimo passo, relembrar a Regra de Leibnitz:
d
dt
[∫ h(t)
g(t)
f(τ, t)dτ
]
=
∫ h(t)
g(t)
∂f(τ, t)
∂t
dτ + f(h(t), t)
dh
dt
− f(g(t), t)dg
dt
Aplicando Leibnitz, temos:
fY (y) =
∫ ∞
− ln y
dfX(x)
dy
dx+ fX(∞)d∞
dy
− fX(− ln y)d(− ln y)
dy
= 0 + 0− fX(− ln y)(−1
y
)
=
fX(− ln y)
y
, y > o
Observe que Y = G(X) e X = G−1(Y ) = − lnY .
E tambe´m que dY/dX = dG(X)/dX = −e−X = −Y e dX/dY = dG−1(Y )/dY = −1/Y .
Pelas relac¸o˜es obtidas acima, podemos escrever:
fY (y) = −fX(G−1(y))dG
−1(y)
dy
= −fX(x)dxdy = fX(x)
∣∣∣dxdy ∣∣∣
A expressa˜o
∣∣∣dxdy ∣∣∣ = dG−1(y)/dy e´ o chamado Jacobiano da transformac¸a˜o Y = G(X).
Como G e´ uma func¸a˜o decrescente, surge o sinal negativo.
***
0chap11.tex 17/05/2013
39
11.1 Metodologia
1. {Y ≤ y} = {X ∈ B(y)}
2. FY (y) = P{Y ≤ y} = P{X ∈ B(y)} =
∫
B(y)
fX(x)dx
3. fY (y) =
d
dy
[∫
B(y)
fX(x)dx
]
, (aplicar regra de Leibnitz).
*
Exemplo: Y = X2.
1. {Y ≤ y} = {−√y ≤ X ≤ √y}
2. FY (y) =
∫ √y
−√y fX(x)dx
3. fY (y) = fX(
√
y)(1
2
)(y−
1
2 )− fX(−√y)(−12)(y−
1
2 ) =
fX(
√
y)+fX(−√y)
2
√
y
*
Exemplo: Seja X uma v.a. com fX(x) e FX(x). Encontre a pdf de Y = FX(X). Observe
que FX(.) e´ uma func¸a˜o monotonicamente na˜o decrescente (pois e´ uma func¸a˜o distribuic¸a˜o).
1. {Y ≤ y} = {FX(X) ≤ y} = {X ≤ F−1X (y)}
2. FY (y) =
∫ F−1X (y)
−∞ fX(x)dx = FX(F
−1
X (y)) = y
3. fY (y) =
dFY (y)
dy
=
{
1 0 ≤ y ≤ 1
0 outros casos
Conclusa˜o: Y e´ uniforme em (0,1).
*
Problema: Dadas X com fX(x) e Y com fY (y), e´ poss´ıvel encontrar a transformac¸a˜o
Y = G(X)?
Z = FX(X) e W = FY (Y ) sa˜o varia´veis uniformes em (0,1). Se W e´ uniforme em (0,1),
enta˜o Y = F−1Y (W ) tem pdf fY (y), assumindo que a inversa existe.
Enta˜o, Y = F−1Y (FX(X)) transforma fX(x) em fY (y).
Exemplo: Seja X uniforme em (0,1). Se Y e´ exponencial, podemos afirmar que
Y = F−1Y (FX(X)) e lembrando que FX(X) = X, 0 ≤ X ≤ 1, por ser X uma v.a.
uniforme em (0,1), enta˜o Y = F−1Y (X) = − ln(1−X)λ = − lnXλ , visto que 1 − X = X para
distribuic¸a˜o uniforme em (0,1).
40
*
Exerc´ıcio: Seja fX(x) =
{
e−x, x ≥ 0
0, x < 0
e fY (y) =
{ 1
2
√
y
, 0 ≤ y ≤ 1
0, outros casos
.
Mostre que Y = (1− e−X)2.
Obtendo as PDFs temos;
FX(X) =
{
1− e−x, x ≥ 0
0, x < 0
FY (y) =
∫ y
0
1
2
√
u
du =
√
u|y0 =


√
y, 0 ≤ y ≤ 1
0, y < 0
1, y ≥ 1
Vimos que Z = FX(X) = 1 − e−X e´ uniforme em (0,1). Similarmente, W =
√
Y e´
uniformemente distribu´ıda em (0,1).
Igualando Z = W e resolvendo em Y obtemos Y = (1− e−X)2.
***
11.2 Gerac¸a˜o de Distribuic¸o˜es
O fato de Y = FX(X) ser uma distribuic¸a˜o uniforme e´ usado em simulac¸a˜o para gerar amos-
tas de varia´veis aleato´rias com uma determinada distribuic¸a˜o. Suponhamos que queremos
obter uma amostra da varia´vel aleato´ria X , que possui PDF FX(x).
Princ´ıpio: U = FX(X) e´ uniforme (0,1). Consequentemente F
−1
X (U) = X .
Procedimento:
• Obteru0, uma amostra da distribuic¸a˜o uniforme em (0,1), a partir de um gerador de
nu´meros aleato´rios
• Obter x0 = F−1X (u0), que e´ uma amostra de X .
Exemplo:
FX(x) = 1− e−λx, PDF de uma distribuic¸a˜o exponencial
u0 = 1− e−λx0
1− u0 = e−λx0
ln(1− u0) = −λx0
x0 = − ln(1 − u0)
λ
41
Como (1 − u0) tem a mesma pdf de u0, na pra´tica usamos x0 = − ln(u0)λ , economizando a
operac¸a˜o de subtrac¸a˜o.
No caso discreto:
Assuma P (N = k) = p1u0(k−a1)+p2u0(k−a2)+p3u0(k−a3), ou seja, N assume valores
ai com probabilidade pi, i = 1, 2, 3. Obtemos P (N ≤ k) = p1u−1(k − a1) + p2u−1(k − a2) +
p3u−1(k − a3). Enta˜o, a partir de u0 podemos determinar k0 da forma abaixo:
0 < u0 ≤ p1 = P (N ≤ 1) =⇒ k0 = a1
p1 = P (N ≤ 1) < u0 ≤ p1 + p2 = P (N ≤ 2) =⇒ k0 = a2
p1 + p2 = P (N ≤ 2) < u0 ≤ 1 =⇒ k0 = a3
Aplicac¸a˜o: Gerar uma amostra de uma distribuic¸a˜o geome´trica.
P (N = k) = pk−1(1− p), k ≥ 1;
P (N ≤ k) =
k∑
i=1
pi−1(1− p) = 1− pk = FN(k); (fac¸a esta passagem);
E[N ] =
1
1− p.
Deveremos ter:
0 < u0 ≤ P (N ≤ 1) =⇒ k0 = 1
P (N ≤ 1) < u0 ≤ P (N ≤ 2) =⇒ k0 = 2
...
P (N ≤ j − 1) < u0 ≤ P (N ≤ j) =⇒ k0 = j
ou seja 1− pj−1 < u0 ≤ 1− pj =⇒ k0 = j.
Fac¸amos 1− pk−1 < u0 ≤ 1− pk. Tirando o logaritmo, obtemos
ln(1− u0)
ln p
≤ k < ln(1− u0)
ln p
+ 1
Como a amostra da geome´trica e´ um nu´mero inteiro, e a me´dia da geome´trica e´ dada
por 1
1−p , enta˜o de forma mais geral podemos escrever que
k0 =
⌈
ln(1− u0)
ln(1− 1/me´dia)
⌉
Como 1− U e´ tambe´m uniforme, podemos eliminar uma subtrac¸a˜o e escrever
k0 =
⌈
ln u0
ln(1− 1/me´dia)
⌉
42
*
Exerc´ıcio: Mostre como seria gerada uma amostra do tamanho de uma mensagem em
uma rede Ethernet, sabendo que a pdf do tamanho da mensagem e´ dada por P (X = i) =
3
4
u0(i− 50) + 116 1450(u−1(i− 50)− u−1(i− 500)) + 316u0(i− 500), i > 0.
Observe que a PDF poderia ser facilmente obtida integrando cada um dos termos da pdf:
P (X ≤ i) = 3
4
u−1(i− 50) + 116 1450(u−2(i− 50)− u−2(i− 500)) + 316u−1(i− 500), i > 0.
***
43
12 Distribuic¸a˜o Conjunta Cumulativa de V.As.
A func¸a˜o de distribuic¸a˜o conjunta cumulativa de duas varia´veis aleato´rias pode ser definida
como:
FXY (a, b) = P (X ≤ a, Y ≤ b), −∞ < a, b <∞.
A distribuic¸a˜o de X pode ser obtida a partir de FXY (., .) :
FX(a) = P (X ≤ a) = P (X ≤ a, Y ≤ ∞) = FXY (a,∞)
FX(b) = FXY (∞, b).
No caso discreto temos:
fXY (a, b) = P (X = a, Y = b).
fX(a) = P (X = a) =
∑∞
b=−∞ fXY (a, b) =
∑∞
b=−∞ P (X = a, Y = b)
=
∑∞
b=−∞ P (X = a|Y = b)p(Y = b).
*
Se X e Y sa˜o conjuntamente cont´ınuas, enta˜o:
P (X ∈ A, Y ∈ B) = ∫
B
∫
A
fXY (x, y)dxdy
fXY (., .) = func¸a˜o densidade de probabilidade conjunta.
Enta˜o:
P (X ∈ A) = P (X ∈ A, Y ∈ (−∞,∞) = ∫∞−∞ ∫A fXY (x, y)dxdy = ∫A fX(x)dx
Consequentemente, fX(x) =
∫∞
−∞ fXY (x, y)dy
*
Varia´veis Aleato´rias Independentes
X e Y sa˜o independentes se, ∀a, ∀b
P (X ≤ a, Y ≤ b) = P (X ≤ a)P (Y ≤ b) ou
FXY (a, b) = FX(a)FY (b), ∀a, b ou
fXY (x, y) = fX(x)fY (y)
*
0chap12.tex 12/11/2012
44
Exerc´ıcio: Encontre a pdf da menor de K varia´veis aleato´rias, cada uma distribu´ıda
exponencialmente com paraˆmetro λ.
Seja Y = min {X1, X2, · · · , XK}.
P (Y > y) = P (X1 > y,X2 > y, · · · , XK > y)
= P (X1 > y)P (X2 > y). · · · .P (XK > y)
= e−λye−λy · · · e−λy
= e−Kλy.
Portanto, Y e´ exponencial com paraˆmetro Kλ.
Interpretac¸a˜o:
Se temos K fontes exponenciais, a fonte i com paraˆmetro λi, a distribuic¸a˜o do tempo ate´
a pro´xima partida (de qualquer uma das fontes) e´ exponencial com paraˆmetro
∑
i λi.
Dizendo de outra forma: a unia˜o de K fluxos Poisson e´ tambe´m um fluxo Poisson
com taxa igual a` soma das taxas.
*
Exerc´ıcio: Sejam dadas duas varia´veis aleato´rias X1 e X2, com paraˆmetros λ1 e λ2. Calcule
P (X1 > X2).
P (X1 > X2) =
∫ ∞
0
P (X1 > X2|X2 ∈ (t, t + dt))P (X2 ∈ (t, t+ dt))
=
∫ ∞
0
P (X1 > t)λ2e
−λ2tdt
= λ2
∫ ∞
0
e−λ1te−λ2tdt
= λ2
∫ ∞
0
e−(λ1+λ2)tdt
= λ2
e−(λ1+λ2)t
−(λ1 + λ2) |
∞
0
=
λ2
λ1 + λ2
Significado:
λ2
λ1+λ2
e´ a probabilidade de que uma pessoa com quantidade de servic¸o distribu´ıda expo-
nencialmente com paraˆmetro λ2 termine de ser atendida primeiro que uma segunda pessoa
com servic¸o exponencialmente distribu´ıdo com taxa λ1, dado que num dado instante am-
bas as pessoas esta˜o sendo servidas simultaneamente. Observe na˜o e´ preciso que ambas as
pessoas comecem a ser atendidas no mesmo instante, porque a exponencial e´ sem memo´ria.
45
Aplicac¸a˜o: Se chegadas ocorrem segundo um Processo Poisson com taxa λ1 e partidas
ocorrem segundo um processo Poisson com taxa λ2,
λ1
λ1+λ2
e´ a probabilidade de que uma
chegada ocorra antes de uma partida. Estes processos ocorrem em uma fila M/M/1 (chegada
Poisson, servic¸o exponencial).
Tudo se passa como se tive´ssemos dois fluxos Poisson: um de chegada e outro de partida.
O tempo ate´ o pro´ximo evento (chegada ou partida) e´ exponencial com paraˆmetro igual a`
soma dos paraˆmetros das exponenciais envolvidas.
*
Exerc´ıcio: Dadas treˆs varia´veis aleato´rias exponenciais independentes X1, X2 e X3, calcule
a probabilidade de que X1 seja o ma´ximo entre elas.
Existem duas maneiras de atacar o problema:
1. Pense em cada uma das varia´veis como uma fonte Poisson. Para que X1 seja o ma´ximo
sera´ preciso que a partida desta fonte ocorra por u´ltimo. Os eventos poss´ıveis sa˜o:
partida de 2, partida de 3 e partida de 1 ou
partida de 3, partida de 2 e partida de 1.
Somando as duas probabilidades temos:
P{X1 > X2, X1 > X3} = λ2λ1+λ2+λ3 λ3λ1+λ3 + λ3λ1+λ2+λ3 λ2λ1+λ2
2.
P{X1 > X2, X1 > X3} =
∫ ∞
x=0
P{X1 > X2, X1 > X3|x < X1 ≤ x+ dx}P{x < X1 ≤ x+ dx}
=
∫ ∞
x=0
P{x > X2, x > X3}λ1e−λ1xdx
=
∫ ∞
x=0
(1− e−λ2x)(1− e−λ3x)λ1e−λ1xdx
=
∫ ∞
x=0
λ1e
−λ1xdx− λ1
∫ ∞
x=0
e−(λ1+λ2)xdx−
λ1
∫ ∞
x=0
e−(λ1+λ3)xdx+ λ1
∫ ∞
x=0
e−(λ1+λ2+λ3)xdx
= λ1
[
e−λ1x
−λ1
]∞
0
− λ1
[
e−(λ1+λ2)x
−(λ1 + λ2)
]∞
0
−
λ1
[
e−(λ1+λ3)x
−(λ1 + λ3)
]∞
0
+ λ1
[
e−(λ1+λ2+λ3)x
−(λ1 + λ2 + λ3)
]∞
0
= 1− λ1
λ1 + λ2
− λ1
λ1 + λ3
+
λ1
λ1 + λ2 + λ3
=
(
λ2
λ1 + λ2 + λ3
)(
λ3
λ1 + λ3
)
+
(
λ3
λ1 + λ2 + λ3
)(
λ2
λ1 + λ2
)
*
46
Exerc´ıcio: Dadas treˆs varia´veis aleato´rias exponenciais independentes X1, X2 e X3,
calcule a probabilidade de P{X1 > X2|X1 > X3, X2 > X3}.
Soluc¸a˜o:
P{X1 > X2|X1 > X3, X2 > X3} = P{X1 > X2, X1 > X3, X2 > X3}
P{X1 > X3, X2 > X3}
Para calcular P{X1 > X2, X1 > X3, X2 > X3} condicione duas vezes: uma em X1 e a
segunda em X2, por exemplo. Obtemos
P{X1 > X2, X1 > X3, X2 > X3} =
=
∫ ∞
y=0
P{X1 > X2, X1 > X3, X2 > X3|y < X1 ≤ y + dy}P{y < X1 ≤ y + dy}
=
∫ ∞
y=0
P{y > X2, y > X3, X2 > X3}P{y < X1 ≤ y + dy}
=
∫ ∞
y=0
∫ ∞
z=0
P{y > z, y > X3, z > X3}P{y < X1 ≤ y + dy}P{z < X2 ≤ z + dz}
=
∫ ∞
y=0
∫ y
z=0
P{z > X3}P{y < X1 ≤ y + dy}P{z < X2 ≤ z + dz}
= apo´s resolver as integrac¸o˜es e simplificar
=
(
λ2
λ1 + λ2
)(
λ3
λ1 + λ2 + λ3
)
Podemos observar que o primeiro termo da resposta corresponde a` probabilidade de X2
ser menor que X1 e o segundo termo corresponde a` probabilidade de X3 ser menor dos
treˆs Xi. Esta e´ a resposta esperada quando pensamos em treˆs fontes Poisson independentes
e usamos a propriedade da falta de memo´ria da exponencial e a composic¸a˜o de processos
Poisson.
Como P{X1 > X3, X2 > X3} = λ3λ1+λ2+λ3 , a resposta do problema e´ λ2λ1+λ2 . A inter-
pretac¸a˜o e´: uma vez que X1 e X2 sa˜o ambos maiores que X3, a relac¸a˜o entre eles na˜o e´
influenciada por este fato (o que e´ razoa´vel ja´ que a exponencial e´ sem memo´ria).
*
Exerc´ıcio: Dado X1 e X2 exponenciais, calcule P (X1 ≤ t|X1 < X2), isto e´, calcule a
distribuic¸a˜ode uma v.a. exponencial sabendo que ela e´ menor que outra v.a. exponencial.
ILUSTRAC¸A˜O: Se X2 representa o tempo de servic¸o de um fregueˆs num banco, e X1
representa o tempo de chegada do pro´ximo fregueˆs que ainda encontra o fregueˆs em servic¸o,
enta˜o a distribuic¸a˜o do tempo de chegada e´ dada pela fo´rmula solicitada.
47
Soluc¸a˜o:
P (X1 ≤ t|X1 < X2) = P (X1 ≤ t, X1 < X2)
P (X1 < X2)
=
λ1 + λ2
λ1
P (X1 ≤ t, X1 < X2)
=
λ1 + λ2
λ1
∫ ∞
y=0
P (X1 ≤ t, X1 < X2|y < X2 ≤ y + dy)P (y < X2 ≤ y + dy)
=
λ1 + λ2
λ1
[∫ t
y=0
P (X1 ≤ t, X1 < y)fY (y)dy +
∫ ∞
y=t
P (X1 ≤ t, X1 < y)fY (y)dy
]
=
λ1 + λ2
λ1
[∫ t
y=0
P (X1 < y)fY (y)dy +
∫ ∞
y=t
P (X1 ≤ t)fY (y)dy
]
=
λ1 + λ2
λ1
[∫ t
y=0
(1− e−λ1y)λ2e−λ2ydy +
∫ ∞
y=t
(1− e−λ1t)λ2e−λ2ydy
]
=
λ1 + λ2
λ1
[∫ ∞
y=0
λ2e
−λ2ydy − λ2
∫ t
y=0
e−(λ1+λ2)ydy − e−λ1t
∫ ∞
y=t
λ2e
−λ2ydy
]
=
λ1 + λ2
λ1
[
1− λ2
λ1 + λ2
(1− e−(λ1+λ2)t)− e−λ1te−λ2t
]
= 1− e−(λ1+λ2)t
que e´ a distribuic¸a˜o de uma exponencial com taxa λ1 + λ2.
Observe que o conhecimento de que X1 < X2 afeta a distribuic¸a˜o de X1
***
48
13 Propriedades de Varia´veis Aleato´rias
13.1 Me´dia, Esperanc¸a ou Valor Esperado
Define-se esperanc¸a (me´dia ou valor esperado) da varia´vel X, repesentada pela notac¸a˜o Es-
peranc¸a de X = E[X ] = X , como
• Caso Discreto: E[X ] =∑∀k xkP (X = xk).
• Caso Cont´ınuo: E[X ] = ∫∞−∞ xfX(x)dx = ∫∞−∞ xP (x < X ≤ x+ dx).
Outra forma de calcular E[X ], obtida a partir da integrac¸a˜o por partes, e´ a seguinte:
E[X ] =
∫∞
0
(1− FX(x))dx−
∫ 0
−∞ FX(x)dx.
Demonstrac¸a˜o: Para demonstrar o resultado usaremos a definic¸a˜o de PDF como se segue:
E[X ] =
∫∞
0
(1− FX(x))dx−
∫ 0
−∞ FX(x)dx
=
∫∞
x=0
P{X > x}dx− ∫ 0
x=−∞ FX(x)dx
=
∫∞
x=0
∫∞
y=x
fX(y)dydx−
∫ 0
x=−∞
∫ x
y=−∞ fX(y)dydx
=
∫∞
y=0
[∫ y
x=0
dx
]
fX(y)dy −
∫ 0
y=−∞
[∫ 0
x=y
dx
]
fX(y)dy
=
∫∞
y=0
yfX(y)dy −
∫ 0
y=−∞(−y)fX(y)dy
=
∫∞
y=0
yfX(y)dy +
∫ 0
y=−∞ yfX(y)dy =
∫∞
y=−∞ yfX(y)dy
Conve´m lembrar que a esperanc¸a e´ um nu´mero.
*
Teorema fundamental
Seja Y = g(X). Enta˜o,
EY [Y ] = EX [g(X)] =
∫∞
−∞ g(x)fX(x)dx.
EY [.] indica que a esperanc¸a e´ tomada em relac¸a˜o a varia´vel Y .
0chap13.tex 12/11/2012
49
Importante:
Seja Y = X1 +X2.
E[Y ] =
∫∞
−∞ yfY (y)dy
=
∫∞
x1=−∞
∫∞
x2=−∞(x1 + x2)fX1X2(x1, x2)dx1dx2
=
∫∞
x1=−∞
∫∞
x2=−∞ x1fX1X2(x1, x2)dx1dx2+∫∞
x1=−∞
∫∞
x2=−∞ x2fX1X2(x1, x2)dx1dx2
=
∫∞
x1=−∞ x1
{∫∞
x2=−∞ fX1X2(x1, x2)dx2
}
dx1+∫∞
x2=−∞ x2
{∫∞
x1=−∞ fX1X2(x1, x2)dx1
}
dx2
=
∫∞
x1=−∞ x1fX1(x1)dx1 +
∫∞
x2=−∞ x2fX2(x2)dx2
= E[X1] + E[X2], mesmo se X1 e X2 na˜o forem independentes
Podemos, enta˜o, afirmar que:
E [
∑
iXi] =
∑
iE[Xi].
Observe que uma constante a pode ser definida pela densidade de massa u0(t − a).
Aplicando a esperanc¸a, temos E[a] =
∫∞
−∞ tu0(t− a)dt = a, como dever´ıamos esperar.
Por outro lado, se Y = aX , onde a e´ um nu´mero, enta˜o e´ fa´cil ver que E[Y ] = E[aX ] =
aE[X ].
Estas propriedades mostram que a esperanc¸a e´ um operador linear.
Aplicando o operador esperanc¸a E a` expressa˜o Y = aX+ b , obtemos E[Y ] = aE[X ]+ b.
*
Suponha Y = X1X2 e que X1 e X2 sa˜o independentes.
Pode-se mostrar facilmente que E[Y ] = E[X1]E[X2].
Em geral, E[g(X1).h(X2)] = E[g(X1)]E[h(X2)], se X1 e X2 forem independentes.
***
50
13.2 Momentos
Definic¸a˜o:
n-e´simo momento de X = E[Xn] = Xn =
{ ∫∞
−∞ x
nfX(x)dx , no caso cont´ınuo∑
x x
nP (X = x) , no caso discreto
Observe que:
E[X0] = 1
E[X1] = E[X ] = esperanc¸a.
E[X2] = momento de ine´rcia.
Definic¸a˜o:
n-e´simo momento central de X = E[(X − E[X ])n] = (X −X)n
=
{ ∫∞
−∞(x−E[X ])nfX(x)dx no caso cont´ınuo∑
∀x(x− E[X ])nP (X = x) no caso discreto
*
O momento central pode ser escrito em termos dos n-e´simos momentos
(X − E[X ])n =∑nk=0 (nk)Xk(−E[X ])n−k
Tirando a me´dia dos dois lados:
E[(X − E[X ])n] =∑nk=0 (nk)E[Xk](−E[X ])n−k
Lembre-se que a esperanc¸a e´ um nu´mero.
*
Variaˆncia = 2o momento central = σ2X = V(X).
σX = desvio padra˜o.
σ2X = E[(X −E[X ])2]
= E[X2 − 2XE[X ] + (E[X ])2]
= E[X2]− 2E[X ]E[X ] + (E[X ])2
= E[X2]− (E[X ])2
Coeficiente de variac¸a˜o = CX =
σx
E[X]
.
51
*
Covariaˆncia
Cov(X, Y ) = E[(X − E[X ])(Y − E[Y ])]
= E[XY −E[X ]Y −XE[Y ] + E[X ]E[Y ]]
= E[XY ]−E[X ]E[Y ]
Se X e Y forem independentes, enta˜o
Cov(X, Y ) = E[X ]E[Y ]− E[X ]E[Y ] = 0.
Se X = Y , enta˜o
Cov(X,X) = E[(X − E[X ])2] = V (X).
*
Para Y = a1X1 + a2X2 + · · ·+ anXn
E[Y ] = a1E[X1] + a2E[X2] + · · ·+ anE[Xn]
V (Y ) = E[(Y − E[Y ])2]
= E[(
∑
i
aiXi −
∑
i
aiE[Xi])
2]
= E[(
∑
i
(aiXi − aiE[Xi]))2]
=
n∑
i=1
n∑
j=1
aiajE[(Xi − E[Xi])(Xj −E[Xj ])]
=
n∑
i=1
n∑
j=1
aiajCov(Xi, Xj)
Observe que :
(
∑n
i=1Xi)
2 =
∑n
i=1Xi
∑n
j=1Xj =
∑n
i=1
∑n
j=1XiXj
Se Xi sa˜o independentes
V (Y ) =
∑n
i=1 a
2
iV (Xi) porque Cov(Xi, Xj) = 0, se X1 6= Xj.
Assim, para Y = X1 +X2,
V (Y ) = V (X1) + V (X2) + 2Cov(X1, X2).
Para este caso, se X1 e X2 forem independentes, V (Y ) = V (X1) + V (X2).
52
*
Exemplo: Variaˆncia de uma varia´vel binomial X com paraˆmetros n e p. X mede o nu´mero
de sucessos em n experimentos de Bernoulli. Seja Xi o resultado do i-e´simo experimento:
Xi =
{
1 , se o i-e´simo experimento tem sucesso com probabilidade p
0 , se o i-e´simo experimento falha com probabilidade 1− p
X pode ser escrita como:
X = X1 +X2 + · · ·+Xn, e, consequentemente, V (X) =
∑
i V (Xi).
Mas,
V (Xi) = E[X
2
i ]− (E[Xi])2
= E[Xi]− (E[Xi])2, pois X2i = Xi
= p− p2
Enta˜o, V (X) = np(1− p).
*
Exerc´ıcio: Mostre que para X exponencial com paraˆmetro λ, E[X ] = 1/λ e V (X) = 1/λ2.
E[X ] =
∫ ∞
0
λxe−λxdx = λ
∫ ∞
0
d
dλ
(−e−λx) dx
= −λ d
dλ
∫ ∞
0
e−λxdx = −λ d
dλ
[
e−λx
−λ
]∞
0
= −λ d
dλ
(
1
λ
)
=
λ
λ2
=
1
λ
E[X2] =
∫ ∞
0
λx2e−λxdx = λ
d
dλ2
(∫ ∞
0
e−λxdx
)
= λ
d
dλ2
(
1
λ
)
= λ
d
dλ
(−1
λ2
)
= λ
(
2λ
λ4
)
=
2
λ2
Variaˆncia = σ2X = E[X
2]− (E[X ])2 = 2
λ2
− 1
λ2
=
1
λ2
*
53
Problema: Calcule a me´dia de uma varia´vel aleato´ria binomial negativa.
E[X ] =
∞∑
n=k
n
(
n− 1
k − 1
)
(1− p)n−kpk, 1 ≤ k ≤ n
=
∞∑
n=k
n!
(n− k)!(k − 1)!(1− p)
n−kpk
=
∞∑
n−k=l=0
(l + k)!
l!(k − 1)!q
lpk (fazendo l = n− k)
= kpk
∞∑
l=0
(
l + k
k
)
ql
Observando que
∑∞
l=0
(
l+k
k
)
ql = 1
(1−q)k+1 (mostre esta propriedade, derivando k vezes a ex-
pressa˜o
∑∞
i=0 q
i = 1
1−q ), podemos escrever que E[X ] =
kpk
pk+1
= k
p
.
Uma outra forma de se chegar ao resultado seria seguir os passos abaixo:
E[X ] =
∞∑
n=k
n
(
n− 1
k − 1
)
(1− p)n−kpk, 1 ≤ k ≤ n
=
∞∑
n=k
n!
(n− k)!(k − 1)!(1− p)
n−kpk
=
pk
(k − 1)!
∞∑
n=k
n(n− 1)(n− 2) · · · (n− k + 1)(1− p)n−k
=
pk
(k − 1)!
∞∑
n=k
dk
dqk
(qn)
=
pk
(k − 1)!
dk
dqk
∞∑
n=k
(qn)
=
pk
(k − 1)!
dk
dqk
∞∑
n=0
qn (alterar o limite inferior do somato´rio facilita!)
=
pk
(k − 1)!
dk
dqk
(
1
1− q
)
=
pk
(k − 1)! ×
k!
(1− q)k+1
=
pkk
pk+1
=
k
p
*
54
Problema: Assuma uma sequeˆncia de eventos de Bernoulli, onde P (sucesso) = p e P (falha) =
1 − p. Seja Tc a varia´vel aleato´ria que expressa o tempo necessa´rio para se obter c falhas
consecutivas.
Mostre que E[Tc] =
1−(1−p)c
p(1−p)c .
Procedimento: determinar Tc em func¸a˜o de Tc−1.
S S S F
|----------|-|----------|-|----------|-|--...--|----------|-|
|<--Tc-1-->| |<--Tc-1-->||<--Tc-1-->| |<-...->|<--Tc-1-->| |
| |
|<-------------------------Tc------------------------------>|
Seja N = nu´mero de subciclos com c−1 falhas consecutivas em Tc, com Pk = P (N = k).
E´ fa´cil ver que Pk = p
k−1(1− p), k ≥ 1, e que E[N ] = 1
1−p .
E[Tc] =
∞∑
k=1
E[Tc|N = k]P{N = k}
=
∞∑
k=1
(kE[Tc−1] + k)P{N = k}
= (E[Tc−1] + 1)
∞∑
k=1
kP{N = k}
=
1
1− p(E[Tc−1] + 1)
Observe que E[T1] = nu´mero me´dio de tentativas ate´ se obter 1 falha =
1
1−p .
Recursivamente:
E[T2] =
1
(1− p)2 +
1
1− p
E[T3] =
1
(1− p)3 +
1
(1− p)2 +
1
1− p
... =
E[Tc] =
1
(1− p)c +
1
(1− p)c−1 + · · ·+
1
(1− p)2 +
1
(1− p)
Lembrando que a soma de n termos de uma PG, cujo n-e´simo termo an = a0q
n−1 e a0
e´ o primeiro termo, e´ dada por Sn =
anq−a0
q−1 , podemos escrever diretamente que E[Tc] =
1−(1−p)c
p(1−p)c .CQD.
55
*
Exerc´ıcio: Dado X1 e X2 exponenciais, obter E[X1|X1 > X2].
ILUSTRAC¸A˜O: Se X2 representa o tempo de atendimento exponencial de um fregueˆs
num banco, e X1 representa o tempo de chegada do pro´ximo fregueˆs, enta˜o E[X1|X1 > X2]
representa o tempo me´dio de chegada do pro´ximo fregueˆs, dado que ele chega apo´s a sa´ıda
do fregueˆs anteriormente em servic¸o.
Soluc¸a˜o:
Para calcular E[X1|X1 > X2], vamos inicialmente calcular P (X1 ≤ t|X1 > X2) = 1 −
P (X1 > t|X1 > X2). Mas,
P (X1 > t|X1 > X2) = P (X1 > t,X1 > X2)
P (X1 > X2)
=
λ1 + λ2
λ2
P (X1 > t,X1 > X2)
=
λ1 + λ2
λ2
∫ ∞
y=0
P (X1 > t,X1 > X2|y < X1 ≤ y + dy)P (y < X1 ≤ y + dy)
=
λ1 + λ2
λ2
∫ ∞
y=t
P (y > t, y > X2)λ1e
−λ1ydy
=
λ1 + λ2
λ2
∫ ∞
y=t
P (X2 < y)λ1e
−λ1ydy
=
λ1 + λ2
λ2
∫ ∞
y=t
(1− eλ2y)λ1e−λ1ydy
=
λ1 + λ2
λ2
[∫ ∞
y=t
λ1e
−λ1ydy − λ1
∫ ∞
y=t
e−(λ1+λ2)ydy
]
=
λ1 + λ2
λ2
[
e−λ1t − λ1
λ1 + λ2
e−(λ1+λ2)t
]
=
λ1 + λ2
λ2
e−λ1t − λ1
λ2
e−(λ1+λ2)t, t ≥ 0
Enta˜o, P (X1 ≤ t|X1 > X2) = 1 + λ1λ2 e−(λ1+λ2)t − λ1+λ2λ2 e−λ1t, t ≥ 0.
A densidade pode ser obtida derivando a PDF:
fX1(x|X1 > X2) =
λ1 + λ2
λ2
[
λ1e
−λ1t]− λ1
λ2
[
(λ1 + λ2)e
−(λ1+λ2)t] , t ≥ 0
onde os termos entre colchetes correspondem a densidades exponenciais. Podemos, enta˜o,
obter a me´dia diretamente:
E[X1|X1 > X2] = λ1 + λ2
λ2
× 1
λ1
− λ1
λ2
× 1
λ1 + λ2
=
1
λ1 + λ2
+
1
λ1
56
Este resultado poderia ser diretamente obtido observando que o primeiro termo e´ o tempo
me´dio para X2 ocorrer, dado que X1 > X2. O segundo termo e´ o tempo me´dio de X1, apo´s
a ocorreˆncia de X2, lembrando a falta de memo´ria da exponencial. E[X1|X1 > X2] pode ser
tambe´m interpretado como o tempo me´dio para a emissa˜o de duas fontes exponenciais com
taxas λ1 e λ2, sabendo que a fonte com taxa λ1 emite por u´ltimo.
***
13.3 Esperanc¸a Condicional
Definic¸a˜o: E[X|y < Y ≤ y + dy] = ∫∞−∞ xfX|Y (x|y)dx onde fX|Y (x|y) = fXY (x,y)fY (y)
*
Teorema: E[X ] = EY [E[X|y < Y ≤ y + dy]] =
∫∞
−∞E[X|y < Y ≤ y + dy]fY (y)dy
Demonstrac¸a˜o:
EY [E[X|y < Y ≤ y + dy]] =
∫ ∞
−∞
E[X|y < Y ≤ y + dy]fY (y)dy
=
∫ ∞
−∞
∫ ∞
−∞
x
fXY (x, y)
fY (y)
fY (y)dxdy
=
∫ ∞
−∞
x
∫ ∞
−∞
fXY (x, y)dydx
=
∫ ∞
−∞
xfX(x)dx = E[X ] C.Q.D.
No caso discreto, E[X ] = EY [E[X|Y = y]] =
∑
y E[X|Y = y]P (Y = y).
*
Vamos lembrar que:
P (x < X ≤ x+ dx, A) =
∑
∀Bi
P (x < X ≤ x+ dx, A,Bi)
=
∑
∀Bi
P (x < X ≤ x+ dx|A,Bi)P (A,Bi)
=
∑
∀Bi
P (x < X ≤ x+ dx|A,Bi)P (Bi|A)P (A)
57
De maneira semelhante,
E[X|A] =
∫
x
xP (x < X ≤ x+ dx|A)
=
∫
x
x
P (x < X ≤ x+ dx, A)
P (A)
=
∑
Bi
∫
x
x
P (x < X ≤ x+ dx, A,Bi)
P (A)
=
∑
Bi
∫
x
x
P (x < X ≤ x+ dx|A,Bi)P (A,Bi)
P (A)
=
∑
Bi
∫
x
xP (x < X ≤ x+ dx|A,Bi)P (Bi|A)
***
13.4 Variaˆncia Condicional
Definic¸a˜o:V (X|Y ) = E[(X −E[X|Y ])2|Y ]
Desenvolvendo a expressa˜o de V (X|Y ), obtemos:
VX(X|Y ) = EX
[
(X −EX [X|Y ])2|Y
]
= EX
[
(X2 − 2XEX [X|Y ] + E2X [X|Y ]|Y
]
= EX [X
2|Y ]− 2EX [X|Y ]E[X|Y ] + E2X [X|Y ]
= EX [X
2|Y ]− E2X [X|Y ]
*
Teorema: V (X) = EY [VX(X|Y )] + VY (EX [X|Y ])
Demonstrac¸a˜o:
EY [VX(X|Y )] = EY
[
EX [X
2|Y ]− E2X [X|Y ]
]
= EY
[
EX [X
2|Y ]]−EY [E2X [X|Y ]]
= EX [X
2]− EY
[
E2X [X|Y ]
]
.
Por outro lado,
VY (EX [X|Y ]) = EY
[
E2X [X|Y ]
]− (EY [EX [X|Y ]])2
= EY
[
E2X [X|Y ]
]− (EX [X ])2 .
Enta˜o:
EY [V (X|Y )] + VY (E[X|Y ]) = EX [X2]− (EX [X ])2 = V (X). C.Q.D.
58
*
Aplicaca˜o: Assuma que num intervalo de tamanho X , X∗(s) qualquer, chegadas Poisson
com taxa λ possam ocorrer. Seja Y uma varia´vel exponencialmente distribu´ıda com taxa λ.
Qual seria o instante me´dio da primeira chegada, dado que pelo menos uma chegada ocorreu
em X? Em outras palavras, estamos procurando determinar a me´dia da varia´vel Y , dado
que ela e´ menor do que X .
E[Y |Y < X ] =
∫ ∞
0
yP (y < Y < y + dy|Y < X)
=
1
P (Y < X)
∫ ∞
0
yP (y < Y < y + dy, Y < X)
=
1
1−X∗(λ)
∫ ∞
y=0
yP (Y < X|y < Y < y + dy)fY (y)dy
=
1
1−X∗(λ)
∫ ∞
y=0
yP (X > y)λe−λydy
=
λ
1−X∗(λ)
∫ ∞
y=0
ye−λyP (X > y)dy
=
λ
1−X∗(λ)
∫ ∞
y=0
ye−λy
∫ ∞
y
fX(x)dxdy
=
λ
1−X∗(λ)
∫ ∞
x=0
∫ x
y=0
ye−λydyfX(x)dx
=
λ
1−X∗(λ)
∫ ∞
x=0
−d
dλ
(
1
λ
∫ x
y=0
λe−λydy
)
fX(x)dx
=
λ
1−X∗(λ)
∫ ∞
x=0
−d
dλ
(
1− e−λx
λ
)
fX(x)dx
=
λ
1−X∗(λ)
∫ ∞
x=0
(
1− e−λx
λ2
− xe
−λx
λ
)
fX(x)dx
=
λ
1−X∗(λ)
(
1−X∗(λ)
λ2
+
1
λ
d
dλ
∫ ∞
x=0
e−λxfX(x)dx
)
=
1
λ
+
X∗
′
(λ)
1 +X∗(λ)
59
14 Transformadas
14.1 Transformada de Laplace Unilateral para Func¸o˜es Cont´ınuas
Definimos a transformada de Laplace (T.L.) unilateral da func¸a˜o densidade de uma varia´vel
aleato´ria X cont´ınua definida para valores na˜o negativos, como sendo:
X∗(s) = E[e−sX ] =
∫ ∞
0−
e−sxP (x < X ≤ x+ dx) =
∫ ∞
0−
e−sxfX(x)dx
A integrac¸a˜o pode ser assumida de 0 a ∞ se a func¸a˜o for bem comportada e na˜o possuir
impulso (concentrac¸a˜o de probabilidade) no ponto 0.
Propriedades:
• Se Y = aX , enta˜o E[e−sY ] = E[e−saX ] = X∗(as)
• Se X1 e X2 sa˜o independentes e Y = X1 +X2, enta˜o
Y ∗(s) = E[e−sY ] = E[e−s(X1+X2)] = E[e−sX1 ]E[e−sX2] = X∗1 (s)X
∗
2 (s)
• Se Y = T = constante, enta˜o E[e−sY ] = e−sT
• X∗(s)|s=0 = X∗(0) = E[1] = 1
• Obtenc¸a˜o de momentos
X∗
′
(s) =
d
ds
X∗(s) =
d
ds
E[e−sX ] = E[−Xe−sX ]
Enta˜o, X∗
′
(s)|s=0 = X∗′(0) = E[−X ] = −E[X ].
X∗
′′
(s) =
d2
ds2
X∗(s) =
d2
ds2
E[e−sX ] = E[X2e−sX ]
Enta˜o, X∗(2)(s)|s=0 = X∗′′(0) = E[X2].
Generalizando: d
n
dsn
X∗(s)|s=0 = (−1)nE[Xn]
• Um resultado importante envolvendo os momentos e a T.L. pode ser obtido fazendo a
expansa˜o de Taylor da exponencial em torno do ponto 0:
E[e−sX ] = E[
∞∑
i=0
(−sX)i
i!
] =
∞∑
i=0
(−s)i
i!
E[X i]
E em termos dos momentos da varia´vel aleato´ria, temos
E[e−sX ] = 1− sE[X ] + s
2
2
E[X2]− s
3
3!
E[X3] + · · ·
mostrando que a transformada pode ser obtida como uma func¸a˜o de todos os momentos
da varia´vel aleato´ria.
0chap14.tex 17/05/2013
60
• A Transformada de Laplace de uma pdf e´ u´nica; dada a pdf obtemos a T.L., e dada a
T.L. podemos obter, pelo processo inverso (geralmente atrave´s da expansa˜o em frac¸o˜es
parciais e uso de tabelas de pares f(t) ⇔ F ∗(s)), a pdf, que sera´ u´nica tambe´m.
Consequ¨entemente, uma varia´vel aleato´ria cont´ınua e´ perfeitamente caracterizada por
uma das func¸o˜es: T.L. da pdf, func¸a˜o densidade ou func¸a˜o distribuic¸a˜o.
*
Exerc´ıcio: Obter a T.L. de uma exponencial com taxa λ.
E[e−sX ] =
∫ ∞
0
e−stλe−λtdt
=
λ
λ+ s
∫ ∞
0
(λ+ s)e−(s+λ)tdt =
λ
λ+ s
Observe que a u´ltima integral vale 1, pois corresponde

Outros materiais