Buscar

Processos Estocásticos - Prof. Dr. James Dean UFAM .pdf

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 3, do total de 134 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 6, do total de 134 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 9, do total de 134 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Prévia do material em texto

Pro
essos Esto
ásti
os
Um Curso de Graduação
Dis
iplina IEE 503
Versão 4.1
James Dean Oliveira dos Santos Jr.
2 de fevereiro de 2017
2
Sumário
1 Preliminares 3
1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Resultados importantes . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Distribuições importantes . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Exponen
ial . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.3 Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Esperança 
ondi
ional . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 Inferên
ia* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6 Teoria dos grafos . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.7 Exer
í
ios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2 Pro
essos Esto
ásti
os 25
2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Pro
essos Esta
ionários . . . . . . . . . . . . . . . . . . . . . . . 27
3
2.3 Pro
essos de 
ontagem . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4 Exer
í
ios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3 Pro
esso de Poisson 33
3.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Tempos de Chegada e de Espera . . . . . . . . . . . . . . . . . . 35
3.2.1 De�nições e propriedades . . . . . . . . . . . . . . . . . . 36
3.2.2 Distribuição 
ondi
ional dos tempos de 
hegada . . . . . . 40
3.3 Soma de Pro
essos de Poisson . . . . . . . . . . . . . . . . . . . . 46
3.4 Inferên
ia para o Pro
esso de Poisson . . . . . . . . . . . . . . . 48
3.4.1 Inferên
ia para in
rementos . . . . . . . . . . . . . . . . . 50
3.4.2 Inferên
ias para T . . . . . . . . . . . . . . . . . . . . . . 53
3.4.3 Sui
ídios no MIT . . . . . . . . . . . . . . . . . . . . . . . 54
3.5 O Pro
esso de Poisson Composto . . . . . . . . . . . . . . . . . . 56
3.6 Generalizações do Pro
esso de Poisson . . . . . . . . . . . . . . . 58
3.6.1 O Pro
esso de Poisson Não-Homogêneo . . . . . . . . . . 58
3.6.2 O Pro
esso de Ponto Esta
ionário . . . . . . . . . . . . . 60
3.7 Exer
í
ios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4 Cadeias de Markov a Tempo Dis
reto 69
4.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.2 Grafo de uma Cadeia de Markov . . . . . . . . . . . . . . . . . . 71
4
4.3 Exemplos de Cadeias de Markov . . . . . . . . . . . . . . . . . . 73
4.4 As Equações de Chapman-Kolmogorov . . . . . . . . . . . . . . . 77
4.5 Classi�
ação de Estados . . . . . . . . . . . . . . . . . . . . . . . 84
4.5.1 Comuni
ação entre Estados . . . . . . . . . . . . . . . . . 84
4.5.2 Classes Transientes e Re
orrentes . . . . . . . . . . . . . . 86
4.5.3 Periodi
idade de um Estado . . . . . . . . . . . . . . . . . 92
4.6 Distribuição Esta
ionária . . . . . . . . . . . . . . . . . . . . . . 96
4.7 Pro
esso de Rami�
ação . . . . . . . . . . . . . . . . . . . . . . . 99
4.8 Inferên
ia para Cadeias de Markov . . . . . . . . . . . . . . . . . 101
4.9 Cadeias de Ordens Maiores . . . . . . . . . . . . . . . . . . . . . 102
4.9.1 Transformação para uma CMTD de ordem 1 . . . . . . . 102
4.9.2 O Modelo de Rafttery . . . . . . . . . . . . . . . . . . . . 102
4.10 Exer
í
ios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5 Cadeias de Markov a Tempo Contínuo 109
5.1 De�nição e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.2 Distribuição Esta
ionária . . . . . . . . . . . . . . . . . . . . . . 115
5.3 Pro
essos de Nas
imento e Morte . . . . . . . . . . . . . . . . . . 116
5.4 Exer
í
ios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6 Pro
essos de Renovação 123
6.1 De�nição e Propriedades . . . . . . . . . . . . . . . . . . . . . . . 123
5
6.2 A Distribuição de N(t) . . . . . . . . . . . . . . . . . . . . . . . . 124
6.3 A Equação de Wald . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.4 Pro
esso de Renovação 
om Re
ompensa . . . . . . . . . . . . . . 125
6.5 Pro
esso Regenerativo . . . . . . . . . . . . . . . . . . . . . . . . 125
6.6 Pro
essos de Renovação Alternados . . . . . . . . . . . . . . . . . 125
6
Lista de Figuras
3.1 Linha 
heia: função de distribuição empíri
a; Linha pontilhada:
função de distribuição de uma exponen
ial(308,3). . . . . . . . . 56
7
Nota
Importante: Este material está em 
ontínua evolução. Ele não deve ser
utilizado 
omo referên
ia úni
a para a dis
iplina Pro
essos Esto
ásti
os.
Existem muitos erros ainda para serem 
orrigidos, portanto utilize esse material
om ressalvas.
2012 - Os objetivos dessas notas de aula são
1. Compilar os resultados bási
os de pro
essos esto
ásti
os
2. Apresentar resultados de inferên
ia para estes pro
essos
Em relação ao primeiro objetivo, a experiên
ia me diz que os alunos 
ostumam
a sentir di�
uldades no 
urso de pro
essos esto
ásti
os. Muito esforço tem sido
feito para fazer 
om que a dis
iplina seja agradável para um aluno de graduação,
o que in
lui:
• Exemplos mais �apli
ados� sempre que possível.
• Uma revisão de resultados bási
os sobre séries e distribuições.
• A apresentação rápida da Teoria e Grafos 
om sua apli
ação imediata em
adeias de Markov.
Em relação ao segundo objetivo, muito ainda deve ser feito e, em geral, este
assunto não está sendo 
obrado nos exer
í
ios ou provas do 
urso.
1
2
Capítulo 1
Preliminares
1.1 Introdução
Este 
apítulo destina-se enumerar uma série de resultados que serão utilizados
posteriormente. Tais resultados já são de 
onhe
imento dos alunos que 
ursam
pro
essos esto
ásti
os e servem uni
amente para revisão. É importante ressaltar
que este 
apítulo é 
olo
ado neste momento por motivos didáti
os, mas que
poderia perfeitamente fazer parte de um apêndi
e, pois a maioria dos resultados
será utilizada pou
as vezes.
1.2 Resultados importantes
Nesta seção, apresentamos alguns resultados de séries e de análise 
ombinatória.
De�nição 1.1. A sequên
ia a1, a2, . . . será um progressão aritméti
a (PA) se
ai = a1 + (i − 1)r para i = 1, 2, 3, . . . e r ∈ R.
1.1 Exemplo (Soma de uma PA) Talvez vo
ê já 
onheça a demonstração
da fórmula da soma �nita de n termos de uma PA, denotada por Sn. Vamos
demonstrar essa fórmula utilizando nosso 
onhe
imento de probabilidade. Seja
X a variável aleatória que assume qualquer valor no 
onjunto {a1, . . . , an} e
atribui probabilidade 1/n para 
ada ponto. Então
E(X) =
a1 + · · ·+ an
n
=
Sn
n
.
3
Por de�nição,E(X) é o bari
entro da distribuição e, 
omo 
ada ponto possui a
mesma probabilidade e todos eles são equidistantes, o bari
entro será o ponto
médio do 
onjunto {a1, . . . , an}. Assim,
E(X) =
a1 + an
2
.
Igualando as duas equações a
ima teremos
Sn =
(a1 + an)n
2
. (1.1) �
De�nição 1.2. A sequên
ia a1, a2, . . . será um progressão geométri
a (PG) se
ai = a1q
i−1
para i = 1, 2, 3, . . . e q 6= 0.
1.2 Exemplo . Certo vírus de 
omputador 
ria uma 
ópia de si mesmo a 
ada
segundo. Cada nova 
ópia gerada pro
ede da mesma maneira.
(a) Quantas 
ópias deste vírus teremos em uma hora?
(b) Cada 
ópia possui 1Kb. Quanto tempo é ne
essário para que os vírus o
u-
pem 1Tb?
Resolução: Seja Xi o número de 
ópias no segundo i, sneo que X0 = 1. Como
apenas um vírus está no 
omputador, no primeiro segundo ele fará uma 
ópia
de si mesmo, gerando X1 = 2. No segundo, existem dois vírus e 
ada um
fará uma 
ópia desi mesmo, gerando X2 = 4. Um ra
io
ínio análogo mostra
que {X0, X1, X2, . . .} = {2, 4, 8, 16, . . .}. Assim, temos um PG 
om q = 2.
Identi�
ando a1 
om X0, é fá
il ver que Xt = 2
t
e que
X3600 = 2
3600. (1.2)
Agora, sabendo que um terabyte equivale a 109 kilobytes, temos que
Xt = 10
9 = 2t ⇒ t = 9 log 10
log 2
≈ 29, 89,
logo, serão ne
essários 30 segundos para que os vírus o
upem 1Tb de espaço no
dis
o rígido. � �
1.3 Exemplo (Soma de uma PG) Seja {a1, . . . , an} uma PG se seja Sn =
a1 + · · ·+ an. Notemos que
S1 = a1
S2 = S1 + a1q = a1(1 + q)
S3 = S2 + a1q
2 = a1(1 + q + q
2)
· · · = · · ·
Sn = Sn−1 + a1q
n−1 = a1(1 + q + · · · qn−1), (1.3)
(1.4)
4
e que
qSn = a1(q + q
2 + · · ·+ qn). (1.5)
De (1.3) e (1.5), temos que
Sn − qSn = a1(1− qn)⇒ Sn = a1 1− q
n
1− q . (1.6)
Em espe
ial, se q ∈ (0, 1), então qn → 0 quando n→∞ e
lim
n→∞
Sn =
a1
1− q . (1.7)
1.4 Exemplo (Valor esperado da geométri
a) Se X assume valores intei-
ros não negativos, então E(X) =
∑∞
x=0(1 − F (x)). Seja X ∼ Geometri
a1(q),
onde
P (X = x) = q(1− q)x, x = 0, 1, 2, . . . (1.8) �
e q ∈ (0, 1). Em parti
ular, utilizando ( 1.7) temos que
1− F (x) = P (X > x) =
∞∑
y=x+1
q(1− q)y = (1− q)x+1. (1.9)
Assim, utilizando (1.7) novamente, teremos
E(X) =
∞∑
x=0
(1− q)x+1 = (1 − q)
∞∑
x=0
(1 − q)x = 1− q
q
. (1.10)
Teorema 1.3 (Binomial). Para n natural, x, y > 0 teremos
(x + y)n =
n∑
t=0
(
n
t
)
xtyn−t. (1.11)
1.5 Exemplo (Função geratriz de momentos da Binomial) SejaX ∼ Binomial(n, θ).
Então, sua função geratriz de momentos será
MX(t) =
n∑
x=0
etx
(
n
x
)
θx(1− θ)n−x =
n∑
x=0
(
n
x
)
(θet)x(1− θ)n−x = (θet + 1− θ)n.
Teorema 1.4 (Multinomial). Seja n = (n1, n2, . . . , nk). Então, para x1, . . . , xk >
0, teremos
(x1 + x2 + · · ·+ xk)n =
∑
{n:
∑
k
i=1 ni=n}
n!
n1!n2! . . . nk!
xn11 x
n2
2 . . . x
nk
k (1.12)
5
De�nição 1.5. De�nimos a 
onstante de Euler, representada por e, 
omo
e = lim
n→∞
(
1 +
1
n
)n
. (1.13)
Entretanto, ela pode ser en
ontrada de outros modos. Abaixo, apresentamos
outra forma.
Proposição 1.6. A 
onstante de Euler pode ser es
rita 
omo
e =
∞∑
t=0
1
t!
.
Demonstração. Utilizando o Teorema 1.3(
1 +
1
n
)n
=
n∑
t=0
(
n
t
)
1
nt
=
n∑
t=0
1
t!
n(n− 1) . . . (n− t+ 1)
nt
=
n∑
t=0
1
t!
(
1− 1
n
)(
1− 2
n
)
. . .
(
1− t− 1
n
)
Podemos notar que
lim
n→∞
1
t!
(
1− 1
n
)(
1− 2
n
)
. . .
(
1− t− 1
n
)
=
1
t!
Vamos utilizar (sem provar) que é válida a seguinte equação:
lim
n→∞
n∑
t=0
(
n
t
)
1
nt
=
∞∑
t=0
lim
n→∞
(
n
t
)
1
nt
.
Assim,
e =
∞∑
x=0
1
t!
. (1.14)
Além disso, teremos a seguinte proposição:
Proposição 1.7. Para qualquer θ real teremos
∞∑
x=0
θx
x!
= eθ. (1.15)
Demonstração. Podemos pro
eder de forma análoga ao que foi exposto na Pro-
posição 1.6, fazendo apenas uma mudança de variável. Uma forma alternativa
para demonstrar este resultado será explorada nos exer
í
ios.
6
A função gama, de�nida abaixo, é utilizada em diversas distribuições de
probabilidade.
De�nição 1.8. A função gama é de�nida por
Γ(a) =
∫ ∞
0
ta−1e−tdt, a > 0. (1.16)
A seguinte propriedade mostra que a função gama é uma generalização da
função fatorial.
Proposição 1.9. Para α > 0, Γ(α+ 1) = αΓ(α).
Demonstração.
Γ(a) =
∫ ∞
0
ta−1e−tdt,
(
fazendo u = ta−1 e dv = e−t
)
= − ta−1e−t
∣∣∞
0
+
∫ ∞
0
(a− 1)ta−2e−tdt
= (a− 1)
∫ ∞
0
ta−2e−tdt = (a− 1)Γ(a− 1)
logo, Γ(a) = (a− 1)Γ(a− 1).
Em espe
ial, notemos que
Γ(1) =
∫ ∞
0
e−tdt = 1
e Γ(2) = (2− 1)Γ(1) = 1. O seguinte 
orolário pode ser provado por indução.
Corolário 1.10. Se α é um inteiro maior que zero, então Γ(α) = (α− 1)!.
Demonstração. Exer
í
io 1.10.
Assim, a função gama pode ser interpretada 
omo uma versão 
ontínua da
função fatorial. Alguns valores de Γ(α) são utilizados em algumas distribuições,
omo é o 
aso de Γ(1/2) na distribuição qui-quadrado.
1.6 Exemplo (O valor de Γ(1/2).) Existe um modo interessante de mostrar
que Γ(1/2) =
√
pi, através da distribuição normal. Temos que
Γ(1/2) =
∫ ∞
0
x−1/2e−xdx
(
fazendo x = u2
)
= 2
∫ ∞
0
e−u
2
du. (1.17)
7
Agora, tomemos Y ∼ Normal(0, 1/2). Sabemos que a densidade da normal é
simétri
a e que
1 =
∫ ∞
−∞
1√
pi
e−y
2
dy = 2
∫ ∞
0
1√
pi
e−y
2
dy =
2√
pi
∫ ∞
0
e−y
2
dy
⇒
∫ ∞
0
e−y
2
dy =
√
pi
2
. (1.18)
Assim,
Γ
(
1
2
)
=
√
pi.
De�nimos a função gama in
ompleta 
omo segue:
Γx(a) =
∫ x
0
ta−1e−tdt (1.19)
1.3 Distribuições importantes
Dis
utiremos nesta seção as seguintes distribuições: exponen
ial, gama e Pois-
son.
1.3.1 Exponen
ial
Dizemos que a variável aleatória T possui distribuição exponen
ial 
om taxa λ,
(T ∼ Exponen
ial(λ)) se sua densidade for
f(t) = λe−λt, λ > 0, t > 0. (1.20)
A função de distribuição da exponen
ial é
F (x) =
∫ x
0
λe−λtdt = 1− e−λx, (1.21)
e seus momentos podem ser 
al
ulados 
omo segue:
E(T k) =
∫ ∞
0
tkλe−λtdt, (fazendo λt = u) ,
=
1
λk
∫ ∞
0
uke−udu =
Γ(k + 1)
λk
=
k!
λk
.
8
Em espe
ial, teremos
E(T ) =
Γ(2)
λ
=
1
λ
(1.22)
E(T 2) =
Γ(3)
λ2
=
2
λ2
(1.23)
V ar(T ) =
1
λ2
(1.24)
A função geratriz de momentos da exponen
ial é
MX(t) = E(e
tX) =
∫ ∞
0
λe−x(λ−t)dx =
λ
λ− t , t < λ. (1.25)
1.7 Exemplo (Falta de Memória) Suponha que o tempo de vida de uma
lâmpada possui distribuição exponen
ial 
om média 2 anos. Vo
ê liga essa
lâmpada uma vez e sai para viajar por um ano. Quando vo
ê volta, a lâmpada
ainda está ligada. Qual a probabilidade da lâmpada durar mais um ano? Seja
T o tempo de vida da lâmpada. O evento �lâmpada não queimou no primeiro
ano� é dado por {T > 1}. De modo análogo, o evento no qual a lâmpada dura
dois anos é {T > 2}. Assim, a probabilidade da lâmpada durar dois anos dado
que ela durou um ano é
P (T > 2|T > 1)
O fato 
urioso é que essa probabilidade é mesma de que uma lâmpada nova
do mesmo tipo dure um ano! Isso a
onte
e porque a distribuição exponen
ial
possui a propriedade de �falta de memória�. Vamos mostrar isso de um modo
geral: seja T ∼ Exponen
ial(λ) e sejam t, s > 0. Então
P (T > t+ s|T > s) = P (T > t+ s, T > s)
P (T > s)
=
P (T > t+ s)
P (T > s)
=
e−λ(t+s)
e−λs
= e−λt = P (T > t).
�
1.8 Exemplo (Mínimo de exponen
iais.) Sejam T1 e T2 variáveis aleató-
rias independentes 
om distribuição exponen
ial 
om taxas λ1 e λ2, respe
tiva-
mente. Seja M2 = min{T1, T2}. Notemos que, se M2 > m, então T1 e T2 devem
ser maiores de m. Disto, teremos
1− FM2 (m) = P (M2 > m) = P (T1 > m,T2 > m) = e−(λ1+λ2)m,
logo FM2(m) = 1 − exp {−(λ1 + λ2)m}. Notando que FM2 é da mesma forma
que (1.21), teremos que M2 ∼ Exponen
ial(λ1 + λ2).
É fá
il mostrar que Mn = min{X1, . . . , Xn} ∼ Exponen
ial(λ1+ · · ·+λn).�
9
1.9 Exemplo (Dois atletas) Dois atletas disputam uma 
orrida. É sabido
que o atleta A demora TA minutos para terminar a prova, enquanto que o
B demora TB minutos. Se Ti ∼ Exponen
ial(λi), onde i ∈ {A,B} e TA é
independente de TB, qual a probabilidade de que o atleta A ganhe a prova?
Resolução: O atleta A ganhará a prova se TA < TB. Assim,
P (TA < TB) =
∫ ∞
0
P (TA < TB|TB = t)fTB (t)dt
=
∫ ∞
0
P (TA < t|TB = t)fTB (t), por independên
ia
=
∫ ∞
0
FTA(t)fTB (t)dt =
∫ ∞
0
(1− e−λAt)λBe−λBt
= 1− λB
∫ ∞
0
e−(λA+λB)tdt =
λA
λA + λB
.
�
O resultado a
ima pode ser failmente generalizado para o 
aso de n atletas
(ver Exer
í
io 1.20). �
1.3.2 Gama
Dizemos que a variável aleatória S possui distribuição gama 
om parâmetros α
e β (notação S ∼ Gama(α, β)) se sua densidade for 
omo segue
f(s) =
βα
Γ(α)
sα−1e−βs, s, α, β > 0. (1.26)
Sua função distribuição será dada por
F (s) =
βα
Γ(α)
∫ s
0
xα−1e−βxdx, ( fazendo u = βx)
=
1
Γ(α)
∫ βs
0
uα−1e−udu =
Γβs(α)
Γ(α)
. (1.27)
Momentos:
E(Sk) =
∫ ∞
0
sk
βα
Γ(α)
sα−1e−βsds =
βα
Γ(α)
∫ ∞
0
sα+k−1e−βsds, ( fazendo u = βs) ,
=
βα
Γ(α)
β−k−α
∫ ∞
0
uα+ke−udu =
Γ(α+ k)
βkΓ(α)
(1.28)
10
Em espe
ial,
E(S) =
α
β
(1.29)
E(S2) =
(α+ 1)α
β2
=
(
E(S) +
1
β
)
E(S) (1.30)
V (S) =
E(S)
β
=
α
β2
(1.31)
A função geratriz de momentos de S é dada por
MS(t) = E(e
ts) =
∫ ∞
0
βα
Γ(α)
sα−1e−s(β−t)ds =
(
β
β − t
)α
, t < β. (1.32)
1.10 Exemplo (Soma de Exponen
iais) Podemos mostrar que a distribui-
ção gama pode ser obtida 
omo 
aso parti
ular de somas de exponen
iais. De
fato, seja Ti ∼ Exp(λ) e S =
∑n
i=1 Ti. Então
MS(t) = M∑n
i=1 Ti
(t) =
n∏
i=1
MTi(t) =
(
λ
λ− t
)n
(1.33)
Assim, S ∼ Gama(n, λ). �
1.11 Exemplo (Gama Inversa) Seja S ∼ Gama(α, β). Seja Z = 1/S. Po-
demos notar que
P (Z ≤ z) = P (S ≥ 1/z) = FS(1/z),
logo
fZ(z) = fS(1/z)
1
z2
=
βα
Γ(α)
(
1
z
)α+1
e
β
z , (1.34)
onde z > 0. Essa distribuição é denominada gama inversa. Notação: Z ∼
GI(α, β). �
1.3.3 Poisson
Dizemos que a variávelN possui distribuição Poisson 
om taxa λ (N ∼ Poisson(λ)),
se
P (N = n) =
e−λλn
n!
(1.35)
Função Geratriz de momentos
MN (t) =
∞∑
n=0
ent
e−λλn
n!
= e−λ
∞∑
n=0
[λet]n
n!
= exp{−λ(1− et)} (1.36)
11
Em espe
ial
d
dt
MN (t) = λe
tMN (t),⇒ E(N) = λ (1.37)
d2
dt2
MN (t) = λe
tMN (t) + λ
2e2tMN (t),⇒ E(N2) = λ+ λ2 (1.38)
V (N) = λ (1.39)
1.12 Exemplo (Soma de Poissons) Sejam X1, . . . , Xn variáveis aleatórias
om distribuição Poisson 
om taxas λ1, . . . , λn. Notemos que
MX1+···+Xn(t) =
n∏
i=1
MXi(t) = exp{−(λ1 + · · ·+ λn)(1 − et)} (1.40)
Logo, X1 + · · · + Xn ∼ Poisson(λ1 + · · · + λn). Assim, soma devariáveis ale-
atórias independentes 
om distribuição Poisson também possuem distribuição
Poisson. �
1.13 Exemplo (Condi
ionando somas de Poissons) Outro resultado inte-
ressante: SejamN1, N2 variáveis aleatórias independentes 
om distribuição Pois-
son 
om taxas λ1 e λ2. Sejam N = N1 +N2. Então (N1|N) ∼ Binomial(N, p),
onde p = λ1/(λ1 + λ2). De fato,
P (N1 = n1|N = n) = P (N1 = n1, N1 +N2 = n)
P (N = n)
=
P (N1 = n1, N2 = n− n1)
P (N = n)
=
e−λ1λn11
n1!
e−λ2λn−n12
(n− n1)!
n!
e−λ1−λ2(λ1 + λ2)n−n1
=
(
n
n1
)(
λ1
λ1 + λ2
)n1 ( λ2
λ1 + λ2
)n−n1
(1.41)
1.14 Exemplo (Aproximação da Binomial para a Poisson) SejaX ∼ Binomial(n, p).
Pelo Exemplo 1.5, temos que
MX(t) = (1− p(1− et))n.
Façamos λ = pn. Então
lim
n→∞
MX(t) = lim
x→∞
(
1− λ
n
(1− et)
)n
= eλ(1−e
t). (1.42)
Comparando a Equação (1.42) 
om (1.36), podemos per
eber queX se aproxima
da distribuiçao Poisson 
om taxa λ = np. �
1.4 Esperança 
ondi
ional
Neste 
urso, será 
omum avaliarmos a o
orrên
ia de uma variável aleatória 
on-
di
ionada a outra. Por exemplo, seja X o número de itens 
omprados por um
12
liente em um supermer
ado e seja Y o número de 
lientes no supermer
ado em
um dia. Suponha que X ∼ Poisson(λ) e Y ∼ Poisson(δ). Qual o número de
esperado de itens vendidos em um dia?
Neste problema, sabemos que o número de itens vendidos será W = X1 +
· · ·+XY , onde Xi é o número de itens 
omprados pelo i-ésimo 
liente. Contudo,
não 
onhe
emos a distribuição de W , pois Y é des
onhe
ido. É 
laro que esta
distribuição pode ser obtida pela relação.
P (W = w) =
∞∑
y=0
P (W = w|Y = y)P (Y = y).
A distribuição W |Y é 
onhe
ida, pois, uma vez que Y está �xado, W é equi-
valente a soma de Y variáveis independentes 
om distribuição Poisson, ou seja,
W |Y ∼ Poisson(Y λ). Já a distribuição de W é difí
il de lidar. Entretanto, po-
demos en
ontrar o valor esperado de W através dos valores esperados de W |Y
e Y . De fato, teremos que
E(W ) =
∞∑
w=∞
wP (W = w) =
∞∑
w=∞
∞∑
y=∞
wP (W = w, Y = y)
=
∞∑
w=∞
∞∑
y=∞
wP (W = w|Y = y)P (Y = y)
=
∞∑
y=∞
∞∑
w=∞
wP (W = w|Y = y)P (Y = y)
=
∞∑
y=∞
E(W |Y )P (Y = y) = EY (E(W |Y )) . (1.43)
Desde que as esperanças envolvidas existam, a equação a
ima é válida tanto
para variáveis dis
retas quanto para 
ontínuas. Voltanto ao problema dos itens
no supermer
ado, teremos que
E(W ) = EY (E(W |Y )) = EY (λY ) = δλ.
Fi
a 
omo exer
í
io mostrar que, se E(Xk|Y ) <∞ e E(Y k) <∞, então
E(Xk) = EY
(
E(Xk|Y )) . (1.44)
Com a última igualdade, podemos mostrar que
V (X) = EY
(
E(X2|Y ))− [EY (E(X |Y ))]2 ± EY (E(X |Y )2)
=
(
EY
(
E(X2|Y ))− EY (E(X |Y )2))+ (EY (E(X |Y )2)− [EY (E(X |Y ))]2)
= EY
[
E(X2|Y )− E(X |Y )2)] + VY [E(X |Y )]
= EY [V (X |Y )] + VY [E(X |Y )] (1.45)
13
Apli
ando esta última identidade no problema dos itens do supermer
ado, tere-
mos que
V (W ) = EY (λY ) + VY (λY ) = λδ + λ
2δ = δλ(1− λ).
1.5 Inferên
ia*
Esse tópi
o será inserido em outro 
urso.
1.6 Teoria dos grafos
Nesta seção, mostraremos o 
on
eito bási
o de grafos. A experiên
ia diz que
alguns 
on
eitos de pro
essos esto
ásti
os, 
omo as 
adeias de Markov, são
melhor 
ompreendidos 
om o uso dessa ferramenta. O leitor interessado no uso
de grafos, pode 
onsultar os livros XX e YY.
De�nição 1.11. Seja V um 
onjunto dis
reto, denominado 
onjunto dos vér-
ti
es, e seja E um 
onjunto de arestas, onde dizemos que existe uma aresta
entre os vérti
es (v, w) se ambos estão rela
ionados. A dupla G = (V,E) é
denominada grafo.
Em termos didáti
os, grafos simples ofere
em a vantagem de uma fá
il vi-
sualização grá�
a: 
ada vérti
e pode ser representado por um ponto no plano e
as arestas podem ser representadas por linhas unindo os pontos se estes estão
rela
ionados.
1.15 Exemplo (Arestas orientadas) Dizemos que uma aresta é orientada
quando a relação entre o par (x, y) não ne
essariamente é válida para o par
(y, x). Por exemplo, seja V = {2, 6, 4, 5, 10} e seja E o 
onjunto de arestas tal
que existe a aresta (x, y) se x é divisível por y, 
om x 6= y. Existe a aresta (4, 2),
pois 4 é divisível por 2, mas não existe a aresta (2, 4) pois 2 não é divisível por 4.
As arestas existentes são: (4, 2), (6, 2), (10, 2) e (10, 5). A representação grá�
a
deste grafo é dada a seguir
14
4
2 10
6 5
Note que em um grafo orientado, uma seta é 
olo
ada na aresta para indi
ar a
direção da relação. �
Neste texto, arestas orientadas serão denominadas ar
os. Além disso, o ar
o
(v, v) será denominado laço.
1.16 Exemplo (Grafos de dependên
ia) Considere as variáveisX1, X2, X3, X4
onde X1|X2, X3 é independente de X4, X3 é independente de X4 e X2 é depen-
dente de X4. Um grafo de dependên
ias é 
onstruído da seguinte forma:
• Faça V = {X1, X2, X3, X4}
• Crie a aresta v, w se as variáveis aleatórias v e w são dependentes.
Se Y é dependente de Z, então Z é dependente de Y . Assim, as arestas deste
grafo não são orientadas. Para esse exemplo, temos as seguintes arestas
• e1 : (X1, X2) pois X1 é dependente de X2
• e2 : (X1, X3) pois X1 é dependente de X3
O grafo de dependên
ias será dado por G = (V,E), onde E = {e1, e2, e3}. Esse
grafo pode ser representado gra�
amente 
omo segue:
15
X2
X1 X4
X3
Notemos que as arestas não possuem setas (se A é dependente de B, então
B é dependente de A). Algumas 
on
lusões podem ser tiradas: Os vérti
esX1, X2, X3 são independentes de X4 (não existem arestas ligando os primeiros
vérti
es a X4) e, dado X1, X2 e X3 são independentes (retirando X1, o 
aminho
entre X2 e X3 some). �
Ao longo deste 
urso, utilizaremos apenas grafos orientados. Além disso,
em muitos momentos apresentaremos a representação grá�
a de um grafo 
omo
sendo �o grafo�. Isso é um abuso de linguagem, uma vez que o grafo é uma
entidade matemáti
a bem de�nida. Outro 
on
eito importante é dado a seguir.
De�nição 1.12. A matriz A na qual o elemento (i, j) é igual a 1 se existe a
aresta (i, j) e 0 em 
aso 
ontrário é denominada matriz de adja
ên
ias.
A matriz de adja
ên
ias também é utilizada para de�nir o grafo, uma vez que
ela 
ontém todos os vérti
es e todas as arestas do grafo. Considere a seguinte
matriz de adja
ên
ias, onde os rótulos das linhas e 
olunas 
orrespondem aos
vérti
es do grafo.
A =
0 1 2



0 1 1 0
1 1 0 1
2 1 0 1
Desta matriz, podemos 
on
luir, por exemplo, que existe a aresta (1, 2), mas
não existe a aresta (2, 1), fazendo deste um grafo orientado. A representação
grá�
a deste grafo é dada abaixo:
16
0 1 2
Imagine agora que um indivíduo se en
ontra no vérti
e zero. Em 
ada passo,
o indivíduo pode seguir por um ar
o. A matriz de adja
ên
ias mostra quais são
os possíveis lugares que este indivíduo pode 
hegar após dar um passo. Assim,
essa matriz também é denominada matriz de transição um passo à frente. Um
aspe
to importante de um grafo é saber se é possível al
ançar o vérti
e i através
do vérti
e j. Por exemplo, é possível sair do vérti
e zero e 
hegar no vérti
e 2? A
resposta é: sim, basta seguir as arestas (0, 1) e (1, 2). Tal aspe
to é denominado
a
essibilidade.
De�nição 1.13. Dizemos que o vérti
e j é a
essível a partir de i se existe
uma su
essão de ar
os que ligam o vérti
e i ao vérti
e j. Denotamos isso por
i→ j. Se tal su
essão não existe, dizemos que j não é a
essível a partir de i e
denotamos este fator por i9 j.
Nota: por 
onvenção, vamos assumir que sempre i → i, 
onsiderando que
podemos voltar para i em zero passos.
É importante notarmos que a a
essibilidade é invariante ao número de passos!
No exemplo em estudo, 0 → 1, pois podemos sair do vérti
e 0 e 
hegar ao
vérti
e 2 em dois passos. A matriz de adja
ên
ias nos mostra quais vérti
es
estão a
essíveis a partir de um passo, mas também podemos 
onstruir matrizes
que nos mostrem os vérti
es a
essíveis dois passos à frente, três passos, e assim
por diante. Essa 
onstrução é fá
il, 
omo mostra a seguinte proposição.
Proposição 1.14. Considere um grafo 
om matriz de transição A. Seja An a
matriz de transição n passos à frente (neste 
aso, A1 = A). Então An = A
n
.
Nota: a matriz An indi
a quantos 
aminhos existem entre 
ada par de vér-
ti
es. Uma entrada igual a zero impli
a que aquele 
aminho não existe.
Demonstração. Para qualquer aij ∈ A, sabemos que aij = 1 se existe o ar
o
(i, j) e zero em 
aso 
ontrário. Suponha que queremos veri�
ar se j0 é a
essível
a partir de i0 em dois passos. Primeiro, vamos determinar todos os estados
que podem ser al
ançados um passo a frente à partir de i0. Depois, vamos
veri�
ar qual destes estados 
hega em j0. Sem perda de generalidade, assuma
que existem n vérti
es no grafo. Consideremos então a seguinte soma:
n∑
l=1
ai0,lai,j0 = ai0,1a1,j0 + ai0,2a2,j0 + ai0,3a3,j0 + · · ·+ ai0,nan,j0 (1.46)
17
Se ai0,1a1,i0 = 1, então existem os ar
os (i0, 1) e (1, j0), indi
ando que existe um
aminho em dois passos saindo de i0 e 
hegando em j0. Se ai0,1a1,j0 = 0, então
um dos dois ar
os não existe, fazendo 
om que o 
aminho (i0, 1) e (1, j0) não
exista. Assim, a soma em (1.46) indi
a quantos 
aminhos existem saindo de j0 e
hegando a j0 em dois passos. A
onte
e que (1.46) é exatamente elemento (i0, j0)
do produto matri
ialAA. Como i0 e j0 foram es
olhidos arbitrariamente, temos
que
A2 = A
2.
A demonstração para todo n pode ser 
on
luída fa
ilmente por indução.
1.7 Exer
í
ios
Seção 1.2
1.1 Para qualquer n ≥ 0 inteiro, mostre que
5n =
n∑
x=0
(
n
x
)
2x3n−x.
1.2 Mostre que
(a)
∑n
x=0
(
n
x
)
= 2n
(b)
∑n
x=0 x
(
n
x
)
axbn−x = na(a+ b)n−1
1.3 Assumindo que r 6= 1, demonstre os seguintes resultados:
(a)
d
dr
∑k
n=0 r
n =
∑k−1
n=0 nr
n−1
(b)
∑k−1
n=0 nr
n−1 = kr
k+1+1−(k+1)rk
(1−r)2
1.4 Sejam n1, n2, n3 inteiros positivos. O 
onjunto {n1 + n2 + n3 = n} repre-
senta todos os valores possíveis de n1, n2 e n3 tais que a soma destes é igual a
n. Assim, en
ontre todos os elementos dos seguintes 
onjuntos:
(a) {n1 + n2 + n3 = 0}
(b) {n1 + n2 + n3 = 1}
(
) {n1 + n2 + n3 = 2}
(d) {n1 + n2 + n3 = 3}
18
1.5 Cal
ule ∑
n1+n2+n3+n4=1
n!
n1!n2!n3!n4!
2n1 .
1.6 Sejam x1, x2, x3 números reais positivos e seja n ≥ 0 inteiro. Utilize o
Teorema 1.3 para mostrar que
(x1 + x2 + x3)
n =
n∑
u=0
(
n
u
)
xu1 (x2 + x3)
n−u.
Em seguida, utilize o Teorema Binomial novamente para mostrar que
(x1 + x2 + x3)
n =
n∑
u=0
n−u∑
t=0
(
n
u
)(
n− u
t
)
xu1x
t
2x
n−u−t
3 .
Por último, mostre que a expressão a
ima é equivalente a
(x1 + x2 + x3)
n =
∑
n1+n2+n3=n
n!
n1!n2!n3!
xn11 x
n2
2 x
n3
3 .
1.7 En
ontre o valor de c tal que as seguintes funções sejam funções de pro-
babilidade:
(a) P (X = x) = cx, x ∈ {0, 1, 2, . . . , N}.
(b) P (X = x) = ce−x, x ∈ {0, 1, 2, . . .}..
1.8 Seja X ∼ Geometri
a2(q), onde
P (X = x) = q(1− q)x−1, x = 1, 2, 3, . . . (1.47)
Utilizando o resultado da soma de uma PG in�nita, mostre que
1. F (x) = (1− q)x.
2. E(X) = 1/q.
1.9 Uma função f pode ser es
rita via séries de Taylor, da seguinte forma:
f(x) =
∞∑
n=0
f (n)(y)
n!
(x− y)n,
onde y é um ponto no mesmo domínio de x e f (n) é a n-ésima derivada de f
(sendo que f (0) = f). Utilizando este resultado, prove que
eλ =
∞∑
n=0
λn
n!
.
19
1.10 Mostre que, se a for inteiro maior que zero, então Γ(a) = (a− 1)!
Seção 1.3
1.11 O número de 
lientes por hora em uma loja tem distribuição Poisson 
om
taxa 9 
lientes/hora. A loja tem 
apa
idade para 13 
lientes. En
ontre
(a) A probabilidade de que em uma hora existam mais de 10 
lientes na loja.
(b) O número médio de 
lientes por hora na loja.
(
) O desvio padrão do número de 
lientes por hora na loja.
(d) Quando a loja está 
heia, um novo 
liente não entra. Qual é a probabilidade
de que novos 
lientes não entrem na loja?
(e) O dono gostaria de diminuir a probabilidade a
ima para 5%. Para tanto,
qual deveria ser a 
apa
idade da loja?
1.12 Seja N ∼ Poisson(λ), 
om 0 < λ < 1. Mostre que E(N !) = e−λ/(1− λ).
1.13 Suponha que Y ∼ Poisson(θ). Cal
ule E(aY ), onde a é uma 
onstante.
1.14 Sejam N1, . . . , Nd variáveis aleatórias independentes 
om distribuição
Poisson 
om taxas λ1, . . . , λd. Mostre que (N1, . . . , Nd|N) ∼Multinomial(N, p1, . . . , pd),
onde pi = λi/
∑d
j=0 λj e N =
∑d
i=1Ni.
1.15 Seja Xi o número de a
identes aéreos na região i ∈ {1, 2, 3, 4}. Considere
que Xi ∼ Poisson(i) e que Xi é independente de Xj para todo i 6= j. Em 
erto
ano foram registrados 12 a
identes. Qual a probabilidade de que tenha
o
orrido (X1 = 0, X2 = 2, X3 = 5, X4 = 5)?
1.16 Dizemos que X ∼ χ2n se sua densidade é da forma
f(x) =
1
2n/2Γ(n/2)
x
n
2−1e−x/2.
Mostre que E(X) = n.
1.17 Sejam T1, . . . , Tn variáveis aleatórias independentes 
om distribuição ex-
ponen
ial 
om taxa λ. Seja T¯ =
∑n
i=1 Ti/n. Mostre que:
(a) T¯ ∼ Gama(n, nλ);
(b) λ/T¯ ∼ GI(n, n) (esse tipo de variável, 
uja distribuição não depende do
parâmetro, é denominada quantidade pivotal).
20
1.18 En
ontre o valor de c para que as seguintesfunções sejam densidades:
f(x) = cxβ(α+1)−1e−x
β
, α, β, x > 0.
Sugestão: faça a transformação u = xβ .
1.19 Mostre que Mn = min{T1, . . . , Tn} possui distribuição exponen
ial 
om
taxa λ1 + · · ·+ λn.
1.20 Sejam T1, . . . , Tn variáveis aleatórias independentes onde Ti ∼ Exponen
ial(λi).
Mostre que P (Ti < Tj, ∀j 6= i) = λi/λ, onde λ =
∑m
k=1 λk.
1.21 Um 
ampeonato automotivo 
om m 
ir
uitos é disputado por n pilotos.
Seja Tij o tempo que o i-ésimo piloto leva para 
on
luir o j-ésimo 
ir
uito.
Considere que Tij ∼ Exponen
ial, e que todos os tempo são independentes.
(a) Seja Wj o tempo que o ven
edor do j-ésimo 
ir
uito leva para 
ompletar a
prova. En
ontre o valor médio de Wj .
(b) Qual é a probabilidade de que o i-ésimo piloto ganhe todas as provas
(
) Refaça o item anterior supondo que todos os pilotos possuem a mesma
habilidade.
1.22 Dois jogadores disputam uma prova na qual determinada tarefa deve ser
on
luída no menor tempo possível. O tempo em que o jogador i termina a
tarefa possui distribuição exponen
ial 
om taxas αi, i = 1, 2. Considerando
estes tempos independentes:
1. (0.5 pt) Qual é a probabilidade de que o jogador 1 vença a prova?
2. (1 pt) Qual o tempo médio de 
on
lusão da tarefa do ven
edor desta
disputa?
3. (1 pt) O tempo re
orde deste jogo é t∗. Qual a probabilidade de que o
ven
edor da prova bata este re
orde?
1.23 O k-ésimo momento 
entral de uma variável aleatória é de�nido por
E(X −E(X))k. Mostre que o k-ésimo momento 
entral de X ∼ Exponen
ial(λ)
é dado por
k!
λk
k∑
i=0
(−1)k−i
(k − i)!
Sugestão: use o teorema binomial.
1.24 Utilize o resultado do exer
í
io anterior para en
ontrar a variân
ia, assi-
metria e 
urtose de X ∼ Exponen
ial(λ).
21
1.25 A distribuição exponen
ial surge em outros 
ontextos. Mostre que−λ logU ,
om U ∼ Uniforme possui distribuição Exponen
ial(1/λ).
1.26 Sejam S1, . . . , Sn variáveis aleatórias independentes 
om distribuição Gama(αi, β).
Mostre que S = S1 + · · ·+ Sn ∼ Gama(
∑n
i=1 αi, β).
1.27 Seja T ∼ Gama(n + 1, 1) e X ∼ Poisson(λ). Mostre que P (T > λ) =
P (X ≤ n). Sugestão: integre P(T > λ) por partes, semelhante ao que foi feito
para mostrar que Γ(a+ 1) = aΓ(a).
Seção 1.4
1.28 O número de terremotos em uma determinada 
idade possui distribuição
Poisson 
om taxa 3 terremotos por dé
ada.
(a) Qual o número esperado de terremotos por dé
ada?
(b) Cal
ule a probabilidade de que, em uma dé
ada qualquer, não tenham o
or-
rido terremotos.
(
) Sejam µ e σ a média e o desvio-padrão do prejuízo devido a um terremoto.
Cal
ule a média e a variân
ia do prejuízo 
ausado por terremotos durante
uma dé
ada qualquer. (suponha que os prejuízos são independentes e iden-
ti
amente distribuídos).
1.29 Seja (Y |X) ∼ Poisson(exp{α+ βX}) e seja X ∼ Poisson(λ). En
ontre o
valor esperado de Y .
1.30 Seja T ∼ Exponen
ial(λ) o tempo 
orrido até a o
orrên
ia de 
erto
evento. Seja Xi = 1 se o evento o
orreu no intervalo (i, i + 1] e Xi = 0 em
aso 
ontrário, 
om i = 0, 1, 2, . . ..
(a) Qual é a distribuição de Xi?
(b) En
ontre a distribuição de
∑n
j=0Xj.
Seção 1.6
1.31 Considere o seguinte grafo:
A B
C D
Relativo ao grafo a
ima:
22
(a) Es
reva seu 
onjunto de vérti
es e ar
os.
(b) Construa sua matriz de adja
ên
ias e denote-a por A.
(
) En
ontre A2. O que signi�
a 
ada valor desta matriz?
1.32 Considere o seguinte grafo:
A B E
C D
Relativo ao grafo a
ima:
(a) Es
reva seu 
onjunto de vérti
es e ar
os.
(b) Construa sua matriz de adja
ên
ias e denote-a por A.
(
) En
ontre A2 e A3. Compare estes valores e interprete-os.
(d) Use o resultado anterior para provar que An = A2.
1.33 A �gura abaixo representa um lago 
om 9 vitórias régias. Um sapo se
movimenta ex
lusivamente saltando entre uma planta e outra. Estando em uma
vitória régia no tempo n, ele faz um deslo
amento no tempo n + 1 para uma
das plantas vizinhas, nun
a saltando na diagonal.
Construa um grafo que mostra a lo
alização do sapo no tempo n e seu
deslo
amento no tempo n+ 1. Espe
i�
amente:
(a) Construa um 
onjunto de vérti
es e de arestas adequado.
23
(b) Construa a matriz de adja
ên
ias (matriz de um passo à frente).
(
) Faça a representação grá�
a deste grafo.
24
Capítulo 2
Pro
essos Esto
ásti
os
2.1 Introdução
Uma 
oleção de variáveis aleatórias é denominada pro
esso esto
ásti
o.
De�nição 2.1. O 
onjunto {X(t), t ∈ T }, onde X(t) é uma variável aleatória
para 
ada t ∈ T ⊂ R, é um pro
esso esto
ásti
o.
O 
onjunto dos possíveis valores de X(t) é denominado espaço dos estados
e o 
onjunto T é denominado espaço do tempo ou espaço de índi
es.1
Se T for um 
onjunto não enumerável, então será mantida a notação X(t),
om t ∈ T . Em 
aso 
ontrário, será utilizada a notação mais 
onveniente Xt,
om t ∈ T .
2.1 Exemplo (Amostra iid) Considere a amostra aleatória X1, X2, . . . , Xn,
na qual as variáveis são iid 
om Xi ∈ D ⊆ R. Neste 
aso, temos que {Xi :
i = 1, 2, . . . , n} é um pro
esso esto
ásti
o, 
om espaço dos estados igual a D e
espaço de índi
es igual a T = {1, 2, . . . , n}. �
No exemplo a
ima, os índi
es não possuem in�uên
ia. De fato, 
omo as
variáveis são iid, para qualquer permutação {t1, . . . , tn} dos índi
es em T , tem-
se que {X1, X2, . . . , Xn} ∼ {Xt1 , Xt2 , . . . , Xtn}. Os próximos exemplos ilustram
asos nos quais os índi
es desempenham um papel fundamental.
1
Alguns autores denominam T 
omo espaço dos parâmetros.
25
2.2 Exemplo (Reposição de estoque - 
aso simples) Um fun
ionário de
uma loja deve veri�
ar o estoque de 
erto produto no �m de 
ada dia. Seja
Xi o número de itens deste produto no i-ésimo dia. Temos então o pro
esso
esto
ásti
o {Xi : i = 0, 1, 2, . . .}, onde X0 é o estoque no momento ini
ial.
Claramente, enquanto não houver reposição de estoque, o Xi ≥ Xi−1 para todo
i = 1, 2, . . .. Neste 
aso, as variáveis Xi e Xi−1 são dependentes e não possuem
a mesma distribuição. Considere o seguinte 
aso parti
ular:
• O estoque suporta no máximo três itens.
• No instante ini
ial, o estoque está 
heio (X0 = 3).
• Em 
ada dia, o número de itens que é retirado do estoque tem distribuição
Bernoulli(p).
• Quando o estoque 
hega a zero, o fun
ionário pede a reposição, que demora
um dia
Seja Zi ∼ Benoulli(p), onde Zi é independente de Zj para todo i 6= j (esta
variável representa o que foi subtraído do estoque no dia i). Então, se Xi 6= 0,
tem-se que
Xi+1 = Xi − Zi
e quando Xi = 0 (o estoque no dia i está vazio) tem-se que
Xi+1 = 3.
Este pro
esso esto
ásti
o pode ser resumido pelo seguinte grafo, onde 
ada vér-
ti
e representa um dos possíveis valores da variável Xi e 
ada aresta mostra a
probabilidade de P (Xn+1 = j|Xn = i), onde i é o vérti
e de origem e j o de
destino.
0
1 2 3
p 1
pp
1− p 1− p 1− p
�
2.3 Exemplo (Visualizações de Os Simpsons) O grá�
o abaixo mostra o
número de visualizações, em milhões nos EUA, dos episódios de Os Simpsons,
para as dez primeiras temporadas. Pode-se de�nir um pro
esso esto
ásti
o onde
Xi é o número de visualizações do i-ésimo episódio.
26
Visualizações dos episódios dos Simpsons
Episódios
Vi
su
al
iz
aç
õe
s 
po
r e
pi
só
di
o 
(em
 m
ilh
õe
s)
0 50 100 150 200
10
15
20
25
30
�
2.2 Pro
essos Esta
ionários
Um pro
esso esto
ásti
o {X(t), t ∈ T } é dito ser esta
ionário se P (X(t) < x) =
P (X(t + k) < x) para todo k. Isto quer dizer que a distribuição permane
e
inalterada 
om a mudança do índi
e.
2.4 Exemplo (Amostra iid) Se X1, X2 . . . , X é um pro
esso formado por va-
riáveis independentes e identi
amente distribuídas, então,
P (Xt < x) = P (Xt+k < x) =P (X1 < x)
para todo k = 0, 1, 2, . . .. Portanto, uma amostra de vaiid é um pro
esso esta
i-
onário.
2.5 Exemplo (Estoque simples) Considere o pro
esso esto
ásti
o dado no
Exemplo 2.2, onde
Xi =


Xi−1 + Z, se Xi−1 > 0
3, se Xi−1 = 0
27
om Zi ∼ Bernoulli(p) independente de Z − j para todo i 6= j. Note que
P (X1 ≤ 2) = P (Z1 = 1) = p
P (X2 ≤ 2) = P (Z1 = 1, Z2 = 1) + P (Z1 = 0, Z2 = 1) + P (Z1 = 1, Z2 = 0)
= p2 + 2p(1− p)
Como P (X1 ≤ 2) 6= P (X2 ≤ 2), este pro
esso não é esta
ionário. �
2.6 Exemplo (Visualizações de Os Simpsons) Considere novamente o pro-
esso esto
ásti
o Xi, onde i-é é a visualização registrada no dia da exibição do
i-ésimo episódio desta série. Note que 
onhe
emos o pro
esso esto
ásti
o, mas
apenas temos uma amostra observada deste. Contudo, existem evidên
ias de
que este pro
esso não é esta
ionário. Por exemplo, podemos notar que existe
uma tendên
ia de queda, algo que seria esperado se o pro
esso fosse esta
ionário.
2.3 Pro
essos de 
ontagem
Uma das estatísti
as mais utilizadas em nosso 
otidiano é a 
ontagem. Conta-
mos o número de passageiros que entram em um �nibus urbano, registramos o
número de 
lientes que passam por determinado 
aixa em um supermer
ado e o
número de vezes que um time esteve 
om a posse da bola em um jogo de futebol.
Em todas essas situações, quando 
onhe
emos o tempo de o
orrên
ia de 
ada
evento, podemos de�nir o número total de eventos o
orridos em qualquer tempo
�xado. Além disso, se estes eventos são de natureza aleatória, temos que tal
ontagem 
ara
teriza um pro
esso de 
ontagem.
De�nição 2.2. O pro
esso esto
ásti
o {N(t), t ≥ 0} é um pro
esso de 
ontagem
(PC) se N(t) representa o total de eventos o
orridos até o tempo t. Um pro
esso
de 
ontagem deve satisfazer:
1. N(t) ≥ 0;
2. N(t) é inteiro positivo;
3. Se s < t, então N(s) ≤ N(t);
4. Para s < t, N(t)−N(s) é igual ao número de eventos que o
orreram no
intervalo (s, t].
As restrições que 
ara
terizam um pro
esso de 
ontagem são muito intuitivas:
28
1. N(t) registra o número de eventos que o
orreram até o tempo t. Logo,
N(t) não pode ser negativo. Além disso, N(t) será nulo apenas se não
o
orrer nenhum evento até o tempo t.
2. N(t) é inteiro positivo, por motivos óbvios.
3. Considerando s < t, temos que duas situações podem o
orrer: (a) nenhum
evento o
orre entre s e t, logoN(s) = N(t); (b) o
orremmais eventos entre
os tempos s e t, logo N(s) < N(t).
4. N(t) é a
umulativo. Assim, se s < t, teremos que N(t) 
onta os eventos
que o
orreram até o tempo s mais o eventos adi
ionais até o tempo t.
Assim, se quisermos saber o número de o
orrên
ias entre (s, t], basta tomar
N(t)−N(s).
A �gura abaixo ilustra um pro
esso de 
ontagem. Nesta, o tempo de o
or-
rên
ia do evento é representado no eixo Tempo através de um 
ír
ulo. A
ima
do eixo do tempo estão registrados os valores do pro
esso N(t) para os tempo
t = 2, 6, 8, 13. Abaixo do eixo estão registrados o número de o
orrên
ias entre
estes tempos.
2 6 8 13
Tempo
N(2) = 3
N(6) = 8
N(6) − N(2) = 5
N(8) = 8
N(8) − N(6) = 0
N(13) = 15
N(13) − N(8) = 7
29
Seja X(s, r) o número de o
orrên
ias do evento de interesse no intervalo
(s, r]. A partir de um PC {N(t), t ≥ 0}, é imediato que X(s, r) = N(r)−N(s).
A variável aleatória X(s, r) é denominada in
remento. Vamos de�nir dois tipos
importantes de in
rementos: independentes e esta
ionários.
De�nição 2.3 (In
rementos Independentes). Dizemos que um PC possui
in
rementos independentes se, para quaisquer dois intervalos disjuntos (s1, r1]
e (s2, r2] teremos que X(s1, r1) e X(s2, r2) são independentes.
Em outras palavras, os in
rementos do PC em intervalos disjuntos são inde-
pendentes. Por exemplo, se o número de 
lientes que entram em um supermer-
ado possuir in
rementos independentes, então número de 
lientes que 
hegam
entre as 8h e 9h é independente do número de 
lientes que 
hegam entre as 11h
e 12h.
De�nição 2.4 (In
rementos Esta
ionários). Dizemos que um PC possui in-
rementos esta
ionários se, para um intervalo (s, s+h] a distribuição de X(s, s+
h) depende apenas de h (mas não de s).
Assim, um PC possui in
rementos esta
ionários se X(s, s+ h) e X(r, r+ h)
possuem a mesma distribuição para quaisquer s, r, h > 0. Neste 
aso, sem perda
de generalidade, podemos fazer X(s, s+ h) = X(0, h) = N(h).
2.4 Exer
í
ios
2.1 Em 
ada 
onsulta, um pa
iente é 
lassi�
ado por seu médi
o 
omo sadio ou
doente. Seja X(t) a 
lassi�
ação do pa
iente no tempo t e 
onsidere o pro
esso
esto
ásti
o {X(t), t ∈ T }.
(a) Qual é o espaço dos estados deste pro
esso?
(b) Des
reva um 
onjunto dos índi
es adequado para este pro
esso nos 
asos de:
(i) o pa
iente vai ao médi
o uma vez por ano; (ii) o pa
iente vai ao médi
o
em um tempo aleatório 
om distribuição exponen
ial.
2.2 (Questão alterada em: 26/10/2016 ) Seja {Xi, i = 0, 1, . . . , } um pro-
esso esto
ásti
o onde
X0 = 0
Xi+1 = Xi + Zi+1
onde Zi ∼ Bernoulli(1/2) e Zi é independente de Zj para qualquer i 6= j.
30
(a) Determine o espaço dos estados e o 
onjunto de índi
es deste pro
esso.
(b) Mostre que {Xi, i = 0, 1 . . . , } é um pro
esso de 
ontagem.
(
) Prove que Xi+1 não é independente de Xi (basta argumentar).
(d) Qual é a distribuição de Xi?
2.3 (Questão alterada em: 26/10/2016 ) Seja {Xi, i = 1, 2, . . . , } um pro-
esso esto
ásti
o onde
X0 = c
Xi+1 = Xi + εi+1,
onde c é uma 
onstante arbitrária, εi ∼ Normal(0, 1) de εi é independente de εj
para todo i 6= j.
(a) Determine o espaço dos estados e o 
onjunto de índi
es deste pro
esso.
(b) Mostre que {Xi, i = 0, 1, . . .} não é um pro
esso de 
ontagem.
(
) Mostre que
Xk = c+
k∑
i=1
εi.
31
32
Capítulo 3
Pro
esso de Poisson
3.1 Introdução
O número de a
identes aéreos por ano em 
erto país, de sui
ídios por ano em
erta universidade e de novos 
asos de hanseníase em determinada 
idade pos-
suem uma 
ara
terísti
a 
omum: todos são pro
essos de 
ontagem. Neste 
apí-
tulo é apresentado um pro
esso de 
ontagem, denominado Pro
esso de Poisson,
de�nido formalmente a seguir.
De�nição 3.1 (Pro
esso de Poisson). Um pro
esso de 
ontagem {N(t), t ≥
0} é um pro
esso de Poisson (PP) se:
1. N(0) = 0
2. O pro
esso possui in
rementos independentes
3. Para qualquer intervalo de 
omprimento t, teremos
P (N(t) = n) =
e−λt(λt)n
n!
(3.1)
O parâmetro λ é denominado taxa do pro
esso.
Portanto, o PP é um pro
esso de 
ontagem 
om in
rementos independentes
e esta
ionários, 
uja distribuição é Poisson. Da de�nição a
ima, tem-se que
33
1. E(N(t)) = λt
2. V ar(N(t)) = λt
3. Para s < t,
Cov(N(s), N(t)) = Cov(N(s), N(t − s) +N(s))
= Cov(N(s), N(s)) + Cov(N(s), N(t − s))
= V ar(N(s)) = λs
3.1 Exemplo (Terremotos no Estreito de Messina) A tabela abaixo apre-
senta a sequên
ia históri
a de terremotos em uma região ao redor do Estreito
de Messina, que divide a ilha da Si
ília, na Itália 
ontinental. A tabela está
limitada aos terremotos de magnitude 4,5 ou superior, durante o período de
1700-1980. Os dados estão em frações de ano (ou seja, a parte fra
ionária vezes
365 dá o dia da o
orrên
ia dentro do ano).
1702.13 1707.17 1712.54 1716.14 1717.30 1720.69 1720.70 1729.49
1736.62 1739.36 1743.18 1743.93 1767.53 1770.00 1783.09 1783.10
1786.18 1789.10 1791.78 1792.36 1805.52 1806.27 1821.58 1823.17
1824.94 1828.19 1831.08 1832.18 1835.78 1836.31 1836.34 1852.06
1852.07 1854.11 1869.91 1870.76 1873.69 1876.70 1877.38 1877.39
1883.30 1886.10 1886.18 1886.26 1887.92 1889.41 1894.14 1894.88
1902.30 1905.69 1907.81 1908.94 1908.99 1913.49 1917.45 1932.39
1940.32 1947.571950.27 1967.68 1973.28 1975.04 1975.61 1976.26
1977.97 1978.19 1978.29 1980.94
Estes dados estão disponíveis em:
"https://www.dropbox.
om/s/zqxkrm2jr5yz5ru/terremotos_messina.txt?dl=0".
Neste exemplo, estes dados foram 
arregados no R 
om o nome de terr.
Note que os terremotos 
omeçaram a ser 
ontados a partir de 1700, sendo este
nosso instante ini
ial. Fazendo
34
dados <- terr[,1℄ - 1700
temos o tempo de 
ada o
orrên
ia a partir do tempo ini
ial da 
ontagem. Neste
exemplo, dados representa os tempos de 
ada o
orrên
ia observados. Houveram
68 terremotos (length(dados)), sendo que o último o
orreu 280,94 anos após
o iní
io da 
ontagem (dados[68℄). Com os 
omandos
dot
hart(dados)
axis(2, at = 1:68)
title( xlab = "Tempo (em anos)", ylab = "Contagem")
podemos 
riar o seguinte grá�
o do pro
esso de 
ontagem:
0 50 100 150 200 250
1
4
7
11
15
19
23
27
31
35
39
43
47
51
55
59
63
67
Tempo (em anos)
Co
nt
ag
em
Seja n(t) o número de terremotos observados até o tempo t. O grá�
o a
ima
mostra os pares (t, n(t)). Note o 
omportamento aproximadamente linear. Lem-
bremos que em um PP, E(N(t)) = λt. Portanto, em média, existe uma relação
linear entre N(t) e t. Voltaremos neste exemplo posteriormente para veri�
ar
se ele pode ser modelado por um PP. �
3.2 Tempos de Chegada e de Espera
Última 
orreção: 26/10/2016
35
3.2.1 De�nições e propriedades
Considere que n o
orrên
ias foram registradas. Seja Tn o tempo trans
orrido
entre a 
hegada da (n − 1)-ésima e da n-ésima o
orrên
ia. Tal tempo é deno-
minado tempo de 
hegada (da o
orrên
ia n) e seu 
omportamento pode revelar
ara
terísti
as importantes sobre o pro
esso. Em espe
ial, se {N(t), t > 0} é
um PP, temos a seguinte proposição.
Proposição 3.2. Consideremos um pro
esso de Poisson e sejam T1, T2, T3, . . .
os tempos de 
hegada dos eventos 1, 2, 3. . .. Então:
1. Os tempos de 
hegada são identi
amente distribuídos, 
om Ti ∼ Exponen
ial(λ),
i.é,
fTi(t) = λe
−λt, λ > 0, t > 0.
onde λ é a taxa do pro
esso de Poisson.
2. Os tempos de 
hegada são independentes.
Demonstração. Temos:
1. Come
emos 
om o primeiro tempo de 
hegada. Notemos que T1 > t
impli
a que a primeira 
hegada só o
orreu após o tempo t. Isto quer dizer
que não o
orreram 
hegadas antes de t. Disto,
P (T1 > t) = P (N(t) = 0) = e
−λt.
Como
FT1(t) = 1− P (T1 > t) = 1− e−λt,
temos que
fT1(t) =
d
dt
FT1(t) = λe
−λt.
Portanto, T1 ∼ Exponen
ial(λ).
Agora, suponha que Tn−1 ∼ Exponen
ial(λ) (o que é verdade para n = 1).
Observe a �gura abaixo.
bb
0
s t+ s
b
Linha do Tempo
N(t+s)−N(t)=0︷ ︸︸ ︷N(s)=n−1︷ ︸︸ ︷
36
Considere o tempo de 
hegada da n-ésima observação é maior que t uni-
dades de tempo. Se sabemos que o tempo da (n − 1)-ésima o
orrên
ia
foi s, sabemos também que a n-ésima o
orrên
ia o
orreu depois do tempo
t + s. Logo, não houveram o
orrên
ias no intervalo (s, t + s], fazendo
om que N(t + s)−N(s) = 0. Mas, 
omo o pro
esso possui in
rementos
esta
ionários, temos que N(t+ s)−N(s) ∼ N(t)−N(0) ≡ N(t). Assim,
P (Tn > t) =
∫ ∞
0
P (Tn > t|Tn−1 = s)λe−λsds
=
∫ ∞
0
P (N(t+ s)−N(s) = 0)λe−λsds, ( in
rementos esta
ionários)
=
∫ ∞
0
P (N(t)−N(0) = 0)λe−λsds = e−λt
logo, por indução teremos que Tn ∼ Exponen
ial(λ) para todo n ≤ 1.
2. Como os in
rementos são independentes, os tempos entre as o
orrên
ias
também devem ser independentes.
Podemos também de�nir o tempo trans
orrido até a n-ésima 
hegada.
De�nição 3.3 (Tempo de Espera). Para um pro
esso de Poisson, seja
Sn =
n∑
i=1
Ti.
Denominamos Sn 
omo o tempo de espera até o n-ésimo evento.
Para motivar a de�nição, se Sn > t, então o n-ésimo evento não o
orreu até
o tempo t. A diferença entre Tn e Sn deve �
ar 
lara: Tn é o tempo trans
orrido
entre as observações n e n− 1, enquanto que Sn é o tempo trans
orrido, desde
o 
omeço do pro
esso, até a o
orrên
ia do n-ésimo evento.
Como Ti ∼ Exponen
ial(λ), e Ti e Tj são independentes para todo i 6= j,
teremos que Sn ∼ Gama(n, λ).
3.2 Exemplo (Imigrantes). Suponha que pessoas imigram para determinada
área segundo um pro
esso de Poisson 
om taxa uma por dia.
1. Qual o tempo esperado até a 
hegada do 10
o
imigrante?
2. Qual a probabilidade de que o tempo gasto entre a 
hegada do 10
o
e do
11
o
imigrante ex
eda dois dias? �
Solução:
37
1. O tempo esperado até a dé
ima 
hegada é a esperança do 10
o
tempo de
espera, ou seja
E(S10) =
10
λ
= 10
2. O tempo entre 
hegadas possui distribuição exponen
ial 
om média 1.
Assim
P (T11 > 2) = e
−2×1
3.3 Exemplo (Terremotos no Estreito de Messina - 
ontinuação) A va-
riável dados mostra os tempos de espera de 
ada terremoto. O primeiro tempo
de 
hegada é dados[1℄ e os demais devem ser 
al
ulados através da diferença
dados[i+1℄-dados[i℄, para i = 1, . . . , 67. Estas diferenças su
essivas pode ser
realizada utilizando o 
omando diff. Deste modo, os tempos de 
hegada são:
hegada <- 
( dados[1℄, diff( dados) )
Vamos estimar a distribuição dos tempos de 
hegada de duas formas:
• utilizando a função de distribuição empíri
a (
onhe
ida também 
omo
função de distribuição de frequên
ias a
umuladas ):
F_empiri
a <- e
df( 
hegada)
• assumindo que os tempos de 
hegada possuem distribuição exponen
ial.
Neste 
aso, o estimador não enviesado para λ será
λˆ =
n− 1∑n
i=1 ti
,
onde os ti são os tempos de 
hegada observados e n = 68 é o número de
terremotos registrado. No R, λˆ será 
al
ulado por
lambda_
hapeu <- 67 / sum( 
hegada )
Neste exemplo, λˆ = 0, 2384.
Se os tempos de 
hegada tiverem distribuição exponen
ial, então o grá�
o da
função de distribuição empíri
a deveria estar próximo do grá�
o da função de
distribuição exponen
ial 
om taxa 0,2384. Com os 
omandos
plot( F_empiri
a, xlab = "Tempo de 
hegada" ,
ol = "brown",
main = "")
urve( pexp(x, .2384 ), add = TRUE, lwd = 3, 
ol = "seagreen")
legend("bottomright", 
("Empíri
a","Exponen
ial"),
ol = 
("brown","seagreen"), lwd = 3, bty = "n")
38
geramos o seguinte grá�
o, mostrando que o modelo exponen
ial pare
er ser
adequado aos tempos de 
hegada observados, dando evidên
ias de que o número
de terremotos ao longo do tempo podem ser expli
ados segundo um pro
esso de
Poisson 
om taxa 0,2384 terremotos ao ano.
0 5 10 15 20 25
0.
0
0.
2
0.
4
0.
6
0.
8
1.
0
Tempo de chegada
Fn
(x)
Empírica
Exponencial
Disto, podemos 
al
ular algumas estatísti
as
1
:
• Probabilidade de um ano sem terremoto: P (T > 1) = e−0,2384×1 =
0, 7878. (pexp(1,.2384,lower.tail = FALSE))
• Probabilidade de o
orrerem mais de um terremoto em um ano: P (N(1) >
1) = 0, 0242 (ppois(1,.2384,lower.tail = FALSE))
• Probabilidade de o
orreremmais de um terremoto em dois anos: P (N(2) >
1) = 0, 083 (ppois(1,.2384 * 2,lower.tail = FALSE)) �
1
Estas probabilidades são estatísti
as, uma vez que são funções da amostra, pois dependem
de λˆ.
39
3.2.2 Distribuição 
ondi
ional dos tempos de 
hegada
Ini
ialmente, 
onsidere que o primeiro evento o
orreu no intervalo (0, t). Gos-
taríamos de saber qual a probabilidade deste evento ter o
orrido no tempo s,
om s < t. Notemos que o evento {S1 < s,N(t) = 1} é equivalente ao evento
no qual o
orre uma 
hegada no intervalo (0, s) e nenhuma 
hegada no intervalo
[s, t), 
onforme ilustra a �gura abaixo, na qual × indi
a o primeiro tempo de
espera:
× bb
0
s t
b
Linha do Tempo
N(t)−N(s)=0︷ ︸︸ ︷N(s)=1︷ ︸︸ ︷
Disto, teremos
P (S1 < s|N(t) = 1) = P (S1 < s,N(t) = 1)
P (N(t) = 1)
=
P (N(s) = 1, N(t)−N(s) = 0)
P (N(t) = 1)
=
P (N(s) = 1)P (N(t)−N(s)= 0)
P (N(t) = 1)
=
e−λs(λs)1
1!
× e
−λ(t−s)(λ(t− s))0
0!
/
e−λt(λt)1
1!
eλs(λs)e−λ(t−s)
e−λtλt
=
s
t
.
Assim,
fS1|N(t)=1(s) =
d
ds
P (S1 < s|N(t) = 1) = d
ds
(s
t
)
=
1
t
,
e (S1|N(t) = 1) ∼ Uniforme(0, t). Intuitivamente, se sabemos que houve ape-
nas uma o
orrên
ia no intervalo (0, t), devido aos in
rementos esta
ionários e
independentes esta 
hegada seria um ponto es
olhido ao a
aso dentro deste in-
tervalo.
Agora dis
utiremos a distribuição dos tempos de espera S = {S1, . . . , Sn}
ondi
ionadas ao evento N(t) = n. Seja hi, i = 1, . . . , n um valor positivo
pequeno o su�
iente para garantir que si−1 < si − hi < Si < si. Neste 
aso,
para garantir que N(t) = n, 
ada intervalo (si − hi, si) terá exatamente uma
o
orrên
ia e os intervalos (0, s1 − h1), (sn, t) e (si−1, si − hi) para i =, 2 . . . , n
não terão o
orrên
ias. Portanto, dado N(t):
40
• Probabilidade de exatamente uma o
orrên
ia em 
ada intervalo, i = 1, . . . , n:
p1 = P (N(si)−N(si − hi) = 1, i = 1, . . . , n)
= P (N(hi) = 1, i = 1, . . . , n)
=
n∏
i=1
e−λhi(λhi)
=
n∏
i=1
e−λhi(λhi)
= λne−λ
∑n
i=1 hi
n∏
i=1
hi
• Probabilidade de nenhuma o
orrên
ia nos demais intervalos:
p2 = P (N(s1 − h1) = 0, N(t)−N(sn) = 0, {N(si − hi)−N(si−1) = 0, i = 2, . . . , n})
= e−λ(s1−h) × e−λ(t−sn) ×
n∏
i=2
e−λ(si−si−1−hi)
= e−λ(s1−h1) × e−λ(t−sn) × e−λ(sn−s1−
∑n
i=2 hi)
= e−λteλ
∑n
i=1 hi
Logo,
P (si − hi < Si < si, i = 1, . . . , n|N(t) = n) = p1p2
P (N(t) = n)
= λne−λt
n∏
i=1
hi
/
e−λt(λt)n
n!
=
tn
n!
n∏
i=1
hi.
Como a densidade de f(s1, . . . , sn|N(t) = n) pode ser obtida derivando a função
de distribuição, e 
omo
∂n
∂s
F (s1, . . . , sn|N(t) = n) = lim
h→0
P (si − hi < Si < si, i = 1, . . . , n|N(t) = n)∏n
i=1 hi
= lim
h→0
tn
n!
n∏
i=1
hi
/
n∏
i=1
hi =
tn
n!
teremos que
f(s1, . . . , sn|N(t) = n) = t
n
n!
, 0 < s1 < · · · < sn < t,
41
ou seja, S|N(t) = n tem a mesma distribuição que as estatísti
as de ordem de
uma amostra de variáveis aleatórias independentes 
om distribuição Uniforme(0, t)
de tamanho n
f(s1, . . . , sn|N(t) = n) = t
n
n!
, 0 < s1 < · · · < sn < t.
3.4 Exemplo (Número de indivíduos no sistema) Indivíduos entram em
um sistema segundo um PP 
om taxa λ. Seja Yi tempo que o indivíduo i per-
mane
e no sistema. Considere que os tempos Y1, Y2 . . . , são variáveis aleatórias
independentes e identi
amente distribuídas e que são independentes dos tempos
de 
hegada.
Seja N(t) o número de indivíduos que entraram no sistema até o tempo t.
Considerando que Si é o tempo de espera do i-ésimo indivíduo. Este indivíduo
abandona o sistema no tempo Si + Yi.
Seja X(t) o número de indivíduos que estão no sistema no tempo t. Podemos
riar a variável
Zi =


1, Si + Yi ≥ t
0, Si + Yi < t
Note que Zi(t) = 1 é equivalente a dizer que o i-ésimo indivíduo ainda está
no sistema no tempo t. No diagrama abaixo tempo 5 
hegadas. As linhas
horizontais mais grossas mostram o tempo que 
ada indivíduo permane
eu no
sistema (Si + Yi). Neste diagrama, apenas apenas 3 indivíduos estavam no
sistema no tempo t.
42
×
s1
×
s2
×
s3
×
s4
×
s5
b
0
t
b
Linha do Tempo
b
b
b
�
Note que
X(t) =
N(t)∑
i=1
Zi.
Portanto,
P (X(t) = x) =
∞∑
n=0
P (X(t) = x|N(t) = n)P (N(t) = n)
=
∞∑
n=0
P

N(t)∑
i=1
Zi = x|N(t) = n

P (N(t) = n)
=
∞∑
n=0
P
(
n∑
i=1
Zi = x|N(t) = n
)
P (N(t) = n).
Devemos então des
obrir a distribuição de Zi|N(t). Seja U1, . . . , Un uma amos-
tra de variáveis independentes 
om distribuição Uniforme(0, t) e sejam U(1), . . . , U(n)
as respe
tivas estatísti
as de ordem. Então,
43
P

N(t)∑
i=1
Zi = z|N(t) = n

 = P

N(t)∑
i=1
I(Si + Yi ≥ t) = z|N(t) = n


= P
(
n∑
i=1
I(Si + Yi ≥ t) = z|N(t) = n
)
= P
(
n∑
i=1
I(U(i) + Yi ≥ t) = z
)
,
mas, 
omo
∑n
i=1 U(i) =
∑n
i=1 Ui, teremos
P

N(t)∑
i=1
Zi = z|N(t) = n

 = P
(
n∑
i=1
I(Ui + Yi ≥ t) = z
)
.
Ora, é imediato que
I(Ui + Yi ≥ t) ∼ Bernoulli(p(t)),
onde
p(t) = P (I(Ui + Yi ≥ t) = 1) = P (Ui + Yi ≥ t)
=
∫ t
0
P (Ui + Yi ≥ t|Ui = y)fU (u)du
=
∫ t
0
P (u+ Yi ≥ t|Ui = u)fU (u)du,
e, 
omo Ui é independente de Yi,
p(t) =
∫ t
0
P (u+ Yi ≥ t) fU (u)du
=
∫ t
0
P (Yi ≥ t− u) fU (u)du
=
∫ t
0
P (Yi ≥ t− u) 1
t
du
=
∫ t
0
P (Yi ≥ y) 1
t
dy
=
∫ t
0
[1− FY (y)]1
t
dy
44
Como as variáveis Ui e Yi são independentes e identi
amente distribuídas, temos
que
N(t)∑
i=1
Zi|N(t) ∼ Binomial (N(t), p(t)) .
Podemos �nalmente 
on
luir a distribuição de X(t):
P (X(t) = x) =
∞∑
n=0
P
(
n∑
i=1
Zi = x|N(t) = n
)
P (N(t) = n)
=
∞∑
n=x
P
(
n∑
i=1
Zi = x|N(t) = n
)
P (N(t) = n)
=
∞∑
n=x
(
n
x
)
p(t)x [1− p(t)]n−x e
−λt(λt)n
n!
=
∞∑
n=x
n!
x!(n− x)!p(t)
x [1− p(t)]n−x e
−λt(λt)n
n!
=
e−λtp(t)x
(1− p(t))xx!
∞∑
n=x
(λt[1 − p(t)])n
(n− x)!
=
e−λtp(t)x
(1− p(t))xx!
∞∑
w=0
(λt[1 − p(t)])w+x
w!
=
e−λtp(t)x
(1− p(t))xx! [λt(1− p(t))]
x
∞∑
w=0
(λt(1− p(t)))w
w!
=
e−λtp(t)x
x!
(λt)x
∞∑
w=0
(λt(1 − p(t)))w
w!
=
e−λtp(t)x
x!
(λt)xeλt(1−p(t))
=
e−λtp(t)[λtp(t)]x
x!
3.5 Exemplo Pessoas 
hegam a um grande supermer
ado segundo um PP 
om
taxa 40 por hora. O tempo que elas permane
em no supermer
ado possui distri-
buição Exponen
ial 
om média 0,75 horas. Considerando que o supermer
ado
abre as 8h, qual é o número esperado de 
lientes às 12h?
Solução: Seja N(t) o número de 
lientes que entraram no supermer
ado até
o tempo t. Então,
N(t) ∼ Poisson(λt).
Seja Yi o tempo que o i-ésimo 
liente leva para deixar o supermer
ado. Como
E(Yi) =
1
α
= 0, 75,
45
teremos que Yi ∼ Exponen
ial(1/0, 75) ≡ Exponen
ial(4/3). Como
FY (y) = 1− e−αy = 1− e− 43 t,
teremos que
p(t) =
1
t
∫ t
0
[1− FY (y)]dy = 1
t
∫ t
0
e−
4
3ydy
=
3
4t
[1− e− 43 t].
Deste modo, o número de 
liente no supermer
ado para qualquer tempo é
X(t) ∼ Poisson (λtp(t)) ≡ Poisson
(
30[1− e− 43 t]
)
.
Considerando que o tempo t = 0 é equivalente as 8h, teremos que 12h é equiva-
lente a t = 4. Assim,
E(X(4)) = 30[1− e− 43 4] = 29, 85516.
Portanto, são esperados aproximadamente 30 
lientes as 12h dentro do super-
mer
ado. �
3.3 Soma de Pro
essos de Poisson
Desejamos estudar o 
omportamento da o
orrên
ia de óbitos por tuber
ulose
no Amazonas. Come
emos 
onsiderando apenas os dois pro
essos de 
ontagem
a seguir:
• N1(t) : número de óbitos por tuber
ulose respiratória 
om 
on�rmação até
tempo t;
• N2(t) : número de outros tipos de óbitos por tuber
ulose até tempo t;
Após observar os dados, poderíamos veri�
ar se 
ada um destes pro
essos
pode ser modelado 
omo um PP. Entretanto, existe outro pro
esso de 
ontagem
envolvido: o total de óbitos por tuber
ulose até o tempo t. Denotando este
pro
esso por N(t), podemos 
ara
terizá-lo a partir das seguintes proposições.
Proposição 3.4. Considere que os existem dois tipos de eventos, 1 e 2, que
o
orrem independentemente e sejam p e 1− p suas respe
tivas probabilidades de
o
orrên
ia. Sejam N1(t) e N2(t) seus respe
tivos pro
essos de 
ontagem. Então,
se N(t) = N1(t) +N2(t) for um PP 
om taxa λ, teremos:
46
1. N1(t) e N2(t) também serão um PP 
om taxas λp e λ(1 − p) respe
tiva-
mente, onde p é a probabilidade de uma o
orrên
ia ser do tipo 1.
2. N1(t) e N2(t) são independentes.
Demonstração. Para quaisquer variáveis aleatórias dis
retas X e Y , temosque
P (X = x) =
∞∑
y=−∞
P (X = x|Y = y)P (Y = y),
e o resultado 
ontinua verdadeiro se X for um vetor de variáveis aleatórias dis-
retas. Fazendo, na expressão a
ima, X = (N1(t), N2(t)) e Y = N(t), teremos
P (N1(t) = n,N2(t) = m) =
∞∑
k=0
P (N1(t) = n,N2(t) = m|N(t) = k)P (N(t) = k),
onde a soma 
omeça em zero porque a probabilidade deN(t) < 0 é nula. Embora
a soma seja feita para todo k, as probabilidades só serão diferentes de zero se
N(t) = n+m, uma vez que N1(t) = n e N2(t) = m. Portanto,
P (N1(t) = n,N2(t) = m) = P (N1(t) = n,N2(t) = m|N(t) = n+m)
× P (N(t) = n+m)
= P (N1(t) = n,N(t)−N1(t) = m|N(t) = n+m)
× P (N(t) = n+m)
Dado que N(t) = n + m, os eventos {N1(t) = n,N(t) − N1(t) = m} e
{N1(t) = n} são equivalentes. Deste modo
P (N1(t) = n,N2(t) = m|N(t) = n+m) = P (N1(t) = n|N(t) = n+m).
A segunda probabilidade a
ima está rela
ionada 
om o número de o
orrên-
ias do evento do tipo 1 até o tempo t, 
onsiderando que o número total de
o
orrên
ias (sem des
riminar os eventos) é 
onhe
ido. Considerando que a pro-
babilidade de o
orrên
ia dos eventos do tipo 1 é p e que as o
orrên
ias são
independentes, teremos que
N1(t)|N(t) ∼ Binomial (N(t), p) .
Assim,
P (N1(t) = n,N2(t) = m) = P (N1(t) = n|N(t) = n+m)P (N(t) = n+m)
=
(
n+m
n
)
pn(1− p)m e
−λt(λt)n+m
(n+m)!
=
e−λpt(λpt)n
n!
× e
−λ(1−p)t(λ(1 − p)t)m
m!
(3.2)
47
Como a distribuição fatorou em duas distribuições Poisson, temos que N1(t) ∼
Poisson(λpt), N2(t) ∼ Poisson(λ(1 − p)t) e os pro
essos são independentes.
Portanto, podemos veri�
ar se o total dos eventos possui distribuição Pois-
son. Se isto for verdadeiro, será imediado que 
ada um dos dois pro
essos de
ontagem também serão PP.
3.6 Exemplo (Morte por Tuber
ulose)
A proposição a
ima pode ser generalizada:
Proposição 3.5. Consideremos k eventos distintos e sejam N1(t), . . . , Nk(t)
seus respe
tivos pro
essos de 
ontagem. Então, se N(t) = N1(t) + · · · + Nk(t)
for um PP, teremos que Ni(t), i = 1, . . . , k também será um PP 
om taxa λpi,
om pi > 0 e
∑k
i=1 pi = 1. Temos que pi será a probabilidade de que o evento do
tipo i a
onteça. Além disso, teremos que os pro
essos Ni(t) serão independentes.
3.7 Exemplo (Casos de Hanseníase em Manaus) A Tabela 3.1 mostra o
número de 
asos de hanseníase registrados em 2007 e 2008 na 
idade de Manaus
por região. Podemos de�nir NN(t), NS(t), NL(t) e NO(t) 
omo sendo o número
de 
asos de hanseníase observados até o instante t nas regiões norte, sul, leste
e oeste, respe
tivamente. Seja N(t) o total de 
asos de hanseníase registrados
em Manaus entre 2007 e 2008. Realizamos um teste de Kolmogorov-Smirnov
para testar se os in
rementos do pro
esso N(t), dados na 
oluna Total, pos-
suem distribuição Poisson. O p-valor deste teste foi igual a 0,507, o que nos trás
evidên
ias de que N(t) ∼ Poisson(7, 375). Assumindo que esta hipótese é verda-
deira, teremos pela Proposição 3.5 que os pro
essos NN (t), NS(t), NL(t) e NO(t)
também são pro
essos de Poisson, 
om as seguintes taxas estimadas: 2(norte),
0,625(sul), 2,083(leste) e 2,667(oeste). Assim, a probabilidade de que um 
aso
de hanseníase tomado ao a
aso o
orra em determinada região é: 0,271(norte),
0,084(sul), 0,282(leste) e 0,361(oeste).
3.4 Inferên
ia para o Pro
esso de Poisson
Habitualmente, os dados de um PP são apresentados de duas formas: através
do registro dos in
rementos, 
ontados em intervalos disjuntos e geralmente de
omprimentos iguais, ou através do registro dos tempos de 
hegada e/ou espera.
48
Mês Norte Sul Leste Oeste Total
jan/07 0 1 1 3 5
fev/07 1 1 2 2 6
mar/07 6 1 3 2 12
abr/07 0 2 0 5 7
mai/07 3 1 1 4 9
jun/07 0 0 1 1 2
jul/07 2 1 2 2 7
ago/07 1 1 4 0 6
set/07 3 1 4 3 11
out/07 6 1 2 2 11
nov/07 8 0 4 2 14
dez/07 5 0 1 1 7
jan/08 1 0 2 2 5
fev/08 1 1 2 0 4
mar/08 4 0 3 1 8
abr/08 1 0 5 3 9
mai/08 3 0 4 5 12
jun/08 0 1 1 5 7
jul/08 0 1 3 4 8
ago/08 0 1 1 2 4
set/08 0 0 0 2 2
out/08 0 1 2 4 7
nov/08 3 0 0 3 6
dez/08 0 0 2 6 8
Total 48 15 50 64 177
Tabela 3.1: N
o
de 
asos mensais de hanseníase por região de Manaus em 2007
e 2008
49
3.4.1 Inferên
ia para in
rementos
Em um estudo realizado em XXX, os autores levantaram eviden
ias de que as
morte por paradas 
ardía
as seguem um pro
esso de Poisson. Para veri�
ar se
esse 
omportamento também é válido para o estado do Amazonas, 
oletamos as
informações sobre os óbitos no estado. A seguinte tabela mostra o número de
óbitos por parada 
ardía
a em 
ada mês dos anos de 2009 e 2010.
Ano Jan Fev Mar Abr Mai Jun Jul Ago Set Out Nov Dez
2009 147 127 132 153 131 167 159 141 143 134 129 142
2010 158 153 141 152 141 131 186 153 141 154 141 214
Na tabela a
ima, o número de observações em 
ada mês é um in
remento do
pro
esso de 
ontagem {N(t), t > 0}, onde N(t) é o número de óbitos por parada
ardía
a registrados até o tempo t.
Estimação para λ
Seja X(s, t) o número de o
orrên
ias no intervalo (s, t]. É 
omum que os da-
dos estejam representados em um tabela, identi�
ando o intervalo e o número
de o
orrên
ias de 
ada intervalo. Também é usual que estes intervalos sejam
disjuntos e 
ontíguos. Com essas 
onsiderações, sejam (si, ti] uma sequên
ia de
intervalos disjuntos de 
omprimento hi = h, 
om i = 1, . . . , n. Consideremos
então que, nos tempos t1, . . . , tk, foram registrados os valores N(t1), . . . , N(tk).
Assim, temos a amostra de in
rementos Yi = X(ti, ti−1),, i = 1, . . . , n, onde
t0 = 0. Agora, seja yi o valor observado do i-ésimo in
remento. Como os
in
rementos são independentes, teremos que
P (N(t) = k) = P (Y1 = y1, . . . , Yn = yn) =
n∏
i=1
e−λh(λh)yi
yi!
.
A verossimilhança deste pro
esso é
L(λ) ∝ e−nhλλ
∑n
i=1 yi .
En
ontraremos o EMV para λ. O logaritmo da função de verossimilhança será
l(λ) = −nhλ+ log(λ)
n∑
i=1
yi, (3.3)
50
e
d
dλ
l(λ) = −nh+ 1
λ
n∑
i=1
yi
d2
dλ2
l(λ) = − 1
λ2
n∑
i=1
yi.
Fazendo a primeira derivada de l(λ) igual a zero, teremos λˆ =
∑n
i=1 Yi/nh =
Y¯ /h. A derivada segunda apli
ada em λ = λˆ é negativa, mostrando que λˆ é
ponto de máximo. Portanto, o estimador de máxima verossimilhança para λ é
λˆ. Teremos que
E(λˆ) =
1
h
E(Y1) = λ
logo, λˆ é não viesado. Além disso,
V ar(λˆ) =
1
h2
V ar(Y¯ ) =
λ
nh
, (3.4)
logo, o estimador é 
onsistente e seu erro padrão pode ser estimado por
EˆP (λˆ) =
√
λˆ
nh
. (3.5)
Existem diversas estratégias para 
onstruir intervalos de 
on�ança para λ. Uma
delas, seria utilizar a aproximação normal
√
nh
λˆ− λ√
λˆ
≈ Normal(0, 1)
(de
orrente do TCL). Com isso, um intervalo 
om 
on�ança aproximada de
(1− α) para λ é dado por
λˆ− z1−α/2
√
λˆ
nh
; λˆ− zα/2
√
λˆ
nh

 .
Via de regra, a aproximação a
ima é válida para λˆ > 20.
No exemplo do número de óbitos por ataque 
ardía
o, temos que todos os
in
rementos tem o mesmo 
omprimento (h = 1 mês). O valor estimado para λ
é,
λˆ = 148, 75.
om um erro-padrão estimado de 2, 489. Um intervalo aproximado 
om 
on�-
ança 95% para λ é
[144, 66; 152, 85].
51
Veri�
ando se os dados seguem um pro
esso de Poisson
Lembremos que um pro
esso de Poisson possui in
rementos independentes e
esta
ionários, e que E[N(t)] = λt. Abaixo, seguem quatro grá�
os que podem
nos auxiliar a veri�
ar se estas 
ondições estão satisfeitas.
• Um diagrama de dispersão entre Y1, Y2, . . . , Yn−1 e Y2, Y3, . . . , Yn: se hou-
ver qualquer tendên
ia entre Yi e Yi−1 existem evidên
ias para suspeitar-
mos da hipótese de independên
ia
• Um diagrama de dispersão entre os índi
es 1, 2, . . . , n e Y1, Y2 . . . , Yn: da-
dos dispersos em tornode λˆ dão evidên
ias de esta
ionaridade.
• Um diagrama de dispersão entre os índi
es 1, 2, . . . , n eN(t1), N(t2) . . . , N(tn):
um 
omportamento linear dá indí
ios de que E[N(t)] = λt.
• Um envelope de 
on�ança para a função de distribuição em 
onjunto 
om
a função de distribuição de uma Poisson 
om taxa λˆ: se a distribuição da
Poisson estiver dentro do envelope, existem evidên
ias de os in
rementos
seguem uma distribuição Poisson 
om taxa λˆ.
52
130 140 150 160 170 180
14
0
16
0
18
0
20
0
Yi
Y i
+
1
Índice
Y i
5 10 15 20
14
0
16
0
18
0
20
0
5 10 15 20
50
0
15
00
25
00
35
00
Índice
N
(t)
140 160 180 200
0.
0
0.
2
0.
4
0.
6
0.
8
1.
0
Envelope de Confiança
sort(card)
pp
oi
s(s
ort
(ca
rd)
, m
ea
n(c
ard
))
Testes de hipóteses
Se os in
rementos Y1, . . . , Yn são provenientes de um pro
esso de Poisson, então
eles devem ser independentes e esta
ionários.
3.4.2 Inferên
ias para T
Sejam T1, . . . , Tn uma amostra dos tempos de 
hegadas de um pro
esso de Pois-
son 
om taxa λ. A função de verossimilhança para λ é dada por
L(λ) =
n∏
i=1
f(ti|λ) = λne−λ
∑n
i=1 ti
= λne−λSn
53
O logaritmo da verossimilhança será
l(λ) = n log(λ)− λSn
e sua primeira e segunda derivada é:
d
dλ
=
n
λ
− Sn
d2
dλ2
= − n
λ2
.
Analisando as duas derivadas, vemos que λˆ = n/Sn é ponto de máximo e por-
tanto é EMV.
Pelo Exer
í
io 1.17, sabemos que Z = λλˆ ∼ GI(n, n). Assim, podemos
al
ular a e b tais que P (a < Z < b) = 1− α e 
riar o intervalo de 
on�ança(
a
λˆ
,
b
λˆ
)
. (3.6)
3.4.3 Sui
ídios no MIT
Quando o
orre um sui
ídio no MIT - Massa
husetts Institute of Te
hnology -
diversas áreas da 
omunidade pedem uma açao da administração. Se os sui
ídios
foram provenientes de um pro
esso aleatório, tais ações não deveriam ser da
ompetên
ia da administração, apesar de que programas para reduzir a taxa
global de sui
ídios no MIT devem sempre ser insentivados. Em (CHEW, et
al.), os autores gostariam de saber se os sui
ídios o
orridos no MIT poderiam
ser modelados segundo um pro
esso de Poisson. Apesar do MIT não manter
estatísti
as sobre a saúde de seus estudantes e pessoal em geral, sui
ídios são
asos ex
ep
ionais e dados sobre estes puderam ser obtidos no O�
e of the Dean
for Students A�airs. Os autores pesquisaram os sui
ídios o
orridos entre os anos
de 1964 e 1991. Alguns dados estavam in
ompletos, uma vez que apenas o ano e
o mês do sui
ídio foram registrados. Para estes dados, os autores assumiram que
o sui
ídio o
orreu no dia 15. As datas do históri
o se sui
ídios são mostradas
na Tabela 3.4.3
A média do tempo de
orrido entre os sui
ídios foi de 308,3 dias. Supondo
que os tempos são variáveis aleatórias independentes, realizamos o teste de
Kolmogorov-Smirnov para veri�
ar se os dados se ajustariam bem a distribuição
exponen
ial 
om taxa 10/3083. O p-valor para o teste foi de 0,2054 de modo
que é razoável supor que os dados apresentam distribuição exponen
ial, ou seja,
o número de sui
ídios no MIT é um pro
esso de Poisson 
om taxa um sui
ídio a
ada 308 dias. A Figura 3.1 mostra a função de distribuição empíri
a e a 
urva
exponen
ial 
om taxa 308.
54
Data Ti Data Ti Data Ti
10/6/1964 - 26/07/1974 428 20/10/1986 16
15/11/1964 158 27/07/1975 366 02/10/1987 347
17/10/1965 336 12/12/1975 138 03/10/1987 1
17/03/1966 151 02/02/1976 52 22/10/1987 19
04/06/1967 444 16/10/1977 622 08/04/1988 169
19/10/1969 868 03/04/1978 169 15/04/1988 7
15/07/1970 269 08/02/1983 1772 15/06/1988 61
19/03/1973 978 30/11/1983 295 15/06/1988 0
15/04/1973 27 21/06/1984 204 15/10/1990 852
15/05/1973 30 18/05/1986 696 15/06/1991 243
24/05/1973 9 04/10/1986 139 15/06/1991 0
Tabela 3.2: Data do sui
ídio e o tempo trans
orrido, em dias, entre os sui
ídios
55
Figura 3.1: Linha 
heia: função de distribuição empíri
a; Linha pontilhada:
função de distribuição de uma exponen
ial(308,3).
3.5 O Pro
esso de Poisson Composto
Clientes 
hegam em uma loja de 
onveniên
ias segundo um pro
esso de Poisson
om taxa λ. Cada 
liente gasta uma quantidade Di de dinheiro, independente
dos demais. Neste 
aso, podemos estar interessados em estudar a quantidade
de dinheiro ganho pelo loja ao longo do tempo, ou seja, na variável Y (t) =∑N(t)
i=1 Di. Este é um típi
o exemplo de um pro
esso de Poisson 
omposto.
De�nição 3.6. Seja Y (t) =
∑N(t)
i=1 Di, onde as variáveis aleatórias Dis são
independentes e identi
amente distribuídas e seja {N(t), t ≥ 0} um pro
esso de
Poisson. Então, pro
esso esto
ásti
o {Y (t), t > 0} é denominado pro
esso de
Poisson 
omposto.
Um modo de analisar o pro
esso {Y (t), t ≥ 0} seria en
ontrar a expressão
56
analíti
a de sua distribuição, ou seja
F (y(t)) =
∞∑
n=0
P (Y (t) ≤ y(t)|N(t) = n)P (N(t) = n) (3.7)
=
∞∑
n=0
P (Y (t) ≤ y(t)|N(t) = n)e
−λt(λt)n
n!
. (3.8)
Em geral, esta distribuição não possui forma analíti
a e métodos 
omputa
ionais
são ne
essários para estimar a distribuição. Entretanto, apenas o 
onhe
imento
dos momentos de Y (t) podem ser úteis para realizar inferên
ias sobre média,
variân
ia, assimetria e 
urtose. Podemos en
ontrar a função geratriz de mo-
mentos de Y (t), desde que exista a função geratriz de momentos de D. De fato,
seja MD(r) a função geratriz de momentos de D. Então
MY (t)(r) = E(e
Y (t)r) = E[E(eY (t)r|N(t))] = E[E(er
∑N(t)
i=1 Di |N(t))]
= E[
N(t)∏
i=1
E(erDi |N(t))] = E[
N(t)∏
i=1
MDi(r)] = E[(MD(r))
N(t)]
=
∞∑
n=0
(MDi(r))
n e
−λt(λt)n
n!
= e−λt
∞∑
n=0
(MD(r)λt)
n
n!
= eλt(MD(r)−1).
Como usual, o k-ésimo momento é obtido 
al
ulando (dk/drk)My(t)(r)|r=0. Por
exemplo, o primeiro momento é 
al
ulando fazendo
E(Y (t)) =
d
dr
MY (t)(r)
∣∣∣∣
r=0
= λteλt(MD(r)−1)
d
dr
MD(r)
∣∣∣∣
r=0
= λtE(D),
e o segundo momento será,
E(Y (t)2) =
d2
dr2
MY (t)(r)
∣∣∣∣
r=0
= eλt(MD(r)−1)
(
λt
d
dr
MD(r)
)2
+ λteλ(MD(r)−1)
d2
dr2
MD(r)
∣∣∣∣
r=0
= (λtE(D))2 + λtE(D2).
Assim, a variân
ia será
V ar(Y (t)) = λtE(D2)
3.8 Exemplo (Número de vítimas fatais em a
identes aéreos) Consideremos
os dados sobre o número de a
identes aéreos no Brasil em 2008. Suponha que
que este é um pro
esso de Poisson. Sua taxa está estimada em 12,83. Seja Di o
numero de vítimas fatais no i-ésimo a
idente. A distribuição de frequên
ias do
número de a
identes fatais por a
idente é dado na Tabela 3.3.
57
N
o
de vítimas fatais 0 1 2 3 4 5
Frequên
ia observada 127 9 12 1 3 1
Tabela 3.3: Distribuição de Frequên
ias do número de vítimas fatais por a
i-
dente.
Os valores estimados paraE(D) e V ar(D) são, respe
tivamente, 0,38 e 1,136.
Assim, teremos que
Eˆ(Y (t)) = λˆEˆ(D)t = 4, 916t
e
ˆV ar(Y (t)) = λˆEˆ(D2)t = 14, 583t.
Além disso, fazendo µ(t) = E(Y (t)) e σ2(t) = V ar(Y (t)), temos que um in-
tervalo (aproximado) 
om (1 − α)% de 
on�ança aproximado para µ(t) é dado
por
(Y (t)± z1−α/2σˆ(t)) = (Y (t)± 3, 818z1−α/2
√
t)
e, em parti
ular, para o período em estudo, temos que Y (12) = 59 e um intervalo
om 95% de 
on�ança para µ(t) é (33, 07; 84, 92). �
3.6 Generalizações do Pro
esso de Poisson
Podemos generalizar um PP relaxando alguma de suas hipóteses. Se assumimos
que E(N(t)) = λ(t), onde a função λ(.) não é linear, teremos um pro
esso de
Poisson não-homogêneo. Se os in
rementos do pro
esso forem esta
ionários, mas
não forem independentes, teremos um pro
esso de ponto esta
ionário. Neste
urso, apresentaremos apenas a primeira destas generalizações.
3.6.1 O Pro
esso de Poisson Não-Homogêneo
O pro

Outros materiais