Baixe o app para aproveitar ainda mais
Prévia do material em texto
Pro essos Esto ásti os Um Curso de Graduação Dis iplina IEE 503 Versão 4.1 James Dean Oliveira dos Santos Jr. 2 de fevereiro de 2017 2 Sumário 1 Preliminares 3 1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2 Resultados importantes . . . . . . . . . . . . . . . . . . . . . . . 3 1.3 Distribuições importantes . . . . . . . . . . . . . . . . . . . . . . 8 1.3.1 Exponen ial . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.3.2 Gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.3.3 Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.4 Esperança ondi ional . . . . . . . . . . . . . . . . . . . . . . . . 12 1.5 Inferên ia* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.6 Teoria dos grafos . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.7 Exer í ios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2 Pro essos Esto ásti os 25 2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.2 Pro essos Esta ionários . . . . . . . . . . . . . . . . . . . . . . . 27 3 2.3 Pro essos de ontagem . . . . . . . . . . . . . . . . . . . . . . . . 28 2.4 Exer í ios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3 Pro esso de Poisson 33 3.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.2 Tempos de Chegada e de Espera . . . . . . . . . . . . . . . . . . 35 3.2.1 De�nições e propriedades . . . . . . . . . . . . . . . . . . 36 3.2.2 Distribuição ondi ional dos tempos de hegada . . . . . . 40 3.3 Soma de Pro essos de Poisson . . . . . . . . . . . . . . . . . . . . 46 3.4 Inferên ia para o Pro esso de Poisson . . . . . . . . . . . . . . . 48 3.4.1 Inferên ia para in rementos . . . . . . . . . . . . . . . . . 50 3.4.2 Inferên ias para T . . . . . . . . . . . . . . . . . . . . . . 53 3.4.3 Sui ídios no MIT . . . . . . . . . . . . . . . . . . . . . . . 54 3.5 O Pro esso de Poisson Composto . . . . . . . . . . . . . . . . . . 56 3.6 Generalizações do Pro esso de Poisson . . . . . . . . . . . . . . . 58 3.6.1 O Pro esso de Poisson Não-Homogêneo . . . . . . . . . . 58 3.6.2 O Pro esso de Ponto Esta ionário . . . . . . . . . . . . . 60 3.7 Exer í ios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 4 Cadeias de Markov a Tempo Dis reto 69 4.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 4.2 Grafo de uma Cadeia de Markov . . . . . . . . . . . . . . . . . . 71 4 4.3 Exemplos de Cadeias de Markov . . . . . . . . . . . . . . . . . . 73 4.4 As Equações de Chapman-Kolmogorov . . . . . . . . . . . . . . . 77 4.5 Classi� ação de Estados . . . . . . . . . . . . . . . . . . . . . . . 84 4.5.1 Comuni ação entre Estados . . . . . . . . . . . . . . . . . 84 4.5.2 Classes Transientes e Re orrentes . . . . . . . . . . . . . . 86 4.5.3 Periodi idade de um Estado . . . . . . . . . . . . . . . . . 92 4.6 Distribuição Esta ionária . . . . . . . . . . . . . . . . . . . . . . 96 4.7 Pro esso de Rami� ação . . . . . . . . . . . . . . . . . . . . . . . 99 4.8 Inferên ia para Cadeias de Markov . . . . . . . . . . . . . . . . . 101 4.9 Cadeias de Ordens Maiores . . . . . . . . . . . . . . . . . . . . . 102 4.9.1 Transformação para uma CMTD de ordem 1 . . . . . . . 102 4.9.2 O Modelo de Rafttery . . . . . . . . . . . . . . . . . . . . 102 4.10 Exer í ios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 5 Cadeias de Markov a Tempo Contínuo 109 5.1 De�nição e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . 109 5.2 Distribuição Esta ionária . . . . . . . . . . . . . . . . . . . . . . 115 5.3 Pro essos de Nas imento e Morte . . . . . . . . . . . . . . . . . . 116 5.4 Exer í ios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 6 Pro essos de Renovação 123 6.1 De�nição e Propriedades . . . . . . . . . . . . . . . . . . . . . . . 123 5 6.2 A Distribuição de N(t) . . . . . . . . . . . . . . . . . . . . . . . . 124 6.3 A Equação de Wald . . . . . . . . . . . . . . . . . . . . . . . . . 125 6.4 Pro esso de Renovação om Re ompensa . . . . . . . . . . . . . . 125 6.5 Pro esso Regenerativo . . . . . . . . . . . . . . . . . . . . . . . . 125 6.6 Pro essos de Renovação Alternados . . . . . . . . . . . . . . . . . 125 6 Lista de Figuras 3.1 Linha heia: função de distribuição empíri a; Linha pontilhada: função de distribuição de uma exponen ial(308,3). . . . . . . . . 56 7 Nota Importante: Este material está em ontínua evolução. Ele não deve ser utilizado omo referên ia úni a para a dis iplina Pro essos Esto ásti os. Existem muitos erros ainda para serem orrigidos, portanto utilize esse material om ressalvas. 2012 - Os objetivos dessas notas de aula são 1. Compilar os resultados bási os de pro essos esto ásti os 2. Apresentar resultados de inferên ia para estes pro essos Em relação ao primeiro objetivo, a experiên ia me diz que os alunos ostumam a sentir di� uldades no urso de pro essos esto ásti os. Muito esforço tem sido feito para fazer om que a dis iplina seja agradável para um aluno de graduação, o que in lui: • Exemplos mais �apli ados� sempre que possível. • Uma revisão de resultados bási os sobre séries e distribuições. • A apresentação rápida da Teoria e Grafos om sua apli ação imediata em adeias de Markov. Em relação ao segundo objetivo, muito ainda deve ser feito e, em geral, este assunto não está sendo obrado nos exer í ios ou provas do urso. 1 2 Capítulo 1 Preliminares 1.1 Introdução Este apítulo destina-se enumerar uma série de resultados que serão utilizados posteriormente. Tais resultados já são de onhe imento dos alunos que ursam pro essos esto ásti os e servem uni amente para revisão. É importante ressaltar que este apítulo é olo ado neste momento por motivos didáti os, mas que poderia perfeitamente fazer parte de um apêndi e, pois a maioria dos resultados será utilizada pou as vezes. 1.2 Resultados importantes Nesta seção, apresentamos alguns resultados de séries e de análise ombinatória. De�nição 1.1. A sequên ia a1, a2, . . . será um progressão aritméti a (PA) se ai = a1 + (i − 1)r para i = 1, 2, 3, . . . e r ∈ R. 1.1 Exemplo (Soma de uma PA) Talvez vo ê já onheça a demonstração da fórmula da soma �nita de n termos de uma PA, denotada por Sn. Vamos demonstrar essa fórmula utilizando nosso onhe imento de probabilidade. Seja X a variável aleatória que assume qualquer valor no onjunto {a1, . . . , an} e atribui probabilidade 1/n para ada ponto. Então E(X) = a1 + · · ·+ an n = Sn n . 3 Por de�nição,E(X) é o bari entro da distribuição e, omo ada ponto possui a mesma probabilidade e todos eles são equidistantes, o bari entro será o ponto médio do onjunto {a1, . . . , an}. Assim, E(X) = a1 + an 2 . Igualando as duas equações a ima teremos Sn = (a1 + an)n 2 . (1.1) � De�nição 1.2. A sequên ia a1, a2, . . . será um progressão geométri a (PG) se ai = a1q i−1 para i = 1, 2, 3, . . . e q 6= 0. 1.2 Exemplo . Certo vírus de omputador ria uma ópia de si mesmo a ada segundo. Cada nova ópia gerada pro ede da mesma maneira. (a) Quantas ópias deste vírus teremos em uma hora? (b) Cada ópia possui 1Kb. Quanto tempo é ne essário para que os vírus o u- pem 1Tb? Resolução: Seja Xi o número de ópias no segundo i, sneo que X0 = 1. Como apenas um vírus está no omputador, no primeiro segundo ele fará uma ópia de si mesmo, gerando X1 = 2. No segundo, existem dois vírus e ada um fará uma ópia desi mesmo, gerando X2 = 4. Um ra io ínio análogo mostra que {X0, X1, X2, . . .} = {2, 4, 8, 16, . . .}. Assim, temos um PG om q = 2. Identi� ando a1 om X0, é fá il ver que Xt = 2 t e que X3600 = 2 3600. (1.2) Agora, sabendo que um terabyte equivale a 109 kilobytes, temos que Xt = 10 9 = 2t ⇒ t = 9 log 10 log 2 ≈ 29, 89, logo, serão ne essários 30 segundos para que os vírus o upem 1Tb de espaço no dis o rígido. � � 1.3 Exemplo (Soma de uma PG) Seja {a1, . . . , an} uma PG se seja Sn = a1 + · · ·+ an. Notemos que S1 = a1 S2 = S1 + a1q = a1(1 + q) S3 = S2 + a1q 2 = a1(1 + q + q 2) · · · = · · · Sn = Sn−1 + a1q n−1 = a1(1 + q + · · · qn−1), (1.3) (1.4) 4 e que qSn = a1(q + q 2 + · · ·+ qn). (1.5) De (1.3) e (1.5), temos que Sn − qSn = a1(1− qn)⇒ Sn = a1 1− q n 1− q . (1.6) Em espe ial, se q ∈ (0, 1), então qn → 0 quando n→∞ e lim n→∞ Sn = a1 1− q . (1.7) 1.4 Exemplo (Valor esperado da geométri a) Se X assume valores intei- ros não negativos, então E(X) = ∑∞ x=0(1 − F (x)). Seja X ∼ Geometri a1(q), onde P (X = x) = q(1− q)x, x = 0, 1, 2, . . . (1.8) � e q ∈ (0, 1). Em parti ular, utilizando ( 1.7) temos que 1− F (x) = P (X > x) = ∞∑ y=x+1 q(1− q)y = (1− q)x+1. (1.9) Assim, utilizando (1.7) novamente, teremos E(X) = ∞∑ x=0 (1− q)x+1 = (1 − q) ∞∑ x=0 (1 − q)x = 1− q q . (1.10) Teorema 1.3 (Binomial). Para n natural, x, y > 0 teremos (x + y)n = n∑ t=0 ( n t ) xtyn−t. (1.11) 1.5 Exemplo (Função geratriz de momentos da Binomial) SejaX ∼ Binomial(n, θ). Então, sua função geratriz de momentos será MX(t) = n∑ x=0 etx ( n x ) θx(1− θ)n−x = n∑ x=0 ( n x ) (θet)x(1− θ)n−x = (θet + 1− θ)n. Teorema 1.4 (Multinomial). Seja n = (n1, n2, . . . , nk). Então, para x1, . . . , xk > 0, teremos (x1 + x2 + · · ·+ xk)n = ∑ {n: ∑ k i=1 ni=n} n! n1!n2! . . . nk! xn11 x n2 2 . . . x nk k (1.12) 5 De�nição 1.5. De�nimos a onstante de Euler, representada por e, omo e = lim n→∞ ( 1 + 1 n )n . (1.13) Entretanto, ela pode ser en ontrada de outros modos. Abaixo, apresentamos outra forma. Proposição 1.6. A onstante de Euler pode ser es rita omo e = ∞∑ t=0 1 t! . Demonstração. Utilizando o Teorema 1.3( 1 + 1 n )n = n∑ t=0 ( n t ) 1 nt = n∑ t=0 1 t! n(n− 1) . . . (n− t+ 1) nt = n∑ t=0 1 t! ( 1− 1 n )( 1− 2 n ) . . . ( 1− t− 1 n ) Podemos notar que lim n→∞ 1 t! ( 1− 1 n )( 1− 2 n ) . . . ( 1− t− 1 n ) = 1 t! Vamos utilizar (sem provar) que é válida a seguinte equação: lim n→∞ n∑ t=0 ( n t ) 1 nt = ∞∑ t=0 lim n→∞ ( n t ) 1 nt . Assim, e = ∞∑ x=0 1 t! . (1.14) Além disso, teremos a seguinte proposição: Proposição 1.7. Para qualquer θ real teremos ∞∑ x=0 θx x! = eθ. (1.15) Demonstração. Podemos pro eder de forma análoga ao que foi exposto na Pro- posição 1.6, fazendo apenas uma mudança de variável. Uma forma alternativa para demonstrar este resultado será explorada nos exer í ios. 6 A função gama, de�nida abaixo, é utilizada em diversas distribuições de probabilidade. De�nição 1.8. A função gama é de�nida por Γ(a) = ∫ ∞ 0 ta−1e−tdt, a > 0. (1.16) A seguinte propriedade mostra que a função gama é uma generalização da função fatorial. Proposição 1.9. Para α > 0, Γ(α+ 1) = αΓ(α). Demonstração. Γ(a) = ∫ ∞ 0 ta−1e−tdt, ( fazendo u = ta−1 e dv = e−t ) = − ta−1e−t ∣∣∞ 0 + ∫ ∞ 0 (a− 1)ta−2e−tdt = (a− 1) ∫ ∞ 0 ta−2e−tdt = (a− 1)Γ(a− 1) logo, Γ(a) = (a− 1)Γ(a− 1). Em espe ial, notemos que Γ(1) = ∫ ∞ 0 e−tdt = 1 e Γ(2) = (2− 1)Γ(1) = 1. O seguinte orolário pode ser provado por indução. Corolário 1.10. Se α é um inteiro maior que zero, então Γ(α) = (α− 1)!. Demonstração. Exer í io 1.10. Assim, a função gama pode ser interpretada omo uma versão ontínua da função fatorial. Alguns valores de Γ(α) são utilizados em algumas distribuições, omo é o aso de Γ(1/2) na distribuição qui-quadrado. 1.6 Exemplo (O valor de Γ(1/2).) Existe um modo interessante de mostrar que Γ(1/2) = √ pi, através da distribuição normal. Temos que Γ(1/2) = ∫ ∞ 0 x−1/2e−xdx ( fazendo x = u2 ) = 2 ∫ ∞ 0 e−u 2 du. (1.17) 7 Agora, tomemos Y ∼ Normal(0, 1/2). Sabemos que a densidade da normal é simétri a e que 1 = ∫ ∞ −∞ 1√ pi e−y 2 dy = 2 ∫ ∞ 0 1√ pi e−y 2 dy = 2√ pi ∫ ∞ 0 e−y 2 dy ⇒ ∫ ∞ 0 e−y 2 dy = √ pi 2 . (1.18) Assim, Γ ( 1 2 ) = √ pi. De�nimos a função gama in ompleta omo segue: Γx(a) = ∫ x 0 ta−1e−tdt (1.19) 1.3 Distribuições importantes Dis utiremos nesta seção as seguintes distribuições: exponen ial, gama e Pois- son. 1.3.1 Exponen ial Dizemos que a variável aleatória T possui distribuição exponen ial om taxa λ, (T ∼ Exponen ial(λ)) se sua densidade for f(t) = λe−λt, λ > 0, t > 0. (1.20) A função de distribuição da exponen ial é F (x) = ∫ x 0 λe−λtdt = 1− e−λx, (1.21) e seus momentos podem ser al ulados omo segue: E(T k) = ∫ ∞ 0 tkλe−λtdt, (fazendo λt = u) , = 1 λk ∫ ∞ 0 uke−udu = Γ(k + 1) λk = k! λk . 8 Em espe ial, teremos E(T ) = Γ(2) λ = 1 λ (1.22) E(T 2) = Γ(3) λ2 = 2 λ2 (1.23) V ar(T ) = 1 λ2 (1.24) A função geratriz de momentos da exponen ial é MX(t) = E(e tX) = ∫ ∞ 0 λe−x(λ−t)dx = λ λ− t , t < λ. (1.25) 1.7 Exemplo (Falta de Memória) Suponha que o tempo de vida de uma lâmpada possui distribuição exponen ial om média 2 anos. Vo ê liga essa lâmpada uma vez e sai para viajar por um ano. Quando vo ê volta, a lâmpada ainda está ligada. Qual a probabilidade da lâmpada durar mais um ano? Seja T o tempo de vida da lâmpada. O evento �lâmpada não queimou no primeiro ano� é dado por {T > 1}. De modo análogo, o evento no qual a lâmpada dura dois anos é {T > 2}. Assim, a probabilidade da lâmpada durar dois anos dado que ela durou um ano é P (T > 2|T > 1) O fato urioso é que essa probabilidade é mesma de que uma lâmpada nova do mesmo tipo dure um ano! Isso a onte e porque a distribuição exponen ial possui a propriedade de �falta de memória�. Vamos mostrar isso de um modo geral: seja T ∼ Exponen ial(λ) e sejam t, s > 0. Então P (T > t+ s|T > s) = P (T > t+ s, T > s) P (T > s) = P (T > t+ s) P (T > s) = e−λ(t+s) e−λs = e−λt = P (T > t). � 1.8 Exemplo (Mínimo de exponen iais.) Sejam T1 e T2 variáveis aleató- rias independentes om distribuição exponen ial om taxas λ1 e λ2, respe tiva- mente. Seja M2 = min{T1, T2}. Notemos que, se M2 > m, então T1 e T2 devem ser maiores de m. Disto, teremos 1− FM2 (m) = P (M2 > m) = P (T1 > m,T2 > m) = e−(λ1+λ2)m, logo FM2(m) = 1 − exp {−(λ1 + λ2)m}. Notando que FM2 é da mesma forma que (1.21), teremos que M2 ∼ Exponen ial(λ1 + λ2). É fá il mostrar que Mn = min{X1, . . . , Xn} ∼ Exponen ial(λ1+ · · ·+λn).� 9 1.9 Exemplo (Dois atletas) Dois atletas disputam uma orrida. É sabido que o atleta A demora TA minutos para terminar a prova, enquanto que o B demora TB minutos. Se Ti ∼ Exponen ial(λi), onde i ∈ {A,B} e TA é independente de TB, qual a probabilidade de que o atleta A ganhe a prova? Resolução: O atleta A ganhará a prova se TA < TB. Assim, P (TA < TB) = ∫ ∞ 0 P (TA < TB|TB = t)fTB (t)dt = ∫ ∞ 0 P (TA < t|TB = t)fTB (t), por independên ia = ∫ ∞ 0 FTA(t)fTB (t)dt = ∫ ∞ 0 (1− e−λAt)λBe−λBt = 1− λB ∫ ∞ 0 e−(λA+λB)tdt = λA λA + λB . � O resultado a ima pode ser failmente generalizado para o aso de n atletas (ver Exer í io 1.20). � 1.3.2 Gama Dizemos que a variável aleatória S possui distribuição gama om parâmetros α e β (notação S ∼ Gama(α, β)) se sua densidade for omo segue f(s) = βα Γ(α) sα−1e−βs, s, α, β > 0. (1.26) Sua função distribuição será dada por F (s) = βα Γ(α) ∫ s 0 xα−1e−βxdx, ( fazendo u = βx) = 1 Γ(α) ∫ βs 0 uα−1e−udu = Γβs(α) Γ(α) . (1.27) Momentos: E(Sk) = ∫ ∞ 0 sk βα Γ(α) sα−1e−βsds = βα Γ(α) ∫ ∞ 0 sα+k−1e−βsds, ( fazendo u = βs) , = βα Γ(α) β−k−α ∫ ∞ 0 uα+ke−udu = Γ(α+ k) βkΓ(α) (1.28) 10 Em espe ial, E(S) = α β (1.29) E(S2) = (α+ 1)α β2 = ( E(S) + 1 β ) E(S) (1.30) V (S) = E(S) β = α β2 (1.31) A função geratriz de momentos de S é dada por MS(t) = E(e ts) = ∫ ∞ 0 βα Γ(α) sα−1e−s(β−t)ds = ( β β − t )α , t < β. (1.32) 1.10 Exemplo (Soma de Exponen iais) Podemos mostrar que a distribui- ção gama pode ser obtida omo aso parti ular de somas de exponen iais. De fato, seja Ti ∼ Exp(λ) e S = ∑n i=1 Ti. Então MS(t) = M∑n i=1 Ti (t) = n∏ i=1 MTi(t) = ( λ λ− t )n (1.33) Assim, S ∼ Gama(n, λ). � 1.11 Exemplo (Gama Inversa) Seja S ∼ Gama(α, β). Seja Z = 1/S. Po- demos notar que P (Z ≤ z) = P (S ≥ 1/z) = FS(1/z), logo fZ(z) = fS(1/z) 1 z2 = βα Γ(α) ( 1 z )α+1 e β z , (1.34) onde z > 0. Essa distribuição é denominada gama inversa. Notação: Z ∼ GI(α, β). � 1.3.3 Poisson Dizemos que a variávelN possui distribuição Poisson om taxa λ (N ∼ Poisson(λ)), se P (N = n) = e−λλn n! (1.35) Função Geratriz de momentos MN (t) = ∞∑ n=0 ent e−λλn n! = e−λ ∞∑ n=0 [λet]n n! = exp{−λ(1− et)} (1.36) 11 Em espe ial d dt MN (t) = λe tMN (t),⇒ E(N) = λ (1.37) d2 dt2 MN (t) = λe tMN (t) + λ 2e2tMN (t),⇒ E(N2) = λ+ λ2 (1.38) V (N) = λ (1.39) 1.12 Exemplo (Soma de Poissons) Sejam X1, . . . , Xn variáveis aleatórias om distribuição Poisson om taxas λ1, . . . , λn. Notemos que MX1+···+Xn(t) = n∏ i=1 MXi(t) = exp{−(λ1 + · · ·+ λn)(1 − et)} (1.40) Logo, X1 + · · · + Xn ∼ Poisson(λ1 + · · · + λn). Assim, soma devariáveis ale- atórias independentes om distribuição Poisson também possuem distribuição Poisson. � 1.13 Exemplo (Condi ionando somas de Poissons) Outro resultado inte- ressante: SejamN1, N2 variáveis aleatórias independentes om distribuição Pois- son om taxas λ1 e λ2. Sejam N = N1 +N2. Então (N1|N) ∼ Binomial(N, p), onde p = λ1/(λ1 + λ2). De fato, P (N1 = n1|N = n) = P (N1 = n1, N1 +N2 = n) P (N = n) = P (N1 = n1, N2 = n− n1) P (N = n) = e−λ1λn11 n1! e−λ2λn−n12 (n− n1)! n! e−λ1−λ2(λ1 + λ2)n−n1 = ( n n1 )( λ1 λ1 + λ2 )n1 ( λ2 λ1 + λ2 )n−n1 (1.41) 1.14 Exemplo (Aproximação da Binomial para a Poisson) SejaX ∼ Binomial(n, p). Pelo Exemplo 1.5, temos que MX(t) = (1− p(1− et))n. Façamos λ = pn. Então lim n→∞ MX(t) = lim x→∞ ( 1− λ n (1− et) )n = eλ(1−e t). (1.42) Comparando a Equação (1.42) om (1.36), podemos per eber queX se aproxima da distribuiçao Poisson om taxa λ = np. � 1.4 Esperança ondi ional Neste urso, será omum avaliarmos a o orrên ia de uma variável aleatória on- di ionada a outra. Por exemplo, seja X o número de itens omprados por um 12 liente em um supermer ado e seja Y o número de lientes no supermer ado em um dia. Suponha que X ∼ Poisson(λ) e Y ∼ Poisson(δ). Qual o número de esperado de itens vendidos em um dia? Neste problema, sabemos que o número de itens vendidos será W = X1 + · · ·+XY , onde Xi é o número de itens omprados pelo i-ésimo liente. Contudo, não onhe emos a distribuição de W , pois Y é des onhe ido. É laro que esta distribuição pode ser obtida pela relação. P (W = w) = ∞∑ y=0 P (W = w|Y = y)P (Y = y). A distribuição W |Y é onhe ida, pois, uma vez que Y está �xado, W é equi- valente a soma de Y variáveis independentes om distribuição Poisson, ou seja, W |Y ∼ Poisson(Y λ). Já a distribuição de W é difí il de lidar. Entretanto, po- demos en ontrar o valor esperado de W através dos valores esperados de W |Y e Y . De fato, teremos que E(W ) = ∞∑ w=∞ wP (W = w) = ∞∑ w=∞ ∞∑ y=∞ wP (W = w, Y = y) = ∞∑ w=∞ ∞∑ y=∞ wP (W = w|Y = y)P (Y = y) = ∞∑ y=∞ ∞∑ w=∞ wP (W = w|Y = y)P (Y = y) = ∞∑ y=∞ E(W |Y )P (Y = y) = EY (E(W |Y )) . (1.43) Desde que as esperanças envolvidas existam, a equação a ima é válida tanto para variáveis dis retas quanto para ontínuas. Voltanto ao problema dos itens no supermer ado, teremos que E(W ) = EY (E(W |Y )) = EY (λY ) = δλ. Fi a omo exer í io mostrar que, se E(Xk|Y ) <∞ e E(Y k) <∞, então E(Xk) = EY ( E(Xk|Y )) . (1.44) Com a última igualdade, podemos mostrar que V (X) = EY ( E(X2|Y ))− [EY (E(X |Y ))]2 ± EY (E(X |Y )2) = ( EY ( E(X2|Y ))− EY (E(X |Y )2))+ (EY (E(X |Y )2)− [EY (E(X |Y ))]2) = EY [ E(X2|Y )− E(X |Y )2)] + VY [E(X |Y )] = EY [V (X |Y )] + VY [E(X |Y )] (1.45) 13 Apli ando esta última identidade no problema dos itens do supermer ado, tere- mos que V (W ) = EY (λY ) + VY (λY ) = λδ + λ 2δ = δλ(1− λ). 1.5 Inferên ia* Esse tópi o será inserido em outro urso. 1.6 Teoria dos grafos Nesta seção, mostraremos o on eito bási o de grafos. A experiên ia diz que alguns on eitos de pro essos esto ásti os, omo as adeias de Markov, são melhor ompreendidos om o uso dessa ferramenta. O leitor interessado no uso de grafos, pode onsultar os livros XX e YY. De�nição 1.11. Seja V um onjunto dis reto, denominado onjunto dos vér- ti es, e seja E um onjunto de arestas, onde dizemos que existe uma aresta entre os vérti es (v, w) se ambos estão rela ionados. A dupla G = (V,E) é denominada grafo. Em termos didáti os, grafos simples ofere em a vantagem de uma fá il vi- sualização grá� a: ada vérti e pode ser representado por um ponto no plano e as arestas podem ser representadas por linhas unindo os pontos se estes estão rela ionados. 1.15 Exemplo (Arestas orientadas) Dizemos que uma aresta é orientada quando a relação entre o par (x, y) não ne essariamente é válida para o par (y, x). Por exemplo, seja V = {2, 6, 4, 5, 10} e seja E o onjunto de arestas tal que existe a aresta (x, y) se x é divisível por y, om x 6= y. Existe a aresta (4, 2), pois 4 é divisível por 2, mas não existe a aresta (2, 4) pois 2 não é divisível por 4. As arestas existentes são: (4, 2), (6, 2), (10, 2) e (10, 5). A representação grá� a deste grafo é dada a seguir 14 4 2 10 6 5 Note que em um grafo orientado, uma seta é olo ada na aresta para indi ar a direção da relação. � Neste texto, arestas orientadas serão denominadas ar os. Além disso, o ar o (v, v) será denominado laço. 1.16 Exemplo (Grafos de dependên ia) Considere as variáveisX1, X2, X3, X4 onde X1|X2, X3 é independente de X4, X3 é independente de X4 e X2 é depen- dente de X4. Um grafo de dependên ias é onstruído da seguinte forma: • Faça V = {X1, X2, X3, X4} • Crie a aresta v, w se as variáveis aleatórias v e w são dependentes. Se Y é dependente de Z, então Z é dependente de Y . Assim, as arestas deste grafo não são orientadas. Para esse exemplo, temos as seguintes arestas • e1 : (X1, X2) pois X1 é dependente de X2 • e2 : (X1, X3) pois X1 é dependente de X3 O grafo de dependên ias será dado por G = (V,E), onde E = {e1, e2, e3}. Esse grafo pode ser representado gra� amente omo segue: 15 X2 X1 X4 X3 Notemos que as arestas não possuem setas (se A é dependente de B, então B é dependente de A). Algumas on lusões podem ser tiradas: Os vérti esX1, X2, X3 são independentes de X4 (não existem arestas ligando os primeiros vérti es a X4) e, dado X1, X2 e X3 são independentes (retirando X1, o aminho entre X2 e X3 some). � Ao longo deste urso, utilizaremos apenas grafos orientados. Além disso, em muitos momentos apresentaremos a representação grá� a de um grafo omo sendo �o grafo�. Isso é um abuso de linguagem, uma vez que o grafo é uma entidade matemáti a bem de�nida. Outro on eito importante é dado a seguir. De�nição 1.12. A matriz A na qual o elemento (i, j) é igual a 1 se existe a aresta (i, j) e 0 em aso ontrário é denominada matriz de adja ên ias. A matriz de adja ên ias também é utilizada para de�nir o grafo, uma vez que ela ontém todos os vérti es e todas as arestas do grafo. Considere a seguinte matriz de adja ên ias, onde os rótulos das linhas e olunas orrespondem aos vérti es do grafo. A = 0 1 2 0 1 1 0 1 1 0 1 2 1 0 1 Desta matriz, podemos on luir, por exemplo, que existe a aresta (1, 2), mas não existe a aresta (2, 1), fazendo deste um grafo orientado. A representação grá� a deste grafo é dada abaixo: 16 0 1 2 Imagine agora que um indivíduo se en ontra no vérti e zero. Em ada passo, o indivíduo pode seguir por um ar o. A matriz de adja ên ias mostra quais são os possíveis lugares que este indivíduo pode hegar após dar um passo. Assim, essa matriz também é denominada matriz de transição um passo à frente. Um aspe to importante de um grafo é saber se é possível al ançar o vérti e i através do vérti e j. Por exemplo, é possível sair do vérti e zero e hegar no vérti e 2? A resposta é: sim, basta seguir as arestas (0, 1) e (1, 2). Tal aspe to é denominado a essibilidade. De�nição 1.13. Dizemos que o vérti e j é a essível a partir de i se existe uma su essão de ar os que ligam o vérti e i ao vérti e j. Denotamos isso por i→ j. Se tal su essão não existe, dizemos que j não é a essível a partir de i e denotamos este fator por i9 j. Nota: por onvenção, vamos assumir que sempre i → i, onsiderando que podemos voltar para i em zero passos. É importante notarmos que a a essibilidade é invariante ao número de passos! No exemplo em estudo, 0 → 1, pois podemos sair do vérti e 0 e hegar ao vérti e 2 em dois passos. A matriz de adja ên ias nos mostra quais vérti es estão a essíveis a partir de um passo, mas também podemos onstruir matrizes que nos mostrem os vérti es a essíveis dois passos à frente, três passos, e assim por diante. Essa onstrução é fá il, omo mostra a seguinte proposição. Proposição 1.14. Considere um grafo om matriz de transição A. Seja An a matriz de transição n passos à frente (neste aso, A1 = A). Então An = A n . Nota: a matriz An indi a quantos aminhos existem entre ada par de vér- ti es. Uma entrada igual a zero impli a que aquele aminho não existe. Demonstração. Para qualquer aij ∈ A, sabemos que aij = 1 se existe o ar o (i, j) e zero em aso ontrário. Suponha que queremos veri� ar se j0 é a essível a partir de i0 em dois passos. Primeiro, vamos determinar todos os estados que podem ser al ançados um passo a frente à partir de i0. Depois, vamos veri� ar qual destes estados hega em j0. Sem perda de generalidade, assuma que existem n vérti es no grafo. Consideremos então a seguinte soma: n∑ l=1 ai0,lai,j0 = ai0,1a1,j0 + ai0,2a2,j0 + ai0,3a3,j0 + · · ·+ ai0,nan,j0 (1.46) 17 Se ai0,1a1,i0 = 1, então existem os ar os (i0, 1) e (1, j0), indi ando que existe um aminho em dois passos saindo de i0 e hegando em j0. Se ai0,1a1,j0 = 0, então um dos dois ar os não existe, fazendo om que o aminho (i0, 1) e (1, j0) não exista. Assim, a soma em (1.46) indi a quantos aminhos existem saindo de j0 e hegando a j0 em dois passos. A onte e que (1.46) é exatamente elemento (i0, j0) do produto matri ialAA. Como i0 e j0 foram es olhidos arbitrariamente, temos que A2 = A 2. A demonstração para todo n pode ser on luída fa ilmente por indução. 1.7 Exer í ios Seção 1.2 1.1 Para qualquer n ≥ 0 inteiro, mostre que 5n = n∑ x=0 ( n x ) 2x3n−x. 1.2 Mostre que (a) ∑n x=0 ( n x ) = 2n (b) ∑n x=0 x ( n x ) axbn−x = na(a+ b)n−1 1.3 Assumindo que r 6= 1, demonstre os seguintes resultados: (a) d dr ∑k n=0 r n = ∑k−1 n=0 nr n−1 (b) ∑k−1 n=0 nr n−1 = kr k+1+1−(k+1)rk (1−r)2 1.4 Sejam n1, n2, n3 inteiros positivos. O onjunto {n1 + n2 + n3 = n} repre- senta todos os valores possíveis de n1, n2 e n3 tais que a soma destes é igual a n. Assim, en ontre todos os elementos dos seguintes onjuntos: (a) {n1 + n2 + n3 = 0} (b) {n1 + n2 + n3 = 1} ( ) {n1 + n2 + n3 = 2} (d) {n1 + n2 + n3 = 3} 18 1.5 Cal ule ∑ n1+n2+n3+n4=1 n! n1!n2!n3!n4! 2n1 . 1.6 Sejam x1, x2, x3 números reais positivos e seja n ≥ 0 inteiro. Utilize o Teorema 1.3 para mostrar que (x1 + x2 + x3) n = n∑ u=0 ( n u ) xu1 (x2 + x3) n−u. Em seguida, utilize o Teorema Binomial novamente para mostrar que (x1 + x2 + x3) n = n∑ u=0 n−u∑ t=0 ( n u )( n− u t ) xu1x t 2x n−u−t 3 . Por último, mostre que a expressão a ima é equivalente a (x1 + x2 + x3) n = ∑ n1+n2+n3=n n! n1!n2!n3! xn11 x n2 2 x n3 3 . 1.7 En ontre o valor de c tal que as seguintes funções sejam funções de pro- babilidade: (a) P (X = x) = cx, x ∈ {0, 1, 2, . . . , N}. (b) P (X = x) = ce−x, x ∈ {0, 1, 2, . . .}.. 1.8 Seja X ∼ Geometri a2(q), onde P (X = x) = q(1− q)x−1, x = 1, 2, 3, . . . (1.47) Utilizando o resultado da soma de uma PG in�nita, mostre que 1. F (x) = (1− q)x. 2. E(X) = 1/q. 1.9 Uma função f pode ser es rita via séries de Taylor, da seguinte forma: f(x) = ∞∑ n=0 f (n)(y) n! (x− y)n, onde y é um ponto no mesmo domínio de x e f (n) é a n-ésima derivada de f (sendo que f (0) = f). Utilizando este resultado, prove que eλ = ∞∑ n=0 λn n! . 19 1.10 Mostre que, se a for inteiro maior que zero, então Γ(a) = (a− 1)! Seção 1.3 1.11 O número de lientes por hora em uma loja tem distribuição Poisson om taxa 9 lientes/hora. A loja tem apa idade para 13 lientes. En ontre (a) A probabilidade de que em uma hora existam mais de 10 lientes na loja. (b) O número médio de lientes por hora na loja. ( ) O desvio padrão do número de lientes por hora na loja. (d) Quando a loja está heia, um novo liente não entra. Qual é a probabilidade de que novos lientes não entrem na loja? (e) O dono gostaria de diminuir a probabilidade a ima para 5%. Para tanto, qual deveria ser a apa idade da loja? 1.12 Seja N ∼ Poisson(λ), om 0 < λ < 1. Mostre que E(N !) = e−λ/(1− λ). 1.13 Suponha que Y ∼ Poisson(θ). Cal ule E(aY ), onde a é uma onstante. 1.14 Sejam N1, . . . , Nd variáveis aleatórias independentes om distribuição Poisson om taxas λ1, . . . , λd. Mostre que (N1, . . . , Nd|N) ∼Multinomial(N, p1, . . . , pd), onde pi = λi/ ∑d j=0 λj e N = ∑d i=1Ni. 1.15 Seja Xi o número de a identes aéreos na região i ∈ {1, 2, 3, 4}. Considere que Xi ∼ Poisson(i) e que Xi é independente de Xj para todo i 6= j. Em erto ano foram registrados 12 a identes. Qual a probabilidade de que tenha o orrido (X1 = 0, X2 = 2, X3 = 5, X4 = 5)? 1.16 Dizemos que X ∼ χ2n se sua densidade é da forma f(x) = 1 2n/2Γ(n/2) x n 2−1e−x/2. Mostre que E(X) = n. 1.17 Sejam T1, . . . , Tn variáveis aleatórias independentes om distribuição ex- ponen ial om taxa λ. Seja T¯ = ∑n i=1 Ti/n. Mostre que: (a) T¯ ∼ Gama(n, nλ); (b) λ/T¯ ∼ GI(n, n) (esse tipo de variável, uja distribuição não depende do parâmetro, é denominada quantidade pivotal). 20 1.18 En ontre o valor de c para que as seguintesfunções sejam densidades: f(x) = cxβ(α+1)−1e−x β , α, β, x > 0. Sugestão: faça a transformação u = xβ . 1.19 Mostre que Mn = min{T1, . . . , Tn} possui distribuição exponen ial om taxa λ1 + · · ·+ λn. 1.20 Sejam T1, . . . , Tn variáveis aleatórias independentes onde Ti ∼ Exponen ial(λi). Mostre que P (Ti < Tj, ∀j 6= i) = λi/λ, onde λ = ∑m k=1 λk. 1.21 Um ampeonato automotivo om m ir uitos é disputado por n pilotos. Seja Tij o tempo que o i-ésimo piloto leva para on luir o j-ésimo ir uito. Considere que Tij ∼ Exponen ial, e que todos os tempo são independentes. (a) Seja Wj o tempo que o ven edor do j-ésimo ir uito leva para ompletar a prova. En ontre o valor médio de Wj . (b) Qual é a probabilidade de que o i-ésimo piloto ganhe todas as provas ( ) Refaça o item anterior supondo que todos os pilotos possuem a mesma habilidade. 1.22 Dois jogadores disputam uma prova na qual determinada tarefa deve ser on luída no menor tempo possível. O tempo em que o jogador i termina a tarefa possui distribuição exponen ial om taxas αi, i = 1, 2. Considerando estes tempos independentes: 1. (0.5 pt) Qual é a probabilidade de que o jogador 1 vença a prova? 2. (1 pt) Qual o tempo médio de on lusão da tarefa do ven edor desta disputa? 3. (1 pt) O tempo re orde deste jogo é t∗. Qual a probabilidade de que o ven edor da prova bata este re orde? 1.23 O k-ésimo momento entral de uma variável aleatória é de�nido por E(X −E(X))k. Mostre que o k-ésimo momento entral de X ∼ Exponen ial(λ) é dado por k! λk k∑ i=0 (−1)k−i (k − i)! Sugestão: use o teorema binomial. 1.24 Utilize o resultado do exer í io anterior para en ontrar a variân ia, assi- metria e urtose de X ∼ Exponen ial(λ). 21 1.25 A distribuição exponen ial surge em outros ontextos. Mostre que−λ logU , om U ∼ Uniforme possui distribuição Exponen ial(1/λ). 1.26 Sejam S1, . . . , Sn variáveis aleatórias independentes om distribuição Gama(αi, β). Mostre que S = S1 + · · ·+ Sn ∼ Gama( ∑n i=1 αi, β). 1.27 Seja T ∼ Gama(n + 1, 1) e X ∼ Poisson(λ). Mostre que P (T > λ) = P (X ≤ n). Sugestão: integre P(T > λ) por partes, semelhante ao que foi feito para mostrar que Γ(a+ 1) = aΓ(a). Seção 1.4 1.28 O número de terremotos em uma determinada idade possui distribuição Poisson om taxa 3 terremotos por dé ada. (a) Qual o número esperado de terremotos por dé ada? (b) Cal ule a probabilidade de que, em uma dé ada qualquer, não tenham o or- rido terremotos. ( ) Sejam µ e σ a média e o desvio-padrão do prejuízo devido a um terremoto. Cal ule a média e a variân ia do prejuízo ausado por terremotos durante uma dé ada qualquer. (suponha que os prejuízos são independentes e iden- ti amente distribuídos). 1.29 Seja (Y |X) ∼ Poisson(exp{α+ βX}) e seja X ∼ Poisson(λ). En ontre o valor esperado de Y . 1.30 Seja T ∼ Exponen ial(λ) o tempo orrido até a o orrên ia de erto evento. Seja Xi = 1 se o evento o orreu no intervalo (i, i + 1] e Xi = 0 em aso ontrário, om i = 0, 1, 2, . . .. (a) Qual é a distribuição de Xi? (b) En ontre a distribuição de ∑n j=0Xj. Seção 1.6 1.31 Considere o seguinte grafo: A B C D Relativo ao grafo a ima: 22 (a) Es reva seu onjunto de vérti es e ar os. (b) Construa sua matriz de adja ên ias e denote-a por A. ( ) En ontre A2. O que signi� a ada valor desta matriz? 1.32 Considere o seguinte grafo: A B E C D Relativo ao grafo a ima: (a) Es reva seu onjunto de vérti es e ar os. (b) Construa sua matriz de adja ên ias e denote-a por A. ( ) En ontre A2 e A3. Compare estes valores e interprete-os. (d) Use o resultado anterior para provar que An = A2. 1.33 A �gura abaixo representa um lago om 9 vitórias régias. Um sapo se movimenta ex lusivamente saltando entre uma planta e outra. Estando em uma vitória régia no tempo n, ele faz um deslo amento no tempo n + 1 para uma das plantas vizinhas, nun a saltando na diagonal. Construa um grafo que mostra a lo alização do sapo no tempo n e seu deslo amento no tempo n+ 1. Espe i� amente: (a) Construa um onjunto de vérti es e de arestas adequado. 23 (b) Construa a matriz de adja ên ias (matriz de um passo à frente). ( ) Faça a representação grá� a deste grafo. 24 Capítulo 2 Pro essos Esto ásti os 2.1 Introdução Uma oleção de variáveis aleatórias é denominada pro esso esto ásti o. De�nição 2.1. O onjunto {X(t), t ∈ T }, onde X(t) é uma variável aleatória para ada t ∈ T ⊂ R, é um pro esso esto ásti o. O onjunto dos possíveis valores de X(t) é denominado espaço dos estados e o onjunto T é denominado espaço do tempo ou espaço de índi es.1 Se T for um onjunto não enumerável, então será mantida a notação X(t), om t ∈ T . Em aso ontrário, será utilizada a notação mais onveniente Xt, om t ∈ T . 2.1 Exemplo (Amostra iid) Considere a amostra aleatória X1, X2, . . . , Xn, na qual as variáveis são iid om Xi ∈ D ⊆ R. Neste aso, temos que {Xi : i = 1, 2, . . . , n} é um pro esso esto ásti o, om espaço dos estados igual a D e espaço de índi es igual a T = {1, 2, . . . , n}. � No exemplo a ima, os índi es não possuem in�uên ia. De fato, omo as variáveis são iid, para qualquer permutação {t1, . . . , tn} dos índi es em T , tem- se que {X1, X2, . . . , Xn} ∼ {Xt1 , Xt2 , . . . , Xtn}. Os próximos exemplos ilustram asos nos quais os índi es desempenham um papel fundamental. 1 Alguns autores denominam T omo espaço dos parâmetros. 25 2.2 Exemplo (Reposição de estoque - aso simples) Um fun ionário de uma loja deve veri� ar o estoque de erto produto no �m de ada dia. Seja Xi o número de itens deste produto no i-ésimo dia. Temos então o pro esso esto ásti o {Xi : i = 0, 1, 2, . . .}, onde X0 é o estoque no momento ini ial. Claramente, enquanto não houver reposição de estoque, o Xi ≥ Xi−1 para todo i = 1, 2, . . .. Neste aso, as variáveis Xi e Xi−1 são dependentes e não possuem a mesma distribuição. Considere o seguinte aso parti ular: • O estoque suporta no máximo três itens. • No instante ini ial, o estoque está heio (X0 = 3). • Em ada dia, o número de itens que é retirado do estoque tem distribuição Bernoulli(p). • Quando o estoque hega a zero, o fun ionário pede a reposição, que demora um dia Seja Zi ∼ Benoulli(p), onde Zi é independente de Zj para todo i 6= j (esta variável representa o que foi subtraído do estoque no dia i). Então, se Xi 6= 0, tem-se que Xi+1 = Xi − Zi e quando Xi = 0 (o estoque no dia i está vazio) tem-se que Xi+1 = 3. Este pro esso esto ásti o pode ser resumido pelo seguinte grafo, onde ada vér- ti e representa um dos possíveis valores da variável Xi e ada aresta mostra a probabilidade de P (Xn+1 = j|Xn = i), onde i é o vérti e de origem e j o de destino. 0 1 2 3 p 1 pp 1− p 1− p 1− p � 2.3 Exemplo (Visualizações de Os Simpsons) O grá� o abaixo mostra o número de visualizações, em milhões nos EUA, dos episódios de Os Simpsons, para as dez primeiras temporadas. Pode-se de�nir um pro esso esto ásti o onde Xi é o número de visualizações do i-ésimo episódio. 26 Visualizações dos episódios dos Simpsons Episódios Vi su al iz aç õe s po r e pi só di o (em m ilh õe s) 0 50 100 150 200 10 15 20 25 30 � 2.2 Pro essos Esta ionários Um pro esso esto ásti o {X(t), t ∈ T } é dito ser esta ionário se P (X(t) < x) = P (X(t + k) < x) para todo k. Isto quer dizer que a distribuição permane e inalterada om a mudança do índi e. 2.4 Exemplo (Amostra iid) Se X1, X2 . . . , X é um pro esso formado por va- riáveis independentes e identi amente distribuídas, então, P (Xt < x) = P (Xt+k < x) =P (X1 < x) para todo k = 0, 1, 2, . . .. Portanto, uma amostra de vaiid é um pro esso esta i- onário. 2.5 Exemplo (Estoque simples) Considere o pro esso esto ásti o dado no Exemplo 2.2, onde Xi = Xi−1 + Z, se Xi−1 > 0 3, se Xi−1 = 0 27 om Zi ∼ Bernoulli(p) independente de Z − j para todo i 6= j. Note que P (X1 ≤ 2) = P (Z1 = 1) = p P (X2 ≤ 2) = P (Z1 = 1, Z2 = 1) + P (Z1 = 0, Z2 = 1) + P (Z1 = 1, Z2 = 0) = p2 + 2p(1− p) Como P (X1 ≤ 2) 6= P (X2 ≤ 2), este pro esso não é esta ionário. � 2.6 Exemplo (Visualizações de Os Simpsons) Considere novamente o pro- esso esto ásti o Xi, onde i-é é a visualização registrada no dia da exibição do i-ésimo episódio desta série. Note que onhe emos o pro esso esto ásti o, mas apenas temos uma amostra observada deste. Contudo, existem evidên ias de que este pro esso não é esta ionário. Por exemplo, podemos notar que existe uma tendên ia de queda, algo que seria esperado se o pro esso fosse esta ionário. 2.3 Pro essos de ontagem Uma das estatísti as mais utilizadas em nosso otidiano é a ontagem. Conta- mos o número de passageiros que entram em um �nibus urbano, registramos o número de lientes que passam por determinado aixa em um supermer ado e o número de vezes que um time esteve om a posse da bola em um jogo de futebol. Em todas essas situações, quando onhe emos o tempo de o orrên ia de ada evento, podemos de�nir o número total de eventos o orridos em qualquer tempo �xado. Além disso, se estes eventos são de natureza aleatória, temos que tal ontagem ara teriza um pro esso de ontagem. De�nição 2.2. O pro esso esto ásti o {N(t), t ≥ 0} é um pro esso de ontagem (PC) se N(t) representa o total de eventos o orridos até o tempo t. Um pro esso de ontagem deve satisfazer: 1. N(t) ≥ 0; 2. N(t) é inteiro positivo; 3. Se s < t, então N(s) ≤ N(t); 4. Para s < t, N(t)−N(s) é igual ao número de eventos que o orreram no intervalo (s, t]. As restrições que ara terizam um pro esso de ontagem são muito intuitivas: 28 1. N(t) registra o número de eventos que o orreram até o tempo t. Logo, N(t) não pode ser negativo. Além disso, N(t) será nulo apenas se não o orrer nenhum evento até o tempo t. 2. N(t) é inteiro positivo, por motivos óbvios. 3. Considerando s < t, temos que duas situações podem o orrer: (a) nenhum evento o orre entre s e t, logoN(s) = N(t); (b) o orremmais eventos entre os tempos s e t, logo N(s) < N(t). 4. N(t) é a umulativo. Assim, se s < t, teremos que N(t) onta os eventos que o orreram até o tempo s mais o eventos adi ionais até o tempo t. Assim, se quisermos saber o número de o orrên ias entre (s, t], basta tomar N(t)−N(s). A �gura abaixo ilustra um pro esso de ontagem. Nesta, o tempo de o or- rên ia do evento é representado no eixo Tempo através de um ír ulo. A ima do eixo do tempo estão registrados os valores do pro esso N(t) para os tempo t = 2, 6, 8, 13. Abaixo do eixo estão registrados o número de o orrên ias entre estes tempos. 2 6 8 13 Tempo N(2) = 3 N(6) = 8 N(6) − N(2) = 5 N(8) = 8 N(8) − N(6) = 0 N(13) = 15 N(13) − N(8) = 7 29 Seja X(s, r) o número de o orrên ias do evento de interesse no intervalo (s, r]. A partir de um PC {N(t), t ≥ 0}, é imediato que X(s, r) = N(r)−N(s). A variável aleatória X(s, r) é denominada in remento. Vamos de�nir dois tipos importantes de in rementos: independentes e esta ionários. De�nição 2.3 (In rementos Independentes). Dizemos que um PC possui in rementos independentes se, para quaisquer dois intervalos disjuntos (s1, r1] e (s2, r2] teremos que X(s1, r1) e X(s2, r2) são independentes. Em outras palavras, os in rementos do PC em intervalos disjuntos são inde- pendentes. Por exemplo, se o número de lientes que entram em um supermer- ado possuir in rementos independentes, então número de lientes que hegam entre as 8h e 9h é independente do número de lientes que hegam entre as 11h e 12h. De�nição 2.4 (In rementos Esta ionários). Dizemos que um PC possui in- rementos esta ionários se, para um intervalo (s, s+h] a distribuição de X(s, s+ h) depende apenas de h (mas não de s). Assim, um PC possui in rementos esta ionários se X(s, s+ h) e X(r, r+ h) possuem a mesma distribuição para quaisquer s, r, h > 0. Neste aso, sem perda de generalidade, podemos fazer X(s, s+ h) = X(0, h) = N(h). 2.4 Exer í ios 2.1 Em ada onsulta, um pa iente é lassi� ado por seu médi o omo sadio ou doente. Seja X(t) a lassi� ação do pa iente no tempo t e onsidere o pro esso esto ásti o {X(t), t ∈ T }. (a) Qual é o espaço dos estados deste pro esso? (b) Des reva um onjunto dos índi es adequado para este pro esso nos asos de: (i) o pa iente vai ao médi o uma vez por ano; (ii) o pa iente vai ao médi o em um tempo aleatório om distribuição exponen ial. 2.2 (Questão alterada em: 26/10/2016 ) Seja {Xi, i = 0, 1, . . . , } um pro- esso esto ásti o onde X0 = 0 Xi+1 = Xi + Zi+1 onde Zi ∼ Bernoulli(1/2) e Zi é independente de Zj para qualquer i 6= j. 30 (a) Determine o espaço dos estados e o onjunto de índi es deste pro esso. (b) Mostre que {Xi, i = 0, 1 . . . , } é um pro esso de ontagem. ( ) Prove que Xi+1 não é independente de Xi (basta argumentar). (d) Qual é a distribuição de Xi? 2.3 (Questão alterada em: 26/10/2016 ) Seja {Xi, i = 1, 2, . . . , } um pro- esso esto ásti o onde X0 = c Xi+1 = Xi + εi+1, onde c é uma onstante arbitrária, εi ∼ Normal(0, 1) de εi é independente de εj para todo i 6= j. (a) Determine o espaço dos estados e o onjunto de índi es deste pro esso. (b) Mostre que {Xi, i = 0, 1, . . .} não é um pro esso de ontagem. ( ) Mostre que Xk = c+ k∑ i=1 εi. 31 32 Capítulo 3 Pro esso de Poisson 3.1 Introdução O número de a identes aéreos por ano em erto país, de sui ídios por ano em erta universidade e de novos asos de hanseníase em determinada idade pos- suem uma ara terísti a omum: todos são pro essos de ontagem. Neste apí- tulo é apresentado um pro esso de ontagem, denominado Pro esso de Poisson, de�nido formalmente a seguir. De�nição 3.1 (Pro esso de Poisson). Um pro esso de ontagem {N(t), t ≥ 0} é um pro esso de Poisson (PP) se: 1. N(0) = 0 2. O pro esso possui in rementos independentes 3. Para qualquer intervalo de omprimento t, teremos P (N(t) = n) = e−λt(λt)n n! (3.1) O parâmetro λ é denominado taxa do pro esso. Portanto, o PP é um pro esso de ontagem om in rementos independentes e esta ionários, uja distribuição é Poisson. Da de�nição a ima, tem-se que 33 1. E(N(t)) = λt 2. V ar(N(t)) = λt 3. Para s < t, Cov(N(s), N(t)) = Cov(N(s), N(t − s) +N(s)) = Cov(N(s), N(s)) + Cov(N(s), N(t − s)) = V ar(N(s)) = λs 3.1 Exemplo (Terremotos no Estreito de Messina) A tabela abaixo apre- senta a sequên ia históri a de terremotos em uma região ao redor do Estreito de Messina, que divide a ilha da Si ília, na Itália ontinental. A tabela está limitada aos terremotos de magnitude 4,5 ou superior, durante o período de 1700-1980. Os dados estão em frações de ano (ou seja, a parte fra ionária vezes 365 dá o dia da o orrên ia dentro do ano). 1702.13 1707.17 1712.54 1716.14 1717.30 1720.69 1720.70 1729.49 1736.62 1739.36 1743.18 1743.93 1767.53 1770.00 1783.09 1783.10 1786.18 1789.10 1791.78 1792.36 1805.52 1806.27 1821.58 1823.17 1824.94 1828.19 1831.08 1832.18 1835.78 1836.31 1836.34 1852.06 1852.07 1854.11 1869.91 1870.76 1873.69 1876.70 1877.38 1877.39 1883.30 1886.10 1886.18 1886.26 1887.92 1889.41 1894.14 1894.88 1902.30 1905.69 1907.81 1908.94 1908.99 1913.49 1917.45 1932.39 1940.32 1947.571950.27 1967.68 1973.28 1975.04 1975.61 1976.26 1977.97 1978.19 1978.29 1980.94 Estes dados estão disponíveis em: "https://www.dropbox. om/s/zqxkrm2jr5yz5ru/terremotos_messina.txt?dl=0". Neste exemplo, estes dados foram arregados no R om o nome de terr. Note que os terremotos omeçaram a ser ontados a partir de 1700, sendo este nosso instante ini ial. Fazendo 34 dados <- terr[,1℄ - 1700 temos o tempo de ada o orrên ia a partir do tempo ini ial da ontagem. Neste exemplo, dados representa os tempos de ada o orrên ia observados. Houveram 68 terremotos (length(dados)), sendo que o último o orreu 280,94 anos após o iní io da ontagem (dados[68℄). Com os omandos dot hart(dados) axis(2, at = 1:68) title( xlab = "Tempo (em anos)", ylab = "Contagem") podemos riar o seguinte grá� o do pro esso de ontagem: 0 50 100 150 200 250 1 4 7 11 15 19 23 27 31 35 39 43 47 51 55 59 63 67 Tempo (em anos) Co nt ag em Seja n(t) o número de terremotos observados até o tempo t. O grá� o a ima mostra os pares (t, n(t)). Note o omportamento aproximadamente linear. Lem- bremos que em um PP, E(N(t)) = λt. Portanto, em média, existe uma relação linear entre N(t) e t. Voltaremos neste exemplo posteriormente para veri� ar se ele pode ser modelado por um PP. � 3.2 Tempos de Chegada e de Espera Última orreção: 26/10/2016 35 3.2.1 De�nições e propriedades Considere que n o orrên ias foram registradas. Seja Tn o tempo trans orrido entre a hegada da (n − 1)-ésima e da n-ésima o orrên ia. Tal tempo é deno- minado tempo de hegada (da o orrên ia n) e seu omportamento pode revelar ara terísti as importantes sobre o pro esso. Em espe ial, se {N(t), t > 0} é um PP, temos a seguinte proposição. Proposição 3.2. Consideremos um pro esso de Poisson e sejam T1, T2, T3, . . . os tempos de hegada dos eventos 1, 2, 3. . .. Então: 1. Os tempos de hegada são identi amente distribuídos, om Ti ∼ Exponen ial(λ), i.é, fTi(t) = λe −λt, λ > 0, t > 0. onde λ é a taxa do pro esso de Poisson. 2. Os tempos de hegada são independentes. Demonstração. Temos: 1. Come emos om o primeiro tempo de hegada. Notemos que T1 > t impli a que a primeira hegada só o orreu após o tempo t. Isto quer dizer que não o orreram hegadas antes de t. Disto, P (T1 > t) = P (N(t) = 0) = e −λt. Como FT1(t) = 1− P (T1 > t) = 1− e−λt, temos que fT1(t) = d dt FT1(t) = λe −λt. Portanto, T1 ∼ Exponen ial(λ). Agora, suponha que Tn−1 ∼ Exponen ial(λ) (o que é verdade para n = 1). Observe a �gura abaixo. bb 0 s t+ s b Linha do Tempo N(t+s)−N(t)=0︷ ︸︸ ︷N(s)=n−1︷ ︸︸ ︷ 36 Considere o tempo de hegada da n-ésima observação é maior que t uni- dades de tempo. Se sabemos que o tempo da (n − 1)-ésima o orrên ia foi s, sabemos também que a n-ésima o orrên ia o orreu depois do tempo t + s. Logo, não houveram o orrên ias no intervalo (s, t + s], fazendo om que N(t + s)−N(s) = 0. Mas, omo o pro esso possui in rementos esta ionários, temos que N(t+ s)−N(s) ∼ N(t)−N(0) ≡ N(t). Assim, P (Tn > t) = ∫ ∞ 0 P (Tn > t|Tn−1 = s)λe−λsds = ∫ ∞ 0 P (N(t+ s)−N(s) = 0)λe−λsds, ( in rementos esta ionários) = ∫ ∞ 0 P (N(t)−N(0) = 0)λe−λsds = e−λt logo, por indução teremos que Tn ∼ Exponen ial(λ) para todo n ≤ 1. 2. Como os in rementos são independentes, os tempos entre as o orrên ias também devem ser independentes. Podemos também de�nir o tempo trans orrido até a n-ésima hegada. De�nição 3.3 (Tempo de Espera). Para um pro esso de Poisson, seja Sn = n∑ i=1 Ti. Denominamos Sn omo o tempo de espera até o n-ésimo evento. Para motivar a de�nição, se Sn > t, então o n-ésimo evento não o orreu até o tempo t. A diferença entre Tn e Sn deve � ar lara: Tn é o tempo trans orrido entre as observações n e n− 1, enquanto que Sn é o tempo trans orrido, desde o omeço do pro esso, até a o orrên ia do n-ésimo evento. Como Ti ∼ Exponen ial(λ), e Ti e Tj são independentes para todo i 6= j, teremos que Sn ∼ Gama(n, λ). 3.2 Exemplo (Imigrantes). Suponha que pessoas imigram para determinada área segundo um pro esso de Poisson om taxa uma por dia. 1. Qual o tempo esperado até a hegada do 10 o imigrante? 2. Qual a probabilidade de que o tempo gasto entre a hegada do 10 o e do 11 o imigrante ex eda dois dias? � Solução: 37 1. O tempo esperado até a dé ima hegada é a esperança do 10 o tempo de espera, ou seja E(S10) = 10 λ = 10 2. O tempo entre hegadas possui distribuição exponen ial om média 1. Assim P (T11 > 2) = e −2×1 3.3 Exemplo (Terremotos no Estreito de Messina - ontinuação) A va- riável dados mostra os tempos de espera de ada terremoto. O primeiro tempo de hegada é dados[1℄ e os demais devem ser al ulados através da diferença dados[i+1℄-dados[i℄, para i = 1, . . . , 67. Estas diferenças su essivas pode ser realizada utilizando o omando diff. Deste modo, os tempos de hegada são: hegada <- ( dados[1℄, diff( dados) ) Vamos estimar a distribuição dos tempos de hegada de duas formas: • utilizando a função de distribuição empíri a ( onhe ida também omo função de distribuição de frequên ias a umuladas ): F_empiri a <- e df( hegada) • assumindo que os tempos de hegada possuem distribuição exponen ial. Neste aso, o estimador não enviesado para λ será λˆ = n− 1∑n i=1 ti , onde os ti são os tempos de hegada observados e n = 68 é o número de terremotos registrado. No R, λˆ será al ulado por lambda_ hapeu <- 67 / sum( hegada ) Neste exemplo, λˆ = 0, 2384. Se os tempos de hegada tiverem distribuição exponen ial, então o grá� o da função de distribuição empíri a deveria estar próximo do grá� o da função de distribuição exponen ial om taxa 0,2384. Com os omandos plot( F_empiri a, xlab = "Tempo de hegada" , ol = "brown", main = "") urve( pexp(x, .2384 ), add = TRUE, lwd = 3, ol = "seagreen") legend("bottomright", ("Empíri a","Exponen ial"), ol = ("brown","seagreen"), lwd = 3, bty = "n") 38 geramos o seguinte grá� o, mostrando que o modelo exponen ial pare er ser adequado aos tempos de hegada observados, dando evidên ias de que o número de terremotos ao longo do tempo podem ser expli ados segundo um pro esso de Poisson om taxa 0,2384 terremotos ao ano. 0 5 10 15 20 25 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 Tempo de chegada Fn (x) Empírica Exponencial Disto, podemos al ular algumas estatísti as 1 : • Probabilidade de um ano sem terremoto: P (T > 1) = e−0,2384×1 = 0, 7878. (pexp(1,.2384,lower.tail = FALSE)) • Probabilidade de o orrerem mais de um terremoto em um ano: P (N(1) > 1) = 0, 0242 (ppois(1,.2384,lower.tail = FALSE)) • Probabilidade de o orreremmais de um terremoto em dois anos: P (N(2) > 1) = 0, 083 (ppois(1,.2384 * 2,lower.tail = FALSE)) � 1 Estas probabilidades são estatísti as, uma vez que são funções da amostra, pois dependem de λˆ. 39 3.2.2 Distribuição ondi ional dos tempos de hegada Ini ialmente, onsidere que o primeiro evento o orreu no intervalo (0, t). Gos- taríamos de saber qual a probabilidade deste evento ter o orrido no tempo s, om s < t. Notemos que o evento {S1 < s,N(t) = 1} é equivalente ao evento no qual o orre uma hegada no intervalo (0, s) e nenhuma hegada no intervalo [s, t), onforme ilustra a �gura abaixo, na qual × indi a o primeiro tempo de espera: × bb 0 s t b Linha do Tempo N(t)−N(s)=0︷ ︸︸ ︷N(s)=1︷ ︸︸ ︷ Disto, teremos P (S1 < s|N(t) = 1) = P (S1 < s,N(t) = 1) P (N(t) = 1) = P (N(s) = 1, N(t)−N(s) = 0) P (N(t) = 1) = P (N(s) = 1)P (N(t)−N(s)= 0) P (N(t) = 1) = e−λs(λs)1 1! × e −λ(t−s)(λ(t− s))0 0! / e−λt(λt)1 1! eλs(λs)e−λ(t−s) e−λtλt = s t . Assim, fS1|N(t)=1(s) = d ds P (S1 < s|N(t) = 1) = d ds (s t ) = 1 t , e (S1|N(t) = 1) ∼ Uniforme(0, t). Intuitivamente, se sabemos que houve ape- nas uma o orrên ia no intervalo (0, t), devido aos in rementos esta ionários e independentes esta hegada seria um ponto es olhido ao a aso dentro deste in- tervalo. Agora dis utiremos a distribuição dos tempos de espera S = {S1, . . . , Sn} ondi ionadas ao evento N(t) = n. Seja hi, i = 1, . . . , n um valor positivo pequeno o su� iente para garantir que si−1 < si − hi < Si < si. Neste aso, para garantir que N(t) = n, ada intervalo (si − hi, si) terá exatamente uma o orrên ia e os intervalos (0, s1 − h1), (sn, t) e (si−1, si − hi) para i =, 2 . . . , n não terão o orrên ias. Portanto, dado N(t): 40 • Probabilidade de exatamente uma o orrên ia em ada intervalo, i = 1, . . . , n: p1 = P (N(si)−N(si − hi) = 1, i = 1, . . . , n) = P (N(hi) = 1, i = 1, . . . , n) = n∏ i=1 e−λhi(λhi) = n∏ i=1 e−λhi(λhi) = λne−λ ∑n i=1 hi n∏ i=1 hi • Probabilidade de nenhuma o orrên ia nos demais intervalos: p2 = P (N(s1 − h1) = 0, N(t)−N(sn) = 0, {N(si − hi)−N(si−1) = 0, i = 2, . . . , n}) = e−λ(s1−h) × e−λ(t−sn) × n∏ i=2 e−λ(si−si−1−hi) = e−λ(s1−h1) × e−λ(t−sn) × e−λ(sn−s1− ∑n i=2 hi) = e−λteλ ∑n i=1 hi Logo, P (si − hi < Si < si, i = 1, . . . , n|N(t) = n) = p1p2 P (N(t) = n) = λne−λt n∏ i=1 hi / e−λt(λt)n n! = tn n! n∏ i=1 hi. Como a densidade de f(s1, . . . , sn|N(t) = n) pode ser obtida derivando a função de distribuição, e omo ∂n ∂s F (s1, . . . , sn|N(t) = n) = lim h→0 P (si − hi < Si < si, i = 1, . . . , n|N(t) = n)∏n i=1 hi = lim h→0 tn n! n∏ i=1 hi / n∏ i=1 hi = tn n! teremos que f(s1, . . . , sn|N(t) = n) = t n n! , 0 < s1 < · · · < sn < t, 41 ou seja, S|N(t) = n tem a mesma distribuição que as estatísti as de ordem de uma amostra de variáveis aleatórias independentes om distribuição Uniforme(0, t) de tamanho n f(s1, . . . , sn|N(t) = n) = t n n! , 0 < s1 < · · · < sn < t. 3.4 Exemplo (Número de indivíduos no sistema) Indivíduos entram em um sistema segundo um PP om taxa λ. Seja Yi tempo que o indivíduo i per- mane e no sistema. Considere que os tempos Y1, Y2 . . . , são variáveis aleatórias independentes e identi amente distribuídas e que são independentes dos tempos de hegada. Seja N(t) o número de indivíduos que entraram no sistema até o tempo t. Considerando que Si é o tempo de espera do i-ésimo indivíduo. Este indivíduo abandona o sistema no tempo Si + Yi. Seja X(t) o número de indivíduos que estão no sistema no tempo t. Podemos riar a variável Zi = 1, Si + Yi ≥ t 0, Si + Yi < t Note que Zi(t) = 1 é equivalente a dizer que o i-ésimo indivíduo ainda está no sistema no tempo t. No diagrama abaixo tempo 5 hegadas. As linhas horizontais mais grossas mostram o tempo que ada indivíduo permane eu no sistema (Si + Yi). Neste diagrama, apenas apenas 3 indivíduos estavam no sistema no tempo t. 42 × s1 × s2 × s3 × s4 × s5 b 0 t b Linha do Tempo b b b � Note que X(t) = N(t)∑ i=1 Zi. Portanto, P (X(t) = x) = ∞∑ n=0 P (X(t) = x|N(t) = n)P (N(t) = n) = ∞∑ n=0 P N(t)∑ i=1 Zi = x|N(t) = n P (N(t) = n) = ∞∑ n=0 P ( n∑ i=1 Zi = x|N(t) = n ) P (N(t) = n). Devemos então des obrir a distribuição de Zi|N(t). Seja U1, . . . , Un uma amos- tra de variáveis independentes om distribuição Uniforme(0, t) e sejam U(1), . . . , U(n) as respe tivas estatísti as de ordem. Então, 43 P N(t)∑ i=1 Zi = z|N(t) = n = P N(t)∑ i=1 I(Si + Yi ≥ t) = z|N(t) = n = P ( n∑ i=1 I(Si + Yi ≥ t) = z|N(t) = n ) = P ( n∑ i=1 I(U(i) + Yi ≥ t) = z ) , mas, omo ∑n i=1 U(i) = ∑n i=1 Ui, teremos P N(t)∑ i=1 Zi = z|N(t) = n = P ( n∑ i=1 I(Ui + Yi ≥ t) = z ) . Ora, é imediato que I(Ui + Yi ≥ t) ∼ Bernoulli(p(t)), onde p(t) = P (I(Ui + Yi ≥ t) = 1) = P (Ui + Yi ≥ t) = ∫ t 0 P (Ui + Yi ≥ t|Ui = y)fU (u)du = ∫ t 0 P (u+ Yi ≥ t|Ui = u)fU (u)du, e, omo Ui é independente de Yi, p(t) = ∫ t 0 P (u+ Yi ≥ t) fU (u)du = ∫ t 0 P (Yi ≥ t− u) fU (u)du = ∫ t 0 P (Yi ≥ t− u) 1 t du = ∫ t 0 P (Yi ≥ y) 1 t dy = ∫ t 0 [1− FY (y)]1 t dy 44 Como as variáveis Ui e Yi são independentes e identi amente distribuídas, temos que N(t)∑ i=1 Zi|N(t) ∼ Binomial (N(t), p(t)) . Podemos �nalmente on luir a distribuição de X(t): P (X(t) = x) = ∞∑ n=0 P ( n∑ i=1 Zi = x|N(t) = n ) P (N(t) = n) = ∞∑ n=x P ( n∑ i=1 Zi = x|N(t) = n ) P (N(t) = n) = ∞∑ n=x ( n x ) p(t)x [1− p(t)]n−x e −λt(λt)n n! = ∞∑ n=x n! x!(n− x)!p(t) x [1− p(t)]n−x e −λt(λt)n n! = e−λtp(t)x (1− p(t))xx! ∞∑ n=x (λt[1 − p(t)])n (n− x)! = e−λtp(t)x (1− p(t))xx! ∞∑ w=0 (λt[1 − p(t)])w+x w! = e−λtp(t)x (1− p(t))xx! [λt(1− p(t))] x ∞∑ w=0 (λt(1− p(t)))w w! = e−λtp(t)x x! (λt)x ∞∑ w=0 (λt(1 − p(t)))w w! = e−λtp(t)x x! (λt)xeλt(1−p(t)) = e−λtp(t)[λtp(t)]x x! 3.5 Exemplo Pessoas hegam a um grande supermer ado segundo um PP om taxa 40 por hora. O tempo que elas permane em no supermer ado possui distri- buição Exponen ial om média 0,75 horas. Considerando que o supermer ado abre as 8h, qual é o número esperado de lientes às 12h? Solução: Seja N(t) o número de lientes que entraram no supermer ado até o tempo t. Então, N(t) ∼ Poisson(λt). Seja Yi o tempo que o i-ésimo liente leva para deixar o supermer ado. Como E(Yi) = 1 α = 0, 75, 45 teremos que Yi ∼ Exponen ial(1/0, 75) ≡ Exponen ial(4/3). Como FY (y) = 1− e−αy = 1− e− 43 t, teremos que p(t) = 1 t ∫ t 0 [1− FY (y)]dy = 1 t ∫ t 0 e− 4 3ydy = 3 4t [1− e− 43 t]. Deste modo, o número de liente no supermer ado para qualquer tempo é X(t) ∼ Poisson (λtp(t)) ≡ Poisson ( 30[1− e− 43 t] ) . Considerando que o tempo t = 0 é equivalente as 8h, teremos que 12h é equiva- lente a t = 4. Assim, E(X(4)) = 30[1− e− 43 4] = 29, 85516. Portanto, são esperados aproximadamente 30 lientes as 12h dentro do super- mer ado. � 3.3 Soma de Pro essos de Poisson Desejamos estudar o omportamento da o orrên ia de óbitos por tuber ulose no Amazonas. Come emos onsiderando apenas os dois pro essos de ontagem a seguir: • N1(t) : número de óbitos por tuber ulose respiratória om on�rmação até tempo t; • N2(t) : número de outros tipos de óbitos por tuber ulose até tempo t; Após observar os dados, poderíamos veri� ar se ada um destes pro essos pode ser modelado omo um PP. Entretanto, existe outro pro esso de ontagem envolvido: o total de óbitos por tuber ulose até o tempo t. Denotando este pro esso por N(t), podemos ara terizá-lo a partir das seguintes proposições. Proposição 3.4. Considere que os existem dois tipos de eventos, 1 e 2, que o orrem independentemente e sejam p e 1− p suas respe tivas probabilidades de o orrên ia. Sejam N1(t) e N2(t) seus respe tivos pro essos de ontagem. Então, se N(t) = N1(t) +N2(t) for um PP om taxa λ, teremos: 46 1. N1(t) e N2(t) também serão um PP om taxas λp e λ(1 − p) respe tiva- mente, onde p é a probabilidade de uma o orrên ia ser do tipo 1. 2. N1(t) e N2(t) são independentes. Demonstração. Para quaisquer variáveis aleatórias dis retas X e Y , temosque P (X = x) = ∞∑ y=−∞ P (X = x|Y = y)P (Y = y), e o resultado ontinua verdadeiro se X for um vetor de variáveis aleatórias dis- retas. Fazendo, na expressão a ima, X = (N1(t), N2(t)) e Y = N(t), teremos P (N1(t) = n,N2(t) = m) = ∞∑ k=0 P (N1(t) = n,N2(t) = m|N(t) = k)P (N(t) = k), onde a soma omeça em zero porque a probabilidade deN(t) < 0 é nula. Embora a soma seja feita para todo k, as probabilidades só serão diferentes de zero se N(t) = n+m, uma vez que N1(t) = n e N2(t) = m. Portanto, P (N1(t) = n,N2(t) = m) = P (N1(t) = n,N2(t) = m|N(t) = n+m) × P (N(t) = n+m) = P (N1(t) = n,N(t)−N1(t) = m|N(t) = n+m) × P (N(t) = n+m) Dado que N(t) = n + m, os eventos {N1(t) = n,N(t) − N1(t) = m} e {N1(t) = n} são equivalentes. Deste modo P (N1(t) = n,N2(t) = m|N(t) = n+m) = P (N1(t) = n|N(t) = n+m). A segunda probabilidade a ima está rela ionada om o número de o orrên- ias do evento do tipo 1 até o tempo t, onsiderando que o número total de o orrên ias (sem des riminar os eventos) é onhe ido. Considerando que a pro- babilidade de o orrên ia dos eventos do tipo 1 é p e que as o orrên ias são independentes, teremos que N1(t)|N(t) ∼ Binomial (N(t), p) . Assim, P (N1(t) = n,N2(t) = m) = P (N1(t) = n|N(t) = n+m)P (N(t) = n+m) = ( n+m n ) pn(1− p)m e −λt(λt)n+m (n+m)! = e−λpt(λpt)n n! × e −λ(1−p)t(λ(1 − p)t)m m! (3.2) 47 Como a distribuição fatorou em duas distribuições Poisson, temos que N1(t) ∼ Poisson(λpt), N2(t) ∼ Poisson(λ(1 − p)t) e os pro essos são independentes. Portanto, podemos veri� ar se o total dos eventos possui distribuição Pois- son. Se isto for verdadeiro, será imediado que ada um dos dois pro essos de ontagem também serão PP. 3.6 Exemplo (Morte por Tuber ulose) A proposição a ima pode ser generalizada: Proposição 3.5. Consideremos k eventos distintos e sejam N1(t), . . . , Nk(t) seus respe tivos pro essos de ontagem. Então, se N(t) = N1(t) + · · · + Nk(t) for um PP, teremos que Ni(t), i = 1, . . . , k também será um PP om taxa λpi, om pi > 0 e ∑k i=1 pi = 1. Temos que pi será a probabilidade de que o evento do tipo i a onteça. Além disso, teremos que os pro essos Ni(t) serão independentes. 3.7 Exemplo (Casos de Hanseníase em Manaus) A Tabela 3.1 mostra o número de asos de hanseníase registrados em 2007 e 2008 na idade de Manaus por região. Podemos de�nir NN(t), NS(t), NL(t) e NO(t) omo sendo o número de asos de hanseníase observados até o instante t nas regiões norte, sul, leste e oeste, respe tivamente. Seja N(t) o total de asos de hanseníase registrados em Manaus entre 2007 e 2008. Realizamos um teste de Kolmogorov-Smirnov para testar se os in rementos do pro esso N(t), dados na oluna Total, pos- suem distribuição Poisson. O p-valor deste teste foi igual a 0,507, o que nos trás evidên ias de que N(t) ∼ Poisson(7, 375). Assumindo que esta hipótese é verda- deira, teremos pela Proposição 3.5 que os pro essos NN (t), NS(t), NL(t) e NO(t) também são pro essos de Poisson, om as seguintes taxas estimadas: 2(norte), 0,625(sul), 2,083(leste) e 2,667(oeste). Assim, a probabilidade de que um aso de hanseníase tomado ao a aso o orra em determinada região é: 0,271(norte), 0,084(sul), 0,282(leste) e 0,361(oeste). 3.4 Inferên ia para o Pro esso de Poisson Habitualmente, os dados de um PP são apresentados de duas formas: através do registro dos in rementos, ontados em intervalos disjuntos e geralmente de omprimentos iguais, ou através do registro dos tempos de hegada e/ou espera. 48 Mês Norte Sul Leste Oeste Total jan/07 0 1 1 3 5 fev/07 1 1 2 2 6 mar/07 6 1 3 2 12 abr/07 0 2 0 5 7 mai/07 3 1 1 4 9 jun/07 0 0 1 1 2 jul/07 2 1 2 2 7 ago/07 1 1 4 0 6 set/07 3 1 4 3 11 out/07 6 1 2 2 11 nov/07 8 0 4 2 14 dez/07 5 0 1 1 7 jan/08 1 0 2 2 5 fev/08 1 1 2 0 4 mar/08 4 0 3 1 8 abr/08 1 0 5 3 9 mai/08 3 0 4 5 12 jun/08 0 1 1 5 7 jul/08 0 1 3 4 8 ago/08 0 1 1 2 4 set/08 0 0 0 2 2 out/08 0 1 2 4 7 nov/08 3 0 0 3 6 dez/08 0 0 2 6 8 Total 48 15 50 64 177 Tabela 3.1: N o de asos mensais de hanseníase por região de Manaus em 2007 e 2008 49 3.4.1 Inferên ia para in rementos Em um estudo realizado em XXX, os autores levantaram eviden ias de que as morte por paradas ardía as seguem um pro esso de Poisson. Para veri� ar se esse omportamento também é válido para o estado do Amazonas, oletamos as informações sobre os óbitos no estado. A seguinte tabela mostra o número de óbitos por parada ardía a em ada mês dos anos de 2009 e 2010. Ano Jan Fev Mar Abr Mai Jun Jul Ago Set Out Nov Dez 2009 147 127 132 153 131 167 159 141 143 134 129 142 2010 158 153 141 152 141 131 186 153 141 154 141 214 Na tabela a ima, o número de observações em ada mês é um in remento do pro esso de ontagem {N(t), t > 0}, onde N(t) é o número de óbitos por parada ardía a registrados até o tempo t. Estimação para λ Seja X(s, t) o número de o orrên ias no intervalo (s, t]. É omum que os da- dos estejam representados em um tabela, identi� ando o intervalo e o número de o orrên ias de ada intervalo. Também é usual que estes intervalos sejam disjuntos e ontíguos. Com essas onsiderações, sejam (si, ti] uma sequên ia de intervalos disjuntos de omprimento hi = h, om i = 1, . . . , n. Consideremos então que, nos tempos t1, . . . , tk, foram registrados os valores N(t1), . . . , N(tk). Assim, temos a amostra de in rementos Yi = X(ti, ti−1),, i = 1, . . . , n, onde t0 = 0. Agora, seja yi o valor observado do i-ésimo in remento. Como os in rementos são independentes, teremos que P (N(t) = k) = P (Y1 = y1, . . . , Yn = yn) = n∏ i=1 e−λh(λh)yi yi! . A verossimilhança deste pro esso é L(λ) ∝ e−nhλλ ∑n i=1 yi . En ontraremos o EMV para λ. O logaritmo da função de verossimilhança será l(λ) = −nhλ+ log(λ) n∑ i=1 yi, (3.3) 50 e d dλ l(λ) = −nh+ 1 λ n∑ i=1 yi d2 dλ2 l(λ) = − 1 λ2 n∑ i=1 yi. Fazendo a primeira derivada de l(λ) igual a zero, teremos λˆ = ∑n i=1 Yi/nh = Y¯ /h. A derivada segunda apli ada em λ = λˆ é negativa, mostrando que λˆ é ponto de máximo. Portanto, o estimador de máxima verossimilhança para λ é λˆ. Teremos que E(λˆ) = 1 h E(Y1) = λ logo, λˆ é não viesado. Além disso, V ar(λˆ) = 1 h2 V ar(Y¯ ) = λ nh , (3.4) logo, o estimador é onsistente e seu erro padrão pode ser estimado por EˆP (λˆ) = √ λˆ nh . (3.5) Existem diversas estratégias para onstruir intervalos de on�ança para λ. Uma delas, seria utilizar a aproximação normal √ nh λˆ− λ√ λˆ ≈ Normal(0, 1) (de orrente do TCL). Com isso, um intervalo om on�ança aproximada de (1− α) para λ é dado por λˆ− z1−α/2 √ λˆ nh ; λˆ− zα/2 √ λˆ nh . Via de regra, a aproximação a ima é válida para λˆ > 20. No exemplo do número de óbitos por ataque ardía o, temos que todos os in rementos tem o mesmo omprimento (h = 1 mês). O valor estimado para λ é, λˆ = 148, 75. om um erro-padrão estimado de 2, 489. Um intervalo aproximado om on�- ança 95% para λ é [144, 66; 152, 85]. 51 Veri� ando se os dados seguem um pro esso de Poisson Lembremos que um pro esso de Poisson possui in rementos independentes e esta ionários, e que E[N(t)] = λt. Abaixo, seguem quatro grá� os que podem nos auxiliar a veri� ar se estas ondições estão satisfeitas. • Um diagrama de dispersão entre Y1, Y2, . . . , Yn−1 e Y2, Y3, . . . , Yn: se hou- ver qualquer tendên ia entre Yi e Yi−1 existem evidên ias para suspeitar- mos da hipótese de independên ia • Um diagrama de dispersão entre os índi es 1, 2, . . . , n e Y1, Y2 . . . , Yn: da- dos dispersos em tornode λˆ dão evidên ias de esta ionaridade. • Um diagrama de dispersão entre os índi es 1, 2, . . . , n eN(t1), N(t2) . . . , N(tn): um omportamento linear dá indí ios de que E[N(t)] = λt. • Um envelope de on�ança para a função de distribuição em onjunto om a função de distribuição de uma Poisson om taxa λˆ: se a distribuição da Poisson estiver dentro do envelope, existem evidên ias de os in rementos seguem uma distribuição Poisson om taxa λˆ. 52 130 140 150 160 170 180 14 0 16 0 18 0 20 0 Yi Y i + 1 Índice Y i 5 10 15 20 14 0 16 0 18 0 20 0 5 10 15 20 50 0 15 00 25 00 35 00 Índice N (t) 140 160 180 200 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 Envelope de Confiança sort(card) pp oi s(s ort (ca rd) , m ea n(c ard )) Testes de hipóteses Se os in rementos Y1, . . . , Yn são provenientes de um pro esso de Poisson, então eles devem ser independentes e esta ionários. 3.4.2 Inferên ias para T Sejam T1, . . . , Tn uma amostra dos tempos de hegadas de um pro esso de Pois- son om taxa λ. A função de verossimilhança para λ é dada por L(λ) = n∏ i=1 f(ti|λ) = λne−λ ∑n i=1 ti = λne−λSn 53 O logaritmo da verossimilhança será l(λ) = n log(λ)− λSn e sua primeira e segunda derivada é: d dλ = n λ − Sn d2 dλ2 = − n λ2 . Analisando as duas derivadas, vemos que λˆ = n/Sn é ponto de máximo e por- tanto é EMV. Pelo Exer í io 1.17, sabemos que Z = λλˆ ∼ GI(n, n). Assim, podemos al ular a e b tais que P (a < Z < b) = 1− α e riar o intervalo de on�ança( a λˆ , b λˆ ) . (3.6) 3.4.3 Sui ídios no MIT Quando o orre um sui ídio no MIT - Massa husetts Institute of Te hnology - diversas áreas da omunidade pedem uma açao da administração. Se os sui ídios foram provenientes de um pro esso aleatório, tais ações não deveriam ser da ompetên ia da administração, apesar de que programas para reduzir a taxa global de sui ídios no MIT devem sempre ser insentivados. Em (CHEW, et al.), os autores gostariam de saber se os sui ídios o orridos no MIT poderiam ser modelados segundo um pro esso de Poisson. Apesar do MIT não manter estatísti as sobre a saúde de seus estudantes e pessoal em geral, sui ídios são asos ex ep ionais e dados sobre estes puderam ser obtidos no O� e of the Dean for Students A�airs. Os autores pesquisaram os sui ídios o orridos entre os anos de 1964 e 1991. Alguns dados estavam in ompletos, uma vez que apenas o ano e o mês do sui ídio foram registrados. Para estes dados, os autores assumiram que o sui ídio o orreu no dia 15. As datas do históri o se sui ídios são mostradas na Tabela 3.4.3 A média do tempo de orrido entre os sui ídios foi de 308,3 dias. Supondo que os tempos são variáveis aleatórias independentes, realizamos o teste de Kolmogorov-Smirnov para veri� ar se os dados se ajustariam bem a distribuição exponen ial om taxa 10/3083. O p-valor para o teste foi de 0,2054 de modo que é razoável supor que os dados apresentam distribuição exponen ial, ou seja, o número de sui ídios no MIT é um pro esso de Poisson om taxa um sui ídio a ada 308 dias. A Figura 3.1 mostra a função de distribuição empíri a e a urva exponen ial om taxa 308. 54 Data Ti Data Ti Data Ti 10/6/1964 - 26/07/1974 428 20/10/1986 16 15/11/1964 158 27/07/1975 366 02/10/1987 347 17/10/1965 336 12/12/1975 138 03/10/1987 1 17/03/1966 151 02/02/1976 52 22/10/1987 19 04/06/1967 444 16/10/1977 622 08/04/1988 169 19/10/1969 868 03/04/1978 169 15/04/1988 7 15/07/1970 269 08/02/1983 1772 15/06/1988 61 19/03/1973 978 30/11/1983 295 15/06/1988 0 15/04/1973 27 21/06/1984 204 15/10/1990 852 15/05/1973 30 18/05/1986 696 15/06/1991 243 24/05/1973 9 04/10/1986 139 15/06/1991 0 Tabela 3.2: Data do sui ídio e o tempo trans orrido, em dias, entre os sui ídios 55 Figura 3.1: Linha heia: função de distribuição empíri a; Linha pontilhada: função de distribuição de uma exponen ial(308,3). 3.5 O Pro esso de Poisson Composto Clientes hegam em uma loja de onveniên ias segundo um pro esso de Poisson om taxa λ. Cada liente gasta uma quantidade Di de dinheiro, independente dos demais. Neste aso, podemos estar interessados em estudar a quantidade de dinheiro ganho pelo loja ao longo do tempo, ou seja, na variável Y (t) =∑N(t) i=1 Di. Este é um típi o exemplo de um pro esso de Poisson omposto. De�nição 3.6. Seja Y (t) = ∑N(t) i=1 Di, onde as variáveis aleatórias Dis são independentes e identi amente distribuídas e seja {N(t), t ≥ 0} um pro esso de Poisson. Então, pro esso esto ásti o {Y (t), t > 0} é denominado pro esso de Poisson omposto. Um modo de analisar o pro esso {Y (t), t ≥ 0} seria en ontrar a expressão 56 analíti a de sua distribuição, ou seja F (y(t)) = ∞∑ n=0 P (Y (t) ≤ y(t)|N(t) = n)P (N(t) = n) (3.7) = ∞∑ n=0 P (Y (t) ≤ y(t)|N(t) = n)e −λt(λt)n n! . (3.8) Em geral, esta distribuição não possui forma analíti a e métodos omputa ionais são ne essários para estimar a distribuição. Entretanto, apenas o onhe imento dos momentos de Y (t) podem ser úteis para realizar inferên ias sobre média, variân ia, assimetria e urtose. Podemos en ontrar a função geratriz de mo- mentos de Y (t), desde que exista a função geratriz de momentos de D. De fato, seja MD(r) a função geratriz de momentos de D. Então MY (t)(r) = E(e Y (t)r) = E[E(eY (t)r|N(t))] = E[E(er ∑N(t) i=1 Di |N(t))] = E[ N(t)∏ i=1 E(erDi |N(t))] = E[ N(t)∏ i=1 MDi(r)] = E[(MD(r)) N(t)] = ∞∑ n=0 (MDi(r)) n e −λt(λt)n n! = e−λt ∞∑ n=0 (MD(r)λt) n n! = eλt(MD(r)−1). Como usual, o k-ésimo momento é obtido al ulando (dk/drk)My(t)(r)|r=0. Por exemplo, o primeiro momento é al ulando fazendo E(Y (t)) = d dr MY (t)(r) ∣∣∣∣ r=0 = λteλt(MD(r)−1) d dr MD(r) ∣∣∣∣ r=0 = λtE(D), e o segundo momento será, E(Y (t)2) = d2 dr2 MY (t)(r) ∣∣∣∣ r=0 = eλt(MD(r)−1) ( λt d dr MD(r) )2 + λteλ(MD(r)−1) d2 dr2 MD(r) ∣∣∣∣ r=0 = (λtE(D))2 + λtE(D2). Assim, a variân ia será V ar(Y (t)) = λtE(D2) 3.8 Exemplo (Número de vítimas fatais em a identes aéreos) Consideremos os dados sobre o número de a identes aéreos no Brasil em 2008. Suponha que que este é um pro esso de Poisson. Sua taxa está estimada em 12,83. Seja Di o numero de vítimas fatais no i-ésimo a idente. A distribuição de frequên ias do número de a identes fatais por a idente é dado na Tabela 3.3. 57 N o de vítimas fatais 0 1 2 3 4 5 Frequên ia observada 127 9 12 1 3 1 Tabela 3.3: Distribuição de Frequên ias do número de vítimas fatais por a i- dente. Os valores estimados paraE(D) e V ar(D) são, respe tivamente, 0,38 e 1,136. Assim, teremos que Eˆ(Y (t)) = λˆEˆ(D)t = 4, 916t e ˆV ar(Y (t)) = λˆEˆ(D2)t = 14, 583t. Além disso, fazendo µ(t) = E(Y (t)) e σ2(t) = V ar(Y (t)), temos que um in- tervalo (aproximado) om (1 − α)% de on�ança aproximado para µ(t) é dado por (Y (t)± z1−α/2σˆ(t)) = (Y (t)± 3, 818z1−α/2 √ t) e, em parti ular, para o período em estudo, temos que Y (12) = 59 e um intervalo om 95% de on�ança para µ(t) é (33, 07; 84, 92). � 3.6 Generalizações do Pro esso de Poisson Podemos generalizar um PP relaxando alguma de suas hipóteses. Se assumimos que E(N(t)) = λ(t), onde a função λ(.) não é linear, teremos um pro esso de Poisson não-homogêneo. Se os in rementos do pro esso forem esta ionários, mas não forem independentes, teremos um pro esso de ponto esta ionário. Neste urso, apresentaremos apenas a primeira destas generalizações. 3.6.1 O Pro esso de Poisson Não-Homogêneo O pro
Compartilhar