Baixe o app para aproveitar ainda mais
Prévia do material em texto
Avaliac¸a˜o e Desempenho MAB-515, DCC/UFRJ Apostila Paulo Aguiar, DCC/IM 27 de julho de 2013 1 Conteu´do 1 Motivac¸a˜o 6 2 Revisa˜o de Ana´lise Combinato´ria 10 3 Alocac¸a˜o de bolas em urnas 14 4 Teoria de Probabilidade 15 5 Eventos igualmente prova´veis 18 6 Probabilidade Condicional 21 7 Problemas de Aplicac¸a˜o 23 8 Aplicac¸a˜o: Confiabilidade (”Reliability”) 26 9 Experimentos de Bernoulli 28 10 Varia´veis Aleato´rias 29 10.1 Varia´vel Discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 10.2 Func¸a˜o Distribuic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 10.3 Func¸o˜es Singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 10.4 Varia´vel Aleato´ria Cont´ınua . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 10.5 Propriedade da Falta de Memo´ria . . . . . . . . . . . . . . . . . . . . . . . . 35 10.6 Relac¸a˜o entre Distribuic¸a˜o Exponencial e Processo Poisson . . . . . . . . . . 36 10.7 Varia´vel Aleato´ria Mista . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 11 Func¸o˜es de Varia´veis Aleato´rias 39 11.1 Metodologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 11.2 Gerac¸a˜o de Distribuic¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 12 Distribuic¸a˜o Conjunta Cumulativa de V.As. 44 2 13 Propriedades de Varia´veis Aleato´rias 49 13.1 Me´dia, Esperanc¸a ou Valor Esperado . . . . . . . . . . . . . . . . . . . . . . 49 13.2 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 13.3 Esperanc¸a Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 13.4 Variaˆncia Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 14 Transformadas 60 14.1 Transformada de Laplace Unilateral para Func¸o˜es Cont´ınuas . . . . . . . . . 60 14.1.1 Analiticidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 14.1.2 Propriedades da Transformada de Laplace . . . . . . . . . . . . . . . 65 14.1.3 Alguns Pares de Transformadas de Laplace . . . . . . . . . . . . . . . 67 14.2 Transformada Z para Func¸o˜es Discretas . . . . . . . . . . . . . . . . . . . . . 68 14.2.1 Analiticidade da Transformada Z dentro do c´ırculo unita´rio . . . . . . 73 14.2.2 Propriedades da Transformada Z . . . . . . . . . . . . . . . . . . . . 74 14.2.3 Pares de Transformadas Z . . . . . . . . . . . . . . . . . . . . . . . . 75 15 Teoria de Filas 76 15.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 15.2 A fila M/M/1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 15.3 A fila M/G/1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 15.3.1 A Vida Residual do Servic¸o . . . . . . . . . . . . . . . . . . . . . . . 81 15.3.2 A Me´dia do Per´ıodo Ocupado . . . . . . . . . . . . . . . . . . . . . . 83 15.3.3 A Transformada de Laplace da pdf do Per´ıodo Ocupado . . . . . . . 84 15.3.4 A transformada Z do nu´mero presente na fila M/G/1 . . . . . . . . . 85 15.3.5 A transformada de Laplace do tempo gasto na fila M/G/1 FCFS . . . 87 15.4 A Fila M/G/1 com Fe´rias . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 15.4.1 O Per´ıodo Ocioso na Fila M/G/1 com fe´rias . . . . . . . . . . . . . . 89 15.4.2 O Per´ıodo Ocupado na Fila M/G/1 com Fe´rias . . . . . . . . . . . . 91 15.4.3 A transformada Z do nu´mero presente na fila M/G/1 com fe´rias . . . 91 3 15.4.4 A transformada de Laplace do tempo gasto na fila M/G/1 com fe´rias FCFS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 15.5 Fila M/G/1 com disciplina LCFS sem interrupc¸a˜o de servic¸o . . . . . . . . . 94 15.6 M/G/1 com Disciplina LCFS com interrupc¸a˜o de servic¸o e continuidade . . . 95 15.7 M/G/1 com disciplina LCFS com interrupc¸a˜o de servic¸o sem continuidade . 96 15.8 Sistema de Filas com Classes de Usua´rios . . . . . . . . . . . . . . . . . . . . 98 15.9 Lei da Conservac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 15.10Redes de Filas M/M/1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 16 Desigualdades e Limites 108 16.1 Normalizac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 16.2 Func¸a˜o de Gauss ou Distribuic¸a˜o Normal . . . . . . . . . . . . . . . . . . . . 110 16.3 Teorema do Limite Central . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 16.4 Aproximando Distribuic¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 16.5 Percentil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 16.6 Estimadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 16.6.1 Estimando a Me´dia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 16.6.2 Estimando a Variaˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . 115 16.7 Intervalo de Confianc¸a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 16.7.1 Intervalo de Confianc¸a para a Me´dia de uma Populac¸a˜o com Variaˆncia Desconhecida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 16.7.2 Intervalo de Confianc¸a para a Me´dia de uma Populac¸a˜o com Variaˆncia Conhecida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 16.7.3 Distribuic¸a˜o χ2 (chi-square) . . . . . . . . . . . . . . . . . . . . . . . 118 16.7.4 Intervalo de Confianc¸a para a Variaˆncia de uma Populac¸a˜o Normal com Me´dia Desconhecida . . . . . . . . . . . . . . . . . . . . . . . . . 118 16.7.5 Intervalos Parciais de Confianc¸a . . . . . . . . . . . . . . . . . . . . 120 16.7.6 Intervalo de Confianc¸a para Proporc¸o˜es . . . . . . . . . . . . . . . . 121 16.7.7 Comparac¸a˜o de Alternativas . . . . . . . . . . . . . . . . . . . . . . 123 17 Simulac¸a˜o 125 4 17.1 Gerac¸a˜o de Nu´meros (Pseudo) Aleato´rios . . . . . . . . . . . . . . . . . . . . 125 17.2 Simulac¸a˜o de M/M/1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 17.3 Medidas de Desempenho . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 17.4 Ca´lculo das Estat´ısticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 17.5 Depurac¸a˜o do Modelo Simulado . . . . . . . . . . . . . . . . . . . . . . . . . 131 17.6 Me´todo de Ana´lise de Resultado . . . . . . . . . . . . . . . . . . . . . . . . . 132 17.7 Da Escolha das Sementes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 18 Cadeia de Markov em Tempo Discreto 135 18.1 Classificac¸a˜o dos Estados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 18.2 Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 18.3 Tempo me´dio para ir de um estado a outro . . . . . . . . . . . . . . . . . . . 142 18.4 Espac¸o de Estados Infinito . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 19 Cadeia de Markov em Tempo Cont´ınuo 150 19.1 CMTC Homogeˆnea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 19.2 Processo Nascimento e Morte (Birth-Death Processes) . . . . . . . . . . . . . 153 19.3 Processo de Nascimento Puro com taxa constante . . . . . . . . . . . . . . . 156 19.4 Soluc¸a˜o de CMTC em Equil´ıbrio . . . . . . . . . . . . . . . . . . . . . . . . 157 19.5 Tempo me´dio entre retornos a um estado . . . . . . . . . . . . . . . . . . . . 158 19.6 Tempo me´dio para ir de um estado a outro . . . . . . . . . . . . . . . . . . . 160 5 1 Motivac¸a˜o Experimento 1: Duas pessoas, A e B, lanc¸am, a cada vez, uma moeda ao ar. Ganha o jogo quem tira CARA primeiro. Suponhamos que A inicia o jogo. Assuma: • Probabilidade de dar CARA = P{CARA} = p, 0 < p < 1 • Probabilidadede dar COROA = P{COROA} = 1− p Pergunta: Seria razoa´vel ter p = 1 ou p = 0? O que significaria? Queremos obter: P{ pessoa A ganhar o jogo } = PA = P{ quem comec¸a ganha} = Pinicia Soluc¸a˜o pelo me´todo da enumerac¸a˜o de todas as possibilidades: Evento Probabilidade Explicac¸a˜o A ganha na jogada 1 p A ganha na jogada 3 (1− p)2p A perde, B perde e A ganha A ganha na jogada 5 (1− p)4p A ganha na jogada 7 (1− p)6p · · · · · · PA = Pinicia ∑∞ n=0(1− p)2np = 1/(2− p) Recordac¸a˜o: Se´rie Geome´trica ∞∑ n=0 qn = 1 + q + q2 + · · · = 1 + q(1 + q + q2 + · · · ) = 1 + q ∞∑ n=0 qn e enta˜o ∑∞ n=0 q n = 1/(1− q). OBS.: ∑∞ n=0 q n tem que convergir e portanto 0 < q < 1. Em geral, an = a0q n−1 e ∑∞ n=0 an = a0 1−q . Tambe´m, Sn = ∑n i=1 ai = a0−anq 1−q , onde an = aoq n−1. 0chap1.tex, 07/09/09 6 Soluc¸a˜o recursiva: Se A na˜o ganhar na primeira jogada, a partir da segunda jogada seria como se B estivesse iniciando o jogo naquele momento e a probabilidade de B ganhar seria igual a Pinicia = PA. Vamos montar o pensamento recursivo, condicionando na ocorreˆncia do resultado da primeira jogada. A te´cnica de condicionamento e´ muito importante na soluc¸a˜o de problemas complexos. Podemos enta˜o escrever: PA = P{A ganhar e deu cara na jogada 1} + P{A ganhar e deu coroa na jogada 1} = P{ A ganhar | deu cara na jogada 1}× P{deu cara na jogada 1} + P{ A ganhar | deu coroa na jogada 1} × P{deu coroa na jogada 1} = 1× p+ (1− p)× P{ B na˜o ganha o jogo a partir da jogada 2} = p+ (1− p)(1−P{B ganha o jogo a partir da jogada 2}) = p+ (1− p)(1− Pinicia) = p+ (1− p)(1− PA), e enta˜o, PA = 1/(2− p) Conceito: probabilisticamente o jogo se repete apo´s o resultado de uma coroa, e tudo acontece como se o pro´ximo jogador estivesse iniciando o jogo novamente. * Experimento 2: lance uma moeda treˆs vezes. Seja X o nu´mero de caras obtido e Y o nu´mero de coroas obtido. Eventos ba´sicos: {coroa,cara} Espac¸o de amostragem do experimento : {(cara,cara,cara), (cara,cara,coroa), · · · , (coroa,coroa,coroa)} Total de amostras = 23 = 8. Suponha uma moeda honesta, P{cara} = P{coroa} = 1/2. espac¸o amostral prob X Y evento X < Y jogada 1 jogada 2 jogada 3 cara cara cara 1/8 3 0 cara cara coroa 1/8 2 1 cara coroa cara 1/8 2 1 cara coroa coroa 1/8 1 2 x coroa cara cara 1/8 2 1 coroa cara coroa 1/8 1 2 x coroa coroa cara 1/8 1 2 x coroa coroa coroa 1/8 0 3 x Comprove que: P{Y = 0} = 1/8, P{Y = 1} = 3/8, P{Y = 2} = 3/8, P{Y = 3} = 1/8. Vamos analisar o significado do condicionamento. Vamos calcular P{Y = n|X < Y }, para os valores poss´ıveis de n. Pela tabela acima, os eventos que garantem X < Y esta˜o 7 Fila de requisic¸o˜es Mo´dulos de Memo´ria ------+----+-----+----+---- | rn+1 | rn | ... | r2 | r1 | --- ------+----+-----+----+---- -->| 0 |-------> | | | --- / --- | | ---> | S |-- --- | --------> | C |----->| 1 |-------> | . | A | --- | . | N |-- ... | . | N | \ --- -------------------> | E | -->|n-1| | R | --- --- Figura 1 - Arquitetura da Memo´ria marcados com x. Observe que dos 8 eventos poss´ıveis, apenas 4 satisfazem a condic¸a˜o X < Y . Isto significa que o espac¸o amostral ficou reduzido a 4 amostras, igualmente prova´veis. Dentro deste novo espac¸o amostral, cada uma destas amostras tem probabilidade 1/4. P{Y = n|X < Y } = 0 , n=0 = 0 , n=1 = 3/4 , n=2 = 1/4 , n=3 Observe que P{Y = n|Y > 2} = { 0 n = 0, 1, 2 1 n = 3 . Neste caso so´ um ponto amostral ocorre e nele Y = 3. * Aplicac¸a˜o: avaliac¸a˜o de desempenho de memo´rias entrelac¸adas Seja considerada a arquitetura de memo´ria mostrada na Figura 1. < enderec¸o de memo´ria > = < # do mo´dulo >< palavra > As requisic¸o˜es ri ∈ {0, 1, · · · , n− 1}. A fila de requisic¸o˜es e´ analisada no ciclo anterior. Mo´dulos sa˜o alocados ate´ que a requisic¸a˜o a um mo´dulo ja´ ocupado ocorra. Um ma´ximo de n requisic¸o˜es e´ analisado por vez. Seja k = nu´mero de mo´dulos alocados por ciclo, com pmf ( probability mass function - func¸a˜o de massa de probabilidade, pois a distribuic¸a˜o e´ discreta) P (k), k = 1, 2, · · · , n. 8 Bn = ∑n k=1 kP (k) △ = banda de passagem me´dia da memo´ria, B − n ≤ n. M ciclos de processador por ciclo de memo´ria tal que M ≤ n. Suposic¸a˜o: P (ri = j) = 1/n, ∀j. Os ri sa˜o i.i.d. (independentes e identicamente distribu´ıdos). Forma de escolher Possibilidades 2a. req. diferente da 1a. n−1 n 3a. 6= 2a. 6= 1a. n−2 n 4a. 6= 3a. 6= 2a. 6= 1a. n−3 n ... ... k 6= = anteriores n−k+1 n k + 1 = um dos k anteriores k n Enta˜o: P (k) = (n− 1)(n− 2) · · · (n− k + 1) nk−1 k n = k(n− 1)(n− 2) · · · (n− k + 1) nk Bn = n∑ k=1 kP (k) ≈ n0,56, 1 ≤ n ≤ 45. Neste modelo, instruc¸o˜es e dados sa˜o tratados igualmente. *** 9 2 Revisa˜o de Ana´lise Combinato´ria Motivac¸a˜o: Ca´lculo do Nu´mero de Placas com treˆs letras e quatro nu´meros LLLNNNN Quantas placas com 7 identificadores sa˜o poss´ıveis, se as 3 primeiras posic¸o˜es sa˜o letras e as outras 4 sa˜o nu´meros? Assuma: alfabeto com 26 letras. Resposta: 26.26.26.10.10.10.10 = 175.760.000 E se letras nem nu´meros podem ser repetidos? Resposta: 26.25.24.10.9.8.7 = 78.624.000 * Princ´ıpio Ba´sico de Contagem Se r experimentos sa˜o realizados nos quais o primeiro pode ter n1 resultados diferentes, e para cada um desses n1 resultados podemos ter n2 resultados do segundo experimento, e para cada um desses poss´ıveis resultados dos 2 primeiros experimentos ha´ n3 poss´ıveis resultados do terceiro experimento e assim sucessivamente, o nu´mero total de resultados poss´ıveis dos r experimentos e´ n1 × n2 × · · · × nr. * Permutac¸a˜o Permutac¸a˜o e´ um arranjo ordenado. Dado o conjunto {a,b,c}, quantas permutac¸o˜es de 3 letras sa˜o poss´ıveis? abc bac cab acb bca cba Use o princ´ıpio ba´sico de contagem: 3 × 2 × 1 = 6 resultados poss´ıveis Para n posic¸o˜es: n(n− 1)(n− 2) · · ·2.1 = n! * 0chap2.tex, 12/11/2012 10 Aplicac¸a˜o Temos 10 livros: 4 de matema´tica, 3 de qu´ımica, 2 de histo´ria e 1 de l´ınguas. Quantos arranjos sa˜o poss´ıveis, considerando que livros do mesmo to´pico ficam juntos na prateleira? Resposta: mat. qu´ımica hist. l´ınguas 4! 3! 2! 1! Arranjo dos to´picos: 4! Total: 4! x(4! x 3! x 2! x 1!) = 6912. * Permutac¸a˜o com elementos repetidos Quantas sa˜o as permutac¸o˜es poss´ıveis da palavra PEPPER? Assumindo todas as letras diferentes, P1E1P2P3E2R, temos 6! permutac¸o˜es. Quando os P s na˜o sa˜o distintos: 3! das permutac¸o˜es acima sa˜o ideˆnticas. P1E1P2P3E2R P1E1P3P2E2R P2E1P1P3E2R P2E1P3P1E2R P3E1P1P2E2R P3E1P2P1E2R Se os Es na˜o sa˜o distintos: 2! permutac¸o˜es ideˆnticas podem ser conseguidas a partir de cada uma das acima. Enta˜o, 6! 3!2! permutac¸o˜es sa˜o poss´ıveis. Generalizando: Existem n1 n1!n2!···nr! permutac¸o˜es de n objetos, onde n1 sa˜o ideˆnticos, n2 sa˜o ideˆnticos, etc., e n = n1 + n2 + · · ·+ nr. Exemplo: Quantos sinais diferentes podem ser conseguidos com 9 bandeiras de igual formato, sendo 4 brancas, 3 vermelhas e 2 azuis? Resposta: 9! 4!3!2! . * 11 Combinac¸o˜es Dados n objetos, de quantas maneiras posso escolher r objetos? Exemplo: n=5, conjunto {A,B,C,D,E}, e r=3. Se a ordem e´ relevante, ou seja, ABC diferente de CBA, enta˜o: 5 × 4 × 3 = 60 arranjos poss´ıveis Se a ordem na˜o e´ relevante, enta˜o cada uma das 3! permutac¸o˜es sa˜o ideˆnticas para cada grupo de 3 letras. Enta˜o: 5.4.3 3! = 10 = ( 5 3 ) . As combinac¸o˜es poss´ıveis de cinco elementos treˆs a treˆs sa˜o mostradas abaixo: ABC ABD ABE ACD ACE ADE BCD BCE BDE CDE( 5 3 ) = 5! 3!2! Em geral:( n r ) = ( n n−r ) = n! r!(n−r)! , r ≤ n Convenc¸a˜o: ( n0 ) = 1, 0! = 1. Exemplo: Sistema de cobranc¸a de peda´gio com 5 postos. Existem 5 cobradores, dos quais 2 sa˜o surdos e 3 sa˜o sauda´veis. Quantas sa˜o as ordenac¸o˜es em que duas pessoas surdas na˜o sa˜o vizinhas? B = cobrador que ouve bem S = cobrador surdo Enumerando todas as possibilidades: BBSBS BSBSB BSBBS SBSBB SBBSB SBBBS Soluc¸a˜o: Fixe os que ouvem bem : B B B Preencha os surdos a` vontade nos espac¸os, ou seja, escolha 2 espac¸os dentre 4. Resposta: ( 4 2 ) . No caso geral de n cobradores sauda´veis em surdos a resposta seria ( n+1 m ) , comm ≤ n+1. * 12 Identidade Combinatorial( n r ) = ( n− 1 r − 1 ) + ( n− 1 r ) , 1 ≤ r ≤ n onde convenciona-se que ( k k+1 ) = 0, ∀k ≥ 0. * Teorema Binomial (x+ y)n = n∑ k=0 ( n k ) xkyn−k Aplicac¸a˜o: Quantos subconjuntos de um conjunto de n elementos podem ser formados? n∑ k=0 ( n k ) = (1 + 1)n = 2n. Destes subconjuntos, 2n − 1 conte´m pelo menos 1 elemento. * Expressa˜o Multinomial De quantas maneiras podemos dividir n objetos distintos em grupos de tamanhos n1, n2, · · · , nr tal que n = ∑r i=1 ni? Resposta: ( n n1 )( n−n1 n2 )( n−n1−n2 n3 ) · · · (n−∑r−1i=1 ni nr ) = n! n1!n2!···nr ! 13 3 Alocac¸a˜o de bolas em urnas Problema 1: Dadas n bolas e r urnas, de quantas maneiras podemos alocar as bolas nas urnas, sendo admitido que urnas fiquem vazias? Soluc¸a˜o: Assuma 5 bolas (n = 5) e 3 urnas (r = 3). Represente o conteu´do das urnas pelo nu´mero de bolas em cada urna e separe por v´ırgula estes nu´meros. Assim, uma alocac¸a˜o de 3 bolas na primeira urna, 1 bola na segunda urna e 1 bola na terceira urna seria representada por <000,0,0>. Enta˜o a soluc¸a˜o do problema pode ser colocada como: , , - - - - - - - Escolha dois trac¸os dentre os 7 trac¸os para posicionar as v´ırgulas, ou seja ( 7 2 ) maneiras. Em geral escolha (r− 1) trac¸os dentre os (n+ r− 1)trac¸os, ou seja (n+r−1 r−1 ) = ( n+r−1 n ) maneiras. * Problema 2: Assumindo que n ≥ r, de quantas forma podemos alocar as bolas nas urnas sendo que cada urna contenha pelo menos uma bola? Soluc¸a˜o: Apo´s alocarmos r bolas para garantir a alocac¸a˜o mı´nima de 1 bola por urna, sobram (n − r) para serem distribu´ıdas como no problema 1. Portanto, (n−r+r−1 r−1 ) = ( n−1 r−1 ) maneiras. Pelos resultados anteriores, assumindo que xi seja o conteu´do da i-e´sima urna, com∑i=r i=1 xi = N , existem ( n+r−1 n ) vetores (x1, x2, · · · , xr) satisfazendo x1 + x2 + · · · + xr = N e xi ≥ 0, e existem ( n−1 r−1 ) vetores (x1, x2, · · · , xr) satisfazendo x1 + x2 + · · · + xr = N e xi > 0. * Aplicac¸a˜o: Capital para investimento $20. Investimento mı´nimo $1. Existem 4 oportuni- dades de investimento. Pergunta: De quantas formas posso investir? x1 + x2 + x3 + x4 = 20, xi ≥ 0.( 23 3 ) = 1771 maneiras, se todo o dinheiro necessita ser investido. Se x5 representa a parte na˜o investida enta˜o: x1 + x2 + x3 + x4 + x5 = 20, xi ≥ 0 ( 24 4 ) = 10.626 possibilidades. 0chap3-6.tex, 07/09/09 14 4 Teoria de Probabilidade A teoria de probabilidade esta´ baseada na observac¸a˜o de que uma colec¸a˜o grande de fatos aleato´rios gera regularidade estat´ıstica. Modelo • Espac¸o de Amostragem S = colec¸a˜o de todos os eventos ba´sicos exaustivos e exclusivos de um experimento. Os eventos ba´sicos sa˜o chamados pontos do espac¸o S. Exemplos: – Experimento: lanc¸ar uma moeda. S= { cara, coroa } = { H,T }. – Experimento: lanc¸ar uma moeda 2 vezes. S = { (H,T), (H,H), (T,H), (T,T) }. – Experimento: tirar uma bola no escuro de uma urna contendo 3 bolas: preta, vermelha, e branca. S = { p, v, b }. • Famı´lia de Eventos E . E e´ um conjunto de pontos de amostragem, satisfazendo determinada propriedade. Cor- responde a uma classe ou resultado no mundo real. Exemplo: Dado o experimento: lanc¸ar uma moeda 2 vezes. Evento E = pelo menos uma cara ocorre = { (H,T),(T,H),(H,H) }. Se qualquer um dos eventos ba´sicos acima acontece, enta˜o o evento E acontece. Evento F = pelo menos uma coroa ocorre = { (H,T),(T,H),(T,T) }. Intersec¸a˜o de E e F = EF = {(H,T),(T,H) } = pelo menos uma cara e uma coroa. Diagramas de Venn * 15 Leis de DeMorgan ( ⋃n i=1Ei) C = ⋂n i=1E C i , ou seja, se um ponto na˜o pertence a nenhum dos eventos Ei, enta˜o ele tem que pertencer a` intersec¸a˜o dos complementos destes eventos. ( ⋂n i=1Ei) C = ⋃n i=1E C i se um ponto na˜o pertence a` intersec¸a˜o dos eventos Ei, enta˜o ele pertence a um dos complementos ECi . *** Axiomas 1. ∀ evento E, 0 ≤ P (E) ≤ 1. 2. P (S) = 1. 3. Se E1 e E2 sa˜o eventos mutuamente exclusivos E1 ⋂ E2 = Φ (”disjoint”) enta˜o P (E1 ⋃ E2) = P (E1) + P (E2). *** Definic¸a˜o {E1, E2, · · · , En} e´ um conjunto exaustivo de eventos se E1 ⋃ E2 ⋃ · · ·⋃En = S. O conjunto {Ei} e´ mutuamente exclusivo se Ei ⋂ Ej = Φ para todo i 6= j. Propriedades E ⋃ EC = S, E ⋂ EC = Φ, EΦ = Φ, E ⋃ S = S, E ⋃ Φ = E, SC = Φ, ΦC = S, E ⋂ S = E. * Partic¸a˜o {Ei} e´ uma partic¸a˜o de S se e somente se {Ei} e´ exaustivo e mutuamente exclusivo. Proposic¸o˜es 1. P (EC) = 1− P (E). Demo: 1 = P (S) = P (E ⋃ EC) = P (E) + P (EC). 2. Se E ⊂ F , enta˜o P (E) ≤ P (F ). Demo: Se E ⊂ F , enta˜o F = E⋃ECF . Sendo E e ECF mutuamente exclusivos, pelo axioma 3 temos P (F ) = P (E) + P (ECF ), o que comprova o resultado pois P (ECF ) ≥ 0. 16 3. P (E ⋃ F ) = P (E) + P (F )− P (EF ) Demo: Fac¸a como exerc´ıcio. Para treˆs elementos temos: P(A ⋃ B ⋃ C ) = P(A) + P(B) + P(C) - P(AB) - P(AC) - P(BC) + P(ABC). Para quatro elementos temos: P(A ⋃ B ⋃ C ⋃ D) = P(A) + P(B) + P(C) + P(D) - P(AB) - P(AC) - P(AD) - P(BC) - P(BD) - P(CD) + P(ABC) + P(ABD) + P(BCD) - P(ABCD). Generalizando: P (E1 ⋃ E2 ⋃ · · · ⋃ En) = n∑ i=1 P (Ei)− ∑ i1<i2 P (Ei1Ei2) + · · · (−1)r+1 ∑ i1<i2<···ir P (Ei1Ei2 · · ·Eir) + · · · (−1)n+1P (E1E2 · · ·En). A soma ∑ i1<i2<···<ir P (Ei1Ei2 · · ·Eir) e´ feita sobre os ( n r ) poss´ıveis conjuntos de tama- nho r do conjunto {1, 2, · · · , n}. 17 5 Eventos igualmente prova´veis Problema 1: Se duas bolas sa˜o retiradas aleatoriamente de uma urna contendo 6 bolas brancas e 5 pretas, qual e´ a probabilidade de que uma das bolas seja branca e a outra seja preta? Soluc¸a˜o 1: Assuma cada bola marcada individualmente. Total de resultados poss´ıveis = 11 x 10 = 110 possibilidades. Maneiras em que a 1a bola e´ branca e a 2a e´ preta = 6 x 5 = 30. Maneiras em que a 1a bola e´ preta e a 2a e´ branca = 5 x 6 = 30. Probabilidade = # de eventos satisfazendo condic¸a˜o # total de eventos = 60 110 = 6 11 . Soluc¸a˜o 2: Assuma que a ordem e´ irrelevante. Total de resultados poss´ıveis = ( 11 2 ) = 55. Resultados com uma bola preta e uma branca = ( 6 1 )( 5 1 ) = 30. Probabilidade = 30 55 = 6 11 . * Problema 2: Assuma um jogo de poquer jogado com 52 cartas. Qual a probabilidade de se receber uma sequeˆncia (as cartas em sequeˆncia e na˜o todas do mesmo naipe)? Soluc¸a˜o: Suponha a ma˜o: A, 2, 3, 4 e 5. Cada carta pode ser de um dos 4 naipes. Existem portanto 45 possibilidades, e destas 4 sa˜o com cartas do mesmo naipe (”flush”). Portanto temos (45 − 4) sequeˆncias do tipo (A 2 3 4 5), que na¨o sa˜o ”flush”. De quantas maneiras podemos organizar sequeˆncias ? Resposta: 10 maneiras. (A 2 3 4 5), (2 3 4 5 6), · · · , (10 J Q K A) Total de combinac¸o˜es de 5 cartas = ( 52 5 ) Probabilidade da sequeˆncia = 10(4 5−4) (525 ) ≈ 0, 0039 * Problema 3: ”Full House”= (par + trinca ). Qual a probabilidade do ”full house”? Soluc¸a˜o: PPTTT( 4 2 )( 4 3 ) possibilidades na escolha dos naipes. Possibilidades de se escolher o par = 13. 18 Possibilidades de se escolher a trinca depois de escolhido o par = 12 Probabilidade = 12.13.(42).( 4 3) (525 ) ≈ 0, 0014 *** Aplicac¸a˜o: Suponha que N homens lancem seus chape´us no centro de uma sala. Os chape´us sa˜o misturados e enta˜o cada homem seleciona um chape´u aleatoriamente. Qual e´ a probabilidade de que nenhum homem selecione seu pro´prio chape´u? Se N →∞ para que valor deve convergir a probabilidade? Soluc¸a˜o: Seja Ei = evento de que o i-e´simo homem seleciona seu pro´prio chape´u. P ( N⋃ i=1 Ei) = n∑ i=1 P (Ei)− ∑ i1<i2 P (Ei1Ei2) + · · · (−1)n+1 ∑ i1<i2<···in P (Ei1Ei2 · · ·Ein) + · · · (−1)N+1P (E1E2 · · ·EN) = prob. de pelo menos 1 pessoa apanhar seu pro´prio chape´u. Seja i1 o nu´mero do chape´u escolhido pelo homem H1. Se i1 = 1, enta˜o H1 escolheu seu pro´prio chape´u. Em geral, a amostra do experimento pode ser expressa pela n-tupla (i1, i2, · · · , in), onde ii e´ o chape´u escolhido pelo homem Hi. O total de amostras e´ N !. Uma amostra (1, 2, 3, · · · , N) indica que cada homem seleciona o seu pro´prio chape´u. Seja (Ei1Ei2 · · ·Ein) o evento em que cada um dos n homens i1, i2, · · · , in seleciona o seu pro´prio chape´u. Observe que nada e´ assumido quanto aos outros homens. Dos (N − n) que sobraram, o primeiro pode escolher o chape´u de (N−n) maneiras. O segundo de (N−n−1) e assim sucessivamente. As possibilidades sa˜o (N − n)!. P (Ei1Ei2 · · ·Ein) = (N−n)!N ! . Ha´ ( N n ) termos em ∑ i1<i2<···<in P (Ei1Ei2 , · · ·Ein), enta˜o∑ i1<i2<···<in P (Ei1Ei2 · · ·Ein) = ( N n ) (N−n)! N ! = 1 n! , e enta˜o P ( ⋃N i=1Ei) = 1− 12! + 13! − · · ·+ (−1)N+1 1N ! . Portanto a probabilidade de nenhum homem selecionar seu pro´prio chape´u e´ 1 2! − 1 3! + · · ·+ (−1)N 1 N ! . Esta probabilidade tende para 1 e = 0, 36755 com N →∞. *** 19 O problema dos Pontos: Tentativas independentes resultam em sucesso com probabili- dade p e fracasso com probabilidade 1− p. Qual a probabilidade de que n sucessos ocorram antes de m fracassos? Soluc¸a˜o (Fermat): Pn,m = prob. de n sucessos antes de m fracassos. Pn,m = pPn−1,m + (1− p)Pn,m−1, n ≥ 1, m ≥ 1, com as condic¸o˜es de contorno P0,m = 1 e Pn,0 = 0. Soluc¸a˜o (Pascal): Para que n sucessos ocorram antes de m fracassos e´ necessa´rio e sufi- ciente que pelo menos n sucessos ocorram em n+m− 1 tentativas. P (k sucessos em n+m− 1 tentativas ) = (n+m−1 k ) pk(1− p)n+m−1−k, e enta˜o Pn,m = ∑n+m−1 k=n ( n+m−1 k ) pk(1− p)n+m−1−k. Associac¸a˜o: A e B jogam um jogo em que A ganha 1 ponto quando um sucesso ocorre e B ganha um ponto quando um fracasso ocorre. A probabilidade desejada e´ a probabilidade de que A ganharia, se ao interromper o jogo, A necessitasse de n e B necessitasse de m pontos para ganhar. Suponha que cada jogador coloca R$ C e cada um tem chance de ganhar de 1/2 = p. Se n pontos sa˜o necessa´rios ao vencedor e o jogador A tem 1 ponto e B nenhum, enta˜o, sendo o jogo interrompido nesta situac¸a˜o, A tem o direito a 2CPn−1,n = 2C ∑2n−2 k=n−1 ( 2n−2 k ) (1 2 )2n−2. Mostre que o resultado acima e´ igual a C [ 1 + (1/2)2n−2 ( 2n−2 n−1 )] . Explicac¸a˜o do Racioc´ınio de Pascal Suponha 2 sucessos antes de 3 falhas. Analisamos as n+m− 1 = 4 primeiras tentativas no nosso experimento. Porque? Enumere todas as possibilidades, que constituem os eventos ba´sicos de nosso espac¸o amostral: ffff,sfff,fsff,ssff,ffsf,sfsf,fssf,sssf,fffs,sffs,fsfs,ssfs,ffss,sfss,fsss,ssss. Observe que analisando o resultado de 4 tentativas englobamos todos os eventos ba´sicos que satisfazem o evento 2 sucessos antes de 3 falhas. Se analisa´ssemos apenas 3 tentativas isto na˜o seria mais verdade, pois ter´ıamos por exemplo o evento ba´sico ffs e ficar´ıamos na indecisa˜o do que ocorreria na quarta tentativa. Nu´mero de sequeˆncias com k=2 sucessos = ( 4 2 ) = 6 com prob. associada de p2(1− p)2; Nu´mero de sequeˆncias com k=3 sucessos = ( 4 3 ) = 4 com prob. associada de p3(1− p); Nu´mero de sequeˆncias com k=4 sucessos = ( 4 4 ) = 1 com prob. associada de p4(1− p)0. *** 20 6 Probabilidade Condicional Definic¸a˜o: P (A|B) = P (A ⋂ B) P (B) = P (AB) P (B) , onde P (B) 6= 0. O condicionamento a` ocorreˆncia do evento B restringe o espac¸o de amostragem aos pontos que satisfazem B. A divisa˜o por P (B) normaliza a medida. * Definic¸a˜o: eventos estatisticamente independentes. P (AB) = P (A)P (B) =⇒ P (A/B) = P (A), ou seja o conhecimento da ocorreˆncia de B na˜o afeta a probabilidade do evento A. * Teorema da Probabilidade Total Assuma que {Ai} e´ uma partic¸a˜o. Enta˜o P (B) = ∑n i=1 P (AiB). Aplicando o conceito de probabilidade condicional vem: P (B) = ∑n i=1 P (B|Ai)P (Ai). A probabilidade P (Ai) pode ser conhecida e a probabilidade P (B|Ai) pode ser mais fa´cil de ser calculada. * Teorema de Bayes: P (Ai|B) = P (B|Ai)P (Ai)∑n j=1 P (B|Aj)P (Aj) = P (AiB) P (B) . * Aplicac¸a˜o: Dois carteadores geˆmeos jogam em um mesmo cassino, sendo que um deles e´ honesto e o outro desonesto. Suponha que voce jogou com um deles aleatoriamente e perdeu. Qual a probabilidade de que tenha jogado com o carteador desonesto? DH = evento de jogar com o carteador honesto; DD = evento de jogar com o carteador desonesto; L = evento de perder; W = evento de ganhar. P (L|DH) = 1/2; P (L|DD) = p, p > 1/2. Quero calcular P (DD|L) = P(ter escolhido o desonesto | perdi). Soluc¸a˜o: Aplique o Teorema de Bayes: 21 P (DD|L) = P (L|DD)P (DD)P (L|DD)P (DD)+P (L|DH)P (DH ) = p.1/2 p.1/2+1/2.1/2 = 2p 2p+1 . Se p = 1, ou seja, o carteador e´ totalmente desonesto, enta˜o P (DD|L) = 2/3. Porque? Monte a a´rvore de eventos. 22 7 Problemas de Aplicac¸a˜o O problema da ru´ına do jogador (resolvido por Bernoulli e publicado 8 anos apo´s sua morte em 1713) Dois jogadores A e B apostam no resultado do lanc¸amento de uma moeda. Com proba- bilidade p da´ cara e A ganha 1 de B. Com probabilidade 1− p = q da´ coroa e B ganha 1 de A. O jogo termina, quando um dos jogadores esta´ falido, e o outro tem todo o capital N . Qual a probabilidade de A ganhar o jogo, quando ele inicia com i de capital e B com N − i de capital? Seja Ei o evento em que A fica com todo o dinheiro, quando ele inicia com i e B com N − i. O capital total e´ de N . Condicionando no resultado do primeiro lanc¸amento, obtemos: Pi = P (Ei) = P (Ei|H)P (H) + P (Ei|Hc)P (Hc) = pP (Ei|H) + (1− p)P (Ei|Hc) = pP (Ei|H) + qP (Ei|Hc) Observe que se no primeiro lanc¸amento a moeda der cara, a situac¸a˜o apo´s este lanc¸amento sera´ A com i+ 1 e B com N − (i+ 1). Assim, P (Ei|H) = Pi+1 P (Ei|Hc) = Pi−1, e enta˜o Pi = pPi+1 + qPi−1, i = 1, 2, · · · , N − 1 Resoluc¸a˜o da equac¸a˜o As condic¸o˜es de contorno sa˜o P0 = 0 (se o capital inicial de A e´ zero, enta˜o B ja´ esta´ com todo o dinheiro, e o jogo termina instantaneamente) e PN = 1 (se o capital de B e´ zero e o de A e´ N , enta˜o A inicialmente esta´ com todo o dinheiro, e o jogo termina instantaneamente com A vencedor). Podemos reescrever a equac¸a˜o como: pPi + qPi = pPi+1 + qPi−1, ou Pi+1 − Pi = qp(Pi − Pi−1), i = 1, 2, · · · , N − 1. 0chap7-9.tex, 12/11/2012 23 Desenvolvendo: P2 − P1 = q p (P1 − P0) = q p P1 P3 − P2 = q p (P2 − P1) = ( q p )2 P1 ... Pi − Pi−1 = q p (Pi−1 − Pi−2) = ( q p )i−1 P1 ... PN − PN−1 = q p (PN−1 − PN−2) = ( q p )N−1 P1 Somando as primeiras i− 1 equac¸o˜es, obtemos: Pi − P1 = P1 [ q p + ( q p )2 + · · ·+ ( q p )i−1] , ou Pi = 1−( q p )i 1− q p P1, se q p 6= 1 ou p 6= 1/2; iP1, se qp = 1 ou p = 1/2. Usando o fato de que PN = 1, obtemos P1 = 1−( q p ) 1−( q p )N , para p 6= 1/2; 1 N , para p = 1/2. E finalmente, Pi = 1−( q p )i 1−( q p )N , para p 6= 1/2; i N , para p = 1/2. Se Qi for a probabilidade de B ficar com todo o dinheiro, quando ele inicia com N − i, por simetria Qi = 1−(p q )N−i 1−(p q )N , para q 6= 1/2; N−i N , para q = 1/2. Ale´m do mais, mostra-se que Pi +Qi = 1, tanto para p = q = 1/2, como para q 6= 1/2. Interpretac¸a˜o: os jogadores na˜o jogam por tempo indefinido. Valores nume´ricos: Se A comec¸a com 5, B com 10 e p = 1/2, enta˜o P5 = 1/3. Se p = 0, 6, enta˜o P5 = 0, 87. 24 *** Teste de Drogas Duas drogas devem ser analisadas quanto ao seu poder de cura. A droga i tem probabi- lidade de cura Pi, que na˜o e´ conhecida. Temos que tentar decidir se P1 > P2 ou P1 < P2. Experimento: Pares de doentes sa˜o tratados sequencialmente, um membro do par recebendo a droga 1 e o outro membro a droga 2. Os resultados de cada par sa˜o determinados e o teste pa´ra, quando o nu´mero acumulado de curas de uma das drogas supera o nu´mero acumulado de curas da outra droga por um valor M . Xj = { 1 se o paciente do j-e´simo par com droga 1 e´ curado 0 em caso contra´rio Yj = { 1 se o paciente do j-e´simo par com droga 2 e´ curado 0 em caso contra´rio O experimento pa´ra no N-e´simo par, quando ∑N i=1Xi− ∑N i=1 Yi = M , e enta˜o assumimos que P1 > P2, ou ∑N i=1 Yi − ∑N i=1Xi = M , e, enta˜o, assumimos que P2 > P1. No primeiro caso, a droga 1 e´ considerada melhor, e, no segundo caso, a droga 2 e´ a escolhida, como tendo o melhor desempenho. Qual a probabilidade do teste apontar uma decisa˜o incorreta? Ou seja, na realidade P1 > P2 e o teste aponta P2 > P1? Soluc¸a˜o: Vamos analisar o comportamento da varia´vel ∑ Xi − ∑ Yi. Esta varia´vel e´ incrementada de 1 com probabilidade P1(1 − P2), decrementada de 1 com probabilidade P2(1−P1), e permanece inalterada com probabilidade P1P2+(1−P1)(1−P2). Considerando apenas os pares que provocam incrementos ou decrementos nesta varia´vel, podemos calcular PX = P ( ∑ Xi − ∑ Yi subir 1| subiu ou desceu 1) = P1(1−P2)P1(1−P2)+P2(1−P1) , e PY = P ( ∑ Xi − ∑ Yi descer 1| subiu ou desceu 1) = P2(1−P1)P1(1−P2)+P2(1−P1) = 1− PX . A probabilidade do teste indicar P2 > P1 e´ igual a` probabilidade do jogador 1 que ganha com probabilidade PX perder M antes de alcanc¸ar 2M (significa que o outro jogador e´ o vencedor, ou seja probabilidade QM ). P (teste indicar P2 > P1) = 1− P (ganhar 2M antes de atingir zero, comec¸ando com M) = P (alcanc¸ar zero antes de atingir 2M , comec¸ando com M) = 1− 1−( 1−PX PX )M 1−( 1−PX PX )2M = 1− 1−( PY PX )M 1−( PY PX )2M = 1−(PX PY )M 1−(PX PY )2M Se P1 = 0, 6 e P2 = 0, 4 , a probabilidade de decisa˜o incorreta e´ 0,017 , quando M = 5, e reduz a 0,0003 para M = 10. *** 25 8 Aplicac¸a˜o: Confiabilidade (”Reliability”) i Evento Ai = componente i funciona perfeitamente. Ri = confiabilidade do componente i = P (Ai). 21 Sistema S RS = P (A1A2) = P (A1)P (A2) = R1R2. 1 2 Sistema S Redundaˆncia: AS = AS c = A1 ⋂ A2, ou seja, o sistema S so´ na˜o funciona, se ambos os componentes estiverem com defeito. RS = P (A1 ⋃ A2) 1−RS = [1− P (A1)][1− P (A2)] RS = 1− 2∏ i=1 (1−Ri) Redundaˆncia RS 1 0,80 2 0,96 3 0,992 4 0,9984 * 26 Sistema de Redundaˆncia Tripla Sistema opera com 3 elementos em paralelo, e o sistema esta´ operacional, quando pelo menos 2 elementos esta˜o OK. Este sistema se chama TMR, ou seja, Triple Module Redun- dancy. RTMR = ∑3 i=2 ( 3 i ) Ri(1− R)3−i = 3R2 − 2R3. RTMR = > R se R > 1 2 = R se R = 1 2 < R se R < 1 2 *** 27 9 Experimentos de Bernoulli Experimento: { sucesso falha { 0 1 { bom ruim { cara coroa { probabilidade p probabilidade (1− p) * Recordac¸a˜o: Multinomial De quantas maneiras podemos dividir n objetos distintos em grupos de tamanhos n1, n2, · · · , nr t.q. n = ∑r i=1 ni? R: ( n n1 )( n−n1 n2 )( n−n1−n2 n3 ) · · · (n−∑r−1i=1 ni nr ) = n! n1!n2!···nr ! * Sequeˆncia de Experimentos de Bernoulli Repete-se o experimento de Bernoulli de forma independente. Pergunta: Qual a probabilidade de k caras em n lanc¸amentos de uma moeda? R: ( n k ) pk(1− p)(n−k). * Problema: Qual a probabilidade de que em n passadas pelo co´digo abaixo, ni execuc¸o˜es do comando Si sa˜o efetuadas, sendo que CASE i ocorre com probabilidade pi? CASE I OF 1: S1 ; 2: S2 ; ... k: Sk; END R: n! n1!n2!···nk!p n1 1 p n2 2 · · · pnkk = ( n n1n2···nk ) pn11 p n2 2 · · · pnkk Observe que ∑ ∀n=∑ki=0 ni [( n n1n2···nk ) pn11 p n2 2 · · ·pnkk ] = (p1 + p2 + · · ·+ pk)n = 1. *** 28 10 Varia´veis Aleato´rias Seja um espac¸o amostral S, com uma partic¸a˜o formada de treˆs eventos: ganha, perde e empata. Uma varia´vel aleato´ria X e´ definida como uma associac¸a˜o de valores aos pontos do espac¸o S. Por exemplo, X(w) = +5 w ∈ ganha 0 w ∈ empata −5 w ∈ perde P (X = −5) = 3/8 = soma das prob. de todos os pontos ∈ perde P (X = 0) = 1/4 P (X = +5) = 3/8 Definic¸a˜o: Uma varia´vel aleato´ria X no espac¸o amostral S e´ uma func¸a˜o X : S → R que associa um nu´mero real X(w) a cada ponto de amostra w ∈ S. Exemplo: Suponha que uma moeda e´ tal que P (H) = p e P (T ) = 1− p. A moeda e´ lanc¸ada ate´ que uma cara ocorra ou um total de n lanc¸amentos ocorram. Se X representa o nu´mero de vezes que a moeda foi lanc¸ada, X e´ uma varia´vel aleato´ria que assume os valores 1, 2, · · · , n com as seguintes probabilidades: P (X = 1) = P (H) = p P (X = 2) = P (T,H) = (1− p)p P (X = 3) = P (T, T,H) = (1− p)2p ... ... P (X = n− 1) = P (T, · · · , T,H) = (1− p)n−2p P (X = n) = P (T, · · · , T,H) = (1− p)n−1p+ (1− p)n−1(1− p) = (1− p)n−1 Mostrar que ∑n i=1 P (X = i) = 1. Demo: n∑ i=1 P (X = i) = p+ (1− p)p+ · · ·+ (1− p)n−2p+ (1− p)n−1 = p [ 1 + (1− p) + · · ·+ (1− p)n−2]+ (1− p)n−1 = p 1− (1− p)n−1 1− (1− p) + (1− p) n−1 = 1 X assume um nu´mero finito de valores. * Exemplo: X representa o nu´mero de lanc¸amentos ate´ se obter uma cara. X e´ uma varia´vel aleato´ria que assume os valores 1, 2, · · · com as seguintes probabilidades: 0chap10.tex, 19/05/2013 29 P (X = 1) = P (H) = p P (X = 2) = P (T,H) = (1− p)p P (X = 3) = P (T, T,H) = (1− p)2p ... ...∑∞ i=1 P (X = i) = p+ (1− p)p+ · · · = ∑∞ i=0 p(1− p)i = p1−(1−p) = 1 X assume um nu´mero infinito, pore´m conta´vel, de valores. *** 10.1 Varia´vel Discreta Uma varia´vel aleato´ria discreta e´ aquela que assume um nu´mero finito ou conta´vel de valores. Definimos P (X = i) como sendo a func¸a˜o de massa de probabilidade (PMF - Probability Mass Function) de X . Varia´vel de Bernoulli X e´ uma v.a. de Bernoulli, se P (X = 0) = P (fracasso) = 1 − p e P (X = 1) = P (sucesso) = p, com 0 < p < 1. Varia´vel Binomial Assuma n experimentos de Bernoulli. Seja Y o nu´mero de sucessos nos n experimentos. Y e´ dita binomial com paraˆmetros (n, p). P (Y = i) = ( n i ) pi(1− p)n−i, i = 0, 1, · · · , n n∑ i=0 P (Y = i) = (p+ (1− p))n = 1 * Aplicac¸a˜o da Binomial: Um job executa n vezes pela CPU. Seja Xi o nu´mero de acessos ao disco i. No diagrama, p1 + p2 = 1. P (X1 = k) = ( n k ) pk1(1− p1)n−k, 0 ≤ k ≤ n. * 30 Poisson Uma varia´vel aleato´ria X e´ Poisson com paraˆmetro λ > 0, se P (i) = P (X = i) = λ i i! e−λ, λ > 0. Observe que ∑∞ i=0 P (i) = e −λ∑∞ i=0 λi i! = e−λeλ = 1. Muitos processos no mundo real podem ser aproximados pelo processoPoisson. Sabendo que pessoas podem tomar uma decisa˜o afirmativa com probabilidade p ou uma decisa˜o nega- tiva com probabilidade (1− p), enta˜o o nu´mero de pessoas que tomam a decisa˜o afirmativa, dentre uma populac¸a˜o com n pessoas, pode ser expresso pela distribuic¸a˜o binomial, ou seja, probabilidade de i pessoas optarem pela decisa˜o afirmativa = ( n i ) pi(1−p)n−i. Mostra-se que a distribuic¸a˜o binomial tende para Poisson com λ = np, se n >> 1 e λ e´ moderado. P (X = i) = ( n i ) pi(1− p)(n−i) = n! (n−i)!i! ( λ n )i ( 1− λ n )n−i = n(n−1)(n−2)···(n−i+1) ni λi i! (1− λ n )n (1− λ n )i Para n >> 1, (1− λ n )n ≈ e−λ, n(n−1)(n−2)···(n−i+1) ni ≈ 1 e (1− λ n )i ≈ 1. Enta˜o, P (X = i) ≈ λi i! e−λ. * Distribuic¸a˜o Geome´trica Seja X o tempo de permaneˆncia num estado. Muda-se de estado com probabilidade p e permanece-se no estado com probabilidade 1−p. Transic¸o˜es de estado ocorrem em instantes bem definidos de tempo. Enta˜o: P (X = n) = (1− p)n−1p, n ≥ 1. * Binomial Negativa Experimentos independentes com probabilidade p de sucesso (sequeˆncia de experimen- tos de Bernoulli). Assuma que X e´ o nu´mero de experimentos ate´ que r sucessos sejam alcanc¸ados. P (X = n) = ( n−1 r−1 ) pr(1− p)n−r, n ≥ r, pode ser entendida como P(r-e´simo sucesso ocorre no n-e´simo experimento) * 31 Aplicac¸a˜o: Problema de Banach Duas caixas de fo´sforos, uma no bolso esquerdo e outra no bolso direito. Considere o momento em que se descobre que uma das caixas esta´ vazia, sendo aleatoriamente escolhidos os bolsos a cada palito. Assumindo que cada caixa tem inicialmente N fo´sforos, qual e´ a probabilidade de que existam exatamente k fo´sforos na outra caixa? E = evento de que a caixa da direita esta´ vazia e ha´ k fo´sforos na caixa da esquerda. O evento E acontece se a (N+1)-e´sima escolha da caixa da direita e´ feita na N-k+N+1 tentativa, onde (N-k) corresponde ao nu´mero de fo´sforos ja´ retirados da caixa da esquerda e N corresponde ao nu´mero de fo´sforos retirados da caixa da direita. Observe que ja´ retiramos todos os fosforos da caixa da direita, quando, na tentativa de tirar mais um fo´sforo do bolso direito, descobrimos que a caixa naquele bolso esta´ vazia. Usando a binomial negativa com p = 1/2, r = N + 1, n = 2N − k + 1 temos P (E) = ( 2N−k N ) (1 2 )2N−k+1 A probabilidade procurada e´ 2P(E), porque a (N+1) escolha pode ocorrer ao encontrar- mos vazia tanto a caixa da direita quanto a caixa da esquerda. *** 10.2 Func¸a˜o Distribuic¸a˜o A func¸a˜o de distribuic¸a˜o de probabilidade (PDF - Probability Distribution Function) ou func¸a˜o de distribuic¸a˜o acumulativa (CDF - Cummmulative Distribution Function) da varia´vel X e´ definida como FX(x) = P (X ≤ x), −∞ < X <∞ Propriedades: • FX(.) e´ na˜o decrescente. • a < b =⇒ FX(a) ≤ FX(b). • limx→∞ FX(x) = 1 e limx→−∞ FX(x) = 0. • P (a < X ≤ b) = FX(b)− FX(a), porque {X ≤ b} = {a < X ≤ b} ⋃ {X ≤ a}. *** 10.3 Func¸o˜es Singulares Sa˜o u´teis para permitir estender o conceito de integrac¸a˜o e derivac¸a˜o para func¸o˜es com discontinuidades. O emprego das func¸o˜es singulares sera´ exemplificado na descric¸a˜o das 32 propriedades associadas a`s varia´veis aleato´rias. As func¸o˜es singulares mais u´teis sa˜o: • Func¸a˜o Impulso u0(t) ou δ(t) (Delta de Dirac) u0(t) =⇒ ∫ 0+ 0− u0(t)dt = 1 • Func¸a˜o Degrau u−1(t) ou u(t) u−1(t) = { 0 , se t < 0 1 , se t ≥ 0 u−1(t) = ∫ t 0− u0(y)dy • Func¸a˜o Rampa u−2(t) u−2(t) = tu−1(t) = { t , se t ≥ 0 0 , se t < 0 u−2(t) = ∫ t 0− u−1(y)dy *** 10.4 Varia´vel Aleato´ria Cont´ınua Uma varia´vel aleato´ria cont´ınua e´ aquela que assume um nu´mero infinito e inconta´vel de valores. Seja X , uma varia´vel aleato´ria cont´ınua. Dado um intervalo B, podemos exprimir P (X ∈ B) da forma abaixo: P (X ∈ B) = ∫ B fX(x)dx A func¸a˜o fX(x) e´ chamada de densidade de probabilidade ou comumente pdf (probability density function) de X . Observe que P (X ∈ (−∞,∞)) = ∫∞−∞ fX(x)dx = 1. Por outro lado, podemos obter FX(a) = P (X ≤ a) = P (X < a) como FX(a) = ∫ a −∞ fX(x)dx A func¸a˜o FX(.) e´ definida como a PDF (Probability Distribution Function) de X , ou func¸a˜o de distribuic¸a˜o de probabilidade de X , ou ainda func¸a˜o de distribuic¸a˜o acumulativa (CDF) de X . Observamos ainda que, P (X > a) = 1− P (X ≤ a) = 1− FX(a) = ∫∞ a fX(x)dx P (a < X ≤ b) = ∫ b a fX(x)dx Simplificando a notac¸a˜o, representaremos fX(x) = f(x). Enta˜o: f(x) ≥ 0, f(x) = dF (x) dx 33 Observe que: P (x < X ≤ x+ dx) = f(x)dx. E se a func¸a˜o f(x) na˜o possui impulsos em a e b, enta˜o sera´ sempre va´lido dizer: P (a < X < b) = P (a ≤ X < b) = P (a ≤ X ≤ b). * Distribuic¸a˜o Uniforme no intervalo (0,1) X e´ uma varia´vel aleato´ria com distribuic¸a˜o uniforme no intervalo (0,1), se f(x) = u−1(x)− u−1(x− 1) e F (x) = u−2(x)− u−2(x− 1). Exerc´ıcio: desenhar a pdf e a PDF de uma distribuic¸a˜o uniforme em (0,1). * Distribuic¸a˜o Uniforme no intervalo (a,b) X e´ uma varia´vel aleato´ria com distribuic¸a˜o uniforme no intervalo (a,b), se f(x) = 1 b−a [u−1(x− a)− u−1(x− b)] e F (x) = 1b−a [u−2(x− a)− u−2(x− b)]. Exerc´ıcio: desenhar a pdf e a PDF de uma distribuic¸a˜o uniforme em (a,b). * Distribuic¸a˜o Exponencial X tem distribuic¸a˜o exponencial, se pdf f(x) = { λe−λx , x ≥ 0 0 , x < 0 = λe−λxu−1(x) e CDF F (x) = ∫ x −∞ f(y)dy = { 1− e−λx , x ≥ 0 0 , x < 0 = (1− e−λx)u−1(x) * Uma varia´vel aleato´ria e´ perfeitamente caracterizada pela sua pdf ou PDF. * O uso da func¸a˜o degrau na descric¸a˜o da PDF e da CDF serve para explicitar as restric¸o˜es no domı´nio da func¸a˜o de forma clara e concisa. *** 34 10.5 Propriedade da Falta de Memo´ria Uma varia´vel X na˜o negativa e´ sem memo´ria se P (X > s+ t | X > t) = P (X > s), para s, t ≥ 0. Se pensarmos que X e´ o tempo de vida de um componente, a probabilidade de que ele sobreviva mais s segundos dado que ja´ funcionou t segundos, onde s e´ independente de t, e´ igual a` probabilidade inicial de que ele funcione por s segundos. P (X > s+ t | X > t) = P (X>s+t e X>t) P (X>t) = P (X>s+t) P (X>t) = P (X > s) Uma condic¸a˜o equivalente para definir falta de memo´ria seria P (X > s+ t) = P (X > s)P (X > t) ou 1− F (s+ t) = (1− F (s))(1− F (t)), e pode-se provar que so´ a distribuic¸a˜o exponencial satisfaz a relac¸a˜o dentre as func¸o˜es cont´ınuas. * Taxa de falha em Distribuic¸a˜o Exponencial X e´ a vida de um componente. Suponha que o componente ja´ funcionou por t segundos e queremos a probabilidade de que ele falhara´ num tempo adicional dt, ou seja X ≤ (t, t+ dt). P (X ∈ (t, t+ dt) | X > t) = P (t<X≤t+dt) P (X>t) = f(t)dt 1−F (t) λ(t) = f(t) 1−F (t) e´ chamada taxa de falha e representa a densidade de probabilidade de que um item com t segundos de vida ira´ falhar. No caso de distribuic¸a˜o exponencial, λ(t) = λe −λt e−λt = λ , ou seja, a taxa de falha e´ constante. * Falta de Memo´ria em Distribuic¸a˜o Discreta Seja a distribuic¸a˜o geome´trica P (N = k) = p(1 − p)k−1, k ≥ 1. Se N representa o tempo de permaneˆncia em um estado, pela pro´pria obtenc¸a˜o de N a distribuic¸a˜o e´ sem memo´ria. A decisa˜o de deixar (probabilidade p) ou permanecer no estado (probabilidade (1− p)) independe do passado. P (N > k1) = ∑∞ k=k1+1 p(1− p)k−1 = p(1− p)k1 ∑∞k−k1=1(1− p)k−k1−1 = p(1− p)k1 1 p = (1− p)k1 P (N > k2) = (1− P )k2 P (N > k1 + k2) = (1− p)k1+k2 = P (N > k1) P (N > k2) o que mostra matematicamente que a distribuic¸a˜o geome´trica e´ sem memo´ria. 35 * Pode-se provar que a u´nica distribuic¸a˜o cont´ınua sem memo´ria e´ a exponencial. Da mesma forma, prova-se que a u´nica distribuic¸a˜o discreta sem memo´ria e´ a geome´trica. ***10.6 Relac¸a˜o entre Distribuic¸a˜o Exponencial e Processo Poisson Suponha que chegadas ocorram num intervalo T , segundo um processo Poisson. O nu´mero de chegadas durante um determinado intervalo de tempo T e´ dado pela fo´rmula de Poisson: P{k chegadas durante T} = Pk(T ) = (λT ) k k! e−λT onde λ e´ a taxa me´dia de chegadas de fregueses por segundo. Pode-se ver que para o Processo Poisson P{nenhuma chegada em T} = e−λT . Supondo que uma chegada ocorreu no instante zero, a probabilidade de que a pro´xima chegada ocorra entre T e (T + dt), assumindo independeˆncia entre eventos, e´: P{pro´xima chegada em (T, T + dt) } = = P{nenhuma chegada em (0, T ) e pelo menos 1 chegada em (T, T + dt)} = P{nenhuma chegada em (0, T ) }P{ 1 chegada em (T, T + dt)} = e−λT e−λdtλdt = λe−λ(T+dt)dt = λe−λTdt (dt→ 0) Observe que a probabilidade de duas ou mais chegadas no intervalo (T, T + dt) e´ O(dt2), ou seja, cai igual ou mais rapidamente que dt2. Se f(x) e´ O(xn) com x→ 0, enta˜o limx→0 f(x)xn <∞. Em geral, a notac¸a˜o O(g(x)) com x→ x0 refere-se a qualquer func¸a˜o que (com x→ x0) decai a zero pelo menos ta˜o ra´pido quanto g(x) (onde g(x) > 0), isto e´, lim x→x0 ∣∣∣∣O(g(x))g(x) ∣∣∣∣ <∞ Por outro lado, a notac¸a˜o o(g(x)) com x → x0 refere-se a qualquer func¸a˜o que (com x→ x0) decai a zero mais ra´pido que g(x) (onde g(x) > 0), isto e´, lim x→x0 ∣∣∣∣o(g(x))g(x) ∣∣∣∣ = 0 Se levamos em conta apenas os comportamentos O(dt), isto e´, uma aproximac¸a˜o de primeira ordem, enta˜o precisamos considerar apenas uma chegada no evento pelo menos uma chegada acima. Conclusa˜o: um processo Poisson possui tempo entre chegadas exponencial. 36 * Se analisarmos o caminho inverso, isto e´, supondo o tempo entre chegadas exponencial com paraˆmetro λ, e assumindo X1 o instante da primeira chegada (assuma que no instante zero algue´m chegou) e X2 o tempo entre a primeira e a segunda chegada, podemos verificar que: P{0 chegadas em T} = P (X1 > T ) = e−λT . P{1 chegada em T} = P (X1 < T e X2 +X1 > T ) = ∫∞ 0 P (X1 < T e X2 +X1 > T | t ≤ X1 ≤ t+ dt)P (X1 ∈ (t, t + dt)) = ∫ T O P (X2 > T − t)λe−λtdt = λ ∫ T 0 e−λ(T−t)e−λtdt = λTe−λT Estas probabilidades concordam com o resultado dado pela fo´rmula de Poisson. Demonstra-se que se um processo possui tempo entre chegadas exponencial, ele e´ um Processo Poisson. O processo Poisson sera´ estudado em Cadeia de Markov como exemplo de um Processo de Nascimento Puro. No cap´ıtulo de Cadeia de Markov, deduziremos a fo´rmula de Poisson. *** 10.7 Varia´vel Aleato´ria Mista Uma varia´vel aleato´ria mista e´ aquela que engloba tanto o comportamento discreto, com concentrac¸o˜es de probabilidades em pontos determinados, como o comportamento cont´ınuo em outros intervalos. Um bom exemplo de varia´vel mista e´ a exponencial truncada Xˆ para o intervalo [a, b]. Esta exponencial e´ obtida a partir de uma exponencial X , concentrando no ponto a a pro- babilidade P (X < a) = 1 − e−λa e no ponto b a probabilidade P (X > b) = e−λb. A pdf de Xˆ e´ dada por fXˆ(x) = (1− e−λa)u0(x− a) + λe−λx[u−1(x− a)− u−1(x− b)] + e−λbu0(x− b) Para obter a CDF FXˆ = P (Xˆ < x), devemos integrar a pdf mista fXˆ(x). Os termos (1− e−λa)u0(x− a) e e−λbu0(x− b), que envolvem uma constante multiplicando um impulso, podem ser integrados diretamente fornecendo os degraus (1−e−λa)u−1(x−a) e e−λbu−1(x−b), respectivamente. 37 Cuidado maior deve ser tomado ao se integrar λe−λx[u−1(x−a)−u−1(x−b)], que pode ser escrita como λe−λxu−1(x−a)−λe−λxu−1(x−b). Vamos integrar cada termo separadamente, respeitando o domı´nio de integrac¸a˜o definido por cada func¸a˜o degrau. Integrando o primeiro termo de a a x, obtemos (e−λa − e−λx) para x > a, ou seja, (e−λa − e−λx)u−1(x− a). Integrando o segundo termo de b a x, obtemos (e−λb − e−λx) para x > b, ou seja, (e−λb − e−λx)u−1(x− b). Enta˜o, FXˆ(x) = (1− e−λa)u−1(x− a) + e−λbu−1(x− b) + (e−λa − e−λx)u−1(x− a) −(e−λb − e−λx)u−1(x− b) = (1− e−λx)u−1(x− a) + e−λxu−1(x− b). De fato, a CDF FXˆ(x) = (1− e−λx)u−1(x− a) + e−λxu−1(x− b) e´ nula para x < a. Para a < x < b, a CDF e´ dada por e−λa−e−λx, como esperado. Observe que para x > b os termos exponenciais se anulam e a CDF fica constante em 1, como deve ser. A expressa˜o com uso das func¸o˜es singulares simplifica a descric¸a˜o da func¸a˜o, mantendo a clareza matema´tica. *** 38 11 Func¸o˜es de Varia´veis Aleato´rias Questa˜o: Assuma Y = G(X) = e−X , onde X e Y sa˜o duas varia´veis aleato´rias. Se −∞ < X <∞, enta˜o Y > 0. Y e´ uma func¸a˜o decrescente de X . Dado fX(x), como obter fY (y)? Os passos sa˜o os seguintes: 1. {Y ≤ y} = {e−X ≤ y} = {−X ≤ ln y} = {X ≥ − ln y} 2. FY (y) = P{Y ≤ y} = P{X ≥ − ln y} = ∫∞ − ln y fX(x)dx 3. fY (y) = d dy [∫∞ − ln y fX(x)dx ] , y > 0 Para realizar o u´ltimo passo, relembrar a Regra de Leibnitz: d dt [∫ h(t) g(t) f(τ, t)dτ ] = ∫ h(t) g(t) ∂f(τ, t) ∂t dτ + f(h(t), t) dh dt − f(g(t), t)dg dt Aplicando Leibnitz, temos: fY (y) = ∫ ∞ − ln y dfX(x) dy dx+ fX(∞)d∞ dy − fX(− ln y)d(− ln y) dy = 0 + 0− fX(− ln y)(−1 y ) = fX(− ln y) y , y > o Observe que Y = G(X) e X = G−1(Y ) = − lnY . E tambe´m que dY/dX = dG(X)/dX = −e−X = −Y e dX/dY = dG−1(Y )/dY = −1/Y . Pelas relac¸o˜es obtidas acima, podemos escrever: fY (y) = −fX(G−1(y))dG −1(y) dy = −fX(x)dxdy = fX(x) ∣∣∣dxdy ∣∣∣ A expressa˜o ∣∣∣dxdy ∣∣∣ = dG−1(y)/dy e´ o chamado Jacobiano da transformac¸a˜o Y = G(X). Como G e´ uma func¸a˜o decrescente, surge o sinal negativo. *** 0chap11.tex 17/05/2013 39 11.1 Metodologia 1. {Y ≤ y} = {X ∈ B(y)} 2. FY (y) = P{Y ≤ y} = P{X ∈ B(y)} = ∫ B(y) fX(x)dx 3. fY (y) = d dy [∫ B(y) fX(x)dx ] , (aplicar regra de Leibnitz). * Exemplo: Y = X2. 1. {Y ≤ y} = {−√y ≤ X ≤ √y} 2. FY (y) = ∫ √y −√y fX(x)dx 3. fY (y) = fX( √ y)(1 2 )(y− 1 2 )− fX(−√y)(−12)(y− 1 2 ) = fX( √ y)+fX(−√y) 2 √ y * Exemplo: Seja X uma v.a. com fX(x) e FX(x). Encontre a pdf de Y = FX(X). Observe que FX(.) e´ uma func¸a˜o monotonicamente na˜o decrescente (pois e´ uma func¸a˜o distribuic¸a˜o). 1. {Y ≤ y} = {FX(X) ≤ y} = {X ≤ F−1X (y)} 2. FY (y) = ∫ F−1X (y) −∞ fX(x)dx = FX(F −1 X (y)) = y 3. fY (y) = dFY (y) dy = { 1 0 ≤ y ≤ 1 0 outros casos Conclusa˜o: Y e´ uniforme em (0,1). * Problema: Dadas X com fX(x) e Y com fY (y), e´ poss´ıvel encontrar a transformac¸a˜o Y = G(X)? Z = FX(X) e W = FY (Y ) sa˜o varia´veis uniformes em (0,1). Se W e´ uniforme em (0,1), enta˜o Y = F−1Y (W ) tem pdf fY (y), assumindo que a inversa existe. Enta˜o, Y = F−1Y (FX(X)) transforma fX(x) em fY (y). Exemplo: Seja X uniforme em (0,1). Se Y e´ exponencial, podemos afirmar que Y = F−1Y (FX(X)) e lembrando que FX(X) = X, 0 ≤ X ≤ 1, por ser X uma v.a. uniforme em (0,1), enta˜o Y = F−1Y (X) = − ln(1−X)λ = − lnXλ , visto que 1 − X = X para distribuic¸a˜o uniforme em (0,1). 40 * Exerc´ıcio: Seja fX(x) = { e−x, x ≥ 0 0, x < 0 e fY (y) = { 1 2 √ y , 0 ≤ y ≤ 1 0, outros casos . Mostre que Y = (1− e−X)2. Obtendo as PDFs temos; FX(X) = { 1− e−x, x ≥ 0 0, x < 0 FY (y) = ∫ y 0 1 2 √ u du = √ u|y0 = √ y, 0 ≤ y ≤ 1 0, y < 0 1, y ≥ 1 Vimos que Z = FX(X) = 1 − e−X e´ uniforme em (0,1). Similarmente, W = √ Y e´ uniformemente distribu´ıda em (0,1). Igualando Z = W e resolvendo em Y obtemos Y = (1− e−X)2. *** 11.2 Gerac¸a˜o de Distribuic¸o˜es O fato de Y = FX(X) ser uma distribuic¸a˜o uniforme e´ usado em simulac¸a˜o para gerar amos- tas de varia´veis aleato´rias com uma determinada distribuic¸a˜o. Suponhamos que queremos obter uma amostra da varia´vel aleato´ria X , que possui PDF FX(x). Princ´ıpio: U = FX(X) e´ uniforme (0,1). Consequentemente F −1 X (U) = X . Procedimento: • Obteru0, uma amostra da distribuic¸a˜o uniforme em (0,1), a partir de um gerador de nu´meros aleato´rios • Obter x0 = F−1X (u0), que e´ uma amostra de X . Exemplo: FX(x) = 1− e−λx, PDF de uma distribuic¸a˜o exponencial u0 = 1− e−λx0 1− u0 = e−λx0 ln(1− u0) = −λx0 x0 = − ln(1 − u0) λ 41 Como (1 − u0) tem a mesma pdf de u0, na pra´tica usamos x0 = − ln(u0)λ , economizando a operac¸a˜o de subtrac¸a˜o. No caso discreto: Assuma P (N = k) = p1u0(k−a1)+p2u0(k−a2)+p3u0(k−a3), ou seja, N assume valores ai com probabilidade pi, i = 1, 2, 3. Obtemos P (N ≤ k) = p1u−1(k − a1) + p2u−1(k − a2) + p3u−1(k − a3). Enta˜o, a partir de u0 podemos determinar k0 da forma abaixo: 0 < u0 ≤ p1 = P (N ≤ 1) =⇒ k0 = a1 p1 = P (N ≤ 1) < u0 ≤ p1 + p2 = P (N ≤ 2) =⇒ k0 = a2 p1 + p2 = P (N ≤ 2) < u0 ≤ 1 =⇒ k0 = a3 Aplicac¸a˜o: Gerar uma amostra de uma distribuic¸a˜o geome´trica. P (N = k) = pk−1(1− p), k ≥ 1; P (N ≤ k) = k∑ i=1 pi−1(1− p) = 1− pk = FN(k); (fac¸a esta passagem); E[N ] = 1 1− p. Deveremos ter: 0 < u0 ≤ P (N ≤ 1) =⇒ k0 = 1 P (N ≤ 1) < u0 ≤ P (N ≤ 2) =⇒ k0 = 2 ... P (N ≤ j − 1) < u0 ≤ P (N ≤ j) =⇒ k0 = j ou seja 1− pj−1 < u0 ≤ 1− pj =⇒ k0 = j. Fac¸amos 1− pk−1 < u0 ≤ 1− pk. Tirando o logaritmo, obtemos ln(1− u0) ln p ≤ k < ln(1− u0) ln p + 1 Como a amostra da geome´trica e´ um nu´mero inteiro, e a me´dia da geome´trica e´ dada por 1 1−p , enta˜o de forma mais geral podemos escrever que k0 = ⌈ ln(1− u0) ln(1− 1/me´dia) ⌉ Como 1− U e´ tambe´m uniforme, podemos eliminar uma subtrac¸a˜o e escrever k0 = ⌈ ln u0 ln(1− 1/me´dia) ⌉ 42 * Exerc´ıcio: Mostre como seria gerada uma amostra do tamanho de uma mensagem em uma rede Ethernet, sabendo que a pdf do tamanho da mensagem e´ dada por P (X = i) = 3 4 u0(i− 50) + 116 1450(u−1(i− 50)− u−1(i− 500)) + 316u0(i− 500), i > 0. Observe que a PDF poderia ser facilmente obtida integrando cada um dos termos da pdf: P (X ≤ i) = 3 4 u−1(i− 50) + 116 1450(u−2(i− 50)− u−2(i− 500)) + 316u−1(i− 500), i > 0. *** 43 12 Distribuic¸a˜o Conjunta Cumulativa de V.As. A func¸a˜o de distribuic¸a˜o conjunta cumulativa de duas varia´veis aleato´rias pode ser definida como: FXY (a, b) = P (X ≤ a, Y ≤ b), −∞ < a, b <∞. A distribuic¸a˜o de X pode ser obtida a partir de FXY (., .) : FX(a) = P (X ≤ a) = P (X ≤ a, Y ≤ ∞) = FXY (a,∞) FX(b) = FXY (∞, b). No caso discreto temos: fXY (a, b) = P (X = a, Y = b). fX(a) = P (X = a) = ∑∞ b=−∞ fXY (a, b) = ∑∞ b=−∞ P (X = a, Y = b) = ∑∞ b=−∞ P (X = a|Y = b)p(Y = b). * Se X e Y sa˜o conjuntamente cont´ınuas, enta˜o: P (X ∈ A, Y ∈ B) = ∫ B ∫ A fXY (x, y)dxdy fXY (., .) = func¸a˜o densidade de probabilidade conjunta. Enta˜o: P (X ∈ A) = P (X ∈ A, Y ∈ (−∞,∞) = ∫∞−∞ ∫A fXY (x, y)dxdy = ∫A fX(x)dx Consequentemente, fX(x) = ∫∞ −∞ fXY (x, y)dy * Varia´veis Aleato´rias Independentes X e Y sa˜o independentes se, ∀a, ∀b P (X ≤ a, Y ≤ b) = P (X ≤ a)P (Y ≤ b) ou FXY (a, b) = FX(a)FY (b), ∀a, b ou fXY (x, y) = fX(x)fY (y) * 0chap12.tex 12/11/2012 44 Exerc´ıcio: Encontre a pdf da menor de K varia´veis aleato´rias, cada uma distribu´ıda exponencialmente com paraˆmetro λ. Seja Y = min {X1, X2, · · · , XK}. P (Y > y) = P (X1 > y,X2 > y, · · · , XK > y) = P (X1 > y)P (X2 > y). · · · .P (XK > y) = e−λye−λy · · · e−λy = e−Kλy. Portanto, Y e´ exponencial com paraˆmetro Kλ. Interpretac¸a˜o: Se temos K fontes exponenciais, a fonte i com paraˆmetro λi, a distribuic¸a˜o do tempo ate´ a pro´xima partida (de qualquer uma das fontes) e´ exponencial com paraˆmetro ∑ i λi. Dizendo de outra forma: a unia˜o de K fluxos Poisson e´ tambe´m um fluxo Poisson com taxa igual a` soma das taxas. * Exerc´ıcio: Sejam dadas duas varia´veis aleato´rias X1 e X2, com paraˆmetros λ1 e λ2. Calcule P (X1 > X2). P (X1 > X2) = ∫ ∞ 0 P (X1 > X2|X2 ∈ (t, t + dt))P (X2 ∈ (t, t+ dt)) = ∫ ∞ 0 P (X1 > t)λ2e −λ2tdt = λ2 ∫ ∞ 0 e−λ1te−λ2tdt = λ2 ∫ ∞ 0 e−(λ1+λ2)tdt = λ2 e−(λ1+λ2)t −(λ1 + λ2) | ∞ 0 = λ2 λ1 + λ2 Significado: λ2 λ1+λ2 e´ a probabilidade de que uma pessoa com quantidade de servic¸o distribu´ıda expo- nencialmente com paraˆmetro λ2 termine de ser atendida primeiro que uma segunda pessoa com servic¸o exponencialmente distribu´ıdo com taxa λ1, dado que num dado instante am- bas as pessoas esta˜o sendo servidas simultaneamente. Observe na˜o e´ preciso que ambas as pessoas comecem a ser atendidas no mesmo instante, porque a exponencial e´ sem memo´ria. 45 Aplicac¸a˜o: Se chegadas ocorrem segundo um Processo Poisson com taxa λ1 e partidas ocorrem segundo um processo Poisson com taxa λ2, λ1 λ1+λ2 e´ a probabilidade de que uma chegada ocorra antes de uma partida. Estes processos ocorrem em uma fila M/M/1 (chegada Poisson, servic¸o exponencial). Tudo se passa como se tive´ssemos dois fluxos Poisson: um de chegada e outro de partida. O tempo ate´ o pro´ximo evento (chegada ou partida) e´ exponencial com paraˆmetro igual a` soma dos paraˆmetros das exponenciais envolvidas. * Exerc´ıcio: Dadas treˆs varia´veis aleato´rias exponenciais independentes X1, X2 e X3, calcule a probabilidade de que X1 seja o ma´ximo entre elas. Existem duas maneiras de atacar o problema: 1. Pense em cada uma das varia´veis como uma fonte Poisson. Para que X1 seja o ma´ximo sera´ preciso que a partida desta fonte ocorra por u´ltimo. Os eventos poss´ıveis sa˜o: partida de 2, partida de 3 e partida de 1 ou partida de 3, partida de 2 e partida de 1. Somando as duas probabilidades temos: P{X1 > X2, X1 > X3} = λ2λ1+λ2+λ3 λ3λ1+λ3 + λ3λ1+λ2+λ3 λ2λ1+λ2 2. P{X1 > X2, X1 > X3} = ∫ ∞ x=0 P{X1 > X2, X1 > X3|x < X1 ≤ x+ dx}P{x < X1 ≤ x+ dx} = ∫ ∞ x=0 P{x > X2, x > X3}λ1e−λ1xdx = ∫ ∞ x=0 (1− e−λ2x)(1− e−λ3x)λ1e−λ1xdx = ∫ ∞ x=0 λ1e −λ1xdx− λ1 ∫ ∞ x=0 e−(λ1+λ2)xdx− λ1 ∫ ∞ x=0 e−(λ1+λ3)xdx+ λ1 ∫ ∞ x=0 e−(λ1+λ2+λ3)xdx = λ1 [ e−λ1x −λ1 ]∞ 0 − λ1 [ e−(λ1+λ2)x −(λ1 + λ2) ]∞ 0 − λ1 [ e−(λ1+λ3)x −(λ1 + λ3) ]∞ 0 + λ1 [ e−(λ1+λ2+λ3)x −(λ1 + λ2 + λ3) ]∞ 0 = 1− λ1 λ1 + λ2 − λ1 λ1 + λ3 + λ1 λ1 + λ2 + λ3 = ( λ2 λ1 + λ2 + λ3 )( λ3 λ1 + λ3 ) + ( λ3 λ1 + λ2 + λ3 )( λ2 λ1 + λ2 ) * 46 Exerc´ıcio: Dadas treˆs varia´veis aleato´rias exponenciais independentes X1, X2 e X3, calcule a probabilidade de P{X1 > X2|X1 > X3, X2 > X3}. Soluc¸a˜o: P{X1 > X2|X1 > X3, X2 > X3} = P{X1 > X2, X1 > X3, X2 > X3} P{X1 > X3, X2 > X3} Para calcular P{X1 > X2, X1 > X3, X2 > X3} condicione duas vezes: uma em X1 e a segunda em X2, por exemplo. Obtemos P{X1 > X2, X1 > X3, X2 > X3} = = ∫ ∞ y=0 P{X1 > X2, X1 > X3, X2 > X3|y < X1 ≤ y + dy}P{y < X1 ≤ y + dy} = ∫ ∞ y=0 P{y > X2, y > X3, X2 > X3}P{y < X1 ≤ y + dy} = ∫ ∞ y=0 ∫ ∞ z=0 P{y > z, y > X3, z > X3}P{y < X1 ≤ y + dy}P{z < X2 ≤ z + dz} = ∫ ∞ y=0 ∫ y z=0 P{z > X3}P{y < X1 ≤ y + dy}P{z < X2 ≤ z + dz} = apo´s resolver as integrac¸o˜es e simplificar = ( λ2 λ1 + λ2 )( λ3 λ1 + λ2 + λ3 ) Podemos observar que o primeiro termo da resposta corresponde a` probabilidade de X2 ser menor que X1 e o segundo termo corresponde a` probabilidade de X3 ser menor dos treˆs Xi. Esta e´ a resposta esperada quando pensamos em treˆs fontes Poisson independentes e usamos a propriedade da falta de memo´ria da exponencial e a composic¸a˜o de processos Poisson. Como P{X1 > X3, X2 > X3} = λ3λ1+λ2+λ3 , a resposta do problema e´ λ2λ1+λ2 . A inter- pretac¸a˜o e´: uma vez que X1 e X2 sa˜o ambos maiores que X3, a relac¸a˜o entre eles na˜o e´ influenciada por este fato (o que e´ razoa´vel ja´ que a exponencial e´ sem memo´ria). * Exerc´ıcio: Dado X1 e X2 exponenciais, calcule P (X1 ≤ t|X1 < X2), isto e´, calcule a distribuic¸a˜ode uma v.a. exponencial sabendo que ela e´ menor que outra v.a. exponencial. ILUSTRAC¸A˜O: Se X2 representa o tempo de servic¸o de um fregueˆs num banco, e X1 representa o tempo de chegada do pro´ximo fregueˆs que ainda encontra o fregueˆs em servic¸o, enta˜o a distribuic¸a˜o do tempo de chegada e´ dada pela fo´rmula solicitada. 47 Soluc¸a˜o: P (X1 ≤ t|X1 < X2) = P (X1 ≤ t, X1 < X2) P (X1 < X2) = λ1 + λ2 λ1 P (X1 ≤ t, X1 < X2) = λ1 + λ2 λ1 ∫ ∞ y=0 P (X1 ≤ t, X1 < X2|y < X2 ≤ y + dy)P (y < X2 ≤ y + dy) = λ1 + λ2 λ1 [∫ t y=0 P (X1 ≤ t, X1 < y)fY (y)dy + ∫ ∞ y=t P (X1 ≤ t, X1 < y)fY (y)dy ] = λ1 + λ2 λ1 [∫ t y=0 P (X1 < y)fY (y)dy + ∫ ∞ y=t P (X1 ≤ t)fY (y)dy ] = λ1 + λ2 λ1 [∫ t y=0 (1− e−λ1y)λ2e−λ2ydy + ∫ ∞ y=t (1− e−λ1t)λ2e−λ2ydy ] = λ1 + λ2 λ1 [∫ ∞ y=0 λ2e −λ2ydy − λ2 ∫ t y=0 e−(λ1+λ2)ydy − e−λ1t ∫ ∞ y=t λ2e −λ2ydy ] = λ1 + λ2 λ1 [ 1− λ2 λ1 + λ2 (1− e−(λ1+λ2)t)− e−λ1te−λ2t ] = 1− e−(λ1+λ2)t que e´ a distribuic¸a˜o de uma exponencial com taxa λ1 + λ2. Observe que o conhecimento de que X1 < X2 afeta a distribuic¸a˜o de X1 *** 48 13 Propriedades de Varia´veis Aleato´rias 13.1 Me´dia, Esperanc¸a ou Valor Esperado Define-se esperanc¸a (me´dia ou valor esperado) da varia´vel X, repesentada pela notac¸a˜o Es- peranc¸a de X = E[X ] = X , como • Caso Discreto: E[X ] =∑∀k xkP (X = xk). • Caso Cont´ınuo: E[X ] = ∫∞−∞ xfX(x)dx = ∫∞−∞ xP (x < X ≤ x+ dx). Outra forma de calcular E[X ], obtida a partir da integrac¸a˜o por partes, e´ a seguinte: E[X ] = ∫∞ 0 (1− FX(x))dx− ∫ 0 −∞ FX(x)dx. Demonstrac¸a˜o: Para demonstrar o resultado usaremos a definic¸a˜o de PDF como se segue: E[X ] = ∫∞ 0 (1− FX(x))dx− ∫ 0 −∞ FX(x)dx = ∫∞ x=0 P{X > x}dx− ∫ 0 x=−∞ FX(x)dx = ∫∞ x=0 ∫∞ y=x fX(y)dydx− ∫ 0 x=−∞ ∫ x y=−∞ fX(y)dydx = ∫∞ y=0 [∫ y x=0 dx ] fX(y)dy − ∫ 0 y=−∞ [∫ 0 x=y dx ] fX(y)dy = ∫∞ y=0 yfX(y)dy − ∫ 0 y=−∞(−y)fX(y)dy = ∫∞ y=0 yfX(y)dy + ∫ 0 y=−∞ yfX(y)dy = ∫∞ y=−∞ yfX(y)dy Conve´m lembrar que a esperanc¸a e´ um nu´mero. * Teorema fundamental Seja Y = g(X). Enta˜o, EY [Y ] = EX [g(X)] = ∫∞ −∞ g(x)fX(x)dx. EY [.] indica que a esperanc¸a e´ tomada em relac¸a˜o a varia´vel Y . 0chap13.tex 12/11/2012 49 Importante: Seja Y = X1 +X2. E[Y ] = ∫∞ −∞ yfY (y)dy = ∫∞ x1=−∞ ∫∞ x2=−∞(x1 + x2)fX1X2(x1, x2)dx1dx2 = ∫∞ x1=−∞ ∫∞ x2=−∞ x1fX1X2(x1, x2)dx1dx2+∫∞ x1=−∞ ∫∞ x2=−∞ x2fX1X2(x1, x2)dx1dx2 = ∫∞ x1=−∞ x1 {∫∞ x2=−∞ fX1X2(x1, x2)dx2 } dx1+∫∞ x2=−∞ x2 {∫∞ x1=−∞ fX1X2(x1, x2)dx1 } dx2 = ∫∞ x1=−∞ x1fX1(x1)dx1 + ∫∞ x2=−∞ x2fX2(x2)dx2 = E[X1] + E[X2], mesmo se X1 e X2 na˜o forem independentes Podemos, enta˜o, afirmar que: E [ ∑ iXi] = ∑ iE[Xi]. Observe que uma constante a pode ser definida pela densidade de massa u0(t − a). Aplicando a esperanc¸a, temos E[a] = ∫∞ −∞ tu0(t− a)dt = a, como dever´ıamos esperar. Por outro lado, se Y = aX , onde a e´ um nu´mero, enta˜o e´ fa´cil ver que E[Y ] = E[aX ] = aE[X ]. Estas propriedades mostram que a esperanc¸a e´ um operador linear. Aplicando o operador esperanc¸a E a` expressa˜o Y = aX+ b , obtemos E[Y ] = aE[X ]+ b. * Suponha Y = X1X2 e que X1 e X2 sa˜o independentes. Pode-se mostrar facilmente que E[Y ] = E[X1]E[X2]. Em geral, E[g(X1).h(X2)] = E[g(X1)]E[h(X2)], se X1 e X2 forem independentes. *** 50 13.2 Momentos Definic¸a˜o: n-e´simo momento de X = E[Xn] = Xn = { ∫∞ −∞ x nfX(x)dx , no caso cont´ınuo∑ x x nP (X = x) , no caso discreto Observe que: E[X0] = 1 E[X1] = E[X ] = esperanc¸a. E[X2] = momento de ine´rcia. Definic¸a˜o: n-e´simo momento central de X = E[(X − E[X ])n] = (X −X)n = { ∫∞ −∞(x−E[X ])nfX(x)dx no caso cont´ınuo∑ ∀x(x− E[X ])nP (X = x) no caso discreto * O momento central pode ser escrito em termos dos n-e´simos momentos (X − E[X ])n =∑nk=0 (nk)Xk(−E[X ])n−k Tirando a me´dia dos dois lados: E[(X − E[X ])n] =∑nk=0 (nk)E[Xk](−E[X ])n−k Lembre-se que a esperanc¸a e´ um nu´mero. * Variaˆncia = 2o momento central = σ2X = V(X). σX = desvio padra˜o. σ2X = E[(X −E[X ])2] = E[X2 − 2XE[X ] + (E[X ])2] = E[X2]− 2E[X ]E[X ] + (E[X ])2 = E[X2]− (E[X ])2 Coeficiente de variac¸a˜o = CX = σx E[X] . 51 * Covariaˆncia Cov(X, Y ) = E[(X − E[X ])(Y − E[Y ])] = E[XY −E[X ]Y −XE[Y ] + E[X ]E[Y ]] = E[XY ]−E[X ]E[Y ] Se X e Y forem independentes, enta˜o Cov(X, Y ) = E[X ]E[Y ]− E[X ]E[Y ] = 0. Se X = Y , enta˜o Cov(X,X) = E[(X − E[X ])2] = V (X). * Para Y = a1X1 + a2X2 + · · ·+ anXn E[Y ] = a1E[X1] + a2E[X2] + · · ·+ anE[Xn] V (Y ) = E[(Y − E[Y ])2] = E[( ∑ i aiXi − ∑ i aiE[Xi]) 2] = E[( ∑ i (aiXi − aiE[Xi]))2] = n∑ i=1 n∑ j=1 aiajE[(Xi − E[Xi])(Xj −E[Xj ])] = n∑ i=1 n∑ j=1 aiajCov(Xi, Xj) Observe que : ( ∑n i=1Xi) 2 = ∑n i=1Xi ∑n j=1Xj = ∑n i=1 ∑n j=1XiXj Se Xi sa˜o independentes V (Y ) = ∑n i=1 a 2 iV (Xi) porque Cov(Xi, Xj) = 0, se X1 6= Xj. Assim, para Y = X1 +X2, V (Y ) = V (X1) + V (X2) + 2Cov(X1, X2). Para este caso, se X1 e X2 forem independentes, V (Y ) = V (X1) + V (X2). 52 * Exemplo: Variaˆncia de uma varia´vel binomial X com paraˆmetros n e p. X mede o nu´mero de sucessos em n experimentos de Bernoulli. Seja Xi o resultado do i-e´simo experimento: Xi = { 1 , se o i-e´simo experimento tem sucesso com probabilidade p 0 , se o i-e´simo experimento falha com probabilidade 1− p X pode ser escrita como: X = X1 +X2 + · · ·+Xn, e, consequentemente, V (X) = ∑ i V (Xi). Mas, V (Xi) = E[X 2 i ]− (E[Xi])2 = E[Xi]− (E[Xi])2, pois X2i = Xi = p− p2 Enta˜o, V (X) = np(1− p). * Exerc´ıcio: Mostre que para X exponencial com paraˆmetro λ, E[X ] = 1/λ e V (X) = 1/λ2. E[X ] = ∫ ∞ 0 λxe−λxdx = λ ∫ ∞ 0 d dλ (−e−λx) dx = −λ d dλ ∫ ∞ 0 e−λxdx = −λ d dλ [ e−λx −λ ]∞ 0 = −λ d dλ ( 1 λ ) = λ λ2 = 1 λ E[X2] = ∫ ∞ 0 λx2e−λxdx = λ d dλ2 (∫ ∞ 0 e−λxdx ) = λ d dλ2 ( 1 λ ) = λ d dλ (−1 λ2 ) = λ ( 2λ λ4 ) = 2 λ2 Variaˆncia = σ2X = E[X 2]− (E[X ])2 = 2 λ2 − 1 λ2 = 1 λ2 * 53 Problema: Calcule a me´dia de uma varia´vel aleato´ria binomial negativa. E[X ] = ∞∑ n=k n ( n− 1 k − 1 ) (1− p)n−kpk, 1 ≤ k ≤ n = ∞∑ n=k n! (n− k)!(k − 1)!(1− p) n−kpk = ∞∑ n−k=l=0 (l + k)! l!(k − 1)!q lpk (fazendo l = n− k) = kpk ∞∑ l=0 ( l + k k ) ql Observando que ∑∞ l=0 ( l+k k ) ql = 1 (1−q)k+1 (mostre esta propriedade, derivando k vezes a ex- pressa˜o ∑∞ i=0 q i = 1 1−q ), podemos escrever que E[X ] = kpk pk+1 = k p . Uma outra forma de se chegar ao resultado seria seguir os passos abaixo: E[X ] = ∞∑ n=k n ( n− 1 k − 1 ) (1− p)n−kpk, 1 ≤ k ≤ n = ∞∑ n=k n! (n− k)!(k − 1)!(1− p) n−kpk = pk (k − 1)! ∞∑ n=k n(n− 1)(n− 2) · · · (n− k + 1)(1− p)n−k = pk (k − 1)! ∞∑ n=k dk dqk (qn) = pk (k − 1)! dk dqk ∞∑ n=k (qn) = pk (k − 1)! dk dqk ∞∑ n=0 qn (alterar o limite inferior do somato´rio facilita!) = pk (k − 1)! dk dqk ( 1 1− q ) = pk (k − 1)! × k! (1− q)k+1 = pkk pk+1 = k p * 54 Problema: Assuma uma sequeˆncia de eventos de Bernoulli, onde P (sucesso) = p e P (falha) = 1 − p. Seja Tc a varia´vel aleato´ria que expressa o tempo necessa´rio para se obter c falhas consecutivas. Mostre que E[Tc] = 1−(1−p)c p(1−p)c . Procedimento: determinar Tc em func¸a˜o de Tc−1. S S S F |----------|-|----------|-|----------|-|--...--|----------|-| |<--Tc-1-->| |<--Tc-1-->||<--Tc-1-->| |<-...->|<--Tc-1-->| | | | |<-------------------------Tc------------------------------>| Seja N = nu´mero de subciclos com c−1 falhas consecutivas em Tc, com Pk = P (N = k). E´ fa´cil ver que Pk = p k−1(1− p), k ≥ 1, e que E[N ] = 1 1−p . E[Tc] = ∞∑ k=1 E[Tc|N = k]P{N = k} = ∞∑ k=1 (kE[Tc−1] + k)P{N = k} = (E[Tc−1] + 1) ∞∑ k=1 kP{N = k} = 1 1− p(E[Tc−1] + 1) Observe que E[T1] = nu´mero me´dio de tentativas ate´ se obter 1 falha = 1 1−p . Recursivamente: E[T2] = 1 (1− p)2 + 1 1− p E[T3] = 1 (1− p)3 + 1 (1− p)2 + 1 1− p ... = E[Tc] = 1 (1− p)c + 1 (1− p)c−1 + · · ·+ 1 (1− p)2 + 1 (1− p) Lembrando que a soma de n termos de uma PG, cujo n-e´simo termo an = a0q n−1 e a0 e´ o primeiro termo, e´ dada por Sn = anq−a0 q−1 , podemos escrever diretamente que E[Tc] = 1−(1−p)c p(1−p)c .CQD. 55 * Exerc´ıcio: Dado X1 e X2 exponenciais, obter E[X1|X1 > X2]. ILUSTRAC¸A˜O: Se X2 representa o tempo de atendimento exponencial de um fregueˆs num banco, e X1 representa o tempo de chegada do pro´ximo fregueˆs, enta˜o E[X1|X1 > X2] representa o tempo me´dio de chegada do pro´ximo fregueˆs, dado que ele chega apo´s a sa´ıda do fregueˆs anteriormente em servic¸o. Soluc¸a˜o: Para calcular E[X1|X1 > X2], vamos inicialmente calcular P (X1 ≤ t|X1 > X2) = 1 − P (X1 > t|X1 > X2). Mas, P (X1 > t|X1 > X2) = P (X1 > t,X1 > X2) P (X1 > X2) = λ1 + λ2 λ2 P (X1 > t,X1 > X2) = λ1 + λ2 λ2 ∫ ∞ y=0 P (X1 > t,X1 > X2|y < X1 ≤ y + dy)P (y < X1 ≤ y + dy) = λ1 + λ2 λ2 ∫ ∞ y=t P (y > t, y > X2)λ1e −λ1ydy = λ1 + λ2 λ2 ∫ ∞ y=t P (X2 < y)λ1e −λ1ydy = λ1 + λ2 λ2 ∫ ∞ y=t (1− eλ2y)λ1e−λ1ydy = λ1 + λ2 λ2 [∫ ∞ y=t λ1e −λ1ydy − λ1 ∫ ∞ y=t e−(λ1+λ2)ydy ] = λ1 + λ2 λ2 [ e−λ1t − λ1 λ1 + λ2 e−(λ1+λ2)t ] = λ1 + λ2 λ2 e−λ1t − λ1 λ2 e−(λ1+λ2)t, t ≥ 0 Enta˜o, P (X1 ≤ t|X1 > X2) = 1 + λ1λ2 e−(λ1+λ2)t − λ1+λ2λ2 e−λ1t, t ≥ 0. A densidade pode ser obtida derivando a PDF: fX1(x|X1 > X2) = λ1 + λ2 λ2 [ λ1e −λ1t]− λ1 λ2 [ (λ1 + λ2)e −(λ1+λ2)t] , t ≥ 0 onde os termos entre colchetes correspondem a densidades exponenciais. Podemos, enta˜o, obter a me´dia diretamente: E[X1|X1 > X2] = λ1 + λ2 λ2 × 1 λ1 − λ1 λ2 × 1 λ1 + λ2 = 1 λ1 + λ2 + 1 λ1 56 Este resultado poderia ser diretamente obtido observando que o primeiro termo e´ o tempo me´dio para X2 ocorrer, dado que X1 > X2. O segundo termo e´ o tempo me´dio de X1, apo´s a ocorreˆncia de X2, lembrando a falta de memo´ria da exponencial. E[X1|X1 > X2] pode ser tambe´m interpretado como o tempo me´dio para a emissa˜o de duas fontes exponenciais com taxas λ1 e λ2, sabendo que a fonte com taxa λ1 emite por u´ltimo. *** 13.3 Esperanc¸a Condicional Definic¸a˜o: E[X|y < Y ≤ y + dy] = ∫∞−∞ xfX|Y (x|y)dx onde fX|Y (x|y) = fXY (x,y)fY (y) * Teorema: E[X ] = EY [E[X|y < Y ≤ y + dy]] = ∫∞ −∞E[X|y < Y ≤ y + dy]fY (y)dy Demonstrac¸a˜o: EY [E[X|y < Y ≤ y + dy]] = ∫ ∞ −∞ E[X|y < Y ≤ y + dy]fY (y)dy = ∫ ∞ −∞ ∫ ∞ −∞ x fXY (x, y) fY (y) fY (y)dxdy = ∫ ∞ −∞ x ∫ ∞ −∞ fXY (x, y)dydx = ∫ ∞ −∞ xfX(x)dx = E[X ] C.Q.D. No caso discreto, E[X ] = EY [E[X|Y = y]] = ∑ y E[X|Y = y]P (Y = y). * Vamos lembrar que: P (x < X ≤ x+ dx, A) = ∑ ∀Bi P (x < X ≤ x+ dx, A,Bi) = ∑ ∀Bi P (x < X ≤ x+ dx|A,Bi)P (A,Bi) = ∑ ∀Bi P (x < X ≤ x+ dx|A,Bi)P (Bi|A)P (A) 57 De maneira semelhante, E[X|A] = ∫ x xP (x < X ≤ x+ dx|A) = ∫ x x P (x < X ≤ x+ dx, A) P (A) = ∑ Bi ∫ x x P (x < X ≤ x+ dx, A,Bi) P (A) = ∑ Bi ∫ x x P (x < X ≤ x+ dx|A,Bi)P (A,Bi) P (A) = ∑ Bi ∫ x xP (x < X ≤ x+ dx|A,Bi)P (Bi|A) *** 13.4 Variaˆncia Condicional Definic¸a˜o:V (X|Y ) = E[(X −E[X|Y ])2|Y ] Desenvolvendo a expressa˜o de V (X|Y ), obtemos: VX(X|Y ) = EX [ (X −EX [X|Y ])2|Y ] = EX [ (X2 − 2XEX [X|Y ] + E2X [X|Y ]|Y ] = EX [X 2|Y ]− 2EX [X|Y ]E[X|Y ] + E2X [X|Y ] = EX [X 2|Y ]− E2X [X|Y ] * Teorema: V (X) = EY [VX(X|Y )] + VY (EX [X|Y ]) Demonstrac¸a˜o: EY [VX(X|Y )] = EY [ EX [X 2|Y ]− E2X [X|Y ] ] = EY [ EX [X 2|Y ]]−EY [E2X [X|Y ]] = EX [X 2]− EY [ E2X [X|Y ] ] . Por outro lado, VY (EX [X|Y ]) = EY [ E2X [X|Y ] ]− (EY [EX [X|Y ]])2 = EY [ E2X [X|Y ] ]− (EX [X ])2 . Enta˜o: EY [V (X|Y )] + VY (E[X|Y ]) = EX [X2]− (EX [X ])2 = V (X). C.Q.D. 58 * Aplicaca˜o: Assuma que num intervalo de tamanho X , X∗(s) qualquer, chegadas Poisson com taxa λ possam ocorrer. Seja Y uma varia´vel exponencialmente distribu´ıda com taxa λ. Qual seria o instante me´dio da primeira chegada, dado que pelo menos uma chegada ocorreu em X? Em outras palavras, estamos procurando determinar a me´dia da varia´vel Y , dado que ela e´ menor do que X . E[Y |Y < X ] = ∫ ∞ 0 yP (y < Y < y + dy|Y < X) = 1 P (Y < X) ∫ ∞ 0 yP (y < Y < y + dy, Y < X) = 1 1−X∗(λ) ∫ ∞ y=0 yP (Y < X|y < Y < y + dy)fY (y)dy = 1 1−X∗(λ) ∫ ∞ y=0 yP (X > y)λe−λydy = λ 1−X∗(λ) ∫ ∞ y=0 ye−λyP (X > y)dy = λ 1−X∗(λ) ∫ ∞ y=0 ye−λy ∫ ∞ y fX(x)dxdy = λ 1−X∗(λ) ∫ ∞ x=0 ∫ x y=0 ye−λydyfX(x)dx = λ 1−X∗(λ) ∫ ∞ x=0 −d dλ ( 1 λ ∫ x y=0 λe−λydy ) fX(x)dx = λ 1−X∗(λ) ∫ ∞ x=0 −d dλ ( 1− e−λx λ ) fX(x)dx = λ 1−X∗(λ) ∫ ∞ x=0 ( 1− e−λx λ2 − xe −λx λ ) fX(x)dx = λ 1−X∗(λ) ( 1−X∗(λ) λ2 + 1 λ d dλ ∫ ∞ x=0 e−λxfX(x)dx ) = 1 λ + X∗ ′ (λ) 1 +X∗(λ) 59 14 Transformadas 14.1 Transformada de Laplace Unilateral para Func¸o˜es Cont´ınuas Definimos a transformada de Laplace (T.L.) unilateral da func¸a˜o densidade de uma varia´vel aleato´ria X cont´ınua definida para valores na˜o negativos, como sendo: X∗(s) = E[e−sX ] = ∫ ∞ 0− e−sxP (x < X ≤ x+ dx) = ∫ ∞ 0− e−sxfX(x)dx A integrac¸a˜o pode ser assumida de 0 a ∞ se a func¸a˜o for bem comportada e na˜o possuir impulso (concentrac¸a˜o de probabilidade) no ponto 0. Propriedades: • Se Y = aX , enta˜o E[e−sY ] = E[e−saX ] = X∗(as) • Se X1 e X2 sa˜o independentes e Y = X1 +X2, enta˜o Y ∗(s) = E[e−sY ] = E[e−s(X1+X2)] = E[e−sX1 ]E[e−sX2] = X∗1 (s)X ∗ 2 (s) • Se Y = T = constante, enta˜o E[e−sY ] = e−sT • X∗(s)|s=0 = X∗(0) = E[1] = 1 • Obtenc¸a˜o de momentos X∗ ′ (s) = d ds X∗(s) = d ds E[e−sX ] = E[−Xe−sX ] Enta˜o, X∗ ′ (s)|s=0 = X∗′(0) = E[−X ] = −E[X ]. X∗ ′′ (s) = d2 ds2 X∗(s) = d2 ds2 E[e−sX ] = E[X2e−sX ] Enta˜o, X∗(2)(s)|s=0 = X∗′′(0) = E[X2]. Generalizando: d n dsn X∗(s)|s=0 = (−1)nE[Xn] • Um resultado importante envolvendo os momentos e a T.L. pode ser obtido fazendo a expansa˜o de Taylor da exponencial em torno do ponto 0: E[e−sX ] = E[ ∞∑ i=0 (−sX)i i! ] = ∞∑ i=0 (−s)i i! E[X i] E em termos dos momentos da varia´vel aleato´ria, temos E[e−sX ] = 1− sE[X ] + s 2 2 E[X2]− s 3 3! E[X3] + · · · mostrando que a transformada pode ser obtida como uma func¸a˜o de todos os momentos da varia´vel aleato´ria. 0chap14.tex 17/05/2013 60 • A Transformada de Laplace de uma pdf e´ u´nica; dada a pdf obtemos a T.L., e dada a T.L. podemos obter, pelo processo inverso (geralmente atrave´s da expansa˜o em frac¸o˜es parciais e uso de tabelas de pares f(t) ⇔ F ∗(s)), a pdf, que sera´ u´nica tambe´m. Consequ¨entemente, uma varia´vel aleato´ria cont´ınua e´ perfeitamente caracterizada por uma das func¸o˜es: T.L. da pdf, func¸a˜o densidade ou func¸a˜o distribuic¸a˜o. * Exerc´ıcio: Obter a T.L. de uma exponencial com taxa λ. E[e−sX ] = ∫ ∞ 0 e−stλe−λtdt = λ λ+ s ∫ ∞ 0 (λ+ s)e−(s+λ)tdt = λ λ+ s Observe que a u´ltima integral vale 1, pois corresponde
Compartilhar