Baixe o app para aproveitar ainda mais
Prévia do material em texto
Instituto Tecnológico de Aeronáutica Divisão de Engenharia Mecânica MOQ-13/PO-210: Probabilidade e Estatística Profa. Denise Beatriz Ferrari www.mec.ita.br/∼denise denise@ita.br 2o. semestre/2017 SEMANA 08: Roteiro I Distribuições Notáveis - parte II – Poisson – Exponencial – Gama Distribuições Notáveis - Parte II recapitulando... Processo de Bernoulli Na aula passada, analisamos um tipo de processo aleatório que descreve probabilisticamente a ocorrência de “sucessos” em uma série de repetições de experimentos discretos independentes: 1. Existem apenas dois resultados possíveis (que chamamos de “sucesso” ou “fracasso”) 2. Cada repetição do experimento ocorre independentemente da outra 3. A chance de obter “sucesso” (e, consequentemente, de obter fracasso) se mantém constante para todos os experimentos. 4 / 1 recapitulando... Vimos também algumas distribuições associadas a um Processo de Bernoulli: 1. X = número total de sucessos em n repetições do experimento de Bernoulli X ∼ Bin(n, p) 2. X = número de experimentos necessários até observar o primeiro sucesso X ∼ Geo(p) 3. X = número de experimentos necessários até observar k sucessos X ∼ BinNeg(p, k) 5 / 1 recapitulando... Vimos também algumas distribuições associadas a um Processo de Bernoulli: 1. X = número total de sucessos em n repetições do experimento de Bernoulli X ∼ Bin(n, p) 2. X = número de experimentos necessários até observar o primeiro sucesso X ∼ Geo(p) 3. X = número de experimentos necessários até observar k sucessos X ∼ BinNeg(p, k) 5 / 1 recapitulando... Vimos também algumas distribuições associadas a um Processo de Bernoulli: 1. X = número total de sucessos em n repetições do experimento de Bernoulli X ∼ Bin(n, p) 2. X = número de experimentos necessários até observar o primeiro sucesso X ∼ Geo(p) 3. X = número de experimentos necessários até observar k sucessos X ∼ BinNeg(p, k) 5 / 1 recapitulando... Vimos também algumas distribuições associadas a um Processo de Bernoulli: 1. X = número total de sucessos em n repetições do experimento de Bernoulli X ∼ Bin(n, p) 2. X = número de experimentos necessários até observar o primeiro sucesso X ∼ Geo(p) 3. X = número de experimentos necessários até observar k sucessos X ∼ BinNeg(p, k) 5 / 1 recapitulando... ... e variações: 1. X = (X1,X2, . . . ,Xm) = número total de ocorrências de cada um de m possíveis resultados de um experimento de De Moivre (multinomial) X ∼ Multin(p1, p2, . . . , pm, n) 2. X = número total de sucessos em n repetições de um experimento de Bernoulli quando a amostragem é realizada sem reposição X ∼ HiperGeo(N, n, k) 3. X = número de repetições de um experimento de Bernoulli com amostragem sem reposição até obter k sucessos X ∼ HiperGeoNeg(N,K , k) 6 / 1 recapitulando... ... e variações: 1. X = (X1,X2, . . . ,Xm) = número total de ocorrências de cada um de m possíveis resultados de um experimento de De Moivre (multinomial) X ∼ Multin(p1, p2, . . . , pm, n) 2. X = número total de sucessos em n repetições de um experimento de Bernoulli quando a amostragem é realizada sem reposição X ∼ HiperGeo(N, n, k) 3. X = número de repetições de um experimento de Bernoulli com amostragem sem reposição até obter k sucessos X ∼ HiperGeoNeg(N,K , k) 6 / 1 recapitulando... ... e variações: 1. X = (X1,X2, . . . ,Xm) = número total de ocorrências de cada um de m possíveis resultados de um experimento de De Moivre (multinomial) X ∼ Multin(p1, p2, . . . , pm, n) 2. X = número total de sucessos em n repetições de um experimento de Bernoulli quando a amostragem é realizada sem reposição X ∼ HiperGeo(N, n, k) 3. X = número de repetições de um experimento de Bernoulli com amostragem sem reposição até obter k sucessos X ∼ HiperGeoNeg(N,K , k) 6 / 1 recapitulando... ... e variações: 1. X = (X1,X2, . . . ,Xm) = número total de ocorrências de cada um de m possíveis resultados de um experimento de De Moivre (multinomial) X ∼ Multin(p1, p2, . . . , pm, n) 2. X = número total de sucessos em n repetições de um experimento de Bernoulli quando a amostragem é realizada sem reposição X ∼ HiperGeo(N, n, k) 3. X = número de repetições de um experimento de Bernoulli com amostragem sem reposição até obter k sucessos X ∼ HiperGeoNeg(N,K , k) 6 / 1 Vamos analisar agora outro tipo de processo aleatório, que trata da descrição probabilística da contagem de “sucessos” ocorrendo em domínio contínuo (linear: tempo, comprimento, área, volume). Por conveniência (e sem perda de generalidade), vamos analisar o caso em que observamos certas ocorrências de um fenômeno de interesse no tempo. 7 / 1 Processo de Poisson Processo de Poisson Motivação Suponha que observamos a chegada de pessoas a um posto, onde está localizado um caminhão pipa que fornece água no sertão e que registramos o número de pessoas que visitam o posto num certo período de tempo. Em média, 10 famílias chegam ao caminhão diariamente. O caminhão pipa tem capacidade para abastecer no máximo 15 famílias. Qual a probabilidade de que, em um determinado dia, algumas famílias tenham que ser desviadas para outro posto? “Os Retirantes” (1944). Cândido Portinari. 9 / 1 Processo de Poisson O processo de chegada das pessoas não é completamente previsível. As pessoas chegam ao posto em instantes aleatórios T1,T2, . . . durante o intervalo de tempo (0, t]. As ocorrências no tempo podem ser representadas da seguinte maneira: 10 / 1 Processo de Poisson Se iniciamos a contagem no instante de tempo igual a 0, então o número de pessoas registradas N(t) no instante t > 0 é o resultado de um processo aleatório {N(t) : t ≥ 0}, tal que: . N(0) = 0 . N(t) ∈ {0, 1, 2, . . .} . s < t ⇒ N(s) ≤ N(t) Sejam t, s > 0 instantes quaisquer após o instante inicial t0 = 0: . O intervalo (0, t] tem comprimento t . O intervalo (t, t + s] tem comprimento s 11 / 1 Processo de Poisson Seja: P[N(t) = k]: probabilidade de exatamente k ocorrências em um intervalo de tempo qualquer de comprimento t ≥ 0. Então: ∞∑ k=0 P[N(t) = k] = 1, ou seja, em cada intervalo de comprimento t, devemos ter exatamente ou zero, ou 1 ou 2, ou ..., e assim por diante, ocorrências. Note que P[N(t) = k] é f.d.p. com respeito a k mas não é f.d.p. com respeito a t. Podemos apenas garantir que: 0 ≤ ∫ ∞ t=0 P[N(t) = k]dt ≤ ∞ 12 / 1 Processo de Poisson Vamos assumir que: 1. (Homogeneidade, estacionariedade fraca) A probabilidade de exatamente uma ocorrência em um pequeno intervalo de comprimento h é aproximadamente proporcional ao comprimento do intervalo: P[N(h) = 1] = λh + o(h); lim h→0 o(h) h = 0 2. A probabilidade de mais de uma ocorrência em um pequeno intervalo de comprimento h é desprezível: P[N(h) > 1] = o(h) 3. (Independência, ausência de memória) O número de ocorrências em qualquer intervalo de comprimento h é independente do histórico de ocorrências em outros instantes fora deste intervalo. 13 / 1 Processo de Poisson Precisamos determinar, para qualquer valor de n: Pn(s) = P[N(s) = n] = P[exatamente n ocorrências em um intervalo de comprimento s] Façamos, então, para n = 0, n = 1 e, assim, sucessivamente. 14 / 1 Processo de Poisson Precisamos determinar, para qualquer valor de n: Pn(s) = P[N(s) = n] = P[exatamente n ocorrências em um intervalo de comprimento s] Façamos, então, para n = 0, n = 1 e, assim, sucessivamente. 14 / 1 Processo de Poisson (1). Para n = 0: P0(t + h) = P[nenhuma ocorrência no intervalo (0, t + h]] = P[nenhuma ocorrência em (0, t] E nenhuma ocorrência em (t, t + h]] (indep.) = P[nenhuma ocorrência em (0, t]] · P[nenhuma ocorrência em (t, t + h]] = P0(t) · P0(h) Mas, blabla P0(h) = P[nenhuma ocorrência no intervalo (t, t + h]] = 1− P[pelo menos uma ocorrência em (t, t + h]] = 1− P[exatamente uma ocorrência em (t, t + h]] = 1− P[pelo menos duas ocorrências em (t, t + h]] = 1− λh − o(h)− o(h) 15 / 1 Processo de Poisson Portanto, P0(t + h) = P0(t) · P0(h) = P0(t) · (1− λh − o(h)− o(h)) = P0(t)− λhP0(t)− P0(t)(o(h) + o(h)) Dividindotoda a expressão por h: P0(t + h)− P0(t) h = −λP0(t)− P0(t) o(h) + o(h) h Tomando o limite quando h ↓ 0 : lim h→0 P0(t + h)− P0(t) h = −λP0(t) 16 / 1 Processo de Poisson Obtemos: P ′0(t) = −λP0(t) Sob a condição inicial P0(0) = 1, esta é uma equação diferencial cuja solução é: P0(t) = e −λt 17 / 1 Processo de Poisson Analogamente, (2). Para n = 1: P1(t + h) = P1(t) · P0(h) + P0(t) · P1(h) = P1(t)(1− λh − o(h)) + P0(t)(λh + o(h)) Que leva à equação diferencial: P ′1(t) = −λP1(t) + λP0(t) Cuja solução, sob a condição inicial P1(0) = 0, é: P1(t) = (λt)e −λt 18 / 1 Processo de Poisson É possível mostrar que: P ′n(t) = −λPn(t) + λPn−1(t), para n = 2, 3, . . . Este sistema de equações diferenciais tem solução: Pn(t) = (λt)n n! e−λt Portanto, para o exemplo de motivação, definindo a v.a. X = no. de famílias que chegam diariamente a uma taxa λ = 10/dia; t = 1 dia. P[X > 15] = 1− P[X ≤ 15] = 1− 15∑ x=0 e−λ x! λx = 1− 0, 9513 = 0, 0487 ≈ 5% 19 / 1 Distribuição de Poisson Distribuição de Poisson Definição X ∼ Poi(λ), λ > 0: X = número de ocorrências (“sucessos”) em um intervalo contínuo unitário (real) fX (x) = { λx x! e −λ, x = 0, 1, . . . 0, c .c . λ > 0 E [X ] = λ Var [X ] = λ (Simulação) 21 / 1 Distribuição de Poisson Outros exemplos de aplicações Contagem do número de ocorrências (“sucessos”) em um meio contínuo: - mensagens de emails que chegam em um servidor (tempo) - asteróides que atingem o planeta Terra (tempo ou localização) - pessoas que chegam a um banco (tempo) - ocorrência de imperfeições em um material (volume) - veículos que chegam a um cruzamento (tempo) - estrelas visíveis em uma área do céu (área) - fósseis em um sítio arqueológico (volume) - organismos em uma certa quantidade de fluido (volume) - etc... 22 / 1 Distribuição de Poisson Distribuição de Poisson como aproximação para a Distribuição Binomial X ∼ Bin(n, p) I prop. 1: n→∞, p → 0, np n→∞−−−→ λ = constante I prop. 3: Independência dos experimentos de Bernoulli X ∼ Bin(n, p) n→∞−−−→ Pois(λ) I Se p → 0: λ ≈ np I Se p → 1: fazer p = P[F ] t.q. p → 0 (inverter rótulos de “sucesso” e “fracasso”) I Regra de bolso: n ≥ 20 e p ≤ 0.05, ou n ≥ 100 e p ≤ 0.10. (Simulação) 23 / 1 Distribuição de Poisson Exemplo 2 Em uma certa fábrica, a ocorrência de acidentes é bastante infreqüente. Sabe-se que a probabilidade de ocorrer um acidente em um dia qualquer é 0,005 e que os acidentes são independentes. I Qual a probabilidade de que em um período de 400 dias ocorrerá um acidente em um dia? I Qual a probabilidade de que haja no máximo três dias com acidente? 24 / 1 Distribuição de Poisson Exemplo 2 – Solução Temos n = 400 e p = 0, 005. Portanto, µ = np = 2. Utilizando a aproximação de Poisson: 1. P[X = 1] = Pois(1; 2) = e−221 = 0, 271 2. P[X ≤ 3] = ∑3 x=0 Pois(x ; 2) = ∑3 x=0 e −22x/x! = 0, 857 Utilizando o software R... 25 / 1 Distribuição Exponencial Distribuição Exponencial (Negativa) Motivação Um processo de Poisson consiste em um experimento que consiste em contar o número de ocorrências de um determinado fenômeno aleatório com certas características especiais. Suponha que uma dessas ocorrências tenha apenas acontecido. Por exemplo, uma família acabou de chegar ao posto onde está o caminhão pipa. Como se distribui o tempo de espera X até que a próxima família chegue? 27 / 1 Distribuição Exponencial Motivação Qual a distribuição do tempo de espera X até observar a próxima ocorrência? P[X > t] = P[nenhuma ocorrência no intervalo(0, t]] = P0(t) = e−λt Portanto, P[X ≤ t] = FX (t) = 1− P[X > t] = 1− e−λt , t > 0 E, então: fX (x) = dF (x) dx = λe −λx , x > 0 28 / 1 Distribuição Exponencial Motivação Qual a distribuição do tempo de espera X até observar a próxima ocorrência? P[X > t] = P[nenhuma ocorrência no intervalo(0, t]] = P0(t) = e−λt Portanto, P[X ≤ t] = FX (t) = 1− P[X > t] = 1− e−λt , t > 0 E, então: fX (x) = dF (x) dx = λe −λx , x > 0 28 / 1 Distribuição Exponencial Definição X ∼ Exp(λ), λ > 0: X = tempo de espera entre ocorrências sucessivas em um processo de Poisson fX (x) = { λe−λx , x > 0 0, c .c . λ > 0 E [X ] = 1 λ Var [X ] = 1 λ2 (Simulação) I Análoga à v.a. geométrica (no caso de um Processo de Bernoulli) Distr. geométrica: v.a. de tempo de espera discreto Distr. exponencial: v.a. de tempo de espera contínuo 29 / 1 Distribuição Exponencial Propriedade de Ausência de Memória Importante para aplicações de confiabilidade e tempo de vida de componentes/sistemas. Por exemplo, Seja um componente eletrônico, cuja vida útil tenha distribuição exponencial. A probabilidade de que o componente dure t horas, dado que já durou t0 é dada por: P[X ≥ t0 + t|X ≥ t0] = P[X ≥ t]; t > 0, t0 > 0 I Hipótese forte: não existe desgaste I Se esta hipótese não for razoável: Distribuição Exponencial FX (x) = P[X ≤ x ] = 1− eλ; x > 0, λ > 0 :função taxa de falha constante = λ Distribuição de Weibull FX (x) = P[X ≤ x ] = (1− ex/η)β; x > 0, β > 0, η > 0 :função taxa de falha crescente, constante ou decrescente (conforme β >, = ou < 1, respectivamente) 30 / 1 Distribuição Gama Distribuição Gama Definição Função Gama: Γ(α) = ∫∞ 0 x α−1e−xdx , α > 0 Propriedade: n ∈ Z+ : Γ(n) = (n − 1)! Γ(1/2) = √ π X ∼ Gama(α, β): X = tempo de espera até observar a α-ésima ocorrência em um processo de Poisson fX (x) = 1 βαΓ(α)x α−1e−x/β, x ≥ 0 0, c .c . α > 0; β > 0 E [X ] = αβ Var [X ] = αβ2 I Análoga à v.a. Binomial Negativa I importante para teoria de filas e confiabilidade I modela o tempo de espera até a ocorrência de eventos, até a falha de componentes e sistemas etc. 32 / 1 Distribuição Gama Casos Especiais Distribuição Chi-Quadrado: X ∼ χ2 (ν) = Gama (α = ν/2, β = 2) fX (x) = { 1 2ν/2Γ(ν/2)x (ν/2)−1e−x/2, x ≥ 0 0, c .c . E [X ] = ν Var [X ] = 2ν ν é o número de graus de liberdade da distribuição. 33 / 1 Distribuição Gama Observações Relação ao Processo de Poisson Nas condições de um processo de Poisson: I A distr. Exponencial modela o intervalo (tempo, espaço, etc) entre duas ocorrências consecutivas. β = 1/λ é o tempo médio entre ocorrências I A distr. Gama modela o intervalo de espera até que α eventos de Poisson tenham ocorrido. Aplicações da Distr. Chi-Quadrado: I Papel fundamental em inferência estatística (estimação, testes de hipóteses) I Uso intenso em procedimentos envolvendo distribuições amostrais, ANOVA, e estatística não-paramétrica 34 / 1 Distribuição Gama Exemplo 1 – Confiabilidade Um sistema contém componentes cujo tempo (em anos) até falhar é dado por T . A v.a. T é bem representada pela distr. exponencial com tempo médio até falha igual a 5. Se 5 destes componentes são instalados em diferentes sistemas, qual a probabilidade de que pelo menos 2 continuem funcionando no final de 8 anos? Solução Temos: T ∼ exp(λ = 1/5). Para um componente: P[falha após 8 anos] = P[T ≥ 8] = 15 ∫∞ 8 e t/5dt = e8/5 ≈ 0, 2 Está resolvido o problema?... Seja X = no. de componentes funcionando após 8 anos X ∼ Binom(x ; n = 5, p = 0, 2) P[X ≥ 2] = 5∑ x=2 Binom(x ; n = 5, p = 0, 2) = 1− 1∑ x=0 Binom(x ; n = 5, p = 0, 2) = 1− 0, 7373 = 0, 2627 35 / 1 Distribuição Gama Exemplo 1 – Confiabilidade Um sistema contém componentes cujo tempo (em anos) até falhar é dado por T . A v.a. T é bem representada pela distr. exponencial com tempo médio até falha igual a 5. Se 5 destes componentes são instalados em diferentes sistemas, qual a probabilidade de que pelo menos 2 continuem funcionando no final de 8 anos? Solução Temos: T ∼ exp(λ = 1/5). Para um componente: P[falha após 8 anos] = P[T ≥ 8] = 15 ∫∞ 8 e t/5dt = e8/5 ≈ 0, 2 Está resolvido o problema?... Seja X = no. de componentes funcionando após 8 anos X ∼ Binom(x ; n = 5, p = 0, 2) P[X ≥ 2] = 5∑ x=2 Binom(x ; n = 5, p = 0, 2) = 1− 1∑ x=0 Binom(x ; n = 5, p = 0, 2) = 1− 0, 7373 = 0, 2627 35 / 1 Distribuição Gama Exemplo 1 – Confiabilidade Um sistema contém componentes cujo tempo (em anos) até falhar é dado por T . A v.a. T é bemrepresentada pela distr. exponencial com tempo médio até falha igual a 5. Se 5 destes componentes são instalados em diferentes sistemas, qual a probabilidade de que pelo menos 2 continuem funcionando no final de 8 anos? Solução Temos: T ∼ exp(λ = 1/5). Para um componente: P[falha após 8 anos] = P[T ≥ 8] = 15 ∫∞ 8 e t/5dt = e8/5 ≈ 0, 2 Está resolvido o problema?... Seja X = no. de componentes funcionando após 8 anos X ∼ Binom(x ; n = 5, p = 0, 2) P[X ≥ 2] = 5∑ x=2 Binom(x ; n = 5, p = 0, 2) = 1− 1∑ x=0 Binom(x ; n = 5, p = 0, 2) = 1− 0, 7373 = 0, 2627 35 / 1 Distribuição Gama Exemplo 2 – Tempo de Espera Suponha que telefonemas chegando em uma central telefônica sigam um processo de Poisson com média de 5 telefonemas por minuto. Qual a probabilidade de que não mais que um minuto passe até que 2 telefonemas sejam recebidos? Solução Seja X = tempo até que 2 chamadas sejam recebidas X ∼ Gama(α = 2, β = 1/λ = 1/5) P[X ≤ 1] = ∫ 1 0 1 β2 xe−x/βdx = 25 ∫ 1 0 xe−5xdx = 1− e−5(1 + 5) = 0, 96. 36 / 1 Distribuição Gama Exemplo 2 – Tempo de Espera Suponha que telefonemas chegando em uma central telefônica sigam um processo de Poisson com média de 5 telefonemas por minuto. Qual a probabilidade de que não mais que um minuto passe até que 2 telefonemas sejam recebidos? Solução Seja X = tempo até que 2 chamadas sejam recebidas X ∼ Gama(α = 2, β = 1/λ = 1/5) P[X ≤ 1] = ∫ 1 0 1 β2 xe−x/βdx = 25 ∫ 1 0 xe−5xdx = 1− e−5(1 + 5) = 0, 96. 36 / 1 Distribuição Gama Exemplo 3 Sabe-se, historicamente, que o período (em meses) entre reclamações de clientes sobre um certo produto tem distribuição Gama, com α = 2 e β = 4. Foram realizadas modificações no processo de produção, de forma a melhorar o controle de qualidade. Após tais modificações, houve uma espera de 20 meses até que ocorresse a primeira reclamação. Pergunta-se: o novo processo de controle de qualidade foi efetivo? Solução X = tempo de espera até a primeira reclamação. Queremos saber se é plausível (ou seja, frequente) observar X ≥ 20, para α = 2, β = 4. Utilizando o R, obtemos P[X ≥ 20] = 0, 0404. Conclusão: Se o novo controle de qualidade não for efetivo, significa que as condições permanecem inalteradas: X ∼ Gama(α = 2, β = 4). Nestas condições, a probabilidade de ter de esperar 20 meses para observar uma reclamação é de aproximadamente 4%. Portanto, é razoável concluir que a mudança no controle de qualidade foi efetiva. 37 / 1 Distribuição Gama Exemplo 3 Sabe-se, historicamente, que o período (em meses) entre reclamações de clientes sobre um certo produto tem distribuição Gama, com α = 2 e β = 4. Foram realizadas modificações no processo de produção, de forma a melhorar o controle de qualidade. Após tais modificações, houve uma espera de 20 meses até que ocorresse a primeira reclamação. Pergunta-se: o novo processo de controle de qualidade foi efetivo? Solução X = tempo de espera até a primeira reclamação. Queremos saber se é plausível (ou seja, frequente) observar X ≥ 20, para α = 2, β = 4. Utilizando o R, obtemos P[X ≥ 20] = 0, 0404. Conclusão: Se o novo controle de qualidade não for efetivo, significa que as condições permanecem inalteradas: X ∼ Gama(α = 2, β = 4). Nestas condições, a probabilidade de ter de esperar 20 meses para observar uma reclamação é de aproximadamente 4%. Portanto, é razoável concluir que a mudança no controle de qualidade foi efetiva. 37 / 1 Distribuição Gama Exemplo 3 Sabe-se, historicamente, que o período (em meses) entre reclamações de clientes sobre um certo produto tem distribuição Gama, com α = 2 e β = 4. Foram realizadas modificações no processo de produção, de forma a melhorar o controle de qualidade. Após tais modificações, houve uma espera de 20 meses até que ocorresse a primeira reclamação. Pergunta-se: o novo processo de controle de qualidade foi efetivo? Solução X = tempo de espera até a primeira reclamação. Queremos saber se é plausível (ou seja, frequente) observar X ≥ 20, para α = 2, β = 4. Utilizando o R, obtemos P[X ≥ 20] = 0, 0404. Conclusão: Se o novo controle de qualidade não for efetivo, significa que as condições permanecem inalteradas: X ∼ Gama(α = 2, β = 4). Nestas condições, a probabilidade de ter de esperar 20 meses para observar uma reclamação é de aproximadamente 4%. Portanto, é razoável concluir que a mudança no controle de qualidade foi efetiva. 37 / 1 OBRIGADA Denise B. Ferrari denise@ita.br — 2017 —
Compartilhar