Baixe o app para aproveitar ainda mais
Prévia do material em texto
x 1 Pesquisa Operacional II Alexander Cascardo Carneiro 1 ª e d iç ã o x 2 DIREÇÃO SUPERIOR Chanceler Joaquim de Oliveira Reitora Marlene Salgado de Oliveira Presidente da Mantenedora Wellington Salgado de Oliveira Pró-Reitor de Planejamento e Finanças Wellington Salgado de Oliveira Pró-Reitor de Organização e Desenvolvimento Jefferson Salgado de Oliveira Pró-Reitor Administrativo Wallace Salgado de Oliveira Pró-Reitora Acadêmica Jaina dos Santos Mello Ferreira Pró-Reitor de Extensão Manuel de Souza Esteves DEPARTAMENTO DE ENSINO A DISTÂNCIA Gerência Nacional do EAD Bruno Mello Ferreira Gestor Acadêmico Diogo Pereira da Silva FICHA TÉCNICA Texto: Revisão Ortográfica: Rafael Dias de Carvalho Moraes Projeto Gráfico e Editoração: Antonia Machado, Eduardo Bordoni, Fabrício Ramos e Victor Narciso Supervisão de Materiais Instrucionais: Antonia Machado Ilustração: Eduardo Bordoni e Fabrício Ramos Capa: Eduardo Bordoni e Fabrício Ramos COORDENAÇÃO GERAL: Departamento de Ensino a Distância Rua Marechal Deodoro 217, Centro, Niterói, RJ, CEP 24020-420 www.universo.edu.br Ficha catalográfica elaborada pela Biblioteca Universo – Campus Niterói Bibliotecária: ELIZABETH FRANCO MARTINS – CRB 7/4990 Informamos que é de única e exclusiva responsabilidade do autor a originalidade desta obra, não se responsabilizando a ASOEC pelo conteúdo do texto formulado. © Departamento de Ensino a Distância - Universidade Salgado de Oliveira Todos os direitos reservados. Nenhuma parte desta publicação pode ser reproduzida, arquivada ou transmitida de nenhuma forma ou por nenhum meio sem permissão expressa e por escrito da Associação Salgado de Oliveira de Educação e Cultura, mantenedora da Universidade Salgado de Oliveira (UNIVERSO). http://www.universo.edu.br/ x 3 Palavra da Reitora Acompanhando as necessidades de um mundo cada vez mais complexo, exigente e necessitado de aprendizagem contínua, a Universidade Salgado de Oliveira (UNIVERSO) apresenta a UNIVERSOEAD, que reúne os diferentes segmentos do ensino a distância na universidade. Nosso programa foi desenvolvido segundo as diretrizes do MEC e baseado em experiências do gênero bem-sucedidas mundialmente. São inúmeras as vantagens de se estudar a distância e somente por meio dessa modalidade de ensino são sanadas as dificuldades de tempo e espaço presentes nos dias de hoje. O aluno tem a possibilidade de administrar seu próprio tempo e gerenciar seu estudo de acordo com sua disponibilidade, tornando-se responsável pela própria aprendizagem. O ensino a distância complementa os estudos presenciais à medida que permite que alunos e professores, fisicamente distanciados, possam estar a todo o momento, ligados por ferramentas de interação presentes na Internet através de nossa plataforma. Além disso, nosso material didático foi desenvolvido por professores especializados nessa modalidade de ensino, em que a clareza e objetividade são fundamentais para a perfeita compreensão dos conteúdos. A UNIVERSO tem uma história de sucesso no que diz respeito à educação a distância. Nossa experiência nos remete ao final da década de 80, com o bem- sucedido projeto Novo Saber. Hoje, oferece uma estrutura em constante processo de atualização, ampliando as possibilidades de acesso a cursos de atualização, graduação ou pós-graduação. Reafirmando seu compromisso com a excelência no ensino e compartilhando as novas tendências em educação, a UNIVERSO convida seu alunado a conhecer o programa e usufruir das vantagens que o estudar a distância proporciona. Seja bem-vindo à UNIVERSOEAD! Professora Marlene Salgado de Oliveira Reitora. x 4 x 5 Sumário Apresentação da disciplina ............................................................................ Plano da disciplina ......................................................................................... Unidade 1 – Cadeias de Markov .................................................................... Unidade 2 – Teoria de Filas ........................................................................... Unidade 3 – Análise de Decisão .................................................................... Unidade 4 – Teoria dos Jogos........................................................................ Unidade 5 – Otimização em Redes ................................................................ Unidade 6 – Programação Dinâmica .............................................................. Considerações finais ...................................................................................... Conhecendo as autoras ................................................................................. Referências .................................................................................................... Anexos ........................................................................................................... x 6 x 7 Apresentação da Disciplina Caríssimo leitor, Esse livro é uma sequência do conteúdo tratado em Pesquisa Operacional I. Lá, trabalhamos com diferentes aplicações da Programação Linear (PL) em diversos tipos de problemas. Aqui, em Pesquisa Operacional II o nosso foco será no estudo de Redes, porém os conceitos e os métodos aprendidos em Pesquisa Operacional I, principalmente o método tabular Simplex, não podem ser excluídos. De fato, poderíamos utilizar os métodos aprendidos na disciplina anterior para a solução dos problemas que serão discutidos nesse livro. No entanto, em Pesquisa Operacional II aprenderemos métodos e algoritmos ainda mais eficientes para solucionar novos tipos de problemas. O interessante dessa nova abordagem, que desenvolve algoritmos para solucionar problemas de Pesquisa Operacional, é a possibilidade de introduzirmos os cálculos em um sistema computacional (por exemplo, desenvolver esses cálculos por meio de um software). Essa possibilidade permite que todas as operações matemáticas (que seriam feitas “no papel”) possam ser resolvidas no computador. Assim, esse livro expõe não somente os conteúdos de Pesquisa Operacional, mas também apresenta uma metodologia numérica para solucionar problemas de Pesquisa Operacional que pode ser implantada por meio de softwares computacionais. Por isso eu recomendo que você sempre vá além das expectativas, buscando o entendimento sobre os conceitos tratados nesse livro junto com as suas possíveis aplicações práticas. x 8 x 9 Plano da Disciplina Prezado, O nosso livro de Pesquisa Operacional II aborda todos esses temas ao longo de suas seis Unidades, cujos conteúdos estão apresentados a seguir: Unidade 1 – Cadeias de Markov Na primeira Unidade, começaremos a nossa caminhada na disciplina de Pesquisa Operacional II. Aprenderemos sobre as cadeias de Markov e sua importância para solução de problemas de Pesquisa Operacional. Objetivos da unidade: Compreender os conceitos de processos estocásticos e diagrama de transição de estados. Entender os processos markoviano, suas propriedades e classificações. Calcular as probabilidades de estado no equilíbrio e o tempo médio de primeiro retorno. Unidade 2 – Teoria de Filas Na segunda Unidade, vamos entender os conceitos relacionados à Teoria de Filas, a partir dos seus principais modelos. Estudaremos as diferentes fórmulas, classificações e medidas de desempenho das filas. Objetivos da unidade: Conhecer a importância de se estudar filas e seus principais elementos. x 10 Apresentar a distribuição exponencial e de Poisson e como elas se relacionam com os modelos de filas. Descrever as diferentes classificações das filas e suas principais medidas de desempenho.Unidade 3 – Análise de Decisão Na terceira Unidade, vamos estudar os fundamentos da Análise de Decisão, incluindo a tomada de decisões sob certeza (quando os dados são determinísticos), a tomada de decisões sob risco (quando os dados são probabilísticos) e a tomada de decisões sob incerteza (quando os dados são incertos). Objetivos da unidade: Entender os princípios da tomada de decisão sob certeza, incluindo os conceitos de matriz de comparação, de consistência e a ferramenta AHP. Apresentar os fundamentos da tomada de decisão sob risco, explicando o critério do valor esperado, os elementos da árvore de decisão e os estados da natureza. Descrever os principais critérios de tomada de decisão sob incerteza, como o critério de Laplace, o critério maximin (ou minimax), o arrependimento de Savage e o critério de Hurwicz. Unidade 4 – Teoria dos Jogos Na quarta unidade, vamos aprender sobre um importante campo da Pesquisa Operacional conhecido como Teoria dos Jogos. De forma semelhante à tomada de decisão sob incerteza, o objetivo aqui é encontrar a solução de problemas nos quais são conhecidos apenas os retornos (mas não as probabilidades associadas a eles). A diferença é que agora o retorno passa a ser influenciado pelas ações dos concorrentes (não mais pelos “estados da natureza”). Objetivos da unidade: x 11 Conhecer as motivações, os objetivos e os elementos que fazem parte do estudo da Teoria dos Jogos. Apresentar a solução de problemas envolvendo jogos empresariais, definindo a estratégia dominante para cada empresa e a consequente solução de equilíbrio. Entender como resolver problemas envolvendo jogos de soma zero com duas pessoas. Unidade 5 – Otimização em Redes Na quinta Unidade, vamos estudar sobre os modelos de otimização em redes, através dos quais desenvolveremos algoritmos para a solução de problemas, como: a obtenção do caminho total mais curto, o comprimento total mínimo, o fluxo máximo e o caminho crítico. Objetivos da unidade: Estudar o algoritmo da árvore geradora mínima para solucionar problemas de caminho total mais curto de uma rede. Aprender o algoritmo do caminho mais curto para determinar o menor comprimento entre dois nós de uma rede. Entender o algoritmo do fluxo máximo para o cálculo da capacidade máxima e do fluxo ótimo de uma rede. Apresentar o algoritmo de caminho crítico para a construção de um cronograma de uma rede de projeto. Unidade 6 – Programação Dinâmica Na sexta e última Unidade vamos aprender sobre os principais conceitos relacionados à Programação Dinâmica (PD), desenvolvendo o método matemático para solução de problemas e suas duas principais aplicações. Objetivos da unidade: x 12 Entender os elementos fundamentais que fazem parte dos cálculos de PD. Aprender as duas formas de solucionar problemas de PD: por meio da recursão progressiva e pela recursão regressiva. Estudar duas das principais aplicações de PD para problemas determinísticos: o problema da mochila e o problema do tamanho da força de trabalho. x 13 x 14 Cadeias de Markov 1 x 15 Caro aluno, Nesta Unidade começaremos a nossa caminhada na disciplina de Pesquisa Operacional II. Aprenderemos sobre as cadeias de Markov e sua importância para solução de problemas de Pesquisa Operacional. Objetivos da unidade: Compreender os conceitos de processos estocásticos e diagrama de transição de estados. Entender os processos markoviano, suas propriedades e classificações. Calcular as probabilidades de estado no equilíbrio e o tempo médio de primeiro retorno. Plano da unidade: Processos estocásticos Diagramas de transição de estado Processos de Markov Probabilidade de transição em n-etapas Classificação dos estados de uma cadeia de Markov Probabilidades de estado no equilíbrio e tempo médio de retorno Bons estudos! x 16 Processos estocásticos Um processo estocástico é uma coleção de variáveis aleatórias indexadas (Xt), onde t é um índice, geralmente o tempo. Assim, um processo estocástico é a descrição de um fenômeno aleatório que varia com o tempo t. Considere o exemplo: Nesse exemplo, X é uma variável aleatória discreta (pois possui um número finito de estados – 0, 1 ou 2) e representa a condição de uma máquina na ocasião de uma manutenção preventiva, a qual é realizada mensalmente. O mês é representado pela letra t (t = 1 representa o mês 1, t = 2 o mês 2 e etc). Logo, a cada mês t, a condição da máquina pode ser ruim (Xt = 0), razoável (Xt = 1) e boa (Xt = 2). Além disso, temos que X1 é uma variável aleatória que expressa a condição da máquina no mês 1, X2 é uma variável aleatória que expressa a condição da máquina no mês 2 e assim por diante. Portanto, cada mês possui uma variável aleatória: X1 X2 X3 ... (que é o mesmo que escrever na forma: Xt para t = 1, 2, 3...), a qual definimos como processo estocástico. Ou seja, temos um processo estocástico quando a nossa variável aleatória puder assumir valores diferentes em cada instante de tempo (que nesse caso é o mês) – de maneira mais formal: um processo estocástico é um conjunto de variáveis aleatórias (Xt), onde t é um índice, geralmente o tempo. Um processo estocástico X1 X2 X3 ... pode representar ainda a coleção das quantidades de carros que passam por um determinado ponto de uma rodovia, a evolução dos níveis de estoque semanais de uma firma, o comportamento de uma partícula de gás, variações nas qualidades dos produtos, variações nos preços de ações, vendas numa determinada loja, evolução do número de desempregados num determinado país, etc. x 17 Diagramas de transição de estado Uma forma de representar um processo estocástico é através de grafos, o qual identifica os estados da variável aleatória e suas probabilidades de transição, como mostrado a seguir: Nesse caso temos 3 estados (0, 1 e 2). As setas indicam a probabilidade de transição de estado. Por exemplo, a seta marcada a seguir demonstra que a probabilidade de a variável aleatória mudar do estado 0 para o estado 1 é de 1/2 (ou 0,5 ou 50%). No exemplo a seguir, é destacada a probabilidade de transição do estado 1 para o estado 1 (ou seja, a probabilidade de a variável aleatória se manter no estado 1) que mede 1/3 (ou 0,3333... ou 33,33...%). x 18 Considere por exemplo que esse grafo (diagrama de transições de estado) represente a situação descrita no exemplo da condição da máquina dado anteriormente. Dessa forma podemos dizer o seguinte: se a máquina estiver em condição ruim este mês (estado 0), a probabilidade dela estar em condição razoável (estado 1) no próximo mês é de 1/2 (que é a probabilidade de transição do estado 0 para o estado 1). Ou então, se a máquina estiver em condição razoável este mês, a probabilidade de ela continuar em condição razoável no próximo mês é de 1/3 (que é a probabilidade de transição do estado 1 para o estado 1). No caso dos grafos, é mais comum numerarmos os estados começando do 1 (não do 0), como mostrado a seguir: Considere agora pij a probabilidade de transição do estado i para o estado j. Portanto p11 = 0 (pois não existe transição do estado 1 para o estado 1), p12 = 1/2 (que é a probabilidade de transição do estado 1 para o 2), p13 = 1/2 (que é a probabilidade de transição do estado 1 para o 3), p21 = 1/3 (que é a probabilidade de transição do estado 2 para o 1), p22 = 1/3 (que é a probabilidade de transição do estado 2 para o 2), p23 = 1/3 (que é a probabilidade de transição do estado 2 para o 3), p31 = 2/3 (que é a probabilidade de transição do estado 3 para o 1), p32 = 1/3 (que é a probabilidade de transição do estado 3 para o 2) e Portanto p33 = 0 (pois não existe transição do estado 3 para o estado 3). Uma forma de simplificara visualização desses valores é através de uma matriz da seguinte forma: x 19 Substituindo os valores obtidos anteriormente nessa matriz chegamos em: Essa matriz acima é conhecida como Matriz de Transição de Estados. Ela é uma matriz quadrada cujo número de linhas e colunas é igual ao número de estados (no nosso exemplo são 3). Repare que a soma de todos os elementos de cada linha é sempre 1 (100%). Isso sempre ocorre, pois cada linha representa todas as possibilidades de transições possíveis daquele estado. Processos de Markov Um processo estocástico é um processo de Markov (ou markoviano) se a ocorrência de um estado futuro depender apenas de um estado imediatamente anterior (o estado seguinte depende apenas do estado atual). Em outras palavras, a probabilidade de qualquer evento futuro independe dos eventos passados, dependendo apenas do estado atual. Assim, se eu estiver no estado 1 e quiser atingir um estado 2, a probabilidade de transição do estado 1 para o estado 2 depende apenas de eu estar no estado 1 (independe dos estados que eu estava anteriormente). Para entender o significado de um processo markoviano, vamos considerar o seguinte exemplo de um processo não markoviano: imagine uma máquina que possua dois estados (estado 1: não funcionando e estado 2: funcionando) e o nosso t seja o número de vezes que eu aperto o botão de ligar da máquina (isto é, t = 1 significa que apertei uma vez, t = 2 significa que apertei duas vezes e assim por diante). Vamos considerar que inicialmente a nossa máquina não está funcionando (estado 1). Se eu apertei o botão e ela x 20 funcionou, então a máquina foi do estado 1 (não funcionando) para o estado 2 (funcionando), se eu apertei o botão e ela não funcionou então a máquina se manteve no estado 1 (existe então uma probabilidade de transição do estado 1 para o 2 e do estado 1 para ele mesmo em função de t, que é a quantidade de vezes que eu apertei o botão). Vamos supor que essa probabilidade de transição do estado 1 para o 2 seja de 0,5 e do 1 para o 1 também seja de 0,5 (ou seja, existe uma probabilidade de 50% de a máquina ir para o estado 2 ou se manter no estado 1 quando eu aperto o botão). Até agora temos um processo estocástico (Xt), em que X é uma variável aleatória que possui dois estados (estado 1: não funcionando e estado 2: funcionando) e t representa o número de vezes que apertei o botão. Logo, X3 por exemplo, representa o estado da máquina após termos apertado o botão 3 vezes. Vamos adicionar a seguinte condição a esse nosso exemplo: caso tenhamos apertado o botão três vezes e a máquina não funcionou nessas três vezes, então, com certeza ela irá funcionar na quarta vez que apertarmos o botão. Isso significa que na quarta vez que apertarmos o botão, a probabilidade de transição do estado 1 para o estado 2 será de 1 (100%), caso a máquina tenha ficado no estado 1 nas três primeiras vezes. Matematicamente, escrevemos essa condição da seguinte forma: P[X4 = 2/X3 = 1,X2 = 1,X1 = 1] = 1 Lê-se da seguinte forma: a probabilidade de X4 = 2 (a probabilidade de a máquina estar no estado 2 na quarta vez que apertarmos o botão) dado que X3 = 1,X2 = 1,X1 = 1 (dado que na terceira vez que apertamos o botão ela estava no estado 1, na segunda vez que apertamos o botão ela estava no estado 1 e na primeira vez que apertamos o botão ela estava no estado 1), é de 1 (100%). Para um t qualquer, podemos reescrever essa condição da seguinte forma: P[Xt = 2/Xt-1 = 1,Xt-2 = 1,Xt-3 = 1] = 1 Agora vamos responder a seguinte questão: se o estado atual da nossa máquina é o estado 1 (não funcionando) qual será a probabilidade de ela mudar para o estado 2 (funcionando) caso apertemos o botão? Se considerarmos o enunciando no início do problema, responderemos que essa probabilidade é de 0,5 (50%). Porém, se considerarmos a condição acima, x 21 veremos que ela pode ser igual a 1 (100%), caso o estado atual e os dois estados anteriores ao atual sejam 1 (não funcionando). Essa condição faz com que a probabilidade de transição do estado 1 para o 2 dependa não apenas do estado atual (mas também de estados anteriores a ele), fazendo com que esse processo estocástico não seja markoviano. Se retirarmos essa condição, de forma que possamos determinar a probabilidade de transição de qualquer estado para qualquer estado (do 1 para o 2, do 1 para o 1, do 2 para o 1 e do 2 para o 2), a partir apenas do estado atual, então o nosso processo estocástico passará a ser um processo markoviano. Portanto, um processo será markoviano se precisarmos apenas do estado atual para obter a probabilidade de transição para qualquer estado futuro (as probabilidades de transição não dependem dos estados anteriores ao atual). Matematicamente, isso equivale a escrever que: P[Xt+1 = xt+1 / Xt = xt , Xt-1 = xt-1 , Xt-2 = xt-2 , ...] = P[Xt+1 = xt+1 / Xt = xt] Ou seja, se o processo for markoviano, a probabilidade de transição de um estado atual para o estado seguinte depende apenas do estado atual. Nesse caso, a Matriz de Transição de Estados da seção anterior se torna uma Cadeia de Markov, podendo ser escrita como: Em que P é a cadeia de Markov e pij representam as probabilidades de transição do estado atual i para o estado seguinte (ou futuro) j. Para entender o significado de uma cadeia de Markov, vamos considerar o seguinte exemplo: um jardineiro utiliza um teste químico todo o ano para verificar a condição do solo para o plantio. A produtividade do solo resultante desse teste pode cair em três estados: bom (estado 1), razoável (estado 2) e ruim (estado 3). Considere que ao longo dos anos o impacto sobre a produtividade causado pela condição do solo seja descrita pela seguinte cadeia de Markov: x 22 Essa cadeia de Markov mostra para a gente que: se a condição do solo neste ano for boa (linha 1), então existe uma probabilidade para o ano seguinte de 0,2 (20%) de ela se manter boa, de 50% de ela se tornar razoável (transição do estado 1 para o estado 2) e de 30% de ela se tornar ruim (transição do estado 1 para o 3). Se a condição do solo neste ano for razoável (linha 2), então existe uma probabilidade para o ano seguinte de 0 (0%) de ela mudar para boa (ou seja, a probabilidade de transição do estado 2 para o 1 é igual a 0), de 50% de ela se manter como razoável (transição do estado 2 para o estado 2) e de 50% de ela se tornar ruim (transição do estado 2 para o 3). Se a condição do solo neste ano for ruim (linha 3), então existe uma probabilidade para o ano seguinte de 0 de ela se tornar boa (transição do estado 3 para o 1), de 0 de ela se tornar razoável (transição do estado 3 para o estado 2) e de 1 (100%) de ela se tornar ruim (transição do estado 3 para o 3). Logo, essa cadeia de Markov mostra para a gente que as condições do solo podem apenas se manter ou piorar, mas nunca melhorar. Probabilidade de transição em n-etapas Considere que as probabilidades dos estados iniciais seja dada pelo vetor a (0) (um vetor a (0) = (0 1 0), por exemplo, significa que a probabilidade de estarmos no estado 1 e 3 é igual a 0 e de estarmos no estado 2 é igual a 100%, ou seja, inicialmente estamos no estado 2) e que P seja a nossa cadeia de Markov, que representa uma matriz de transição de estados (mostra as probabilidades de transição de um estado atual i para um estado futuro j). Nesse caso, podemos medir as probabilidades absolutas de estarmos em um estado j, após n etapas (transições), da seguinte forma: a (1) = a (0) .P x 23 Se quisermos obter as probabilidades absolutas após 1 transição, devemos multiplicar o vetor das probabilidades do estado inicial pela matriz de transição de estados um única vez. Podemos obter também: a (2) = a (1) .P A equação anterior mostra que podemos obter o vetor contendo as probabilidadesabsolutas após duas transições (etapas) se multiplicarmos o vetor das probabilidades absolutas após 1 transição pela matriz de transição uma única vez. Ou então, substituindo a (1) = a (0) P, obtemos: a (2) = a (0) PP=a (0) .P 2 A equação acima mostra que se multiplicarmos vetor das probabilidades do estado inicial pela matriz de transição de estados duas vezes, obteremos o vetor contendo as probabilidades absolutas após duas transições. Esse raciocínio pode ser estendido até n etapas (transições), resultando em: a (n) = a (0) .P n , n = 1, 2, 3... Essa última equação é a generalização do cálculo dos vetores de probabilidades absolutos, considerando n transições (etapas). Para entender a aplicação dessa equação, considere o seguinte exemplo: vamos considerar que um jardineiro, ao aplicar um fertilizante, pode melhorar as condições do solo, chegando a seguinte cadeia de Markov: Os estados dessa cadeia de Markov seguem as mesmas características do exemplo anterior (estado 1: bom, estado 2: razoável e estado 3: ruim). Vamos considerar também que a condição inicial do solo é boa, ou seja, a (0) = (1 0 0). Vamos determinar as probabilidades absolutas dos três estados do sistema (condição do solo) após 1, 8 e 16 transições (estações). x 24 Em outras palavras, o problema está pedindo que calculemos: a (1) = a (0) .P a (8) = a (0) .P 8 a (16) = a (0) .P 16 Portanto, para obtermos essas soluções, devemos encontrar os valores de P 8 e P 16 . Vamos obter esses valores na seguinte sequência: Primeiro vamos obter o valor de P 2 = PP. Podemos obter P 4 = P 2 P 2 Podemos obter P 8 = P 4 P 4 Podemos obter P 16 = P 8 P 8 x 25 Assim, temos que a (1) = a (0) P: E que a (8) = a (0) P 8 : E que a (16) = a (0) P 16 : A solução a (1) = (0,30 0,60 0,1) expressa que se a condição do solo inicialmente era boa, então a probabilidade após 1 estação (transição) para que ela esteja boa será de 0,3, para que ela mude para razoável é de 0,6 e para que ela mude para ruim será de 0,1. A solução a (8) = (0,101753 0,525514 0,372733) expressa que se a condição do solo inicialmente era boa, então a probabilidade após 8 estações (transições) para que ela esteja boa será de 0,101753, para que ela esteja razoável é de 0,525514 e para que ela esteja ruim será de 0,372733. A solução a (16) = (0,101659 0,52454 0,372881) expressa que se a condição do solo inicialmente era boa, então a probabilidade após 16 estações (transições) para que ela esteja boa será de 0,101659, para que ela esteja razoável é de 0,52454 e para que ela esteja ruim será de 0,372881. É importante observar que a (8) se assemelha bastante às linhas de P 8 , e que essa semelhança fica ainda mais evidente quando comparamos a (16) com P 16 . Isso demonstra que à medida que elevamos o número de transições, as probabilidades absolutas se tornam independentes da inicial (mesmo utilizando outra condição inicial, o resultado de a (16) seria exatamente o mesmo). Nesse caso, dizemos que as probabilidades resultantes (de a (16) , por exemplo) são probabilidades de estado no equilíbrio (pois elas independem da condição inicial). x 26 Classificação dos estados de uma cadeia de Markov Os estados de uma cadeia de Markov podem ser classificados com base nas probabilidades de transição pij de P, como: Absorvente Um estado é dito absorvente se a probabilidade de ele retornar para ele mesmo for de 1 (100%). Em outras palavras, se a probabilidade de transição pjj = 1, então o estado j é absorvente. Podemos entender esse conceito a partir do seguinte grafo: Podemos observar que o estado C é um estado absorvente, visto que no instante em que o sistema chega ao estado C, ele será absorvido por ele (pois a única transição possível é de C para ele mesmo). Vamos considerar novamente o exemplo do jardineiro, cuja cadeia de Markov era: Sobre essa cadeia de Markov, podemos notar que o estado 3 é absorvente (pois p33 = 1), ou seja, caso a condição do solo fique ruim, ela se x 27 manterá ruim independente da quantidade de etapas seguintes. Uma observação importante sobre os estados absorventes é a seguinte: vamos considerar essa cadeia de Markov cujo estado 3 é absorvente. Se calcularmos a cadeia de Markov após diversas transições (por exemplo, 100 transições), chegaremos ao seguinte resultado: Esse resultado mostra para a gente o seguinte: independente do estado inicial, após diversas transições o nosso sistema estará no estado 3 (condição ruim). Isso era esperado, tendo em vista que a probabilidade de o sistema atingir o estado 3 aumenta à medida que aumentamos o número de etapas (transições). Como esse estado é absorvente, então aumentamos a probabilidade de o sistema permanecer no estado 3. Transiente Um estado é dito transiente se puder alcançar outro estado, mas não puder voltar ao estado em que estava a partir de outro estado. Se o estado j for transiente, então pij = 0 para todo i. Podemos entender esse conceito a partir do seguinte grafo: Imagine que o nosso sistema estava no estado A. A partir do momento em que o sistema sair do estado A (ir para B) ele não poderá mais voltar para o estado A. Logo, o estado A é um estado transiente. x 28 Vamos considerar novamente o exemplo do jardineiro, cuja cadeia de Markov era: Dessa cadeia de Markov podemos notar que tanto o estado 1 quanto o estado 2 são transientes (não podemos retornar para eles). Por exemplo, se inicialmente o nosso sistema estiver no estado 1 e alcançar o estado 2, ele não poderá retornar para o estado 1 (p21 = 0), nem se ele alcançar o estado 3 (p31 = 0), por isso o estado 1 é transiente. Da mesma forma, se o sistema estiver no estado 2 e alcançar o estado 3, ele não poderá retornar para o estado 2 (p32 = 0), por isso o estado 2 também é transiente. Recorrente Um estado é dito recorrente se partindo deste estado eventualmente retornamos ao mesmo estado. É importante observar que o estado só poderá ser recorrente se, e somente se, ele não for transiente. Podemos entender esse conceito a partir do seguinte grafo: Nesse caso, temos que A, B e C são estados recorrentes (não transientes), pois podemos sempre voltar para qualquer um dos 3 estados (a probabilidade de voltarmos para o estado no qual saímos é de 100%). Observe o próximo grafo: x 29 Nesse caso, temos A como transiente (pois não podemos retornar a ele) e B e C como recorrente (pois podemos retornar a eles). Por fim, observe o exemplo: Agora temos que tanto A quanto B são transiente (pois a probabilidade de retornarmos ao estado B não é de 100% - o que acontece é que se o sistema atingir o estado C, então ele não conseguirá voltar para o estado B e por isso a probabilidade de voltarmos para o estado B não é de 100%) e o estado C é recorrente (pois a probabilidade de voltarmos ao estado C é de 100%). Observe que o estado C também é absorvente, o que nos faz concluir que todo o estado absorvente também é recorrente. x 30 Periódico Um estado é dito periódico se só pudermos retornar a ele após t, 2t, 3t,... etapas em que t é o nosso período. Isso significa que pjj = 0 sempre que o número de etapas não for divisível pelo período t. Podemos entender esse conceito a partir dos seguintes grafos: Olhando para o primeiro grafo, considere que nosso sistema está inicialmente no estado 1 (quando n = 0). Após 1 etapa (n = 1) com certeza estaremos no estado 2, após 2 etapas (n = 2) com certeza estaremos no estado 1 novamente e assim por diante. Ou seja, se inicialmente (n = 0) estivermos no estado 1, então retornaremos a ele na segunda transição (n = 2), na quarta transição (n = 4)... isto é, de duas em duastransições (n = 0, 2, 4, 6...). Portanto o estado 1 é periódico de período 2 (pois n varia de 2 em 2). O mesmo vale para o estado 2. No grafo da direita temos que o período de todos os estados é 3 (pois retornaremos ao estado de 3 em 3 transições). Para testar se um estado j é ou não é periódico a partir de uma cadeia de Markov, precisamos testar a periodicidade de P n , observando os valores da probabilidade de retorno a ele pjj, para diferentes valores de n (n = 2, 3, 4...). Esses valores só serão positivos no período correspondente do estado (caso contrário a sua probabilidade de retorno será igual a zero). Considerando a cadeia de Markov: Temos que: x 31 Podemos observar que p11 e p33 são positivos para n = 0, 2 e 4 e são iguais a zero para n = 1, 3 e 5. Isso significa que o período dos estados 1 e 3 é igual a 2. Com base em todas essas definições podemos chegar a algumas conclusões importantes sobre as cadeias de Markov que possuam um conjunto finito de estados: em primeiro lugar, não pode existir uma cadeia de Markov em que todos os estados são transientes (ser transiente significa que nunca poderemos voltar para o estado anterior – ter todos os estados transientes só seria possível se a nossa cadeia de Markov tivesse infinitos estados, daí ela poderia ir do estado 1 para o 2, do 2 para o 3, do 3 para o 4... porém em cadeias de Markov finitas isso nunca poderá ocorrer). Outro ponto importante é que um estado "capturador" não precisa ser necessariamente um único estado absorvente. Considere o seguinte exemplo: Perceba que os estados 1 e 2 são transientes (porque não podemos retornar a eles, uma vez que o sistema foi capturado pelos estados 3 e 4). Note que ao atingirmos o estado 3 só poderemos nos manter no estado 3 ou atingirmos o estado 4 (e no estado 4 só podemos nos manter nele ou voltar para o estado 3), isto é, os estados 3 e 4 são recorrentes (pois não são transientes). É importante observar que os estados 3 e 4 desempenham o papel de um estado absorvente, constituindo um conjunto fechado. Todos os estados que fazem parte do conjunto fechado podem se comunicar (ou seja, podemos ir de qualquer estado para qualquer estado que façam parte do conjunto fechado em uma ou mais de uma transições). É importante x 32 observar também que um estado absorvente consiste em um conjunto fechado de um único elemento (uma vez que o sistema atinge um estado absorvente, ele é "capturado" por ele). Um exemplo de grafo de um conjunto fechado é mostrado a seguir: Podemos observar que o estado A é transiente e que, a partir do instante em que o sistema atingir o estado B, ele será capturado pelos estados B e C. Portanto os estados B e C formam um conjunto fechado. Dizemos que uma cadeia de Markov fechada é ergódica se todos os seus estados forem recorrentes (não tivermos estados transientes) e aperiódicos (não tivermos estados periódicos). Em uma cadeia de Markov ergódica podemos alcançar qualquer estado a partir de qualquer estado (todos os estados da cadeia de Markov formam um ciclo fechado). Isso significa que na prática não podemos ter estados absorventes (pois isso significaria que os outros estados são transientes e também porque o estado absorvente forma um ciclo fechado com ele mesmo). Um exemplo de cadeia de Markov ergódica é mostrada no grafo a seguir: x 33 A partir desse exemplo podemos notar que é possível alcançar qualquer estado partindo de qualquer estado. Uma das características das cadeias de Markov ergódica é justamente a de que as probabilidades absolutas após n transições sempre convergem para um estado de equilíbrio (à medida que n cresce, ou seja, tende a infinito). Lembrando que as probabilidades de estado no equilíbrio são independentes das condições iniciais. Por isso não podem existir estados periódicos (pois um estado periódico fica alternando entre um valor positivo e zero, nunca tendendo a um valor). Probabilidades de estado no equilíbrio e tempo médio de retorno Nas cadeias de Markov ergódicas, as probabilidades de estado no equilíbrio são definidas como: Em que j é o estado e n é o número de etapas (transições). Como essas probabilidades são independentes da condição inicial, então podemos determiná-las a partir de: π = π.P Que demonstra que ao chegarmos no estado de equilíbrio, mesmo que tivermos mais uma nova transição, ela resultará no mesmo valor π das probabilidades absolutas (por serem probabilidades de estado no equilíbrio elas não se alteram com transições). Além disso, a soma das probabilidades de todos os estados tem que ser igual a 1, ou seja: Vamos voltar ao problema do jardineiro, com fertilizante, cuja cadeia de Markov era: x 34 Uma vez que podemos atingir qualquer estado a partir de qualquer estado (todos os estados são recorrentes) e não existem estados periódicos, logo essa cadeia de Markov é ergódica. Isso significa que ela possui um estado de equilíbrio cujas probabilidades podem ser calculadas através de π = π.P. Assim temos: Realizando o produto entre as matrizes da direita e igualando aos termos do vetor da esquerda, chegamos ao seguinte sistema: Note que a última equação representa a condição de que a soma das probabilidades de todos os estados ser igual a 1. Podemos descartar qualquer uma das três primeiras equações (pois elas são redundantes) e solucionar o sistema linear utilizando as três demais equações (temos três equações e três incógnitas, basta então solucionarmos o sistema linear). Descartando, por exemplo, a primeira equação e isolando as incógnitas, chegamos ao seguinte sistema linear: 0,6π1 - 0,4π2 + 0,4π3 = 0 0,1π1 + 0,3π2 - 0,45π3 = 0 π1 + π2 + π3 = 1 A solução desse sistema linear é: π1 = 0,1017, π2 = 0,5254 e π3 = 0,3729. Ou seja: x 35 π = (0,1017 0,5254 0,3729) Note que esse resultado é muito próximo àquele encontrado anteriormente no cálculo de P 16 , para a (16) . Isso significa que à medida que aumentarmos o valor de n em P n chegaremos mais próximo ao resultado de π. Nesse exemplo do jardineiro, as probabilidades de estado no equilíbrio mostram que, no longo prazo, a condição do solo será boa em aproximadamente 10% das vezes, razoável em 52% e ruim em 37% (ou seja, no longo prazo é mais provável que a condição do solo esteja razoável). Outro parâmetro importante é conhecido como tempo médio de retorno que determina o número esperado de transições (etapas) necessárias para o sistema retornar ao estado j. Ele também é chamado de tempo médio do primeiro retorno ou tempo médio de recorrência, sendo obtido a partir das probabilidades de estado no equilíbrio π, como: Se considerarmos o exemplo do jardineiro, chegaremos aos seguintes tempos médios de retorno: Em que μ11 representa o tempo médio de retorno ao estado 1 (bom), μ22 representa o tempo médio de retorno ao estado 2 (razoável) e μ33 representa o tempo médio de retorno ao estado 3 (ruim). Os resultados mostram que levará aproximadamente 10 estações de plantio para que o solo volte a ter uma condição boa, 2 estações para voltar a um estado razoável e 3 estações para voltar a um estado ruim. Nessa seção aprendemos os principais conceitos relacionados às cadeias de Markov. Na próxima seção estudaremos a Teoria de Filas. x 36 Exercícios – Unidade 1 1) Considere o seguinte diagrama de transição de estados: Sobre esse diagrama é correto afirmar que: a) A probabilidade de transição do estado 2 para o estado 3 é igual a 1/3. b) A probabilidade de transição do estado 3 para o estado 1 é igual a 1/2. c) A probabilidade de transição do estado 1 para ele mesmo é igual a 1/2. d) TODAS as alternativas anteriores estão CORRETAS. e) TODAS as alternativas anteriores estão INCORRETAS. Considere a seguinte cadeia de Markov para as questões 2,3 e 4: Nela, o estado 1 representa um dia chuvoso, o estado 2 representa um dia nublado e o estado 3 um dia com sol. x 37 2) Sobre essa cadeia de Markov, é correto afirmar que: a) Se hoje o dia é de sol, então a probabilidade de amanhã ser um dia chuvoso é igual a 0,3. b) Se hoje o dia é chuvoso, então a probabilidade de amanhã ser um dia chuvoso é igual a 0,3. c) Se um determinado dia estiver nublado, então a probabilidade de o dia seguinte ser de sol é de 0,6. d) Se um determinado dia for de sol, então a probabilidade de o dia seguinte ser de sol é de 0,8. e) TODAS as alternativas anteriores estão INCORRETAS. 3) Se considerarmos que o tempo em um determinado dia é de sol, qual é a probabilidade de os 7 dias seguintes serem dias de sol-sol-chuva-chuva- sol-nublado-sol? a) 0,8. b) 0,2. c) 0,006. d) 2,3x10 -3 e) 1,536x10 -4 4) Considere que determinado dia seja chuvoso. Nesse caso, as probabilidades absolutas após 4 dias serão: a) a (4) = (0,4 0,3 0,3) b) a (4) = (0,25 0,33 0,42) c) a (4) = (0,1939 0,2991 0,507) d) a (4) = (0,1939 0,1994 0,169) e) a (4) = (0,169 0,2383 0,5927) x 38 5) Considere a seguinte cadeia de Markov de três estados (1, 2 e 3) dada pela seguinte matriz de transição: Sobre essa cadeia de Markov é correto afirmar que: a) O estado 1 é transiente. b) O estado 3 é absorvente. c) Ela é ergódica. d) Os estados 2 e 3 formam um conjunto fechado. e) TODAS as alternativas anteriores estão INCORRETAS. 6) Considere a seguinte cadeia de Markov: Sobre essa cadeia de Markov é INCORRETO afirmar que: a) Os estados 1 e 2 formam um conjunto fechado. b) Ela não é ergódica. c) O estado 3 é absorvente. d) Ela possui 3 conjuntos fechados. e) Os estados 4 e 5 são transientes. x 39 7) Considere a seguinte cadeia de Markov de três estados (1, 2 e 3) dada pela seguinte matriz de transição: Nesse caso, as probabilidades de estado no equilíbrio são: a) π = (0,3333 0,33333 0,3333). b) π = (0,1 0,7 0,2). c) π = (0 0,8 0,2). d) π = (0 0 0 ). e) π = (0,2961 0,3618 0,3421) 8) O resultado do tempo médio do primeiro retorno da questão 7 é: a) μ11 = 0,3333; μ22 = 0,3333 e μ33 = 0,3333. b) μ11 = 3; μ22 = 3 e μ33 = 3. c) μ11 = 10; μ22 = 2 e μ33 = 3. d) μ11 = 5; μ22 = 3,5 e μ33 = 7. e) μ11 = 1; μ22 = 7 e μ33 = 2. x 40 9) Considere a seguinte cadeia de Markov de quatro estados (1, 2, 3 e 4) dada pela seguinte matriz de transição: Classifique cada um dos estados dessa cadeia de Markov. ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ x 41 10) A quantidade de itens em estoque consiste em uma cadeia de Markov de 3 estados: 100 itens em estoque (estado 1), 200 itens em estoque (estado 2) e 300 itens em estoque (estado 3). A quantidade de itens pode variar dependendo da demanda diária (que reduz a quantidade de itens em estoque) e a produção (que aumenta a quantidade de itens em estoque). A matriz de transição de estados dessa cadeia de Markov é mostrada a seguir: Sabe-se que o custo por item em estoque depende do número de itens no estoque: se o estoque possuir 100 itens, então o custo por item será de R$ 1,00, se o estoque possuir 200 itens, então o custo por item será de R$ 3,00 e se o estoque possuir 300 itens, então o custo por item será de R$ 10,00. Nesse caso, determine: a) O custo diário esperado com estoque. b) O número médio de dias para o estoque retornar a 100 itens (µ11), retornar a 200 itens (µ22) e retornar a 300 itens (µ33). ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ x 42 ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ ______________________________________________________________ x 43 2 Teoria de Filas x 44 Nesta Unidade vamos entender os conceitos relacionados à Teoria de Filas, a partir dos seus principais modelos. Estudaremos as diferentes fórmulas, classificações e medidas de desempenho das filas. Objetivos da unidade: Conhecer a importância de se estudar filas e seus principais elementos. Apresentar a distribuição exponencial e de Poisson e como elas se relacionam com os modelos de filas. Descrever as diferentes classificações das filas e suas principais medidas de desempenho. Plano da unidade: Importância de se estudar filas Elementos de um modelo de filas Distribuição exponencial Modelo de nascimento e de morte puros Modelo generalizado de fila de Poisson Classificação das filas Medidas de desempenho no estado de equilíbrio Bons estudos! x 45 Importância de se estudar filas O objetivo da análise de filas é garantir um serviço que seja satisfatório ao cliente que está em espera. Nesse aspecto, a Teoria de Filas determina as medidas de desempenho das filas de espera, considerandoo tempo médio de espera do cliente na fila e a produtividade da instalação de serviço (essas medidas de desempenho são utilizadas para projetar a instalação do serviço). A espera faz parte das atividades do nosso dia-a-dia. Formamos filas em supermercados, bancos, lojas... Entretanto, a "espera" não é limitada a nós humanos: os carros aguardam o semáforo, os aviões aguardam a autorização para a aterrissagem em um aeroporto, os equipamentos defeituosos aguardam na fila de manutenção, os produtos aguardam em filas de inspeção... Assim, o estudo de filas nos fornece um conjunto de modelos que permitem quantificar o fenômeno da espera em filas, através de medidas de desempenho (como o tempo médio de espera na fila e o tempo médio de utilização de uma instalação). Vamos considerar o seguinte exemplo: Um fast-food possui três caixas. O gerente contratou um estudo para entender o motivo da lentidão do serviço. O estudo mostrou a relação entre o número de caixas e o tempo médio de espera pelo atendimento, mostrado na tabela a seguir. Na presente situação, o fast-food possui 3 caixas e o tempo médio de espera do cliente é de aproximadamente 7 minutos. A tabela mostra a necessidade de 5 caixas caso desejássemos reduzir o tempo médio de espera para 3 minutos. O resultado da análise de filas poderia ser utilizado ainda para a construção de um modelo de otimização do custo. O custo total é igual a x 46 soma do custo operacional da instalação (os caixas, nesse exemplo) com o custo de espera (espera do cliente na fila). Observe a figura a seguir: Podemos notar na figura que se quisermos elevar o nível do serviço (diminuir o tempo de espera dos clientes na fila) precisamos aumentar o custo do serviço (custo operacional da instalação de serviço, ou seja, aumentar o número de caixas) ao passo que diminuímos o custo de clientes à espera. Por outro lado, se mantivermos o número de caixas pequenos, diminuímos o nível do serviço e o custo do serviço e aumentamos o custo de espera pelo cliente. A figura mostra também a soma desses dois gráficos (custo total), definindo um ponto ótimo (ponto que minimiza o custo total), o qual determina o nível de serviço que minimiza o custo total. Poderíamos estender esse exemplo substituindo os clientes de uma fila por caminhões em uma fila para o descarregamento ou navios em um porto (nesses casos, o custo de espera se tornaria ainda mais crítico, pois a espera significa que o caminhão ou o navio estão deixando de transportar!). Elementos de um modelo de filas Os principais elementos em um modelo de filas são o cliente (ou usuário) e o servidor (ou atendente). Os clientes são gerados por uma fonte. Ao chegarem a uma instalação de serviço, os clientes podem iniciar o x 47 serviço (se a instalação de serviço estiver disponível) ou esperarem em uma fila (se a instalação de serviço estiver ocupada). A instalação, ao concluir o serviço, chama imediatamente o próximo cliente que está na fila (se houver algum cliente). Caso não tenham clientes na fila, a instalação (o servidor, atendente) ficará ociosa até a chegada de um novo cliente. Na análise de filas, representamos a chegada de clientes pelo intervalo de tempo entre chegadas de clientes (de quanto em quanto tempo chegam clientes), e o serviço é descrito pelo tempo de serviço (ou tempo de atendimento) por cliente (quanto tempo o cliente leva para ser atendido). É importante observar que os intervalos de tempo entre chegadas e os tempos de serviço podem ser determinísticos (fixos) ou probabilísticos (aleatório, como em um banco). Outro aspecto da análise de filas é o tamanho da fila. Nos modelos de filas podemos considerar o tamanho da fila como finito (possui um valor limite) e infinito (o tamanho da fila pode ser "ilimitado"). Temos também a disciplina da fila, que define a ordem em que os clientes serão selecionados na fila. A disciplina de filas mais comum é o FCFS (First Come First Served – Primeiro a Chegar, Primeiro a Ser Servido), que define que o primeiro cliente a chegar será o primeiro a ser atendido (os demais clientes que chegarem vão sendo posicionados atrás dos clientes que já estão na fila). Entretanto existem outras disciplinas como o LCFS (Last Come First Served – Último a Chegar, Primeiro a Ser Servido), muito utilizada pelos sistemas operacionais como os dos smartphones (o último aplicativo requisitado pelo usuário deve ser o mais importante, por isso ele passará a frente dos outros aplicativos na fila de processos), e também o SIRO (Service in Random Order – Serviço em Ordem Aleatória), em que os clientes da fila são selecionados aleatoriamente. Sobre a disciplina da fila pode existir também alguma ordem de prioridade na seleção de clientes na fila. Por exemplo, os idosos são atendidos prioritariamente nos bancos ou então equipamentos essenciais de uma linha de produção devem ser consertados prioritariamente em uma fila para manutenção (os clientes com prioridade "passam na frente" dos clientes sem prioridade em uma fila). A prioridade pode ainda ser dividida em níveis de prioridade (por exemplo, nível 0, nível 1, x 48 nível 2..., de forma que os clientes que possuírem o maior nível de prioridade passarão a frente dos clientes de menores níveis, por exemplo). Sobre o projeto de uma instalação podemos considerar os servidores em paralelo (um conjunto de servidores atendendo simultaneamente, como os caixas do banco). Em alguns sistemas podemos organizar os servidores em série (um conjunto de servidores atendendo consecutivamente, isto é, o cliente que sai do primeiro servidor vai para a fila do segundo, o que foi atendido pelo segundo vai para a fila do terceiro e assim por diante, como em uma linha de produção com máquinas sucessivas). Podemos organizar os servidores também em rede (é o caso dos roteadores de uma rede de computadores que recebem e encaminham pacotes de diversos caminhos para diversos caminhos, sendo que todos os pacotes que chegam em um roteador ficam em uma mesma fila, chamada de buffer ou memória – quando a fila ou buffer do roteador está “cheia”, todos os pacotes (clientes) que chegam são perdidos, nesse caso percebemos que a internet está "lenta", pois os pacotes não estão chegando aos destinos, pois não estão sendo atendidos pelos roteadores). Sobre a fonte de onde chegam os clientes (de onde eles são gerados), podemos classificá-la como uma fonte finita (limita a chegada de clientes para serviço, ou seja, existe um número finito de clientes que podem chegar na fila, por exemplo o número de equipamentos que precisam de manutenção) ou uma fonte infinita (o número de clientes que podem chegar na fila é ilimitado, por exemplo, telefonemas que chegam a uma central telefônica – como o número de telefonemas é muito grande, podemos considerá-lo como infinito). Essa diferença entre a fonte ser infinita ou ser finita é útil principalmente para o seguinte: quando a fonte é infinita, a média do tempo entre chegadas de clientes tende a ser constante (por exemplo, se chegam clientes, em média, de 5 em 5 minutos, mesmo se já tiverem chegado muitos clientes, como a fonte infinita, o tempo entre chegadas continuará a ocorrer em média de 5 em 5 minutos). Agora, caso a fonte seja finita (vamos supor que tenhamos 10 clientes, por exemplo, 10 máquinas, que é o tamanho da nossa fonte finita), então a tendência é que essa média de 5 em 5 minutos se torne cada vez maior à medida que os clientes forem chegando ao sistema (se essa chegada de 5 em 5 minutos ocorre quando x 49 temos 10 máquinas para chegarem a uma inspeção (sistema), se, por exemplo, já tiverem chegado 8 máquinas ao nosso sistema, então só temos 2 máquinas que podem chegar, nesse caso o tempo entre chegadas tenderá a ser bem maior – antes tínhamos 10 máquinas que poderiam chegar, agoratemos só 2 máquinas que podem chegar, portanto a probabilidade de chegar uma máquina ao sistema irá diminuir, com isso o tempo entre chegadas tenderá a aumentar). Para entender essa diferença, imagine que tenhamos 100.000 bolas azuis e 100.000 bolas vermelhas em um saco (ou seja, uma fonte “infinita”). Todas as bolas azuis retiradas são colocadas em uma mesa (apenas as bolas vermelhas são postas novamente no saco). Nesse caso, em média tiraremos bolas azuis a cada duas bolas tiradas do saco (de 2 em 2), pois a probabilidade de tirarmos uma bola azul é de 0,5 (portanto o intervalo será igual a 1/0,5 = 2). Como o número de bolas azuis no saco é muito grande (“infinito”) essa taxa (de 2 em 2) não será alterada (considerando que tiraremos poucas bolas do saco). Agora, se o número de bolas azuis for igual a 10 e vermelhas também for igual a 10 (agora o saco, que é a nossa fonte de bolas azuis, é finita igual a 10), essa taxa (de 2 em 2 bolas) só irá ocorrer para a primeira bola azul retirada do saco (posta na mesa, que representa o nosso sistema). Isso porque à medida que retirarmos as bolas azuis, o número de bolas azuis no saco (na fonte) irá diminuir (e portanto a probabilidade de tirarmos bolas azuis do saco também irá diminuir), fazendo com demore mais para tirarmos bolas azuis (a média de retirada de bolas azuis tenderá a ser maior do que de 2 em 2 bolas). Portanto, geralmente quando consideramos uma fonte infinita, o tempo entre chegadas de clientes ao sistema não se altera em função do número de clientes que já estão no sistema, ao passo que em uma fonte finita, esse tempo entre chegadas tende a aumentar à medida que o número de clientes no sistema aumenta. x 50 Distribuição exponencial Normalmente, a chegada de clientes a uma fila ocorre de forma totalmente aleatória. Essa aleatoriedade está associada ao seguinte fato: a ocorrência de um evento não é influenciada pelo tempo transcorrido desde a ocorrência do último evento (isso significa que as chegadas de clientes são totalmente independentes, ou seja, o fato de ter acabado de chegar um cliente não afeta a probabilidade de se chegar um próximo cliente – todas as probabilidades de chegada são independentes, assim o tempo de chegada do próximo cliente não é influenciada pelo tempo transcorrido desde a chegada do último cliente). Podemos descrever quantitativamente essa aleatoriedade dos intervalos de tempo entre chegadas e dos tempos de serviços através de uma distribuição exponencial, definida como: f(t) = λe -λt , t > 0 Temos que a probabilidade do nosso tempo t ser menor do que um intervalo T dada por: Que resulta em P [t ≤ T] = 1 – e -λT Em que λ é a taxa de chegadas de clientes ou de saída de clientes (a taxa é igual a 1 dividido pelo tempo entre chegadas ou de saídas de clientes). Para entender o motivo de uma distribuição exponencial ser completamente aleatória, vamos considerar o seguinte exemplo: imagine que agora são 8h20 da manhã e a última chegada de cliente ocorreu às 8h02, a probabilidade de chegada de cliente às 8h30 dependerá apenas do intervalo de tempo entre 8h20 e 8h30 (isto é, 10 minutos), ou seja, ela é totalmente independente do intervalo de tempo transcorrido desde a última chegada de cliente (o intervalo de 18 minutos desde a última chegada). Se passasse mais 5 minutos (ou seja, agora são 8h25), a probabilidade de se chegar cliente às 8h30 irá mudar (pois agora iremos considerar um intervalo de 5 minutos). x 51 Logo, a probabilidade de chegada (ou saída) de cliente depende apenas do intervalo de tempo entre o instante atual e o instante que estamos considerando (e da taxa de chegadas ou saídas de clientes λ), não dependendo do instante em que ocorreu a última chegada (ou saída). Essa característica é conhecida como ausência de memória ou falta de memória da distribuição exponencial (uma distribuição exponencial não possui memória, pois os instantes em que ocorreram os eventos anteriores não afetam a probabilidade de ocorrência do evento seguinte). Podemos medir ainda a probabilidade de o tempo de ocorrência do próximo evento (tempo de chegada ou tempo de saída) ser maior do que o intervalo de tempo T, como: P [t > T] = 1 – P[t ≤ T] = 1 – (1 – e -λT ) = e -λT Ou seja, a probabilidade de o intervalo de tempo ser maior do que T é igual a 1 menos a probabilidade de ele ser menor do que T. Para provar a propriedade de falta de memória da distribuição exponencial, podemos considerar a seguinte relação: Essa relação expressa que, se S representa o intervalo de tempo desde a ocorrência do último evento, então a probabilidade de t ser maior do que T + S dado que t é maior do que S tem que ser igual a probabilidade de t ser maior do que T (ou seja, a probabilidade de o nosso evento ocorrer depois de ter passado tanto o tempo que desejamos quanto o tempo desde a última ocorrência deve ser igual a probabilidade de o nosso evento ocorrer depois de ter passado o tempo que desejamos – isto é, não depender do tempo transcorrido desde a última ocorrência S). Assim: x 52 Logo, de fato uma distribuição exponencial não depende do tempo transcorrido desde a última ocorrência. Para entender a aplicação da fórmula no cálculo da probabilidade, vamos considerar o seguinte exemplo: uma máquina em serviço é sempre substituída no caso de ocorrência de falha. O tempo até a falha de uma máquina segue uma distribuição exponencial e ocorre em média a cada 5 horas. Vamos calcular a probabilidade de ocorrência de falha antes das 20h30 em dois casos: a) considerando que agora são 20h20 e b) considerando que agora são 1h da manhã. Solução: Em primeiro lugar devemos obter a taxa média de falha da máquina λ = 1/5 = 0,2 falha por hora. É importante observar que a média da distribuição exponencial (nesse caso, de 5 horas) é equivalente ao valor esperado para o intervalo entre os tempos de chegadas de máquinas com defeitos (intervalo entre falhas). O valor esperado é uma medida considerando o "longo prazo", isto é, se considerarmos um intervalo de tempo muito grande, temos que as falhas ocorrerão em média de 5 em 5 horas. Isso significa, por exemplo, que em uma duração de 200 horas, teríamos (200/5 = 40) em média 40 falhas de máquinas. Voltando ao problema, temos que se as falhas ocorrem de 5 em 5 horas, então a taxa de falha deve ser igual a 0,2 falha por hora (se fizermos 0,2x5 = 1 falha a cada cinco horas). Nesse caso, a distribuição exponencial do tempo até a falha será: f(t) = λe -λt , t > 0 f(t) = 0,2e -0,2t , t > 0 Para calcular a probabilidade nos dois casos (a e b), temos que considerar a fórmula: P [t ≤ T] = 1 – e -λT a) Se agora são 20h20 e queremos calcular a probabilidade de ocorrência de falha até 20h30, então o nosso intervalo de tempo T será de 10 minutos. Como estamos utilizando a taxa de falha na unidade de falha por hora, a unidade de T também deverá estar em horas (ou então poderíamos passar a taxa para minutos). Passando minutos para horas, T = 10/60 (pois x 53 cada hora possui 60 minutos), logo T = 0,16667. Temos então a probabilidade: P [t ≤ 0,16667] = 1 – e -0,2x0,16667 = 0,0328 Esse resultado demonstra que a probabilidade de ocorrência de falha em um intervalo de 10 minutos para a distribuição exponencial considerada, é aproximadamente de 3%. b) Considerando agora um intervalo de tempo desde 1h até 20h30 (T = 19h30 = 19,5 horas), temos: P [t ≤ 19,5] = 1 – e -0,2x19,5 = 0,97976 Agora, a probabilidade de ocorrência de falha dentro desse intervalo subiu para 98%. Já era esperado um resultado tão elevado, visto que a ocorrência da falha ocorre em média de 5 em 5 horas (portanto a probabilidade de ocorrência de falha em um intervalo de mais de 19 horas deve ser bastante elevada). Modelo de nascimento e de mortepuros Nessa seção aprenderemos duas situações de filas: o modelo de nascimento puro, no qual somente ocorrem chegadas de clientes (por exemplo, emissão de certidões de nascimentos), e o modelo de morte puro, no qual ocorrem apenas partidas de clientes (por exemplo, retiradas aleatórias de itens do estoque de uma loja). Modelo de nascimento puro Vamos considerar que p0(t) representa a probabilidade de nenhuma chegada de cliente durante um intervalo de tempo t. Como a probabilidade de chegada segue uma distribuição exponencial, então a probabilidade de não ocorrer nenhuma chegada dentro de um intervalo de tempo t equivale à x 54 probabilidade de o intervalo de tempo entre chegadas ser maior do que t, como mostrado a seguir: p0(t) = P[intervalo de tempo entre chegadas > t] p0(t) = 1 – P[intervalo de tempo entre chegadas ≤ t] p0(t) = 1 – (1 – e -λT ) p0(t) = e -λt Essa equação calcula a probabilidade de chegada de um cliente (cuja taxa de chegada é dada por λ) não ocorrer em um intervalo de tempo t (ou seja, ocorrer após o intervalo de tempo t). Considere um intervalo de tempo h muito pequeno (e positivo). Nesse caso, podemos realizar a expansão em série de Taylor, transformando a nossa exponencial em um polinômio: Como o tempo para a ocorrência da primeira chegada em geral é muito pequeno (h tende à zero), os termos de h de segunda ordem (elevado ao quadrado) em diante (ordem três, quatro...) podem ser desprezados. Assim, temos: Além disso, a probabilidade de ocorrência da primeira chegada p1(h) é igual a 1 menos a probabilidade de não chegar ninguém p0(h), logo: Assim, a probabilidade de chegada de um cliente durante o intervalo de tempo h é proporcional à taxa de chegada de clientes λ e ao intervalo de tempo h. Agora vamos calcular a probabilidade de chegada de 1 cliente durante um intervalo de tempo t + h (em que h é muito pequeno). Nesse caso, temos que: p1(t + h) = p1(t)(1 – λh) + p0(t)λh x 55 Essa equação explica o seguinte: a probabilidade de chegar 1 cliente dentro do intervalo t + h é igual a probabilidade de chegar um cliente durante o intervalo t, que é o p1(t), vezes a probabilidade de não chegar ninguém no intervalo h (que é 1 – λh) somado com a probabilidade de não chegar ninguém no intervalo t, que vale p0(t) vezes a probabilidade de chegar 1 cliente no intervalo h (que é λh). Se quiséssemos calcular a probabilidade de não chegar nenhum cliente no intervalo t + h, então só teríamos uma opção: a probabilidade de não chegar ninguém no intervalo t, que vale p0(t), multiplicada pela probabilidade de não chegar ninguém no intervalo h (que vale 1 – λh), ou seja: p0(t + h) = p0(t)(1 – λh) Agora se formos considerar a probabilidade de chegada de n clientes no intervalo t + h, temos: pn(t + h) = pn(t)(1 – λh) + pn-1(t)λh, para n > 0 Ou seja, a probabilidade de chegar n clientes dentro do intervalo t + h é igual a probabilidade de chegarem n clientes durante o intervalo t, que é o pn(t), vezes a probabilidade de não chegar ninguém no intervalo h (que é 1 – λh) somado com a probabilidade de chegarem n – 1 clientes no intervalo t, que vale pn-1(t) vezes a probabilidade de chegar 1 cliente no intervalo h (que é λh). Podemos calcular a taxa de variação de pn(t) em relação a t, que é igual à derivada de pn(t) em relação t, dada por: , para n > 0 , para n = 0 Repare que o "Δt" da nossa derivada é justamente o h (que é uma variação de t, ou seja, representa o Δt). Para encontrar a solução dessas equações diferenciais, precisamos partir da solução de: p0(t) = e -λt (lá do início da seção) x 56 E a partir dela determinar p1(t) utilizando a primeira equação da derivada (fazendo n = 1 na primeira equação da derivada). Com isso, resolvendo-se a equação diferencial, chega-se à equação de: p1(t) =(λt)e -λt Considerando o valor de p1(t) na primeira equação da derivada e fazendo n = 2, chega-se após solucionar a equação diferencial a: p2(t) =(λt) 2 e -λt /2 Continuando essa sequência para diferentes valores de n, chega-se à conclusão que: Tente fazer essa sequência de cálculos até chegar na equação de pn(t). Qualquer dúvida, peça ajuda para o seu professor! Essa expressão calcula a probabilidade de n chegadas em um intervalo de tempo t, em que a taxa de chegadas segue uma distribuição exponencial de média λ (ou seja, o tempo entre chegadas é igual a 1/λ). Além disso, a média de chegadas durante o intervalo de tempo t é igual a λt (ora, se a taxa média de chegadas é igual a 3 clientes por hora e o nosso intervalo de tempo for de 2 horas, então a média de chegadas de clientes nesse intervalo será de 3x2 = 6 clientes). É importante observar que essa expressão consiste em uma distribuição de Poisson. Essa equação demonstra que, se o tempo entre chegadas segue uma distribuição exponencial com média 1/λ, então o número de chegadas durante um período t segue uma distribuição de Poisson com média λt. O inverso também é válido (se o número de chegadas durante um período t segue uma distribuição de Poisson com média λt, então o tempo entre chegadas segue uma distribuição exponencial com média 1/λ). x 57 Para entender os conceitos dessa seção, considere o seguinte exemplo: A taxa de nascimento de bebês é de um nascimento a cada 12 minutos. Sabe-se que o tempo entre nascimentos segue uma distribuição exponencial. Nesse caso, vamos começar determinando o número médio de nascimentos por ano: A taxa de nascimentos por minuto é igual a 1/12. Como um dia tem 60x24 minutos, então a taxa de nascimento por dia será: Se nascem 120 bebês por dia, então em 1 ano (ou 365 dias) nascerão: Agora vamos calcular a probabilidade de não haver nascimento em qualquer dia determinado. Nesse caso, queremos determinar p0(1) (pois n é igual a 0, isto é, nenhuma chegada, e t é igual a 1, pois consideramos um período de 1 dia). Podemos determinar esse valor a partir da equação: p0(t) = e -λt p0(1) = e -120x1 = 0 Poderíamos calcular também a partir da equação Resultando em: Esse resultado mostra que é praticamente impossível não haver nascimento em um período de 1 dia. Mais uma forma de se obter essa probabilidade seria: nenhum nascimento em um dia é equivalente a dizer que o tempo entre nascimentos sucessivos t deve ser maior do que um dia. Assim, podemos calcular esse resultado a partir da distribuição exponencial: x 58 Todos os resultados tem o mesmo significado! Um último exemplo desse enunciado seria calcular a probabilidade de se emitir 50 certidões de nascimento em 3 horas, dado que 40 certidões foram emitidas durante as 2 primeiras horas (dessas 3 horas). Isso significa calcular a probabilidade de 10 (50 – 40) certidões (n = 10) serem emitidas em um período de 1 (3 – 2) hora, visto que a distribuição do número de nascimentos segue uma distribuição de Poisson. Assim, devemos considerar a taxa de nascimentos em hora λ = 120/24 = 5 nascimentos por hora. Com isso: Isto é, a probabilidade p10(1) = 0,01813, que significa que a probabilidade de nascerem 10 bebês em um período de 10 horas é igual a 0,01813. Para entender o comportamento da distribuição de Poisson: Vamos considerar a seguinte situação: vamos supor que a taxa de chegada de clientes seja de λ = 1 cliente por hora. Nesse caso, os gráficos de pn(t) para n = 0, n = 1 e n = 2 são mostrados a seguir: x 59 O gráfico da cor azul (n = 0) representa a curva de p0(t), isto é, a probabilidade de chegada de 0 clientes (nenhum cliente) ao longo do tempo t. Note que essa probabilidade é igual a 1 apenas no instante inicial (t = 0), o que significa dizer que a probabilidade de não chegar ninguém em 0 horas é igual a 1 (obviamente). À medida que o tempo passa a probabilidade de não chegar nenhum cliente, ou seja, o valor de p0(t) diminui(significa que a probabilidade de chegar cliente está aumentando). O gráfico da cor laranja (n = 1) representa a curva de p1(t), isto é, a probabilidade de chegar 1 cliente ao longo do tempo t. Note que ele é igual a 0 no instante inicial (pois é impossível chegar cliente em um intervalo de 0 horas) e que essa probabilidade de chegada de cliente vai aumentando à medida que o tempo passa (enquanto a probabilidade de não chegarem clientes vai diminuindo). Note também que o ponto máximo ocorre para t = 1 hora (isso ocorre, pois a nossa taxa de chegada λ é de 1 cliente por hora, ou seja, é mais provável de se chegar 1 cliente em 1 hora, logo se a nossa taxa fosse de 5 clientes por hora esse máximo ocorreria no instante t = 5, por exemplo). Após o instante t = 1, a probabilidade diminui novamente (ou seja, conforme o intervalo de tempo t aumenta, fica cada vez mais improvável a chegada de apenas 1 cliente – se torna mais provável que cheguem mais do que 1 cliente). O gráfico da cor cinza (n = 2) representa a curva de p2(t), isto é, a probabilidade de chegarem 2 clientes ao longo do tempo t. Note que ele é igual a 0 no instante inicial (pois é impossível chegar clientes durante um x 60 intervalo de tempo de 0 horas) e que essa probabilidade de chegada de cliente vai aumentando à medida que o tempo passa (enquanto a probabilidade de não chegarem clientes vai diminuindo). Note também que o ponto máximo ocorre para t = 2 horas (isso ocorre, pois a nossa taxa de chegada λ é de 1 cliente por hora, ou seja, é mais provável chegarem 2 clientes em 2 horas, logo se a nossa taxa fosse de 5 clientes por hora esse máximo ocorreria no instante t = 10, por exemplo). Após o instante t = 2, a probabilidade diminui novamente (ou seja, conforme o intervalo de tempo t aumenta, fica cada vez mais improvável a chegada de apenas 2 clientes – se torna mais provável que cheguem mais do que 2 clientes). E assim por diante. Logo, a fórmula de pn(t) mede a probabilidade de chegarem exatamente n clientes em um intervalo de tempo t e que o máximo dessa probabilidade depende de n e de λ (para n = 0, ou seja, a probabilidade de chegada de 0 clientes, pn(t) é máxima para t = 0; para n = 1, ou seja, a probabilidade de chegada de 1 cliente, pn(t) é máxima em t = λ; para n = 2, ou seja, a probabilidade de chegada de 2 clientes, pn(t) é máxima em t = 2λ; para n = 3, ou seja, a probabilidade de chegada de 3 clientes, pn(t) é máxima em t = 3λ e assim por diante). Modelo de morte puro Enquanto no modelo de nascimento puro começamos com 0 clientes no instante inicial (t = 0), no modelo de morte puro começamos com N clientes no instante inicial (t = 0) sendo que nenhuma nova chegada é permitida a partir desse instante (para diferentes intervalos de t). Isso significa que à medida que o tempo t passa (conforme a duração aumenta), só ocorrem partidas (saídas de clientes, logo ou o valor de n é igual a N, ou ele diminuí). As partidas de clientes ocorrem a uma taxa μ clientes por unidade de tempo (taxa de partidas de clientes). Para encontrar a probabilidade pn(t) no modelo de morte puro precisamos resolver as equações diferenciais considerando a permanência de n clientes x 61 após um intervalo de tempo t, a partir dos argumentos utilizados no modelo de nascimento puro. Assim: Considerando que a probabilidade de partida de 1 cliente, no intervalo de tempo h, é igual a μh, então (1 – μh) será a probabilidade de não partirem clientes no intervalo de tempo h (quando h é muito pequeno). Logo, a primeira equação mostra que a probabilidade de haver N clientes durante o intervalo t + h deve ser igual a probabilidade de ter N clientes durante o intervalo t multiplicada pela probabilidade de não saírem clientes durante o intervalo h. A segunda equação mostra o caso geral: a probabilidade de termos n clientes durante o intervalo t + h é igual a probabilidade de termos n clientes no durante o intervalo t multiplicada pela probabilidade de não saírem clientes no intervalo h somada com a probabilidade de termos n + 1 clientes no intervalo t multiplicada pela probabilidade de sair 1 cliente no intervalo h. Por fim, a terceira equação mostra que a probabilidade de termos 0 clientes no intervalo t + h é igual a probabilidade de termos 0 clientes durante o intervalo t multiplicada por 1 (pois não podemos perder mais clientes, ou seja, a probabilidade de não saírem clientes é igual a 1, pois temos 0 clientes) somada com a probabilidade de termos 1 cliente no intervalo t multiplicada pela probabilidade de sair um cliente no intervalo h. As derivadas dessas equações quando h tende a zero, resulta em: A resolução dessas equações resulta em uma distribuição de Poisson truncada, como mostrado a seguir: x 62 Se fizermos n = N nessa equação, ou seja, quisermos calcular a probabilidade de termos N clientes durante o intervalo de tempo t, teremos: pN(t) = e -μt Que é equivalente à equação de p0(t) no modelo de nascimento puro (substituindo a taxa de chegada λ pela taxa de partida μ). Lá, p0(t) media a probabilidade de não chegarem nenhum cliente, aqui pN(t) mede a probabilidade de não partirem clientes (por isso são equivalentes). A probabilidade de termos N – 1 clientes é dada por (substituindo n = N – 1 nessa equação): pN – 1(t) =(μt)e -μt Repare a semelhança entre ela e a equação de p1(t) da seção anterior (pois lá temos a probabilidade de chegar 1 cliente enquanto aqui mede a probabilidade de sair um cliente, que equivale a termos N – 1 clientes). Considerando ainda a situação de termos zero clientes (n = 0), chegamos a seguinte equação: p0(t) =(μt) N e -μt /N! Que é a própria distribuição de Poisson, ou seja, a probabilidade de chegarem N clientes no modelo de nascimento puro é equivalente à probabilidade de partirem N clientes no modelo de morte puro (e se a taxa de chegada for igual a taxa de partida λ = µ então essas probabilidades darão o mesmo resultado) Para entender o comportamento da equação de pn(t) (distribuição de Poisson truncada), vamos considerar a seguinte situação: suponha que a taxa de partida de clientes seja de μ = 1 cliente por hora e que inicialmente temos 2 clientes (N = 2). Nesse caso, os gráficos de pn(t) para n = 2 (N), n = 1 (N – 1) e n = 0 (N – 2) são mostrados a seguir: x 63 Note que o gráfico tem o mesmo comportamento do gráfico do modelo de nascimento puro (mas ao invés de ir de n = 0 até n = 2, ele vai de n = 2 até n = 0, ou seja, de n = N até n = 0). Vamos entender cada um dos gráficos. O gráfico da cor azul (n = 2, ou n = N) representa a curva de p2(t) ou pN(t), isto é, a probabilidade de termos N clientes (ou seja, de não partirem nenhum cliente, por isso ele é igual ao gráfico de p0(t) do modelo de nascimento puro, que representa a probabilidade de não chegarem clientes) ao longo do tempo t. Note que essa probabilidade é igual a 1 apenas no instante inicial (t = 0), o que significa dizer que a probabilidade de não partir ninguém em 0 horas é igual a 1 (obviamente). À medida que o tempo passa a probabilidade de não partir nenhum cliente, ou seja, o valor de pN(t) diminui (significa que a probabilidade de partir cliente está aumentando). O gráfico da cor laranja (n = 1) representa a curva de p1(t) ou de pN-1(t), isto é, a probabilidade de partir 1 cliente (por isso tem o mesmo comportamento da probabilidade de chegar 1 cliente) ao longo do tempo t. Note que ele é igual a 0 no instante inicial (pois é impossível partir cliente em um intervalo de 0 horas) e que essa probabilidade de partida de clientes vai aumentando à medida que o tempo passa (enquanto a probabilidade de não partirem clientes vai diminuindo). Note também que o ponto máximo ocorre para t = 1 hora (isso ocorre, pois a nossa taxa de partida μ é de 1 cliente por hora, ou seja, é mais provável
Compartilhar