Buscar

Livro - Pesquisa Operacional II

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 266 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 266 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 266 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

x 
1 
 
Pesquisa 
Operacional II 
Alexander Cascardo Carneiro 
1
ª 
e
d
iç
ã
o
 
x 
2 
 
DIREÇÃO SUPERIOR 
Chanceler Joaquim de Oliveira 
Reitora Marlene Salgado de Oliveira 
Presidente da Mantenedora Wellington Salgado de Oliveira 
Pró-Reitor de Planejamento e Finanças Wellington Salgado de Oliveira 
Pró-Reitor de Organização e Desenvolvimento Jefferson Salgado de Oliveira 
Pró-Reitor Administrativo Wallace Salgado de Oliveira 
Pró-Reitora Acadêmica Jaina dos Santos Mello Ferreira 
Pró-Reitor de Extensão Manuel de Souza Esteves 
 
DEPARTAMENTO DE ENSINO A DISTÂNCIA 
Gerência Nacional do EAD Bruno Mello Ferreira 
Gestor Acadêmico Diogo Pereira da Silva 
 
FICHA TÉCNICA 
Texto: 
Revisão Ortográfica: Rafael Dias de Carvalho Moraes 
Projeto Gráfico e Editoração: Antonia Machado, Eduardo Bordoni, Fabrício Ramos e Victor 
Narciso 
Supervisão de Materiais Instrucionais: Antonia Machado 
Ilustração: Eduardo Bordoni e Fabrício Ramos 
Capa: Eduardo Bordoni e Fabrício Ramos 
 
COORDENAÇÃO GERAL: 
Departamento de Ensino a Distância 
Rua Marechal Deodoro 217, Centro, Niterói, RJ, CEP 24020-420 www.universo.edu.br 
 
Ficha catalográfica elaborada pela Biblioteca Universo – Campus 
Niterói 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Bibliotecária: ELIZABETH FRANCO MARTINS – CRB 7/4990 
 
Informamos que é de única e exclusiva responsabilidade do autor a originalidade desta obra, não se 
responsabilizando a ASOEC 
pelo conteúdo do texto formulado. 
© Departamento de Ensino a Distância - Universidade Salgado de Oliveira 
Todos os direitos reservados. Nenhuma parte desta publicação pode ser reproduzida, arquivada ou transmitida de 
nenhuma forma ou por nenhum meio sem permissão expressa e por escrito da Associação Salgado de Oliveira de 
Educação e Cultura, mantenedora da Universidade Salgado de Oliveira (UNIVERSO). 
http://www.universo.edu.br/
x 
3 
 
Palavra da Reitora 
 
Acompanhando as necessidades de um mundo cada vez mais complexo, exigente 
e necessitado de aprendizagem contínua, a Universidade Salgado de Oliveira 
(UNIVERSO) apresenta a UNIVERSOEAD, que reúne os diferentes segmentos do 
ensino a distância na universidade. Nosso programa foi desenvolvido segundo as 
diretrizes do MEC e baseado em experiências do gênero bem-sucedidas 
mundialmente. 
São inúmeras as vantagens de se estudar a distância e somente por meio dessa 
modalidade de ensino são sanadas as dificuldades de tempo e espaço presentes nos 
dias de hoje. O aluno tem a possibilidade de administrar seu próprio tempo e gerenciar 
seu estudo de acordo com sua disponibilidade, tornando-se responsável pela própria 
aprendizagem. 
O ensino a distância complementa os estudos presenciais à medida que permite 
que alunos e professores, fisicamente distanciados, possam estar a todo o momento, 
ligados por ferramentas de interação presentes na Internet através de nossa 
plataforma. 
Além disso, nosso material didático foi desenvolvido por professores 
especializados nessa modalidade de ensino, em que a clareza e objetividade são 
fundamentais para a perfeita compreensão dos conteúdos. 
A UNIVERSO tem uma história de sucesso no que diz respeito à educação a 
distância. Nossa experiência nos remete ao final da década de 80, com o bem-
sucedido projeto Novo Saber. Hoje, oferece uma estrutura em constante processo de 
atualização, ampliando as possibilidades de acesso a cursos de atualização, 
graduação ou pós-graduação. 
Reafirmando seu compromisso com a excelência no ensino e compartilhando as 
novas tendências em educação, a UNIVERSO convida seu alunado a conhecer o 
programa e usufruir das vantagens que o estudar a distância proporciona. 
Seja bem-vindo à UNIVERSOEAD! 
Professora Marlene Salgado de Oliveira 
Reitora. 
x 
4 
 
x 
5 
 
 
Sumário 
 
 
Apresentação da disciplina ............................................................................ 
Plano da disciplina ......................................................................................... 
Unidade 1 – Cadeias de Markov .................................................................... 
Unidade 2 – Teoria de Filas ........................................................................... 
Unidade 3 – Análise de Decisão .................................................................... 
Unidade 4 – Teoria dos Jogos........................................................................ 
Unidade 5 – Otimização em Redes ................................................................ 
Unidade 6 – Programação Dinâmica .............................................................. 
Considerações finais ...................................................................................... 
Conhecendo as autoras ................................................................................. 
Referências .................................................................................................... 
Anexos ........................................................................................................... 
 
x 
6 
x 
7 
 
 
Apresentação da Disciplina 
 
 
Caríssimo leitor, 
 
Esse livro é uma sequência do conteúdo tratado em Pesquisa 
Operacional I. Lá, trabalhamos com diferentes aplicações da Programação 
Linear (PL) em diversos tipos de problemas. Aqui, em Pesquisa Operacional 
II o nosso foco será no estudo de Redes, porém os conceitos e os métodos 
aprendidos em Pesquisa Operacional I, principalmente o método tabular 
Simplex, não podem ser excluídos. De fato, poderíamos utilizar os métodos 
aprendidos na disciplina anterior para a solução dos problemas que serão 
discutidos nesse livro. No entanto, em Pesquisa Operacional II aprenderemos 
métodos e algoritmos ainda mais eficientes para solucionar novos tipos de 
problemas. O interessante dessa nova abordagem, que desenvolve 
algoritmos para solucionar problemas de Pesquisa Operacional, é a 
possibilidade de introduzirmos os cálculos em um sistema computacional (por 
exemplo, desenvolver esses cálculos por meio de um software). Essa 
possibilidade permite que todas as operações matemáticas (que seriam feitas 
“no papel”) possam ser resolvidas no computador. 
Assim, esse livro expõe não somente os conteúdos de Pesquisa 
Operacional, mas também apresenta uma metodologia numérica para 
solucionar problemas de Pesquisa Operacional que pode ser implantada por 
meio de softwares computacionais. Por isso eu recomendo que você sempre 
vá além das expectativas, buscando o entendimento sobre os conceitos 
tratados nesse livro junto com as suas possíveis aplicações práticas. 
 
x 
8 
x 
9 
 
Plano da Disciplina 
 
 
Prezado, 
O nosso livro de Pesquisa Operacional II aborda todos esses temas ao 
longo de suas seis Unidades, cujos conteúdos estão apresentados a seguir: 
 
Unidade 1 – Cadeias de Markov 
Na primeira Unidade, começaremos a nossa caminhada na disciplina de 
Pesquisa Operacional II. Aprenderemos sobre as cadeias de Markov e sua 
importância para solução de problemas de Pesquisa Operacional. 
Objetivos da unidade: 
 Compreender os conceitos de processos estocásticos e 
diagrama de transição de estados. 
 Entender os processos markoviano, suas propriedades e 
classificações. 
 Calcular as probabilidades de estado no equilíbrio e o tempo 
médio de primeiro retorno. 
 
Unidade 2 – Teoria de Filas 
Na segunda Unidade, vamos entender os conceitos relacionados à 
Teoria de Filas, a partir dos seus principais modelos. Estudaremos as 
diferentes fórmulas, classificações e medidas de desempenho das filas. 
Objetivos da unidade: 
 Conhecer a importância de se estudar filas e seus principais 
elementos. 
x 
10 
 Apresentar a distribuição exponencial e de Poisson e como elas 
se relacionam com os modelos de filas. 
 Descrever as diferentes classificações das filas e suas principais 
medidas de desempenho.Unidade 3 – Análise de Decisão 
Na terceira Unidade, vamos estudar os fundamentos da Análise de 
Decisão, incluindo a tomada de decisões sob certeza (quando os dados são 
determinísticos), a tomada de decisões sob risco (quando os dados são 
probabilísticos) e a tomada de decisões sob incerteza (quando os dados são 
incertos). 
Objetivos da unidade: 
 Entender os princípios da tomada de decisão sob certeza, 
incluindo os conceitos de matriz de comparação, de 
consistência e a ferramenta AHP. 
 Apresentar os fundamentos da tomada de decisão sob risco, 
explicando o critério do valor esperado, os elementos da árvore 
de decisão e os estados da natureza. 
 Descrever os principais critérios de tomada de decisão sob 
incerteza, como o critério de Laplace, o critério maximin (ou 
minimax), o arrependimento de Savage e o critério de Hurwicz. 
 
Unidade 4 – Teoria dos Jogos 
Na quarta unidade, vamos aprender sobre um importante campo da 
Pesquisa Operacional conhecido como Teoria dos Jogos. De forma 
semelhante à tomada de decisão sob incerteza, o objetivo aqui é encontrar a 
solução de problemas nos quais são conhecidos apenas os retornos (mas 
não as probabilidades associadas a eles). A diferença é que agora o retorno 
passa a ser influenciado pelas ações dos concorrentes (não mais pelos 
“estados da natureza”). 
Objetivos da unidade: 
x 
11 
 Conhecer as motivações, os objetivos e os elementos que 
fazem parte do estudo da Teoria dos Jogos. 
 Apresentar a solução de problemas envolvendo jogos 
empresariais, definindo a estratégia dominante para cada 
empresa e a consequente solução de equilíbrio. 
 Entender como resolver problemas envolvendo jogos de soma 
zero com duas pessoas. 
 
Unidade 5 – Otimização em Redes 
Na quinta Unidade, vamos estudar sobre os modelos de otimização em 
redes, através dos quais desenvolveremos algoritmos para a solução de 
problemas, como: a obtenção do caminho total mais curto, o comprimento 
total mínimo, o fluxo máximo e o caminho crítico. 
 
Objetivos da unidade: 
 Estudar o algoritmo da árvore geradora mínima para solucionar 
problemas de caminho total mais curto de uma rede. 
 Aprender o algoritmo do caminho mais curto para determinar o 
menor comprimento entre dois nós de uma rede. 
 Entender o algoritmo do fluxo máximo para o cálculo da 
capacidade máxima e do fluxo ótimo de uma rede. 
 Apresentar o algoritmo de caminho crítico para a construção de 
um cronograma de uma rede de projeto. 
 
Unidade 6 – Programação Dinâmica 
Na sexta e última Unidade vamos aprender sobre os principais conceitos 
relacionados à Programação Dinâmica (PD), desenvolvendo o método 
matemático para solução de problemas e suas duas principais aplicações. 
Objetivos da unidade: 
x 
12 
 Entender os elementos fundamentais que fazem parte dos 
cálculos de PD. 
 Aprender as duas formas de solucionar problemas de PD: por 
meio da recursão progressiva e pela recursão regressiva. 
 Estudar duas das principais aplicações de PD para problemas 
determinísticos: o problema da mochila e o problema do 
tamanho da força de trabalho. 
 
x 
13 
 
 
x 
14 
Cadeias de Markov 
 1 
x 
 
15 
 
Caro aluno, 
 
Nesta Unidade começaremos a nossa caminhada na disciplina de 
Pesquisa Operacional II. Aprenderemos sobre as cadeias de Markov e sua 
importância para solução de problemas de Pesquisa Operacional. 
 
Objetivos da unidade: 
 Compreender os conceitos de processos estocásticos e 
diagrama de transição de estados. 
 Entender os processos markoviano, suas propriedades e 
classificações. 
 Calcular as probabilidades de estado no equilíbrio e o tempo 
médio de primeiro retorno. 
 
Plano da unidade: 
 Processos estocásticos 
 Diagramas de transição de estado 
 Processos de Markov 
 Probabilidade de transição em n-etapas 
 Classificação dos estados de uma cadeia de Markov 
 Probabilidades de estado no equilíbrio e tempo médio de retorno 
 
Bons estudos! 
x 
 
16 
 
Processos estocásticos 
 
Um processo estocástico é uma coleção de variáveis aleatórias 
indexadas (Xt), onde t é um índice, geralmente o tempo. Assim, um processo 
estocástico é a descrição de um fenômeno aleatório que varia com o tempo t. 
Considere o exemplo: 
 
Nesse exemplo, X é uma variável aleatória discreta (pois possui um 
número finito de estados – 0, 1 ou 2) e representa a condição de uma 
máquina na ocasião de uma manutenção preventiva, a qual é realizada 
mensalmente. O mês é representado pela letra t (t = 1 representa o mês 1, t = 
2 o mês 2 e etc). Logo, a cada mês t, a condição da máquina pode ser ruim 
(Xt = 0), razoável (Xt = 1) e boa (Xt = 2). Além disso, temos que X1 é uma 
variável aleatória que expressa a condição da máquina no mês 1, X2 é uma 
variável aleatória que expressa a condição da máquina no mês 2 e assim por 
diante. Portanto, cada mês possui uma variável aleatória: X1 X2 X3 ... (que é o 
mesmo que escrever na forma: Xt para t = 1, 2, 3...), a qual definimos como 
processo estocástico. Ou seja, temos um processo estocástico quando a 
nossa variável aleatória puder assumir valores diferentes em cada instante de 
tempo (que nesse caso é o mês) – de maneira mais formal: um processo 
estocástico é um conjunto de variáveis aleatórias (Xt), onde t é um índice, 
geralmente o tempo. 
Um processo estocástico X1 X2 X3 ... pode representar ainda a coleção 
das quantidades de carros que passam por um determinado ponto de uma 
rodovia, a evolução dos níveis de estoque semanais de uma firma, o 
comportamento de uma partícula de gás, variações nas qualidades dos 
produtos, variações nos preços de ações, vendas numa determinada loja, 
evolução do número de desempregados num determinado país, etc. 
 
x 
 
17 
 
Diagramas de transição de estado 
 
Uma forma de representar um processo estocástico é através de grafos, 
o qual identifica os estados da variável aleatória e suas probabilidades de 
transição, como mostrado a seguir: 
 
Nesse caso temos 3 estados (0, 1 e 2). As setas indicam a probabilidade 
de transição de estado. Por exemplo, a seta marcada a seguir demonstra que 
a probabilidade de a variável aleatória mudar do estado 0 para o estado 1 é 
de 1/2 (ou 0,5 ou 50%). 
 
No exemplo a seguir, é destacada a probabilidade de transição do estado 
1 para o estado 1 (ou seja, a probabilidade de a variável aleatória se manter 
no estado 1) que mede 1/3 (ou 0,3333... ou 33,33...%). 
 
x 
 
18 
Considere por exemplo que esse grafo (diagrama de transições de 
estado) represente a situação descrita no exemplo da condição da máquina 
dado anteriormente. Dessa forma podemos dizer o seguinte: se a máquina 
estiver em condição ruim este mês (estado 0), a probabilidade dela estar em 
condição razoável (estado 1) no próximo mês é de 1/2 (que é a probabilidade 
de transição do estado 0 para o estado 1). Ou então, se a máquina estiver em 
condição razoável este mês, a probabilidade de ela continuar em condição 
razoável no próximo mês é de 1/3 (que é a probabilidade de transição do 
estado 1 para o estado 1). 
No caso dos grafos, é mais comum numerarmos os estados começando 
do 1 (não do 0), como mostrado a seguir: 
 
Considere agora pij a probabilidade de transição do estado i para o 
estado j. Portanto p11 = 0 (pois não existe transição do estado 1 para o estado 
1), p12 = 1/2 (que é a probabilidade de transição do estado 1 para o 2), p13 = 
1/2 (que é a probabilidade de transição do estado 1 para o 3), p21 = 1/3 (que é 
a probabilidade de transição do estado 2 para o 1), p22 = 1/3 (que é a 
probabilidade de transição do estado 2 para o 2), p23 = 1/3 (que é a 
probabilidade de transição do estado 2 para o 3), p31 = 2/3 (que é a 
probabilidade de transição do estado 3 para o 1), p32 = 1/3 (que é a 
probabilidade de transição do estado 3 para o 2) e Portanto p33 = 0 (pois não 
existe transição do estado 3 para o estado 3). 
Uma forma de simplificara visualização desses valores é através de uma 
matriz da seguinte forma: 
 
x 
 
19 
Substituindo os valores obtidos anteriormente nessa matriz chegamos 
em: 
 
Essa matriz acima é conhecida como Matriz de Transição de Estados. 
Ela é uma matriz quadrada cujo número de linhas e colunas é igual ao 
número de estados (no nosso exemplo são 3). Repare que a soma de todos 
os elementos de cada linha é sempre 1 (100%). Isso sempre ocorre, pois 
cada linha representa todas as possibilidades de transições possíveis 
daquele estado. 
 
Processos de Markov 
 
Um processo estocástico é um processo de Markov (ou markoviano) se 
a ocorrência de um estado futuro depender apenas de um estado 
imediatamente anterior (o estado seguinte depende apenas do estado atual). 
Em outras palavras, a probabilidade de qualquer evento futuro independe dos 
eventos passados, dependendo apenas do estado atual. Assim, se eu estiver 
no estado 1 e quiser atingir um estado 2, a probabilidade de transição do 
estado 1 para o estado 2 depende apenas de eu estar no estado 1 
(independe dos estados que eu estava anteriormente). 
Para entender o significado de um processo markoviano, vamos 
considerar o seguinte exemplo de um processo não markoviano: imagine 
uma máquina que possua dois estados (estado 1: não funcionando e estado 
2: funcionando) e o nosso t seja o número de vezes que eu aperto o botão de 
ligar da máquina (isto é, t = 1 significa que apertei uma vez, t = 2 significa que 
apertei duas vezes e assim por diante). Vamos considerar que inicialmente a 
nossa máquina não está funcionando (estado 1). Se eu apertei o botão e ela 
x 
 
20 
funcionou, então a máquina foi do estado 1 (não funcionando) para o estado 
2 (funcionando), se eu apertei o botão e ela não funcionou então a máquina 
se manteve no estado 1 (existe então uma probabilidade de transição do 
estado 1 para o 2 e do estado 1 para ele mesmo em função de t, que é a 
quantidade de vezes que eu apertei o botão). Vamos supor que essa 
probabilidade de transição do estado 1 para o 2 seja de 0,5 e do 1 para o 1 
também seja de 0,5 (ou seja, existe uma probabilidade de 50% de a máquina 
ir para o estado 2 ou se manter no estado 1 quando eu aperto o botão). Até 
agora temos um processo estocástico (Xt), em que X é uma variável aleatória 
que possui dois estados (estado 1: não funcionando e estado 2: funcionando) 
e t representa o número de vezes que apertei o botão. Logo, X3 por exemplo, 
representa o estado da máquina após termos apertado o botão 3 vezes. 
Vamos adicionar a seguinte condição a esse nosso exemplo: caso tenhamos 
apertado o botão três vezes e a máquina não funcionou nessas três vezes, 
então, com certeza ela irá funcionar na quarta vez que apertarmos o botão. 
Isso significa que na quarta vez que apertarmos o botão, a probabilidade de 
transição do estado 1 para o estado 2 será de 1 (100%), caso a máquina 
tenha ficado no estado 1 nas três primeiras vezes. Matematicamente, 
escrevemos essa condição da seguinte forma: 
P[X4 = 2/X3 = 1,X2 = 1,X1 = 1] = 1 
Lê-se da seguinte forma: a probabilidade de X4 = 2 (a probabilidade de a 
máquina estar no estado 2 na quarta vez que apertarmos o botão) dado que 
X3 = 1,X2 = 1,X1 = 1 (dado que na terceira vez que apertamos o botão ela 
estava no estado 1, na segunda vez que apertamos o botão ela estava no 
estado 1 e na primeira vez que apertamos o botão ela estava no estado 1), é 
de 1 (100%). Para um t qualquer, podemos reescrever essa condição da 
seguinte forma: 
P[Xt = 2/Xt-1 = 1,Xt-2 = 1,Xt-3 = 1] = 1 
Agora vamos responder a seguinte questão: se o estado atual da nossa 
máquina é o estado 1 (não funcionando) qual será a probabilidade de ela 
mudar para o estado 2 (funcionando) caso apertemos o botão? Se 
considerarmos o enunciando no início do problema, responderemos que essa 
probabilidade é de 0,5 (50%). Porém, se considerarmos a condição acima, 
x 
 
21 
veremos que ela pode ser igual a 1 (100%), caso o estado atual e os dois 
estados anteriores ao atual sejam 1 (não funcionando). Essa condição faz 
com que a probabilidade de transição do estado 1 para o 2 dependa não 
apenas do estado atual (mas também de estados anteriores a ele), fazendo 
com que esse processo estocástico não seja markoviano. Se retirarmos essa 
condição, de forma que possamos determinar a probabilidade de transição de 
qualquer estado para qualquer estado (do 1 para o 2, do 1 para o 1, do 2 para 
o 1 e do 2 para o 2), a partir apenas do estado atual, então o nosso processo 
estocástico passará a ser um processo markoviano. 
Portanto, um processo será markoviano se precisarmos apenas do 
estado atual para obter a probabilidade de transição para qualquer estado 
futuro (as probabilidades de transição não dependem dos estados anteriores 
ao atual). Matematicamente, isso equivale a escrever que: 
P[Xt+1 = xt+1 / Xt = xt , Xt-1 = xt-1 , Xt-2 = xt-2 , ...] = P[Xt+1 = xt+1 / Xt = xt] 
Ou seja, se o processo for markoviano, a probabilidade de transição de 
um estado atual para o estado seguinte depende apenas do estado atual. 
Nesse caso, a Matriz de Transição de Estados da seção anterior se torna 
uma Cadeia de Markov, podendo ser escrita como: 
 
Em que P é a cadeia de Markov e pij representam as probabilidades de 
transição do estado atual i para o estado seguinte (ou futuro) j. 
Para entender o significado de uma cadeia de Markov, vamos considerar 
o seguinte exemplo: um jardineiro utiliza um teste químico todo o ano para 
verificar a condição do solo para o plantio. A produtividade do solo resultante 
desse teste pode cair em três estados: bom (estado 1), razoável (estado 2) e 
ruim (estado 3). Considere que ao longo dos anos o impacto sobre a 
produtividade causado pela condição do solo seja descrita pela seguinte 
cadeia de Markov: 
x 
 
22 
 
Essa cadeia de Markov mostra para a gente que: se a condição do solo 
neste ano for boa (linha 1), então existe uma probabilidade para o ano 
seguinte de 0,2 (20%) de ela se manter boa, de 50% de ela se tornar 
razoável (transição do estado 1 para o estado 2) e de 30% de ela se tornar 
ruim (transição do estado 1 para o 3). Se a condição do solo neste ano for 
razoável (linha 2), então existe uma probabilidade para o ano seguinte de 0 
(0%) de ela mudar para boa (ou seja, a probabilidade de transição do estado 
2 para o 1 é igual a 0), de 50% de ela se manter como razoável (transição do 
estado 2 para o estado 2) e de 50% de ela se tornar ruim (transição do 
estado 2 para o 3). Se a condição do solo neste ano for ruim (linha 3), então 
existe uma probabilidade para o ano seguinte de 0 de ela se tornar boa 
(transição do estado 3 para o 1), de 0 de ela se tornar razoável (transição do 
estado 3 para o estado 2) e de 1 (100%) de ela se tornar ruim (transição do 
estado 3 para o 3). Logo, essa cadeia de Markov mostra para a gente que as 
condições do solo podem apenas se manter ou piorar, mas nunca melhorar. 
 
Probabilidade de transição em n-etapas 
 
Considere que as probabilidades dos estados iniciais seja dada pelo 
vetor a
(0)
 (um vetor a
(0)
 = (0 1 0), por exemplo, significa que a probabilidade 
de estarmos no estado 1 e 3 é igual a 0 e de estarmos no estado 2 é igual a 
100%, ou seja, inicialmente estamos no estado 2) e que P seja a nossa 
cadeia de Markov, que representa uma matriz de transição de estados 
(mostra as probabilidades de transição de um estado atual i para um estado 
futuro j). Nesse caso, podemos medir as probabilidades absolutas de 
estarmos em um estado j, após n etapas (transições), da seguinte forma: 
a
(1)
 = a
(0)
.P 
x 
 
23 
Se quisermos obter as probabilidades absolutas após 1 transição, 
devemos multiplicar o vetor das probabilidades do estado inicial pela matriz 
de transição de estados um única vez. Podemos obter também: 
a
(2)
 = a
(1)
.P 
A equação anterior mostra que podemos obter o vetor contendo as 
probabilidadesabsolutas após duas transições (etapas) se multiplicarmos o 
vetor das probabilidades absolutas após 1 transição pela matriz de transição 
uma única vez. Ou então, substituindo a
(1)
 = a
(0)
P, obtemos: 
a
(2)
 = a
(0)
PP=a
(0)
.P
2
 
A equação acima mostra que se multiplicarmos vetor das probabilidades 
do estado inicial pela matriz de transição de estados duas vezes, obteremos 
o vetor contendo as probabilidades absolutas após duas transições. Esse 
raciocínio pode ser estendido até n etapas (transições), resultando em: 
a
(n)
 = a
(0)
.P
n
 , n = 1, 2, 3... 
Essa última equação é a generalização do cálculo dos vetores de 
probabilidades absolutos, considerando n transições (etapas). 
Para entender a aplicação dessa equação, considere o seguinte 
exemplo: vamos considerar que um jardineiro, ao aplicar um fertilizante, pode 
melhorar as condições do solo, chegando a seguinte cadeia de Markov: 
 
Os estados dessa cadeia de Markov seguem as mesmas características 
do exemplo anterior (estado 1: bom, estado 2: razoável e estado 3: ruim). 
Vamos considerar também que a condição inicial do solo é boa, ou seja, a
(0)
 = 
(1 0 0). Vamos determinar as probabilidades absolutas dos três estados do 
sistema (condição do solo) após 1, 8 e 16 transições (estações). 
 
 
x 
 
24 
Em outras palavras, o problema está pedindo que calculemos: 
a
(1)
 = a
(0)
.P 
a
(8)
 = a
(0)
.P
8
 
a
(16)
 = a
(0)
.P
16
 
Portanto, para obtermos essas soluções, devemos encontrar os valores 
de P
8
 e P
16
. Vamos obter esses valores na seguinte sequência: 
Primeiro vamos obter o valor de P
2
 = PP. 
 
Podemos obter P
4
 = P
2 
P
2
 
 
Podemos obter P
8
 = 
 
P
4 
P
4
 
 
Podemos obter P
16
 = 
 
P
8 
P
8
 
 
x 
 
25 
Assim, temos que a
(1)
 = a
(0)
P: 
 
E que a
(8)
 = a
(0)
P
8
: 
 
E que a
(16)
 = a
(0)
P
16
: 
 
A solução a
(1)
 = (0,30 0,60 0,1) expressa que se a condição do solo 
inicialmente era boa, então a probabilidade após 1 estação (transição) para 
que ela esteja boa será de 0,3, para que ela mude para razoável é de 0,6 e 
para que ela mude para ruim será de 0,1. 
A solução a
(8)
 = (0,101753 0,525514 0,372733) expressa que se a 
condição do solo inicialmente era boa, então a probabilidade após 8 estações 
(transições) para que ela esteja boa será de 0,101753, para que ela esteja 
razoável é de 0,525514 e para que ela esteja ruim será de 0,372733. 
A solução a
(16)
 = (0,101659 0,52454 0,372881) expressa que se a 
condição do solo inicialmente era boa, então a probabilidade após 16 
estações (transições) para que ela esteja boa será de 0,101659, para que ela 
esteja razoável é de 0,52454 e para que ela esteja ruim será de 0,372881. 
É importante observar que a
(8)
 se assemelha bastante às linhas de P
8
, e 
que essa semelhança fica ainda mais evidente quando comparamos a
(16)
 com 
P
16
. Isso demonstra que à medida que elevamos o número de transições, as 
probabilidades absolutas se tornam independentes da inicial (mesmo 
utilizando outra condição inicial, o resultado de a
(16)
 seria exatamente o 
mesmo). Nesse caso, dizemos que as probabilidades resultantes (de a
(16)
, por 
exemplo) são probabilidades de estado no equilíbrio (pois elas 
independem da condição inicial). 
 
x 
 
26 
 
Classificação dos estados de uma cadeia de Markov 
 
Os estados de uma cadeia de Markov podem ser classificados com base 
nas probabilidades de transição pij de P, como: 
 
Absorvente 
 
Um estado é dito absorvente se a probabilidade de ele retornar para ele 
mesmo for de 1 (100%). Em outras palavras, se a probabilidade de transição 
pjj = 1, então o estado j é absorvente. Podemos entender esse conceito a 
partir do seguinte grafo: 
 
Podemos observar que o estado C é um estado absorvente, visto que no 
instante em que o sistema chega ao estado C, ele será absorvido por ele 
(pois a única transição possível é de C para ele mesmo). 
Vamos considerar novamente o exemplo do jardineiro, cuja cadeia de 
Markov era: 
 
Sobre essa cadeia de Markov, podemos notar que o estado 3 é 
absorvente (pois p33 = 1), ou seja, caso a condição do solo fique ruim, ela se 
x 
 
27 
manterá ruim independente da quantidade de etapas seguintes. Uma 
observação importante sobre os estados absorventes é a seguinte: vamos 
considerar essa cadeia de Markov cujo estado 3 é absorvente. Se 
calcularmos a cadeia de Markov após diversas transições (por exemplo, 100 
transições), chegaremos ao seguinte resultado: 
 
Esse resultado mostra para a gente o seguinte: independente do estado 
inicial, após diversas transições o nosso sistema estará no estado 3 
(condição ruim). Isso era esperado, tendo em vista que a probabilidade de o 
sistema atingir o estado 3 aumenta à medida que aumentamos o número de 
etapas (transições). Como esse estado é absorvente, então aumentamos a 
probabilidade de o sistema permanecer no estado 3. 
 
Transiente 
 
Um estado é dito transiente se puder alcançar outro estado, mas não 
puder voltar ao estado em que estava a partir de outro estado. Se o estado j 
for transiente, então pij = 0 para todo i. Podemos entender esse conceito a 
partir do seguinte grafo: 
 
Imagine que o nosso sistema estava no estado A. A partir do momento 
em que o sistema sair do estado A (ir para B) ele não poderá mais voltar para 
o estado A. Logo, o estado A é um estado transiente. 
x 
 
28 
Vamos considerar novamente o exemplo do jardineiro, cuja cadeia de 
Markov era: 
 
Dessa cadeia de Markov podemos notar que tanto o estado 1 quanto o 
estado 2 são transientes (não podemos retornar para eles). Por exemplo, se 
inicialmente o nosso sistema estiver no estado 1 e alcançar o estado 2, ele 
não poderá retornar para o estado 1 (p21 = 0), nem se ele alcançar o estado 3 
(p31 = 0), por isso o estado 1 é transiente. Da mesma forma, se o sistema 
estiver no estado 2 e alcançar o estado 3, ele não poderá retornar para o 
estado 2 (p32 = 0), por isso o estado 2 também é transiente. 
 
Recorrente 
 
Um estado é dito recorrente se partindo deste estado eventualmente 
retornamos ao mesmo estado. É importante observar que o estado só poderá 
ser recorrente se, e somente se, ele não for transiente. Podemos entender 
esse conceito a partir do seguinte grafo: 
 
Nesse caso, temos que A, B e C são estados recorrentes (não 
transientes), pois podemos sempre voltar para qualquer um dos 3 estados (a 
probabilidade de voltarmos para o estado no qual saímos é de 100%). 
Observe o próximo grafo: 
x 
 
29 
 
Nesse caso, temos A como transiente (pois não podemos retornar a ele) 
e B e C como recorrente (pois podemos retornar a eles). Por fim, observe o 
exemplo: 
 
Agora temos que tanto A quanto B são transiente (pois a probabilidade 
de retornarmos ao estado B não é de 100% - o que acontece é que se o 
sistema atingir o estado C, então ele não conseguirá voltar para o estado B e 
por isso a probabilidade de voltarmos para o estado B não é de 100%) e o 
estado C é recorrente (pois a probabilidade de voltarmos ao estado C é de 
100%). Observe que o estado C também é absorvente, o que nos faz concluir 
que todo o estado absorvente também é recorrente. 
 
 
 
 
 
x 
 
30 
Periódico 
 
Um estado é dito periódico se só pudermos retornar a ele após t, 2t, 3t,... 
etapas em que t é o nosso período. Isso significa que pjj = 0 sempre que o 
número de etapas não for divisível pelo período t. Podemos entender esse 
conceito a partir dos seguintes grafos: 
 
Olhando para o primeiro grafo, considere que nosso sistema está 
inicialmente no estado 1 (quando n = 0). Após 1 etapa (n = 1) com certeza 
estaremos no estado 2, após 2 etapas (n = 2) com certeza estaremos no 
estado 1 novamente e assim por diante. Ou seja, se inicialmente (n = 0) 
estivermos no estado 1, então retornaremos a ele na segunda transição (n = 
2), na quarta transição (n = 4)... isto é, de duas em duastransições (n = 0, 2, 
4, 6...). Portanto o estado 1 é periódico de período 2 (pois n varia de 2 em 2). 
O mesmo vale para o estado 2. No grafo da direita temos que o período de 
todos os estados é 3 (pois retornaremos ao estado de 3 em 3 transições). 
Para testar se um estado j é ou não é periódico a partir de uma cadeia de 
Markov, precisamos testar a periodicidade de P
n
, observando os valores da 
probabilidade de retorno a ele pjj, para diferentes valores de n (n = 2, 3, 4...). 
Esses valores só serão positivos no período correspondente do estado (caso 
contrário a sua probabilidade de retorno será igual a zero). Considerando a 
cadeia de Markov: 
 
Temos que: 
x 
 
31 
 
Podemos observar que p11 e p33 são positivos para n = 0, 2 e 4 e são 
iguais a zero para n = 1, 3 e 5. Isso significa que o período dos estados 1 e 3 
é igual a 2. 
Com base em todas essas definições podemos chegar a algumas 
conclusões importantes sobre as cadeias de Markov que possuam um 
conjunto finito de estados: em primeiro lugar, não pode existir uma cadeia de 
Markov em que todos os estados são transientes (ser transiente significa que 
nunca poderemos voltar para o estado anterior – ter todos os estados 
transientes só seria possível se a nossa cadeia de Markov tivesse infinitos 
estados, daí ela poderia ir do estado 1 para o 2, do 2 para o 3, do 3 para o 
4... porém em cadeias de Markov finitas isso nunca poderá ocorrer). Outro 
ponto importante é que um estado "capturador" não precisa ser 
necessariamente um único estado absorvente. Considere o seguinte 
exemplo: 
 
Perceba que os estados 1 e 2 são transientes (porque não podemos 
retornar a eles, uma vez que o sistema foi capturado pelos estados 3 e 4). 
Note que ao atingirmos o estado 3 só poderemos nos manter no estado 3 ou 
atingirmos o estado 4 (e no estado 4 só podemos nos manter nele ou voltar 
para o estado 3), isto é, os estados 3 e 4 são recorrentes (pois não são 
transientes). É importante observar que os estados 3 e 4 desempenham o 
papel de um estado absorvente, constituindo um conjunto fechado. Todos 
os estados que fazem parte do conjunto fechado podem se comunicar (ou 
seja, podemos ir de qualquer estado para qualquer estado que façam parte 
do conjunto fechado em uma ou mais de uma transições). É importante 
x 
 
32 
observar também que um estado absorvente consiste em um conjunto 
fechado de um único elemento (uma vez que o sistema atinge um estado 
absorvente, ele é "capturado" por ele). Um exemplo de grafo de um conjunto 
fechado é mostrado a seguir: 
 
Podemos observar que o estado A é transiente e que, a partir do instante 
em que o sistema atingir o estado B, ele será capturado pelos estados B e C. 
Portanto os estados B e C formam um conjunto fechado. 
Dizemos que uma cadeia de Markov fechada é ergódica se todos os 
seus estados forem recorrentes (não tivermos estados transientes) e 
aperiódicos (não tivermos estados periódicos). Em uma cadeia de Markov 
ergódica podemos alcançar qualquer estado a partir de qualquer estado 
(todos os estados da cadeia de Markov formam um ciclo fechado). Isso 
significa que na prática não podemos ter estados absorventes (pois isso 
significaria que os outros estados são transientes e também porque o estado 
absorvente forma um ciclo fechado com ele mesmo). Um exemplo de cadeia 
de Markov ergódica é mostrada no grafo a seguir: 
 
x 
 
33 
A partir desse exemplo podemos notar que é possível alcançar qualquer 
estado partindo de qualquer estado. Uma das características das cadeias de 
Markov ergódica é justamente a de que as probabilidades absolutas após n 
transições sempre convergem para um estado de equilíbrio (à medida que n 
cresce, ou seja, tende a infinito). Lembrando que as probabilidades de estado 
no equilíbrio são independentes das condições iniciais. Por isso não podem 
existir estados periódicos (pois um estado periódico fica alternando entre um 
valor positivo e zero, nunca tendendo a um valor). 
 
Probabilidades de estado no equilíbrio e tempo médio de 
retorno 
 
Nas cadeias de Markov ergódicas, as probabilidades de estado no 
equilíbrio são definidas como: 
 
Em que j é o estado e n é o número de etapas (transições). Como essas 
probabilidades são independentes da condição inicial, então podemos 
determiná-las a partir de: 
π = π.P 
Que demonstra que ao chegarmos no estado de equilíbrio, mesmo que 
tivermos mais uma nova transição, ela resultará no mesmo valor π das 
probabilidades absolutas (por serem probabilidades de estado no equilíbrio 
elas não se alteram com transições). Além disso, a soma das probabilidades 
de todos os estados tem que ser igual a 1, ou seja: 
 
Vamos voltar ao problema do jardineiro, com fertilizante, cuja cadeia de 
Markov era: 
x 
 
34 
 
Uma vez que podemos atingir qualquer estado a partir de qualquer 
estado (todos os estados são recorrentes) e não existem estados periódicos, 
logo essa cadeia de Markov é ergódica. Isso significa que ela possui um 
estado de equilíbrio cujas probabilidades podem ser calculadas através de π 
= π.P. Assim temos: 
 
Realizando o produto entre as matrizes da direita e igualando aos termos 
do vetor da esquerda, chegamos ao seguinte sistema: 
 
Note que a última equação representa a condição de que a soma das 
probabilidades de todos os estados ser igual a 1. Podemos descartar 
qualquer uma das três primeiras equações (pois elas são redundantes) e 
solucionar o sistema linear utilizando as três demais equações (temos três 
equações e três incógnitas, basta então solucionarmos o sistema linear). 
Descartando, por exemplo, a primeira equação e isolando as incógnitas, 
chegamos ao seguinte sistema linear: 
0,6π1 - 0,4π2 + 0,4π3 = 0 
0,1π1 + 0,3π2 - 0,45π3 = 0 
π1 + π2 + π3 = 1 
A solução desse sistema linear é: π1 = 0,1017, π2 = 0,5254 e π3 = 
0,3729. Ou seja: 
x 
 
35 
π = (0,1017 0,5254 0,3729) 
Note que esse resultado é muito próximo àquele encontrado 
anteriormente no cálculo de P
16
, para a
(16)
. Isso significa que à medida que 
aumentarmos o valor de n em P
n
 chegaremos mais próximo ao resultado de 
π. Nesse exemplo do jardineiro, as probabilidades de estado no equilíbrio 
mostram que, no longo prazo, a condição do solo será boa em 
aproximadamente 10% das vezes, razoável em 52% e ruim em 37% (ou seja, 
no longo prazo é mais provável que a condição do solo esteja razoável). 
Outro parâmetro importante é conhecido como tempo médio de retorno 
que determina o número esperado de transições (etapas) necessárias para o 
sistema retornar ao estado j. Ele também é chamado de tempo médio do 
primeiro retorno ou tempo médio de recorrência, sendo obtido a partir das 
probabilidades de estado no equilíbrio π, como: 
 
Se considerarmos o exemplo do jardineiro, chegaremos aos seguintes 
tempos médios de retorno: 
 
Em que μ11 representa o tempo médio de retorno ao estado 1 (bom), μ22 
representa o tempo médio de retorno ao estado 2 (razoável) e μ33 representa 
o tempo médio de retorno ao estado 3 (ruim). Os resultados mostram que 
levará aproximadamente 10 estações de plantio para que o solo volte a ter 
uma condição boa, 2 estações para voltar a um estado razoável e 3 estações 
para voltar a um estado ruim. 
Nessa seção aprendemos os principais conceitos relacionados às 
cadeias de Markov. Na próxima seção estudaremos a Teoria de Filas. 
 
 
x 
 
36 
 
Exercícios – Unidade 1 
 
1) Considere o seguinte diagrama de transição de estados: 
 
Sobre esse diagrama é correto afirmar que: 
a) A probabilidade de transição do estado 2 para o estado 3 é igual a 1/3. 
b) A probabilidade de transição do estado 3 para o estado 1 é igual a 1/2. 
c) A probabilidade de transição do estado 1 para ele mesmo é igual a 1/2. 
d) TODAS as alternativas anteriores estão CORRETAS. 
e) TODAS as alternativas anteriores estão INCORRETAS. 
 
Considere a seguinte cadeia de Markov para as questões 2,3 e 4: 
 
Nela, o estado 1 representa um dia chuvoso, o estado 2 representa um 
dia nublado e o estado 3 um dia com sol. 
 
 
 
 
x 
 
37 
2) Sobre essa cadeia de Markov, é correto afirmar que: 
a) Se hoje o dia é de sol, então a probabilidade de amanhã ser um dia 
chuvoso é igual a 0,3. 
b) Se hoje o dia é chuvoso, então a probabilidade de amanhã ser um dia 
chuvoso é igual a 0,3. 
c) Se um determinado dia estiver nublado, então a probabilidade de o dia 
seguinte ser de sol é de 0,6. 
d) Se um determinado dia for de sol, então a probabilidade de o dia 
seguinte ser de sol é de 0,8. 
e) TODAS as alternativas anteriores estão INCORRETAS. 
 
3) Se considerarmos que o tempo em um determinado dia é de sol, qual 
é a probabilidade de os 7 dias seguintes serem dias de sol-sol-chuva-chuva-
sol-nublado-sol? 
a) 0,8. 
b) 0,2. 
c) 0,006. 
d) 2,3x10
-3 
e) 1,536x10
-4
 
 
4) Considere que determinado dia seja chuvoso. Nesse caso, as 
probabilidades absolutas após 4 dias serão: 
a) a
(4)
 = (0,4 0,3 0,3) 
b) a
(4)
 = (0,25 0,33 0,42) 
c) a
(4)
 = (0,1939 0,2991 0,507) 
d) a
(4)
 = (0,1939 0,1994 0,169) 
e) a
(4)
 = (0,169 0,2383 0,5927) 
x 
 
38 
5) Considere a seguinte cadeia de Markov de três estados (1, 2 e 3) dada 
pela seguinte matriz de transição: 
 
Sobre essa cadeia de Markov é correto afirmar que: 
a) O estado 1 é transiente. 
b) O estado 3 é absorvente. 
c) Ela é ergódica. 
d) Os estados 2 e 3 formam um conjunto fechado. 
e) TODAS as alternativas anteriores estão INCORRETAS. 
 
6) Considere a seguinte cadeia de Markov: 
 
Sobre essa cadeia de Markov é INCORRETO afirmar que: 
a) Os estados 1 e 2 formam um conjunto fechado. 
b) Ela não é ergódica. 
c) O estado 3 é absorvente. 
d) Ela possui 3 conjuntos fechados. 
e) Os estados 4 e 5 são transientes. 
 
x 
 
39 
7) Considere a seguinte cadeia de Markov de três estados (1, 2 e 3) dada 
pela seguinte matriz de transição: 
 
Nesse caso, as probabilidades de estado no equilíbrio são: 
a) π = (0,3333 0,33333 0,3333). 
b) π = (0,1 0,7 0,2). 
c) π = (0 0,8 0,2). 
d) π = (0 0 0 ). 
e) π = (0,2961 0,3618 0,3421) 
 
8) O resultado do tempo médio do primeiro retorno da questão 7 é: 
a) μ11 = 0,3333; μ22 = 0,3333 e μ33 = 0,3333. 
b) μ11 = 3; μ22 = 3 e μ33 = 3. 
c) μ11 = 10; μ22 = 2 e μ33 = 3. 
d) μ11 = 5; μ22 = 3,5 e μ33 = 7. 
e) μ11 = 1; μ22 = 7 e μ33 = 2. 
 
 
 
 
 
 
 
x 
 
40 
9) Considere a seguinte cadeia de Markov de quatro estados (1, 2, 3 e 4) 
dada pela seguinte matriz de transição: 
 
Classifique cada um dos estados dessa cadeia de Markov. 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
 
 
x 
 
41 
10) A quantidade de itens em estoque consiste em uma cadeia de 
Markov de 3 estados: 100 itens em estoque (estado 1), 200 itens em estoque 
(estado 2) e 300 itens em estoque (estado 3). A quantidade de itens pode 
variar dependendo da demanda diária (que reduz a quantidade de itens em 
estoque) e a produção (que aumenta a quantidade de itens em estoque). A 
matriz de transição de estados dessa cadeia de Markov é mostrada a seguir: 
 
Sabe-se que o custo por item em estoque depende do número de itens 
no estoque: se o estoque possuir 100 itens, então o custo por item será de 
R$ 1,00, se o estoque possuir 200 itens, então o custo por item será de R$ 
3,00 e se o estoque possuir 300 itens, então o custo por item será de R$ 
10,00. Nesse caso, determine: 
a) O custo diário esperado com estoque. 
b) O número médio de dias para o estoque retornar a 100 itens (µ11), 
retornar a 200 itens (µ22) e retornar a 300 itens (µ33). 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
x 
 
42 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
______________________________________________________________ 
 
x 
 
43 
2 Teoria de Filas 
x 
 
44 
 
Nesta Unidade vamos entender os conceitos relacionados à Teoria de 
Filas, a partir dos seus principais modelos. Estudaremos as diferentes 
fórmulas, classificações e medidas de desempenho das filas. 
 
Objetivos da unidade: 
 Conhecer a importância de se estudar filas e seus principais 
elementos. 
 Apresentar a distribuição exponencial e de Poisson e como elas 
se relacionam com os modelos de filas. 
 Descrever as diferentes classificações das filas e suas principais 
medidas de desempenho. 
 
Plano da unidade: 
 Importância de se estudar filas 
 Elementos de um modelo de filas 
 Distribuição exponencial 
 Modelo de nascimento e de morte puros 
 Modelo generalizado de fila de Poisson 
 Classificação das filas 
 Medidas de desempenho no estado de equilíbrio 
 
Bons estudos! 
x 
 
45 
 
Importância de se estudar filas 
 
O objetivo da análise de filas é garantir um serviço que seja satisfatório 
ao cliente que está em espera. Nesse aspecto, a Teoria de Filas determina as 
medidas de desempenho das filas de espera, considerandoo tempo médio 
de espera do cliente na fila e a produtividade da instalação de serviço (essas 
medidas de desempenho são utilizadas para projetar a instalação do serviço). 
A espera faz parte das atividades do nosso dia-a-dia. Formamos filas em 
supermercados, bancos, lojas... Entretanto, a "espera" não é limitada a nós 
humanos: os carros aguardam o semáforo, os aviões aguardam a 
autorização para a aterrissagem em um aeroporto, os equipamentos 
defeituosos aguardam na fila de manutenção, os produtos aguardam em filas 
de inspeção... 
Assim, o estudo de filas nos fornece um conjunto de modelos que 
permitem quantificar o fenômeno da espera em filas, através de medidas de 
desempenho (como o tempo médio de espera na fila e o tempo médio de 
utilização de uma instalação). 
Vamos considerar o seguinte exemplo: Um fast-food possui três caixas. 
O gerente contratou um estudo para entender o motivo da lentidão do 
serviço. O estudo mostrou a relação entre o número de caixas e o tempo 
médio de espera pelo atendimento, mostrado na tabela a seguir. 
 
Na presente situação, o fast-food possui 3 caixas e o tempo médio de 
espera do cliente é de aproximadamente 7 minutos. A tabela mostra a 
necessidade de 5 caixas caso desejássemos reduzir o tempo médio de 
espera para 3 minutos. 
O resultado da análise de filas poderia ser utilizado ainda para a 
construção de um modelo de otimização do custo. O custo total é igual a 
x 
 
46 
soma do custo operacional da instalação (os caixas, nesse exemplo) com o 
custo de espera (espera do cliente na fila). Observe a figura a seguir: 
 
Podemos notar na figura que se quisermos elevar o nível do serviço 
(diminuir o tempo de espera dos clientes na fila) precisamos aumentar o 
custo do serviço (custo operacional da instalação de serviço, ou seja, 
aumentar o número de caixas) ao passo que diminuímos o custo de clientes à 
espera. Por outro lado, se mantivermos o número de caixas pequenos, 
diminuímos o nível do serviço e o custo do serviço e aumentamos o custo de 
espera pelo cliente. A figura mostra também a soma desses dois gráficos 
(custo total), definindo um ponto ótimo (ponto que minimiza o custo total), o 
qual determina o nível de serviço que minimiza o custo total. 
Poderíamos estender esse exemplo substituindo os clientes de uma fila 
por caminhões em uma fila para o descarregamento ou navios em um porto 
(nesses casos, o custo de espera se tornaria ainda mais crítico, pois a espera 
significa que o caminhão ou o navio estão deixando de transportar!). 
 
Elementos de um modelo de filas 
 
Os principais elementos em um modelo de filas são o cliente (ou 
usuário) e o servidor (ou atendente). Os clientes são gerados por uma fonte. 
Ao chegarem a uma instalação de serviço, os clientes podem iniciar o 
x 
 
47 
serviço (se a instalação de serviço estiver disponível) ou esperarem em uma 
fila (se a instalação de serviço estiver ocupada). A instalação, ao concluir o 
serviço, chama imediatamente o próximo cliente que está na fila (se houver 
algum cliente). Caso não tenham clientes na fila, a instalação (o servidor, 
atendente) ficará ociosa até a chegada de um novo cliente. 
Na análise de filas, representamos a chegada de clientes pelo intervalo 
de tempo entre chegadas de clientes (de quanto em quanto tempo chegam 
clientes), e o serviço é descrito pelo tempo de serviço (ou tempo de 
atendimento) por cliente (quanto tempo o cliente leva para ser atendido). É 
importante observar que os intervalos de tempo entre chegadas e os tempos 
de serviço podem ser determinísticos (fixos) ou probabilísticos (aleatório, 
como em um banco). 
Outro aspecto da análise de filas é o tamanho da fila. Nos modelos de 
filas podemos considerar o tamanho da fila como finito (possui um valor 
limite) e infinito (o tamanho da fila pode ser "ilimitado"). 
Temos também a disciplina da fila, que define a ordem em que os 
clientes serão selecionados na fila. A disciplina de filas mais comum é o 
FCFS (First Come First Served – Primeiro a Chegar, Primeiro a Ser Servido), 
que define que o primeiro cliente a chegar será o primeiro a ser atendido (os 
demais clientes que chegarem vão sendo posicionados atrás dos clientes que 
já estão na fila). Entretanto existem outras disciplinas como o LCFS (Last 
Come First Served – Último a Chegar, Primeiro a Ser Servido), muito utilizada 
pelos sistemas operacionais como os dos smartphones (o último aplicativo 
requisitado pelo usuário deve ser o mais importante, por isso ele passará a 
frente dos outros aplicativos na fila de processos), e também o SIRO (Service 
in Random Order – Serviço em Ordem Aleatória), em que os clientes da fila 
são selecionados aleatoriamente. Sobre a disciplina da fila pode existir 
também alguma ordem de prioridade na seleção de clientes na fila. Por 
exemplo, os idosos são atendidos prioritariamente nos bancos ou então 
equipamentos essenciais de uma linha de produção devem ser consertados 
prioritariamente em uma fila para manutenção (os clientes com prioridade 
"passam na frente" dos clientes sem prioridade em uma fila). A prioridade 
pode ainda ser dividida em níveis de prioridade (por exemplo, nível 0, nível 1, 
x 
 
48 
nível 2..., de forma que os clientes que possuírem o maior nível de prioridade 
passarão a frente dos clientes de menores níveis, por exemplo). 
Sobre o projeto de uma instalação podemos considerar os servidores em 
paralelo (um conjunto de servidores atendendo simultaneamente, como os 
caixas do banco). Em alguns sistemas podemos organizar os servidores em 
série (um conjunto de servidores atendendo consecutivamente, isto é, o 
cliente que sai do primeiro servidor vai para a fila do segundo, o que foi 
atendido pelo segundo vai para a fila do terceiro e assim por diante, como em 
uma linha de produção com máquinas sucessivas). Podemos organizar os 
servidores também em rede (é o caso dos roteadores de uma rede de 
computadores que recebem e encaminham pacotes de diversos caminhos 
para diversos caminhos, sendo que todos os pacotes que chegam em um 
roteador ficam em uma mesma fila, chamada de buffer ou memória – quando 
a fila ou buffer do roteador está “cheia”, todos os pacotes (clientes) que 
chegam são perdidos, nesse caso percebemos que a internet está "lenta", 
pois os pacotes não estão chegando aos destinos, pois não estão sendo 
atendidos pelos roteadores). 
Sobre a fonte de onde chegam os clientes (de onde eles são gerados), 
podemos classificá-la como uma fonte finita (limita a chegada de clientes 
para serviço, ou seja, existe um número finito de clientes que podem chegar 
na fila, por exemplo o número de equipamentos que precisam de 
manutenção) ou uma fonte infinita (o número de clientes que podem chegar 
na fila é ilimitado, por exemplo, telefonemas que chegam a uma central 
telefônica – como o número de telefonemas é muito grande, podemos 
considerá-lo como infinito). Essa diferença entre a fonte ser infinita ou ser 
finita é útil principalmente para o seguinte: quando a fonte é infinita, a média 
do tempo entre chegadas de clientes tende a ser constante (por exemplo, se 
chegam clientes, em média, de 5 em 5 minutos, mesmo se já tiverem 
chegado muitos clientes, como a fonte infinita, o tempo entre chegadas 
continuará a ocorrer em média de 5 em 5 minutos). Agora, caso a fonte seja 
finita (vamos supor que tenhamos 10 clientes, por exemplo, 10 máquinas, 
que é o tamanho da nossa fonte finita), então a tendência é que essa média 
de 5 em 5 minutos se torne cada vez maior à medida que os clientes forem 
chegando ao sistema (se essa chegada de 5 em 5 minutos ocorre quando 
x 
 
49 
temos 10 máquinas para chegarem a uma inspeção (sistema), se, por 
exemplo, já tiverem chegado 8 máquinas ao nosso sistema, então só temos 2 
máquinas que podem chegar, nesse caso o tempo entre chegadas tenderá a 
ser bem maior – antes tínhamos 10 máquinas que poderiam chegar, agoratemos só 2 máquinas que podem chegar, portanto a probabilidade de chegar 
uma máquina ao sistema irá diminuir, com isso o tempo entre chegadas 
tenderá a aumentar). Para entender essa diferença, imagine que tenhamos 
100.000 bolas azuis e 100.000 bolas vermelhas em um saco (ou seja, uma 
fonte “infinita”). Todas as bolas azuis retiradas são colocadas em uma mesa 
(apenas as bolas vermelhas são postas novamente no saco). Nesse caso, 
em média tiraremos bolas azuis a cada duas bolas tiradas do saco (de 2 em 
2), pois a probabilidade de tirarmos uma bola azul é de 0,5 (portanto o 
intervalo será igual a 1/0,5 = 2). Como o número de bolas azuis no saco é 
muito grande (“infinito”) essa taxa (de 2 em 2) não será alterada 
(considerando que tiraremos poucas bolas do saco). Agora, se o número de 
bolas azuis for igual a 10 e vermelhas também for igual a 10 (agora o saco, 
que é a nossa fonte de bolas azuis, é finita igual a 10), essa taxa (de 2 em 2 
bolas) só irá ocorrer para a primeira bola azul retirada do saco (posta na 
mesa, que representa o nosso sistema). Isso porque à medida que retirarmos 
as bolas azuis, o número de bolas azuis no saco (na fonte) irá diminuir (e 
portanto a probabilidade de tirarmos bolas azuis do saco também irá 
diminuir), fazendo com demore mais para tirarmos bolas azuis (a média de 
retirada de bolas azuis tenderá a ser maior do que de 2 em 2 bolas). 
Portanto, geralmente quando consideramos uma fonte infinita, o tempo entre 
chegadas de clientes ao sistema não se altera em função do número de 
clientes que já estão no sistema, ao passo que em uma fonte finita, esse 
tempo entre chegadas tende a aumentar à medida que o número de clientes 
no sistema aumenta. 
 
 
 
 
 
x 
 
50 
 
Distribuição exponencial 
 
Normalmente, a chegada de clientes a uma fila ocorre de forma 
totalmente aleatória. Essa aleatoriedade está associada ao seguinte fato: a 
ocorrência de um evento não é influenciada pelo tempo transcorrido desde a 
ocorrência do último evento (isso significa que as chegadas de clientes são 
totalmente independentes, ou seja, o fato de ter acabado de chegar um 
cliente não afeta a probabilidade de se chegar um próximo cliente – todas as 
probabilidades de chegada são independentes, assim o tempo de chegada 
do próximo cliente não é influenciada pelo tempo transcorrido desde a 
chegada do último cliente). Podemos descrever quantitativamente essa 
aleatoriedade dos intervalos de tempo entre chegadas e dos tempos de 
serviços através de uma distribuição exponencial, definida como: 
f(t) = λe
-λt
 , t > 0 
Temos que a probabilidade do nosso tempo t ser menor do que um 
intervalo T dada por: 
 
Que resulta em 
P [t ≤ T] = 1 – e
-λT
 
Em que λ é a taxa de chegadas de clientes ou de saída de clientes (a 
taxa é igual a 1 dividido pelo tempo entre chegadas ou de saídas de clientes). 
Para entender o motivo de uma distribuição exponencial ser completamente 
aleatória, vamos considerar o seguinte exemplo: imagine que agora são 
8h20 da manhã e a última chegada de cliente ocorreu às 8h02, a 
probabilidade de chegada de cliente às 8h30 dependerá apenas do intervalo 
de tempo entre 8h20 e 8h30 (isto é, 10 minutos), ou seja, ela é totalmente 
independente do intervalo de tempo transcorrido desde a última chegada de 
cliente (o intervalo de 18 minutos desde a última chegada). Se passasse mais 
5 minutos (ou seja, agora são 8h25), a probabilidade de se chegar cliente às 
8h30 irá mudar (pois agora iremos considerar um intervalo de 5 minutos). 
x 
 
51 
Logo, a probabilidade de chegada (ou saída) de cliente depende apenas do 
intervalo de tempo entre o instante atual e o instante que estamos 
considerando (e da taxa de chegadas ou saídas de clientes λ), não 
dependendo do instante em que ocorreu a última chegada (ou saída). Essa 
característica é conhecida como ausência de memória ou falta de memória 
da distribuição exponencial (uma distribuição exponencial não possui 
memória, pois os instantes em que ocorreram os eventos anteriores não 
afetam a probabilidade de ocorrência do evento seguinte). 
Podemos medir ainda a probabilidade de o tempo de ocorrência do 
próximo evento (tempo de chegada ou tempo de saída) ser maior do que o 
intervalo de tempo T, como: 
P [t > T] = 1 – P[t ≤ T] = 1 – (1 – e
-λT
) = e
-λT
 
Ou seja, a probabilidade de o intervalo de tempo ser maior do que T é 
igual a 1 menos a probabilidade de ele ser menor do que T. 
Para provar a propriedade de falta de memória da distribuição 
exponencial, podemos considerar a seguinte relação: 
 
Essa relação expressa que, se S representa o intervalo de tempo desde 
a ocorrência do último evento, então a probabilidade de t ser maior do que T 
+ S dado que t é maior do que S tem que ser igual a probabilidade de t ser 
maior do que T (ou seja, a probabilidade de o nosso evento ocorrer depois de 
ter passado tanto o tempo que desejamos quanto o tempo desde a última 
ocorrência deve ser igual a probabilidade de o nosso evento ocorrer depois 
de ter passado o tempo que desejamos – isto é, não depender do tempo 
transcorrido desde a última ocorrência S). Assim: 
 
 
x 
 
52 
Logo, de fato uma distribuição exponencial não depende do tempo 
transcorrido desde a última ocorrência. 
Para entender a aplicação da fórmula no cálculo da probabilidade, vamos 
considerar o seguinte exemplo: uma máquina em serviço é sempre 
substituída no caso de ocorrência de falha. O tempo até a falha de uma 
máquina segue uma distribuição exponencial e ocorre em média a cada 5 
horas. Vamos calcular a probabilidade de ocorrência de falha antes das 
20h30 em dois casos: a) considerando que agora são 20h20 e b) 
considerando que agora são 1h da manhã. 
Solução: Em primeiro lugar devemos obter a taxa média de falha da 
máquina λ = 1/5 = 0,2 falha por hora. É importante observar que a média da 
distribuição exponencial (nesse caso, de 5 horas) é equivalente ao valor 
esperado para o intervalo entre os tempos de chegadas de máquinas com 
defeitos (intervalo entre falhas). O valor esperado é uma medida 
considerando o "longo prazo", isto é, se considerarmos um intervalo de tempo 
muito grande, temos que as falhas ocorrerão em média de 5 em 5 horas. Isso 
significa, por exemplo, que em uma duração de 200 horas, teríamos (200/5 = 
40) em média 40 falhas de máquinas. 
Voltando ao problema, temos que se as falhas ocorrem de 5 em 5 horas, 
então a taxa de falha deve ser igual a 0,2 falha por hora (se fizermos 0,2x5 = 
1 falha a cada cinco horas). Nesse caso, a distribuição exponencial do tempo 
até a falha será: 
f(t) = λe
-λt
 , t > 0 
f(t) = 0,2e
-0,2t
 , t > 0 
Para calcular a probabilidade nos dois casos (a e b), temos que 
considerar a fórmula: 
P [t ≤ T] = 1 – e
-λT
 
a) Se agora são 20h20 e queremos calcular a probabilidade de 
ocorrência de falha até 20h30, então o nosso intervalo de tempo T será de 10 
minutos. Como estamos utilizando a taxa de falha na unidade de falha por 
hora, a unidade de T também deverá estar em horas (ou então poderíamos 
passar a taxa para minutos). Passando minutos para horas, T = 10/60 (pois 
x 
 
53 
cada hora possui 60 minutos), logo T = 0,16667. Temos então a 
probabilidade: 
P [t ≤ 0,16667] = 1 – e
-0,2x0,16667
 = 0,0328 
Esse resultado demonstra que a probabilidade de ocorrência de falha em 
um intervalo de 10 minutos para a distribuição exponencial considerada, é 
aproximadamente de 3%. 
b) Considerando agora um intervalo de tempo desde 1h até 20h30 (T = 
19h30 = 19,5 horas), temos: 
P [t ≤ 19,5] = 1 – e
-0,2x19,5
 = 0,97976 
Agora, a probabilidade de ocorrência de falha dentro desse intervalo 
subiu para 98%. Já era esperado um resultado tão elevado, visto que a 
ocorrência da falha ocorre em média de 5 em 5 horas (portanto a 
probabilidade de ocorrência de falha em um intervalo de mais de 19 horas 
deve ser bastante elevada). 
 
Modelo de nascimento e de mortepuros 
 
Nessa seção aprenderemos duas situações de filas: o modelo de 
nascimento puro, no qual somente ocorrem chegadas de clientes (por 
exemplo, emissão de certidões de nascimentos), e o modelo de morte puro, 
no qual ocorrem apenas partidas de clientes (por exemplo, retiradas 
aleatórias de itens do estoque de uma loja). 
 
Modelo de nascimento puro 
 
Vamos considerar que p0(t) representa a probabilidade de nenhuma 
chegada de cliente durante um intervalo de tempo t. Como a probabilidade de 
chegada segue uma distribuição exponencial, então a probabilidade de não 
ocorrer nenhuma chegada dentro de um intervalo de tempo t equivale à 
x 
 
54 
probabilidade de o intervalo de tempo entre chegadas ser maior do que t, 
como mostrado a seguir: 
p0(t) = P[intervalo de tempo entre chegadas > t] 
p0(t) = 1 – P[intervalo de tempo entre chegadas ≤ t] 
p0(t) = 1 – (1 – e
-λT
) 
p0(t) = e
-λt
 
Essa equação calcula a probabilidade de chegada de um cliente (cuja 
taxa de chegada é dada por λ) não ocorrer em um intervalo de tempo t (ou 
seja, ocorrer após o intervalo de tempo t). Considere um intervalo de tempo h 
muito pequeno (e positivo). Nesse caso, podemos realizar a expansão em 
série de Taylor, transformando a nossa exponencial em um polinômio: 
 
Como o tempo para a ocorrência da primeira chegada em geral é muito 
pequeno (h tende à zero), os termos de h de segunda ordem (elevado ao 
quadrado) em diante (ordem três, quatro...) podem ser desprezados. Assim, 
temos: 
 
Além disso, a probabilidade de ocorrência da primeira chegada p1(h) é 
igual a 1 menos a probabilidade de não chegar ninguém p0(h), logo: 
 
Assim, a probabilidade de chegada de um cliente durante o intervalo de 
tempo h é proporcional à taxa de chegada de clientes λ e ao intervalo de 
tempo h. 
Agora vamos calcular a probabilidade de chegada de 1 cliente durante 
um intervalo de tempo t + h (em que h é muito pequeno). Nesse caso, temos 
que: 
p1(t + h) = p1(t)(1 – λh) + p0(t)λh 
x 
 
55 
Essa equação explica o seguinte: a probabilidade de chegar 1 cliente 
dentro do intervalo t + h é igual a probabilidade de chegar um cliente durante 
o intervalo t, que é o p1(t), vezes a probabilidade de não chegar ninguém no 
intervalo h (que é 1 – λh) somado com a probabilidade de não chegar 
ninguém no intervalo t, que vale p0(t) vezes a probabilidade de chegar 1 
cliente no intervalo h (que é λh). 
Se quiséssemos calcular a probabilidade de não chegar nenhum cliente 
no intervalo t + h, então só teríamos uma opção: a probabilidade de não 
chegar ninguém no intervalo t, que vale p0(t), multiplicada pela probabilidade 
de não chegar ninguém no intervalo h (que vale 1 – λh), ou seja: 
p0(t + h) = p0(t)(1 – λh) 
Agora se formos considerar a probabilidade de chegada de n clientes no 
intervalo t + h, temos: 
pn(t + h) = pn(t)(1 – λh) + pn-1(t)λh, para n > 0 
Ou seja, a probabilidade de chegar n clientes dentro do intervalo t + h é 
igual a probabilidade de chegarem n clientes durante o intervalo t, que é o 
pn(t), vezes a probabilidade de não chegar ninguém no intervalo h (que é 1 – 
λh) somado com a probabilidade de chegarem n – 1 clientes no intervalo t, 
que vale pn-1(t) vezes a probabilidade de chegar 1 cliente no intervalo h (que 
é λh). 
Podemos calcular a taxa de variação de pn(t) em relação a t, que é igual 
à derivada de pn(t) em relação t, dada por: 
, para n > 0 
, para n = 0 
Repare que o "Δt" da nossa derivada é justamente o h (que é uma 
variação de t, ou seja, representa o Δt). Para encontrar a solução dessas 
equações diferenciais, precisamos partir da solução de: 
p0(t) = e
-λt
 (lá do início da seção) 
x 
 
56 
E a partir dela determinar p1(t) utilizando a primeira equação da derivada 
(fazendo n = 1 na primeira equação da derivada). Com isso, resolvendo-se a 
equação diferencial, chega-se à equação de: 
p1(t) =(λt)e
-λt
 
Considerando o valor de p1(t) na primeira equação da derivada e fazendo 
n = 2, chega-se após solucionar a equação diferencial a: 
p2(t) =(λt)
2
e
-λt
/2 
Continuando essa sequência para diferentes valores de n, chega-se à 
conclusão que: 
 
 
Tente fazer essa sequência de cálculos até chegar na equação de pn(t). 
Qualquer dúvida, peça ajuda para o seu professor! 
 
Essa expressão calcula a probabilidade de n chegadas em um intervalo 
de tempo t, em que a taxa de chegadas segue uma distribuição exponencial 
de média λ (ou seja, o tempo entre chegadas é igual a 1/λ). Além disso, a 
média de chegadas durante o intervalo de tempo t é igual a λt (ora, se a taxa 
média de chegadas é igual a 3 clientes por hora e o nosso intervalo de tempo 
for de 2 horas, então a média de chegadas de clientes nesse intervalo será 
de 3x2 = 6 clientes). É importante observar que essa expressão consiste em 
uma distribuição de Poisson. 
Essa equação demonstra que, se o tempo entre chegadas segue uma 
distribuição exponencial com média 1/λ, então o número de chegadas 
durante um período t segue uma distribuição de Poisson com média λt. O 
inverso também é válido (se o número de chegadas durante um período t 
segue uma distribuição de Poisson com média λt, então o tempo entre 
chegadas segue uma distribuição exponencial com média 1/λ). 
x 
 
57 
Para entender os conceitos dessa seção, considere o seguinte exemplo: 
A taxa de nascimento de bebês é de um nascimento a cada 12 minutos. 
Sabe-se que o tempo entre nascimentos segue uma distribuição exponencial. 
Nesse caso, vamos começar determinando o número médio de nascimentos 
por ano: 
A taxa de nascimentos por minuto é igual a 1/12. Como um dia tem 
60x24 minutos, então a taxa de nascimento por dia será: 
 
Se nascem 120 bebês por dia, então em 1 ano (ou 365 dias) nascerão: 
 
Agora vamos calcular a probabilidade de não haver nascimento em 
qualquer dia determinado. Nesse caso, queremos determinar p0(1) (pois n é 
igual a 0, isto é, nenhuma chegada, e t é igual a 1, pois consideramos um 
período de 1 dia). Podemos determinar esse valor a partir da equação: 
p0(t) = e
-λt
 
p0(1) = e
-120x1
 = 0 
Poderíamos calcular também a partir da equação 
 
Resultando em: 
 
Esse resultado mostra que é praticamente impossível não haver 
nascimento em um período de 1 dia. Mais uma forma de se obter essa 
probabilidade seria: nenhum nascimento em um dia é equivalente a dizer que 
o tempo entre nascimentos sucessivos t deve ser maior do que um dia. 
Assim, podemos calcular esse resultado a partir da distribuição exponencial: 
x 
 
58 
 
Todos os resultados tem o mesmo significado! 
Um último exemplo desse enunciado seria calcular a probabilidade de se 
emitir 50 certidões de nascimento em 3 horas, dado que 40 certidões foram 
emitidas durante as 2 primeiras horas (dessas 3 horas). 
Isso significa calcular a probabilidade de 10 (50 – 40) certidões (n = 10) 
serem emitidas em um período de 1 (3 – 2) hora, visto que a distribuição do 
número de nascimentos segue uma distribuição de Poisson. Assim, devemos 
considerar a taxa de nascimentos em hora λ = 120/24 = 5 nascimentos por 
hora. Com isso: 
 
Isto é, a probabilidade p10(1) = 0,01813, que significa que a probabilidade 
de nascerem 10 bebês em um período de 10 horas é igual a 0,01813. 
Para entender o comportamento da distribuição de Poisson: 
 
Vamos considerar a seguinte situação: vamos supor que a taxa de 
chegada de clientes seja de λ = 1 cliente por hora. Nesse caso, os gráficos de 
pn(t) para n = 0, n = 1 e n = 2 são mostrados a seguir: 
x 
 
59 
 
O gráfico da cor azul (n = 0) representa a curva de p0(t), isto é, a 
probabilidade de chegada de 0 clientes (nenhum cliente) ao longo do tempo t. 
Note que essa probabilidade é igual a 1 apenas no instante inicial (t = 0), o 
que significa dizer que a probabilidade de não chegar ninguém em 0 horas é 
igual a 1 (obviamente). À medida que o tempo passa a probabilidade de não 
chegar nenhum cliente, ou seja, o valor de p0(t) diminui(significa que a 
probabilidade de chegar cliente está aumentando). 
O gráfico da cor laranja (n = 1) representa a curva de p1(t), isto é, a 
probabilidade de chegar 1 cliente ao longo do tempo t. Note que ele é igual a 
0 no instante inicial (pois é impossível chegar cliente em um intervalo de 0 
horas) e que essa probabilidade de chegada de cliente vai aumentando à 
medida que o tempo passa (enquanto a probabilidade de não chegarem 
clientes vai diminuindo). Note também que o ponto máximo ocorre para t = 1 
hora (isso ocorre, pois a nossa taxa de chegada λ é de 1 cliente por hora, ou 
seja, é mais provável de se chegar 1 cliente em 1 hora, logo se a nossa taxa 
fosse de 5 clientes por hora esse máximo ocorreria no instante t = 5, por 
exemplo). Após o instante t = 1, a probabilidade diminui novamente (ou seja, 
conforme o intervalo de tempo t aumenta, fica cada vez mais improvável a 
chegada de apenas 1 cliente – se torna mais provável que cheguem mais do 
que 1 cliente). 
O gráfico da cor cinza (n = 2) representa a curva de p2(t), isto é, a 
probabilidade de chegarem 2 clientes ao longo do tempo t. Note que ele é 
igual a 0 no instante inicial (pois é impossível chegar clientes durante um 
x 
 
60 
intervalo de tempo de 0 horas) e que essa probabilidade de chegada de 
cliente vai aumentando à medida que o tempo passa (enquanto a 
probabilidade de não chegarem clientes vai diminuindo). Note também que o 
ponto máximo ocorre para t = 2 horas (isso ocorre, pois a nossa taxa de 
chegada λ é de 1 cliente por hora, ou seja, é mais provável chegarem 2 
clientes em 2 horas, logo se a nossa taxa fosse de 5 clientes por hora esse 
máximo ocorreria no instante t = 10, por exemplo). Após o instante t = 2, a 
probabilidade diminui novamente (ou seja, conforme o intervalo de tempo t 
aumenta, fica cada vez mais improvável a chegada de apenas 2 clientes – se 
torna mais provável que cheguem mais do que 2 clientes). E assim por 
diante. 
Logo, a fórmula de pn(t) mede a probabilidade de chegarem exatamente 
n clientes em um intervalo de tempo t e que o máximo dessa probabilidade 
depende de n e de λ (para n = 0, ou seja, a probabilidade de chegada de 0 
clientes, pn(t) é máxima para t = 0; para n = 1, ou seja, a probabilidade de 
chegada de 1 cliente, pn(t) é máxima em t = λ; para n = 2, ou seja, a 
probabilidade de chegada de 2 clientes, pn(t) é máxima em t = 2λ; para n = 3, 
ou seja, a probabilidade de chegada de 3 clientes, pn(t) é máxima em t = 3λ e 
assim por diante). 
 
Modelo de morte puro 
 
Enquanto no modelo de nascimento puro começamos com 0 clientes no 
instante inicial (t = 0), no modelo de morte puro começamos com N clientes 
no instante inicial (t = 0) sendo que nenhuma nova chegada é permitida a 
partir desse instante (para diferentes intervalos de t). Isso significa que à 
medida que o tempo t passa (conforme a duração aumenta), só ocorrem 
partidas (saídas de clientes, logo ou o valor de n é igual a N, ou ele diminuí). 
As partidas de clientes ocorrem a uma taxa μ clientes por unidade de tempo 
(taxa de partidas de clientes). 
Para encontrar a probabilidade pn(t) no modelo de morte puro precisamos 
resolver as equações diferenciais considerando a permanência de n clientes 
x 
 
61 
após um intervalo de tempo t, a partir dos argumentos utilizados no modelo 
de nascimento puro. Assim: 
 
Considerando que a probabilidade de partida de 1 cliente, no intervalo de 
tempo h, é igual a μh, então (1 – μh) será a probabilidade de não partirem 
clientes no intervalo de tempo h (quando h é muito pequeno). Logo, a 
primeira equação mostra que a probabilidade de haver N clientes durante o 
intervalo t + h deve ser igual a probabilidade de ter N clientes durante o 
intervalo t multiplicada pela probabilidade de não saírem clientes durante o 
intervalo h. A segunda equação mostra o caso geral: a probabilidade de 
termos n clientes durante o intervalo t + h é igual a probabilidade de termos n 
clientes no durante o intervalo t multiplicada pela probabilidade de não saírem 
clientes no intervalo h somada com a probabilidade de termos n + 1 clientes 
no intervalo t multiplicada pela probabilidade de sair 1 cliente no intervalo h. 
Por fim, a terceira equação mostra que a probabilidade de termos 0 clientes 
no intervalo t + h é igual a probabilidade de termos 0 clientes durante o 
intervalo t multiplicada por 1 (pois não podemos perder mais clientes, ou seja, 
a probabilidade de não saírem clientes é igual a 1, pois temos 0 clientes) 
somada com a probabilidade de termos 1 cliente no intervalo t multiplicada 
pela probabilidade de sair um cliente no intervalo h. 
As derivadas dessas equações quando h tende a zero, resulta em: 
 
A resolução dessas equações resulta em uma distribuição de Poisson 
truncada, como mostrado a seguir: 
 
x 
 
62 
Se fizermos n = N nessa equação, ou seja, quisermos calcular a 
probabilidade de termos N clientes durante o intervalo de tempo t, teremos: 
pN(t) = e
-μt
 
Que é equivalente à equação de p0(t) no modelo de nascimento puro 
(substituindo a taxa de chegada λ pela taxa de partida μ). Lá, p0(t) media a 
probabilidade de não chegarem nenhum cliente, aqui pN(t) mede a 
probabilidade de não partirem clientes (por isso são equivalentes). A 
probabilidade de termos N – 1 clientes é dada por (substituindo n = N – 1 
nessa equação): 
pN – 1(t) =(μt)e
-μt
 
Repare a semelhança entre ela e a equação de p1(t) da seção anterior 
(pois lá temos a probabilidade de chegar 1 cliente enquanto aqui mede a 
probabilidade de sair um cliente, que equivale a termos N – 1 clientes). 
Considerando ainda a situação de termos zero clientes (n = 0), 
chegamos a seguinte equação: 
p0(t) =(μt)
N
e
-μt
/N! 
Que é a própria distribuição de Poisson, ou seja, a probabilidade de 
chegarem N clientes no modelo de nascimento puro é equivalente à 
probabilidade de partirem N clientes no modelo de morte puro (e se a taxa de 
chegada for igual a taxa de partida λ = µ então essas probabilidades darão o 
mesmo resultado) 
Para entender o comportamento da equação de pn(t) (distribuição de 
Poisson truncada), vamos considerar a seguinte situação: suponha que a 
taxa de partida de clientes seja de μ = 1 cliente por hora e que inicialmente 
temos 2 clientes (N = 2). Nesse caso, os gráficos de pn(t) para n = 2 (N), n = 1 
(N – 1) e n = 0 (N – 2) são mostrados a seguir: 
x 
 
63 
 
Note que o gráfico tem o mesmo comportamento do gráfico do modelo de 
nascimento puro (mas ao invés de ir de n = 0 até n = 2, ele vai de n = 2 até n 
= 0, ou seja, de n = N até n = 0). Vamos entender cada um dos gráficos. 
O gráfico da cor azul (n = 2, ou n = N) representa a curva de p2(t) ou 
pN(t), isto é, a probabilidade de termos N clientes (ou seja, de não partirem 
nenhum cliente, por isso ele é igual ao gráfico de p0(t) do modelo de 
nascimento puro, que representa a probabilidade de não chegarem clientes) 
ao longo do tempo t. Note que essa probabilidade é igual a 1 apenas no 
instante inicial (t = 0), o que significa dizer que a probabilidade de não partir 
ninguém em 0 horas é igual a 1 (obviamente). À medida que o tempo passa a 
probabilidade de não partir nenhum cliente, ou seja, o valor de pN(t) diminui 
(significa que a probabilidade de partir cliente está aumentando). 
O gráfico da cor laranja (n = 1) representa a curva de p1(t) ou de pN-1(t), 
isto é, a probabilidade de partir 1 cliente (por isso tem o mesmo 
comportamento da probabilidade de chegar 1 cliente) ao longo do tempo t. 
Note que ele é igual a 0 no instante inicial (pois é impossível partir cliente em 
um intervalo de 0 horas) e que essa probabilidade de partida de clientes vai 
aumentando à medida que o tempo passa (enquanto a probabilidade de não 
partirem clientes vai diminuindo). Note também que o ponto máximo ocorre 
para t = 1 hora (isso ocorre, pois a nossa taxa de partida μ é de 1 cliente por 
hora, ou seja, é mais provável

Continue navegando