Baixe o app para aproveitar ainda mais
Prévia do material em texto
Prof Dsc Paulo Ribas – prof.paulo.ribas@gmail.com Baseado em: • Introdução à Pesquisa Operacional. Hillier e Lieberman. 2013. Prof Dsc Paulo Ribas – prof.paulo.ribas@gmail.com Em todas as seções anteriores, partimos do pressuposto de que o parâmetro relativo a tempo, t, fosse discreto (isto é, t = 0, 1, 2, ... ). Tal hipótese é adequada para muitos problemas, porém há certos casos (por exemplo, para alguns modelos de fila) nos quais é necessário um parâmetro de tempo contínuo (chamemos t'), em virtude de a evolução do processo estar sendo observada continuamente ao longo do tempo. Prof Dsc Paulo Ribas – prof.paulo.ribas@gmail.com Um processo estocástico de tempo contínuo 𝑋 𝑡′ ; 𝑡′ ≥ 0 é uma cadeia de Markov de tempo contínuo se ela possuir a propriedade Markoviana. Iremos restringir nossa consideração a cadeias de Markov de tempo contínuo com as seguintes propriedades: 1. Um número de estados finito. 2. Probabilidades de transição estacionárias. Prof Dsc Paulo Ribas – prof.paulo.ribas@gmail.com Cada vez que o processo entra no estado i. a quantidade de tempo que ele gasta neste estado antes de se transferir para um estado diferente é uma variável aleatória 𝑇𝑖, em que i =0, 1 .... ,M. A Propriedade Markoviana diz que a distribuição probabilística do tempo remanescente até o processo sair de dado estado é sempre o mesmo, independentemente de quanto tempo o processo tiver gasto nesse estado (distribuição exponencial) 𝑃 𝑇𝑖 ≤ 𝑡 = 1 − 𝑒 −𝑞.𝑡, 𝑝𝑎𝑟𝑎 𝑡 ≥ 0 Prof Dsc Paulo Ribas – prof.paulo.ribas@gmail.com Esse resultado nos leva a uma maneira equivalente de descrever uma cadeia de Markov de tempo contínuo: 1. A variável aleatória 𝑇𝑖 possui uma distribuição exponencial com uma média 1 𝑞𝑖 ; 2. Ao sair do estado i, o processo vai para um estado j com probabilidade 𝜌𝑖𝑗 em que 𝜌𝑖𝑗 satisfazem as condições 𝜌𝑖𝑖 = 0 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑖 𝑒 𝜌𝑖𝑗 𝑀 𝑗=0 = 1 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑖 3. O próximo estado visitado após o estado i é independente do tempo gasto no estado i. Prof Dsc Paulo Ribas – prof.paulo.ribas@gmail.com Da mesma forma que as probabilidades de transição em uma etapa desempenharam importante papel na descrição cadeias de Markov de tempo discreto, o papel análogo para uma cadeia de Markov de tempo contínuo é desempenhado pelas intensidades de transição (𝑞𝑖 e 𝑞𝑖𝑗). A interpretação intuitiva dos 𝑞𝑖 e 𝑞𝑖𝑗 é que elas são taxas de transição. Particularmente, 𝑞𝑖 é a taxa de transição fora do estado i no sentido que 𝑞𝑖 é o número de vezes esperado que o processo deixe o estado i por unidade de tempo gasto no estado i. 𝑞𝑖𝑗 é a taxa de transição do estado i ao estado j no sentido que 𝑞𝑖𝑗 é o número de vezes esperado que o processo transita do estado i ao estado j por unidade de tempo gasta no estado i. Prof Dsc Paulo Ribas – prof.paulo.ribas@gmail.com 𝑞𝑖 = 𝑞𝑖𝑗 𝑗≠𝑖 Prof Dsc Paulo Ribas – prof.paulo.ribas@gmail.com 𝜋𝑗 . 𝑞𝑗 = 𝜋𝑖 . 𝑞𝑖𝑗 𝑖≠𝑗 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑗 = 0, 1,⋯ ,𝑀 𝑒 𝜋𝑗 𝑀 𝑗=0 = 1 Prof Dsc Paulo Ribas – prof.paulo.ribas@gmail.com Certa loja tem duas máquinas idênticas que são operadas continuamente, exceto quando elas estão quebradas. Pelo fato de elas quebrarem com relativa freqüência, a alocação de prioridade mais alta para uma pessoa da manutenção em tempo integral é repará-las sempre que necessário. O tempo exigido para reparar uma máquina tem uma distribuição exponencial com uma média igual a 1 2 dia. Assim que o reparo de uma máquina tiver terminado, o tempo até a próxima vez em que essa máquina se quebrar tem uma distribuição exponencial com média igual a 1 dia. Essas distribuições são independentes. Qual é a probabilidade de termos 0, 1 ou 2 máquinas quebradas? Prof Dsc Paulo Ribas – prof.paulo.ribas@gmail.com
Compartilhar