Baixe o app para aproveitar ainda mais
Prévia do material em texto
– 191 – V Processos de Markov E ste capítulo aborda processos de Markov de primeira ordem, nas catego-rias discreto e contínuo. Como fonte complementar, sugerimos a leitura de Billinton (1970), Bronson (1985), Hillier & Lieberman (1995), Shamblin & Stevens Jr. (1989) e Trivedi (2002). Neste capítulo trataremos de uma sequência de estados que segue um processo de Markov, tal que a probabilidade da próxima ocorrência dependa apenas da ocorrência imediatamente anterior. Isto é, trataremos de cadeias de Markov de primeira ordem. Processos de Markov constituem um tipo especial de processo estocástico que possui a propriedade de as probabilidades associadas com o processo em um dado instante do futuro dependerem somente do estado presente, sendo, portan- to, independentes dos eventos no passado. Desse modo, os processos markovia- nos são caracterizados pelo que se designa como “falta de memória”. Para caracterizar processos de Markov de maneira precisa, é necessário estabelecer uma def inição formal. 5.1 Def inição e caracterização de processos de Markov Antes de apresentar a def inição de processos de Markov, é necessário expor um conceito mais abrangente, que é o de processo estocástico. Def ine-se processo estocástico como uma coleção indexada de variáveis aleatórias { }tX , em que o índice t pertence a um dado conjunto T. Se o con- junto T for composto de números inteiros não negativos, dizemos que o pro- – 192 – cesso é discreto. Se T é um intervalo real, dizemos que o processo é de tempo contínuo. Em geral, Xt representa uma característica mensurável de interesse em um instante de tempo t. Formalmente, a notação indicada pela expressão (5.1) def ine processo estocástico sobre um dado espaço de probabilidade: { ; }tX t TÎ . (5.1) Os valores assumidos pela variável aleatória tX são chamados estados, e o conjunto de todos os possíveis valores forma o espaço de estado do processo. Como exemplo de um processo estocástico, podemos citar o tráfego de dados em uma rede local de computadores que se encontra interligada à internet. Nesse sistema, enviam-se e recebem-se mensagens eletrônicas en- quanto se fazem downloads de arquivos. A taxa de transferência de bits por unidade de tempo em um dado servidor dessa rede é uma variá vel incerta que depende da intensidade de uso do sistema pelos usuários conectados na- quele momento. Podemos, nesse sistema, caracterizar a variável aleatória tX como a velocidade de transferência de dados em bits segundo , em que t é o instante de tempo pertencente ao intervalo [0, )T= ¥ , ou seja, o processo { }tX é um processo estocástico contínuo. O espaço de probabilidade nesse exemplo corresponde à função densidade de probabilidade que rege o com- portamento da variável aleatória tX , por exemplo, uma distribuição normal. Def inição 5.1 (Processo de Markov): Um processo estocástico { ; }tX t TÎ é chamado um processo de Markov se, para qualquer tempo 0 1 nt t t t< < < < , a distribuição condicional de tX para os valores dados de 0 1, , , nt t tX X X depen- dem somente de nt X : – se tX assumir valores discretos, essa def inição é expressa como 1 01 0 ( | , , , ) n nt t n t n t P X x X x X x X x - - = = = = = ( | ) nt t n P X x X x= = , (5.2) – se tX assumir valores contínuos, essa def inição é expressa como 1 01 0 ( | , , , ) n nt t n t n t P X x X x X x X x - - £ = = = = ( | ) nt t n P X x X x£ = . (5.3) Nessas expressões, 0 1 1, , , nt t t - representam o passado, e t e nt são o futuro e o presente respectivamente. É interessante estabelecer claramente como é lida, por exemplo, a ex- pressão (5.2), que é como segue: a probabilidade de a variável X ter valor – 193 – igual a certo valor x no tempo t, dado que a variável aleatória tenha assumi- do os valores nx , 1, ,nx - 0x , respectivamente, nos tempos nt , 1, ,nt - 0t , é igual à probabilidade de a variável X ter valor igual a um certo valor x no tempo t, dado apenas que a variável tenha assumido o valor nx no tempo nt . A def inição 5.1 pode ser traduzida para a linguagem natural como se- gue: um processo estocástico é um processo de Markov se o estado futuro do processo, conhecido o estado presente, é independente do passado. É fundamental no estudo de processos de Markov a noção de estado. Propriedades em comum entre indivíduos ou objetos caracterizam o que se designa por estado. A seguir, apresentam-se exemplos de objetos ou coisas que possuem propriedades em comum: – máquinas em uma linha de produção, cujos estados podem ser máquina funcionando, máquina parada e em reparo, máquina parada aguardando por reparo; – uma população que migra de uma região para outra, podendo encontrar-se em um dos seguintes estados: população ociosa, população empregada; – safras de soja na região Centro-Oeste do Brasil, considerando-se as possibi- lidades de estado: safra boa, safra ruim ou safra razoável. Os processos de Markov sempre envolvem a variável tempo, considera- da na forma discreta – em que a variação se dá em saltos, ou seja, em interva- los regulares –, ou na forma contínua, podendo assumir valores reais. Nos exemplos citados anteriormente, podemos notar que o tempo está presente. Uma máquina, ao estragar, requer tempo para ser consertada e pode, portanto, exibir alteração em seu estado, se observada a intervalos re- gulares de tempo. Povos que migram de um lugar a outro fazem isto com certa periodicidade. Safras ocorrem em meses determinados que diferem em função da região e da cultura considerada. 5.2 Relevância dos processos de Markov e possíveis aplicações Em todas as áreas da atividade humana, busca-se quantif icar eventos que possuem certo grau de incerteza de ocorrência. Isso implica de certa for- ma a necessidade de “prever o futuro”. Modelos matemáticos probabilísticos são concebidos para auxiliar o homem nas tomadas de decisão. – 194 – No mundo real há diversos sistemas dinâmicos que podem ser modela- dos como processos de Markov. Eis alguns exemplos de aplicações: – planejamento de sistemas de atendimento a f ilas de espera, que são nor- malmente modelados como processos de “nascimento e morte”; – dimensionamento de recursos computacionais para servir a processos que compartilham tempo e espaço; – avaliação de equipamentos em operação em uma linha de produção indus- trial ou em instalações complexas; – estudo de fenômenos econômicos e movimentos sociais; – análise de processos biológicos, como a evolução de certas espécies vivas, seja para f ins de exploração comercial ou para a preservação; – análise da evolução de certa epidemia em uma comunidade. Na bibliograf ia de Pesquisa Operacional encontram-se aplicações de processos de Markov que compreendem desde o estudo de sistemas móveis de comunicação, passando pelo tráfego de sinais digitais e o desenvolvimento de técnicas que objetivam disponibilizar o serviço a usuários, bem como a análise da evolução de corporações e sistemas sociais com o passar do tempo. Em todas as aplicações, nota-se um traço comum: o tempo. Conforme estabelece a def inição 5.1, há duas categorias de processos de Markov: (1) os processos de tempo discreto, em que o índice t assume apenas valores inteiros não negativos, ou seja, t = 0, 1, 2, ...; e (2) os processos nos quais a variável tempo é contínua, ou seja, [0, )tÎ ¥ . Em ambas as categorias, os estados são caracterizados por números inteiros não negativos, def inidos com base nos valores que a variável aleatória X pode assumir. 5.3 Processos de Markov de tempo discreto Um processo de Markov está completamente especif icado se forem co- nhecidas as probabilidades de transição e a distribuição inicial de probabili- dades dos estados. Toda vez que um estado suceder a outro, dizemos que o processo esto- cástico markoviano deu um passo. O passo pode representar um período de tempo que resulte em outro estado possível. Se o número de passos é zero, tal situação representa o presente; se igual a um, estarárepresentando um possí- vel estado no próximo passo, e assim por diante. – 195 – Pode-se iniciar o estudo de processos de Markov de tempo discreto def inindo probabilidades de transição. Def inição 5.2 (Probabilidades de transição): As probabilidades condicionais 1( | )t tP X j X i+ = = , para t = 0, 1, 2, ..., são chamadas de probabilidades de transição. Se, para cada i e j, 1 1 0( | ) ( | )t tP X j X i P X j X i+ = = = = = , para todo t = 0, 1, 2, ..., então as probabilidades de transição para um passo são ditas estacionárias, ten- do em vista que independem do tempo. Usualmente são denotadas por ijp . A probabilidade de transição do estado i ao estado j, em um passo, simbo- lizada por ijp , é a probabilidade de um objeto que se encontra no estado i, após um intervalo de tempo f ixo predeterminado, ser encontrado no estado j. Para n passos à frente, como extensão da def inição 5.2, é possível escre- ver as probabilidades de transição para cada i e j, com n = 0, 1, 2, ..., conforme a expressão: 0( | ) ( | )t n t nP X j X i P X j X i+ = = = = = , para todo t = 0, 1, 2, ... . (5.4) Para simplif icar a notação, usaremos a seguinte simbologia: 1 0( | ) ijP X j X i p= = = e 0( | ) ( )n ijP X j X i p n= = = . A notação ( )ijp n , introduzida anteriormente, implica que, para n=0, (0)ijp é 0 0( | )P X j X i= = , sendo igual a 1 se i j= e igual a 0 em caso con- trário. As probabilidades de estados são def inidas como a seguir. Def inição 5.3 (Probabilidade de estado no instante n): A probabilidade do estado i tomada no instante n é a probabilidade de um objeto ocupar o estado – 196 – i após um número n f inito de passos. Formalmente, para 1M+ estados, ( ) ( )i np n P X i= = , para i = 0, 1, 2, ..., M. Especif icamente para o instante inicial, tem-se a distribuição inicial de probabilidades de estados, a qual é representada por um vetor linha (0)p , cujas componentes são as probabilidades ( )ip n , i = 0, 1, 2, ..., M, 0 1 2(0) [ (0) (0) (0) (0)]Mp p p p p= . (5.5) Conhecidas as def inições estabelecidas até aqui, estamos prontos para a apresentação de um exemplo numérico. Exemplo 5.1: Em uma certa região, durante o período de chuvas, que dura cerca de seis meses a cada ano, os estados observados são dois: dias ensolarados e dias chuvosos, os quais serão designados pelos índices 0 e 1, respectivamente. Com base em observações históricas, foram obtidas para um passo, ou seja, um dia, as probabilidades de transição supostas constantes. A um dia chuvoso sucederá um dia chuvoso com probabilidade igual a 3 4 ou um dia ensolarado, com probabilidade 14. A dias ensolarados tanto pode suceder dias ensolarados ou chuvosos, com probabilidades iguais de 12 . Desejamos estudar o regime de chuvas dessa região, modelando o processo estocástico descrito como um pro- cesso de Markov. Como primeira informação desse estudo, precisamos inferir sobre o número esperado de dias chuvosos na estação das chuvas, se a tendên- cia descrita pelas probabilidades permanecer inalterada. Primeiramente vamos identif icar os dados fornecidos no enunciado com as probabilidades def inidas anteriormente. Sendo 0 o número associado ao estado “sol” e 1 o número associado ao estado “chuva”, temos as probabili- dades condicionais seguintes para um passo: – dia chuvoso sucede a dia chuvoso → 3 41 0 11( 1| 1)P X X p= = = = ; – dia ensolarado sucede a dia chuvoso → 141 0 10( 0 | 1)P X X p= = = = ; – dia chuvoso sucede a dia ensolarado → 121 0 01( 1| 0)P X X p= = = = ; – dia ensolarado sucede a dia ensolarado → 121 0 00( 0 | 0)P X X p= = = = . – 197 – Para encontrar a probabilidade do estado 0 em um passo, 0 (1)p , pode- mos utilizar o conceito de probabilidade total (MORGADO et al., 2004), o qual para dois estados possui a seguinte expressão: 0 1 1 0 0 1 0 0(1) ( 0) ( 0 | 0) ( 0) ( 0 | 1) ( 1)p P X P X X P X P X X P X= = = = = = + = = = , 0 00 0 10 1(1) (0) (0)p p p p p= + . Na última expressão observamos 0 (0)p e 1(0)p , que são as probabilida- des iniciais dos estados (vide a def inição 5.3). Procedendo de modo análogo, para encontrar a probabilidade do estado 1 em um passo, 1(1)p , utilizamos novamente o conceito de probabilidade total: 1 1 1 0 0 1 0 0(1) ( 1) ( 1 | 1) ( 1) ( 1 | 0) ( 0)p P X P X X P X P X X P X= = = = = = + = = = , 1 11 1 01 0(1) (0) (0)p p p p p= + . Se for de interesse determinar as probabilidades dos estados 0 e 1 em dois passos, respectivamente, 0 (2)p e 1(2)p , tendo em vista que as probabi- lidades de transição são constantes, basta escrever as expressões conforme se mostra a seguir: 0 00 0 10 1(2) (1) (1)p p p p p= + e 1 11 1 01 0(2) (1) (1)p p p p p= + . Se prosseguirmos com essa forma de calcular, o cálculo se revelará enfa- donho, e haverá grande possibilidade de confusão com tantos índices. Uma forma alternativa e muito mais funcional consiste no emprego da representação matricial. Das expressões de cálculo de 0 (1)p e 1(1)p , obtém-se a representação matricial mostrada a seguir: 00 01 0 1 0 1 10 11 [ (1) (1)] [ (0) (0)] p p p p p p p p é ù ê ú= ê úë û . – 198 – Analogamente, das expressões de cálculo de 0 (2)p e 1(2)p , extraímos a representação matricial mostrada a seguir: 00 01 0 1 0 1 10 11 [ (2) (2)] [ (1) (1)] p p p p p p p p é ù ê ú= ê úë û . Ora, se substituirmos o vetor 0 1[ (1) (1)]p p da última expressão pelo mesmo vetor da expressão precedente, obteremos o seguinte: 00 01 00 01 0 1 0 1 10 11 10 11 [ (2) (2)] [ (0) (0)] p p p p p p p p p p p p é ù é ù ê ú ê ú= ê ú ê úë û ë ûe 2 00 01 0 1 0 1 10 11 [ (2) (2)] [ (0) (0)] p p p p p p p p é ù ê ú= ê úë û . Finalmente, ao empregarmos o princípio da indução matemática (MOR- GADO et al., 2004; SCHEINERMAN, 2003), é imediata a conclusão de que uma expressão para n passos pode ser escrita conforme se indica a seguir: 00 01 0 1 0 1 10 11 [ ( ) ( )] [ (0) (0)] n p p p n p n p p p p é ù ê ú= ê úë û . Essa expressão resolveria o exemplo em pauta se conhecêssemos a dis- tribuição inicial, isto é, o vetor 0 1[ (0) (0)]p p . No entanto, veremos à frente, neste capítulo, que, sob certas condições, as probabilidades dos estados a longo prazo são independentes da distribuição inicial, sendo esta outra propriedade inerente à maioria dos processos de Markov. Retornemos então ao exemplo 5.1. Para resolvê-lo, lançamos mão de um artifício conhecido por árvore de probabilidades. A f igura 5.1 ilustra o diagrama em árvore, partindo do estado 0, em que são considerados apenas quatro passos. Outro diagrama poderia ser construído; porém, partiria do estado 1. – 199 – Figura 5.1: Diagrama em árvore de probabilidades iniciando no estado 0 O modo como se calcula a probabilidade do estado 1 após quatro passos, isto é, 1(4)p será mostrado. Note-se na árvore de probabilidades (figura 5.1) que, dado que os eventos são independentes, é necessário multiplicar todas as probabilidades dos “caminhos” que levam ao estado 1 para calcular a proba- bilidade do estado 1 em quatro passos. – 200 – A tabela 5.1 mostra em detalhes os cálculos para a obtenção de 1(4)p . Tabela 5.1: Planilha de cálculo da probabilidade do estado 1 Produtos de probabilidades de transição Probabilidades parciais 00 00 00 01p p p p = 1 1 1 1 2 2 2 2 1 16 00 00 01 11p p p p = 31 1 1 2 2 2 4 3 32 00 01 10 01p p p p = 1 1 1 1 2 2 4 2 1 32 00 01 11 11p p p p = 3 31 1 2 2 4 4 9 64 01 10 00 01p p p p = 1 1 1 1 2 4 2 2 1 32 01 10 01 11p p p p = 31 1 1 2 4 2 4 3 64 01 11 10 01p p p p = 31 1 1 2 4 4 2 3 64 01 11 11 11p p p p = 3 3 31 2 4 4 4 27 128 Probabilidade total (probabilidade do estado 1 em quatro passos) 85 128 0,664» Se construirmos uma tabela para mostrar os cálculos da probabi- lidade do estado 0 para quatro passos, chegaremos sem dúvida no valor 43 1280 (4) 0, 336p = » . Se estendermos os cálculos para mais passos, não é difí- cil concluir que a probabilidade do estado 1 encaminhará para 2 3 , enquanto que a probabilidade do estado 0 será de13, preservadas as condições. Com esses cálculos, podemos responder à questão formulada no enun- ciado do exemplo 5.1. Portanto, espera-se que, em seis meses, 120 dias serão chuvosos ( 23180 120´ = ), e 60 dias serão ensolarados. 5.3.1 Matriz de transição Uma notação conveniente para representar probabilidades de transição para n passos é a forma de matriz. Denominaremos matriz de transição ou, analogamente, matriz de probabilidades de transição. Def inição 5.4 (Matriz de probabilidades de transição para n passos): Seja { }0, 1, ,S M= o conjunto f inito de estados e seja o par de estados (i, j), tal que ( , )i j S SÎ ´ . Associe a cada par ( , )i j um número real ( )ijp n , de modo que sejam satisfeitas as condições 0 ( ) 1ijp n£ £ para todo ( , )i j S SÎ ´ e – 201 – ( ) 1ij j S p n Î =å para todo i ∈ S. Com esse procedimento, def ine-se a matriz de transição para n passos como, 00 01 0 10 11 1 0 1 ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) M Mn M M MM p n p n p n p n p n p n P p n p n p n é ù ê ú ê ú ê ú= ê ú ê ú ê ú ë û . (5.6) Especif icamente, para um passo, a matriz de probabilidades de transi- ção é como representada em (5.7), em que é omitido o índice n, por ser 1, 00 01 0 10 11 1 0 1 M M M M MM p p p p p p P p p p é ù ê ú ê ú ê ú= ê ú ê ú ê ú ë û . (5.7) Em particular, para 0n= , tem-se como consequência natural que 0P é a própria matriz identidade, I, de ordem ( 1) ( 1)M M+ ´ + , o que está de acordo com o fato de que (0)ijp é igual a 0 0( | )P X j X i= = e p i j i jij ( ) , , 0 1 0 = = ≠ se se . Com base no teorema da probabilidade total e na def inição de probabi- lidade de transição para n passos, 1( ) ( | )ij n np n P X j X i-= = = , tem-se a ex- pressão (5.8) para o cálculo da probabilidade do estado j em n passos ( ) ( ) (0) ( )j n i ij i p n P X j p p n= = =å . (5.8) – 202 – Com base na expressão (5.8) podemos concluir que a matriz nP é rela- cionada à distribuição inicial de probabilidades, (0)p , def inida pela expressão (5.5), e ao vetor de probabilidades de estados no instante n (para n passos), através da expressão (5.9): ( ) (0) np n p P= . (5.9) Essa expressão pode ser deduzida pela aplicação do princípio da indução matemática, a exemplo do que foi feito durante a solução do exemplo 5.1 para o caso particular de um processo de dois estados. Em relação à expressão (5.9), se o espaço de estados S do processo de Markov { }nX for f inito, então o cálculo de P n é relativamente fácil. Para pro- cessos de Markov com espaços de estados contáveis, porém inf initos, o cálculo de Pnnão é trivial. Contudo, existem métodos para se determinar o comporta- mento assintótico, isto é, quando n®¥ , de ( )p n e Pn. 5.3.2 Cadeias de Markov Uma forma visual conveniente para representar um processo de Markov é por meio de um grafo que se compõe de nós, que são os estados, e arcos dire- cionados que simbolizam as transições entre os estados. Esse grafo é denomi- nado diagrama de transição. Def inição 5.5 (Cadeia de Markov): A sequência ( )nX , 0, 1, 2,n= , é cha- mada de cadeia de Markov homogênea de tempo discreto, com espaço de esta- dos {0, 1, 2, , }S M= , e matriz de probabilidades de transição, [ ]ijP p= , se, para todo 0, 1, 2,n= , a condição 1 1 0( | ) ( | )n n ijP X j X i P X j X i p-= = = = = = é satisfeita para todo ( , )i j S SÎ ´ . Observe o exemplo apresentado a seguir. Exemplo 5.2: Considere o problema enunciado no exemplo 5.1. Desejamos utilizar a representação sob a forma de diagrama de transição de uma cadeia de Markov para expressar o problema daquele enunciado. – 203 – Identif icamos dois estados, portanto, 1M= , e o espaço de estados é {0, 1}S= . O produto cartesiano, S S´ , é {(0,0), (0,1), (1,0), (1,1)}. A matriz de probabilidades de transição para um passo é a seguinte: 1 1 2 200 01 31 4 410 11 p p P p p é ù é ù ê ú ê ú= =ê ú ê úë û ë û . O grafo que corresponde à cadeia de Markov para esse exemplo é ilus- trado na f igura 5.2. Figura 5.2: Diagrama de transição de uma cadeia de Markov com dois estados A análise de cadeias de Markov utilizando-se matriz de probabilidades de transição pode ser efetuada tomando-se certas precauções, tendo em vista que nem todos os processos de Markov de tempo discreto comportam-se de modo semelhante à medida que o número de passos aumenta. Surge então a necessidade de uma classif icação das cadeias de Markov. 5.3.3 Classif icação das cadeias de Markov Os estados de um processo de Markov são divididos em transitório e recorrente. Essa classif icação está relacionada à probabilidade de o processo retornar a um dado estado i, do qual tenha partido. Seja iif a probabilidade de um processo retornar ao estado i, dado que tenha partido desse estado; então, segue a def inição de estado recorrente. Def inição 5.6 (Estado recorrente): Um estado i é recorrente se, partindo-se do estado i, eventualmente retorna-se ao estado i, com probabilidade 1iif = . – 204 – O processo cuja cadeia de Markov foi apresentada no exemplo 5.2 pos- sui ambos os estados recorrentes, porque, se considerarmos o estado 0i= , conforme a figura 5.2, no próximo passo podemos percorrer o arco com pro- babilidade 00p , obtendo 00 1f = ; e, para 1i= , ainda na figura 5.2, podemos percorrer o arco com probabilidade 10p , e depois o de probabilidade 01p , re- tornando para o mesmo estado 1i= , obtendo 11 1f = . Estados transitórios, também conhecidos como não recorrentes, são aqueles que, partindo do estado i, há uma probabilidade positiva de o proces- so não retornar a esse estado (isto é, 1iif < ). Estados recorrentes e transitó- rios podem coexistir em uma mesma cadeia de Markov. A caracterização de estados transitórios não é trivial e, por essa razão, os detalhes de processos de Markov desse tipo não serão enfatizados neste livro. Um tipo especial de estado recorrente é o estado absorvente, cuja def ini- ção é estabelecida a seguir. Def inição 5.7 (Estado absorvente): Um estado i é dito absorvente se a pro- babilidade iip é igual a 1. É importante ressaltar que só é possível “escapar” de um estado absor- vente se o processo for reiniciado; ou seja, se o processo partir novamente de qualquer outro estado que não seja absorvente. A apresentação de um exem- plo torna mais claras essas def inições. Exemplo 5.3: Considere um navio com dois sistemas propulsores, que são duas turbinas idênticas. Seja Xn a variável aleatória tal que seu valor é o número de turbinas em operação normal no passo n. Se uma das turbinas falhar, o navio continua em operação, enquanto ela poderá ser consertada. Porém, se ambas fa- lharem, o navio para, mas ainda haverá a possibilidade de que uma das turbinas seja consertada, sendo esta a reignição do processo de Markov e não a transição para outro estado. As probabilidades são as seguintes: se uma turbina que nunca passou por reparo é boa no tempo 1nt - , ela tem conf iabilidade de 90% no tempo tn; porém, uma turbina que se estragou no tempo 1nt - , após reparada, é apenas 60% conf iável no tempo tn. Suponha as probabilidades independentes e modele o problema como um processo de Markov de tempo discreto. Os valores possíveis para a variável Xn são: 0, 1 e 2, sendo, respectiva- mente, duas turbinas estragadas, apenas uma operando e ambas operando. – 205 – O modelo de probabilidades sugerido é o binomial, já que os eventos são independentes; ou seja, a falha de uma turbina não implica a falha da outra, e cada turbina só pode ser encontrada em uma dentre duas condições. As probabilidades de transição são calculadas como a seguir: – ambas em operação, 1 22( 2 | 2)n nP X X p-= = = , 22 0,9 0,9 0,81p = ´ = ; – uma turbina boa e a outra estragada, dado que ambas estavam em operação, 1 21( 1 | 2)n nP X X p-= = = , 21 0,9 0,1 0,1 0,9 0,18p = ´ + ´ = ; – ambas estragadas, dado que as duas estavam boas, 1 20( 0 | 2)n nP X X p-= = = , 20 22 211 0,01p pp= - - = ; – uma em operação e a outra entra em operação após o reparo, 1 12( 2 | 1)n nP X X p-= = = , 12 0,9 0,6 0,54p = ´ = ; – nenhuma em operação, dado que apenas uma estava boa, 1 10( 0 | 1)n nP X X p-= = = , 10 0,1 0, 4 0,04p = ´ = ; – uma em operação, dado que uma delas estava estragada, 1 11( 1 | 1)n nP X X p-= = = , 11 12 101 0, 42p p p= - - = . – 206 – O estado i é absorvente uma vez que entrando nele não se pode aban- doná-lo, exceto se o processo partir novamente, portanto, 00 1p = . A matriz de probabilidades de transição para um passo f ica conforme se mostra: 0 1 2 0 1 0 0 1 0,04 0, 42 0,54 2 0,01 0,18 0,81 P é ù ê ú ê ú= ê ú ê ú ë û . O grafo associado à matriz P é ilustrado na f igura 5.3. Figura 5.3: Diagrama de transição de uma cadeia de Markov para o exemplo 5.3 As análises de sistemas cujos modelos são representados por processos de Markov de tempo discreto para elevado número de passos trazem infor- mações importantes. No entanto, nem todos os processos comportam-se de maneira idêntica para n®¥ e, por isso, não permitem que certas conclusões sejam extraídas. Daí advém a necessidade de se estabelecer objetivamente sob quais con- dições as probabilidades limites existem e se possuem ou não algum signif ica- do físico. 0,04 – 207 – Def inição 5.8 (Probabilidade limite ou probabilidade estacionária): Para o estado j de uma cadeia de Markov, o elemento jv , para 0, 1, ,j M= , é def inido como a probabilidade limite v p nj n j= →∞lim ( ) . Dizemos, também, que v j é a probabilidade do estado j em regime estacionário. Em consequência, o vetor 0 1[ ]Mv v v v= é o vetor de regime estacionário. Nos desenvolvimentos que se seguem, será mostrado que, para determi- nadas cadeias, nem sempre é possível obter o vetor de probabilidades limites. Uma propriedade requerida para a existência de v j , tal como def inida ante- riormente, é que a cadeia seja aperiódica. Def inição 5.9 (Periodicidade de estados): Partindo do estado i, se retornar- mos a esse estado em um número par ou ímpar de passos maior do que 1, di- zemos que o estado i é periódico, com período igual ao menor número inteiro de passos que for necessário para alcançarmos novamente o estado i. A uma cadeia com estados periódicos designamos cadeia periódica. Por raciocínio análogo, será aperiódica a cadeia em que todos os estados forem aperiódicos. Uma forma de verif icar a periodicidade de estados é visualizar o proces- so como uma árvore de probabilidades. Por exemplo, a cadeia cuja matriz é 0 0 1 1 1 0 P é ù ê ú= ê úë û , é periódica com período 2. A árvore de probabilidades ilustrada na f igura 5.4 mostra isso claramente. Figura 5.4: Árvore de probabilidades de uma cadeia de Markov com dois estados periódicos 0 1 1o passo 2o passo 3o passo – 208 – Um exemplo de cadeia com estados aperiódicos é a cadeia cuja árvore está ilustrada na f igura 5.1. Na árvore dessa f igura, é fácil visualizar que, partindo-se do estado 0, é possível alcançar-se o estado 0 em um passo; de modo análogo, se a partida for do estado 1 alcança-se o mesmo estado em um passo. Em contraposição aos estados absorventes, se todos os estados de uma dada cadeia de Markov se comunicam, a matriz de probabilidades de transi- ção dessa cadeia exibirá propriedades especiais. A def inição de estados ‘comu- nicantes’ é dada em seguida. Def inição 5.10 (Estados comunicantes): O estado i se comunica com o estado j, se partindo-se do estado i, for possível alcançar-se o estado j direta ou indi- retamente, observando-se o sentido do arco que os une. Exemplo 5.4: Dadas as matrizes de transição P 1 e 2P associadas às cadeias de Markov, 1 0 * 0 * 1 * * * 2 * * * P é ù ê ú ê ú= ê ú ê ú ë û e 2 0 * * * 1 0 * 0 2 * * 0 P é ù ê ú ê ú= ê ú ê ú ë û , identif icar se os estados se comunicam ou não. As posições marcadas com as- terisco representam números positivos – probabilidades de transição para um passo. Observe-se que os estados das cadeias de Markov das matrizes P 1 e P 2 são representados pelos números 0, 1 e 2 . Considerando-se a segunda linha da matriz P 1 , isto é, partindo-se do estado 1, é possível chegar diretamente a qualquer um dos estados. Na pri- meira linha, de 0, não conseguimos chegar diretamente ao estado 1. Todavia, de 0, podemos chegar ao estado 2 e daí alcançarmos o estado 1. Portanto, na cadeia de Markov que a matriz P 1 representa, todos os seus estados se comunicam. A partir da matriz P 2 é possível construir o diagrama de transição da ca- deia, na qual a existência de seta indica elemento positivo na matriz. A f igura 5.5 ilustra o diagrama de transição que corresponde à última matriz. 0 1 2 0 1 2 – 209 – Figura 5.5: Diagrama de transição de uma cadeia de Markov em que o estado 1 é absorvente Ao analisarmos a cadeia do diagrama da figura 5.5, é imediata a consta- tação de que os estados 0 e 2 se comunicam e que o estado 1 não se comunica com os demais. As cadeias de Markov em que todos os estados podem ser alcançados a partir de todos os outros estados em um número f inito de passos, são cha- madas de cadeias irredutíveis (ou cadeias regulares). Assim, as cadeias dos exemplos 5.2 e 5.4 para a matriz de transição 1P são irredutíveis e aperiódicas. O próximo teorema fornece uma regra prática para a identif icação de cadeias irredutíveis. Ao elevarmos a matriz P da cadeia que queremos iden- tif icar a potências n, podemos verif icar se existe algum n para o qual ( ) 0ijp n > para todo i e j. Em caso af irmativo, a cadeia é irredutível. Teorema 5.1: Uma condição suf iciente para se identif icar se uma cadeia é ir- redutível é verificar a existência de algum número n inteiro não negativo, tal que ( ) 0ijp n > para todo i e j. Exemplo 5.5: Dadas as matrizes seguintes: a) * * 0 * 0 * 0 * * P é ù ê ú ê ú= ê ú ê ú ë û ; e b) * 0 * 0 0 * 0 * * 0 * 0 0 * 0 * P é ù ê ú ê ú ê ú= ê ú ê ú ê ú ë û ; – 210 – verif ique, por meio da aplicação do teorema 5.1, se elas correspondem a ca- deias irredutíveis ou equivalentemente regulares. Tomamos a matriz P do caso (a) e a elevamos ao quadrado, obtendo: 2 * * 0 * * 0 * * * * 0 * * 0 * * * * 0 * * 0 * * * * * P é ù é ù é ù ê ú ê ú ê ú ê ú ê ú ê ú= =ê ú ê ú ê ú ê ú ê ú ê ú ë û ë û ë û . Efetuando o produto simbólico P por P, verif icamos que todas as posi- ções com elementos nulos são preenchidas; portanto, é correto af irmar que a cadeia é irredutível ou regular. Tomamos a matriz P do caso (b) e a elevamos ao quadrado, obtendo: 2 * 0 * 0 0 * 0 * * 0 * 0 0 * 0 * P é ù ê ú ê ú ê ú= ê ú ê ú ê ú ë û . De posse de 2P , é imediata a constatação que a matriz 3P exibe o mes- mo padrão de preenchimentos com elementos positivos observado em P. Consequentemente, todas as potências, 4P , 5 , , nP P exibirão padrões se- melhantes ao de P. É possível concluir que não existe n tal que ( ) 0ijp n > . Isso implica que a cadeia em questão não é irredutível. Conclusão idêntica pode ser extraída se aplicarmos o resultado do teorema 5.1 à matriz 2P do exem- plo 5.4, conf irmando-se assim a identif icação feita pelo método dos estados comunicantes. Para complementar a seção que trata da classif icação das cadeias de Markov, considere-se a def inição de estado recorrente positivo. Def inição 5.11 (Estado recorrente positivo): O estado i é recorrente positivo se, partindo-se do estado i, o tempo esperado para o processo visitar nova- mente esse estado for f inito. Se, porém, ao partir do estado i, o tempo espe- rado para o processo voltar a visitar esse estado não for f inito, o estado é dito recorrente nulo. – 211 – Estados recorrentes positivos que são aperiódicos são chamados de esta- dos ergódicos. Consequentemente, cadeias que têm todos os estados ergódicos são designadas cadeias ergódicas. 5.3.4 Análise de cadeias f initas irredutíveis com estados aperiódicos As cadeias f initas de Markov cujos estados são recorrentes positivos e aperiódicosgozam de uma propriedade singular, que está expressa no teore- ma 5.2. Teorema 5.2: Para uma cadeia irredutível e aperiódica, com todos os estados recorrentes positivos, o vetor de probabilidades limites, 0 1[ ]Mv v v v= , tal que v p nj n j= →∞lim ( ) , é o único vetor de probabilidades de regime estacioná- rio e satisfaz às relações (5.10) e (5.11), a saber: v vP= (5.10) e 0 1 M j j v = =å , 0jv ³ . (5.11) O cálculo do vetor v pode ser efetuado usando-se o computador, atra- vés da equação iterativa ( 1) ( )k kv v P+ = , para 0, 1, 2,k= , arbitrando-se um vetor de estimativa inicial (0)v , até que a convergência seja alcançada. Uma maneira alternativa para a obtenção de v é o método analítico: constrói-se o sistema (5.10) e troca-se-lhe uma das 1M+ equações lineares pela relação (5.11), para, em seguida, solucionar o sistema de equações resultante. Com a aplicação do resultado do teorema 5.2, podemos calcular as pro- babilidades estacionárias dos estados do sistema do exemplo 5.1. Exemplo 5.6: Dado que a cadeia do exemplo 5.1 atende às condições do teo- rema 5.2, isto é, é irredutível e aperiódica com estados recorrentes positivos, calcule as probabilidades de regime estacionário. Primeiramente, utilizamos a equação de iteração, tomando o vetor ini- cial (0) [1 0]v = , que, para este exemplo, f ica conforme se vê a seguir: – 212 – 1 1 2 2( 1) ( 1) ( ) ( ) 0 1 0 1 31 4 4 [ ] [ ] ,k k k kv v v v+ + é ù ê ú= ê úë û com (0) [1 0]v = . A tabela 5.2 resume os cálculos iterativos. Tabela 5.2: Iterações para obtenção do vetor de probabilidades de regime estacionário k ( )kv ( 1)kv + ( 1) ( )k kv v+ - 0 [1 0] [0,500 0,500] [ 0,500 0,500]- 1 [0,500 0,500] [0, 375 0,625] [ 0,125 0,125]- 2 [0, 375 0,625] [0, 344 0,656] [ 0,031 0,031]- 3 [0, 344 0,656] [0, 336 0,664] 3 3[ 8 10 8 10 ]- -- ´ ´ 4 [0, 336 0,664] [0,334 0,666] 3 3[ 2 10 2 10 ]- -- ´ ´ Em função da precisão requerida nos cálculos, mais iterações podem ser realizadas. Recomendamos que o leitor repita o procedimento iterativo mostra- do anteriormente, tomando qualquer outro vetor (0)v como estimativa inicial. A f igura 5.6 ilustra a evolução das probabilidades dos estados 0 e 1 à medida que o número de passos aumenta. Ressaltamos nestes cálculos a coin- cidência entre o número de passos n e o contador de iterações k. Figura 5.6: Probabilidades dos estados em função do número de passos para dois vetores de probabilidades iniciais distintos – 213 – Os gráf icos ilustrados na figura 5.6 merecem alguns comentários. No da esquerda, o vetor de probabilidades iniciais é (0) [1 0]p = , enquanto que no gráf ico da direita, tal vetor é (0) [0 1]p = . Observa-se que o vetor de probabili- dades de regime estacionário obtido independe do vetor de probabilidades iniciais. Regra geral: para qualquer cadeia irredutível aperiódica, as probabili- dades limites dos estados v p n p nj n j n ij= =→∞ →∞lim ( ) lim ( ) existem e são indepen- dentes do vetor de probabilidades iniciais p(0). O leitor é convidado a voltar ao exemplo 5.1 e traçar um paralelo entre a solução obtida aqui através do processo iterativo e os cálculos efetuados na- quele exemplo. Agora, o cálculo das probabilidades estacionárias será feito analitica- mente. Para tal, com base na expressão (5.10), obtemos o sistema de equações: 1 1 2 2 0 1 0 1 31 4 4 [ ] [ ]v v v v é ù ê ú= ê úë û Þ 1 1 0 12 4 1 1 0 12 4 0 0 v v v v ì - =ïïíï- + =ïî . Como as equações são linearmente dependentes, substitui-se a segunda – arbitrou-se a segunda, mas poderia ser a primeira – pela equação (5.11). O siste- ma de equações assim obtido é o seguinte: 1 1 0 12 4 0 1 0 1 v v v v ì - =ïïíï + =ïî . A solução desse sistema nos fornece 1 23 3[ ]v= , que é a mesma solução para a qual converge o método iterativo. Ao estudar processos de Markov, é natural a expectativa do leitor por conhecer as aplicações dessa interessante teoria na solução de problemas do mundo real. A interpretação física dos resultados obtidos com os cálculos e a tradução desses resultados para a linguagem natural são etapas essenciais para a compreensão do comportamento do sistema sob análise. Neste contexto, apresentamos em seguida algumas interpretações rele- vantes: – a probabilidade de regime estacionário, iv , é a porcentagem do tempo total considerado que o processo permanece no estado i; – para cadeias ergódicas, o recíproco da probabilidade de regime estacionário, designado por iim , é o tempo esperado de recorrência do estado i, isto é, – 214 – 1 ii iv m = , para i = 0, 1, 2, ..., M, (5.12) em que, iim é o tempo médio do processo revisitar o estado i ; – seja f uma função da variável aleatória X, por exemplo, custos f inanceiros associados aos estados. As probabilidades estacionárias iv podem ser utili- zadas para calcular a esperança matemática de f(X), assim: 0 ( ( )) ( ) M i i E f X v f i = =å . (5.13) Em seguida, apresentamos um exemplo que permite a interpretação dos resultados obtidos de maneira mais prática. Exemplo 5.7: Uma fábrica possui duas máquinas idênticas, essenciais ao pro- cesso de manufatura, que são operadas continuamente, exceto quando estão quebradas. Devido ao fato de serem muito sensíveis e quebrarem frequente- mente, é necessário remunerar em tempo integral um técnico para reparar as máquinas quando ocorrer alguma falha. Suponha que o intervalo de tempo de observação seja de um dia e que a variável aleatória nX representa o núme- ro de máquinas quebradas no dia n. Os valores possíveis para a variável alea- tória são 0, 1nX = e 2. Admita que durante cem dias de observações foram anotadas as situações das duas máquinas, chegando-se às probabilidades de transições dos estados para um dia que estão mostradas na matriz P: 1 100 0 1 2 0 20 20 60 1 40 40 20 2 40 20 40 P é ù ê ú ê ú= Þê ú ê ú ë û 0 1 2 0 0, 2 0, 2 0,6 1 0, 4 0, 4 0, 2 2 0, 4 0, 2 0, 4 P é ù ê ú ê ú= ê ú ê ú ë û . Outro dado importante é que os custos de estar nos estados 0, 1 e 2 são, respectivamente, $0,00, $1.500,00 e $10.000,00, e há também o custo f ixo de re- muneração do técnico, que é $100,00 ao dia. O custo de duas máquinas paradas é alto porque implica a parada da linha de produção, podendo causar sérios trans- tornos à fábrica. A partir das probabilidades de regime estacionário, calcule: – 215 – a) na ocorrência de ambas as máquinas fora de operação, o número de dias esperado para que esta situação ocorra novamente; b) o número esperado de dias de ociosidade do técnico; c) o custo por dia a longo prazo para manter as máquinas. Com base na matriz, conclui-se que a cadeia é irredutível e aperiódica, com estados recorrentes positivos. Por isso, podemos aplicar o teorema 5.2 para calcular o vetor v, do qual obtemos, por algum dos métodos usados no exemplo anterior: v = [0,3333 0,2500 0,4167]. O item (a) pede o tempo de recorrência para o estado 2. Basta calcular 22 2 1 v m = , conforme (5.12), resultando no seguinte valor: 1 0,333322m = Þ µ22 3= dias. Para o item (b), o número esperado de dias de ociosidade do técnico cor- responde aos dias em que ambas as máquinas f icam em operação, ou seja, é o tempo de recorrência do estado 0, µ µ00 10 4167 00 2 4= ⇒ =, , dias. Finalmente, para o item (c), o custo por dia a longo prazo para manter as máquinas é a esperança matemática da função custo em regime estacionário, conforme (5.13). E f X( ( )) , , , . , , . ,= × + × + ×0 3333 0 00 0 25 1 500 00 0 4167 10 000 00 Þ E f X( ( )) . ,= 4 542 00 . Devemos adicionar ao valor obtido anteriormente o custo f ixo de remu- neração do técnico. Portanto, o custo por dia a longo prazo para manter as máquinas é $ 4.642,00. As cadeias de Markov analisadas nesta seção exibem a propriedade espe- cial de que a potência Pn, para n tendendo ao inf inito, resulta em uma matriz cujas linhas são todas iguais. A expressão (5.14) exprime a mencionada pro- priedade de forma mais clara: – 216 – 0 1 0 1 0 1 limM Mn n M v v v v v v P v v v ®¥ é ù ê ú ê ú ê ú= ê ú ê ú ê ú ë û . (5.14) Por exemplo, a matriz do exemplo 5.6, ao ser elevada a expoentes cada vez mais altos, resulta na seguinte matriz: 1 1 1 2 2 2 3 3 31 1 2 4 4 3 3 lim lim n n n n P ®¥ ®¥ é ù é ù ê ú ê ú= =ê ú ê úë û ë û . Esta é uma propriedade inerente às cadeias f initas irredutíveis e aperió- dicas. No entanto, cadeias que possuem estados absorventes constituem uma classe especial de processos que não exibem tal propriedade. Por exemplo, a matriz do exemplo 5.3 é um caso que não atende a essa propriedade. 5.3.5 Análise de cadeias f initas com estados absorventes O estudo das cadeias de Markov f initas com estados absorventes requer que a matriz de probabilidades de transição P seja expressa de modo especial. Isto implica que as linhas de P que correspondem aos estados não absorventes devem ser arranjadas em primeiro lugar e, em seguida, nas últimas linhas, f iguram os estados absorventes. A expressão (5.15) mostra uma representação na forma canônica da ma- triz de probabilidades de transição quando há estados absorventes: 11 1 1 1 1 1 1 0 0 1 0 0 0 0 0 1 r r s r rr rr rs q q c c q q c c Q C P P I + + é ù ê ú ê ú ê ú ê ú é ùê ú ê ú= Þ =ê ú ê úë ûê ú ê ú ê ú ê ú ê úë û , (5.15) em que as linhas referentes às matrizes Q e C correspondem aos estados não ab- sorventes Q e C e, as demais linhas (matrizes 0 e I), aos estados absorventes 0 e I. – 217 – A justificativa do cálculo da potência nP passa pelo seguinte desenvolvi- mento: primeiramente, para k natural, prova-se que kP é igual à identidade em (5.16): 0 k k Q CP I é ù ê ú= ê ú ë û , (5.16) em que, o elemento da posição ( , )i j da matriz kQ denota a probabilidade de se chegar ao estado não absorvente j após k passos, partindo-se do estado não absorvente i, enquanto C denota a submatriz C após k passos. Uma das informações mais relevantes na análise de cadeias absorventes é o número esperado de passos em que o processo f icará no estado não absor- vente i antes da absorção. Considere-se o seguinte teorema. Teorema 5.3: Para uma cadeia de Markov com pelo menos um estado absor- vente, o número esperado de passos para a absorção partindo-se do estado não absorvente i é o somatório dos elementos da iésima linha da matriz 1( )I Q -- . O resultado desse teorema decorre do seguinte fato: para alcançar a ab- sorção, o processo deve transitar antes por todos os estados não absorventes nos passos 0, 1, 2, . Assim, o número esperado de passos antes da absorção, se o processo partiu do estado não absorvente i, é dado pelo somatório dos elementos da iésima linha da matriz: 0 2 0 k k Q Q Q Q ¥ = = + + +å , observando-se que 0Q I= (e que a norma da matriz Q seja menor do que 1). Finalmente, recorremos às séries convergentes, neste caso, aplicadas a matrizes, que nos permitem concluir que o somatório anterior é igual à ma- triz 1( )I Q -- . A matriz 1( )I Q -- , designada como matriz fundamental, é uma rica fonte de informação sobre cadeias de Markov. Os elementos dessa matriz dão o número de passos – ou o número de vezes – que o processo visita os estados não absorventes antes de alcançar a absorção. – 218 – Antes de passarmos a um exemplo de aplicação, observe-se o estabeleci- mento de mais um conceito importante sobre cadeias absorventes. Suponha- se que o processo tenha partido do estado não absorvente i e que desejamos calcular a probabilidade de absorção no estado j. Note-se que aqui o índice j indica um estado absorvente. Teorema 5.4: Para uma cadeia de Markov com pelo menos um estado absor- vente, a probabilidade de o processo que partiu do estado não absorvente i ser absorvido no estado j é o elemento da posição ( , )i j da matriz que resulta do produto 1( )I Q C-- . Uma forma possível para se concluir pela validade do teorema 5.4 é mos- trar que o lim n n P ®¥ comporta-se como se mostra a seguir: 10 ( ) lim lim 0 0 n n n n Q C I Q C P I I - ®¥ ®¥ é ùé ù -ê úê ú= = ê úê úë û ë û . (5.17) Estamos de posse de métodos e informações que permitem resolver um exemplo de aplicação. Exemplo 5.8: Considere o problema do enunciado do exemplo 5.3. Ambas as turbinas em falha constituem um estado absorvente, do qual só se pode escapar se uma das turbinas puder ser consertada enquanto o navio estiver completamente parado ou se, de algum modo, turbinas novas puderem ser instaladas no navio. Desejamos determinar o tempo médio – ou seja, o nú- mero de passos – para o navio paralisar totalmente suas máquinas, supondo que ele se encontra com ambas as turbinas operando normalmente. Calcule também as probabilidades de absorção. Do exemplo 5.3, temos que a matriz de probabilidades de transição para este problema é a seguinte: 0 1 2 0 1 0 0 1 0,04 0, 42 0,54 2 0,01 0,18 0,81 P é ù ê ú ê ú= ê ú ê ú ë û , – 219 – de que, pela expressão (5.15), obtemos: 2 1 0 2 0,81 0,18 0,01 1 0,54 0, 42 0,04 0 0 0 1 P é ù ê ú ê ú= ê ú ê ú ë û . De acordo com a expressão (5.15), as matrizes Q, C e I são como dadas a seguir: 0,81 0,18 0,54 0, 42 Q é ù ê ú= ê úë û , 0,01 0,04 C é ù ê ú= ê úë û e [ ]1I= . A primeira pergunta refere-se ao número de passos necessários para al- cançarmos o estado absorvente 0, tendo partido do estado 2. Portanto, neces- sitamos calcular a matriz 1( )I Q -- , a saber: 1 0 0,81 0,18 0,19 0,18 0 1 0,54 0, 42 0,54 0,58 I Q é ù é ù é ù- ê ú ê ú ê ú- = - =ê ú ê ú ê ú-ë û ë û ë û , ( ) , , , , , , , I Q− = − − = − − 1 1 0 19 0 18 0 54 0 58 44 6154 13 8462 41 5385 114 6154, . A matriz fundamental 1( )I Q -- é, então, da seguinte forma: 2 1 2 1 44 6154 13 8462 41 5385 14 6154 1( ) , , , , I Q− = − . A resposta à primeira questão é a soma dos elementos da primeira linha da matriz fundamental (teorema 5.3), que resulta em 44,6154 + 13,8462 = 58,4616. Isto signif ica que, se duas turbinas estiverem em operação, o nú- mero esperado de passos até que as duas se estraguem é de 58,5 unidades de tempo. – 220 – As probabilidades de absorção são calculadas com base no teorema 5.4: ( ) , , , , , , , I Q C− = − − = − − 1 1 0 19 0 18 0 54 0 58 0 01 0 04 44 61154 13 8462 41 5385 14 6154 0 01 0 04 1 000 1 0 , , , , , , , = 000 , 1 0 2 1,000 ( ) 1 1,000 I Q C- é ù ê ú- = ê úë û . Partindo-se do estado com duas turbinas operando normalmente, a pro- babilidade de absorção é igual a 1. Do mesmo modo, partindo-se do estado com uma turbina, a probabilidade de absorção é também igual a 1. As probabilidades para se alcançar a absorção partindo-se de qualquer um dos estados não absorventes nem sempre são iguais à unidade. Isto ocorreu neste exemplo, porque, na cadeia de Markov analisada, há apenas um estado absorvente. O exemplo que será apresentado a seguir considera uma cadeia com dois estados absorventes e tem por objetivo principal mostrar uma forma alternativa ao teorema 5.3 de se calcular os tempos médios para absorção. Exemplo 5.9: O reservatório de uma usina hidrelétrica é utilizado com a f ina- lidade de prover renda adicional à população que habita suas vizinhanças, por meio da atividade pesqueira. Periodicamente, a companhia que detém a con- cessão supre o reservatório com alevinos, que se tornarão adultos, procriarão e também servirão ao propósito da pesca. Estudos mostraram que existem dois bons estados para pesca, os quais serão designados por 2s e 3s . No entanto, se a atividade pesqueira for intensif icada, a população de peixes pode cair a níveis em que a pesca precise ser interrompida por certo tempo. Além disso, em decorrência de causas naturais, o crescimento excessivo da população de plantas aquáticas – algas e outras – pode alcançar um nível que prejudique apesca, levando também à suspensão da atividade, que somente será retomada após a limpeza do lago. Esse sistema físico foi modelado como um processo de Markov em que o período de tempo considerado razoável para ser toma- do como unidade de tempo é um mês – isto signif ica que um passo equivale ao tempo de um mês. O estado que corresponde à inserção de alevinos no reservatório é um estado transitório, que é denotado por 1s . Os estados de in- – 221 – terrupção da pesca por redução do número de peixes e por poluição aquática são simbolizados, respectivamente, por 4s e 5s , e são estados absorventes. As probabilidades de transição foram levantadas por métodos estatísticos e estão indicadas na matriz na forma canônica (5.15) mostrada a seguir: 1 2 3 4 5 1 2 3 4 5 0 0,8 0 0,1 0,1 0 0,1 0,7 0,1 0,1 0 0,5 0, 2 0, 2 0,1 0 0 0 1 0 0 0 0 0 1 s s s s s s s sP s s é ù ê ú ê ú ê ú ê ú= ê ú ê ú ê ú ê úê úë û . Desejamos conhecer o comportamento desse processo no regime esta- cionário. Determine os tempos esperados para alcançar os estados absorven- tes, partindo de estados não absorventes. Calcule também a probabilidade de absorção no estado 4s , se o processo partiu do estado transitório. O grafo da cadeia de Markov desse exemplo é representado pela f igura 5.7, a título de ilustração apenas. Note-se nessa f igura o estado transitório 1s e os estados absorventes 4s e 5s . Figura 5.7: Diagrama de transição da cadeia de Markov do modelo de piscicultura de um reservatório de hidrelétrica – 222 – Os tempos médios para se alcançar a absorção, que são os números es- perados de meses para atingir os estados absorventes, podem ser calculados pela aplicação do teorema 5.3, de maneira análoga ao que foi feito no exemplo anterior, isto é: 1 0 0 0 0,8 0 1 0,8 0 0 1 0 0 0,1 0,7 0 0,9 0,7 0 0 1 0 0,5 0, 2 0 0,5 0,8 I Q é ù é ù é ù- ê ú ê ú ê ú ê ú ê ú ê ú- = - = -ê ú ê ú ê ú ê ú ê ú ê ú-ë û ë û ë û e 1 1 1 0,8 0 ( ) 0 0,9 0,7 0 0,5 0,8 I Q - - é ù- ê ú ê ú- = - Þê ú ê ú-ë û 1 1 2 3 1 1,73 1,51 ( ) 0 2,16 1,89 0 1, 35 2, 43 s I Q s s - é ù ê ú ê ú- = ê ú ê ú ë û . Os passos esperados antes da absorção são mostrados na tabela 5.3, atra- vés da matriz fundamental 1( )I Q -- . Tabela 5.3: Cálculos dos passos esperados antes da absorção a partir dos elementos da matriz fundamental Estado não absorvente de partida Passos esperados antes da absorção 1s 1 1,73 1,51 4, 24+ + = meses 2s 2,16 1,89 4,05+ = meses 3s 1,35+2,43=3,78 meses Os passos calculados na tabela 5.3 são os tempos para absorção partindo- se de estados não absorventes, também chamados de tempos de primeira pas- sagem (vide a seção 5.3.6). As probabilidades de absorção são obtidas aproveitando-se a matriz fun- damental com base no procedimento proposto no teorema 5.4, a saber: 1 1 1,73 1,51 0,1 0,1 ( ) 0 2,16 1,89 0,1 0,1 0 1, 35 2, 43 0, 2 0,1 I Q C- é ù é ù ê ú ê ú ê ú ê ú- = ê ú ê ú ê ú ê ú ë û ë û , – 223 – s s I Q C s s s 4 5 1 1 2 3 0 58 0 42 0 59 0 41 0 62 0 38 ( ) , , , , , , − = − . A probabilidade de absorção no estado 4s , se o processo partiu do estado transitório s 1 , é 0,58. Os números que f iguram na matriz obtida anteriormente podem ser ob- tidos aplicando-se o processo iterativo estabelecido na seção 5.3.4, também utili- zado no exemplo 5.6. Arbitrando-se o vetor inicial [ ](0) 1 0 0 0 0v = , após trinta iterações, obtém-se o vetor [ ](30) 0 0,0001 0,0001 0,5756 0, 4243v = . Os dois últimos elementos de (30)v referem-se aos estados absorventes. 5.3.6 Tempos médios de recorrência Nas seções anteriores, estudamos procedimentos de cálculo de tempo médio de permanência em um dado estado i em processos de Markov apli- cáveis para cadeias f initas irredutíveis, com estados aperiódicos e para cadeias f initas com estados absorventes. No entanto, os resultados obtidos da expres- são (5.12) e do método do teorema 5.3 podem ser alcançados no caso geral pelo método que será estudado a seguir. O tempo esperado para um processo revisitar o estado i, também conhe- cido como tempo médio de recorrência, é def inido pela esperança matemática indicada pela expressão (5.18) 1 ( )ii ii n nf nm ¥ = =å , para 1 ( ) 1ii n f n ¥ = =å , (5.18) em que ( )iif n é a probabilidade de se revisitar o estado i em n passos. O tempo esperado para um processo que tenha partido do estado i, após n passos, retorne ao estado j, também conhecido como tempo de primeira passagem, é def inido conforme a expressão (5.19): 1 ( )ij ij n nf nm ¥ = =å , (5.19) – 224 – em que ( )ijf n é a probabilidade de, em n passos, visitar o estado j, se o processo partiu do estado i. Dado que 1 ( ) 1ij n f n ¥ = =å para ( , )i j S SÎ ´ , em que, {0,1, 2, , }S M= , as probabilidades ( )ijf n podem ser calculadas pelas relações recursivas (5.20) (1) (1)ij ij ijf p p= = , (2) (2) (1)ij ij ij jjf p f p= - , ( ) ( ) (1) ( 1) (2) ( 2) ( 1)ij ij ij jj ij jj ij jjf n p n f p n f p n f n p= - - - - - - . (5.20) Inicialmente será resolvido um exemplo que ilustrará as relações recur- sivas (5.20). Exemplo 5.10: Considerando o exemplo 5.7, se ambas as máquinas se estra- gam, qual é a probabilidade de o tempo para consertar uma dessas máquinas seja de dois dias? Para responder a essa questão, precisamos calcular a probabilidade de o tempo de primeira passagem do estado 0 ao 1 ser igual a 2 dias, ou seja, a proba- bilidade 01(2)f . Utilizamos então as relações recursivas (5.20) para obter 01(2)f 01 01(1) 0, 2f p= = , 01 01 01 11(2) (2) (1)f p f p= - . Para concluir, precisamos calcular 01(2)p , a saber: P2 0 2 0 2 0 6 0 4 0 4 0 2 0 4 0 2 0 4 0 2 0 2 0 6 0 4 0 4 0= , , , , , , , , , , , , , , ,, , , , , , , , , , , , 2 0 4 0 2 0 4 0 36 0 24 0 40 0 36 0 28 0 36 0 32 0 24 0 = ,, 44 . Portanto, a probabilidade de que o tempo para consertar uma dessas máquinas seja de dois dias é igual a: 01 01 01 11 01(2) (2) (1) 0, 24 0, 2 0, 4 (2) 0,16f p f p f= - = - ´ Þ = . 01(2) 0, 24p =Þ – 225 – Vamos exemplificar o uso da fórmula (5.19) e das relações recursivas (5.20) na solução do item do exemplo 5.9, que pede o número de passos espe- rados antes da absorção, o qual foi resolvido através da matriz fundamental. Exemplo 5.11: Considerando o exemplo 5.9, supondo que o processo tenha partido do estado 1, calcule os tempos médios de primeira passagem para os estados 4 e 5. Supondo s 1 o estado de partida, ou seja, 1.i= : Para 4j= , temos: 14 14(1) (1) 0,1f p= = , 14 14 14 44(2) (2) (1) 0,18 0,1 1f p f p= - = - ´ Þ 14 (2) 0,08f = , 14 14 14 44 14 44(3) (3) (1) (2) (2) 0, 3 0,1 1 0,08 1f p f p f p= - - = - ´ - ´ Þ 14 (3) 0,12f = , 14 14 14 44 14 44 14 44(4) (4) (1) (3) (2) (2) (3)f p f p f p f p= - - - 14 (4) 0, 3624 0,1 1 0,08 1 0,12 1f = - ´ - ´ - ´ Þ 14 (4) 0,0624f = , 14 14 14 44 14 44 14 44 14 44(5) (5) (1) (4) (2) (3) (3) (2) (4)f p f p f p f p f p= - - - - 14 (5) 0, 4207 0,1 1 0,08 1 0,12 1 0,0624 1f = - ´ - ´ - ´ - ´ Þ 14 (5) 0,0583,f = ; para j=5: 15 15(1) (1) 0,1f p= = , 15 15 15 55(2) (2) (1) 0,18 0,1 1f p f p= - = - ´ Þ 15 (2) 0,08f = , 15 15 15 55 15 55(3) (3) (1) (2) (2) 0, 244 0,1 1 0,08 1f p f p f p= - - = - ´ - ´ Þ 15 (3) 0,064f = , 15 15 15 55 15 55 15 55(4) (4) (1) (3) (2) (2) (3)f p f p f p f p= - - - 15 (4) 0, 2896 0,1 1 0,08 1 0,064 1f = - ´ - ´ - ´ Þ 15 (4) 0,0456f = , – 226 – Obviamente, os cálculos devem continuar até que se alcance um valor de n considerado alto. A tabela 5.4 mostra os resultados parciais obtidos com o uso do computador. Tabela 5.4: Valores de 14 ( )f k e 15 ( )f k para k=1, 2, ..., 30 14 ( )f k f15(k) 0,1000 0,0091 0,0005 0,1000 0,0058 0,0003 0,0800 0,0068 0,0004 0,0800 0,0043 0,0002 0,1200 0,0050 0,0003 0,0640 0,0032 0,0002 0,0624 0,0037 0,0002 0,0456 0,0024 0,0001 0,05830,0028 0,0001 0,0348 0,0018 0,0001 0,0381 0,0021 0,0001 0,0255 0,0013 0,0001 0,0307 0,0015 0,0001 0,0191 0,0010 0,0001 0,0218 0,0011 0,0001 0,0142 0,0007 0,0000 0,0167 0,0009 0,0000 0,0106 0,0005 0,0000 0,0122 0,0006 0,0000 0,0078 0,0004 0,0000 Aplicamos então a expressão (5.19) duas vezes, resultando em 14m e em 15m , 14 2,5448m = e 15 1,6981m = . Adicionando os dois tempos médios, encontramos o número esperado de passos antes da absorção, partindo do estado s 1 , 2,5448 1,6981 4, 2429+ = meses. Esse resultado é o mesmo obtido anteriormente por meio da matriz fundamental (vide a tabela 5.3). 15 15 15 55 15 55 15 55 15 55(5) (5) (1) (4) (2) (3) (3) (2) (4)f p f p f p f p f p= - - - - 15 (5) 0, 3244 0,1 1 0,08 1 0,064 1 0,0456 1f = - ´ - ´ - ´ - ´ Þ 15 (5) 0,0348,f = .
Compartilhar