Baixe o app para aproveitar ainda mais
Prévia do material em texto
VI SEMANA DE MATEMÁTICA DA UESC Introdução à Cadeias de Markov: Processos Markovianos de parâmetro discreto Autores: Msc. Cláudia Ribeiro Santana Phd. Enio G. Jelihovschi Msc. Pedro Carlos Elias Ribeiro Junior Ilhéus - BA Outubro de 2007 Resumo Uma grande quantidade de processos estudados na atualidade, são resultados que são medi- dos ao longo do tempo. Dentro destes um grande número tem resultados aleatórios, ou seja, são resultados impreviśıveis. Estes processos são chamados de processos estocásticos e são estuda- dos usando a teoria das probabilidades. Como exemplos temos: 1) a variação de tráfego em um certo cruzamento que envolvem a formação e a dissipação de congestionamentos de véıculos. 2) Quantidade de pessoas que chegam ao longo do dia para fazer transações bancárias nos caixas eletrônicos dentro de um banco e um problema seria de como encontrar o número de caixas eletrônicos para que os clientes passem menos tempo nas filas e não haja muitos caixas ociosos durante o dia. 3) Rúına do jogador; um jogador joga uma seqüência de jogos independentes contra um oponente, qual será a probabilidade de um dos jogadores se arruinar se iniciar com um capital N? 4) Mutações genéticas; qual é a probabilidade de uma mutação desaparecer, continuar numa pequena proporção da população, ou tomar conta de toda a população depois de um certo peŕıodo de tempo? Um dos modelos que melhor explica uma quantidade importante destes processos, é chamado de Cadeias de Markov, que são processos aleatórios cujo resultado no estágio n depende somente do que aconteceu no estágio n− 1 e não dos resultados anteriores a n− 1, ou seja, um Processo Markoviano de parâmetro discreto será uma seqüência aleatória que satisfaz a identidade: Pr(jk | j0, j2,..., jk−1) = Pr[Xk = jk | Xk−1 = jk−1] = p( jk | jk−1) para cada k e para cada seqüência j0, j2,..., jk de estados, onde Xk são variáveis aleatórias que definem o resultado do processo no estágio k. Sabe-se que uma cadeia aperiódica, irredut́ıvel, finita de Markov se estaciona, ou seja, entra em um estado permanente e o vetor limite é o único vetor de probabilidade estacionária do processo. Na verdade este vetor é um autovetor associado à matriz (regular) de probabilidades de transição do processo, dáı, o problema iniciado recai na álgebra linear onde teremos que utilizar as ferramentas desta área da matemática para encontrar tal autovetor. Caṕıtulo 1 Definições Este caṕıtulo se dedica a definir alguns conceitos que são necessários para o restante do estudo desejado. Muitas das situações investigadas no nosso estudo diz respeito à uma experiência aleatótia que não conduz a uma única variável aletaória, mas a toda uma seqência de variáveis aleatórias. Sequência de variáveis aleatórias tem uma ampla aplicação em diversos casos, a saber: pedidos comerciais, avarias de máquinas, tempo de vida útil de um componente eletrônico, sistemas de comunicação, cintagem de part́ıculas subatômicas, epidimias, sistemas genéticos, e outros. Qualquer sistema que varie de forma aleatória com o tempo e seja observado em determi- nadas sequências de tempos segue este padrão. Definição 1.1. Uma sequência de variáveis aleatórias definidas no mesmo espaço amostral é denominada uma Sequência Aleatória ou um Processo Aleatório de Parâmetro Discreto. Observação 1.1. O termo Parâmetro Discreto se refere ao ı́ndice i na sequência Xi com i = 1, 2, . . . , n, . . . Os contradomı́nios das variáveis alatórias podem ser conjuntos cont́ınuos ou discretos. Nosso caso é aquele em que o contradomı́nio é um conjunto discreto, que tem grande vairedade de aplicações. Definição 1.2. Dizemos que as variáveis aleatórias na sequência {X1, X2, . . . , Xn, . . .} sejam Discretas se seus contradomı́nios consistem de conjuntos de elementos Inteiros. Nesta caso pode-se afirmar que a j-ésima variável aleatória tem valor m, ou seja Xj = m, ou então, diz-se que o sistema está no estado m no j-ésimo estágio, e também, o sistema está no estado m no tempo j. 1 O problema consiste em responder alguns questionamentos sobre a função densidade da probabilidade conjunta ou da função distribuição de X1, X2, . . . , Xn, ou seja, quanto à p(i1, i2, . . . , in) = Pr[X1 = i1; X2 = i2; . . . ; Xn = in] ou F (x1, x2, . . . , xn) = Pr[X1 ≤ x1; X2 ≤ x2; . . . ; Xn ≤ xn] quando n é um número suficientemente grande, ou investigar sobre tais questões no caso do limite emq ue n tende ao infinito. Uma forma de de se conhecer tais probabilidades e através do emprego repetido da fórmula para a probabilidade da intersecção p(A ∩B) = p(A) · p(B|A), obtendo que p(i1, i2, . . . , in) = pX1, X2, ..., Xn−1(i1, i2, . . . , in−1)p(in|i1, i2, . . . , in−1) = . . . ... p(i1, i2, . . . , in) = p (1) i1 p(i2|i1)p(i3|i1, i2) . . . p(in|i1, i2, . . . , in−1), onde p (1) i1 é a função densidade de X1, ou seja, p (1) i1 = Pr[X1 = i1], e o significado de cada uma das outras probabilidades condicionais é natural. Desta forma a equação anterior se torna Pr[X1 = i1; X2 = i2; . . . ; Xn = in] = Pr[X1 = i1]Pr[X2 = i2|X1 = i1] . . . P r[Xn = in|X1 = i1; X2 = i2; . . . ; Xn−1 = in−1] EXEMPLOS 1. Existem três marcas de automóveis dispońıveis no mercado: o Jacaré, o Piranha e o Urubu. O termo aij da matriz A abaixo é a propabilidade de que um dono de carro da linha i mude para o carro da coluna j, quando comprar um carro novo. De J P U J 0, 7 0, 3 0, 4 Para P 0, 2 0, 5 0, 4 U 0, 1 0, 2 0, 2 Os termos da diagonal de A = 710 210 1103 10 5 10 2 10 4 10 4 10 2 10 dão a probabilidade aii de se comprar um carro novo da marca. A2 = 59100 725 1310011 25 39 100 17 100 12 25 9 25 4 25 . Os termos de A2, aij, significam mudar da marca i para a marca j depois de duas compras: De fato: a11 = probabilidade de tendo inicialmente um carro da marca J mudar para um outro carro desta mesma marca, ou seja, J , depois de duas compras. J 7 10 → J 7 10 → J J 2 10 → P 3 10 → J J 1 10 → U 4 10 → J Dáı, a11 = 7 10 · 7 10 + 2 10 · 3 10 + 1 10 · 4 10 = 59 100 . a12 = probabilidade de tendo inicialmente um carro da marca J mudar para um outro carro da marca P depois de duas compras. J 7 10 → J 2 10 → P J 2 10 → P 5 10 → P J 1 10 → U 4 10 → P Dáı, a12 = 7 10 · 2 10 + 2 10 · 5 10 + 1 10 · 4 10 = 28 100 . a13 = probabilidade de tendo inicialmente um carro da marca J mudar para um outro carro da marca U depois de duas compras. J 7 10 → J 1 10 → U J 2 10 → P 2 10 → U J 1 10 → U 2 10 → U Dáı, a13 = 7 10 · 1 10 + 2 10 · 2 10 + 1 10 · 4 10 = 13 100 . a21 = probabilidade de tendo inicialmente um carro da marca P mudar para um outro carro da marca J depois de duas compras. P 3 10 → J 7 10 → J P 5 10 → P 3 10 → J P 2 10 → U 4 10 → J Dáı, a21 = 3 10 · 7 10 + 5 10 · 3 10 + 2 10 · 4 10 = 44 100 . a22 = probabilidade de tendo inicialmente um carro da marca P mudar para um outro carro desta mesma marca, ou seja, P , depois de duas compras. P 3 10 → J 2 10 → P P 5 10 → P 5 10 → P P 2 10 → U 4 10 → P Dáı, a22 = 3 10 · 2 10 + 5 10 · 5 10 + 2 10 · 4 10 = 39 100 . a23 = probabilidade de tendo inicialmente um carro da marca P mudar para um outro carro da marca U depois de duas compras. P 3 10 → J 1 10 → U P 5 10 → P 2 10 → U P 2 10 → U 2 10 → U Dáı, a23 = 7 10 · 2 10 + 2 10 · 5 10 + 1 10 · 4 10 = 16 100 . a31 = probabilidade de tendo inicialmente um carro da marca U mudar para um outro carro da marca J depois de duas compras. U 4 10 → J 7 10 → J U 4 10 → P 3 10 → J U 2 10 → U 4 10 → J Dáı, a31 = 4 10 · 7 10 + 4 10 · 3 10 + 2 10 · 4 10 = 48 100 . a32 = probabilidade de tendo inicialmente um carro da marca U mudar para um outro carro da marca P depois de duas compras. U 4 10 → J 2 10 → P U 4 10 → P 5 10 → P U 2 10 → U 4 10→ P Dáı, a32 = 4 10 · 2 10 + 4 10 · 5 10 + 2 10 · 4 10 = 36 100 . a33 = probabilidade de tendo inicialmente um carro da marca U mudar para um outro carro da marca U depois de duas compras. U 4 10 → J 1 10 → U U 4 10 → P 2 10 → U U 2 10 → U 2 10 → U Dáı, a33 = 4 10 · 1 10 + 4 10 · 2 10 + 2 10 · 2 10 = 16 100 . 2. Seja {XN} uma cadeia de Markov com espaço dos estados {0, 1, 2}, vetor de probabilidade inicial p(0) = (1 4 , 1 2 , 1 4 ) e matriz de transição de 1 passo P : P = 14 34 01 3 1 3 1 3 0 1 4 3 4 (a) Calcule p(0, 1, 1) = Pr[X0 = 0, X1 = 1, X2 = 1]. (b) Mostre que P [X1 = 1 e X2 = 1|X0 = 0] = p01p11. (c) Calcule p (2) 01 , p (3) ij para i, j = 0, 1, 2. RESPOSTAS: (a) p(0, 1, 1) = Pr[X0 = 0, X1 = 1, X2 = 1] = = Pr[X0 = 0] · [X1 = 1|X0 = 0] · Pr[X2 = 1|X1 = 1, X0 = 0] = = Pr[X0 = 0] · [X1 = 1|X0 = 0] · Pr[X2 = 1|X1 = 1] = 14 · 3 4 · 1 3 = 1 16 . (b) 0 1 4 → 1 3 4 → 1 Ou seja, P [X1 = 1 e X2 = 1|X0 = 0] = p01p11. (c) Calcule p (2) 01 = a probabilidade de passar do estado 0 ao estado 1 depois de 2 passos. 0 1 4 → 0 3 4 → 1 0 3 4 → 1 1 3 → 1 0 0 → 2 1 4 → 1 Dáı, p (2) 01 = 1 4 · 3 4 + 3 4 · 1 3 + 0 · 1 4 = 7 16 . O mesmo resultado pode ser obtido calculando o elemento a12 da 2 a potência da matriz de transição: 14 34 01 3 1 3 1 3 0 1 4 3 4 · 14 34 01 3 1 3 1 3 0 1 4 3 4 = 516 716 147 36 4 9 13 36 1 12 13 48 31 48 P (3) = 43192 85192 1385 432 83 216 181 432 1 9 181 576 331 576 Os termos p (3) ij são as entradas da 3 a potência da matriz de transição P . 3. Um sistema de comunicação tem uma probabilidade tal que, se um śımbolo é transmitido corretamente, a probabilidade de que o śımbolo seguinte seja correto é de 0,9. Se, no en- tanto, um śımbolo for transmitido incorretamente, a probabilidade de o próximo também o seja é de 0,5. A trasmissão pode ser modelada pela seqüência markoviana dependente, {X1, X2, · · · } onde Xi = 1 se o i-ésimo śımbolo for transmitido corretamente, Xi = 0 se o i-ésimo śımbolo for incorreto. Suponha que a probabilidade de que o primeiro śımbolo seja transmitido corretamente seja de 0,7. (a) Calcule as probabilidades de transmissão p(in, in−1). (b) Calcule p(i1, i2, · · · , in). (c) Calcule Pr[X3 = 1]. (d) Se o k-ésimo śımbolo for correto, Xk = 1, qual a probabilidade de que (k + 2)-ésimo śımbolo seja correto, isto é, Xk+2 = 1 RESPOSTAS (a) as probabilidades de transmissão p(in, in−1) são as entradas da seguinte matriz (de transição) : A = [ 9 10 1 10 5 10 5 10 ] A2 = [ 43 50 7 50 7 10 3 10 ] (b) p(i1, i2, · · · , in) = p(i1) · p(i2, i1) · · · p(in, in−1). (c) Pr[X3 = 1] = 7 10 · p11 · p11 + 710 · p12 · p21 + 3 10 · p21 · p11 + 310 · p22 · p21. (d) Se o k-ésimo śımbolo for correto, Xk = 1, a probabilidade de que (k + 2)-ésimo śımbolo seja correto, isto é, Xk+2 = 1 é p (2) 11 = 43 50 . Definição 1.3. Uma sequência X1, X2, . . . , Xn é dita uma Sequência de Variáveis Aleatórias Independentes se p(in|i1, i2, . . . , in−1) = p(n)in e p(i1, i2, . . . , in) = p (1) i1 p (2) i2 . . . p (n) in Se, além disto, todas as variáveis aleatórias tem a mesma função distribuição, ou seja, p (j) i = pi, para cada j, a sequência é dita Sequência de Variáveis Aleatórias Independentes com Mesma Distribuição. EXEMPLO 4. Arremessa-se uma moeda 50 vezes e seja Xn = −1 se uma cara aparecer e Xn = +1 se uma coroa aparecer. Definição 1.4. A sequência aleatória {X1, X2, . . . , Xn} é dita Serquência Dependente de Markov, ou um Processo de Markov caso a probabilidade condicional p(in|i1, i2, . . . , in−1) = Pr[Xn = in|X1 = i1, X2 = i2, . . . , Xn−1 = in−1]. Isto significa que p(in|i1, i2, . . . , in−1) = p(in|in−1) ou Pr(Xn = in|X1 = i1, X2 = i2, . . . , Xin−1 = in−1) = Pr[Xn = in|Xn−1 = in−1]. Exemplo 1.1. Considere uma seuqência independente {X1, X2, . . . , Xm, . . .}, onde cada Xi = +1 ou Xi = −1, com probabilidade p e q, respectivamente. Agora defina a sequência Yn = X1 + X2 + . . . + Xn, para n = 1, 2, . . . , e considere a sequência {Y1, Y2, . . . , Ym, . . .}, Se a sequência X representa uma sequência independentede passos da unidade de +1 ou −1no eixo real, então Yn representa a posição depois de n passos. Por esta razão a sequência {Y1, Y2, . . . , Ym, . . .} é chamado de caminho aleatório. sta sequência aleatória espećıfica é extremamente importante, tnato teoricamente, como em estudos de ordem prática. O estudo de suas propriedades, e determinadas generalizações ocupa grande parte da teoria de probabilidade. Aqui só se destaca o fato de que a sequência {Y1, Y2, . . . , Ym, . . .} náo é uma sequência independente, a despeito do fato de ser proveniente de uma sequência independente {X1, X2, . . . , Xm, . . .}. Note que Yn − Yn−1 = Xn =⇒ Yn = Yn−1 + Xn Assim, se Yn−1 for dado, Yn dependerá somente de Xn, que é independente de qualquer X ‘e e Y ‘s anteriores. Desta forma p(in|in−1) = Pr[Yn = in|Yn−1 = in−1] = Pr[Yn−1 + Xn = in|Yn−1 = in−1] = Pr[in−1 + Xn|Yn−1 = in−1] = Pr[Xn = in − in−1] Uma vez que Xn é independente de X1, X2, . . . , Xn−1e, consequentemente de Yn−1, seque que p(in|in−1) = p, se in = in−1 + 1 q, se in = in−1 − 1 0, para qualquer outro valor Assim, observa-se que a sequência tem probabilidade de transição estacionária pij = p, se j = in−1 + 1 q, se j = in−1 − 1 0, para qualquer outro valor para i, j = 0, ±1, ±2, . . . EXERCÍCIOS PROPOSTOS (a) Seja {X1, X2, · · · } uma seqüência aleatória independente onde cada Xi, assume somente os valores 1 e 0 com probabilidades p e q, p + q = 1. Mostre que X1, X2, · · · , Xn tem densidade conjunta p(i1, i2, · · · , ik) = ptqn−t onde t = ∑n k=1 ik. Considere Sk = ∑k i=1 Xi para k = 1, 2, · · · i. Mostre que a seqüência {S1, S2, · · · } é uma seqüência dependente de Markov. ii. Mostre que as probabilidades de transição são dadas a seguir onde α = in−in−1: p(in, in−1) = { pαq1−α para α = 0 ou 1 0 (b) Seja {X1, X2, · · · } uma seqüência de variáveis aleatórias discretas independentes. Seja Sk = k∑ i=1 Xi para k = 1, 2, · · · Mostre que {S1, S2, · · · } é uma seqüência markoviana dependente. RUÍNA DO JOGADOR EXERCÍCIOS PROPOSTOS (a) Um jogador joga um ”jogo limpo”na qual as chances são 2 contra 1. Em outras palavras em cada jogo ele tem 1 3 de probabilidade de ganhar e 2 3 de perder. Se gan- har, ganhará R$2,00. Se perder, perderá R$1,00. Suponha que os recursos totais em dólar do jogador e do seu oponente sejam N dólares. Se o capital de qualquer um dos jogadores cair abaixo do ponto em que eles pudessem pagar caso perdessem o jogo seguinte, o jogo termina. Que Xn representa o caapital do primeiro jogador após n jogadas. i. Determine a matriz de transição de 1 passo da cadeia de Markov {Xn}. ii. Suponha que os dois jogadores concordem em que se o capital de qualquer um dos dois cair para R$1,00, eles farão o próximo jogo com chances iguais - gan- harão ou perderão com igual probabilidade. Determine a matriz de transição de 1 passo para esse caso. Obs: Considere o seguinte experimento: Arremessa-se uma moeda 50 vezes e seja Xn = −1 se uma cara aparecer e Xn = +1 se uma coroa aparecer. Seja {X1, X2, · · · } uma seqüência de variáveis aleatórias discretas independentes. Seja Sk = k∑ i=1 Xi para k = 1, 2, · · · {S1, S2, · · · } é uma seqüência markoviana dependente que pode modelar um problema de rúına de Jogador Clássico onde se ganha R$1,00 e perde R$1,00. (b) Arremessa-se uma moeda 50 vezes e seja Xn = −1 se uma cara aparecer e Xn = +1 se uma coroa aparecer. Defina uma nova seqüência {Yn}, onde a seqüência {Xn}, da seguinte maneira: Y1 = X1, Y2 = X1 + X2 2 , ... Yn = X1 + X2 + · · ·+ Xn n . (c) Identifique a seqüência {Yn}. Trata-se de uma seqüência independente? Uma seqüência de Markov? Um problema da Rúına de Jogador? EXEMPLOSDE MODELOS NÃO-MARKOVIANOS (a) Arremessa-se uma moeda 50 vezes e seja Xn = −1 se uma cara aparecer e Xn = +1 se uma coroa aparecer. Defina uma nova seqüência {Zn}, da seguinte maneira: Z1 = X1, Z2 = X1 + X2 2 , ... Zn+1 = Xn + Xn+1 2 . Com n=1, · · · , 49. (b) Explique porque {Zn} dada acima não é um modelo Markoviano? (c) Numa ilha maravilhosa verificou-se que a cor azul ocorre em borboletas de genótipo aa, e não ocorre em Aa e AA. Suponha que a proporção de borboletas azuis seja 1 4 . Depois de algumas gerações, qual será a porcentagem das borboletas não azuis, mas capazes de ter filhotes azuis? RESPOSTA: Denotando por d, dominante, r, recessivo e h, h́ıbrido, e os repectivos cruzamentos por d× d, d× r, d× h, colocando as probabilidaddes em colunas, podemos montar a seguinte matriz de transição: d× d r × r d× r d× h r × h h× h d 1 0 0 0,5 0 0,25 h 0 0 1 0,5 0,5 0,5 r 0 1 0 0 0,5 0,25 p (2) d p (2) h p (2) r = 1 0 0 0, 5 0 0, 250 0 1 0, 5 0, 5 0, 5 0 1 0 0 0, 5 0, 25 · p (1) d · p (1) d p (1) r · p(1)r 2 · p(1)d · p (1) r 2 · p(1)d · p (1) h 2 · p(1)r · p(1)h p (1) h · p (1) h = = 1 0 0 0, 5 0 0, 250 0 1 0, 5 0, 5 0, 5 0 1 0 0 0, 5 0, 25 · 0, 25 · 0, 25 0, 25 · 0, 25 2 · 0, 25 · 0, 25 2 · 0, 25 · 0, 5 2 · 0, 25 · 0, 5 0, 5 · 0, 5 = 0, 250, 5 0, 25 p (1) d : porcentagem de indiv́ıduos dominantes. p (1) h : porcentagem de indiv́ıduos hibridos. p (1) r : porcentagem de indiv́ıduos recessivos. Obs: p (3) d = p (2) d , p (3) h = p (2) h , p (3) r = p (2) r . Isto não é casualidade. Existe uma ”lei em genética”muito conhecida, que estabelece sob condições ideais que depois da segunda geração, a distribuição entre os genótipos permanece a mesma. APLICAÇÕES DA ÁLGEBRA LINEAR EM CADEIAS DE MARKOV Frequêntemente se deseja estudar a cadeia de Markov que tenha estado em funcionamento há alguma tempo, ou seja, investigar sobre o comportamento das probabilidades de estado n, com n bem grande, isto é, vj = lim n→∞ p (n) j Neste caso vj recebe o nome de Probabilidade de Estado Permanente. Em termos razoáveis pode-se esperar que, ao longo de um grande peŕıodo de tempo, a influência do estado inicial no qual o processo começou pode esmorecer e, assim, as probabilidades limites vj podem não depender do estado inicial. Se for este o caso, então vj também pode ser interpretado como limite das probabilidades de transição de n passos pij, vj = lim n→∞ p (n) ij , já que p (n) ij é a probabilidade do porcesso estar no estado j após n passos, dado que inicialmente estava no estado i. Se realmente cada vj não depende do estado inicial, a matriz P(n) = (p(n)ij ), convergirá para uma matriz V conforme n → ∞, e cada linha será identica ao vetor v, com componetes vj, P(n) → V = v v ... v , quando n →∞, onde v = (v0, v1, . . . , vj, . . .) Deve-se estar atento ás algumas perguntas, tais como: os limites que definen vj existem? Se existitrem, formam uma distribuição de probabilidade? Isto é, somam 1, ∑ vj = 1? Como se pode calcular os vj? se os limites vj = lim n→∞ p (n) ij existem e não dependem do estado inicial, então, fazendo n →∞ na identidade p (n) j = ∑ k p (n−1) k pkj obtem-se vj = ∑ k vkpkj, com j = 0, 1, 2, . . ., ou, equivalentemente, v = v · P Qualquer vetor x = (x0, x1, x2, . . .), com xi ≥ 0 tal que ∑ xi = 1, que satisfaça xj = ∑ k xkpkj, com j = 0, 1, 2, . . . ou x = x · P é chamado de Vetor de Probabilidade Estacionária. Teorema 1.1. Em qualquer cadeia aperiódica de Markov todos os limites vj = lim n→∞ p (n) j existem. Teorema 1.2. Em qualquer cadeia aperiódica de Markov todos os limites vj = lim n→∞ p (n) j = lim n→∞ p (n) ij não dependem da distribuição inicial. Teorema 1.3. Em qualquer cadeia aperiódica irredut́ıvel e finita de Markov, o vetor limite v = (v0, v1, v2, . . .) é o único vetor da probabilidade estacionária do processo. Este último teorema implica que, para ca cadeia aperiódica, irredut́ıvel e finita de Markov, a matriz P(n) = (p(n)ij ) tende à uma matriz que tem todas sua linhas iguais, sendo cada uma delas id entica ao vetor estacionário, ou seja, lim n→∞ P(n) = v v ... v = v0 v1 v2 . . . v0 v1 v2 . . . ... ... ... ... v0 v1 v2 . . . Exemplo 1.2. Suponha que um equipamento tanto possa estar ocupado como inoperante, e que, se estiver inoperante, possa estar parado para reparos, como aguardando mais trabalho. Indiqueos estados ocupado, em reparo, e aguardando mais trabalho por 0, 1 e 2. Observe o estado do sistema em uma sequência de dias sucessivos, e suponha que haja suficiente falta de memóriano sistema, de forma que possa ser aproximado por uma cadeia de Markov com matriz de transição de 1 passo P = p00 p01 p02p10 p11 p12 p20 p21 p22 = 0, 8 0, 1 0, 10, 1 0, 6 0, 2 0, 6 0 0, 4 Assim, por exemplo, p01 = 0, 1significa que a probabilidade de que uma máquina ocu- pada quebre é de 0, 1, p11 = 0, 6 significa que a probabilidade de que uma máquina em reparo hoje ainda esteja em reparo amanhã é de 0, 6, p21 = 0 significa que uma máquina inoperente não se quebra. Se estiver interessado nas proporções de tmepo à longo prazo que o equipamento gasta em três estados, a distribuição limite deverá ser calculada. O sistema é, claramente, irredut́ıvel (cada estado por ser alcaçado partindo de cada outro estado, embora não necessariamente em um único passo, pois leva-se, ao menos, 2 passos para ir do estado 2 para o estado 1). É também finito e aperiódico. De acordo com o teorema 1.3 só se precisa encontrar o único vetor de probabilidade estacionária, resolvendo-se x = xP, com∑ xi = 1. Assim, x0 = (0, 8)x0 + (0, 2)x1 + (0, 6)x2 x1 = (0, 1)x0 + (0, 6)x1 x2 = (0, 1)x0 + (0, 2)x1 + (0, 4)x2 ou (0, 2)x0 − (0, 2)x1 − (0, 6)x2 = 0 −(0, 1)x0 + (0, 4)x1 = 0 −(0, 1)x0 − (0, 2)x1 + (0, 6)x2 = 0 Já que a terceira equação pode ser obtida somando as duas primeiras e multiplicando por −1, a terceira não oferece nenhuma informação adicional, podendo ser eliminada. As duas primeiras equações aliadas ao fato de que ∑ xi = 1, determinarão a única solução, que será do sistema (0, 2)x0 − (0, 2)x1 − (0, 6)x2 = 0 −(0, 1)x0 + (0, 4)x1 = 0 x0 + x1 + x2 = 1 Das duas primeiras equações do sistemas, verifica-se que x1 = 1 4 x0, x2 = 1 4 x0, e substi- tuindo na última equação, obtem-se x0 = 2 3 x1 = 1 6 x2 = 1 6 Assim, o vetor da probabilidade limite é v = ( 2 3 , 1 6 , 1 6 ) , e isso oferece as proporções de tempo, a longo prazo, que o sistema gasta nestes estados. EXERCÍCIOS RESOLVIDOS (a) É observado que as probabilidades de um time de futebol ganhar, perder e empatar uma partida depois de conseguir uma vitória são 1 2 , 1 5 e 3 10 respectivamente; e depois de ser derrotado são 3 10 , 3 10 e 2 5 , respectivamente; e depois de empatar são 1 5 , 2 5 e 2 5 , respectivamente. Se o time não melhorar nem piorar, conseguirá mais vitórias que derrotas a longo prazo? RESPOSTA: G P E G 0,5 0,3 0,2 P 0,2 0,3 0,4 E 0,3 0,4 0,4 Como a matriz das probabilidades é regular, podemos aplicar o teorema (1.5.4)[1]: 0, 5 0, 3 0, 20, 2 0, 3 0, 4 0, 3 0, 4 0, 4 pGpP pE = pGpP pE ⇔ −0, 5pG + 0, 3pP + 0, 2pE = 0 0, 2pG − 0, 7pP + 0, 4pE = 0 0, 3pG + 0, 4pP − 0, 6pE = 0 . Além disso, sabemos que pG + pP + pE = 1. Dáı, pG = 26 79 , pP = 24 79 e pE = 29 79 . (b) Numa cidade industrial, os dados sobre a qualidade do ar são classificados como satisfatório (S) e insatisfatório (I). Assuma que, se um dia é registrado S, a prob- abilidade de se ter S no dia seguinte é 2 5 e que, uma vez registrado I, tem-se 1 5 de probabilidade de ocorrer S no dia seguinte. i. Qual é a probabilidade do quarto dia ser S, se o primeiro dia é I? ii. O que se pode dizer a longo prazo sobre a probabilidade de termosS ou I? RESPOSTA: S I S 0,4 0,2 I 0,6 0,8 Para o item b)Como a matriz das probabilidades é regular, podemos aplicar o teo- rema (1.5.4)[1]:[ 0, 4 0, 2 0, 6 0, 8 ] [ pS pI ] = [ pS pI ] ⇔ { −0, 6pS + 0, 2pI = 0 0, 6pS − 0, 2pI = 0 . Além disso, pS + pI = 1. Dáı, pS = 1 4 e pI = 3 4 . Para o item a) I 4 5 → I 4 5 → I 1 5 → S I 4 5 → I 1 5 → S 2 5 → S I 1 5 → S 3 5 → I 1 5 → S I 1 5 → S 2 5 → S 2 5 → S Portanto, a probabilidade de ocorrer S no quarto dia tendo ocorrido I no primeiro dia é igual a 16 125 + 8 125 + 3 125 + 4 125 = 31 125 . O mesmo resultado pode ser obtido calculando o elemento a12 da 3 a potência da matriz de transição:[ 0, 4 0, 2 0, 6 0, 8 ] · [ 0, 4 0, 2 0, 6 0, 8 ] · [ 0, 4 0, 2 0, 6 0, 8 ] = [ 32 125 31 125 93 125 94 125 ] (c) Considere duas companhias de comidas prontas, M e N. Cada ano, a companhia M conserva 1 3 de seus fregueses, enquanto que 2 3 se transferem para N. Cada ano, N conserva 1 2 de seus fregueses, enquanto 1 2 transferem-se para M. Suponha que a distribuição inicial do mercado é dada por X0 = [ 1 3 2 3 ] i. Ache a distribuição do mercado após 1 ano. Um ano mais tarde, a distribuição do mercado é M N A = [ 1 3 1 2 2 3 1 2 ] M N X1 = AX0 = [ 1 3 1 2 2 3 1 2 ] [ 1 3 2 3 ] De fato, suponhamos que o mercado inicial consiste em k pessoas, e que este número não varia com o tempo. Ao fim do primeiro ano, M mantém 1 3 de seus fregueses e ganha 1 2 de N, ou seja, M tem 1 3 · (1 3 k) + 1 2 · (2 3 k) = 4 9 k fregueses e S tem 2 3 · (1 3 k) + 1 2 · (2 3 k) = 5 9 k fregueses. ii. Ache a distribuição estável do mercado. Como a matriz A é regular, segue pelo teorema da Cadeia de Markov que as probabilidades pM e pN a longo prazo satisfazem o seguinte sistema linear:[ 1 3 1 2 2 3 1 2 ] [ pM pN ] = [ pM pN ] ⇔ { −4pM + 3pN = 0 4pM − 3pN = 0 Além disso, temos que pM + pN = 1. Dáı, podemos concluir que pM = 3 7 e pN = 4 7 . (d) Suponha que somente duas companhias rivais, R e S, manufaturam um certo pro- duto. Cada ano, a companhia R retém 1 3 dos seus fregueses, enquanto que 2 3 passam a ser fregueses de S. Cada ano, S mantém 3 5 se seus fregueses, enquanto que 2 5 se transfere para R. Estas informações podem ser mostradas sob a forma matricial como R S A = [ 1 3 2 5 2 3 3 5 ] R S Ao se iniciar a manufatura, R tem 2 3 do mercado (o mercado é composto pelo número total de fregueses), enquanto que S tem 1 3 do mercado. Representamos a distribuição inicial do mercado por X0 = [ 2 3 1 3 ] Um ano mais tarde, a distribuição do mercado é X1 = AX0 = [ 1 3 2 5 2 3 3 5 ] [ 2 3 1 3 ] De fato, suponhamos que o mercado inicial consiste em k pessoas, e que este número não varia com o tempo. Ao fim do primeiro ano, R mantém 1 3 de seus fregue- ses e ganha 2 5 de S, ou seja, R tem 1 3 · (2 3 k) + 2 5 · (1 3 k) = 16 45 k fregueses e S tem 2 3 · (2 3 k) + 3 5 · (1 3 k) = 29 45 k fregueses. Como a matriz A é regular, segue pelo teorema da Cadeia de Markov que as prob- abilidades pR e pS a longo prazo satisfazem o seguinte sistema linear:[ 1 3 2 5 2 3 3 5 ] [ pR pS ] = [ pR pS ] ⇔ { −5pR + 3pS = 0 5pR − 3pS = 0 . Além disso, temos que pR + pS = 1. Dáı, podemos concluir que pR = 3 8 e pS = 5 8 . BIBLIOGRAFIA (a) BOLDRINE, José Luiz. COSTA, Suelli I. Rodrigues. FIGUEREDO, Vera Lúcia. WETZLER, Henry G. Álgebra Linear. 3a edição. Editora: HARBRA ltda. (b) CLARKE, A. Bruce. Disney, Ralph L. Traduzido por: Gildásio Amado Filho. Probabilidade e Processos Estocásticos. -Rio de Janeiro: Livros Técnicos e Cient́ıficos, 1979. (c) FERNANDEZ, Pedro Jesus. Introdução à Teoria das Probabilidades. Rio de Janeiro, Livros Técnicos e Cient́ıficos; Braśılia, Ed. Universidade de Braśılia, 1973. (d) KOLMAN, Bernard. Traduzido por: João Pitombeira de Carvalho. Álgebra Linear. 3a edição. Editora: Guanabara.
Compartilhar