Baixe o app para aproveitar ainda mais
Prévia do material em texto
1 2 I. INTRODUÇÃO 1.1. Generalidades Qualquer sistema real opera sempre em ambientes onde a incerteza impera, principalmente quando o sistema envolve, pela sua natureza, ações humanas imprevisíveis ou desgaste natural de máquina. Os modelos determinísticos certamente contribuem para a compreensão, em um nível básico, do comportamento dinâmico de um sistema. No entanto, por não poderem lidar com a incerteza, acabamos por ser insuficientes nos processos de tomada de decisão. Assim, recorre-se a Processos Estocásticos como uma forma de regularidade que eles apresentam para serem descritos por modelos probabilísticos. Pode definir-se um Processo Estocástico ( em inglês, “Stochastic Process” ou “Random Process”) como um conjunto de variáveis aleatórias indexadas a um variável (geralmente a variável tempo), sendo representado por { ( ) }. Estabelecendo o paralelismo com o caso determinístico, onde uma função toma valores bem definidos ao longo do tempo, um processo estocástico toma valores aleatórios ao longo do tempo. Aos valores que ( ) pode assumir chamam-se estados e ao seu conjunto x espaços de estados. Como exemplos de processos estocásticos, poderemos considerar: 1) ( ) representa o estado de uma máquina (ligada/desligada) no memento t; 2) ( ) representa o número de clientes em uma loja no instante t; 3) ( ) representa o número de máquinas defeituosa no final de um dia t; 4) ( ) representa a cotação de uma ação na bolsa de valores no final de um dia t; 5) ( ) representa o nível de estoque de uma determinada peça no final de um dia t; 6) ( ) representa a condição de funcionamento de um componente no instante t; Os Processos Estocásticos representam sistemas nos quais o estado muda ao longo do tempo. Estas mudanças não são totalmente previsíveis, mas elas estão associadas a distribuição de probabilidade. Diversos fenómenos reais admitem a modelagem através dos processos estocásticos. Vejamos alguns: Exemplo 7 (cadeia de montagem) Os produtos finais de uma cadeia de montagem, após uma supervisão à que são submetidas, podem ser consideradas defeituosos ou não. Se o n-ésimo produto não tiver defeito, fazemos , caso contrario . Suponha que um produto é defeituoso independentemente dos outros produtos e que a probabilidade de que isto aconteça é p , então é uma sequência de variáveis aleatórias independentes e identicamente distribuídas (i.i.d.) Bernoulli com parâmetros p de sucesso. Exemplo 8 (Estoque). Uma pequena loja de equipamentos eletrodomésticos vende um certo tipo de máquina de lavar roupa. No entanto ela somente pode ter em estoque no máximo cinco unidades. Então se no final do dia a loja tem no estoque somente uma unidade ou nenhuma, o gerente manda buscar tantas unidades quantas forem necessárias para ter cinco na loja no dia seguinte antes de iniciar o expediente. Vamos chamar de a quantidade de unidades na loja no final do n-ésimo dia. Elas podem ser consideradas variáveis aleatória, pois é razoável supor que não temos como prever a quantidade de máquinas de lavar que serão compradas a cada dia. Exemplo 9 (Mobilidade social) Consideremos a história de várias gerações de uma família que ao longo do tempo tem somente um filho. Neste modelo simples, a observação da classe social (alta, média ou baixa) da 3 família para cada geração permitiria descrever sua evolução social ao longo do tempo. Se tivermos uma sociedade composta por famílias deste tipo, podemos escolher ao acaso uma família e para cada geração n chamar de à quantidade que valerá 1 se fora família de classe alta, 2 se ela for de classe média e 3 se for de classe baixa. Desta forma, cada será uma variável aleatória e a sua evolução ao longo do tempo, permitirá tirar conclusões sobre mudanças na estrutura da sociedade. Exemplo 10 (Lucro de uma companhia seguradora). Suponha que uma seguradora recebe c unidades monetárias (u.m.) pelo total dos prêmios que ela cobra dos segurados dentro de uma determinada carteira por período de tempo (mês, semestre, por exemplo). Assuma também que a seguradora coleta os prêmios regularmente e que as indenizações pagas quando os sinistros ocorrem. Além disto, não vamos considerar aqui eventuais despesas administrativas, ganhos ou perdas por investimentos, etecetera. Desta forma, a reserva desta seguradora será afetada somente pela cobrança dos prêmios ou por pagamentos de indenizações na ocorrências de sinistros. Em particular, o lucro da companhia no n-ésimo período ser c − Zn u.m., sendo Zn o valor total de indenizações pago pela seguradora nesse período. Se chamarmos de Ln ao lucro da seguradora desde que essa carteira começa a operar até o final do n-ésimo período, teremos que ∑ O comportamento desta quantidade ao longo do tempo influenciará na saúde financeira da seguradora. Como se pode constatar pelo exemplos apresentados, há casos em que o tempo é considerado de forma discreta ( ... no final do dia t) e outros em que é tomado de modo contínuo (... no instante t). A variável tempo é, por definição, uma variável contínua, a qual pode ser “discretizada” se os fenómenos forem observados a intervalos regulares. Outra constatação que se pode fazer é que os “estados” tanto são valores que a variável ( ) pode assumir (número de clientes, número de máquinas, etc.) como estados (máquinas defeituosas, máquinas em funcionamento, etc.). Chamaremos processo estocástico a qualquer sequencia ou família de variáveis aleatória ( ) , com t ϵ T e sendo T algum espaço de parâmetros. Quando T é enumerável diremos que o processo estocástico correspondente é a tempo discreto. Se T for um intervalo, o processo estocástico será chamado a tempo contínuo. Os valores que tornam as variáveis do processo serão chamados de estados e o conjunto E destes valores será o espaço de estados. Os processos estocásticos podem ter espaço de estados discreto ou espaço de estados contínuo em correspondência com a natureza do conjunto E. Nos exemplos 1 e 7 temos E={0,1}, no exemplo 8, E={0,1,2,3,4,5}, no exemplo 9, E={1,2,3}... OBS.: O comportamento probabilístico de um processo estocástico está caracterizado pelas relações de dependência entre distribuições conjuntas e suas marginais. Exemplo 11: Consideremos os vetores aleatórios discretos (X1,X2) e (Y1, Y2) com funções de probabilidade conjunta: X1 \ X2 0 1 Y1 \ Y2 0 1 0 1 1/4 1/4 1/4 1/4 E 0 1 0 1/2 1/2 0 4 Estas funções de probabilidade são diferentes no entanto as marginais coincidem. ESTADO Conceito de estado ( no domínio do tempo contínuo). A representação entrada/saída de um sistema linear só é válida quando, no tempo inicial, o sistema está no estado estacionário (ESTÁVEL). Assim é válida a seguinte relação: y = H u que indica que, através do operador H, pode-se determinar y(t) para qualquer u(t). Quando o sistema não está inicialmente em estado estacionário é necessário conhecer as condições iniciais para poder determinar o comportamento frente a uma entrada u: O conjunto de condições iniciais que é necessário conhecer para poder determinar y(t) univocamente em t [t0, ) constitui o estado inicial do sistema. Ao aplicar uma força externa (entrada u(t), t [t0, )) a uma partícula (sistema) no tempo t0, o seu movimento (saída y(t)) para t t0, não estará univocamente determinado enquanto não forem conhecidas, também, a posição e a velocidade dessa partícula no tempo t0. Estas duas informações constituem o estado do sistema no tempo t0. “O estado de um sistema no tempo t0 é o conjuntode informações em t0 que, junto com a entrada u(t), t [t0, ), determina univocamente o comportamento do sistema para t t0”. A escolha do estado não é única. O estado é uma quantidade auxiliar que pode não ser facilmente identificável em termos físicos. O estado pode estar constituído por um conjunto finito ou infinito de valores. Considerando só o caso de estados descritos por um número finito de variáveis, eles serão representados por vetores x t , chamados vetores de estado. Cada elemento do vetor é uma variável de estado. O espaço de dimensão “n” em que x t pode variar é o espaço de estados. Na engenharia de controle, uma representação em espaço de estados é um modelo matemático de um sistema físico composto de um conjunto de variáveis de entrada, de saída e de estado relacionadas entre si por meio de equações diferenciais de primeira ordem. Para abstrair-se do número de entradas, saídas e estados, as variáveis são expressas em vetores e as equações diferenciais e algébricas são escritas na forma matricial (esta forma é possível somente quando o sistema dinâmico é linear e invariante no tempo). A representação em espaço de estados (também conhecida como "abordagem no domínio do tempo") fornece uma maneira prática e compacta para modelar e analisar sistemas com múltiplas entradas e saídas. Com p entradas e q saídas, teríamos de outra forma, que escrever transformadas de Laplace para codificar todas as informações sobre um sistema. Diferentemente da abordagem no domínio da frequência, o uso da representação no espaço de estados não se limita a sistemas com componentes lineares e com condições iniciais nulas. 5 O "espaço de estados" refere-se ao espaço cujos eixos são as variáveis de estado. O estado do sistema pode ser representado como um vetor dentro desse espaço. 1.2. Relação entre os vários tipos de Processo Estocásticos 1.3. Classificação dos Processos Estocásticos 1.4. Processos Estocásticos Para melhor entendimento é necessário apresentar alguns conceitos que relacionam variáveis aleatórias e processos estocásticos. Considere por exemplo uma central telefônica( Call Center). Seja n(t) , o número de chamadas presentes nesta central durante um tempo t. Observando este mesmo número de chamadas em função do tempo, em várias centrais idênticas a conclusão é que n(t) é uma variável aleatória. Para entender e representar seu comportamento, será preciso especificar sua função de distribuição de probabilidade para cada possível valor de t. Seguindo o mesmo raciocínio, o tempo de espera na fila u(t) também é uma função aleatória no tempo. Como já se pôde perceber, a modelagem analítica emprega não apenas inúmeras variáveis aleatórias, mas também, sequências ou famílias de variáveis aleatórias que são funções do tempo. Tais funções são chamadas de Processos estocásticos. Com base no conceito de processos estocásticos, podem-se conceituar os denominados “sistemas estocásticos”. Esses são sistemas que apresentam variações aleatórias no seu estado ao longo do tempo. São, portanto, sistemas dinâmicos e com mudanças aleatórias em suas variáveis de estado. A seguir será apresentado um resumo dos tipos de Processos Estocásticos que serão estudados nesta disciplina; 1.4.1. Processos de estado-contínuo ou de estado-discreto: cccc 1.4.2. Processos de Markov: Um processo é dito “de Markov” ou processos “Markovianos” se seus futuros estados dependem apenas do presente. São independente de seu passado. Sua análise é mais simples, uma vez que não é necessário conhecer a trajetória passada do processo. Para prever o futuro é suficiente conhecer o seu estado presente, sendo desnecessário saber a quanto tempo o processo se encontra em determinado estado. Isto se torna possível se o tempo de um estado possui uma distribuição exponencial ( ou dita “sem memória”). a) Em relação ao Estado: Processos de Markov Processo Nascimento e Morte Processo de Poisson Processos Estocásticos 6 Estado Discreto (cadeia): X(t) é definido sobre um conjunto enumerável ou finito. Estado Contínuo (sequência): X(t) caso contrário. b) Em relação ao Tempo (Parâmetro) Tempo Discreto: t é finito ou enumerável. Tempo Contínuo: t caso contrário. Exemplos: 1. Número de usuários em uma fila de banco em um determinado instante: Estado Discreto e Tempo Contínuo. 2. Índice pluviométrico diário: Estado Contínuo e Tempo Discreto. 3. Número de dias chuvosos: Estado Discreto e Tempo Discreto. O Processo Estocástico é subdividido em Cadeia de Markov e Processos de Markov 1.4.2.1. Cadeia de Markov: São processo estocásticos definidos por Espaço de Estados discretos e podem seguir um t de tempo contínuo ou discreto. 1.4.2.2. Processos de Markov: São processos estocásticos definidos por Espaços de Estados contínuos e podem seguir em um t de tempo contínuo ou discreto. Vejam a tabela abaixo: 1.4.3. Processos de Nascimento e Morte: ccc 1.4.4. Processos de Poisson: ccc Para classificar os processos estocásticos analisam-se o espaço de estados, a natureza do conjunto T e as características estatísticas da variáveis que definem o processo. (i) Espaços de estados Se “x” for um conjunto de estados finito ou contável x = {0, 1, 2, ... }, ou seja, o conjunto de inteiros não-negativos), ( ) é um “espaço de estados discretos” ou, como é usualmente referido , uma “cadeia”. Para qualquer outro caso, o processo é designado por “processo de estados contínuos”. Dos exemplos apresentados, os exemplos 1, 2 e 6 são “cadeias” enquanto que o restante podem ser “processos de estados contínuos”. (ii) Variável temporal Tempo t 7 Se o conjunto T, que específica os valores da variável t, for finito ou contável, ( ) é um “processo em tempo discreto” e anotação usada é { ( ) }. Neste caso, T é normalmente o conjunto dos números inteiros não-negativos. Em caso contrário ( ) é designado por “processo em tempo contínuo”, sendo usada a notação { ( ) } . Dos exemplos apresentado, os exemplos 3, 4 e 5 são “processo em tempo discreto” uma vez que representam quantidades observadas dia a dia, enquanto que os restantes são processos estocásticos em tempo contínuo por representarem fenómenos observados em qualquer momento do dia (do tempo). (iii) Características estatísticas das variáveis aleatórias Um processo estocástico diz-se estacionário se o seu comportamento estocástico for independente do tempo, ou seja, se a função distribuição da(s) v.a. que o define(m) não variar no tempo. Um processo estocástico diz-se Markoviano ou de Markov se for estacionário e obedecer a propriedade de Markov ou da “perda de memoria” , isso é, se o seu comportamento futuro apenas for condicionado pelo estado presente, independentemente do seu histórico ou dos estados passados. De fato, para um processo de Markov é completamente irrelevante qualquer informação sobre estados passados ou sobre o tempo de permanência no estado presente. Em um processo estocástico as transições entre estados são causadas pela ocorrência de acontecimentos ou eventos, pelo que a variável aleatória diretamente restringida pela propriedade de ausência de memória é o tempo entre acontecimentos sucessivos (em inglês “interenvent time”). Dados que, como iremos ver mais a diante, a única distribuição contínua que apresenta esta propriedade é a distribuição exponencial, num processo de Markov todos os tempos entre acontecimentos sucessivos tem de ser exponencialmente distribuídos. . De acordo com a relação entre os espaços de parâmetroT como tempo temos: a) Estados Independentes: A relação de dependência entre variáveis aleatória mais simples que podemos pensar a ausência dela, chamaremos de processos de estados independentes a aqueles processos estocásticos tal que todos os seus estados constituem uma família de variáveis aleatórias independentes. Um exemplo é o processo de Bernoulli de parâmetro p. b) Processos de Markov: consideraremos os instantes t1, t2, ... tn ϵ T, com t1 < t2 < ... < tn< t. Um processo X é chamado de processo de Markov quando para todos a, b, a1, ..., an ϵ E vale , - , - Ou seja o estado não depende da sua historia anterior nos instantes t1, t2, ... tn , desde que se conheça o presente e não do passado , assim utilizaremos o tempo presente para encontrar o tempo futuro . Exemplo 12: Martingais: Para os martingais vale o que pode ser previsto sobre o estado do processo num instante futuro sendo que são conhecidos n estados anteriores é exatamente o estado no instante presente . Ex.: Um exemplo de martingais aparece em jogos simples de azar como o seguinte. Suponhamos que no n-ésimo lançamento de uma moeda honesta acrescentamos um valor A ao capital do jogador se sair cara, e subtraímos a mesma 8 quantidade se sair coroa. O jogador começa o jogo com capital igual a k e é admitido ter capital negativo. Vamos supor também que os lançamentos são independentes. Fazendo { Teremos que o capital do jogador no instante do n-ésimo lançamento será Se * + é um processo estocástico, então chamaremos de incremento correspondente ao intervalo (s,t) à variável aleatória . O processo tem incrementos estacionários quando a distribuição de depende dos instantes s e t e para todos os ponto das distribuições s e t os valores dos incrementos sejam iguais. O processo de Poisson tem incrementos estacionários e independentes. Exemplo 13: Movimento Browniano Em 1827, o botânico escocês Robert Brown observou e descreveu o movimento irregular executado por pequenos grãos de pólen suspensos em água. Esta observação aparente mente sem muita importância, tornou-se especialmente relevante alguns anos depois. Embora L. Bachelier em 1900 e A. Einstein em 1905 tenham sido os primeiros a abordar quantitativamente o estudo deste fenômeno, foi o matemático norte americano Norbert Wierner quem em 1923 estudou e formalizou rigorosamente o modelo matemático motivado no fenômeno físico do movimento browniano. É por isso que ele é chamado de processo de Wiener ou movimento browniano, sendo que este último dá ênfase ao processo físico. Considerando o processo a tempo contínuo * + com espaço de estados E = r, que tem as seguintes características: ( i ) ; ( ii ) X tem incrementos independentes; ( iii ) ( ) √ ( ) ∫ ( ) , i.e. ( ); ( iv ) X possui trajetórias contínuas 9 X é conhecido como movimento Browniano em processo Estocástico de Wierner e tem incrementos estacionários e independentes. Veja o gráfico a seguir: Vejamos pro exemplo, como calcular a função distribuição de probabilidade conjunta de para dois instantes fixados s e t tais que . Se fizermos { Usando a independência e a estacionariedade dos incrementos, teremos ( ) ( ) ( ) , ( √ { })( √ ( ) { ( ) }) √ ( ) { ( )} O vetor ( ) segue a distribuição normal bivariada com vetor médio nulo e ( ) 2. O PROCESSO DE BERNOULLI O processo a tempo discreto * + é chamado processo de Bernoulli, com probabilidade de sucesso p se: (i) são variáveis aleatórias independentes e (ii) ( ) Uma trajetória do processo de Bernoulli será uma sequencia de sucessos e fracassos obtidos em ensaios de Bernoulli consecutivos e independentes e com probabilidade p de sucesso. Seja * + um processo de Bernoulli, então: (i) Figura: 2 Trajetória do movimento Browniano 10 (ii) (iii) Considere um processo de Bernoulli * + com probabilidade p de sucesso e defina { é número de sucesso nos n primeiros ensaios de Bernoulli * + é um processo estocástico que será chamado processo do número de sucessos no processo de Bernoulli. O processo * + tem incrementos independentes e estacionários e satisfaz a propriedade de Markov. processo dos instantes dos sucessos ou processo das chegada. Observe que n > 0 temos ( ), pois . Além disso , o processo do número de sucessos no processo de Bernoulli é crescente em que e para . Temos que ( ) ( ) { “Propriedades de transição” do processo estocástico * + do estado j para o estado k, o processo tem incrementos estacionários e independentes. Proposição: (i) Para todo n, ( ) = ( ) = ( ) ( ) (ii) Para todo vale que os incrementos são independentes. Exemplo12: calcule ( ) ( ) ( ) ( ) ( ) . / . / . / Voltando ao exemplo 7, suponha que registramos o número de todos os produtos supervisionados e que não foram defeituosos. Por exemplo, se nos primeiros cinco produtos observados tivemos que somente o primeiro e o terceiro foram defeituosos teríamos que . Então os produtos não defeituosos foram aqueles numerados com índices . Graficamente., podemos representar esta trajetória da forma seguinte: 11 Para o processo de Bernoulli chamaremos a sequencia instantes nos quais acontecem os sucessos consecutivos. Fica definida uma sequencia de variáveis aleatórias formando o processo estocástico * + , chamado de processo dos instantes dos sucessos ou processo das chegada. OBS.: O teorema de De Finetti afirma que uma sequência de variáveis aleatórias com distribuição de Bernoulli é uma "mistura" de variáveis aleatórias Bernoulli independente e identicamente distribuídas (i.i.d). Teorema: Para todo k ϵ n. ( i ) ( ) ∑. / ( ) ( ii ) ( ) . / ( ) Usando ( ). O processo das chegada * + é Markoviano. Teorema : (Propriedade de Markov para os instantes dos sucessos). Para todo k ϵ n e para todo vale: ( ) ( ) Teorema : Para todo k ϵ n, e para todo vale: ( ) ( ) ( ) ( ) ( ) ( ) Logo é a soma de k variáveis aleatórias i.i.d.s com distribuição Geométrica (p). Isto é ( ), logo; , - , - , - , - Exemplo 13: Os componentes de um dispositivo tem tempo de vida (o tempo até falhar) aleatório. Suponha que os componentes são reemplazados imediatamente após falhar e que o tempo de vida, de cada um dos componentes não depende dos outros e tem distribuição Geométrica (p). 12 Se chamarmos de os instantes nos quais acontecem as falhas, então os tempos entre falhas consecutivas serão e ( ) ( ) . Estes instantes , serão os instantes dos sucessos de um processo de Bernoulli. Suponha que foram observados . Com esta informação queremos estimar . Para isso vamos calcular a esperança de ; , - Pela propriedade de Markov: , - , - , - , - , - Definição: Seja * + um processo estocástico. Consideremos para cada conjunto a função de distribuição conjunta do vetor aleatório ( ) que denotaremos por . Que satisfaz a propriedade de consistência. ( ) ( ) Exercícios: 1) Num cruzamento em T, aproximadamente 60% viram à direita. Defina X, como sento 1 ou 0 em dependendo se o p-ésimo carro virou à direita ou esquerda. Suponha que os motoristas decidem para onde virar independentemente um do outro. Então X = { * + é um processo estocástico de Bernolli com probabilidade 0,6 de sucesso. Num certo dia um pedestre observou o que faziam 10 carros que passaram consecutivamente e fez a anotação ( D, E, D, D, D, E, D, E, D, E ) , onde D=direita e E=esquerda. Quais seriam os valores correspondente de; a. b. c. d. Represente em gráfico os instantes dos sucessos no processo de Bernoulli. 2) Para um processo de Bernoulli em p = 0,7 interprete e calcule as seguintes quantidades; a. ( ) b. ( ) c. ( ) 13 3. CADEIA DE MARKOV EM TEMPO DISCRETO 3.1 Definição Uma Cadeia de Markov em Tempo Discreto é um processo estocástico em que a variável t representa intervalos de tempo, { ( ) }e que segue a propriedade de Markov, ou seja, a probabilidade de estar no estado “j” no próximo período depende apenas do estado presente. { ( ) ( ) ( ) ( ) ( ) } { ( ) ( ) } Consideraremos Cadeia de Markov os processos estocásticos com as características: 1) O espaço de estados x é contável (estado discreto). 2) As probabilidades de transição entre estados são constantes no tempo (cadeia de Markov estacionária) { ( ) ( ) } { ( ) ( ) } 2.1. Representação Uma Cadeia de Markov em tempo discreto é definida no caso de estado em que e as probabilidades de transição entre os estados * + em um período. Existem duas formas de representação: graficamente, através do “diagrama de transições”, ou através da matriz quadrada P, ou matriz de transição, que contém as probabilidades de transição em um período. Em um diagrama de transição cada estado é representado por um vértice, e cada arco orientado ligando dois vértices representa uma transição possível entre dois estados em um período, a qual tem uma certa probabilidade de ocorrência (o coeficiente associado ao arco). Na matriz P, cada linha i representa o estado atual e cada coluna j representa o estado futuro (a ordem dos estados atuais deve ser igual â dos estados futuros, respectivamente, nas linhas e nas colunas de P). Deste modo, o elemento da matriz representa a probabilidade de ocorrência da transição do estado i para o estado j em um período. A matriz P estocástica, pois sendo os seus elementos probabilidades, e contendo cada linha ima distribuição de probabilidade ∑ . A probabilidade condicional (3.1) é chamada probabilidade de transição. Vamos restringir o nosso estudo às cadeias de Markov homogêneas, isto é, cadeias nas quais (3.1) não depende do tempo n (3.2). (3.1) (3.2) 14 B W 0,10 0,20 0,80 0,90 Logo, é a probabilidade de passar em qualquer instante do estado i ao estado j. É comum arranjar as probabilidades de transição numa matriz de transição. Se E é finito, por exemplo * +, então: [ ] Definição A matriz ( ) é uma matriz estocástica se ( i ) para todo i,j ϵ E ( ii ) para todo i ϵ E ∑ (somatório de cada linha da matriz é igual a um) Exemplo 14: Na Escócia, ainda hoje, existem duas famílias integrantes da família real europeia, fabricantes dos melhores Whisky, a família de Windsor ( Shivas Regal ) e Bourbon. As duas famílias primam pela qualidade da água utilizada na produção do seu whisky, mesmo sendo a pureza da água encontrada na Escócia o que determina o auto nível de qualidade do whisky escocês. A família Bourbon capta a água nas límpidas corredeiras que descem do degelo dos alpes escoceses, fazendo do seu whisky o mais apreciado no mundo. O que garante os Bourbons 90% de probabilidade de uma pessoa que compre o seu whisky comprá-lo novamente em uma segunda compra. Já a família de Windsor utiliza a água de uma nascente em sua propriedade, o que influencia uma pessoa que tenha comprado seu whisky uma probabilidade de 80% de que o próximo whisky continue sendo o Windsor. Com base nestes dados, pretende-se construir uma cadeia de Markov que represente a situação descrita. Se ( ) representa o tipo de whisky comprado por uma pessoa na sua t-ésima compra, então a cadeia de Markov limita-se a assumir um dos dois valores seguinte B (último whisky comprado foi o Bourbon) ou W (último whisky comprado foi o de Windsor), O espaço de estado será, deste modo X = { B,W }. A cadeia de Markov será escrita pela seguinte matriz (estocástica) de transição: ( ) ( ) ( ) ( ) 0 1 Outra forma de representar a cadeia é através do grafos de transição (topologia): OBS.: As setas entre os estados correspondem às transições, e o grafo é chamado de topologia da cadeia. transições do estado 0 aos estados 0,1,...,N 15 2.2. Probabilidades de Transição O conhecimento das probabilidade de transição entre os estados é de grande importância nas cadeias de Markov. Conforme foi referido anteriormente, as probabilidades de transição em um período fazem parte da definição da cadeia de Markov. É igualmente importante conhecer as probabilidades de transição em n períodos ou passos. Define-se a probabilidade de transição em n passos como: { ( ) ( ) } { ( ) ( ) } Uma das formas de obter o valor de ( ) é calcular as probabilidades de cada um dos caminhos que, partindo do estado i , conduzem ao estado j em n passos, e somá-las. Apesar da aparente simplicidade deste método, à medida que n aumenta também aumenta a possibilidade de esquecimento de caminhos alternativos e o cálculo da probabilidade torna-se mais complexo. Alternativamente pode-se calcular o elemento (i j) da matriz Pn, com mais eficiência. Para demonstrar a equivalência dos dois métodos, retornaremos o exemplo anterior. Suponhamos que se pretende conhecera probabilidade de a terceira compra futura de uma pessoa ser whisky de Windsor, sabendo que no momento presente, comprou o Bourbon, ou seja ( ) . Uma hipótese seria calcular as propriedades de todas as sequências de compras, de forma que a transição BW ocorra em três aquisições ou passos. Assim, verifica-se que só há quatro sequências diferentes de transições em três passos tais que, partindo do estado B, se acaba no estado W: 1) B → W → W → W 2) B → B → W → W 3) B → B → B → W 4) B → W → B → W Relembrando que, se A e B forem independentes, P{A e B}= P{A} x P{B}, podemos então calcular a probabilidade de cada sequência: 1) P {B → W e W → W e W → W} = 0,1 x 0,8 x 0,8 = 0,064 2) P {B → B e B → W e W → W} = 0,9 x 0,1 x 0,8 = 0,072 3) P {B → B e B → B e B → W} = 0,9 x 0,9 x0,1 = 0,081 4) P {B → W e W → B e B → W} = 0,1 x 0,2 x 0,1 = 0,002 Do mesmo modo, P{A ou B} = P{A} + P{B} , pelo que ( ) Houve aqui a aplicação das equações de Chapman-Kolmogorov: ( ) ∑ ( ) ( ) 16 Assumindo q=1 e m=2 aquisições. ( ) * + * + * + * + ???? Este resultado pode ser obtido de outra forma, elemento da linha que corresponde ao estado B (estado atual) e da coluna que corresponde ao estado W (estado futuro) da matriz P3, é exatamente 0,219, como se poderá ver seguidamente. ( ) ( ) ( ) ( ) 0 1 Na verdade, a forma usada para calcular o valor anterior (somar a probabilidades de caminhos alternativos) corresponde exatamente a operação de multiplicação de matrizes que nos conduz a P3, tendo correspondência direta às equações de Chapman-Kolmogorov. É importante referir que se P for matriz estocástica, então qualquer potência de P também é, pois [ ( )], sendo ( ) e ∑ ( ) 2.3. Classificação dos Estados Um caminho do estado i para o estado j é uma sequência de transição com probabilidades de ocorrência positivas que ligam os dois estados (do exemplo anterior: (B→W→B→W). Não existe qualquer limite ao número de transições nem há obrigação de a sequência ser a mais curta entre os dois estados. Definição 2.??? Dizemos que i ϵ E e escrevemos i → j se ( ) para algum n ≥ 1. Dizemos que i e j comunicam-se, o escrevemos i ↔ j se somente se i → j e j → i. Verificamos a transitividade. Suponhamos i → j e j → k. Ou seja Ǝ q ≥ 1 e m ≥ 1 tais que ( ) e ( ) ( ) ∑ ( ) ( ) ( ) ( ) Esta relação de equivalência divide o espaço de estados em classes de equivalência. Então o estado j é atingido a partir do estado i se e somente se houver pelo menos um caminho de i para j. Dois estados i e j se comunicam se somente se existir uma transitividade entre i e j. Sair de i para j ou sair de j para i. Definição 2.3.2. Uma Cadeia é chamada de irredutível, se tem só uma classe de equivalência. Definimos também ∑ ( ) , Onde µi indica o número médio de etapas necessárias para retornar ao estado inicial i. µi é chamado tempo médio de recorrência. 17 1 2 3 0 1 1 1 0,40 0,60 1 2 0 0,60 0,30 0,40 0,70 1 1 2 0 1 0,30 0,70 Dizemos que uma Cadeia de Markov é irredutível se e somente se qualquer estado j for atingido a partir de estados i. Isto é se todos os estados se comunicarem. Definição: 2.3.3. Um estado recorrente é chamado recorrente nulo (recorrente positivo) se ( ) . Teorema: 2.3.1. Um estado i ϵ E é recorrente ou transitório de acordo com que ∑ ( ) Um estado é recorrente ou transitório se existir um estado k que seja atingido pelo estado j, mas sendo j atingido a partir de k. Em outras palavras se j for recorrente ou transitório não há a garantia de que saindo do estado j volte ao estado j. Um estado j é chamado de recorrente se não for transitório, isto é se for sempre possível retornar a j. No próximo exemplo os estados 0 e 1 são transitórios, enquanto os estados 2 e 3 são recorrentes Definição 2.3.4 Um estado j ϵ E é chamado absorvente se ( ) . Um estado é chamado absorvente se houver uma finalização de transição. Em que em um estado existe o processo de chegadas e não tem nenhuma saídas. Um estado recorrente j diz-se periódico com período k > 1 se k for o menor inteiro tal que todos as trajetórias de j para j tiverem um comportamento múltiplo de k ( ou seja, ké o máximo divisor comum dos comprimentos de todos os caminhos do estado j para o estado j). No exemplo seguinte os estados 0 e 1 têm período k = 2. 18 1 1 0 0,75 0,25 Um estado recorrente diz-se aperiódico de k = 1. Uma cadeia de Markov diz-se Ergódica se todos os estados forem recorrentes, aperiódicos e se comunicam. A cadeia seguinte é Ergódica. 2.4. Probabilidade Estacionárias Em uma Cadeia de Markov irredutível e Ergódica decorrido um número muito elevado de períodos de tempo ( ), a probabilidade de o processo estar no estado j é constante e independente do estado inicial i, como se pode observar através da matriz P16, que contém as probabilidades de transição dos dezesseis períodos: ( ) ( ) ( ) ( ) 0 1 A probabilidade chama-se probabilidade estacionária do estado j e representado por . Em outras palavras, ( ) ( ) Tendo esta característica presente, e como (pelas equações de Chapman-Kolmogorov) ( ) pode ser escrito como o produto [linha i x Pn] x [coluna j de P], então para n muito grande, podemos escrever , - , sendo π o vetor linha , -. Isso corresponde a um sistema de equações (π = πP) em que o número de equações é igual ao número de variáveis, sendo ambos iguais ao número de estados. No entanto este sistema é indeterminado, pois uma das equações é redundante; a indeterminação é resolvida acrescentando a equação que garante que a solução seja uma distribuição de probabilidades. Assim, para conhecer as probabilidades estacionárias resolve-se o sistema ∑ (1) ∑ (2) Subtraindo a ambos os membros das equações (1) do sistema elas podem ser reescrita da seguinte forma ( ) ∑ , Tendo a seguinte interpretação: 19 Relembrando o exemplo do whisky, quais as probabilidades estacionárias? O que estes valores significam é que, depois de bastante tempo, cerca de dois terços das pessoas, em média, comprarão o whisky da família Bourbon enquanto que só um terço delas irá comprar o whisky da família Windsor. Deste modo as probabilidades estacionárias podem ser usadas como indicadores das quotas de mercado de cada marca e úteis no processo de tomada de decisão. Conhecendo a sua fatia de mercado, a família Windsor poderá aumentar o grau de fidelização dos seus clientes, aumentando a sua participação mercadológica, servindo o modelo estudado para quantificar estes aumentos. 2.5. Tempos de Transição O tempo (medido em números de períodos) que decorre até que o processo, partindo do estadoi, atingir o estado j pela primeira vez, é chamado tempo de transição. Se o estado final coincidir com o estado inicial ( j = j ), este tempo é chamado de tempo de recorrência para o estado j. O tempo de transição do estado i para o estado j é representado por . Trata-se de uma variável aleatória, uma vez que assumirá diferentes valores. Conhecer a distribuição de probabilidade das variáveis não é fácil. Porém é possível conhecer o valor esperado ( [ ] ), tempo esperado de transição. Para calcular o tempo esperado da transição de i para j , para qualquer que seja a cadeia de Markov, é feita em um período com probabilidade , e em todos os outros casos ( k ≠ j ) o número esperado de períodos será igual a ( ) com probabilidade . O que leva à ( ) ∑ ( ) , A qual depois de simplificada origem ao seguinte sistema de equações lineares: ∑ Voltamos novamente ao exemplo do whisky: [Probabilidade de uma transição saindo do estado j] = = [Probabilidade de uma transição para o estado j] 20 No caso dos tempos médios de recorrência verifica-se que ⁄ . No exemplo considerado, significa que uma pessoa que compre o Bourbon demora, em média, 10 períodos até passar a comprar o whisky da família Windsor. 21 1 2 0,10 0,10 3 0 0,20 0,20 0,20 0,20 1 0,70 2.6. Cadeias de Markov com Estados Absorventes Consideremos agora o caso da cadeia de Markov com estado(s) absorvente(s), uma vez entrando em um estado absorvente j tem não sai mais. Assim, em uma cadeia de Markov qualquer estado que se comunique com um estado absorvente é um estado transitório. Se pensarmos no que acontece à medida que o número de períodos vai aumentando ( ), concluímos que a probabilidade do processo estar em um estado transitório tende para zero. Ou seja, à longo prazo, o processo estará em um estado absorvente. Neste caso interessa conhecer a probabilidade de, estando em um dado estado transitório, o processo vir a entrar em um estado absorvente. Estas probabilidades são chamadas probabilidades estacionárias de absorção, Ou seja, as probabilidades do processo passar de um estado transitório para um estado absorvente em qualquer número de períodos. Para ilustrar este tipo de cadeia de Markov, consideraremos o seguinte exemplo: Exemplo 14: Consideremos a carteira de um grande estabelecimento de produtos informáticos. Cada conta (cliente) são classificadas em dos “estados” de acordo com o nível dos pagamentos já efetuados; Pagou (categoria 0), inadimplente menos que 30 dias (categoria 1), inadimplente menos que 60 dias (categoria 2), depois deste prazo o cliente é considerado caloteiro (categoria 3) e suas contas enviadas a uma empresa de cobrança. Após a análise dos dados históricos, foi construída a seguinte matriz de transição: ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) [ ] Com base neste histórico pretende-se conhecer a probabilidade de um cliente no futuro pertencer à categoria 3 (caloteiro), visto que possa estar no presente na categoria 1 ou 2. Consideremos as seguintes partições da matriz da probabilidade de transição: [ ] Em que: I é a matriz (identidade) que contem as probabilidades de transição entre estados absorventes: 0 é a matriz nula, indicando que não existem transições dos estados absorventes para os estados transitórios; R é a 22 matriz que contem as probabilidades de transição dos estados transitórios para os estados absorventes; Q é a matriz que contem as probabilidades de transição entre estados transitórios. -em 1 período são dadas por R; -em 2 períodos são dadas por QR; -em 3 períodos são dadas por Q2R; ... ... ... ... -em (n – 1) períodos são dadas por QnR; Para obter as probabilidades de passar de um qualquer estado transitórios para algum estado absorvente em qualquer um dos períodos temos que considerar a soma R + QR + Q2R + ... = (I – Q)-1R Ou seja, os elementos da matriz (I – Q)-1R são as probabilidades estacionária de absorção. Alternativamente, chega-se à mesma conclusão se considerasse a matriz Pn quando . A matriz (I – Q)-1 é chamada de matriz fundamental da cadeia de Markov, tendo os seus elementos um significados especial: o elemento ( i j ) representa o número esperado de vezes que o processo passa pelo estado transitório j até que entre em um processo de estado absorvente qualquer, partindo do estado transitório i. ( ) 0 1 Assim, a probabilidade de um cliente ser, eventualmente, caloteiro é igual a 0,032 se o seu débito tiver menos de 30 dias e é igual a 0,254 como também se seu débito tiver entre 30 a 60 dias. ( ) 0 1 O que significa que uma conta com um débito até 30 dias demora 1,27 + 0,16 = 1,43 meses até estar totalmente liquidada. Note que é possível uma conta “ser renovada” (ter um débito até 30 dias ou mais que poderá ser paga integralmente indo para a categoria 0, e ou realizando novas compras. 3. PROCESSO DE POISSON 3.1. Introdução Apresentaremos aqui o processo de Poisson. Este processo estocástico deve o seu nome ao matemático francês Simion- Denis Poisson (1781 - 1840). Veremos que ele pode ser definido em termos das ocorrências de eventos, em outras palavras, se denotarmos este processo como * + e fixarmos o tempo no instante t, teremos que é um número inteiro que representa o número de chegadas ou eventos até o instante t. O processo de Poisson é portanto, um processo estocástico a tempo contínuo, isto é T = [0,∞), e com espaço de estados * + . Exemplo: Suponha que e suponha que não chegam dois “eventos” no mesmo instante, uma realização do processo poderia ser 23 Que também pode ser representada como um trajetória; Como é ilustrado na figura acima, cada trajetória do processo é uma função escada. O número de eventos no intervalo ( - será . Veremos que ele é independente do número de eventos até o instante * +. Em outras palavras, o processo tem incrementos independentes. O processo de Poisson 3.2. Definição: Um processo contínuo * + definido sobre um espaço amostral , com espaço de estado e tal que para todo evento elementar ω ϵ , a trajetória correspondente, ( ), verifique; ( 1 ) é não decrescente; ( 2 ) cresce somente com saltos. ( i.e. é constante entre os saltos); ( 3 ) é contínua a direita e tem limite à esquerda; ( 4 ) ( ) É chamado processo de contagem ou processo das chegadas. Sejam os tempos das chegada (ou os tempos dos saltos ou dos instantes nos quais ocorrem os eventos). Estas variáveis definem um processo a tempo discreto. Uma trajetória típica deste processo é: 24 3.3. Definição 2: O processo de contagem * + é chamado de processo de Poisson homogêneo se ( 1 ) os saltos têm comprimento um; ( 2 ) é independente de * + , para todo t, s > 0; ( 3 ) a distribuição de é independente de t. A propriedade (3) expressa que os incrementos do processo são estacionários. O processo de Poisson fica definido então como um processo de contagem com saltos de valor um e incrementos estacionários e independentes. Alguns exemplos de situações que podem ser modeladasusando o processo de Poisson aparecem a seguir. (1) O número de ligações que chegam numa central telefônica durante um intervalo de tempo determinado define um processo de Poisson, se supormos que o número de chamadas recebidas durante intervalos disjuntos são independentes, dependem somente do comprimento do intervalo e se pudermos assumir que há um número médio constante de chegadas por unidade de tempo. Em problemas mais realistas, este número médio depende do tempo, sendo mais apropriado o modelo de Poisson não homogêneo. (2) O número de fótons que chega num detector de fótons ao longo do tempo. (3) Os astrônomos podem considerar o número de estrelas num volume determinado no espaço como uma variável aleatória de Poisson e o número de estrelas em regiões disjuntas podem ser consideradas independentes. Com estas suposições, o número de estrelas observadas num volume V é um processo de Poisson tridimensional sobre o espaço definido pelo volume V. A definição que temos apresentado do processo de Poisson não coloca nenhuma restrição explícita sobre a distribuição das variáveis Nt. No entanto, estas distribuições estão determinadas pela definição dada. A seguir calcularemos a distribuição de Nt. Isto será a consequência de uma série de proposições. Proposição 1: Existe uma constante tal que todo t > 0, ( ) Proposição 2: 25 ( ) Este processo não é explosivo, i.e. não acontecem dois ou mais eventos no mesmo instante. Se t → 0 então e . Logo basta mostrar que . / . Para isso dividimos o intervalo [0,1] em subintervalos de comprimento . Seja o número dos subintervalos onde temos mais de dois eventos, então é o número de sucessos num processo de Bernoulli com probabilidade de sucesso . /. Logo ( ) Considere uma realização ω do processo Nt, para n grande os subintervalos são suficientemente pequenos como para conter no máximo um evento. Logo (ω) . Agora usamos o fato de , que implica , e para concluir que ( ) Proposição 3: ( ) Teorema 1: Seja * + o processo de Poisson, então existe tal que ( ) ( ) ( ) , com ( ) ( ) Corolário: Seja * + o processo de Poisson com taxa , então: ( ) ( ) ( ) Exemplo: Seja * + o processo de Poisson com taxa . Achar ( ) Solução: 26 ( ) ( ) ( ) ( ) ( ) ( ( )) ( ) ( ( )) ( ) ( ( )) ( ) Teorema: * + é o processo de Poisson com taxa se e somente se. ( 1 ) com probabilidade um os saltos das trajetórias ( ) têm valor um; ( 2 ) Para todo vale que , - Considere o conjunto ( - ; O número de eventos que ocorrem no intervalo ( - está definido como ( - Pelo fato dos incrementos do processo de Poisson ser independentes e identicamente distribuídos, ( - ( ) Mas (( -) , onde (( -) é o comprimento do intervalo ( -. Isto é é um intervalo então, ( ) ∫ Podemos estender esta definição a um conjunto e considerar o número de eventos que acontecem neste conjunto. Qual será a distribuição ( ( )) Teorema: O processo Nt de Poisson, com taxa , se e somente se para todo que seja união finita de intervalos disjuntos vale. ( ) ( ) ( ) Suponha agora que conhecemos que em instantes no conjunto ( - ocorreram k eventos. Gostaríamos de ter informação sobre os instantes em que eles ocorreram. Teorema: Seja intervalos disjuntos dois a dois e tais que e ( ) ( ( ) ∑ ). Sejam tais que . Então vale ( ) . / . / Logo ( ) ( . / . /) 27 Podemos generalizar este resultado: Teorema: Lei dos grandes Números do processo de Poisson. Se . Logo, um estimador consistente da taxa do processo é: , - E um intervalo de confiança assintótico para este estimador pode ser obtido do seguinte resultado. Teorema: Teorema Central do Limite do processo de Poisson. √ ( ) Observe que se t for grande se comporta aproximadamente como uma normal de média e variância . 2.1. TEMPOS DE CHEGADA Vamos considerar os tempos de chegada do processo de Poisson. Eles são os tempos nos quais acontecem os eventos do processo. O tempo de chegada está definido por * + Observe que A distribuição de pode ser obtida a partir da distribuição do processo a partir da igualdade dos seguintes eventos * + * + Assim, ( ) * + ∑ ( ) A avaliação desta expressão é complicada. No lugar de fazer isto vamos mostrar por outra via que ( ) e para isso vamos estudar propriedades do processo dos tempos das chegadas, * + . 28 Uma observação importante é que conhecer o processo até o instante * + é o mesmo que conhecer o processo dos tempos das chegadas até o instante n, i.e. * + , isto é fácil de visualizar na seguinte figura. Sabendo que para vale ( ( - ) ( ( - ) 2.2. n 29 3. CADEIA DE MARKOV EM TEMPO CONTÍNUO Uma cadeia de Markov em tempo contínuo é, como a designação indica, uma cadeia de Markov em que a variável tempo é contínua, representando instantes ou momentos do tempo. Assim, uma cadeia de Markov em tempo contínuo é um processo estocástico { ( ) } com a propriedade de Markov, ou seja, a probabilidade do processo estar no estado j em um momento futuro depende apenas do estado presente. ( ) { ( ) ( ) ( ) } { ( ) ( ) } As cadeias de Markov seguem as características: 1. O espaço de estado x é finito ou contável 2. As probabilidades de transição de um estado para outro não dependem do tempo de permanência nesses estado (cadeia estacionária); ( ) { ( ) | ( ) } * ( ) ( ) } 3.1. Tempos de Permanência no Estado O tempo que o processo permanece em cada estado passa a ser considerado importante, pois o processo é em tempo contínuo e não em tempo discreto. Este tempo é naturalmente, incerto ou aleatório. Seja a variável aleatória “tempo de permanência no estado i”, isto é, o tempo necessário para que o sistema saia do estado i, efetuando umatransição para outro estado. Então, facilmente se conclui que o processo permanece no estado i entre os instantes 0 e t se somente se o tempo de permanência no estado i for superior a t, { ( ) ( ) } * + * + Por outro lado, o sistema permanece no estado i, entre os instantes s e (t + s) se e somente se o tempo necessário para que o sistema seja do estado i for superior a (t + s), dado que o tempo de permanência no estado i era superior a s, ou seja, { ( ) ( ) } * + 30 Como { ( ) ( ) } { ( ) ( ) } Então * + * +. Em outras palavras, a distribuição de variáveis aleatória “tempo de permanência num dado estado” é independente do tempo que o processo já tenha passado neste estado (p ropriedade da ausência de memória ). Como a única distribuição contínua que goza desta propriedade é a distribuição exponencial, concluímos que tem distribuição exponencial. Suponhamos que a variável aleatória tem distribuição exponencial com parâmetro (taxa) . Então a função distribuição de probabilidade é dada por * + . O valor esperado é , - ⁄ e a variância é , - ⁄ . Lembrando que a média e o desvio padrão são iguais. A distribuição exponencial goza de duas propriedades muito importantes no estudo da cadeia de Markov em tempo contínuo; 1. Propriedade da “ausência de memória” * + * + 2. Se a variável aleatória for o mínimo de diferentes variáveis independente ( ), cada qual com distribuição exponencial de parâmetro (i=1,2,...,N), então tem distribuição exponencial, sendo o parâmetro dado por ∑ . 3.2. Representação Uma cadeia de Markov em tempo contínuo fica completamente definida se conhecendo os estados , s, o parâmetro da distribuição (exponencial) de cada variável ( tempo de permanência em cada estado i ) e as probabilidades de o processo transitar para o estado j, dado que saiu do estado i ( ). Em alternativa para conhecer os parâmetros e as probabilidades , basta encontrar as taxas de transição entre os estados , A interpretação intuitiva de e de é de que se trata de taxas de transição. Concretamente, é a taxa de transição para fora do estado i, significando que é o número esperado de vezes que o processo sai do estado i por unidade de tempo permanecido no estado i. Assim é o inverso do tempo médio de permanência no estado i, então , - ⁄ . De modo semelhante, é a taxa de transição do estado i para o estado j, significando que é o número esperado de vezes que o processo efetuou uma transição de i para j por unidade de tempo passado em i. Existem duas formas de representação: graficamente através dos grafos , ou através de uma matriz quadrada U que contem as taxas de transição. Num grafo – topologia do processo de transição onde cada estado é representado por um vértice, e cada arco orientado ligando dois vértices representa uma transição possível entre dois estados, sendo o coeficiente associado ao arco à respectiva taxa. 31 Na matriz U, cada linha i representa o estado atual e cada coluna j representa o estado futuro (a ordem dos estados atuais deve ser igual a dos estados futuros, respectivamente, nas linhas e nas colunas de U). Deste modo , o elemento da matriz representa a taxa de transição do estado i para o estado j. As taxas de transição são dadas por ( ), e portanto verifica-se que ∑ ∑ 3.3. Probabilidades Estacionárias No estado das cadeias de Markov em tempo contínuo interessa conhecer as probabilidades estacionárias ( ) em estar em diferentes estados ( ). Para se obterem as responsabilidades estacionárias, escrevem-se as chamadas “equações de balanço” que traduzem a ideia de que, em equilíbrio, a taxa de saídas de qualquer estado deve se igual à taxa média de entradas nesse mesmo estado. Essas equações constituem a seguinte sistema; ∑ (1) Á semelhança do que acontecia nas cadeias em tempo discreto, também o sistema (1) é indeterminado. As probabilidades estacionárias são encontradas pela equação seguinte; ∑ (2) Consideremos o exemplo seguinte: Uma máquina, integrada em uma linha de produção, solda duas peças idênticas. Sabe-se que o tempo entre duas chegadas consecutivas de peças à máquina tem uma distribuição exponencial com média igual a um quarto de hora. Da mesma forma, tempo de soldagem segue uma distribuição exponencial com média igual á meia hora. Pretende-se construir um cadeia de transição que represente a situação descrita, determinando as probabilidades estacionárias. Se ( ) representar o número de peças na máquina no momento t, então ( ) limita-se a assumir um dos três valores seguinte: 0 , 1 ou 2 peças. O espaço de estados será, deste modo, x={0, 1, 2}. Existem apenas dois tipos de acontecimentos: chegada de uma peça à máquina ( ) e saída das duas peças soldadas ( ). As transições 0→1 e 1→2 correspondem à chegada de uma peça à máquina, enquanto que a transição 2→0 correspondem à saída das peças soldadas. Não se considera a possibilidade de haver a transição 0→2 pelo fato de se considerar que só ocorre um evento de cada vez (é possível efetuar a separação temporal de acontecimentos quase simultâneo). 32 A matriz que contem as taxas de transição é a seguinte: ( )( )( ) ( ) ( ) ( ) [ ] Para calcular as probabilidade estacionárias, escrevemos as equações de balanço e a equação de normalização: Equações de balanço: estado 0: estado 1: estado 2: Equação de normalização: A solução do sistema é , e . Significa que a máquina passa 25% do tempo com 0 ou 1 peça e 50% com 2 peças. 4. PROCESSOS DE NASCIMENTO-MORTE 4.1. Generalidades Os processos de Nascimento-Morte são processos estocásticos muito utilizados na descrição de Sistema de Filas de Espera, dada a sua particular estrutura: as transições de qualquer estado só são possíveis para estados “vizinhos” (i.e. de um estado i para os estados i+1 ou i-1). De fato, adaptando um espaço de estado x = {0,1,2,...} e representando cada estado e representando cada estado com um certo “nível de população” (número de clientes em uma loja, número de mensagens na caixa de e-mail, número de mensagens no whatsApp, número de produtos a serem processados, produzidos embalados, etc.) tais transições podem ser facilmente interpretadas: a a transição do estado i para o estado i+1 será um “nascimento” (por exemplo, chegada de um cliente), por significar um aumento do “nível de população” , enquanto que a transição do estado i para o estado i-1 será uma “morte” (saída de cliente já atendido), por significar um decréscimo do “nível da população”. 1 2 4 0 4 2 33 1 0 𝜇 3 2 𝜇 𝜇 𝜇 𝜇 𝜇 𝜇 𝜇 ... 4.2. Equações de Balanço As equações de balanço são escritas a partir da topologia de transição, pois o fato de as transições de qualquer estado só serem possíveis, para no máximo, dois estados. Consideremos a seguinte topologia As equações de balanço serão: Estado 0: Estado 1 ( ) Estado 2: ( ) ... Estado n:( ) Da primeira equação concluímos que ( ⁄ ) . Da segunda equação, e substituindo pela sua expressão em termos de , tiramos que ( ⁄ ) . Prosseguindo da mesma forma é possível exprimir as restantes probabilidades em termos de , e através da equação de normalização encontrar o valor de . E assim, calcular as probabilidades estacionárias restantes. 5. TEORIA DA FILAS 5.1. Introdução: Ao efetuar certos tipos de estudos de planejamento, é comum depararmos com problemas de dimensionamento ou fluxo cuja solução é aparentemente complexa. O cenário pode sert a linha de produção de uma fábrica, o tránsito de uma cidade, o fluxo de documentos em um escritório, o movimento de navios e cargas em um porto, o movimento de veículos, equipamentos e minério em uma mineração, etc. Estes estudos podem ser efetuados para obter modificações de layout, ampliações de fábricas, troca de equipamentos, reengenharia, automatização, dimensionamento de uma nova fábrica, etc. Geralmente estamos interessados em dimensionar: A quantidade correta de equipamentos (sejam eles máquinas, veículos, etc.) e pessoas; O melhor layout e o melhor fluxo dentro do sistema que está sendo analisado. 34 Assim, dado um determinado objetivo de produção ou de qualidade de atendimento, o estudo vai procurar definir a quantidade adequada de atendentes (equipamentos, veículos, pessoas, etc.) que devem ser colocados em cada estação de trabalho, assim como o melhor layout e o melhor fluxo. Ou seja, desejamos que o sistema tenha um funcionamento eficiente. Algumas vezes procuramos uma solução otimizada e, em outras, apenas a mais adequada. Assim, um determinado estudo pode procurar a melhor qualidade do serviço prestado, a qualquer custo, ou o menor custo dentro de uma faixa aceitável de qualidade para o serviço prestado. O ponto de partida de qualquer estudo geralmente é a correta escolha da qualidade esperada do atendimento. Outras variáveis importantes são os recursos disponíveis e as limitações de funcionamento. Qualquer que seja o objetivo do nosso trabalho, a modelagem é feita de modo que não exista nenhum gargalo, ou seja, um ponto de estrangulamento no luxo que implica uma perda inaceitável para o sistema como um todo. Balanceado – Um sistema ou processo adequadamente dimensionado (sem nenhum gargalo) está balanceado. É importante destacar que um sistema balanceado (balanced system) não é obrigatoriamente um sistema otimizado: garante-se, apenas, a prestação de um certa qualidade de atendimento, mas não o atendimento ótimo. Eventualmente um sistema balanceado pode estar, também, otimizado relativamente a custo, benefícios ou qualidade do serviço prestado. Um importante componente do sistema são as filas. Quando alguma delas assume valor além dos adequados, passam a constituir gargalos. 5.2. Definição O que são Filas? Qualquer pessoa sabe exatamente o que são filas, em decorrência das experiência que o dia a dia nos coloca. Nós entramos em uma fila no banco para sacar ou depositar no caixa, ou no caixa eletrônico, para pagar as compras em um supermercado, para comprar ingresso em um cinema, para entrar no cinema, para entrar no estádio de futebol, para pagar o pedágio em uma estrada, para pegar o elevador da faculdade e tantas outras situações. Filas existem também em ambientes de produção, tais como de lingotes aquecidos em um aciaria, esperando pelo serviço de lingotamento, ou caminhões em uma mineração, esperando, junto a uma carregadeira, a vez de serem carregados com minério. Algumas vezes as filas são algo abstrato, tais como uma lista no computador referentes a pedidos de manufatura em uma fábrica de geladeiras, ou um pilha de papeis referente a solicitação de reparos de máquinas estragadas dentro de uma fábrica, que devem aguardar a disponibilidade do reparador. Outras vezes a fila não é vista ”enfileirada” mas, sim, dispersas, como, por exemplo, pessoas em um barbearia, esperando pela vez de cortar o cabelo, aviões sobrevoando um aeroporto, esperando pela vez para aterrissar, ou navios parados no mar, esperando pela vez de atracar no porto para descarregar Uma área de muita importância surgiu nas ultimas décadas: filas em computadores,. Aqui temos filas de programas esperando por espaço na memória, ou para serem atendidos pela UCP (Unidade Central de Processamento), ou para buscar um registro de dados em disco rígido ou CD ou DVD, ou ainda para ter acesso a um servidor por meio da rede. 35 Filas não são simpáticas Filas são dispendiosas 5.3. Teoria das Filas e Simulação: A teoria das Filas é um método analítico que aborda o assunto por meio de fórmulas matemática. Já a simulação é uma técnica que , usando o computador digital, procura montar um modelo que melhor represente o sistema em estudo. 5.3.1. Aplicações de modelagem de sistemas Linhas de Produção Transportes Modelos Modelo de elevador Comunicações Bancos, Supermercados, Escritórios, etc. Confiabilidade Processamento de dados 5.4. Elementos de Uma Fila 5.5. Características de Uma Fila 36 6. REFERENCIAS: Çinlar, Erhan. Introduction Stochastic Processe, . Prentice Hall, New Jersey, 1975 Hillier, G and J Lieberman. Introduction to Operations research, sisth Editions, McGraw-Hill, 1995 Ross, Sheldon M.. Stochastic Processes, Jhon Wiley & Sons, 1983 Alves, R. e Delgado C.. Processos estocásticos , Universidade do Porto Notas de Aula, Faculdade de Economia, Universidade do Porto, 1997. Hinojosa, A. e Milanés A. Uma Introdução aos Processos Estocásticos com Aplicação, Notas de aula UFMG Markov https://en.wikipedia.org/wiki/Markov_chain Poisson https://en.wikipedia.org/wiki/Poisson_point_process Processo estocástica https://pt.wikipedia.org/wiki/Processo_estoc%C3%A1stico Estocástico https://pt.wikipedia.org/wiki/Estoc%C3%A1stico http://www.de.ufpe.br/~rjdsc/teaching/2012.1/et592/ exercícios http://www.ufjf.br/epd042/files/2009/02/cadeiaMarkov.pdf
Compartilhar