Baixe o app para aproveitar ainda mais
Prévia do material em texto
Processos Estocásticos Mestrado em Ciências Actuariais Alexandra Bugalho de Moura �ĚŝĕĆŽ�ŶǑ͗�ϵϱ YƵĂĚƌŽƐ�ĚĞ�ĚŝǀĞƌƐĂƐ�ŽƌŐĂŶŝnjĂĕƁĞƐ�ŶĆŽͲŐŽǀĞƌŶĂŵĞŶƚĂŝƐ͕�ŵŝŶŝƐƚĠƌŝŽƐ�Ğ�ŝŶƐƟƚƵŝĕƁĞƐ�ĚĞ�ĞŶƐŝŶŽ�ƐƵƉĞƌŝŽƌ�ĞƐƟǀĞƌĂŵ�ƌĞƵŶŝĚŽƐ�Ă�ϭϬ�ĚĞ��ďƌŝů͕�Ğŵ� DĂƉƵƚŽ͕�Ğŵ�^ ĞŵŝŶĄƌŝŽ�ƐŽďƌĞ�Ă�&ŽƌŵĂĕĆŽ�Ğ��ĚƵĐĂĕĆŽ�/ŶĐůƵƐŝǀĂ͘�KƌŐĂŶŝnjĂĚŽ�ƉĞůĂ�&ĂĐƵůĚĂĚĞ�ĚĞ��ĚƵĐĂĕĆŽ�ĚĂ�h�D�;&����Ϳ͕�Ž�ĞǀĞŶƚŽ�ƟŶŚĂ�ĐŽŵŽ� ŽďũĞĐƟǀŽ�ƌĞŇĞĐƟƌ�ƐŽďƌĞ�Ă�ƋƵĞƐƚĆŽ�ĚĂ�ŝŶĐůƵƐĆŽ�ŶŽ�ƉƌŽĐĞƐƐŽ�ĚĞ�ĞŶƐŝŶŽ�Ğ�ĂƉƌĞŶĚŝnjĂŐĞŵ�ƋƵĞ�ĐŽŶƟŶƵĂ�ŵƵŝƚŽ�ĂƋƵĠŵ�ĚĂƐ�ĞdžƉĞĐƚĂƟǀĂƐ͕�ŶŽ�ƉĂşƐ͘ ��WĄŐ͘�ϴ �ďƌŝů��ͻ��ϮϬϭϱ WĄŐ͘�ϰ WĄŐ͘�ϲ WĄŐ͘�Ϯ &$,&&�GLVWLQJXLGR�QD�FDWHJRULD�GH�2XUR� SHOD�*OREDO�,QQRYDWLRQ�:HHN� �ĞĐŽƌƌĞƵ�ŶŽƐ�ĚŝĂƐ�ϴ�Ğ�ϵ�ĚĞ��ďƌŝů͕�Ğŵ�DĂƉƵƚŽ͕�Ž�^ ĞŵŝŶĄƌŝŽ�ZĞŐŝŽŶĂů�ƐŽďƌĞ�Ž��ĂƌďŽŶŽ�ĚŽƐ� DĂŶŐĂŝƐ�ĚŽ��ĞůƚĂ�ĚŽ�ĂŵďĞnjĞ͘�K�ĞǀĞŶƚŽ͕�ƋƵĞ�ƌĞƷŶĞ�ă�ŵĞƐŵĂ�ƐĂůĂ�ĐŝĞŶƟƐƚĂƐ�ƌĞŐŝŽŶĂŝƐ�Ğ� ŝŶƚĞƌŶĂĐŝŽŶĂŝƐ͕� ĐŽŶƐƟƚƵŝ� Ƶŵ� ĞƐƉĂĕŽ� ĚĞ� ĂƉƌĞƐĞŶƚĂĕĆŽ� ĚŽƐ� ƌĞƐƵůƚĂĚŽƐ� ĚŽ� WƌŽũĞĐƚŽ� ĚŽ� �ĂƌďŽŶŽ�ĚŽƐ�DĂŶŐĂŝƐ�Ğ�ƉƌĞƚĞŶĚĞ�ƚƌĞŝŶĂƌ�ŽƐ�ƉĂƌƟĐŝƉĂŶƚĞƐ�ĚĞ�ŵĞƚŽĚŽůŽŐŝĂƐ�ĚĞ�ĂǀĂůŝĂĕĆŽ� ĚŽ�ĐĂƌďŽŶŽ�Ğ�ĚĞ�ŵŽŶŝƚŽƌŝĂ͕�ŝŶǀĞŶƚĂƌŝĂĕĆŽ�ĚĂ�ǀĞŐĞƚĂĕĆŽ�Ğ�ŵĂƉĞĂŵĞŶƚŽ͘ ��hŶŝǀĞƌƐŝĚĂĚĞ��ĚƵĂƌĚŽ�DŽŶĚůĂŶĞ�;h�DͿ�Ğ�Ž��ĂŶĐŽ��ŽŵĞƌĐŝĂů�Ğ�ĚĞ�/ŶǀĞƐƟŵĞŶƚŽƐ�;��/Ϳ� ĂƐƐŝŶĂƌĂŵ�ŶĂ�ŵĂŶŚĆ�ĚĞ�ŚŽũĞ͕�ϬϮ�ĚĞ��ďƌŝů͕�ƵŵĂ��ĚĞŶĚĂ�ĚĞ��ŽŶƚƌĂƚŽ�ĚĞ�WĂƌĐĞƌŝĂ�ĞŶƚƌĞ�ĂƐ� ĚƵĂƐ�ŝŶƐƟƚƵŝĕƁĞƐ�ǀŝƐĂŶĚŽ�Ž�ĂƉŽŝŽ�ĚĂƐ�ĂƌƚĞƐ�Ğ�ĐƵůƚƵƌĂ�ŶĂ�h�D͘���ƌĞŶŽǀĂĕĆŽ�ĚŽ�ĐŽŶƚƌĂƚŽ͕� ĐŽŵ�ĚƵƌĂĕĆŽ�ĚĞ�ϯ�;ƚƌġƐͿ�ĂŶŽƐ͕�ƉĞƌŵŝƚĞ�Ă�h�D�Ƶŵ�ĞŶĐĂŝdžĞ�ĮŶĂŶĐĞŝƌŽ�ĚĞ�hŵ�DŝůŚĆŽ�ĚĞ� DĞƟĐĂŝƐ� ĚĞƐƟŶĂĚŽƐ� ă� ĂĐƟǀŝĚĂĚĞƐ� ĚĞ� ĚĞƐĞŶǀŽůǀŝŵĞŶƚŽ� ĚŽƐ� ŵƵƐĞƵƐ� Ğ� ĞƐƉĂĕŽƐ� ŵƵƐĞŽůſŐŝĐŽƐ͘� 8(0�H�%&,�UHQRYDP�SDUFHULD 0DSXWR�DFROKH�6HPLQiULR�5HJLRQDO� VREUH�R�&DUERQR�GRV�0DQJDLV 81,9(56,'$'( ( ' 8$ 5 ' 2 021'/$1( �ŽůĞƟŵ�/ŶĨŽƌŵĂƟǀŽ�ĚĂ�hŶŝǀĞƌƐŝĚĂĚĞ��ĚƵĂƌĚŽ�DŽŶĚůĂŶĞ )$&('�UHDOL]D�SULPHLUR� 6HPLQiULR�VREUH�(GXFDomR� ,QFOXVLYD�QR�SDtV Agosto 2017 Alexandra Bugalho de Moura Processos Estocástico, UEM Agosto 2017 1 / 13 Outline Outline 1 Processos de Markov homogéneos em tempo contínuo Alexandra Bugalho de Moura Processos Estocástico, UEM Agosto 2017 2 / 13 Processos de Markov homogéneos em tempo contínuo Processo de Markov homogéneos em tempo contínuo Cadeia de Markov dos saltos de um processo de Markov em tempo contínuo Seja {X (t)}t>0 um processo de Markov homogéneo em tempo contínuo Q a matriz de taxa de transição do processo, ou seja, a matriz das intensidades do saltos de i para j , para todo i , j ∈ S Wn o instante do n-ésimo salto: W0 = 0, Tn = Wn+1 −Wn e P(Tn > t|X (Wn) = i) = eqii t X∗n = X (Wn), n > 0 Então {X∗n }n>0 é uma cadeia de Markov em tempo discreto e designa-se cadeia dos saltos do processo de Markov Alexandra Bugalho de Moura Processos Estocástico, UEM Agosto 2017 3 / 13 Processos de Markov homogéneos em tempo contínuo Processo de Markov homogéneos em tempo contínuo Cadeia de Markov dos saltos de um processo de Markov em tempo contínuo Estamos apenas interessados nos instantes em que ocorrem saltos Passamos de um processo de Markov (homogéneo) em tempo contínuo, para uma cadeia de Markov em tempo discreto A probabilidade de transição de i para j é a probabilidade do processo transitar (“saltar”) de i para j Cadeia de Markov dos saltos de um processo de Markov em tempo contínuo Matriz de probabildiades de transição da cadeia dos saltos do processo de Markov: P∗ = ( p∗ij ) i,j∈S tal que p∗ij = qij −qii , se j 6= i p∗ii = 0 se qii < 0 { p∗ij = 0, se j 6= i p∗ii = 1 se qii = 0 Alexandra Bugalho de Moura Processos Estocástico, UEM Agosto 2017 4 / 13 Processos de Markov homogéneos em tempo contínuo Processo de Markov homogéneos em tempo contínuo Exemplo (unidade de tempo: anos) Qual a matriz de probabilidade de transição da cadeia de saltos deste processo? Alexandra Bugalho de Moura Processos Estocástico, UEM Agosto 2017 5 / 13 Processos de Markov homogéneos em tempo contínuo Processo de Markov homogéneos em tempo contínuo Estados acessíveis O estado j diz-se acessível a partir do estado i , para uma cadeia de Markov homogénea em tempo contínuo, se P(X (s) = j |X (0) = i) = pij (s) > 0, para algum s > 0 Estados e classes comunicantes Tal como nas cadeias de Markov em tempo discreto, os estados i e j são comuncantes se i é acessível a partir de j e j é acessível a partir de i É imediato que i e j comunicam numa cadeia de Markov em tempo contínuo sse comunicam na cadeia de Markov discreta dos saltos {X∗n }n>0 Logo, também nas cadeias de Markov em tempo contínuo o espaço de estados pode ser particionado em classes comunicantes (de equivalência) disjuntas Alexandra Bugalho de Moura Processos Estocástico, UEM Agosto 2017 6 / 13 Processos de Markov homogéneos em tempo contínuo Processo de Markov homogéneos em tempo contínuo Cadeia irredutível Uma cadeia de Markov em tempo contínuo irredutível é uma cadeia irredutível se existir apenas uma classe de comunicação (todos os estados comunicam) Uma cadeia de Markov em tempo contínuo irredutível é uma cadeia irredutível sse a cadeia discreta dos saltos é irredutível Q diz-se irredutível se P∗ for irredutível Alexandra Bugalho de Moura Processos Estocástico, UEM Agosto 2017 7 / 13 Processos de Markov homogéneos em tempo contínuo Processo de Markov homogéneos em tempo contínuo Estado recorrente O estado i diz-se recorrente se, com probabilidade 1, a cadeia volta a revisitar o estado i . Caso contrário o estado diz-se transiente Um estado i é recorrente (transiente) para uma cadeia de Markov em tempo contínuo sse for recorrente (transiente) para a cadeia de Markov discreta dos saltos Recorrência positiva e nula podem diferir na cadeia em tempo contínuo ou tempo discreto (se o número de estados for infinito) Periodicidade Não existem problemas de periodicidade para a cadeia de Markov em tempo contínuo (para tempo contínuo não faz sentido falar em periodicidade) Mas o conceito de periodicidade existe para a cadeia de Markov dos saltos, em tempo discreto Alexandra Bugalho de Moura Processos Estocástico, UEM Agosto 2017 8 / 13 Processos de Markov homogéneos em tempo contínuo Processo de Markov homogéneos em tempo contínuo Exemplo Considere o processo de Markov em tempo contínuo com a seguinte matriz geradora: Q = −4 1 0 0 3 2 −6 3 1 0 0 0 −5 5 0 0 0 4 −4 0 0 0 0 0 0 1 Classifique os estados 2 Calcule a probabilidade de que o processo seja absorvido no estado 5, tendo começado no estado 1 Alexandra Bugalho de Moura Processos Estocástico, UEM Agosto 2017 9 / 13 Processos de Markov homogéneos em tempo contínuo Processo de Markov homogéneos em tempo contínuo Distribuição estacionário Dada uma cadeia de Markov em tempo contínuo, uma distribuição de probabilidade em S pij > 0, ∀j ∈ S e ∑ j∈S pij = 1 diz-se estacionária sse, para todo t > 0 pi P(t) = pi A distribuição estacionária, pi, também se designa por distribuição de equilíbrio e representa a proporção de tempo que o processo passa em cada estado, no longo prazo Se pi é distribuição estacionária, então pij > 0, para todo j ∈ S Alexandra Bugalho de Moura Processos Estocástico, UEM Agosto 2017 10 / 13 Processos de Markov homogéneos em tempo contínuo Processo de Markov homogéneos em tempo contínuo Teorema A distribuição pi é estacionária sse piQ = 0 Teorema Seja S a única classe fechada (cadeia irredutível). Então, das duas uma: 1) Existe uma única distribuição estacionária e lim t→∞ pij (t) = pij , ∀i , j ∈ S (se S for finito, este é necessariamente o caso) 2) Não existe distribuição estacionária e lim t→∞ pij (t) = 0, ∀i , j ∈ S (este caso só acontence em situações em que S é infinito) Alexandra Bugalho de Moura Processos Estocástico, UEM Agosto 2017 11 / 13 Processos de Markov homogéneos em tempo contínuo Processo de Markov homogéneos em tempo contínuo Exemplo Determine a distribuiçãode equilibrio do processo. Alexandra Bugalho de Moura Processos Estocástico, UEM Agosto 2017 12 / 13 Processos de Markov homogéneos em tempo contínuo Processo de Markov homogéneos em tempo contínuo Exercício Os condutores que chegam a um centro de inspecção automóvel esperam, em média, 15min para serem atendidos. Quando são atendidos, levam em média 20min pela avaliação do problema. Após a avalição, os automóveis podem não precisar de qualquer arranjo ou precisar de arranjos ligeiros ou arranjos significativos. O tempo médio de espera por arranjos ligeiros é de 30min, enquanto o tempo médio de espera por arranjos significativos é 180min. Admita que a percentagem de automóveis sem qualquer problema é 80%, a percentagem de automóveis com necessidade de reparações ligeiras é 15% e a percentagem de automóveis com necessidade de arranjos significativos é 5%. Quais as hipótese que têm que ser consideradas por forma a resolver o problema como uma cadeia de Markov? Assumindo essas hipóteses, determine a matriz geradora. Use as equações diferenciais de Kolmogorov para obter pWM(t) e pWA(t) Mostre que pWA(t) = 4e−t/20 − 4e−t/15 (com t medido em minutos). Obtenha uma expressão para pWM(t) Seja Ti o tempo de espera (em minutos) até que um automóvel vá para casa, dado que o processo está no estado i Justifique que TW = 15 + TA Obtenha expressões para TA, TM e Ts Calcule TW Alexandra Bugalho de Moura Processos Estocástico, UEM Agosto 2017 13 / 13 Processos de Markov homogéneos em tempo contínuo
Compartilhar