Baixe o app para aproveitar ainda mais
Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original
Processos Estocásticos Integrantes: Luís Felipe Felício Yuri Cotta Juliana Costa Bianca Nassif Guilherme Kaercher 1 Agenda Introdução Teoria das Probabilidades Matrizes de Transição Cadeias de Markov Exemplo Referências Bibliográficas 2 Introdução Vários processos naturais ou que ocorrem na sociedade podem ser estudados por um modelo aproximado como se o fenômeno passasse por uma sucessão de estados, partindo de um estado inicial, em que a transição entre eles seria determinada por uma probabilidade. 3 Introdução Pode definir-se um Processo Estocástico (em inglês, “Stochastic Process” ou “Random Process”) como um conjunto de variáveis aleatórias indexadas a uma variável (geralmente a variável tempo), sendo representado por {X(t), t∈T}. Estabelecendo o paralelismo com o caso determinístico, onde uma função f(t) toma valores bem definidos ao longo do tempo, um processo estocástico toma valores aleatórios ao longo do tempo. Aos valores que X(t) pode assumir chamam-se estados e ao seu conjunto X espaço de estados. 4 Teoria das Probabilidades É o estudo matemático das probabilidades. Pierre Simon Laplace é considerado o fundador da teoria das probabilidades. A probabilidade surge em meados do século XVII como uma maneira de quantificar o grau de incerteza de um determinado acontecimento. 5 Teoria das Probabilidades O conjunto de todos os possíveis do experimento é chamado de espaço amostral e é denotado pela letra grega Ω. Para cada evento A associa-se um n° real P(A) indicando a probabilidade de A ocorrer. P(A) = n° de resultados favoráveis a ocorrência de A n° de resultados possíveis 6 Teoria das Probabilidades Operação com eventos: 1)UNIÃO A U B 2)INTERSEÇÃO A ∩ B 3)COMPLEMENTAR 7 Teoria das Probabilidades Eventos mutuamente exclusivos são aqueles cuja ocorrência de um elimina a possibilidade de ocorrência do outro. Neste caso a probabilidade de ocorrência de um ou outro evento é expressa por: Exemplo: No casamento especificado, será estimada a probabilidade de nascer um menino de olhos castanhos ou uma menina de olhos azuis. Assim tem-se: P(A) = P(menino de olhos castanhos) = 3/8 P(B) = P(meninas de olhos azuis) = 1/8 P(A U B) = P(A) + P(B)= 3/8 + 1/8 = 1/2 P(A U B) = P(A) + P(B) 8 Teoria das Probabilidades Outras Propriedades: Caso A e B sejam eventos mutuamente excludentes, então: 0 P(A) 1 P(Ω) = 1 P(AUB) = P(A) + P(B) – P(A∩B) P(A*) = 1 – P(A) P(AUB) = P(A) + P(B) 9 Matrizes de Transição Uma Matriz de Transição, Matriz Estocástica ou ainda Matriz de Markov (em homenagem ao matemático russo Andrey Markov) é uma matriz quadrada que tem duas características: todas as entradas são não-negativas; e todas as colunas tem soma de entradas igual a 1 10 Matrizes de Transição Uma distribuição inicial é dada por um vetor linha ou coluna, chamado de vetor de estado. Dada uma distribuição inicial T0 e uma matriz de transição P, podemos descobrir diretamente a distribuição do período seguinte. 11 Matrizes de Transição Exemplo: Em um bar os fregueses podem consumir três bebidas: 1) Cerveja, 2) Cachaça e 3) Vinho. Suponha que a matriz de transição seja: 12 Matrizes de Transição A distribuição inicial é dada pelo vetor de estado de dimensão 3X1 Isso significa que a 1/3 dos fregueses está em cada um dos três estados no período zero. 13 Matrizes de Transição Após um período, 1/4 da população estava bebendo cerveja, 1/2 da população estava bebendo cachaça e 1/4 bebendo vinho. 14 Cadeias de Markov Caso particular de processos estocástico com processos discretos. Propriedade Markoviana: os estados anteriores são irrelevantes para a predileção dos estados seguintes, desde que o estado atual seja conhecido. 15 Cadeias de Markov Ou seja, para os processos de Markov, só interessa o estado imediato. Princpais elementos: A probabilidade de x(n) de ocorrer o estado “I” no n-ésimo período de tempo A probabilidades de transição Mij, que representam as probabilidades de o processo estar no estado “i” no tempo (n +1)) dado que está no estado “j” no tempo n. Essas probabilidades normalmente são agrupadas em uma matriz, a qual denominamos matriz estocástica. 16 Cadeias de Markov Podem também ser descritas como um grafo dirigido (orientado) onde cada arestado é rotulado com as probabilidades de um estado a outro sendo estes representados como nós conectados pelas arestas. 17 Cadeias de Markov Exemplos: Apostas: em que a probabilidade de vencer e ganhar 1 real são fixas. Para chegar a um valor Xn, depende somente do valor imediato. Imagine um país onde só seja possível estar em três classes sociais: A, B ou C. Em cada período de tempo, a probabilidade de uma pessoa mudar de um estado para outro é constante no tempo e só depende dos estados. 18 Exemplo Um sistema de monitoramento pode ser modelado por um processo estocástico de Markov, de parâmetros e estados discretos (cadeia de Markov). Este processo tem três estados possíveis: 1 (operando), 2 (em standby) e 3 (falhado). Sua matriz de transição de estados (obtidas por histórico) é descrita a seguir: P11 P12 P13 0,8 0,1 0,1 P = P21 P22 P23 = 0,7 0,2 0,1 P31 P32 P33 0,8 0,15 0,05 19 Exemplo Calcule as probabilidades de estado após dois períodos de tempo (t = 2), supondo: A) Que o sistema inicia no estado de operação. R.: 0,79; 0,115; 0,095 B) Que o sistema inicia no estado de stand-by. R.: 0,78; 0,125; 0,095 C) Que o sistema inicia no estado de falha. R.: 0,785; 0,1175; 0,0975 20 Referências Bibliográficas http://www.inf.ufsc.br/~marcelo/processos.pdf http://ead.pep.ufrj.br/moodle/mod/resource/view.php?id=154 http://pt.wikipedia.org/wiki/Processo_estoc%C3%A1stico 21
Compartilhar