Buscar

Processos_Estocasticos

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

Processos 
Estocásticos
Integrantes:
Luís Felipe Felício
Yuri Cotta
Juliana Costa
Bianca Nassif
Guilherme Kaercher
1
Agenda
Introdução
Teoria das Probabilidades
Matrizes de Transição
Cadeias de Markov
Exemplo
Referências Bibliográficas
2
Introdução
Vários processos naturais ou que ocorrem na sociedade podem ser estudados por um modelo aproximado como se o fenômeno passasse por uma sucessão de estados, partindo de um estado inicial, em que a transição entre eles seria determinada por uma probabilidade.
3
Introdução
Pode definir-se um Processo Estocástico (em inglês, “Stochastic Process” ou “Random Process”) como um conjunto de variáveis aleatórias indexadas a uma variável (geralmente a variável tempo), sendo representado por {X(t), t∈T}.
Estabelecendo o paralelismo com o caso determinístico, onde uma função f(t) toma valores bem definidos ao longo do tempo, um processo estocástico toma valores aleatórios ao longo do tempo. Aos valores que X(t) pode assumir chamam-se estados e ao seu conjunto X espaço de estados.
4
Teoria das Probabilidades
É o estudo matemático das probabilidades. 
Pierre Simon Laplace é considerado o fundador da teoria das probabilidades.
A probabilidade surge em meados do século XVII como uma maneira de quantificar o grau de incerteza de um determinado acontecimento.
5
Teoria das Probabilidades
O conjunto de todos os possíveis do experimento é chamado de espaço amostral e é denotado pela letra grega Ω.
Para cada evento A associa-se um n° real P(A) indicando a probabilidade de A ocorrer.
P(A) = n° de resultados favoráveis a ocorrência de A
n° de resultados possíveis
6
Teoria das Probabilidades
Operação com eventos:
1)UNIÃO A U B 
2)INTERSEÇÃO A ∩ B
3)COMPLEMENTAR
7
Teoria das Probabilidades
Eventos mutuamente exclusivos são aqueles cuja ocorrência de um elimina a possibilidade de ocorrência do outro. Neste caso a probabilidade de ocorrência de um ou outro evento é expressa por:
Exemplo: No casamento especificado, será estimada a probabilidade de nascer um menino de olhos castanhos ou uma menina de olhos azuis. Assim tem-se:
P(A) = P(menino de olhos castanhos) = 3/8 
P(B) = P(meninas de olhos azuis) = 1/8
P(A U B) = P(A) + P(B)= 3/8 + 1/8 = 1/2
P(A U B) = P(A) + P(B)
8
Teoria das Probabilidades
Outras Propriedades:
Caso A e B sejam eventos mutuamente excludentes, então:
0  P(A)  1
P(Ω) = 1
P(AUB) = P(A) + P(B) – P(A∩B)
P(A*) = 1 – P(A)
	 P(AUB) = P(A) + P(B)
9
Matrizes de Transição
Uma Matriz de Transição, Matriz Estocástica ou ainda Matriz de Markov (em homenagem ao matemático russo Andrey Markov) é uma matriz quadrada que tem duas características:
todas as entradas são não-negativas; e 
todas as colunas tem soma de entradas igual a 1
10
Matrizes de Transição
Uma distribuição inicial é dada por um vetor linha ou coluna, chamado de vetor de estado.
Dada uma distribuição inicial T0 e uma matriz de transição P, podemos descobrir diretamente a distribuição do período seguinte.
11
Matrizes de Transição
Exemplo:
Em um bar os fregueses podem consumir três bebidas: 1) Cerveja, 2) Cachaça e 3) Vinho. Suponha que a matriz de transição seja:
12
Matrizes de Transição
A distribuição inicial é dada pelo vetor de estado de dimensão 3X1
Isso significa que a 1/3 dos fregueses está em cada um dos três estados no período zero.
13
Matrizes de Transição
Após um período, 1/4 da população estava bebendo cerveja, 1/2 da população estava bebendo cachaça e 1/4 bebendo vinho.
14
Cadeias de Markov
Caso particular de processos estocástico com processos discretos.
Propriedade Markoviana: os estados anteriores são irrelevantes para a predileção dos estados seguintes, desde que o estado atual seja conhecido.
15
Cadeias de Markov
Ou seja, para os processos de Markov, só interessa o estado imediato.
Princpais elementos:
A probabilidade de x(n) de ocorrer o estado “I” no n-ésimo período de tempo
A probabilidades de transição Mij, que representam as probabilidades de o processo estar no estado “i” no tempo (n +1)) dado que está no estado “j” no tempo n. Essas probabilidades normalmente são agrupadas em uma matriz, a qual denominamos matriz estocástica.
16
Cadeias de Markov
Podem também ser descritas como um grafo dirigido (orientado) onde cada arestado é rotulado com as probabilidades de um estado a outro sendo estes representados como nós conectados pelas arestas.
17
Cadeias de Markov
Exemplos:
Apostas: em que a probabilidade de vencer e ganhar 1 real são fixas. Para chegar a um valor Xn, depende somente do valor imediato.
Imagine um país onde só seja possível estar em três classes sociais: A, B ou C. Em cada período de tempo, a probabilidade de uma pessoa mudar de um estado para outro é constante no tempo e só depende dos estados.
18
Exemplo
Um sistema de monitoramento pode ser modelado por um processo estocástico de Markov, de parâmetros e estados discretos (cadeia de Markov). Este processo tem três estados possíveis: 1 (operando), 2 (em standby) e 3 (falhado). Sua matriz de transição de estados (obtidas por histórico) é descrita a seguir:
 P11 P12 P13 0,8 0,1 0,1
P = P21 P22 P23 = 0,7 0,2 0,1
 P31 P32 P33 0,8 0,15 0,05
19
Exemplo
Calcule as probabilidades de estado após dois períodos de tempo (t = 2), supondo:
A) Que o sistema inicia no estado de operação. R.: 0,79; 0,115; 0,095
B) Que o sistema inicia no estado de stand-by. R.: 0,78; 0,125; 0,095
C) Que o sistema inicia no estado de falha. R.: 0,785; 0,1175; 0,0975
20
Referências Bibliográficas
http://www.inf.ufsc.br/~marcelo/processos.pdf
http://ead.pep.ufrj.br/moodle/mod/resource/view.php?id=154
http://pt.wikipedia.org/wiki/Processo_estoc%C3%A1stico
21

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?

Outros materiais