Buscar

Processos_Estocasticos_EE1.2010-1

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

*
Processos Estocásticos
 Grupo 2:
 - Filipe Simões
 - Bruno Couto
 - Rodrigo Ximenes
 - Gabriel Pitta
 - Nelson Júnior
 - Raphael Curvelo
 - Monique Pessanha
Tarde terca e quinta
*
Índice
Definição
Matrizes de Transição
Classificação de Estados
Cadeias de Markov
*
Definição
 Processos estocásticos são por definição, probabilísticos, antagonizando-se aos processos determinísticos, nos quais não há aleatoriedade no sistema. 
 Um processo estocástico é descrito pela distribuição de probabilidades dentro das quais o sistema poderá evoluir de acordo com o tempo.
 Têm larga aplicação em campos tais quais estatística, economia e ciência política, podendo abranger previsões para, por exemplo, a bolsa de valores e o câmbio, ou fornecer modelos para o Movimento Browniano em colóides.
*
 Matrizes de Transição
 Um processo aleatório de markov é um processo que pode assumir os estados, a1, a2,...,ar, de tal modo que a probabilidade de transição de um estado aj para um estado ai seja pij (um número que só depende de aj e ai).
 A matriz das probabilidades de transição (matriz estocástica) é dada por:
 T= 
 (Observe que pij 0, e que a soma de cada coluna deve ser 1.)
*
 O vetor de probabilidade é aquele cujai-ésima linha dá a probabilidade de ocorrência do estado ai após n transições: 
Sendo assim temos que após n passos:
=
Matrizes de Transição
*
Previsões a Longo Prazo
 Para podermos fazer previsões a longo prazo a matriz T deve cumprir certas condições. Uma matriz das probabilidades de transição é regular se alguma de suas potências tem todos os elementos não nulos. A importância da matriz regular para as previsões de longo prazo é dada pelo teorema que afirma : 
	
 Se a matriz das probabilidades de transição é regular, então:
 As potências de se aproximam de uma matriz P, no sentido de que cada elemento de aproxima-se do elemento correspondente em P.
Todas as colunas de P são iguais, sendo que dadas por um vetor-coluna
 V=
*
Com > 0 , > 0, ... Pr > 0.
	Para qualquer vetor de probabilidades inicial
	
V1=
O vetor de probabilidade aproxima-se de V (dado no item anterior).
O Vetor V é o único vetor que satisfaz V = TV.
Previsões a Longo Prazo
*
O que o teorema quer dizer, é que se a matriz das probabilidades de transição é regular, então podemos fazer uma previsão a longo prazo que não depende das probabilidades iniciais . 
Além disso o item (iv) nos indicará como achar a probabilidade depois de um longo prazo. O processo utilizado para se encontrar o vetor “final” de probabilidades, usando o item (iv) corresponde à procura de autovetor associado ao autovalor um da matriz T.
Previsões a Longo Prazo
*
 Um espaço de estados é representável por uma de matriz de transição, com o (i, j)-ésimo elemento igual a:
Previsões a Longo Prazo
 Para um espaço de estados discretos, as integrações na probabilidade de transição de k passos são somatórios, e podem ser calculados como a k-ésima potência da matriz de transição. Isto é, se P é a matriz de transição para um passo, então Pk é a matriz de transição para a transição de k passos.
 
*
A distribuição estacionária é o vetor que satisfaz à equação
Previsões a Longo Prazo
onde πT é a matriz transposta de π. Em outras palavras, a distribuição estacionária π é o autovetor esquerdo da matriz de transição, associado com o autovalor 1.
*
 
 Como conseqüência, nem a existência nem a unicidade de distribuição estacionária é garantida para uma matriz de transição qualquer P. Contudo, se P é irredutível e aperiódica, então existe uma distribuição estacionária π. Além disso, Pk converge para uma matriz na qual cada linha é a (transposta da) distribuição estacionária πT, que é dada por:
onde é o vetor coluna com todas as entradas iguais a 1. Isto é estabelecido pelo Teorema de Perron-Frobenius.Isto significa que se nós simularmos ou observamos uma caminhada aleatória com matriz de transição P, então a probabilidade de longo prazo de que o indivíduo que faz a caminhada esteja em um certo estado é independente do estado em que a caminhada começou, e é definida pela distribuição estacionária. 
Previsões a Longo Prazo
*
 A caminhada aleatória "ignora" o passado. Em suma, cadeia de Markov é o passo seguinte depois dos processos sem memória (isto é, uma seqüência de variáveis aleatórias independentes distribuídas uniformemente).
 Uma matriz de transição que é positiva (isto é, todo o elemento da matriz é positivo) é irredutível e aperiódica. 
 Uma matriz é uma matriz estocástica se e somente se é uma matriz de probabilidades de transição de uma cadeia de Markov.
Previsões a Longo Prazo
*
Classificação de Estados
Acessibilidade e Comunicabilidade:
 O estado j é dito acessível a partir do estado i, ou j pode ser alcançado a partir de um estado i (ou, i atinge j), denota-se i → j, se existe um inteiro a → 1 tal que Pª (i, j) > 0.
 Isto significa que é possível para o processo eventualmente entrar no estado j quando ele começa no estado i.
 Dois estados i e j se comunicam se i acessa j e se j acessa i, ou seja, i → j e j → i.
 Propriedade reflexiva: Qualquer estado se comunica com ele mesmo, ou seja, P °(i, i ) = 1.
 Propriedade transitiva: se i → j e j → k então i → k.
*
Classe de Estados 
 Denomina-se classe do estado i ao conjunto de todos os estados que se comunicam com i, também denominado conjunto fechado. Desta forma, os estados de uma cadeia de Markov podem ser subdivididos em uma ou mais classes disjuntas (que não têm elementos em comum), tais que aqueles estados que se comunicam entre si se encontram na mesma classe, e um conjunto de estados transitórios.
 Se em uma cadeia de Markov existir apenas uma classe, ou seja, se todos os estados se comunicam, esta cadeia é dita irredutível. Se, ao contrário, a cadeia possuir mais de uma classe ou possuir estados transitórios, ela é denominada redutível.
*
Transitoriedade e 
Recorrência 
 Um estado é denominado recorrente se, partindo deste estado, sua probabilidade de retorno é 1, ou seja, se i é recorrente i → j e j → i.
Propriedades:
 1. Se i é recorrente e i → j então j é recorrente.
 
 2. Um estado i ϵ E é dito transitório se existir um estado j ϵ E (j ≠ i) que seja acessível do estado i, mas o estado i não é acessível de j, ou seja, i → j mas j /→ i para algum j.
*
Absorvência 
 
Propriedade: 
 
 1. Todo estado absorvente é recorrente.
*
Probabilidade Limite 
 Para classificar os estados de uma Cadeia de Markov com um número finito de estados:
 1. Identificam-se os conjuntos fechados irredutíveis – todos os estados pertencentes a um conjunto fechado irredutível finito são recorrentes;
 2.Os estados restantes, se houver, são transitórios;
 3. determina-se a periodicidade.
*
Tempo de Primeira Passagem 
 Em muitas situações deseja-se saber o número de transições realizadas pelo processo para ir do estado i ao estado j pela primeira vez, período denominado tempo de primeira passagem.
 Se j = i, o tempo de primeira passagem é o número esperado de transições até que o processo retorne ao estado inicial i, denominado tempo esperado de retorno. 
*
Cadeias de Markov
Andrei Andreyevich Markov nasceu na Rússia em 1856 e tornou-se famoso pelos seus estudos sobre as que viriam a se chamar Cadeias de Markov
Cadeia de Markov é um caso particular de processos estocásticos com estados discretos, tendo como característica a não-dependência dos estados anteriores a n0, contanto que n0 seja conhecido.
*
É dita de estados discretos, pois o tempo não é tratado como contínuo, mas por amostragem, no formato n0, n1, n2..., a intervalos razoavelmente regulares de observação.
*
A probabilidade de mudança de
um estado para outro é constante no tempo, só dependendo do estado S inicial e S final, sendo caracterizada por uma matriz de probabilidades cujo o elemento (x,y) é dado por:
*
Exemplo de cadeia de Markov aplicada para a previsão do tempo
Como podemos ver no exemplo, para determinar a probabilidade de chuva no dia 3, sabendo apenas que no dia 1 choveu, devemos multiplicar os valores correspondentes aos 'passos' dados, por exemplo, sabemos que há 49% de chances de não chover do dia 2 e no dia 3. 
*
Podemos apresentar o exemplo anterior sob a forma de uma matriz C2,2 de transição com o formato: 
0.7 0.3
0.7 0.3
C =
Chove
Não chove
 Choveu no dia
Não choveu
Cn = C
n-1
*
Exemplo: Clima de uma Cidade
	Em uma certa cidade nunca ocorrem dois dias ensolarados em seguida. Cada dia é classificado como ensolarado, nublado (mas sem chuva) ou chuvoso. Após um dia ensolarado, o próximo dia tem a mesma probabilidade de ser nublado ou chuvoso. Se um dia é chuvoso ou nublado, existe uma chance em dois de que o próximo dia será como o anterior, caso não seja, é igualmente provável que no próximo dia ocorrerá uma das outras duas possibilidades.
	Seja o espaço de estados E = {0, 1, 2}, onde o estado 0 significa “ensolarado”, o
estado 1 significa “nublado” e o estado 2 significa “chuvoso”.
Mais precisamente,
 	0 se o dia n está chuvoso naquela cidade
 Xn = 1 se o dia n está nublado naquela cidade
	2 se o dia n está ensolarado naquela cidaden
	O processo {Xn, n = 0,1,2} pode ser representado por uma cadeia de Markov,
pois satisfaz a propriedade Pr(Xn+1 = j/X0,..., Xn) = Pr(Xn+1 = j/Xn). A matriz de transição
 X pode ser dada por:
 
 
*i da matriz representa o
 primeiro dia e j o dia sucesso	X=					
								3X3
*
*
Exemplo: Jogo de Futebol
	João e Pedro estão jogando futebol. Quando eles começam, o placar é 0-0. Para que o jogo fique mais interessante, se eles empatam, o placar é instantaneamente zerado para 0-0. Começando de qualquer placar, a probabilidade que João faça o próximo gol é 1/3.
	1)Qual é a probabilidade de Pedro ganhar o jogo?
O espaço de estados deste sistema é definido por:
E = {(x,y)/ x é a quantidade de gols feitos por João e y a quantidade de gols feitos por
Pedro} = {(0,0), (0,1), (0,2), (1,0), (2,0)}.
Xn+1 = (0,0) se:
 Xn = (0,1), ou seja, se João fizer um gol, a partida empata e o jogo é zerado, com
probabilidade Pr(Xn+1 = (0,0)/Xn = (0,1)) = 1/3,
 Xn = (1,0), ou seja, se Pedro fizer um gol, a partida empata e o jogo é zerado, com
probabilidade Pr(Xn+1 = (0,0)/Xn = (0,1)) = 2/3.
Xn+1 = (1,0) se:
 Xn = (0,0), ou seja, se João fizer um gol com Pr(Xn+1 = (1,0)/Xn = (0,0)) = 1/3.
Xn+1 = (0,1) se:
 Xn = (0,0), ou seja, se Pedro fizer um gol com Pr(Xn+1 = (0,0)/Xn = (0,0)) = 2/3.
Xn+1 = (2,0) se:
 Xn = (1,0), ou seja, se João fizer um gol com Pr(Xn+1 = (2,0)/Xn = (1,0)) = 1/3.
Xn+1 = (0,2) se:
 Xn = (0,1), ou seja, se Pedro fizer um gol com Pr(Xn+1 = (0,2)/Xn = (0,1)) = 123.
*
	Logo, Xn+1 só depende do estado Xn, ou seja, Pr(Xn+1 = j/X0,..., Xn) = Pr(Xn+1 = j/Xn), e o processo {Xn, n = 0,1,2} pode ser representado por uma cadeia de Markov.
O diagrama de transição de Xn é dada por:
			 	
*
A probabilidade do Pedro alcançar o placar (0,2) começando o jogo em (0,0) é de 4/9.
*
Exemplo:
	A matriz A estoca informações sobre três tipos de construções civis e os respectivos custos com materiais.
 A=
								 3X5
b) Se queremos construir 5, 7 e 12 casas do tipo moderna, contemporânia e colonial, respectivamente, quantas unidades de cada material será empregada?
	 mod. col. Cont.
	Q		 1X3 X A3X5 = //Qt//1X5
b)Suponha que agora os preços por unidade de ferro, madeira ,vidro, tinta e tijolo sejam, respectivamente 15, 8, 5, 9 e 10 unidades monetárias, qual é o custo monetário de cada tipo de casa.
		
			
	A3X5 X 			= //P//3X1
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?

Continue navegando