Buscar

MATRIZES_ESTOCASTICAS-2014.1-Meteorologia

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

MATRIZES ESTOCÁSTICAS
Alunos: 
Anna Carolina Guillén
Camila Gonçalves
Judith Cardoso
Loan Hilario
Marina Cardoso
Matheus Hoffman
UNIVERSIDADE FEDERAL DO RIO DE JANEIRO
ÁLGEBRA LINEAR II
PROFESSOR: MÁRIO JORGE
1
ÍNDICE
Introdução e Definição;
Cadeias de Markov:
Definição
Método I
Método II
MATRIZES ESTOCÁSTICAS
Previsões a longo prazo;
Aplicações.
2
INTRODUÇÃO E DEFINIÇÃO
	Sistemas dinâmicos estocásticos vêm ganhando cada vez mais interesse nas últimas décadas pela diversidade de problemas cuja modelagem inclui algum aspecto probabilístico.
	Têm larga aplicação em campos tais quais estatística, economia e ciência política, podendo abranger previsões para, por exemplo, a bolsa de valores e o câmbio.
MATRIZES ESTOCÁSTICAS
INTRODUÇÃO E DEFINIÇÃO
	Processos Estocásticos podem ser definidos como funções que variam de acordo com o tempo, ou seja, para cada instante de tempo, o objeto em estudo toma um estado, e a variação entre estes estados é aleatória, daí a palavra “estocástico”. Sendo o número de estados que este objeto pode ter um número finito.
	De forma simplificada, podemos dizer que processos estocásticos são processos aleatórios que dependem do tempo.
MATRIZES ESTOCÁSTICAS
INTRODUÇÃO E DEFINIÇÃO
“Fenômeno que varia em algum grau, de forma imprevisível, à medida que o tempo passa”:
Variação do tráfego em um cruzamento;
Variação diária no tamanho do estoque de uma empresa;
Variação no número de chamadas feitas a uma central
telefônica.
MATRIZES ESTOCÁSTICAS
INTRODUÇÃO E DEFINIÇÃO
Objetivo: descrever e modelar a variabilidade e 	tomar decisões na presença de variabilidade 	(inferência estatística)
MATRIZES ESTOCÁSTICAS
CADEIAS DE MARKOV: DEFINIÇÃO
MATRIZES ESTOCÁSTICAS
CADEIAS DE MARKOV: DEFINIÇÃO
É a probabilidade condicional de qualquer evento futuro, dado qualquer evento passado e o estado presente, é independente do evento passado e depende somente do estado presente. 
Em termos mais resumidos: um Processo Estocástico é dito ser um Processo Markoviano se o estado futuro depende apenas do estado presente e não dos estados passados.
 
Este tipo de Processo Estocástico é também denominado de memoryless process(processo sem memória), uma vez que o passado é "esquecido" (desprezado). 
MATRIZES ESTOCÁSTICAS
CADEIAS DE MARKOV: MÉTODO I
	Um evento aleatório pode ser dito Markoviano se, e somente se, este processo for estacionário - seu comportamento não muda ao longo do tempo - e a probabilidade de X(t) estar num estado j depende apenas do estado atual e não dos estados iniciais.
	A multiplicação sucessiva das matrizes por elas mesmas dão as probabilidades em tempos futuros.
	Soma de cada linha deve ser igual a 1.
	Todos ou elementos devem ser maiores ou iguais a 0 (zero).
MATRIZES ESTOCÁSTICAS
CADEIAS DE MARKOV:
MÉTODO I
Árvores de Probabilidade
	O método da Árvore de Probabilidades é o mais simples, porém, à medida que o número de anos aumenta, as contas se tornam cada vez mais complexas. Por isso, precisamos usar outros métodos para realizarmos previsões a longo prazo.
MATRIZES ESTOCÁSTICAS
CADEIA DE MARKOV:
MÉTODO I
	
MATRIZES ESTOCÁSTICAS
PREVISÃO DO TEMPO:
				 	 Em determinada região, observa-se que se chover muito em um ano, a probabilidade que chova muito no ano seguinte é de 1/4, e que a probabilidade de seca é de 3/4.
Ainda, se houver seca em um ano, no ano seguinte a e haver seca ou muita chuva será a mesma, e igual a 1/2. Suponhamos que estas probabilidades não mudem ao passar dos anos. Os estados possíveis são Chuva (C) e Seca (S).
Se no primeiro ano houve seca, qual a probabilidade que chova muito no terceiro ano?
CADEIAS DE MARKOV: MÉTODO I
Árvore de Probabilidades
MATRIZES ESTOCÁSTICAS
Logo, se houve seca no primeiro ano, a probabilidade de chover muito no terceiro ano é de:
½  ¼ + ½  ½ = ⅜
O método da Árvore de Probabilidades é o mais simples, porém, à medida que o número de anos aumenta, as contas se tornam cada vez mais complexas. Por isso, precisamos usar outros métodos para realizarmos previsões a longo prazo.
CADEIAS DE MARKOV: MÉTODO II
	É o método utilizado para fazer previsões a longo prazo. Sendo P a matriz de transição e Q o vetor de estado estacionário , temos que PxQ=Q, ou (I-P)xQ=0, sendo I a matriz identidade ou matriz 1. E cada fator Qi, representa a probabilidade do estado i ocorrer ao longo prazo.
MATRIZES ESTOCÁSTICAS
CADEIAS DE MARKOV: MÉTODO II
EXEMPLO:
	Suponha que existam apenas dois restaurantes em uma cidade: Gororoba e Salpicão.
	Se uma pessoa escolheu almoçar no Gororoba, existe 90% de chances dela voltar a comer lá.
	Se a pessoa tiver escolhido almoçar no Salpicão, as chances de que volte ao restaurante são de 80%.
	Qual a porcentagem de pessoas que frequentará o Gororoba em alguns anos?
MATRIZES ESTOCÁSTICAS
CADEIAS DE MARKOV: MÉTODO II
Para realizar esse cálculo temos q fazer a probabilidade limite, logo temos:
	
MATRIZES ESTOCÁSTICAS
0.9L1 + 0.2L2 = L1
0.1L1 + 0.8L2 = L2
Logo, temos que L1=2L2, e portanto L1 = 2/3 e L2=1/3
RESPOSTA: Em alguns anos, a probabilidade de pessoas que frequentará o Gororoba é de aproximadamente 67%.
PREVISÕES A LONGO PRAZO
A caminhada aleatória "ignora" o passado. Em suma, cadeia de Markov é o passo seguinte depois dos processos sem memória (isto é, uma seqüência de variáveis aleatórias independentes distribuídas uniformemente).
 Uma matriz de transição que é positiva (isto é, todo o elemento da matriz é positivo) é irredutível e aperiódica. 
 Uma matriz é uma matriz estocástica se e somente se é uma matriz de probabilidades de transição de uma cadeia de Markov.
MATRIZES ESTOCÁSTICAS
PREVISÕES A LONGO PRAZO
Isto significa que se nós simularmos ou observamos uma caminhada aleatória, então a probabilidade de longo prazo de que o indivíduo que faz a caminhada esteja em um certo estado é independente do estado em que a caminhada começou, e é definida pela distribuição estacionária. 
MATRIZES ESTOCÁSTICAS
PREVISÕES A LONGO PRAZO:
EXEMPLOS
Seja X a variável aleatória que indica se chove ou não num determinado dia num dado local. A sequência que indica o estado do tempo em dias consecutivos forma um processo estocástico. É um processo estocástico não estacionário, pois as probabilidades variam ao longo do tempo.
Uma sequência de lançamentos de um dado forma um processo estocástico estacionário. As probabilidades são constantes ao longo do tempo.
 O passeio aleatório consiste em uma trajetória formada por passos aleatórios de mesmo tamanho a cada qual em uma direção aleatória.
MATRIZES ESTOCÁSTICAS
PREVISÕES A LONGO PRAZO: CLASSE DE ESTADOS
Denomina-se classe do estado i ao conjunto de todos os estados que se comunicam com i, também denominado conjunto fechado. Desta forma, os estados de uma cadeia de Markov podem ser subdivididos em uma ou mais classes disjuntas (que não têm elementos em comum), tais que aqueles estados que se comunicam entre si se encontram na mesma classe, e um conjunto de estados transitórios.
 Se em uma cadeia de Markov existir apenas uma classe, ou seja, se todos os estados se comunicam, esta cadeia é dita irredutível. Se, ao contrário, a cadeia possuir mais de uma classe ou possuir estados transitórios, ela é denominada redutível.
MATRIZES ESTOCÁSTICAS
PREVISÕES A LONGO PRAZO: CLASSIFICAÇÃO DE ESTADOS
Acessibilidade e Comunicabilidade:
O estado j é dito acessível a partir do estado i, ou j pode ser alcançado a partir de um estado i (ou, i atinge j), denota-se i → j, se existe um inteiro a → 1 tal que Pª (i, j) > 0.
Isto significa que é possível para o processo eventualmente entrar no estado j quando ele começa no estado i.
Dois estados i e j se comunicam se i acessa j e se j acessa i, ou seja, i → j e j → i.
Propriedade reflexiva: Qualquer estado se comunica com ele mesmo, ou seja, P °(i, i ) = 1.
Propriedade transitiva: se i → j e j → k então i → k.
MATRIZES ESTOCÁSTICAS
PREVISÕES A LONGO PRAZO:
TRANSITORIEDADE E RECORRÊNCIA
	Um estado é denominado recorrente se, partindo deste estado, sua probabilidade de retorno é 1, ou seja, se i é recorrente i → j e j → i.
Propriedades:
Se i é recorrente e i → j então j é recorrente.
Um estado i ϵ E é dito transitório se existir um estado j ϵ E (j ≠ i) que seja acessível do estado i, mas o estado i não é acessível de j, ou seja, i → j mas j /→ i para algum j.
MATRIZES ESTOCÁSTICAS
PREVISÕES A LONGO PRAZO: ABSORVÊNCIA
Propriedade:
Todo estado absorvente é recorrente.
MATRIZES ESTOCÁSTICAS
PREVISÕES A LONGO PRAZO: PROBABILIDADE LIMITE
	Para classificar os estados de uma Cadeia de Markov com um número finito de estados:
Identificam-se os conjuntos fechados irredutíveis – todos os estados pertencentes a um conjunto fechado irredutível finito são recorrentes;
Os estados restantes, se houver, são transitórios;
Determina-se a periodicidade.
MATRIZES ESTOCÁSTICAS
PREVISÕES A LONGO PRAZO: TEMPO DE PRIMEIRA PASSAGEM
Em muitas situações deseja-se saber o número de transições realizadas pelo processo para ir do estado i ao estado j pela primeira vez, período denominado tempo de primeira passagem.
 Se j = i, o tempo de primeira passagem é o número esperado de transições até que o processo retorne ao estado inicial i, denominado tempo esperado de retorno. 
MATRIZES ESTOCÁSTICAS
APLICAÇÕES
Aplicações usuais da previsão de fenômenos por processos estocásticos:
Variação do tráfego em um cruzamento;
Variação no número de chamadas feitas a uma central telefônica;
Variação minuto a minuto do índice IBOVESPA;
Operação e planejamento da expansão do sistema elétrico nacional;
Teoria das Filas;
Deriva Genética;
Previsão do Tempo: “Chove ou não Chove?”.
MATRIZES ESTOCÁSTICAS

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?

Continue navegando