Buscar

processos_estocasticos-2010-2

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

PROCESSOS
ESTOCÁSTICOS
São processos que se desenvolvem no tempo ou no espaço de acordo com leis probabilísticas.
São conjuntos de variáveis aleatórias, colocadas em função de uma variável independente, em geral o tempo. 
 Processos estocásticos
Os Processos Estocásticos constituem um ramo da Teoria da Probabilidade, onde se define um conjunto diversificado de modelos que permitem, nas situações mais frequentes e de interesse prático, realizar o estudo dos fenômenos aleatórios que evoluem de acordo com o tempo. O leque das aplicações é tão vasto quanto o dos fenômenos a modelar nas diferentes ciências: economia, gestão, engenharia, física, biologia, etc.
Um processo estocástico é uma família de variáveis aleatórias indexadas por elementos t pertencentes a determinado intervalo temporal. Intuitivamente, se uma variável aleatória é um número real que varia aleatoriamente, um processo estocástico é uma função temporal que varia aleatoriamente.
Referências
↑ M. Kac & J. Logan, in Fluctuation Phenomena, eds. E.W. Montroll & J.L. Lebowitz, North-Holland, Amsterdam, 1976
↑ E. Nelson, Quantum Fluctuations, Princeton University Press, Princeton, 1985 
3
Os elementos do processo estocástico são:
- Estado do sistema;
- Classes de Estado;
- Transição entre estados (matriz de transição entre estados de um sistema).
Aplicações usuais da previsão de fenômenos por processos estocásticos:
- Em locais aonde há chegada aleatória de clientes e servidores para atendê-los, como em hospitais, por exemplo.
- Tabelas de jogo de futebol, casas lotéricas, bingos, cassinos, etc, determinando a probabilidade de vitória ou derrota.
- São usados também na operação e no planejamento da expansão do sistema elétrico brasileiro (assim como em outros países). 
Tal processo pode assumir os estados X1, X2, X3, ..., Xn, de modo que a probabilidade de transição de um estado i para um estado j seja Pij
A matriz de transição (estocástica) será:
P11
P12
P13
.......
P1n
P21
P22
P23
.......
P2n
P31
P32
P33
.......
P3n
.......
.......
.......
.......
.......
Pn1
Pn2
Pn3
.......
Pnn
T =
Note que  Pj = 1.
Introdução
		
Teoria das Probabilidades
Origem da Teoria das Probabilidades
A origem da teoria das probabilidades encontra-se nos jogos de azar desde o século XVII. Surgiu da necessidade de um método racional para calcular os riscos dos jogadores em jogos de cartas, dados etc.
Cardano (1501-1576), no livro Liber de Ludo Aleae, foi o primeiro que estudou as probabilidades associadas ao arremesso de dados e jogos de azar.
Pierre-Simon Laplace (1774) fez a primeira tentativa de deduzir uma regra para a combinação de observações dos princípios da teoria das probabilidades.
Posteriormente passou a auxiliar governos, empresas e organizações profissionais em seus processos de decisões, ajudando a desenvolver estratégias.
Propriedades Gerais
Seja E um experimento aleatório, Ω o espaço amostral associado a E. Para cada evento A associa-se um no. real P(A) indicando a probabilidade de A ocorrer .
Assim teremos as seguintes propriedades:
0  P(A)  1
P(Ω) = 1
P(AUB) = P(A) + P(B) – P(A∩B)
P(A*) = 1 – P(A)
Se A e B são eventos mutuamente excludentes, então:
P(AUB) = P(A) + P(B)
Definições de Probabilidade
Probabilidade Clássica:
 É aplicada quando o espaço amostral Ω é finito e os eventos elementares w são equiprováveis,ou seja eles têm a mesma probabilidade de ocorrer. Se A é um evento qualquer em Ω temos que a probabilidade de A será:
	Ex.: probabilidade de tirar no. 4 em um dado
	 __n° resultados favoráveis p/ 4__ = _1_
 n° de resultados possíveis no dado 6
P(A) = 
n° de resultados favoráveis a ocorrência de A
n° de resultados possíveis
Definições de Probabilidade
Probabilidade Freqüentista:
 Em situações em que os elementos do espaço amostral não são igualmente prováveis, a probabilidade de ocorrer o evento A pode ser calculada pela noção de freqüência relativa.
	
 
ƒ(A) = 
no. de vezes que A ocorreu
no. total de repetições do experimento
=
 nA 
 n 
 Probabilidade Condicional:
A probabilidade de um evento (A) ocorrer depende da condição da probabilidade de (B) ocorrer.
Gerando a regra da multiplicação:
	
P(A  B) = P(B) x P(A|B) = P(A) x P(B|A)
 
P(A|B) = 
P(A  B)
P(B)
se P(B) > 0
Definições de Probabilidade
Exemplo
 Em determinada população, 9,8% das pessoas adquirem a revista Caras, 22,9% a revista Lux e 5,1% ambas as revistas. Admite-se que a medida de probabilidade é a proporção dos indivíduos que adquirem as revistas. Sendo A= adquirir revista Caras e B= adquirir a revista Lux
	
 a) Qual a probabilidade de adquirir somente a revista Caras?
		P(A∩B*) = P(A) – P(A∩B) = 0,098 – 0,051 = 0,047
	b) Qual a probabilidade de uma pessoa escolhida ao acaso adquirir pelo menos uma das revistas?
 		P(AUB) = P(A) + P(B) – P(A∩B) = 0,098 + 0,229 – 0,051 = 0,276 
Processos Estocásticos
		
Cadeias de Markov
ANDREI MARKOV
	Andrei Andreyevich Markov foi um matemático russo. Nasceu em 14 de junho de 1856 na cidade de Ryazan e morreu em 20 de julho de 1922 em São Petersburgo.
	Formou-se na Universidade de St. Petersburg em 1878 e tornou-se professor de lá em 1886. Seus primeiros trabalhos foram limite de integrais e teoria da aproximação.
	Depois de 1900, Markov aplicou métodos de frações contínuas, na teoria da probabilidade.
	Ficou conhecido por provar o teorema do limite central e ter criado as “Cadeias de Markov”.
 Cadeias de Markov
Cadeia de Markov simples.
Em matemática, a cadeia de Markov é um caso particular de processo estocástico com estados discretos (o parâmetro, em geral o tempo, pode ser discreto ou contínuo) e apresenta a propriedade Markoviana, chamada assim em homenagem ao matemático Andrei Andreyevich Markov. A definição desta propriedade, também chamada de memória markoviana, é que os estados anteriores são irrelevantes para a predição dos estados seguintes, desde que o estado atual seja conhecido.
Uma cadeia de Markov é uma seqüencia X1, X2, X3, ... de variáveis aleatórias. O escopo destas variáveis, isto é, o conjunto de valores que elas podem assumir, é chamado de espaço de estados, onde Xn denota o estado do processo no tempo n. Se a distribuição de probabilidade condicional de Xn+1 nos estados passados é uma função apenas de Xn, então:
15
onde x é algum estado do processo. A identidade acima define a propriedade de Markov. Uma maneira simples de visualizar um tipo específico de cadeia de Markov é através de uma máquina de estados finitos. Se você está no estado y no tempo n, então a probabilidade de que você se mova para o estado x no tempo n + 1 não depende de n, e somente depende do estado atual y em que você está. Assim em qualquer tempo n, uma cadeia de Markov finita pode ser caracterizada por uma matriz de probabilidades cujo elemento (x, y) é dado por 
e é independente do tempo n. Estes tipos de cadeia de Markov finitas e discretas podem também ser descritas por meio de um grafo dirigido, onde cada aresta é rotulada com as probabilidade de transição de um estado a outro sendo estes estados representados como os nós conectados pelas arestas.
Andrey Markov obteve os primeiros resultados para estes processos em 1906. Uma generalização para espaços de estados infinitos contáveis foi dada por Kolmogorov em 1936. Cadeias de Markov estão relacionadas ao movimento Browniano e à hipótese ergódica, dois importantes tópicos da física nos primeiros anos do século XX, mas a motivação de Markov para o desenvolvimento da teoria parece ter sido estender a teoria dos números grandes para eventos dependentes.
Cadeias de Markov em espaços de estados discretos
Um espaço de estados é representável por uma matriz. Chamada de matriz de transição, com o (i, j)-ésimo elemento igual a
Para um espaço de estados discretos,
as integrações na probabilidade de transição de k passos são somatórios, e podem ser calculados como a k-ésima potência da matriz de transição. Isto é, se P é a matriz de transição para um passo, então Pk é a matriz de transição para a transição de k passos. A distribuição estacionária π é o vetor que satisfaz à equação
onde πT é a matriz transposta de π. Como conseqüencia, nem a existência nem a unicidade de distribuição estacionária é garantida para uma matriz de transição qualquer P. Contudo, . se P é irredutível e aperiódica, então existe uma distribuição estacionária πAlém disso, Pk converge para uma matriz na qual cada linha é a (transposta da) distribuição estacionária πT, que é dada por
onde 
é o vetor coluna com todas as entradas iguais a 1. Isto é estabelecido pelo Teorema de Perron-Frobenius.
PROCESSOS DE MARKOV
	É um tipo de processo estocástico, no qual a probabilidade de transição depende apenas do estado em que o fenômeno se encontra e do estado a seguir.
	Em outras palavras, um evento aleatório pode ser dito Markoviano se, e somente se, este processo for estacionário - seu comportamento não muda ao longo do tempo - e a probabilidade de X(t) estar num estado j depende apenas do estado atual e não dos estados iniciais.
	Uma seqüência de estados seguindo este processo será denominada uma Cadeia de Markov.
	Evidentemente, ao se supor tal restrição simplificamos demasiadamente, uma vez que as probabilidades podem se modificar com o tempo. Mas, mesmo assim, a informação que obtivermos com este modelo já nos servirá de auxílio para uma previsão do comportamento de certos fenômenos.
Vamos estudar alguns exemplos e formas de resolução para melhor compreendermos os Processos de Markov.
PREVISÃO DO TEMPO
Em determinada região,
 observa-se que se chover muito em um ano, a probabilidade que chova muito no ano seguinte é de 1/4, e que a probabilidade de seca é de 3/4.
Ainda, se houver seca em um ano, no ano seguinte a probabilidade de haver seca ou muita chuva será a mesma, e igual a 1/2. Suponhamos que estas probabilidades não mudem ao passar dos anos. Os estados possíveis são Chuva (C) e Seca (S).
Se no primeiro ano houve seca, qual a probabilidade que chova muito no terceiro ano?
Árvore de Probabilidades 
Logo, se houve seca no primeiro ano, a probabilidade de chover muito no terceiro ano é de:
½  ¼ + ½  ½ = ⅜
O método da Árvore de Probabilidades é o mais simples, porém, à medida que o número de anos aumenta, as contas se tornam cada vez mais complexas. Por isso, precisamos usar outros métodos para realizarmos previsões a longo prazo.
Multiplicação da Matriz de Transição
A matriz T de transição deste problema tem a seguinte forma:
¼
¾
½
½
T = 
Para descobrirmos a probabilidade de chover no n-ésimo ano, basta multiplicarmos a matriz de transição n vezes:
chuva 
seca
seca
chuva
¼
¾
½
½
T2 =
¼
¾
½
½
=
(¼  ¼ + ¾  ½)
(½  ¼ + ½  ½)
(¼  ¾ + ¾  ½)
(½  ¾ + ½  ½)
7/16
9/16
3/8
5/8
T2 =
chuva 
seca
chuva
seca
Como podemos notar, por este método encontramos o mesmo resultado que através do método anterior: se houve seca no primeiro ano, a probabilidade de que haja muita chuva no terceiro ano é:
⅜
Agora que já aprendemos dois métodos de previsão de fenômenos utilizando Cadeias de Markov e Processos Estocásticos, vamos analisar outros casos.
JOGO DE FUTEBOL
Observa-se que a probabilidade de tal time de futebol ganhar, perder ou empatar uma partida obedece à matriz T. Se o time não melhora, nem piora, ele consegue mais vitórias ou derrotas a longo prazo? 
.5
.2
.3
.3
.3
.4
.2
.4
.4
T = 
vencer
perder
empatar
empatar
vencer
perder
.5
.2
.3
.3
.3
.4
.2
.4
.4
T2 = 
.5
.2
.3
.3
.3
.4
.2
.4
.4
=
.37
.28
.35
.32
.31
.37
.30
.32
.32
T2  T2 = 
.37
.28
.35
.32
.31
.37
.30
.32
.32
.37
.28
.35
.32
.31
.37
.30
.32
.32
= 
.3315
.2942
.3661
.3286
.3042
.3673
.3094
.3116
.3450
= T4
empatar
vencer
perder
empatar
vencer
perder
Nota-se que se ele vence, a probabilidade de perder o próximo jogo vai aumentando. Se ele perde, a probabilidade de ganhar aumenta. E se ele empata, a probabilidade de ganhar aumenta.
.5
.2
.3
.3
.3
.4
.2
.4
.4
T = 
vencer
perder
empatar
vencer
perder
empatar
vencer
perder
.3315
.2942
.3661
.3286
.3042
.3673
.3094
.3116
.3450
T4 =
empatar
vencer
perder
empatar
vencer
perder
Uma moeda é jogada para o alto e ao cair, indicará o movimento a ser feito. Se der cara: anda para frente. Se der coroa: anda para trás.
Se ele parte do ponto 0, qual a probabilidade de ele estar no ponto 2 na 3ª rodada, se ele estava no ponto 0 na 1ª rodada?
Um homem resolve fazer um jogo.
PASSEIO ALEATÓRIO
1ª Rodada: 0
2ª Rodada: -1 1
3ª Rodada: -2 0 0 2
.5
.5
.5
.5
.5
.5
Analisando a árvore, podemos concluir que a probabilidade de ele estar no ponto 2 na 3a rodada é :
(.5)  (.5) = (.25)
PESQUISA DE MERCADO
Uma equipe de pesquisa de mercado está fazendo um levantamento sobre a preferência dos atletas em relação aos uniformes. A mostra consiste de 200 atletas, cada um experimentando diversas marcas durante os meses. A seguinte estatística sobre a preferência é observada.
Existem duas opções: Adidas ou Nike. 
A probabilidade de um consumidor da Adidas mudar para Nike é 0,2 e a probabilidade de um consumidor da Nike mudar para Adidas é 0,3 a cada mês.
Suponha que 120 estejam usando Adidas e 80 Nike.
Quantos estarão usando cada uma das marcas dois meses depois? 
0,7
0,2
0,3
0,8
120
80
C = 
Nike
Adidas
P = 
Nike
Adidas
Nike
Adidas
0,7
0,2
0,3
0,8
120
80
=
100
100
2x1
2x1
2x2
100
100
2x1
0,7
0,2
0,3
0,8
2x2
=
90
110
2x1
Logo, dois meses depois, 90 atletas usarão Adidas e 110 usarão Nike.
Primeiro mês: 
Segundo mês: 
CHUTE A GOL
Um jogador precisa bater faltas. Ele tem três chances de chutes e pode acertar ou errar o gol. Qual a probabilidade de ele chutar para fora a 3ª bola, sendo que ele chutou para fora a 1ª bola, sabendo que as probabilidades seguem a matriz a seguir e não mudam com o tempo?
.3
.7
.2
.8
gol
gol
fora
fora
.3
.7
.2
.8
.3
.7
.2
.8
=
.23
.77
.22
.78
gol
fora
gol
fora
A probabilidade de ele errar o terceiro chute tendo errado o primeiro é de 0,78
Aplicações dos Processos Estocásticos
Teoria das Filas
Fluxo de Pacientes 
Filas para atendimento
Prestação de serviços
SISTEMA REGIDO PELAS LEIS DOS PROCESSOS ESTOCÁSTICOS 
PROCESSO DE CHEGADA 
E SERVIÇO 
Aplicações em: ecologia, finanças, genética, entre outros.

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?

Outros materiais