Buscar

Processos_Estocasticos.2012.2.bcmt

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

Universidade Federal do Rio de Janeiro
Disciplina: Álgebra Linear II
Professor Mário Jorge de Oliveira
Componentes:
AnaBeatriz BrandãoMedina
André da Silva Camargo
Luiz Ricardo
Nathália Macedo
Vinícius Ferreira
Processos Estocásticos
	Sistemas dinâmicos estocásticos vem ganhando cada vez mais interesse nas últimas décadas pela diversidade de problemas cuja modelagem inclui algum aspecto probabilístico. Existem várias maneiras da aleatoriedade entrar em um sistema dinâmico contínuo ou discreto.
• 	Objetivo: descrever e modelar a variabilidade e 	tomar decisões na presença de variabilidade 	(inferência estatística). 
• 	Fundamento: o modelo deve possuir ao menos 	um elemento intrinsecamente aleatório.
Processos Estocásticos
Introdução
Quando falamos em Processos Estocásticos, logo pensamos em probabilidade e estatística. Como o próprio nome diz, um processo estocástico é usado para modelar sistemas que se comportam de forma não determinística, incerta, sob o controle do acaso ou aleatoriamente.
Um processo estocástico é uma família de variáveis aleatórias indexadas por elementos t pertencentes a determinado intervalo temporal. Intuitivamente, se uma variável aleatória é um número real que varia aleatoriamente, um processo estocástico é uma função temporal que varia aleatoriamente.
De forma simplificada, podemos dizer que processos estocásticos são processos aleatórios que dependem do tempo. 
Introdução
Processos Estocásticos
Experimento, Esp. Amostral e Evento
Processos Estocásticos
	O experimento é o termo utilizado para indicar a realização de algo, ou a observação de algo, que acontece sob certas condições, levando a um resultado. 
	Ocasionalmente, a natureza de um experimento faz com que o seu resultado seja definido unicamente pelas condições nas quais o experimento é realizado. Na prática, todavia, observa-se que muitos experimentos não apresentam a propriedade de repetitividade, mesmo sob condições supostamente idênticas. Este é o caso quando existem fatores que influenciam o resultado, mas que não são de conhecimento do experimentador ou que o experimentador não pode controlar e, também, quando os fatores que supostamente estão sob controle, na verdade não estão. O resultado não pode, então, ser predito a partir do conhecimento das “condições” sob as quais o experimento foi realizado. Neste caso, fala-se do experimento como sendo um “experimento envolvendo o acaso” ou, simplesmente, “experimento aleatório”. Devido à imprevisibilidade ou ao elemento do acaso no experimento, o tipo de modelo matemático usual envolvendo equações determinísticas é inadequado e um novo tipo de estrutura matemática é necessário para representar os fenômenos de interesse, denominados processos estocásticos. Uma vez que o resultado do experimento não é previsível, ele vai ser um dentre os muitos resultados possíveis. 
	
	
	O espaço amostral de um experimento aleatório é o conjunto de todos os resultados possíveis do experimento, sendo geralmente denotado por S. Normalmente, é interessante focalizar a atenção em subconjuntos do espaço amostral S.
	Para tanto, define-se um evento como qualquer subconjunto E do espaço amostral S (E ⊂ S).
Processos Estocásticos
Axiomas de Probabilidade
	O ingrediente principal do modelo matemático de um experimento aleatório é a noção de probabilidade, a qual formaliza o conceito de que alguns eventos são mais verossímeis do que outros, em termos de suas freqüências de ocorrência relativas. 
	Os axiomas de probabilidade permitem a manipulação de combinações de eventos (eventos compostos);
	Seja S um espaço amostral, seja ε uma classe que comporta todos os possíveis eventos em S, e seja P uma função de valores reais definida em ε. Então P é denominada de função de probabilidade e P <E> é denominada de probabilidade de E se os seguintes axiomas forem válidos:
Processos Estocásticos
Axiomas de Probabilidade
Axioma 1: Para todo evento E, 0 ≤ P <E> ≤ 1. 
	
	O axioma 1 determina que a probabilidade de que o resultado de um experimento é um ponto em E é algum número entre 0 e 1.
Axioma 2: P<S> = 1. 
	O axioma 2 determina que, com probabilidade igual a 1, o resultado será um ponto no espaço amostral S.
Axioma 3:
	Para qualquer seqüência de eventos mutuamente exclusivos E1, E2, ... (isto é, eventos para os quais Ei ∩ Ej = ∅ quando i ≠ j),
	Algumas proposições simples podem ser deduzidas a partir dos axiomas enumerados acima: 
Processos Estocásticos
Proposições Probabilísticas
	Proposição 1: Dado que E e Ec são eventos sempre mutuamente exclusivos e, visto que E ∪ Ec = S, pelos Axiomas 1 e 2 temos que: 
	De forma equivalente, a equação acima pode ser escrita como: 
	Em palavras, a proposição 1 afirma que a probabilidade de um evento não ocorrer é igual a 1 menos a probabilidade do evento ocorrer. 
Proposição 2: 
	Para deduzir a fórmula para P <E ∪ F> é necessário lembrar que (E ∪ F) pode ser escrito como a união de dois eventos disjuntos E e (Ec ∩ F). Assim, utilizando o Axioma 3, temos que: 
Processos Estocásticos
além disto, como F = (E ∩ F) ∪ (Ec ∩ F), obtemos pelo Axioma 3 que: 
ou, de forma equivalente: 
completando assim a prova de que 
	Esta proposição pode também ser demonstrada utilizando o diagrama de Venn mostrado abaixo: 
	As divisões no diagrama mostram três seções mutuamente exclusivas. Em palavras, a seção I representa todos os pontos em E que não estão em F (isto é, E ∩ FC); a seção II representa todos os pontos que estão tanto em E quanto em F (isto é, E ∩ F), e a seção III representa todos os pontos em F que não estão em E (isto é, EC ∩ F). 
Proposições Probabilísticas
Processos Estocásticos
Variável Aleatória
Variável Aleatória
	Ao se arremessar um dado, é sabido que o valor ξ da face que ficar para cima vai ser um número entre 1 e 6, mas não é possível predizer este valor. 
	Quando uma lâmpada entra em operação, o seu tempo de vida ξ também não pode ser predito. 
	Nestes dois casos, ξ é uma variável aleatória ou estocástica. ‘Arremesso de dado’ e ‘lâmpada em operação’ são experimentos. O conjunto {1, 2, 3, 4, 5, 6} e o intervalo real de unidades de tempo [0, +∞) são os espaços amostrais correspondentes.
São eventos: 
- número par na face que ficou para cima: E = {2, 4, 6}; 
- lâmpada com tempo de vida inferior a 400 unidades de tempo: 
E = [0, 400).
	Logo, uma variável aleatória é uma função que aloca um ponto do espaço amostral a cada resultado de um experimento aleatório. Dito de outro modo, uma variável aleatória é uma função associada a um experimento, sendo que a realização do experimento leva esta variável a assumir um valor dependente do acaso, mas pertencente ao respectivo espaço amostral.
Processos Estocásticos
Variável Aleatória
	Cada vez que um experimento é realizado, o resultado obtido indica a ocorrência ou não de um determinado evento (subconjunto do espaço amostral). 
	Formalização do conceito: Uma variável aleatória ξ é uma função com as seguintes propriedades: 
ξ assume valores no espaço amostral S de um experimento; 
- para todo evento E ⊂ S, a probabilidade de que ξ assuma um valor x ∈ E após a realização do experimento, dada por P〈x ∈ E〉 = P〈E〉, é bem definida (embora possa ser desconhecida). 
	É sempre possível obter uma função distribuição de probabilidade definida em todo o espaço amostral. Geralmente, se emprega a função distribuição cumulativa de probabilidade. Apenas uma quantidade reduzida de tipos de distribuição são verificadas em aplicações práticas. São divididas em duas classes:
	1. distribuições discretas: ocorrem em experimentos que requerem contagem. Exemplos: pessoas com menos de 30 anos, mortes por câncer, produtos com defeito. 
	2. distribuições contínuas: ocorrem em experimentos que requerem medidas. Exemplos: tensão elétrica, pressão sanguínea, vazão de rio.
Processos Estocásticos
Distribuições e V. Aleatórias Discretas
	Uma variável aleatória ξ e sua distribuição de probabilidade são discretas
se o espaço amostral (onde ξ assume valores) contém apenas um número finito de elementos ou um número infinito, mas contável, de elementos.
Distribuições e Variáveis Aleatórias Discretas
onde xj, j = 1,2,..., são os elementos do espaço amostral.
Neste caso, a função massa de probabilidade assume a forma: 
e a correspondente função distribuição de probabilidade é dada por:
• Exemplo: no caso de um dado não-viciado, a variável aleatória ξ, representando a face que ficar para cima após o arremesso do dado, tem as seguintes funções massa e distribuição de probabilidade:
Processos Estocásticos
Distribuições e V. Aleatórias Discretas
	Em muitas aplicações, existe o interesse em medidas de probabilidade do tipo:
ou seja, a probabilidade de que ξ assuma qualquer valor no intervalo:
onde xq e xr não precisam necessariamente ser elementos de S.
Da definição:
de função distribuição de probabilidade, fica evidente que:
como a variável aleatória ξ é discreta, resulta:
E uma consequência direta é o resultado a seguir:
Processos Estocásticos
Proposições Probabilísticas
Do diagrama de Venn, observamos que: 
Como I, II e III são mutuamente exclusivos, temos pelo Axioma 3 que:
Mostrando que
visto que II = E ∩ F , temos então:
que é conhecida como a lei de adição de probabilidades.
em palavras, pode ser expressa como: 
	A probabilidade do evento E ou do evento F ocorrer é a soma de suas probabilidades em separado menos a probabilidade de ambos ocorrerem. No caso dos eventos E e F serem mutuamente exclusivos, eles não terão pontos em comum e, portanto,
Neste caso,
, como já indicado pelo axioma 3.
Distribuições e Variáveis Aleatórias Contínuas
Processos Estocásticos
	Uma variável aleatória ξ e sua distribuição de probabilidade são contínuas se o espaço amostral (onde ξ assume valores) contém um número infinito e incontável de elementos. 
	Neste caso, valem as seguintes relações entre as funções distribuição Fξ (⋅) e densidade fξ (⋅)de probabilidade: 
e
Distribuições e V. Aleatórias Contínuas
	Como no caso discreto, existe o interesse em medidas de probabilidade do tipo: 
ou seja, a probabilidade de que ξ assuma qualquer valor no intervalo:
onde xq e xr não precisam necessariamente ser elementos de S.
Processos Estocásticos
Distribuições e V. Aleatórias Contínuas
Da definição
de função distribuição de probabilidade, fica evidente que: 
para uma variável aleatória ξ contínua, resulta:
e uma consequência direta é o resultado a seguir:
• Exemplo: uma variável aleatória ξ com distribuição normal tem as seguintes funções densidade e distribuição de probabilidade:
Processos Estocásticos
Funções Densidade de Probabilidade
	Exemplos de funções densidade de probabilidade:
	• normal: uma variável aleatória contínua é chamada normal ou gaussiana se sua densidade de probabilidade pode ser expressa na forma:
	• uniforme: uma variável aleatória contínua é chamada uniforme no intervalo [x1,x2] se sua densidade de probabilidade pode ser expressa na forma: 
	• binomial: uma variável aleatória discreta tem uma distribuição binomial de ordem n se sua densidade de probabilidade pode ser expressa na forma: 
Processos Estocásticos
Exemplo
• Exemplo:
	
	Sabendo que a probabilidade de um evento A ocorrer em um dado experimento é p, a probabilidade deste evento A ocorrer k vezes em n ≥ k experimentos (sob as mesmas condições) é dada por:
e a probabilidade deste evento A ocorrer até k vezes em n ≥ k experimentos (sob as mesmas condições) é dada por:
Processos Estocásticos
Média e Variância da Distribuição
Média e variância da distribuição
	A função distribuição de probabilidade Fξ (⋅), ou equivalentemente a função massa ou densidade de probabilidade fξ (⋅), determinam completamente uma variável aleatória. Sendo assim, parâmetros e propriedades (como simetria) da variável aleatória podem ser obtidos a partir destas funções de probabilidade.
	Dado o tipo de distribuição e na presença de simetria, a média e a variância passam a descrever completamente a variável aleatória.
• Definição 1: o valor médio ou a média de uma variável aleatória ξ é dado por:
, para o caso discreto (o somatório é sobre todos os valores possíveis de j);
, para o caso contínuo.
	A média é também conhecida como esperança matemática:
	Por hipótese, é suposto que a série (caso discreto) converge absolutamente e que a integral (caso contínuo) existe (tem um valor finito).
Processos Estocásticos
Média e Variância da Distribuição
• Definição 2: a distribuição é dita simétrica em relação a um valor c se
• Teorema 1: Se uma distribuição é simétrica em relação a um valor c e tem média ξ, então ξ = c.
• Definição 3: A variância de uma distribuição é denotada por σ2, sendo dada por:
, para o caso discreto (o somatório é sobre todos os valores possíveis de j); 
, para o caso contínuo.
Por hipótese, é suposto que a série (caso discreto) converge absolutamente e que a integral (caso contínuo) existe (tem um valor finito).
	Com exceção do caso em que f(z) = 1 em um único ponto e se anula alhures, para o qual resulta σ2 = 0, em todos os outros casos, sempre vai ocorrer σ2 > 0. 
Processos Estocásticos
Média e Variância da Distribuição
• Definição 4: A raiz quadrada da variância é denominada desvio padrão, tendo por notação σ. 
Como conseqüência, a variável aleatória
tem média zero e variância unitária.
• Definição 5: Para qualquer variável aleatória ξ e qualquer função contínua g(⋅): ℜ → ℜ, a esperança matemática de g(ξ) é dada por:
, para o caso discreto (o somatório é sobre todos os valores possíveis de j);
, para o caso contínuo.
Tomando
, as esperanças matemáticas acima representam o k-ésimo momento de ξ.
Tomando
, as esperanças matemáticas acima representam o k-ésimo momento central de ξ.
Processos Estocásticos
Média e Variância da Distribuição
Lembre-se que o operador esperança matemática é linear, ou seja:
;
, com α determinístico e constante.
Processos Estocásticos
Medidas Amostrais
• média amostral (N amostras): 
 
• variância amostral: 
 
• desvio padrão amostral: 
 
• covariância amostral: 
 
• coeficiente de correlação amostral: 
Medidas Amostrais
Processos Estocásticos
Cadeias de Markov
História
	Andrei Andreyevich Markov foi um matemático russo. Markov formou-se na universidade de St. Petersburg em 1878 e veio a se tornar professor na mesma em 1886. Os primeiros trabalhos de Markov foram limite de integrais e teoria da aproximação.
Depois de 1900, Markov aplicou métodos de frações contínuas, na teoria da probabilidade.
	Ficou conhecido por provar o teorema do limite central e ter criado as “Cadeias de Markov”.
Cadeias de Markov
Processos Estocásticos
Cadeias de Markov
	Muitos dos processos que ocorrem na natureza e na sociedade podem ser estudados como se o fenômeno estudado passasse, a partir de um estado inicial, por uma sequencia de estados, onde a transição de um determinado estado para o seguinte ocorreria segundo uma certa probabilidade.
	No caso em que esta probabilidade de transição depende apenas do estado em que o fenômeno se encontra e do estado a seguir, o processo será chamado de processo de Markov e uma sequência de estados seguindo este processo será denominada uma cadeia de Markov. 
	Cadeia de Markov é um processo estocástico que pode ser visto como a representação de estados aleatórios independente dos estados anteriores.
	Após a análise estuda-se a variação entre estados de acordo com o tempo, assim, montando uma matriz de transição com as probabilidades de transição do estado i para o estado j.
Processos Estocásticos
Cadeias de Markov
	A matriz de transição de probabilidades em uma cadeia de Markov é dada por:
Note que a  Pj = 1.
T =
Métodos utilizados para resolução de uma Cadeia de Markov
Método I:Quando o número de transições é pequeno. Assim
devemos apenas multiplicar a matriz de transição. Sendo a matriz de transição P, poderemos descobrir a matriz de possibilidades da 2ª geração calculando o produto PxP. Para descobrir a 3ª geração fazemos P²xP, e assim em diante.
Método II: é utilizado para fazer previsões a longo prazo. Sendo P a matriz de transição e Q o vetor de estado estacionário , temos que PxQ=Q, ou (I-P)xQ=0, sendo I a matriz identidade ou matriz 1. E cada fator Qi, representa a probabilidade do estado i ocorrer ao longo prazo.
Processos Estocásticos
Exercícios
1- Para se combater uma determinada espécie de insetos,
aplica-se um certo tipo de inseticida numa plantação. Após a aplicação verifica-se que, dos poucos insetos sobreviventes, 60% eram resistentes ao inseticida e os outros 40% não o eram (e haviam sobrevivido por razões
casuais). Sabe-se que o ciclo de vida desses insetos é de um ano e que eles se cruzam apenas uma vez em cada geração. Além disso, ficou comprovado que a resistência ao inseticida é uma característica dominante e que o inseticida não foi aplicado novamente. Qual é a porcentagem de insetos resistentes ao inseticida após dois anos?
Solução:
O tipo mais simples de transmissão de herança genética é efetuado através de pares de genes, podendo estes ser ambos dominantes, recessivos, ou um dominante e outro recessivo. Chamemos G o gene dominante e g o recessivo . Um indivíduo será chamado dominante se tiver genes GG, híbrido se tiver genes Gg, e recessivo, caso os genes sejam gg. Um indivíduo herda seus genes ao acaso, um deles de seu pai e o outro de sua mãe. Assim, nos vários tipos de cruzamento, temos probabilidades distintas de transmissão de herança genética.
No caso de cruzamento entre dominantes, teremos somente filhos dominantes.
 Cruzando indivíduos recessivos, teremos somente filhos recessivos
 Cruzando um dominante com um recessivo, temos somente híbridos
 No cruzamento de um indivíduo dominante (GG) com um híbrido (Gg), temos como resultado indivíduos GG com probabilidade 0, 5; indivíduos Gg com probabilidade 0,5 e não teremos indivíduos gg, isto é ,a probabilidade de gg é 0.
 No caso de cruzarmos um indivíduo recessivo (gg) com um híbrido (Gg), teremos probabilidade 0 para GG, probabilidade 0,5 para Gg, e probabilidade 0; 5 para gg.
 E, finalmente, no caso de dois indivíduos híbridos (Gg), temos: indivíduos GG com probabilidade 0,25; indivíduos Gg com probabilidade 0,5 e indivíduos gg com probabilidade 0; 25.
 Notação: usaremos d para indicar qualquer característica dominante, r para características recessivas, e h para indivíduos híbridos; além disso, usaremos dxd, dxr, etc., para os representar os diversos cruzamentos possíveis.
Colocando as probabilidades em colunas, podemos montar a seguinte matriz T:
Além disso, numa população numerosa composta por uma porcentagem pd de indivíduos de características dominantes, ph de indivíduos híbridos e pr de indivíduos de características recessivas, a probabilidade de cruzamento de genes de um indivíduo dominante com outro dominante é de pd.pd. Se quisermos calcular a probabilidade de um cruzamento onde um indivíduo é dominante e o outro é híbrido, temos que somar pd.ph(considerando que o primeiro é dominante e o segundo é híbrido) a ph.pd. Assim, a probabilidade é de 2pd.ph. Os outros casos seguem o mesmo raciocínio e temos então:
Por ser uma característica dominante, os insetos resistentes podem ser de genótipo GG ou Gg na relação de 1:2 e, assim, 20% dos insetos resistentes
são dominantes e 40% são híbridos. Temos, portanto, e assim a distribuição dos insetos será:
 Ou seja, . Após mais ano a distribuição dos insetos será dada por:
Ou seja, . Assim após dois anos, a porcentagem dos insetos resistentes ao inseticida será 
 
 Dessa forma 64% da população é resistente, então não conveniente e aplicar o inseticida do mesmo tipo, pois apenas 36% dos insetos iria morrer
2- Em um censo populacional de uma cidade de médio porte, foi constatado que a cada ano 7% da população rural migra para a zona urbana e que 2% da população urbana migra para a zona rural. Supondo que este fenômeno social seja estável, não havendo mudanças nestas taxas, temos os seguintes itens:
Represente o diagrama de transição.
Solução:
B) Monte a matriz de transição
Solução:
3- Duas substâncias distintas estão em contato a trocam íons de sódio entre si. Por dedução teórica ou empírica, sabe-se que um íon de sódio do meio (1) abaixo tem probabilidade 0,7 de passar ao meio (2), enquanto que um íon de sódio do meio (2) tem probabilidade 0,1 de passar para o meio (1). Colocando-se 2 móis de sódio no meio (1), quais serão as concentrações de sódio em cada um dos meios, após um longo período de tempo?
Solução:
Os estados deste processo são: o íon está no meio (1) e o íon está no meio (2). A matriz de transição é:
Sejam p1 e p2 as respectivas probabilidades de estar no meio (1) ou (2). No instante inicial, todo o sódio foi colocado no meio (1), então
 e
 A matriz é regular, logo a longo prazo as probabilidades não dependem das probabilidades iniciais, e devem satisfazer
Temos . Logo, as concentrações de sódio em cada meio são:
 
 móis no meio 1 
 móis no meio 2
 
4- Considere duas companhias de comidas prontas, M e N. Cada ano, a companhia M conserva de seus fregueses, enquanto que se transferem para N. Cada ano, N conserva de seus fregueses, enquanto transferem-se para M. Suponha que a distribuição inicial do mercado é dada por:
Ache a distribuição estável do mercado.
Solução:
• + =
• + =
Obs: + =1. Daí temos que e .
44
Processos Estocásticos
Referências Bibliográficas
• BULMER, M.G. “Principles of Statistics”, Dover, 1979. 
• DOS REIS, S.F. “Introdução ao Estudo de Probabilidade”, Notas de Aula do Curso de Genética Populacional Teórica, IB/Unicamp, 2001. 
• EVANS, D.H. “Probability and Its Applications for Engineers”, ASQC Quality Press, 1992. 
• KREYSZIG, E. “Advanced Engineering Mathematics”, 7th edition, John Wiley & Sons, 1993. 
• LINDGREN, B.D. “Statistical Theory”, Macmillan Publishing Company, 1976. 
• LIPSCHUTZ, S. “Theory and Problems of Probability”, McGraw-Hill Book Company, 1965. 
• MARDIA, K.V., KENT, J.T. & BIBBY, J.M. “Multivariate Analysis”, Academic Press, 1979. 
Referências Bibliográficas
• MONTGOMERY, D.C. & RUNGER, G.C. “Applied Statistics and Probability for Engineers”, John Wiley & Sons, 1994. 
• MOOD, A.M. & GRAYBILL, F.A. “Introduction to the Theory of Statistics”, McGraw-Hill Book Company, 1963. 
• PAPOULIS, A. “Probability, Random Variables, and Stochastic Processes”, Third Edition, McGraw-Hill, 1991. 
• ROSS, S. “A First Course in Probability”, Macmillan Publishing Company, 1984. 
• WALPOLE, R.E. & MYERS, R.H. “Probability and Statistics for Engineers and Scientists”, Fifth Edition, Macmillan Publishing Company, 1993.
• Boldrini/Costa, Figueiredo/Wetzler ; Álgebra Linear 3ª edição – Editora Harbra Ltda. (1986)
• Wikipedia – http://www.wikipedia.org
Processos Estocásticos
Referências Bibliográficas

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?

Outros materiais