Baixe o app para aproveitar ainda mais
Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original
Universidade Federal do Rio de Janeiro Disciplina: Álgebra Linear II Professor Mário Jorge de Oliveira Componentes: AnaBeatriz BrandãoMedina André da Silva Camargo Luiz Ricardo Nathália Macedo Vinícius Ferreira Processos Estocásticos Sistemas dinâmicos estocásticos vem ganhando cada vez mais interesse nas últimas décadas pela diversidade de problemas cuja modelagem inclui algum aspecto probabilístico. Existem várias maneiras da aleatoriedade entrar em um sistema dinâmico contínuo ou discreto. • Objetivo: descrever e modelar a variabilidade e tomar decisões na presença de variabilidade (inferência estatística). • Fundamento: o modelo deve possuir ao menos um elemento intrinsecamente aleatório. Processos Estocásticos Introdução Quando falamos em Processos Estocásticos, logo pensamos em probabilidade e estatística. Como o próprio nome diz, um processo estocástico é usado para modelar sistemas que se comportam de forma não determinística, incerta, sob o controle do acaso ou aleatoriamente. Um processo estocástico é uma família de variáveis aleatórias indexadas por elementos t pertencentes a determinado intervalo temporal. Intuitivamente, se uma variável aleatória é um número real que varia aleatoriamente, um processo estocástico é uma função temporal que varia aleatoriamente. De forma simplificada, podemos dizer que processos estocásticos são processos aleatórios que dependem do tempo. Introdução Processos Estocásticos Experimento, Esp. Amostral e Evento Processos Estocásticos O experimento é o termo utilizado para indicar a realização de algo, ou a observação de algo, que acontece sob certas condições, levando a um resultado. Ocasionalmente, a natureza de um experimento faz com que o seu resultado seja definido unicamente pelas condições nas quais o experimento é realizado. Na prática, todavia, observa-se que muitos experimentos não apresentam a propriedade de repetitividade, mesmo sob condições supostamente idênticas. Este é o caso quando existem fatores que influenciam o resultado, mas que não são de conhecimento do experimentador ou que o experimentador não pode controlar e, também, quando os fatores que supostamente estão sob controle, na verdade não estão. O resultado não pode, então, ser predito a partir do conhecimento das “condições” sob as quais o experimento foi realizado. Neste caso, fala-se do experimento como sendo um “experimento envolvendo o acaso” ou, simplesmente, “experimento aleatório”. Devido à imprevisibilidade ou ao elemento do acaso no experimento, o tipo de modelo matemático usual envolvendo equações determinísticas é inadequado e um novo tipo de estrutura matemática é necessário para representar os fenômenos de interesse, denominados processos estocásticos. Uma vez que o resultado do experimento não é previsível, ele vai ser um dentre os muitos resultados possíveis. O espaço amostral de um experimento aleatório é o conjunto de todos os resultados possíveis do experimento, sendo geralmente denotado por S. Normalmente, é interessante focalizar a atenção em subconjuntos do espaço amostral S. Para tanto, define-se um evento como qualquer subconjunto E do espaço amostral S (E ⊂ S). Processos Estocásticos Axiomas de Probabilidade O ingrediente principal do modelo matemático de um experimento aleatório é a noção de probabilidade, a qual formaliza o conceito de que alguns eventos são mais verossímeis do que outros, em termos de suas freqüências de ocorrência relativas. Os axiomas de probabilidade permitem a manipulação de combinações de eventos (eventos compostos); Seja S um espaço amostral, seja ε uma classe que comporta todos os possíveis eventos em S, e seja P uma função de valores reais definida em ε. Então P é denominada de função de probabilidade e P <E> é denominada de probabilidade de E se os seguintes axiomas forem válidos: Processos Estocásticos Axiomas de Probabilidade Axioma 1: Para todo evento E, 0 ≤ P <E> ≤ 1. O axioma 1 determina que a probabilidade de que o resultado de um experimento é um ponto em E é algum número entre 0 e 1. Axioma 2: P<S> = 1. O axioma 2 determina que, com probabilidade igual a 1, o resultado será um ponto no espaço amostral S. Axioma 3: Para qualquer seqüência de eventos mutuamente exclusivos E1, E2, ... (isto é, eventos para os quais Ei ∩ Ej = ∅ quando i ≠ j), Algumas proposições simples podem ser deduzidas a partir dos axiomas enumerados acima: Processos Estocásticos Proposições Probabilísticas Proposição 1: Dado que E e Ec são eventos sempre mutuamente exclusivos e, visto que E ∪ Ec = S, pelos Axiomas 1 e 2 temos que: De forma equivalente, a equação acima pode ser escrita como: Em palavras, a proposição 1 afirma que a probabilidade de um evento não ocorrer é igual a 1 menos a probabilidade do evento ocorrer. Proposição 2: Para deduzir a fórmula para P <E ∪ F> é necessário lembrar que (E ∪ F) pode ser escrito como a união de dois eventos disjuntos E e (Ec ∩ F). Assim, utilizando o Axioma 3, temos que: Processos Estocásticos além disto, como F = (E ∩ F) ∪ (Ec ∩ F), obtemos pelo Axioma 3 que: ou, de forma equivalente: completando assim a prova de que Esta proposição pode também ser demonstrada utilizando o diagrama de Venn mostrado abaixo: As divisões no diagrama mostram três seções mutuamente exclusivas. Em palavras, a seção I representa todos os pontos em E que não estão em F (isto é, E ∩ FC); a seção II representa todos os pontos que estão tanto em E quanto em F (isto é, E ∩ F), e a seção III representa todos os pontos em F que não estão em E (isto é, EC ∩ F). Proposições Probabilísticas Processos Estocásticos Variável Aleatória Variável Aleatória Ao se arremessar um dado, é sabido que o valor ξ da face que ficar para cima vai ser um número entre 1 e 6, mas não é possível predizer este valor. Quando uma lâmpada entra em operação, o seu tempo de vida ξ também não pode ser predito. Nestes dois casos, ξ é uma variável aleatória ou estocástica. ‘Arremesso de dado’ e ‘lâmpada em operação’ são experimentos. O conjunto {1, 2, 3, 4, 5, 6} e o intervalo real de unidades de tempo [0, +∞) são os espaços amostrais correspondentes. São eventos: - número par na face que ficou para cima: E = {2, 4, 6}; - lâmpada com tempo de vida inferior a 400 unidades de tempo: E = [0, 400). Logo, uma variável aleatória é uma função que aloca um ponto do espaço amostral a cada resultado de um experimento aleatório. Dito de outro modo, uma variável aleatória é uma função associada a um experimento, sendo que a realização do experimento leva esta variável a assumir um valor dependente do acaso, mas pertencente ao respectivo espaço amostral. Processos Estocásticos Variável Aleatória Cada vez que um experimento é realizado, o resultado obtido indica a ocorrência ou não de um determinado evento (subconjunto do espaço amostral). Formalização do conceito: Uma variável aleatória ξ é uma função com as seguintes propriedades: ξ assume valores no espaço amostral S de um experimento; - para todo evento E ⊂ S, a probabilidade de que ξ assuma um valor x ∈ E após a realização do experimento, dada por P〈x ∈ E〉 = P〈E〉, é bem definida (embora possa ser desconhecida). É sempre possível obter uma função distribuição de probabilidade definida em todo o espaço amostral. Geralmente, se emprega a função distribuição cumulativa de probabilidade. Apenas uma quantidade reduzida de tipos de distribuição são verificadas em aplicações práticas. São divididas em duas classes: 1. distribuições discretas: ocorrem em experimentos que requerem contagem. Exemplos: pessoas com menos de 30 anos, mortes por câncer, produtos com defeito. 2. distribuições contínuas: ocorrem em experimentos que requerem medidas. Exemplos: tensão elétrica, pressão sanguínea, vazão de rio. Processos Estocásticos Distribuições e V. Aleatórias Discretas Uma variável aleatória ξ e sua distribuição de probabilidade são discretas se o espaço amostral (onde ξ assume valores) contém apenas um número finito de elementos ou um número infinito, mas contável, de elementos. Distribuições e Variáveis Aleatórias Discretas onde xj, j = 1,2,..., são os elementos do espaço amostral. Neste caso, a função massa de probabilidade assume a forma: e a correspondente função distribuição de probabilidade é dada por: • Exemplo: no caso de um dado não-viciado, a variável aleatória ξ, representando a face que ficar para cima após o arremesso do dado, tem as seguintes funções massa e distribuição de probabilidade: Processos Estocásticos Distribuições e V. Aleatórias Discretas Em muitas aplicações, existe o interesse em medidas de probabilidade do tipo: ou seja, a probabilidade de que ξ assuma qualquer valor no intervalo: onde xq e xr não precisam necessariamente ser elementos de S. Da definição: de função distribuição de probabilidade, fica evidente que: como a variável aleatória ξ é discreta, resulta: E uma consequência direta é o resultado a seguir: Processos Estocásticos Proposições Probabilísticas Do diagrama de Venn, observamos que: Como I, II e III são mutuamente exclusivos, temos pelo Axioma 3 que: Mostrando que visto que II = E ∩ F , temos então: que é conhecida como a lei de adição de probabilidades. em palavras, pode ser expressa como: A probabilidade do evento E ou do evento F ocorrer é a soma de suas probabilidades em separado menos a probabilidade de ambos ocorrerem. No caso dos eventos E e F serem mutuamente exclusivos, eles não terão pontos em comum e, portanto, Neste caso, , como já indicado pelo axioma 3. Distribuições e Variáveis Aleatórias Contínuas Processos Estocásticos Uma variável aleatória ξ e sua distribuição de probabilidade são contínuas se o espaço amostral (onde ξ assume valores) contém um número infinito e incontável de elementos. Neste caso, valem as seguintes relações entre as funções distribuição Fξ (⋅) e densidade fξ (⋅)de probabilidade: e Distribuições e V. Aleatórias Contínuas Como no caso discreto, existe o interesse em medidas de probabilidade do tipo: ou seja, a probabilidade de que ξ assuma qualquer valor no intervalo: onde xq e xr não precisam necessariamente ser elementos de S. Processos Estocásticos Distribuições e V. Aleatórias Contínuas Da definição de função distribuição de probabilidade, fica evidente que: para uma variável aleatória ξ contínua, resulta: e uma consequência direta é o resultado a seguir: • Exemplo: uma variável aleatória ξ com distribuição normal tem as seguintes funções densidade e distribuição de probabilidade: Processos Estocásticos Funções Densidade de Probabilidade Exemplos de funções densidade de probabilidade: • normal: uma variável aleatória contínua é chamada normal ou gaussiana se sua densidade de probabilidade pode ser expressa na forma: • uniforme: uma variável aleatória contínua é chamada uniforme no intervalo [x1,x2] se sua densidade de probabilidade pode ser expressa na forma: • binomial: uma variável aleatória discreta tem uma distribuição binomial de ordem n se sua densidade de probabilidade pode ser expressa na forma: Processos Estocásticos Exemplo • Exemplo: Sabendo que a probabilidade de um evento A ocorrer em um dado experimento é p, a probabilidade deste evento A ocorrer k vezes em n ≥ k experimentos (sob as mesmas condições) é dada por: e a probabilidade deste evento A ocorrer até k vezes em n ≥ k experimentos (sob as mesmas condições) é dada por: Processos Estocásticos Média e Variância da Distribuição Média e variância da distribuição A função distribuição de probabilidade Fξ (⋅), ou equivalentemente a função massa ou densidade de probabilidade fξ (⋅), determinam completamente uma variável aleatória. Sendo assim, parâmetros e propriedades (como simetria) da variável aleatória podem ser obtidos a partir destas funções de probabilidade. Dado o tipo de distribuição e na presença de simetria, a média e a variância passam a descrever completamente a variável aleatória. • Definição 1: o valor médio ou a média de uma variável aleatória ξ é dado por: , para o caso discreto (o somatório é sobre todos os valores possíveis de j); , para o caso contínuo. A média é também conhecida como esperança matemática: Por hipótese, é suposto que a série (caso discreto) converge absolutamente e que a integral (caso contínuo) existe (tem um valor finito). Processos Estocásticos Média e Variância da Distribuição • Definição 2: a distribuição é dita simétrica em relação a um valor c se • Teorema 1: Se uma distribuição é simétrica em relação a um valor c e tem média ξ, então ξ = c. • Definição 3: A variância de uma distribuição é denotada por σ2, sendo dada por: , para o caso discreto (o somatório é sobre todos os valores possíveis de j); , para o caso contínuo. Por hipótese, é suposto que a série (caso discreto) converge absolutamente e que a integral (caso contínuo) existe (tem um valor finito). Com exceção do caso em que f(z) = 1 em um único ponto e se anula alhures, para o qual resulta σ2 = 0, em todos os outros casos, sempre vai ocorrer σ2 > 0. Processos Estocásticos Média e Variância da Distribuição • Definição 4: A raiz quadrada da variância é denominada desvio padrão, tendo por notação σ. Como conseqüência, a variável aleatória tem média zero e variância unitária. • Definição 5: Para qualquer variável aleatória ξ e qualquer função contínua g(⋅): ℜ → ℜ, a esperança matemática de g(ξ) é dada por: , para o caso discreto (o somatório é sobre todos os valores possíveis de j); , para o caso contínuo. Tomando , as esperanças matemáticas acima representam o k-ésimo momento de ξ. Tomando , as esperanças matemáticas acima representam o k-ésimo momento central de ξ. Processos Estocásticos Média e Variância da Distribuição Lembre-se que o operador esperança matemática é linear, ou seja: ; , com α determinístico e constante. Processos Estocásticos Medidas Amostrais • média amostral (N amostras): • variância amostral: • desvio padrão amostral: • covariância amostral: • coeficiente de correlação amostral: Medidas Amostrais Processos Estocásticos Cadeias de Markov História Andrei Andreyevich Markov foi um matemático russo. Markov formou-se na universidade de St. Petersburg em 1878 e veio a se tornar professor na mesma em 1886. Os primeiros trabalhos de Markov foram limite de integrais e teoria da aproximação. Depois de 1900, Markov aplicou métodos de frações contínuas, na teoria da probabilidade. Ficou conhecido por provar o teorema do limite central e ter criado as “Cadeias de Markov”. Cadeias de Markov Processos Estocásticos Cadeias de Markov Muitos dos processos que ocorrem na natureza e na sociedade podem ser estudados como se o fenômeno estudado passasse, a partir de um estado inicial, por uma sequencia de estados, onde a transição de um determinado estado para o seguinte ocorreria segundo uma certa probabilidade. No caso em que esta probabilidade de transição depende apenas do estado em que o fenômeno se encontra e do estado a seguir, o processo será chamado de processo de Markov e uma sequência de estados seguindo este processo será denominada uma cadeia de Markov. Cadeia de Markov é um processo estocástico que pode ser visto como a representação de estados aleatórios independente dos estados anteriores. Após a análise estuda-se a variação entre estados de acordo com o tempo, assim, montando uma matriz de transição com as probabilidades de transição do estado i para o estado j. Processos Estocásticos Cadeias de Markov A matriz de transição de probabilidades em uma cadeia de Markov é dada por: Note que a Pj = 1. T = Métodos utilizados para resolução de uma Cadeia de Markov Método I:Quando o número de transições é pequeno. Assim devemos apenas multiplicar a matriz de transição. Sendo a matriz de transição P, poderemos descobrir a matriz de possibilidades da 2ª geração calculando o produto PxP. Para descobrir a 3ª geração fazemos P²xP, e assim em diante. Método II: é utilizado para fazer previsões a longo prazo. Sendo P a matriz de transição e Q o vetor de estado estacionário , temos que PxQ=Q, ou (I-P)xQ=0, sendo I a matriz identidade ou matriz 1. E cada fator Qi, representa a probabilidade do estado i ocorrer ao longo prazo. Processos Estocásticos Exercícios 1- Para se combater uma determinada espécie de insetos, aplica-se um certo tipo de inseticida numa plantação. Após a aplicação verifica-se que, dos poucos insetos sobreviventes, 60% eram resistentes ao inseticida e os outros 40% não o eram (e haviam sobrevivido por razões casuais). Sabe-se que o ciclo de vida desses insetos é de um ano e que eles se cruzam apenas uma vez em cada geração. Além disso, ficou comprovado que a resistência ao inseticida é uma característica dominante e que o inseticida não foi aplicado novamente. Qual é a porcentagem de insetos resistentes ao inseticida após dois anos? Solução: O tipo mais simples de transmissão de herança genética é efetuado através de pares de genes, podendo estes ser ambos dominantes, recessivos, ou um dominante e outro recessivo. Chamemos G o gene dominante e g o recessivo . Um indivíduo será chamado dominante se tiver genes GG, híbrido se tiver genes Gg, e recessivo, caso os genes sejam gg. Um indivíduo herda seus genes ao acaso, um deles de seu pai e o outro de sua mãe. Assim, nos vários tipos de cruzamento, temos probabilidades distintas de transmissão de herança genética. No caso de cruzamento entre dominantes, teremos somente filhos dominantes. Cruzando indivíduos recessivos, teremos somente filhos recessivos Cruzando um dominante com um recessivo, temos somente híbridos No cruzamento de um indivíduo dominante (GG) com um híbrido (Gg), temos como resultado indivíduos GG com probabilidade 0, 5; indivíduos Gg com probabilidade 0,5 e não teremos indivíduos gg, isto é ,a probabilidade de gg é 0. No caso de cruzarmos um indivíduo recessivo (gg) com um híbrido (Gg), teremos probabilidade 0 para GG, probabilidade 0,5 para Gg, e probabilidade 0; 5 para gg. E, finalmente, no caso de dois indivíduos híbridos (Gg), temos: indivíduos GG com probabilidade 0,25; indivíduos Gg com probabilidade 0,5 e indivíduos gg com probabilidade 0; 25. Notação: usaremos d para indicar qualquer característica dominante, r para características recessivas, e h para indivíduos híbridos; além disso, usaremos dxd, dxr, etc., para os representar os diversos cruzamentos possíveis. Colocando as probabilidades em colunas, podemos montar a seguinte matriz T: Além disso, numa população numerosa composta por uma porcentagem pd de indivíduos de características dominantes, ph de indivíduos híbridos e pr de indivíduos de características recessivas, a probabilidade de cruzamento de genes de um indivíduo dominante com outro dominante é de pd.pd. Se quisermos calcular a probabilidade de um cruzamento onde um indivíduo é dominante e o outro é híbrido, temos que somar pd.ph(considerando que o primeiro é dominante e o segundo é híbrido) a ph.pd. Assim, a probabilidade é de 2pd.ph. Os outros casos seguem o mesmo raciocínio e temos então: Por ser uma característica dominante, os insetos resistentes podem ser de genótipo GG ou Gg na relação de 1:2 e, assim, 20% dos insetos resistentes são dominantes e 40% são híbridos. Temos, portanto, e assim a distribuição dos insetos será: Ou seja, . Após mais ano a distribuição dos insetos será dada por: Ou seja, . Assim após dois anos, a porcentagem dos insetos resistentes ao inseticida será Dessa forma 64% da população é resistente, então não conveniente e aplicar o inseticida do mesmo tipo, pois apenas 36% dos insetos iria morrer 2- Em um censo populacional de uma cidade de médio porte, foi constatado que a cada ano 7% da população rural migra para a zona urbana e que 2% da população urbana migra para a zona rural. Supondo que este fenômeno social seja estável, não havendo mudanças nestas taxas, temos os seguintes itens: Represente o diagrama de transição. Solução: B) Monte a matriz de transição Solução: 3- Duas substâncias distintas estão em contato a trocam íons de sódio entre si. Por dedução teórica ou empírica, sabe-se que um íon de sódio do meio (1) abaixo tem probabilidade 0,7 de passar ao meio (2), enquanto que um íon de sódio do meio (2) tem probabilidade 0,1 de passar para o meio (1). Colocando-se 2 móis de sódio no meio (1), quais serão as concentrações de sódio em cada um dos meios, após um longo período de tempo? Solução: Os estados deste processo são: o íon está no meio (1) e o íon está no meio (2). A matriz de transição é: Sejam p1 e p2 as respectivas probabilidades de estar no meio (1) ou (2). No instante inicial, todo o sódio foi colocado no meio (1), então e A matriz é regular, logo a longo prazo as probabilidades não dependem das probabilidades iniciais, e devem satisfazer Temos . Logo, as concentrações de sódio em cada meio são: móis no meio 1 móis no meio 2 4- Considere duas companhias de comidas prontas, M e N. Cada ano, a companhia M conserva de seus fregueses, enquanto que se transferem para N. Cada ano, N conserva de seus fregueses, enquanto transferem-se para M. Suponha que a distribuição inicial do mercado é dada por: Ache a distribuição estável do mercado. Solução: • + = • + = Obs: + =1. Daí temos que e . 44 Processos Estocásticos Referências Bibliográficas • BULMER, M.G. “Principles of Statistics”, Dover, 1979. • DOS REIS, S.F. “Introdução ao Estudo de Probabilidade”, Notas de Aula do Curso de Genética Populacional Teórica, IB/Unicamp, 2001. • EVANS, D.H. “Probability and Its Applications for Engineers”, ASQC Quality Press, 1992. • KREYSZIG, E. “Advanced Engineering Mathematics”, 7th edition, John Wiley & Sons, 1993. • LINDGREN, B.D. “Statistical Theory”, Macmillan Publishing Company, 1976. • LIPSCHUTZ, S. “Theory and Problems of Probability”, McGraw-Hill Book Company, 1965. • MARDIA, K.V., KENT, J.T. & BIBBY, J.M. “Multivariate Analysis”, Academic Press, 1979. Referências Bibliográficas • MONTGOMERY, D.C. & RUNGER, G.C. “Applied Statistics and Probability for Engineers”, John Wiley & Sons, 1994. • MOOD, A.M. & GRAYBILL, F.A. “Introduction to the Theory of Statistics”, McGraw-Hill Book Company, 1963. • PAPOULIS, A. “Probability, Random Variables, and Stochastic Processes”, Third Edition, McGraw-Hill, 1991. • ROSS, S. “A First Course in Probability”, Macmillan Publishing Company, 1984. • WALPOLE, R.E. & MYERS, R.H. “Probability and Statistics for Engineers and Scientists”, Fifth Edition, Macmillan Publishing Company, 1993. • Boldrini/Costa, Figueiredo/Wetzler ; Álgebra Linear 3ª edição – Editora Harbra Ltda. (1986) • Wikipedia – http://www.wikipedia.org Processos Estocásticos Referências Bibliográficas
Compartilhar