Baixe o app para aproveitar ainda mais
Prévia do material em texto
Aula 1 Processos Estocásticos Aplicados à Computação Variáveis Aleatórias Profª Sandra Mara Torres Müller Aula 1 Variáveis Aleatórias � É frequente que em um experimento se esteja mais interessado em algumas funções de resposta do que na resposta propriamente dita. � Exemplo: quando se joga dois dados e se está mais interessado na soma das respostas dos dados do que nos valores das respostas. Ou seja, pode se estar mais interessado se a soma dos dados é sete do que se a saída é (1,6) ou (2,5) ou (3,4) ou (4,3) ou (5,2) ou (6,1). � Essas quantidades de interesse ou estas funções de valor real definidas no espaço de amostra são chamadas de variáveis aleatórias. � Como o valor de uma variável aleatória é determinada pela saída do experimento, pode-se determinar probabilidades para os possíveis valores da variável aleatória. Aula 1 Variáveis Aleatórias � Exemplo 2.1 - Considere X como a variável aleatória definida como a soma de dois dados. Então: � Ou seja, a variável aleatória X pode assumir qualquer valor entre 2 e 12 e a probabilidade de assumir cada um destes valores é dada pela Equação 2.1. Pode-se também verificar que: Aula 1 Variáveis Aleatórias � Exemplo 2.2 – Suponha que um experimento consista de jogar duas moedas justas e Y é o número de aparições de caras. Portanto, Y é uma variável aleatória que assume um dos valores 0, 1, 2, com as respectivas probabilidades: � Novamente, P{Y = 0} + P{Y = 1} + P{Y = 2} = 1 Aula 1 Variáveis Aleatórias � Exemplo 2.3 – Suponha que uma moeda é jogada com probabilidade p de aparecer cara até que a primeira cara apareça. N é o número de jogadas necessárias e assume-se que as saídas sucessivas do experimento sejam independentes. Portanto, N é uma variável aleatória que assume um dos valores 1, 2, 3, ..., com respectivas probabilidades: (Note que:) Soma de PG infinita: Aula 1 Variáveis Aleatórias � Exemplo 2.4 – Suponha um experimento que consista em observar quanto tempo uma bateria opera antes de parar de funcionar. Suponha que não se esteja interessado no tempo de vida da bateria, mas somente se a bateria sobrevive no mínimo por dois anos. Neste caso, pode-se definir a variável aleatória I como: � Se E denota o evento em que a bateria sobrevive por dois anos ou mais, então a variável aleatória I é conhecida como indicador de variável aleatória para o evento E. Note que I é igual a 1 ou a 0 dependendo se E ocorre ou não. Aula 1 Variáveis Aleatórias � Exemplo 2.5 - Suponha que tentativas independentes são executadas continuamente. Cada uma destas tentativas resulta em uma das m possíveis saídas com respectivas probabilidades p1, ... pm, onde Considere X o número de tentativas necessárias até que cada saída tenha ocorrido pelo menos uma vez. Portanto, mais que considerar diretamente P{X = n}, deve-se determinar primeiro P{X > n}, isto é, a probabilidade que no mínimo uma das saídas não tenha ocorrido depois de n tentativas. Chamando Ai como o evento em que a saída i não tenha ainda ocorrido depois das primeiras n tentativas, i = 1, ..., m, então: Aula 1 Variáveis Aleatórias � Continuação: P(Ai) é a probabilidade que cada uma das primeiras n tentativas resulte em uma saída não-i. Pelo critério da independência: P(Ai) = (1 – pi)n. De forma similar, P(AiAj) é a probabilidade que as n primeiras tentativas resultem em saídas não-i e não-j. Portanto, P(AiAj) = (1 – pi – pj)n. Como todas as outras probabilidades são similares, observa-se que Como P{X = n} = P{X > n–1} – P{X > n}, e segundo a identidade (1 – a)n-1 – (1 – a)n = a(1 – a)n-1, tem-se que: Aula 1 Variáveis Aleatórias � Nos exemplos vistos, as variáveis aleatórias de interesse tem um número finito ou contável de valores. Um conjunto é contável se os seus elementos podem ser colocados em uma sequência de inteiros positivos. Tais variáveis aleatórias são chamadas discretas. � Entretanto existem variáveis aleatórias que podem ter valores contínuos, conhecidas como variáveis aleatórias contínuas. Um exemplo é o tempo de vida de um carro tomado em um intervalo (a,b) Aula 1 Variáveis Aleatórias - Exercícios 2. Considere X para representar a diferença entre o número de caras e de coroas obtido quando uma moeda é jogada n vezes. Quais são os possíveis valores para X? 6. Suponha que cinco moedas são jogadas. Considere E como o evento em que em que todas as moedas deram cara. Defina a variável aleatória IE como Para quais saídas no espaço amostral original que IE será igual a 1? Qual é a P{IE = 1}? Aula 1 Variáveis Aleatórias � A função de distribuição cumulativa (cdf) ou simplesmente função de distribuição, F(.), de uma variável aleatória X é definida para qualquer número real b, -∞ < b < ∞, como a função F(b) = P{X ≤ b}. � Ou seja, F(b) denota a probabilidade de que a variável aleatória X tenha um valor menor ou igual a b. Aula 1 Variáveis Aleatórias � Propriedades da função de distribuição: i. F(b) é uma função não-decrescente de b ii. limb→∞F(b) = F(∞) = 1 iii. limb→-∞F(b) = F(-∞) =0 � A propriedade i. acontece desde que, para a < b, o evento {X ≤ a} esteja contido no evento {X ≤ b} e tenha uma probabilidade menor. � As propriedades ii. e iii. acontecem desde que X assuma algum valor finito. Aula 1 Variáveis Aleatórias � Todas as questões de probabilidade sobre X podem ser respondidas em termos de sua cdf F(.). Exemplo: P{a < X ≤ b} = F(b) – F(a), para todo a < b. � Quando se deseja conhecer a probabilidade de que X seja estritamente menor que b, pode-se obter esta probabilidade como: � Note que P{X < b} não é necessariamente igual a F(b) já que F(b) também inclui a probabilidade de X ser igual a b. Aula 2 Variáveis Aleatórias Discretas � Como já mencionado, uma variável aleatória que pode ser tomada em um número possível de valores é dito ser discreta. � Para uma variável aleatória discreta, X, é definida a função de probabilidade de massa p(a) como: � Se X assume um dos valores x1,x2,..., então: � Como X pode assumir um dos valores xi, tem-se que: Aula 2 Variáveis Aleatórias Discretas � A função de distribuição cumulativa F pode ser expressa em termos de p(a) como: Exemplo: Se X tem uma função de probabilidade de massa dada por: p(1) = 1/2, p(2) = 1/3, p(3) = 1/6. Então a função de distribuição cumulativa F de X é dado por: � Variáveis aleatórias discretas são normalmente classificadas de acordo com suas funções de probabilidade de massa. Aula 2 Variável Aleatória Discreta de Bernoulli � Suponha um experimento cuja resposta possa ser classificada como ‘sucesso’ ou ‘falha’. Se X = 1 para sucesso e X = 0 para falha, então a função de probabilidade de massa de X será: Onde 0 ≤ p ≤ 1 é a probabilidade de se obter um sucesso. � Uma variável aleatória X é dita ser uma variável aleatória de Bernoulli se sua função de probabilidade de massa é dada pela Equação 2.2 para algum p∈(0,1). Aula 2 Variável Aleatória Discreta Binomial � Suponha um experimento com n testes independentes, onde cada teste resulta em um ‘sucesso’ com probabilidade p e em ‘falha’ com probabilidade 1 – p. Se X representa o número de sucessos que podem ocorrer em n testes, então X é dito ser uma variável aleatória binomial com parâmetros (n,p). � A função de probabilidade de massa de uma variável aleatória binomial com parâmetros (n,p) é dada por Onde é o número de diferentes grupos de i-objetos que podem ser selecionados de um conjunto de n-objetos. Aula 2 Variável Aleatória Discreta Binomial � A validade da Equação 2.3 pode ser verificada observando que a probabilidade de um certa sequência de n respostas contendo i sucessos e n –i falhas é, assumindo independência nos testes, pi(1 – p)n-i. � Por exemplo, se n = 3, i = 2, então há (32) = 3 formas nas quais os três testes podem resultar em dois sucessos, como (s, s, f), (s, f, s), (f, s, s). Como cada uma das três respostas tem um probabilidade de p2(1 – p) de ocorrer, a probabilidade desejada é p(2) = (32) p2(1 – p). � Note que, pelo teorema binomial, a soma das probabilidades é um. Aula 2 Variável Aleatória Discreta Binomial � Exemplo 2.6 – Quatro moedas justas são jogadas. Assumindo que as saídas sejam independentes, qual é a probabilidade de que duas caras e duas coras sejam obtidas? Considerando X como o número de caras (“sucessos”) que aparecem, então X é uma variável aleatória binomial com parâmetros (n = 4, p = ½). Portanto, pela Equação 2.3, temos: Aula 2 Variável Aleatória Discreta Binomial � Exemplo 2.7 – Sabe-se que qualquer item produzido por uma certa máquina será defeituosa com probabilidade 0,1, independente de qualquer outro item. Qual é a probabilidade de que, em uma amostra de três itens, no máximo uma seja defeituosa? Se X é o número de itens defeituosos na amostra, então X é uma variável aleatória binomial com parâmetros (3, 0,1). Assim, o probabilidade desejada é dada por: Aula 2 Variável Aleatória Discreta Binomial � Exemplo 2.8 – Suponha que um motor de avião falhe durante o vôo com probabilidade 1 – p, independente do motor. Suponha que o avião fará um vôo bem sucedido se, no mínimo, 50% dos seus motores permaneçam operando. Para quais valores de p, um avião de 4 motores é preferível a um avião de 2 motores? Como se assume que cada motor pode falhar independente do que aconteça com os outros motores, segue que o número de motores que continuam funcionando é uma variável aleatória binomial. Assim, a probabilidade que um avião de 4 motores faça um vôo bem sucedido é Aula 2 Variável Aleatória Discreta Binomial � Exemplo 2.8 – Continuação. Enquanto que a probabilidade correspondente para um avião de dois motores será: Portanto, um avião de 4 motores será mais seguro se Aula 2 Variável Aleatória Discreta Binomial � Exemplo 2.9 – Suponha que um traço particular de uma pessoa, como a cor dos olhos ou escrever com a mão esquerda, seja classificado com base em um par de genes e suponha que d represente o gene dominante e r o recessivo. Assim, uma pessoa com genes dd é dominante puro enquanto outra com rr é recessivo puro, e outra com rd é híbrido. O dominante puro e o híbrido são parecidos na aparência. Crianças recebem um gene de cada pai. Se dois pais híbridos tem um total de quatro crianças, qual é a probabilidade que exatamente três das quatro crianças tenham a aparência do gene dominante? Assumindo que cada criança é igualmente provável de herdar qualquer um dos dois genes de cada pai, as probabilidades de que a criança de dois pais híbridos tenham dd, rr, ou rd será, respectivamente, ¼, ¼, ½. A aparência será a do gene dominante se o par de genes de cada criança for dd ou rd. Assim, o número de crianças com aparência do gene dominante é binomialmente distribuído com parâmetros (4,3/4). Portanto, a probabilidade desejada é: Aula 2 Variável Aleatória Discreta Geométrica � Suponha que testes independentes, cada um com probabilidade p de obter sucesso, foram realizados até o sucesso ocorrer. Se X é o número de experimentos necessários até alcançar o primeiro sucesso, então X é dito uma variável aleatória geométrica com parâmetro p. � Sua função de probabilidade de massa é dada por � Para verificar que p(n) é uma função de probabilidade de massa tem-se que Aula 2 Variável Aleatória Discreta de Poisson � Uma variável aleatória X que assume valores 0, 1, 2,... é dita se uma variável aleatória de Poisson com parâmetro λ, se para algum λ>0 � Esta equação define a função de probabilidade de massa desde que � A variável aleatória de Poisson tem aplicações em diversas áreas. Aula 2 Variável Aleatória Discreta de Poisson � Uma importante propriedade da variável aleatória de Poisson é que ela pode ser usada para aproximar a variável aleatória binomial quando o parâmetro n é muito grande e p é pequeno. Assim, suponha que X é uma variável aleatória binomial com parâmetros (n,p) e considere λ = np. Então: � Para n grande e p pequeno tem-se que: Aula 2 Variável Aleatória Discreta de Poisson � Exemplo 2.10 – Suponha que o número de erros tipográficos em uma página de livro tenha uma distribuição de Poisson com parâmetro λ = 1. Qual a probabilidade de que haja no mínimo um erro em uma página? � Exemplo 2.11 – Se o número de acidentes que acontece a cada dia em uma rodovia é uma variável aleatória de Poisson com parâmetro λ = 3, qual é a probabilidade que não haja acidentes hoje? Aula 2 Variável Aleatória Discreta de Poisson � Exemplo 2.12 – Considere um experimento que consista da contagem do número de partículas α desprendidas em um intervalo de 1 s em um grama de material radioativo. Sabe-se que, na média, este valor é de 3,2. Então, qual seria uma boa aproximação para a probabilidade de que não mais que 2 partículas α irão aparecer? Considerando o grama de material radioativo como um grande número de n átomos, cada um com probabilidade 3,2/n de desintegrar e desprender partículas α durante o segundo considerado, então o número de partículas α desprendidas será aproximado por uma variável aleatória de Poisson com parâmetro λ = 3,2. Portanto, a probabilidade desejada é Aula 2 Variáveis Aleatórias Discretas 20. Um dono de loja de televisores calcula que 50% dos clientes que entram na loja irão comprar um televisor comum, 20% irão comprar um televisor a cores e 30% ficarão apenas olhando. Se 5 clientes entrarem na loja em um determinado dia, qual é a probabilidade de que dois clientes comprem um televisor a cores, um cliente compre um televisor comum e dois clientes não comprem nada? 32. Se você compra um cartão de loteria em 50 loterias, onde a chance de ganhar em cada uma é de 1/100, qual é a probabilidade (aproximada) de que você ganhar o prêmio: (a) no mínimo uma vez? (b) exatamente uma vez? (c) no mínimo duas vezes? Aula 3 Variáveis Aleatórias Contínuas � É dito que X é uma variável aleatória contínua, se existir uma função não-negativa f(x) definida para todo real x ∈ (-∞,∞) com a propriedade que para qualquer conjunto B de números reais tem-se que: � A função f(x) é chamada de função de densidade de probabilidade (pdf) de uma variável aleatória X Aula 3 Variáveis Aleatórias Contínuas � A Equação 2.6 mostra que a probabilidade de que X esteja em B pode ser obtida integrando sua pdf em B. Como X deve assumir alguns valores, f(x) deve satisfazer: � Toda expressão de probabilidade em relação a X pode ser escrita em termos de f(x). Por exemplo, considerando B=[a,b], temos que: � Se a = b, então: � Isto mostra que a probabilidade de que uma variável aleatória contínua assuma um valor particular é zero. Aula 3 Variáveis Aleatórias Contínuas � A relação entre a função de distribuição cumulativa F(.) e a função de densidade de probabilidade f(.) é expressa como � Derivando, temos: � Ou seja, a função de densidade de probabilidade é a derivada da função de distribuição cumulativa. Aula 3 Variáveis Aleatórias Contínuas � Uma interpretação mais intuitiva da função de densidade pode ser obtida da Equação 2.7 como: (para ε pequeno) � Assim, a probabilidade de que X está contido em um intervalo de comprimento ε em torno de um ponto a é aproximadamente εf(a). � Portanto, f(a) é a medida do quão provável a variável aleatória contínua estará próxima de a. � Existem algumas importantes variáveis aleatórias contínuasque serão estudadas. Aula 3 Variável Aleatória Contínua Uniforme � Uma variável aleatória é dita ser uniformemente distribuída sobre o intervalo (0,1), se sua função de densidade de probabilidade é dada por: � Esta função será uma pdf se f(x) ≥ 0 e Aula 3 Variável Aleatória Contínua Uniforme � Como f(x) > 0 somente quando x ∈ (0,1), segue que X deve assumir um valor em (0,1). Como f(x) é constante para x ∈ (0,1), é mais provável que X esteja perto de um valor em (0,1) do que de qualquer outro. Para verificar a afirmação, note que para 0 < a < b < 1 temos: � Isto é, a probabilidade de que X esteja em um subintervalo particular de (0,1) é igual ao comprimento desse subintervalo. Aula 3 Variável Aleatória Contínua Uniforme � Assim, pode-se dizer que X é uma variável aleatória uniforme no intervalo (α,β) se sua função de densidade de probabilidade for dada por (Eq. 2.8) Aula 3 Variável Aleatória Contínua Uniforme � Exemplo 2.13 – Calcule a função de distribuição cumulativa de uma variável aleatória uniformemente distribuída sobre (α,β). Aula 3 Variável Aleatória Contínua Uniforme � Exemplo 2.14 – Se X é uniformemente distribuído sobre (0,10), calcule a probabilidade de que (a) X < 3, (b) X > 7, (c) 1 < X < 6. Aula 3 Variável Aleatória Contínua Exponencial � Uma variável aleatória contínua é dita ser uma variável aleatória exponencial com parâmetro λ, se a função de densidade de probabilidade for dada, para algum λ>0, por: � Sua função de distribuição cumulativa F é: � Note que Aula 3 Variável Aleatória Contínua Exponencial λ = 1, 2, 5. Aula 3 Variável Aleatória Contínua Gamma � Uma variável aleatória contínua é dita ser uma variável aleatória gamma com parâmetros λ, α (λ > 0, α > 0), se sua função de densidade de probabilidade for dada por: A quantidade Γ(α) é chamada de função gamma, definida como � Pode-se mostrar por indução que Aula 3 Variável Aleatória Contínua Normal � É dito que X é uma variável aleatória normal ou simplesmente que X é normalmente distribuída com parâmetros µ e σ2, se a densidade de X for dada por � Esta função de densidade tem a forma de sino e é simétrica em relação a µ Aula 3 Variável Aleatória Contínua Normal � É importante ressaltar que se X é normalmente distribuído com parâmetros µ e σ2, então Y = αX + β é normalmente distribuído com parâmetros αµ + β e α2σ2. Para provar, suponha α > 0 e que FY(.) é a função de distribuição cumulativa da variável aleatória Y dada por Aula 3 Variável Aleatória Contínua Normal � Como então a função de densidade de probabilidade fY(.) é dada por � Daí Y é normalmente distribuída com parâmetros αµ + β e α2σ2. Isto também vale para α < 0. � Isso tudo implica que se X é normalmente distribuída, então Y, que é uma função de X, também é normalmente distribuída. � Se µ = 0 e σ = 1, isto representa uma distribuição normal unitária. Aula 3 Variáveis Aleatórias Contínuas – Exercícios 33. Considere X uma variável aleatória com densidade de probabilidade dada por (a) Qual é o valor de c? (b) Qual é a função de distribuição cumulativa de X? 35. A densidade de X é dada por Qual é a distribuição de X? Encontre P{X > 20}. Aula 4 Esperança de uma Variável Aleatória – Caso Discreto � Se X é uma variável aleatória discreta com função de probabilidade de massa p(x), então o valor esperado de X é definido por � Ou seja, o valor esperado de X é a média ponderada dos possíveis valores que X pode assumir. Cada valor é ponderado pela probabilidade de que X assume aquele valor. � Por exemplo, se a função de probabilidade de massa de X é dada por p(1) = ½ = p(2), então E[X] = 1.(1/2) + 2.(1/2) = 3/2. Por outro lado, se p(1) = 1/3 e p(2) = 2/3, então E[X] = 1.(1/3) + 2.(2/3) = 5/3. Aula 4 Esperança de uma Variável Aleatória – Caso Discreto � Exemplo 2.15 – Encontre E[X], onde X é a saída de um dado justo. Como p(1) = p(2) = p(3) = p(4) = p(5) = p(6) = 1/6, então E[X] = 1(1/6) + 2(1/6) + 3(1/6) + 4(1/6) + 5(1/6) + 6(1/6) = 7/2. � Exemplo 2.16 – (Esperança de uma variável aleatória de Bernoulli). Calcule E[X], onde X é uma variável aleatória de Bernoulli com parâmetro p. Como p(0) = 1 – p, p(1) = p, tem-se que E[X] = 0(1 – p) + 1(p) = p. Assim, o número esperado de sucessos em uma única jogada é simplesmente a probabilidade de que esta jogada obtenha sucesso. Aula 4 Esperança de uma Variável Aleatória – Caso Discreto � Exemplo 2.17 – (Esperança de uma variável aleatória Binomial) Calcule E[X], onde X é binomialmente distribuída com parâmetros n e p. Assim, o número esperado de sucessos em n tentativas independentes é n vezes a probabilidade de se obter sucesso em uma única tentativa. k = i – 1 Aula 4 Esperança de uma Variável Aleatória – Caso Discreto � Exemplo 2.18 – (Esperança de uma variável aleatória Geométrica) Calcule a esperança de uma variável aleatória geométrica com parâmetro p. Assim, o número esperado de tentativas independentes necessárias para obter o primeiro sucesso é igual o recíproco da probabilidade de que qualquer tentativa resultaria em sucesso. q = 1 – p Aula 4 Esperança de uma Variável Aleatória – Caso Discreto � Exemplo 2.19 (Esperança de uma variável aleatória de Poisson) Calcule E[X], onde X é uma variável aleatória de Poisson com parâmetro λ. k = i – 1 Aula 4 Esperança de uma Variável Aleatória – Caso Contínuo � Se X é uma variável aleatória contínua com função densidade de probabilidade f(x), então o valor esperado de X é definido como Aula 4 Esperança de uma Variável Aleatória – Caso Contínuo � Exemplo 2.20 – (Esperança de uma variável aleatória uniforme) Calcule a esperança de uma variável aleatória uniformemente distribuída sobre (α, β). Ou seja, o valor esperado de uma variável aleatória uniformemente distribuída sobre o intervalo (α, β) é simplesmente o ponto médio do intervalo Aula 4 Esperança de uma Variável Aleatória – Caso Contínuo � Exemplo 2.21 (Esperança de uma variável aleatória exponencial) Considere X sendo exponencialmente distribuída com parâmetro λ. Calcule E[X]. Integrando por partes Aula 4 Esperança de uma Variável Aleatória – Caso Contínuo � Exemplo 2.22 – (Esperança de uma variável aleatória Normal) Calcule E[X] quando X é normalmente distribuída com parâmetros µ e σ2. Aula 4 Esperança de uma Variável Aleatória – Caso Contínuo � Exemplo 2.22 – Continuação. Aula 4 Esperança de uma Função de uma Variável Aleatória � Suponha que sejam conhecidas a variável aleatória X e sua distribuição de probabilidade (função de probabilidade de massa ou função de densidade de probabilidade). Suponha que se esteja interessado no cálculo, não do valor esperado de X, mas sim no valor esperado de uma função de X, g(X). Como fazer? � Como g(X) também é uma variável aleatória, ela deve ter uma distribuição de probabilidade a partir do conhecimento da distribuição de X. Uma vez obtida a distribuição de g(X), E[g(X)] é calculada por sua definição. Aula 4 Esperança de uma Função de uma Variável Aleatória � Exemplo 2.23 – Suponha que X tenha a seguinte função de probabilidade de massa: p(0) = 0,2, p(1) = 0,5, p(2) = 0,3. Calcule E[X2]. Fazendo Y = X2, tem-se que Y é uma variável aleatória que pode assumir os valores 02, 12, 22, com as respectivas probabilidades: pY(0) = P{Y = 02} = 0,2, pY(1) = P{Y = 12} = 0,5, pY(4) = P{Y = 22} = 0,3. Assim, E[X2] = E[Y] = 0(0,2) + 1(0,5) + 4(0,3) = 1,7. Note que 1,7 = E[X2] ≠ (E[X])2 = 1,21. Aula 4 Esperança de uma Função de uma Variável Aletória � Exemplo 2.24 – Fazendo X ser uniformementedistribuída sobre (0,1), calcule E[X3]. Fazendo Y = X3, calcula-se a distribuição de Y como a seguir. Para 0 ≤ a ≤ 1, FY(a) = P{Y ≤ a} = P{X3 ≤ a} = P{X ≤ a1/3} = a1/3. Isso se justifica, pois X é uniformemente distribuído sobre (0,1). Diferenciando FY(a), obtém-se a densidade de Y: Aula 4 Esperança de uma Função de uma Variável Aleatória � Há uma outra maneira de se obter a esperança de uma função de uma variável aleatória: � Proposição 2.1 a) Se X é uma variável aleatória discreta com função de probabilidade de massa p(x), então para qualquer função de valor real g, tem-se que b) Se X é uma variável aleatória contínua com função de densidade de probabilidade f(x), então para qualquer função de valor real g, tem- se que Aula 4 Esperança de uma Função de uma Variável Aleatória � Exemplo 2.25 – Aplicando a proposição ao Exemplo 2.23, tem- se que E[X2] = 02(0,2) + (12)(0,5) + (22)(0,3) = 1,7. Mesma resposta. � Exemplo 2.26 – Aplicando a proposição ao Exemplo 2.24, tem- se que Aula 4 Esperança de uma Função de uma Variável Aleatória � A partir da proposição 2.1 é dado o seguinte corolário: � Corolário 2.2: � Se a e b são constantes, então: 1- Prova, caso discreto 2- Prova, caso contínuo Aula 4 Esperança de uma Função de uma Variável Aleatória � O valor esperado de uma variável aleatória X, E[X], é também chamado de média ou o primeiro momento de X. A quantidade E[Xn], n ≥ 1, é chamado de n-ésimo momento de X. Pela proposição 2.1 temos que � Uma outra quantidade de interesse é a variância de uma variável aleatória X, chamada de Var(X) e definida por � Ou seja, a variância de X mede a esperança do quadrado do desvio de X em relação ao seu valor esperado. Aula 4 Esperança de uma Função de uma Variável Aletória � Exemplo 2.27 – (Variância de uma variável aleatória Normal) Fazendo X ser normalmente distribuída com parâmetros µ e σ2, encontre Var(X). Como E[X] = µ, tem-se que Var(X) = E[(X – µ) 2], isto é, Aula 4 Esperança de uma Função de uma Variável Aleatória � Suponha que X é contínua com densidade f. Denominando E[X] = µ, então � Para o caso discreto obtém-se Aula 4 Esperança de uma Função de uma Variável Aleatória � Exemplo 2.28 – Calcule Var(X), onde X representa a saída da jogada de um dado justo. Pelo Exemplo 2.15, E[X] = 7/2. Determina-se: E[X2] = 1(1/6) + 22(1/6) + 32(1/6) + 42(1/6) + 52(1/6) + 62(1/6) = 91(1/6). Portanto, Var(X) = 91/6 – (7/2)2 = 35/12. Aula 4 Esperança de uma Variável Aleatória - Exercícios 39. A variável aleatória X tem a seguinte função de probabilidade de massa: p(1) = ½, p(2) = 1/3, p(24) = 1/6. Calcule E[X]. 40. Suponha que dois times estão jogando uma série de jogos, onde cada um é independentemente vencido pelo time A com probabilidade p e pelo time B com probabilidade 1 – p. O vencedor da série é o primeiro time que vencer quatro jogos. Encontre o número esperado de jogos que são disputados, e avalie esta quantidade quando p = ½. Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Funções de Distribuição Conjunta � Até aqui se estava interessado na distribuição de probabilidade de uma única variável aleatória. Agora estamos interessados em expressões de probabilidade envolvendo duas ou mais variáveis aleatórias. � Para lidar com tais probabilidades, é definida, para quaisquer duas variáveis aleatórias X e Y, a função de distribuição de probabilidade cumulativa conjunta de X e Y como: Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Funções de Distribuição Conjunta � A distribuição de X pode ser obtida da distribuição conjunta de X e Y como � De forma similar, a função de distribuição cumulativa de Y é dado por Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Funções de Distribuição Conjunta � No caso onde X e Y são ambos variáveis aleatórias discretas, é conveniente definir a função de probabilidade conjunta de massa de X e Y como � A função de probabilidade de massa de X e Y podem ser obtidas a partir de p(x,y) como Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Funções de Distribuição Conjunta � É dito que X e Y são conjuntamente contínuo se existir uma função f(x,y), definida para todo real x e y, que tenha a propriedade tal que para todos os conjuntos A e B de números reais, tem-se � A função f(x,y) é chamada de função de densidade de probabilidade conjunta de X e Y. Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Funções de Distribuição Conjunta � A densidade de probabilidade de X pode ser obtida a partir do conhecimento de f(x,y) como � Onde fX(x) é a função de densidade de probabilidade de X e fY(y) é a função de densidade de probabilidade de Y: Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Funções de Distribuição Conjunta � Uma variação da Proposição 2.1 diz que, se X e Y são variáveis aleatórias e g é uma função dessas duas variáveis, então Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Funções de Distribuição Conjunta � Por exemplo, se g(X,Y) = X + Y, então, para o caso contínuo, temos: Note que as integrais são avaliadas usando uma variação da proposição 2.1: na primeira integral g(x,y) = x e na segunda g(x,y) = y. � O mesmo se obtém para o caso discreto. Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Funções de Distribuição Conjunta � Com estes resultados, para quaisquer constantes a e b, temos que: � Distribuições de probabilidade conjunta também podem ser definidas para n variáveis aleatórias, e então temos: Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Funções de Distribuição Conjunta � Exemplo 2.29 – Calcule a soma esperada obtida quando três dados justos são jogados. Considere X como a soma obtida. Então, X = X1 + X2 + X3, onde Xi representa o valor do i-ésimo dado. Assim, Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Funções de Distribuição Conjunta � Exemplo 2.30 – A Equação 2.11 também é útil para obter a esperança de uma variável aleatória Binomial com parâmetros n e p. Recordando que esta variável aleatória X representa o número de sucessos em n tentativas, onde cada tentativa tem a probabilidade p de ter sucesso, tem-se que X = X1 + X2 + ... + Xn, onde Portanto, Xi é uma variável aleatória de Bernoulli com esperança E[Xi] = 1(p) + 0(1 – p) = p. Assim, Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Funções de Distribuição Conjunta � Exemplo 2.31 – Em uma festa, N homens jogaram seus chapéus no meio de uma sala. Os chapéus foram misturados e cada homem aleatoriamente selecionou um. Encontre o número esperado de homens que selecionaram seus próprios chapéus. Fazendo X como o número de homens que selecionaram seus próprios chapéus, E[X] pode ser calculado observando que X = X1 + ... + XN, onde Como o i-ésimo homem é igualmente provável de selecionar qualquer um dos N chapéus, segue que P{Xi = 1} = P{i-ésimo homem selecione o próprio chapéu} = 1/N, então E[Xi] = 1P{Xi = 1} + 0P{Xi = 0} = 1/N. Portanto, Ou seja, não importa quantas pessoas estão na festa, na média exatamente 1 homem irá selecionar seu próprio chapéu. Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Funções de Distribuição Conjunta � Exemplo 2.32 – Suponha que existam 25 tipos diferentes de bilhete e suponha que a cada vez que alguém obtém um bilhete é igualmente provável que seja qualquer um dos 25 tipos. Calcule o número esperado de diferentes tipos que estão contidos em um conjunto de 10 bilhetes. Solução: Considere X como o número de diferentes tipos em um conjunto de 10 bilhetes. Calcula-se E[X] usando a representaçãoX = X1 + ... + X25, onde Assim, Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Variáveis Aleatórias Independentes � As variáveis aleatórias X e Y são ditas independentes se para todo a e b � Ou seja, X e Y são independentes, se para todo a e b os eventos Ea= {X ≤ a} e Fb= {Y ≤ b} forem independentes � Em termos da função de distribuição conjunta F de X e Y, temos que X e Y são independentes se � Quando X e Y são discretos a condição de independência se reduz a: � Enquanto que se X e Y são conjuntamente contínuas a condição será: Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Variáveis Aleatórias Independentes � Para provar as expressões dadas, vamos considerar primeiro o caso discreto e supor que a equação 2.13 é satisfeita e então X e Y são independentes. Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Variáveis Aleatórias Independentes � Proposição 2.3 � Se X e Y são independentes, então para quaisquer funções h e g, tem-se que: � Prova para o caso contínuo (caso discreto é similar): Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Covariância e Variância de Somas de Variáveis Aleatórias � A covariância de duas variáveis aleatórias X e Y, denominada por Cov(X,Y), é definida por � Note que se X e Y são independentes, então Cov(X,Y) = 0. Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Covariância e Variância de Somas de Variáveis Aleatórias � Considere o caso especial onde X e Y são variáveis indicadoras para a ocorrência ou não dos eventos A e B, ou seja: � Então: � E como XY pode ser igual a 1 ou a 0, então: � E assim: � Isto é, a covariância de X e Y é positiva se a saída X = 1 faça Y = 1 ser mais provável. Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Covariância e Variância de Somas de Variáveis Aleatórias � Pode-se mostrar que um valor positivo de Cov(X,Y) é uma indicação de que Y tende a crescer quando X cresce; e Cov(X,Y) negativo indica que Y tende a diminuir quando X cresce. � Propriedades da Covariância: para quaisquer variáveis aleatórias X, Y, Z e constante c, tem-se que: 1. Cov(X,X) = Var(X); 2. Cov(X,Y) = Cov(Y,X); 3. Cov(cX,Y) = cCov(X,Y); 4. Cov(X,Y+Z) = Cov(X,Y) + Cov(X,Z). Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Covariância e Variância de Somas de Variáveis Aleatórias � A última propriedade pode ser provada como: � Esta propriedade permite a seguinte generalização: Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Covariância e Variância de Somas de Variáveis Aleatórias � A partir da equação 2.15, pode se encontrar uma expressão para a variância de soma de variáveis aleatórias: � Se Xi, i = 1, ..., n, são variáveis aleatórias independentes, então a equação 2.16 se reduz a Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Covariância e Variância de Somas de Variáveis Aleatórias � Definição 2.1 � Se X1, ..., Xn são independentes e identicamente distribuídas (iid), então a variável aleatória é chamada de média amostral. � Proposição 2.4 � Supondo que X1, ..., Xn são independentes e identicamente distribuídas, então Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Covariância e Variância de Somas de Variáveis Aleatórias � Prova (a): � Prova (b): � Prova (c): onde é usado o fato que são independentes e tem covariância 0. Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Covariância e Variância de Somas de Variáveis Aleatórias � Exemplo 2.33 (Variância de uma variável aleatória Binomial) Calcule a variância de uma variável aleatória Binomial X, com parâmetros n e p. Solução: Como a variável aleatória representa o número de sucessos em n independentes tentativas, onde cada tentativa tem a probabilidade comum p de se obter sucesso, então X = X1 + ... Xn, onde Xi são variáveis aleatórias independentes de Bernoulli, tal que Da Equação 2.16 se obtém: Var(X) = Var(X1) + ... + Var(Xn). Entretanto E então Var(X) = np(1 – p). Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Covariância e Variância de Somas de Variáveis Aleatórias � O conceito de independência pode ser definido para mais que duas variáveis aleatórias. Em geral, as n variáveis aleatórias X1, ..., Xn são ditas independentes se, para todos os valores a1,...,an, tem-se: Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Distribuição de Probabilidade Conjunta de Funções de Variáveis Aleatórias � O Tópico 2.5.4: Distribuição de Probabilidade Conjunta de Funções de Variáveis Aleatórias, fica como leitura. Aula 5 Variáveis Aleatórias Conjuntamente Distribuídas – Exercícios 54. Considere X e Y como variáveis que podem assumir os valores 1 ou -1. Considere p(1, 1) = P{X = 1, Y = 1}, p(1, -1) = P{X = 1, Y = -1}, p(-1, 1) = P{X = -1, Y = 1}, p(-1, -1) = P{X = -1, Y = -1} Suponha que E[X] = E[Y] = 0. Mostre que a) p(1, 1) = p(-1, -1); b) p(1, -1) = p(-1,1); Considere p = 2p(1, 1). Encontre c) Var(X); d) Var(Y); e) Cov(X, Y). Aula 6 Funções Geradoras de Momentos � O Tópico 2.6 – Funções geradoras de momento fica como leitura. Aula 6 Funções Geradoras de Momentos Aula 6 Funções Geradoras de Momentos Aula 7 Teoremas de Limite – Desigualdade de Markov � Proposição 2.6: � Se X é uma variável aleatória que é tomada somente para valores não negativos, então para qualquer valor a > 0: � Prova, para X contínuo: Aula 7 Teoremas de Limite – Desigualdade de Chebyshev � Proposição 2.7 � Se X é uma variável aleatória com média µ e variância σ2, então para qualquer valor k>0 � Prova: como (X – µ)2 é uma variável aleatória não-negativa, pode- se aplicar a desigualdade de Markov com a = k2 e obter: Como (X – µ)2 ≥ k2 se, e somente se, |X – µ| ≥ k, então: Aula 7 Teoremas de Limite � A importância das desigualdades de Markov e Chebyshev é que elas permitem obter os limites nas probabilidades quando somente a média ou a média e a variância são conhecidas em uma distribuição de probabilidade. � É claro que se a distribuição for conhecida, as probabilidades desejadas podem ser calculadas de forma exata e não é necessário se utilizar de valores de limites. Aula 7 Teoremas de Limite � Exemplo 2.49 – Suponha que o número de itens produzidos em uma fábrica em uma semana seja uma variável aleatória com média 500. (a) O que pode ser dito sobre a probabilidade que a produção desta semana será no mínimo 1000? (b) Se a variância da produção semanal é igual a 100, então o que pode ser dito sobre a probabilidade de que a produção desta semana estará entre 400 e 600? Solução: Considere X como o número de itens produzidos em uma semana. (a) Pela desigualdade de Markov: (b) Pela desigualdade de Chebyshev: Aula 7 Teoremas de Limite – Lei Forte dos Grandes Números � Teorema 2.1 (Strong Law of Large Numbers): � Considere X1, X2, ... como uma sequência de variáveis aleatórias independentes com a mesma distribuição e considere E[Xi] = µ. Então, com probabilidade igual a 1, temos: � Exemplo: Considere E como um evento fixo e P(E) a probabilidade de ocorrência de E em uma certa tentativa. Assim, � Pela lei forte dos grandes números, com probabilidade = 1, temos que (Eq. 2.24): � Como X1 + ... + Xn representa o número de vezes que o evento E ocorre nas primeiras n tentativas, a Equação 2.24 diz, com probabilidade 1, que a proporção limitante de vezes que o evento E ocorre é justamente P(E). Aula 7 Teoremas de Limite � A partir da lei forte dos grandes números é obtido o teorema do limite central. � Este teorema é importante porque fornece um métodoaproximado de calcular a probabilidade da soma de variáveis aleatórias independentes. � Ele também explica o fato de que as frequências empíricas de muitas populações naturais exibem uma curva normal. Aula 7 Teoremas de Limite – Teorema do Limite Central � Teorema 2.2: �Considere X1, X2, ... como uma sequência de variáveis aleatórias independentes e identicamente distribuídas, cada uma com média µ e variância σ2. Então a distribuição de Tende a uma normal padrão quando n →∞. Isto é, quando n → ∞, tem-se que: Aula 7 Teoremas de Limite – Teorema do Limite Central � Note que esse teorema se aplica a qualquer distribuição de Xi. � Se X é binomialmente distribuído com parâmetros n e p, então X tem a mesma distribuição da soma de n variáveis aleatórias independentes de Bernoulli, cada qual com parâmetro p (Bernoulli é a binomial quando n é igual a 1). Assim, a distribuição de: se aproxima da distribuição normal quando n se aproxima de ∞. Na verdade, uma boa aproximação se dá a partir de valores quando np(1 – p) ≥ 10. Aula 7 Teoremas de Limite – Teorema do Limite Central � Exemplo 2.50 (Aproximação Normal para uma Binomial) Considere X como o número de vezes que uma moeda justa, jogada 40 vezes, deu cara. Encontre a probabilidade de que X = 20. Use a aproximação e então compare com a solução exata. Solução: Como a binomial é uma variável aleatória discreta e a normal é uma variável aleatória contínua, uma melhor aproximação para a probabilidade desejada seria: Aula 7 Teoremas de Limite – Teorema do Limite Central � Ex. 2.50 (Continuação) Por simetria da distribuição normal padrão, tem-se que: onde N(0,1) é variável aleatória normal padrão. Assim, a probabilidade desejada é aproximada por O resultado exato é 0,1268, pois: Aula 7 Teoremas de Limite – Teorema do Limite Central Aula 7 Teoremas de Limite – Teorema do Limite Central � Exemplo 2.51 Considere Xi, i = 1, 2, ..., 10 como variáveis aleatórias independentes uniformemente distribuídas sobre (0,1). Estime Como E[Xi] = ½, Var(Xi) = 1/12, tem-se pelo teorema do limite central que Aula 7 Teoremas de Limite – Teorema do Limite Central � Exemplo 2.52 – O tempo de vida de um tipo especial de bateria é uma variável aleatória com média de 40 h e desvio padrão de 20 h. A bateria é usada até ela parar de funcionar, quando então é reposta por uma nova. Assumindo um estoque de 25 baterias e que os tempos de vida são independentes, aproxime a probabilidade de que 1100 horas de uso podem ser obtidas. Solução: Considere Xi o tempo de vida da i-ésima bateria a ser colocada em uso. Assim, deseja-se encontrar p = P{X1 + ... + X25 > 1100}, que pode ser aproximada como Aula 7 Teoremas de Limite – Teorema do Limite Central � Prova heurística do teorema do limite central, página 82: leitura do aluno. Aula 7 Teoremas de Limite – Teorema do Limite Central 68. Considere X1, X2, ..., X10 como variáveis aleatórias independentes de Poisson com média 1. i) Use a desigualdade de Markov para obter um limite de P{X1 + ... + X10 ≥ 15}. ii) Use o teorema do limite central para aproximar P{X1 + ... + X10 ≥ 15}. Aula 8 Processos Estocásticos � Um processo estocástico {X(t), t∈T} é uma coleção de variáveis aleatórias, ou seja, para cada t∈T, X(t) é uma variável aleatória. � O índice t pode ser interpretado como tempo e então X(t) é referido como o estado do processo no tempo t. � Exemplos: X(t) pode ser igual ao número total de clientes que entraram em um supermercado no tempo t; ou o número total de vendas feitas em uma loja no tempo t, assim por diante. Aula 8 Processos Estocásticos � O conjunto T é chamado de conjunto indicador dos processos. � Quando T é um conjunto contável o processo estocástico é dito ser um processo de tempo discreto. � Se T é um intervalo de fila real, o processo estocástico é dito ser processo de tempo contínuo. Aula 8 Processos Estocásticos � Por exemplo, {Xn, n = 0,1,...} é um processo estocástico de tempo discreto indexado por inteiros não-negativos; enquanto {X(t), t ≥ 0} é um processo estocástico de tempo contínuo indexado por números reais não-negativos. � O espaço de estados de um processo estocástico é definido como o conjunto de todos os possíveis valores que as variáveis aleatórias podem assumir. � Assim, um processo estocástico é uma família de variáveis aleatórias que descrevem a evolução no tempo de alguns processos (físicos). Aula 8 Processos Estocásticos � Exemplo 2.53 – Considere uma partícula que se move ao longo de um conjunto de m + 1 nós, rotulados 0, 1, ..., m que estão arranjados de forma circular. A cada passo, a partícula é igualmente provável de se mover uma posição no sentido horário ou no sentido anti-horário. Ou seja, se Xn é a posição da partícula depois do n-ésimo passo, então onde i + 1 = 0, quando i = m, e i – 1 = m, quando i = 0. Suponha que a partícula começa em 0 e continue a se mover de acordo com as regras precedentes até que todos os nós 1, 2, ..., m tenham sido visitados. Qual é a probabilidade de que o nó i, i = 1, 2, ..., m, tenha sido o último a ser visitado? Aula 8 Processos Estocásticos � Ex. 2.54 (Continuação) Essa probabilidade pode ser calculada sem nenhum cálculo. Para isso, considere a primeira vez que a partícula está em um dos dois vizinho do nó i, isto é, a primeira vez que a partícula está em um dos nós i – 1 ou i + 1 (com m + 1 = 0). Suponha que ela esteja no nó i – 1 (o argumento na situação alternativa é idêntica). Como nenhum dos nós i ou i + 1 foi ainda visitado, segue que i será o último nó visitado se, e somente se, i + 1 for visitado antes de i. Isto se deve porque para visitar i + 1 antes de i, a partícula terá que visitar todos os nós no sentido anti-horário de i – 1 a i + 1 antes dela visitar i. Entretanto, a probabilidade de que a partícula no nó i – 1 irá visitar i + 1 antes de i, é justamente a probabilidade de que a partícula executará m – 1 passos em uma direção específica antes de prosseguir um passo na outra direção. Ou seja, isto é igual à probabilidade de um apostador, que começa com uma unidade e vence uma quando uma moeda justa dá cara e perde quando ela dá coroa, irá ter sua fortuna crescer m – 1 antes dele perder tudo. Assim, como a probabilidade de que o nó i seja o último nó visitado é o mesmo para todo i, e como a soma das probabilidades deve ser 1, então Aula 8 Processos Estocásticos � Observação – O argumento usado no Exemplo 2.53 também mostra que um jogador, que é igualmente provável de perder ou ganhar uma unidade em uma jogada, descerá a n antes de chegar a 1 com probabilidade 1/(n + 1), o que é equivalente a Suponha agora que se quer a probabilidade de que o jogador chega a 2 antes de baixar a n. Com a condição de que ele alcance 1 antes de descer a n, obtém-se que Generalizando:
Compartilhar