Baixe o app para aproveitar ainda mais
Prévia do material em texto
Mestrado em Engenharia Elétrica Disciplina: Probabilidade e Processos Estocásticos Parte 2: Variáveis e Vetores Aleatórios José Raimundo Gomes Pereira josergpereira@gmail.com 7 de Junho de 2017 Referências: ROSS, S. M. Introduction to Probability Models. Ninth Edition. Academic Press, 2007 KAY, S. Intuitive Probability and Random Processes using MATLAB. Springer, 2006. WASSERMAN, A. All of Statistics. A Concise Course in Statistical Inference. Springer, 2004. DEKKING, F.M.; KRAAIKAMP, C.; LOPUHAÃ, H.P. e MEESTER, L.E. A Modern Introduction to Probability and Statistics. Understanding Why and How. Springer, 2005. STATISTICS TOLBOX. For use with MATLAB. User's Guide. 2003.(www.mathworks.com). TORGO, L. Introdução à Programação em R. 2006. (http://www.r-project.org) Variáveis Aleatórias Em problemas reais, empregamos modelos probabilísticos para descrever o comportamento das ocorrências. As observações são tratadas como resultantes de um experimento aleatório e associamos números reais a cada resultado do experimento. Definição: Uma variável aleatória é uma função X (·) que associa um número real X (s) a cada elemento s ∈ S . Em alguns casos os elementos s ∈ S são numéricos, podemos ter X (s) = s. O objetivo é obter a probabilidades da ocorrência de valores de interesse para a variável aleatória. Exemplo 2.1 1. Lançar três vezes uma moeda e observar o número de �caras� obtido X : o número de caras 2. Contar o número de �voice packets� contendo somente silêncio produzido por N �locutores� em um período de 10ms. Y : o número de pacotes somente com silêncio 3. Realizar experimentos para medir o consumo de energia na execução de um código em um sistema embarcado T : o consumo de energia Classificação de Variáveis Aleatórias DISCRETA se o conjunto dos seus valores é finito ou infinito enumerável. Exemplo: Contar o número de �voice packets� contendo somente silêncio produzido por N �locutores� em um período de 10ms. CONTÍNUA se assume valores em um intervalo, ou uma coleção de intervalos, de números reais. Exemplo: Realizar experimentos para medir o consumo de energia na execução de códigos em sistemas embarcados Eventos com Variáveis Aleatórias Para eventos definidos para uma v.a. X , temos as equivalências {X = x 1 } ≡ {s ∈ S : X (s) = x 1 } {X ≤ x 2 } ≡ {s ∈ S : X (s)≤ x 2 } {X > x 3 } ≡ {s ∈ S : X (s) > x 3 } {x 4 ≤ X ≤ x 5 } ≡ {s ∈ S : x 4 ≤ X (s)≤ x 5 } onde xi ∈ R, i = 1,2,3,4,5 Portanto, para qualquer I ⊂ R, P(X ∈ I ) = P(s ∈ S : X (s) ∈ I ) Função de Distribuição - definição A função de distribuição (f.d.), ou função de distribuição acumulada (f.d.a.), para uma v.a. X é definida por F (x) = P(X ≤ x), ∀x ∈ R. X ∀x ∈ R, 0≤ F (x)≤ 1 X Descreve a distribuição de probabilidade sobre R, pode ser empregada para caracterizar completamente a distribuição de probabilidade da v.a. X A probabilidade de qualquer evento para uma v.a. pode ser descrita pela sua f.d. Referência: ROSS(2007), Chapter 2 KAY(2006), Chapter 5. Exemplo 2.2 Considere o experimento de lançar três vezes uma moeda (honesta). (a) Obter o espaço amostral para o experimento. (b) Considere a v.a. X : o número de caras nos lançamentos e determine: (b.1) P(X = 2) (b.2) P(X ≤ 1) (b.3) a f.d. de X . Função de Distribuição - propriedades 1. F (x) é não decrescente em x , isto é, x 1 < x 2 ⇒ F (x 1 )≤ F (x 2 ). 2. limx→−∞F (x) = F (−∞) = 0. 3. limx→∞F (x) = F (∞) = 1. 4. Para x 1 < x 2 . P(x 1 < X ≤ x 2 ) = F (x 2 )−F (x 1 ). 5. P(X > x) = 1−F (x). Exercício. Verificar as propriedades da função de distribuição apresentadas. Variável Aleatória Discreta Para uma v.a. discreta X , com valores x 1 ,x 2 ,x 3 , ..., é definida a função de probabilidade (f.p.) por P(X = xi ), para cada xi ∈ {x1,x2,x3, ...} Propriedades: 1. 0≤ P(X = xi )≤ 1, i = 1,2,3, .. 2. P(X = x) = 0, ∀x 6= xi , i = 1,2,3, .. 3. ∑i P(X = xi ) = 1 4. FX (x) = ∑xi≤x P(X = xi ) Referência: ROSS(2007), Chapter 2 KAY(2006), Chapter 5. Exemplo 2.3: Uma fonte gera símbolos, aleatoriamente e independentemente, a partir de quatro letras do alfabeto a,b,c, e d , com probabilidades, respectivamente, de 1/2, 1/4, 1/8 e 1/8. Um procedimento codifica esses símbolos em códigos binários como a≡ 0, b ≡ 10, c ≡ 110, d ≡ 111 Seja X uma v.a. que descreve o número de símbolos binários na codificação. (a) Construa a f.p. de X . (b) Encontre P(X > 1). (c) Obtenha a f.d. de X . Modelo de Bernoulli Considere uma v.a X discreta que assume valores em {0,1}, e para p ∈ (0,1), P(X = 1) = p e P(X = 0) = 1−p. Podemos escrever P(X = x) = px(1−p)1−x , x ∈ {0,1}. 1. Experimentos de Bernoulli: experimentos que admitem apenas dois resultados possíveis, denotados por �Sucesso� = 1 �Fracasso� = 0. 2. Notação: X ∼ Bernoulli(p) Exemplo 2.4: Considere o experimento de selecionar ao acaso uma peça em um lote com 96 peças boas e 4 defeituosas. Defina a v.a. X = { 1 se a peça é defeituosa 0 se a peça é boa Temos P(X = 1) = 0,04 e P(X = 0) = 0,96 X ∼ Bernoulli(p = 0,04) P(X = x) = (0,04)x(1−0,04)1−x , x = 0,1 Modelo Binomial Considere m repetições independentes de um experimento com dois resultados de interesse, denominados de �fracasso� e �sucesso�, com suas respectivas probabilidades constantes em todas as repetições, defina a v.a. Y : o número de �sucessos� nas m repetições. Então, P(Y = y) = ( m y ) py (1−p)m−y , y = 0,1,2, ...,m. onde p = P(“sucesso ′′). 1. Experimento Binomial (Sequência de Bernoulli): são repetições independentes de um experimento de Bernoulli(p), com p constante em todas as repetições. 2. Notação: Y ∼ Binomial(m,p) Exemplo 2.5: Os itens produzidos por uma máquina são defeituosos com probabilidade 0,2, independentemente de qualquer outro item. Sendo selecionada ao acaso uma amostra de cinco itens, qual a probabilidade de: (a) obtermos um defeituoso? (b) obtermos no máximo três defeituosos? (c) obtermos pelo menos um defeituoso? Exercício Verifique que a f.p. de Y ∼ Binomial(m,p) satisfaz m ∑ y=0 P(Y = y) = 1 Implementação computacional Para X ∼ Binomial(m,p) 1. No MATLAB: P(X = x)≡ binopdf (x ,m,p) P(X ≤ x)≡ binocdf (x ,m,p) 2. No R: P(X = x)≡ dbinom(x ,m,p) P(X ≤ x)≡ pbinom(x ,m,p) Exemplo 2.6: Considere as seguintes situações: (a) Dos alunos de uma grande universidade, sorteamos ao acaso 5 alunos e contamos quantos se declararam usuários de drogas. (b) Selecionamos 20 lâmpadas ao acaso em um supermercado, sendo 10 de uma marca A e 10 de outra marca B. Contamos o número de defeituosas. (c) Um motorista é submetido a um teste de �baliza�. Em 10 tetativas contamos o número de vezes que o motorista estacionou corretamente. O modelo Binomial é adequado para estas situações? Modelo Geométrico (1) Considerando repetições independentes de um experimento de Bernoulli(p), p constante em todas as repetições, defina a v.a. Y : o número de repetições até o 1o �sucesso�. Então, 1. Os valores de Y pertencem a {1,2,3, ....} 2. A f.p. é P(Y = k) = (1−p)k−1p, k = 1,2,3.... 3. Notação: Y ∼ Geométrica(p) Modelo Geométrico (2) Com relação as repetições independentes de um experimento de Bernoulli(p), p constante em todas as repetições, podemos considerar a v.a. X : o número de repetições antes do 1o �sucesso�. Neste caso, 1. Os valores de X pertencem a {0,1,2,3, ....} 2. A f.p. é P(X = k) = (1−p)kp, k = 0,1,2,3.... 3. Temos a relação Y = X +1 Implementação computacional Para X ∼ Geometrica(p), (�antes do primeiro sucesso�; Y = X +1)1. No MATLAB: P(X = x)≡ geopdf (x ,p) P(X ≤ x)≡ geocdf (x ,p) 2. No R: P(X = x)≡ dgeom(x ,p) P(X ≤ x)≡ pgeom(x ,p) Exemplo 2.7: Considere exemplo anterior, sobre os itens produzidos por uma máquina com probabilidade 0,2 de ser defeituoso, independentemente de quaisquer outros. Suponha agora que os itens são inspecionados um após outro. Qual a probabilidade de ser necessário inspecionar cinco itens até ocorrer o primeiro defeituoso? Exercício. Verifique que a f.p. de Y ∼ Geométrica(p) satisfaz ∞ ∑ y=1 P(Y = y) = 1 Modelo de Poisson Uma v.a. X discreta que assume valores em {0,1,2,3, ....} e com função de probabilidade P(X = x) = e−λλ x x! , λ > 0, x = 0,1,2, ... 1. Emprega-se esse modelo para descrever o número de ocorrências de eventos em intervalos (tempo, área, volume,...) 2. λ é a taxa média, ou intensidade, de ocorrência do evento no intervalo considerado 3. Notação: X ∼ Poisson(λ ) Modelo de Poisson Propriedade: Seja X ∼ Binomial(m,p). Para m→ ∞ e p→ 0, tal que a taxa λ = m p permanece constante, então P(X = x)≈ e −λλ x x! , x = 0,1,2, ... X O modelo de Poisson aproxima a distribuição Binomial(m,p) quando m é grande e p pequeno. Exercício. Fazer a verificação da propriedade apresentada para a distrbuição X ∼ Poisson(λ ). Exemplo 2.8: Em uma central telefônica o número de chamadas pode ser modelado por uma distribuição de Poisson, com taxa λ = 2/min. Admitindo este modelo como verdadeiro, encontre a probabilidade de: (a) haver quatro chamadas em cinco minutos? (b) haver doze chamadas em cinco minutos? (c) haver, no mínimo, três chamadas em dois minutos? (d) haver cento e trinta chamadas em uma hora? Implementação computacional Para X ∼ Poisson(λ ), com λ > 0. 1. No MATLAB: P(X = x)≡ poisspdf (x ,λ ) P(X ≤ x)≡ poisscdf (x ,λ ) 2. No R: P(X = x)≡ dpois(x ,λ ) P(X ≤ x)≡ ppois(x ,λ ) Exemplo 2.9: No estudo de desempenho de uma central de computação, o número de acessos a unidade CPU é modelada por uma distribuição de Poisson com taxa λ = 4/seg . Essas requisições podem ser várias natureza, tais como, imprimir um arquivo, efetuar um cálculo, enviar uma mensagem, entre outras. (a) Qual a probabilidade de dois acessos em um segundo? (b) Qual a probabilidade do número de acessos não ultrapassar dois acessos em um segundo? (c) Considerando um intervalo de dez segundos, qual a probabilidade de haver mais de cinquenta acessos? Função de uma V. A. Discreta Há situações em que o interesse são transformações da v.a. observada. Seja X discreta, com valores x 1 ,x 2 ,x 3 , ..., e considere uma função Y = g(X ) que gera valores y 1 ,y 2 ,y 3 , .... Então temos que P(Y = yi ) = ∑ {j :g(xj )=yi} P(X = xj) Exemplos: Y = cX + b Y = X k Y = { c 1 se X ≤ c c 2 se X > c Exemplo 2.10: 1. Considere o exemplo da fonte que gera símbolos, aleatoria e independentemente, a partir das letras a,b,c , e d , com probabilidades, respectivamente, de 1/2, 1/4, 1/8 e 1/8, e que são codificadas em códigos binários como: a≡ 0; b ≡ 10; c ≡ 110; d ≡ 111. Para X : o número de símbolos binários na codificação obtenha a f.p. de Y = 3x +5. 2. Seja X uma v.a. com f.p. x -1 0 1 P(X = x) 0,3 0,5 0,2 Obtenha a distribuição de Y = X 2. Valor Esperado de uma V. A. Discreta Definição: a esperança (valor esperado, valor médio) para uma v.a. X discreta, com valores x 1 ,x 2 ,x 3 , ..., é definida por E [X ] =∑ i xiP(X = xi ) X Caracteriza-se como uma �média ponderada�, cujos pesos são as probabilidades e indica a região dos valores da v.a. com a maior �concentração de probabilidade�. Referência: ROSS(2007), Chapter 2 KAY(2006), Chapter 6. Exemplo 2.11: 1. Considere o experimento de lançar três vezes uma moeda (�honesta�). Defina a variável aleatória X como o número de caras obtido. Qual o valor esperado para o número de caras? 2. Considere o exemplo da fonte que gera símbolos, aleatoria e independentemente, a partir das letras a,b,c , e d , com probabilidades, respectivamente, de 1/2, 1/4, 1/8 e 1/8, e que são codificadas em códigos binários como: a≡ 0; b ≡ 10; c ≡ 110; d ≡ 111. Sendo X : o número de símbolos binários na codificação obtenha E (X ). Exercício: Obter a esperança dos modelos de v.a. discretas apresentados. Valor Esperado de Funções de V.A. Discretas Seja X discreta, com valores x 1 ,x 2 ,x 3 , ..., e considere uma função Y = g(X ) que gera valores y 1 ,y 2 ,y 3 , .... Então por definição E [Y ] =∑ i g(xi )P(X = xi ). De forma alternativa, podemos obter a distribuição de Y e empregá-la para obter a E (Y ) que por definição é dada por E [Y ] =∑ j yjP(Y = yj) Exemplo 2.12: 1. Considere o exemplo da fonte que gera símbolos, aleatoria e independentemente, a partir das letras a,b,c , e d , com probabilidades, respectivamente, de 1/2, 1/4, 1/8 e 1/8, e que são codificadas em códigos binários como: a≡ 0; b ≡ 10; c ≡ 110; d ≡ 111. Para X : o número de símbolos binários na codificação seja Y = 3x +5. Obtenha E (Y ). 2. Seja X uma v.a. com f.p. x -1 0 1 P(X = x) 0,3 0,5 0,2 Para Y = X 2 obtenha E (Y ). Variância de uma V. A. Discreta Definição: A variância de uma v.a. X é definida por Var [X ] = E{(X −E [X ])2}. Então, sendo X discreta com valores x 1 ,x 2 ,x 3 , ..., temos que Var [X ] =∑ i (xi −E [X ])2P(X = xi ) X Mensura a dispersão (ou variabilidade) da distribuição da v.a. com respeito a seu valor esperado. Definição: O desvio padrão da v.a. X é definido por dp[X ] = + √ Var(X ) X A informação da variância expressa na mesma unidade dos valores associados a v.a. Exemplo 2.13: 1. Obtenha a Var(X ), onde X é o número de caras obtido no experimento de lançar de uma moeda três vezes, definido em exemplo anterior. 2. Considere uma v.a. X ∼ Bernoulli(p). Obter a E [X ] e Var [X ]. Exercício: Obter a variância dos modelos de v.a. discretas apresentados. Propriedades da Esperança e Variância Seja X uma v.a. e a, b e c constantes. 1. E [c] = c 2. E [aX + b] = aE [X ] + b 3. Var [X ] = E [X 2]− (E [X ])2 4. Var [X ]≥ 0 5. Var [c] = 0 6. Var [cX ] = c2Var [X ] 7. Var [aX + b] = a2Var [X ] Exercício: 1. Demonstrar cada uma das propriedades acima. 2. Em KAY(2006), estudar o Exemplo 6.3 e a discussão ao final da Seção 6.6. Função Característica de V.A. Discretas A função característica (f.c.) de uma v.a. X é definida por φX (t) = E [e jtX ], t ∈ R, onde j = √−1. Sendo X discreta com valores x 1 ,x 2 ,x 3 , ..., então φX (t) =∑ i e jtxi P(X = xi ). Propriedade: A f.c. sempre existe pois |φX (t)|< ∞. O r - ésimo momento de uma v.a. X é definido por µr = E [X r ], r = 1,2,3, ... Propriedade: A f.c. gera os momentos E [X n] por E [X r ] = 1 j r φ (r)X (0), onde φ (r) X (t) = d r dtr φX (t) Função Característica de V.A. Discretas Teorema da Unicidade: A função característica de uma v.a. X determina univocamente a distribuição de X . (a f.c. é uma representação da distribuição) Comentário: A f.c. pode ser empregada para identificar se uma dada v.a. segue uma distribuição cuja f.c. seja conhecida. Exemplo 2.14 1. Considere uma v.a. X ∼ Bernoulli(p). Obter f.c. e empregar para obter sua esperança e sua variância. Exercício: 1. Obter a f.c. para os modelos de v.a. discretas apresentados. 2. Em KAY(2006) estudar o exemplo, relativo a �Property 6.6�, sobre a aproximação da Binomial(m,p) pela Poisson(λ ), com λ = mp. Variáveis Aleatórias Contínuas Em muitos experimentos aleatórios é possível, ou conveniente, associar seus resultados à um conjunto não enumerável de valores. Nestes casos,as respostas são modeladas por uma v.a. que assumem qualquer valor em um adequado intervalo de números reais. Exemplo: Realizar experimentos para medir o consumo de energia na execução de códigos em sistemas embarcados. Definição: Uma v.a. X é dita contínua se assume valores em um intervalo, ou uma coleção de intervalos, de números reais. Referência: ROSS(2007), Chapter 2 KAY(2006), Chapter 10. Variáveis Aleatórias Contínuas A cada v.a. contínua estará associada uma função que descreve o seu comportamento probabilístico; é denominada função densidade de probabilidade. Definição: Para uma v.a. contínua X , a função densidade de probabilidade (f.d.p.) é uma função f (·) que satisfaz a: (1) f (x)≥ 0 para todo x ∈ R (2) ∫ ∞ −∞ f (x)dx = 1 (3) Para B ⊂ R, P(X ∈ B) = ∫B f (x)dx Variáveis Aleatórias Contínuas Definição: Sendo X uma v.a. com f.d. F (·), dizemos que X é contínua se existe uma função f (·)≥ 0, tal que F (x) = P(−∞< X ≤ x) = ∫ x −∞ f (t)dt, ∀x ∈ R. 1. Se X é contínua, então F (·), sendo uma integral de f (·), é contínua. 2. Pelas propriedades de F (·), f (x) = { F ′(x), se diferenciável em x 0, se não diferenciável em x Variáveis Aleatórias Contínuas · A função densidade de probabilidade descreve a distribuição de probabilidade da v.a. contínua · A probabilidade P(a≤ X ≤ b) equivale a área sob a curva de f (·) entre a e b · Pela definição, ∀a ∈ R, P(X = a) = ∫ a a f (x)dx = 0. Portanto, temos que P(a≤X ≤ b) = P(a≤X < b) = P(a <X ≤ b) = P(a <X < b) · Podemos avaliar a probabilidade de X ocorrer �próximo� de a com o argumento matémático, com ε → 0, P(a− ε 2 ≤ X ≤ a + ε 2 ) = ∫ a+ ε 2 a− ε 2 f (x)dx ≈ εf (a), Exemplo 2.14: Admita que o tempo de trasmissão de uma mensagem, em u.t., em um sistema de comunicação é descrito por uma v.a. X (contínua) tal que P(X > x) = e−λx , ∀x ≥ 0, para uma contante λ > 0. (a) Qual a probabilidade do tempo de transmissão ser maior que 2 u.t.? (b) Obtenha a f.d. de X . (c) Obtenha a f.d.p. de X . Modelo Uniforme Contínuo Uma v.a. contínua X tem distribuição uniforme em (a,b)⊂ R se sua f.d.p. é f (x) = { 1 b−a , se a < x < b 0, caso contrário 1. A função f (x) é constante em (a,b); 2. As probabilidades de intervalos são proporcionais a seus comprimentos; 3. Notação: X ∼ Uniforme (a,b). Exemplo 2.15 1. Obter a f.d. para X ∼ Uniforme (a,b). 2. Seja X ∼ Uniforme (0,10). Determine: (a) P(X < 3) (b) P(X > 7) (c) P(1< X < 6) Modelo Exponencial Uma v.a. contínua X com valores em [0,∞) é dita ter distribuição Exponencial de parâmeto λ se sua f.d.p. é f (x) = { λ e−λ x , se x ≥ 0, λ > 0 0, caso contrário 1. É empregado para modelar tempo de vida de componentes, duração de processos,... 2. A f.d. é F (x) = { 1− e−λ x , se x ≥ 0 0, caso contrário 3. Notação: X ∼ Exponencial (λ ). Exemplo 2.16: 1. Obter a f.d. para X ∼ Exponencial (λ ). 2. Mostre que para X ∼ Exponencial (λ ) e 0< a < b, P(a < X < b) = e−λ a− e−λ b 3. Assuma que o tempo de duração de ligações telefônicas (min) em uma empresa que trabalha com vendas pode ser modelada por uma v.a X ∼ Exponencial (λ = 1/10). Determine a probabilidade de: (a) a ligação demorar menos de cinco minutos? (b) a ligação demorar de cinco a dez minutos? Modelo Gama Uma v.a. contínua X com valores em [0,∞), de parâmetos λ > 0 e α > 0 e sua f.d.p. dada por f (x) = { 1 Γ(α)λ α xα−1 e−λ x , se x ≥ 0 0, caso contrário onde Γ(α) = ∫ ∞ 0 e−ssα−1ds, é denominada função matemática gama. Notação: X ∼ Gama (α,λ ). Modelo Gama 1. A função matemática Γ(α) tem as propriedades: 1.1 Γ(1/2) = √ pi 1.2 Γ(α +1) = αΓ(α) 1.3 Se α = m inteiro, Γ(m) = (m−1)! 2. Gama (1,λ ) ≡ Exponencial(λ ) 3. Se α = m inteiro, é conhecida como distribuição de Erlang . f (x) = { 1 (m−1)!λ m xm−1 e−λ x , se x ≥ 0 0, caso contrário ⇒ modela a soma dos tempos de vida de componentes que atuem independentemente em sistemas. Exemplo 2.17: Considere no exemplo anterior o tempo de duas ligações telefônicas consecutivas e admita que suas durações são eventos independentes. Admita que os tempos de duração das ligações telefônicas (min) podem ser modelados por v.a. Xi ∼ Exponencial (λ = 1/10), i = 1,2. Seja T a v.a. que descreve o tempo de duração das duas ligações, então T = X 1 + X 2 . Neste caso, podemos modelar T ∼ Gama (α = 2,λ = 1/10). Qual a probabilidade do tempo das duas ligações ser menor que quinze minutos? Modelo Normal (Gaussiano) Uma v.a. contínua X tem distribuição normal com parâmetros µ e σ2, se sua f.d.p. é fX (x) = 1√ 2piσ exp { −1 2 ( x−µ σ ) 2 } ,−∞< x < ∞ 1. A distribuição é simétrica em torno do valor de µ . 2. A �extensão� do gráfico da densidade é dado pelo valor de σ . 3. É considerada distribuição mais importante, descreve o comportamento de muitas características associadas a problemas reais. 4. X ∼ N(µ;σ2) Modelo Normal: Alguns Resultados 1. Sendo X ∼ N(µ;σ2) e Y = a X + b, com a 6= 0 e b ∈ R, então Y ∼ N(aµ + b;a2σ2) 2. Sendo X ∼ N(µ;σ2) e fazendo Z = X −µ σ , então Z ∼ N(0;1), denominada normal padronizada. 3. As probabilidade para a normal padronizada são tabeladas; o procedimento é padronizar a variável em questão e empregar as probabilidades tabeladas para N(0;1). Exemplo 2.18: 1. Seja Z ∼ N(0;1). Para esta variável determine: (a) P(Z < 1,32) (b) P(Z <−1,96) (c) Um valor z tal que P(−z < Z < z) = 0,95 2. Os depósitos efetuados em uma agência bancária durante um determinado mês são modelados por uma v.a. Z ∼ N(10.000,(1.500)2). Encontrar a probabilidade de que o depósito seja: (a) um valor entre R$ 12.0000,00 e R$ 15.0000,00? (b) maior que R$ 19.0000,00? Exemplo 2.19: O tempo (em minutos) para a realização de um teste de aptidão aplicado aos candidatos em um concurso é modelado como uma v.a. com distribuição normal com parâmetros µ = 90 e σ = 20. Esse tempo é empregado como um dos critérios de seleção. (a) Para ser aprovado no teste, o candidato deve completá-lo em menos de 80 minutos. Se 65 candidatos fizeram o teste, quantos são esperados passar? (b) Se os 5% melhores candidatos são alocados para os cargos com melhor remuneração, quão rápido deve ser o candidato para que obtenha esse cargo? Funções de Distribuição no MATLAB 1. X ∼ Uniforme(a,b) P(X ≤ x)≡ unifcdf (x ,a,b) 2. X ∼ Exponencial(λ ) P(X ≤ x)≡ expcdf (x ,µ); µ = 1/λ 3. X ∼ Gama(α,λ ) P(X ≤ x)≡ gamcdf (x ,a,b); a = α, b = 1/λ 4. X ∼ N(µ;σ2) P(X ≤ x)≡ normcdf (x ,µ,σ); σ = √ σ2 Funções de Distribuição no R 1. X ∼ Uniforme(a,b) P(X ≤ x)≡ punif (x ,a,b) 2. X ∼ Exponencial(λ ) P(X ≤ x)≡ pexp(x ,λ ); 3. X ∼ Gama(α,λ ) P(X ≤ x)≡ pgamma(x ,α,λ ); 4. X ∼ N(µ;σ2) P(X ≤ x)≡ pnorm(x ,µ,σ); σ = √ σ2 Função de Distribuição Inversa Definição: Para uma v.a. X , com f.d. F (·), a f.d. inversa é definida por F−1(p) = min{x : F (x)≥ p}, p ∈ [0,1]. Se F é estritamente crescente e contínua então F−1(p) é um único número x tal que F (x) = P(X ≤ x) = p. X Para p ∈ [0,1], determina um valor x que estabelece a probabilidade p a sua esquerda na distribuição de X . Definição: A mediana da distribuição X é definida por med(X ) = F−1X (0,5). Função de Distribuição Inversa no MATLAB 1. X ∼ Uniforme(a,b) F−1(p) = x : x = unifinv(p,a,b). 2. X ∼ Exponencial(λ ) F−1(p) = x : x = expinv(p,1/λ ); 3. X ∼ Gama(α,λ ) F−1(p) = x : x = gaminv(p,α,1/λ ); 4. X ∼ N(µ;σ2) F−1(p) = x : x = norminv(p,µ,σ); σ = √ σ2 Funções de Distribuição Inversa no R 1. X ∼ Uniforme(a,b) F−1(p) = x : x = qunif (p,a,b) 2. X ∼ Exponencial(λ ) F−1(p) = x : x = qexp(p,λ ); 3. X ∼ Gama(α,λ ) F−1(p)= x : x = qgamma(p,α,λ ); 4. X ∼ N(µ;σ2) F−1(p) = x : x = qnorm(p,µ,σ); σ = √ σ2 Exemplo 2.20: 1. Para uma v.a. X determine um valor x quando: 1.1 X ∼ Exponencial(1/100) e P(X > x) = 0,05. 1.2 X ∼ Normal(0;1) e P(X < x) = 0,975 1.3 X ∼ Normal(0;1) e P(−x < X < x) = 0,95 1.4 X ∼ Normal(90;400) e P(X > x) = 0,05 2. Considere uma v.a. X ∼ Gama (2;3). Obtenha a mediana desta distribuição. 3. Sendo X ∼ Normal (µ;σ2), qual a mediana da sua distribuição? Valor Esperado de uma V. A. Contínua Definição: A esperança (valor esperado, valor médio) de uma v.a. contínua X , com f.d.p f (x), é definida por E [X ] = ∫ ∞ −∞ x f (x)dx , X Tem interpretação análoga às da v.a. discretas, um valor numérico que visa caracterizar �região central� da distribuição de probabilidade da v.a. X Se a distribuição de probabilidade da v.a. apresentar um ponto de simetria, o valor esperado indicará este ponto. Referência: ROSS(2007), Chapter 2 KAY(2006), Chapter 11 Exemplo 2.21: 1. Seja X uma v.a. contínua com f.d.p. f (x) = { 3x2, se 0≤ x ≤ 1 0, caso contrário. Obtenha a esperança de X . 2. Seja X ∼ Uniforme (a,b). Obter E [X ]. Exercício: Obter a esperança dos modelos de v.a. contínuas apresentados. Valor Esperado de Funções de V. A. Contínuas Sejam X uma v.a contínua, com f.d.p f (·), e g(·) uma função que gera uma v.a. Y = g(X ) também continua. Então, temos que E [Y ] = E [g(X )] = ∫ ∞ −∞ g(x) f (x)dx . Observação: É possivel determinar a f.d.p de Y , fY (·), e empregá-la para obter E [Y ] = ∫ ∞ −∞ y fY (y)dy Veja KAY(2006), Chapter 10, Appendix 10A. Exemplo 2.22: Para a v.a. X ∼ Uniforme(−1,1) e Y = X 2, determine E [Y ]. Variância de V. A. Contínuas Definição: A variância de uma v.a. X , com f.d.p f (x), é definida por Var(X ) = E{(X −E [X ])2}. Então Var(X ) = ∫ ∞ −∞ (x−E [X ])2 f (x)dx . X Interpretação análoga à das v.a. discretas, mensura a dispersão (ou a variabilidade) da distribuição da v.a. com respeito a seu valor esperado. Exemplo 2.23: 1. Seja X uma v.a. contínua com f.d.p. f (x) = { 3x2, se 0≤ x ≤ 1 0, caso contrário. Obtenha a variância de X . 2. Seja X ∼ Uniforme (a,b). Obter Var [X ]. Exercício: Obter a variância dos modelos de v.a. contínuas apresentados. Propriedades da Esperança e Variância Todas as propriedades da Esperança e Variância apresentadas para as v.a. discretas são válidas para as v.a. contínuas, 1. E [c] = c 2. E [aX + b] = aE [X ] + b 3. Var [X ] = E [X 2]− (E [X ])2 4. Var [X ]≥ 0 5. Var [c] = 0 6. Var [cX ] = c2Var [X ] 7. Var [aX + b] = a2Var [X ] Exercício: Demonstrar cada uma das propriedades acima sendo X uma v.a. contínua. Função Característica de V.A. Contínuas Definição: A função característica (f.c.) de uma v.a. X é definida por φX (t) = E [e jtX ], t ∈ R, onde j = √−1. Para X contínua com f.d.p f (x) temos que φX (t) = ∫ ∞ −∞ e jtx f (x)dx . Propriedades 1. A f.c. sempre existe pois |φX (t)|< ∞. 2. Gera os momentos E [X n] por E [X n] = 1 jn φ (n)X (0), onde φ (n) X (t) = dn dtn φX (t) Função Característica de V.A. Contínuas Teorema da Unicidade A função característica de uma v.a. X determina univocamente a distribuição de X . (a f.c. é uma representação da distribuição) Exemplo 2.24 1. Considere uma v.a. X ∼ Exponencial(λ ). Obter f.c. e empregar para obter sua esperança e sua variância. Exercício: 1. Obter a f.c. para os modelos de v.a. contínuas apresentados e empregar para obter a esperança e a variância. 2. Empregar a f.c. para mostrar que, sendo X ∼ N(µ;σ2), temos que: 2.1 para Y = a X + b, com a 6= 0 e b ∈ R, então Y ∼ N(aµ + b;a2σ2). 2.2 para Z = X−µσ , então Z ∼ N(0;1). Distribuição Conjunta de V. A. Considere duas v.a. X e Y associadas a um experimento aleatório. ∀s ∈ S ⇒ RXY = {(X (s),Y (s)) ∈ R2} A função de distribuição conjunta de X e Y é definida por F (x ,y) = P(X ≤ x ,Y ≤ y), −∞< x ,y < ∞. A definição vale para mais v.a.: X 1 ,X 2 , ...,Xd F (x 1 ,x 2 , ...,xd) = P(X1 ≤ x1,X2 ≤ x2, ...,Xd ≤ xd), com −∞< xi < ∞, i = 1,2, ...,d . Referência: ROSS(2007), Chapter 2 KAY(2006), Chapter 7 and Chapter 12. Distribuição Conjunta de V. A. Serão considerados os casos: 1. Para (X ,Y ) discretas definimos a f.p. conjunta p(xi ,yj) = P(X = xi ,Y = yj), para todo (xi ,yj) pares de valores de (X ,Y ). 2. Para (X ,Y ) conjuntamente contínuas temos f.d.p. conjunta f (·, ·) tal que P(X ∈ A,Y ∈ B) = ∫ A ∫ B f (x ,y)dx dy , para todo A e B em R. Distribuições Marginais Podemos obter a distribuição marginal de cada uma das v.a. a partir da distribuição conjunta 1. (X ,Y ) discretas com f.p. conjunta p(xi ,yi ) P(X = x) =∑ yj p(x ,yj), P(Y = y) =∑ xi p(xi ,y) 2. (X ,Y ) contínua com f.d.p. conjunta f (x ,y) fX (x) = ∫ ∞ −∞ f (x ,y)dy , fY (y) = ∫ ∞ −∞ f (x ,y)dx , Exemplo 2.24: 1. Seja (X ,Y ) v.a. bidimensional com f.p. conjunta Y \X 0 1 2 2 0.25 0.10 0.15 3 0.25 0.05 0.20 Obtenha as distribuições marginais de X e de Y . 2. Seja (X ,Y ) com f.d.p. conjunta f (x ,y) = { x + y , 0≤ x ≤ 1, 0≤ y ≤ 1 0, c .c Obtenha as distribuições marginais de X e de Y . V. A. Independentes Considere os eventos A = {s ∈ S : X (s)≤ x} B = {s ∈ S : Y (s)≤ y} Então, P(A∩B) = P(X (s)≤ x ,Y (s)≤ y) = F (x ,y) Se A e B são independentes, temos P(A∩B) = P(A)P(B) F (x ,y) = P(X (s)≤ x)P(Y (s)≤ y) F (x ,y) = FX (x)FY (y) V. A. Independentes Definição: As v.a. X e Y são independentes se e somente se F (x ,y) = FX (x)FY (y) ∀(x ,y) ∈ R2 A definição implica que: 1. Para (X ,Y ) discreta P(X = xi ,Y = yj) = P(X = xi )P(Y = yj) ∀(xi ,yj) 2. Para (X ,Y ) contínua com f.d.p. conjunta f (x ,y) f (x ,y) = fX (x)fY (y). Exemplo 2.25: Verifique se no exemplo anterior as v.a. são independentes. Valor Esperado de g(X ,Y ) Seja (X ,Y ) v.a. bidimensional e g(·, ·) uma função real. Definição: 1. Para (X ,Y ) v.a. bidimensional discreta E [g(X ,Y )] =∑ xi ∑ yj g(xi ,yj)P(X = xi ,Y = yj) 2. Para (X ,Y ) v.a. bidimensional conjuntamente contínua E [g(X ,Y )] = ∫ ∞ −∞ ∫ ∞ −∞ g(x ,y)f (x ,y)dx dy . Algumas Propriedades: 1. X e Y v.a., a e b constantes E [aX + bY ] = aE [X ] + bE [Y ] 2. X 1 ,X 2 , ...,Xd v.a., a1,a2, ...,ad constantes E [a 1 X 1 + a 2 X 2 + ...+ adXd ] = d ∑ i=1 aiE [Xi ] 3. X e Y v.a. independentes, g(·) e h(·) funções E [g(X )h(Y )] = E [g(X )]E [h(Y )] 4. X 1 , ...,Xd v.a. independentes, g1, ...,gd funções E [g 1 (X 1 )g 2 (X 2 )...gd(Xd)] = d ∏ i=1 E [gi (Xi )] Covariância e Variância da Soma de V. A. Definição: A covariância entre duas v.a. X e Y é definida por Cov(X ,Y ) = E{(X −E [X ])(Y −E [Y ])} 1. É uma medida de �variabilidade conjunta� entre as v.a. 2. Valores � + � indicam que as v.a. tendem a crescer no mesmo sentido, e valores � - � indicam sentidos opostos. 3. Resultado: Cov(X ,Y ) = E [XY ]−E [X ]E [Y ] = Cov(Y ,X ) ⇒ é uma medida �simétrica�. Exercício: Fazer a verificação deste resultado Exemplo 2.26: 1. Seja (X ,Y ) v.a. bidimensional com f.p. conjunta Y \X 0 1 2 2 0.25 0.10 0.15 3 0.25 0.05 0.20 Obtenha a covariância entre X e Y . 2. Seja (X ,Y ) com f.d.p. conjunta f (x ,y) = { x + y , 0≤ x ≤ 1, 0≤ y ≤ 1 0, c .c Obtenha a covariância entre X e Y . Propriedades: 1. Cov(X ,X ) = Var(X ) 2. Com X e Y independentes, Cov(X ,Y ) = 0. 3. Se a e b são constantes, Cov(aX ,bY ) = a b Cov(X ,Y ) 4. Cov(X ,Y + Z ) = Cov(X ,Y ) + Cov(X ,Z ) 5. Com X 1 , ...,Xm e Y1, ...,Yn v.a. e sendo a1,a2, ...,ad e b 1 ,b 2 , ...,bd constantes Cov(m ∑ i=1 aiXi , n ∑ j=1 bjYj) = m ∑ i=1 n ∑ j=1 aibjCov(Xi ,Yj). Propriedades: 6. Com X 1 , ...,Xm v.a. Var( m ∑ i=1 Xi ) = m ∑ i=1 Var(Xi ) +2 m−1 ∑ i=1 m ∑ j=i+1 Cov(Xi ,Yj) 7. Se X 1 , ...,Xm são v.a. conjuntamente independentes Var( m ∑ i=1 Xi ) = m ∑ i=1 Var(Xi ) Exercício: Fazer a verificação destas propriedades. Exemplo 2.27: Seja Y ∼ Binomial(m,p) e defina, para cada repetição, as v.a. Xi = { 1, se ocorre o sucesso 0, se ocorre o fracasso com i = 1,2, ..,m. Modele Y em termos das v.a. Xi ′s e obtenha E [Y ] e Var [Y ]. Coeficiente de Correlação Definição: O coeficiente de correlação entre duas v.a. X e Y é definido por ρ(X ,Y ) = Cov(X ,Y )√ Var(X )Var(Y ) . 1. É uma medida que quantifica a associação linear entre as v.a. 2. −1≤ ρ(X ,Y ) ≤ 1. 3. ρ(X ,Y ) = 1 ⇔ Y = aX + b, a > 0 e b ∈ R 4. ρ(X ,Y ) =−1 ⇔ Y = aX + b, a < 0 e b ∈ R. 5. ρ(X ,Y ) = 0 ⇒ ausência de associação linear. Exemplo 2.28 1. Seja (X ,Y ) v.a. bidimensional com f.p. conjunta Y \X 0 1 2 2 0.25 0.10 0.15 3 0.25 0.05 0.20 Obtenha o coeficiente de correlação entre X e Y . 2. Seja (X ,Y ) com f.d.p. conjunta f (x ,y) = { x + y , 0≤ x ≤ 1, 0≤ y ≤ 1 0, c .c Obtenha o coeficiente de correlação entre X e Y . Função Característica Conjunta Definição: A função característica (f.c.) de uma v.a. bidimensional (X ,Y ) é definida por φXY (t,s) = E [e j(tX+sY )], (t,s) ∈ R2, onde j = √−1. Para (X ,Y ) discreta, com f.p. conjunta p(xi ,yj), temos que φXY (t,s) =∑ xi ∑ yj e j(txi+syj ) p(xi ,yj) Para (X ,Y ) conjuntamente contínua, com f.d.p. conjunta f (x ,y), temos que φXY (t,s) = ∫ ∞ −∞ ∫ ∞ −∞ e j(tx+sy) f (x ,y)dx dy . Função Característica Conjunta Propriedades: 1. A f.c. sempre existe pois |φXY (t,s)|< ∞. 2. Gera os momentos conjuntos E [XmY n] por E [XmY n] = 1 jm+n φ (m+n)X (0,0); φ (m+n) XY (t,s) = dm+n dtm dsn φXY (t,s) 3. Teorema da Unicidade também se verifica. 4. Para X e Y v.a. independentes, com f.c. φX (t) e φY (s), temos φX+Y (t,s) = φX (t)φY (s) Exercício: 1. Fazer a verificação da Propriedade 4. 2. Para X ∼ Poisson(λ 1 ), Y ∼ Poisson(λ 2 ), v.a. independentes, e Z = X + Y , mostrar que Z ∼ Poisson(λ ), com λ = λ 1 +λ 2 . Distribuição Condicional Definição: Para X e Y v.a. com distribuição conjunta 1. (X ,Y ) discreta com f.p. conjunta P(X = x ,Y = y) P(X = x |Y = y) = P(X = x ,Y = y) P(Y = y) , ∀y com P(Y = y) > 0 2. (X ,Y ) contínua com f.d.p. conjunta fXY (x ,y) fX |Y=y (x |y) = fXY (x ,y) fY (y) , ∀y com fY (y) > 0. X São distribuições de probabilidade, portanto 1. ∑x P(X = x |Y = y) = 1 2. ∫ ∞ −∞ fX |Y=y (x |y)dx = 1 Referência: ROSS(2007), Chapter 3 KAY(2006), Chapter 8 and Chapter 13. Exemplo 2.29 1. Seja (X ,Y ) v.a. bidimensional com f.p. conjunta Y \X 0 1 2 2 0.25 0.10 0.15 3 0.25 0.05 0.20 Obtenha a distribuição (condicional) de X dado Y = 2. 2. Seja (X ,Y ) com f.d.p. conjunta f (x ,y) = { 6xy(2−x−y), 0≤ x ≤ 1, 0≤ y ≤ 1 0, c .c Obtenha a distribuição (condicional) fX |Y=y (x |y). 3. Sejam X ∼ Poisson(λ 1 ) e Y ∼ Poisson(λ 2 ) independentes. Determine a distribuição de X dado X + Y = k Esperança Condicional Definição: A esperança condicional de X dado Y = y 1. (X ,Y ) discreta com f.p. conjunta P(X = x ,Y = y) e P(Y = y) > 0 E [X |Y = y ] =∑ x x P(X = x |Y = y) 2. (X ,Y ) contínua com f.d.p. conjunta fXY (x ,y) e fY (y) > 0 E [X |Y = y ] = ∫ ∞ −∞ x fX |Y=y (x |y)dx Exemplo 2.30: Com relação ao exemplo anterior, determinar as esperanças condicionais para as distribuições obtidas. Esperança Condicional Resultado 1: para a função E [X |Y ], cujo valor em Y = y é dado por E [X |Y = y ], temos que E [X ] = E{E [X |Y ]} Com Y discreta E [X ] =∑ y E [X |Y = y ]P(Y = y) Com Y contínua E [X ] = ∫ ∞ −∞ E [X |Y = y ] fY (y)dy Resultado 2: Se X e Y são independentes, então E [X |Y = y ] = E [X ] e E [Y |X = x ] = E [Y ] Exercício: Fazer a verificação destes resultados. Aplicação: A soma de um número aleatório de v.a: Sejam X 1 ,X 2 ,X 3 , ... v.a. independentes, todas com a mesma distribuição (v.a.i.i.d), e seja N uma v.a. discreta com valores em {1,2,3, ....}. Considere que N é independente do Xi ′s e defina Y = X 1 + X 2 + X 3 + ...+ XN . Mostrar que (a) E [Y ] = E [X 1 ]E [N] (b) Var [Y ] = Var [X 1 ]E [N] + E 2[X 1 ]Var [N] Cálculo de Probabilidade por Condicionamento Para o evento {X ∈ A} defina uma v.a. como W = { 1 se X ∈ A 0 se X 3 A ⇒ E [W ] = P(X ∈ A) e E [W |Y = y ] = P{(X ∈ A)|Y = y}. Resultado: P(X ∈ A) = E [W ] = E{E [W |Y ]}= E{P[(X ∈ A)|Y ]}. Com Y discreta P(X ∈ A) =∑ y P{(X ∈ A)|Y = y}P(Y = y) Com Y contínua P(X ∈ A) = ∫ ∞ −∞ P{(X ∈ A)|Y = y} fY (y)dy Exemplo 2.31: 1. Considere X e Y v.a. contínuas e independentes e T = X + Y . (a) Mostrar que FT (t) = ∫ ∞ −∞ FX (t−y) fY (y)dy . (b) Com X ∼ Exp(λ 1 ) e Y ∼ Exp(λ 2 ), obter a f.d.p. de T . 2. Para uma central de serviços há uma probabilidade p de que cada serviço seja executado corretamente e as execuções são independentes. Suponha que as solicitações de serviço, em um dado intervalo de tempo, chegam segundo um modelo de Poisson(λ ). Qual a probabilidade de serem executados corretamente k serviços no intervalo de tempo considerado? Teorema Central do Limite Sejam X 1 ,X 2 ,X 3 , ... v.a. independentes e indenticamente distribuidas (iid), com média E [X ] e variância Var [X ] finita (< ∞). Seja Sn = ∑ni=1Xi . Então com n→ ∞, temos que Sn ≈ N(n E [X ];n Var [X ]) ou Sn−n E [X ]√ n Var [X ] ≈ N(0;1) Temos que, com Z ∼ N(0;1), P ( Sn−n E [X ]√ n Var [X ] ≤ s ) ≈ ∫ s −∞ fZ (z)dz ⇒ Pelo TCL, a distribuição da soma de uma quantidade grande v.a. iid pode ser aproximada por uma distribuição Normal , sem ser necessário conhecer a distribuição das v.a. Referência: ROSS(2007), Section 2.7 KAY(2006), Section 15.5. Exemplo 2.32: 1. Seja X ∼ Binomial(50;0,5). Obtenha uma aproximação para: (a) P(X > 30). (b) P(X = 40) 2. (ROSS(2007), Chapter 3). The lifetime of a special type of battery is a random variable with mean 40 hours and standard deviation 20 hours. A battery is used until it fails, at which point it is replaced by a new one. Assuming a stockpile of 25 such batteries, the lifetimes of which are independent, approximate the probability that over 1100 hours of use can be obtained. Simulação Computacional de V.A. Simulação computacional de um sistema envolve a simulação de observações de uma v.a. com especificada distribuição de probabilidade. Exemplo: Suponha que o objetivo seja simular o número de e-mail que chegam a uma central de processamento um fixado intervalo de tempo. Definimos a v.a. X : o número de e-mail que chegam no intervalo ⇒ empregar um modelo e simular observações de X A simulação de v.a., em muitos casos, consiste em gerar um número �pseudo� aleatório a partir da Uniforme(0;1), transformá-lo para gerar a observação do modelo desejado. MATLAB: rand gera número �pseudo� aleatório Uniforme(0;1) Simulação Computacional de V.A.: Exemplos Empregar a função �rand� para as seguintes questões. 1. Simular computacionalmente um sequência de CARAS (C ) e COROAS (K ) no lançamento de uma moeda �viciada� com P(C ) = 0.4. Propor um algoritmo. 2. Propor um algoritmo para simular observações do número de peças defeituosas em caixas de um determinado produto, onde podemos considerar que os defeitos ocorrem de forma independente na linha de produção e sabendo que as peças são embaladas em caixascom 10 itens. 3. Propor um algoritmo para simular observações da distribuição conjunta Y \X 0 1 2 2 0.25 0.10 0.15 3 0.25 0.05 0.20 Simulação Computacional Observação: 1. A simulação de observações de alguns modelos exigem o emprego de resultados de Probabilidade não discutidos na disciplina. Veja, por exemplo, KAY(2006), Section 10.9. 2. A �credibilidade� de um estudo de simulação depende fundamentalmente do gerador de números (pseudos) aleatórios empregado e, dependendo da extensão do estudo, devem ser ser feitas avaliações com a relação a �aleatóriedade� e a �independência� dos valores gerados. 3. Uma referência sobre a assunto: ROSS, S. (2002) Simulation. 3rd Edition. Academic Press. Simulação Computacional Funções para simular observações de v.a. Modelo Matlab R Binomial(m,p) binornd(m,p,n,d) rbinom(n,m,p) Geometrica(p) geornd(p,n,d) rgeom(n,p) Poisson(λ ) poissrnd(λ ,n,d) rpois(x ,λ ) Uniforme(a,b) unifrnd(a,b,n,d) runif (n,a,b) Exponencial(α) exprnd(1/α,n,d) rexp(n,α) Gama(α,λ ) gamrnd(α,1/λ ,n,d) rgamma(n,α,λ ) N(µ;σ2) normrnd(µ,σ ,n,d) rnorm(n,µ,σ) Vetores Aleatórios Um vetor cujas componentes são v.a.: X= (X 1 ,X 2 , ...,Xd) T 1. Função de distribuição conjunta F (x 1 ,x 2 ,x 3 , ...,xd) = P(X1 ≤ x1,X2 ≤ x2,X3 ≤ x3, ...,Xd ≤ xd), com −∞< xi < ∞, i = 1,2, ...,d . 2. Conjuntamente discreto ⇒ f.p. conjunta P(X= x) = P(X 1 = x 1 ,X 2 = x 2 ,X 3 = x 3 , ...,Xd = xd) 3. Conjuntamente contínuo ⇒ f.d.p. conjunta f X (x) = fX 1 X 2 X 3 ...Xd (x1,x2,x3, ...,xd) Notação: x= (x 1 ,x 2 ,x 3 , ...,xd) T ∈ Rd Referência: KAY(2006), Chapter 9 and Chapter 14. Vetores Aleatórios: Caracterização Vetor de Médias: E [X] = E [X 1 ] E [X 2 ] . . . E [Xd ] Matrix de Covariâncias: CX = E{(X−E [X])(X−E [X])T} que resulta em CX = σ 11 σ 12 σ 13 . . . σ 1d σ 12 σ 22 σ 23 . . . σ 2d . . . . . . . . . . . . . . . σd1 σd2 σd3 . . . σdd onde σij = cov(Xi ,Xj) = E{(Xi −E [Xi ])(Xj −E [Xj ])}. Vetores Aleatórios: Propriedades 1. Matriz de covariâncias é simétrica e a diagonal principal contém as variâncias das v.a. em X. 2. Se as v.a. em X são conjuntamente independentes, então CX = diag(σ11,σ22,σ33, ...,σdd) 3. Sendo a(d×1) vetor de constantes ( 6= 0), b ∈ R e Y = aTX+ b então E [Y ] = aTE [X] + b e Var [Y ] = aTCXa. 4. Com A(m×d), m ≤ d , matrix de constantes e Y = AX, então E [Y] = AE [X] e CY = ACXA T . 5. Pode ser obtida uma transformação de X para Y com m.c. diagonal. Distribuição Multinomial É uma extensão do modelo Binomial onde, em cada uma das m repetições independentes, são gerados k > 2 resultados de interesse com suas respectivas probabilidades constantes. Definimos Yi : o número de resultados do tipo i nas m repetições, i = 1,2, ...,d . Sendo pi = P(resultado do tipo i), para as v.a. Y1,Y2,Y3, ...,Yd temos P(Y 1 = n 1 ,Y 2 = n 2 , ...,Yd = nd) = m! n 1 !n 2 !...nd ! pn1 1 pn2 2 ...pndd onde ∑ki=1 pi = 1 e n1+ n2+ ...+ nd = m 1. Temos Y = (Y 1 ,Y 2 ,Y 3 , ...,Yd) T 2. Notação: Y ∼Multinomial(m,p 1 ,p 2 , ...,pd) Distribuição Multinomial Exercício: Seja Y ∼Multinomial(m,p 1 ,p 2 , ...,pd). Mostre que o vetor de média e a matriz covariâncias são, respectivamente, E [Y] = m p 1 m p 2 . . . m pd e CY = m p 1 (1−p 1 ) −m p 1 p 2 −m p 1 p 3 . . . −m p 1 pd −m p 2 p 1 m p 2 (1−p 2 ) −m p 2 p 3 . . . −m p 2 pd . . . . . . . . . . . . . . . −m pd p1 −m pd p2 −m pd p3 . . . m pd(1−pd) Distribuição Normal Multivariada (DNM) Um v.a. X(d×1) tem distribuição normal (gaussian) multivariada com parâmetros µµµ(d×1) e ΣΣΣ(d×d) (não singular) se sua f.d.p. conjunta é dada por f X (x) = 1 (2pi) d2 (det( ΣΣΣ)) 12 exp{−1 2 (x− µµµ)T ΣΣΣ−1(x− µµµ)} 1. Resultados: (a) Vetor de médias: E [X] = µµµ (b) Matriz de covariâncias: COV [X] = ΣΣΣ 2. O vetor µµµ define a �localização� e os valores na matriz ΣΣΣ a �forma� da distribuição no espaço Rd 3. Notação: X∼ Nd( µµµ, ΣΣΣ). DNM: Propriedades 1. As v.a. em X são independentes se, e somente se, ΣΣΣ = diag(σ 11 ,σ 22 ,σ 33 , ...,σdd) 2. Com a(d×1) vetor de constantes (6= 0), b ∈ R e Y = aTX+ b então Y ∼ N(aT µµµ + b,aT ΣΣΣa) ⇒ cada v.a. em X tem distribuição normal. 3. Com A(m×d), m ≤ d , matrix de constantes e Y = AX, então Y ∼ Nm(A µµµ,A ΣΣΣAT ). ⇒ subconjuntos (6= /0) de v.a. em X tem distribuição normal. 4. Sendo Z∼ Nd(0, I(d×d)) e A tal que AAT = ΣΣΣ, então Y = AZ+ µµµ ∼ Nd( µµµ, ΣΣΣ) Exercício: Fazer a verificação destes resultados. DNM: Simulação Para simular observações de X∼ Nd(µµµ, ΣΣΣ) a propriedade 4 pode ser empregada; fixados µµµ e ΣΣΣ, emprega-se a decomposição de Choleski para obter a matrix A. Exercício: Propor e implementar um algoritmo para simular observações com DNM empregando a propriedade 4. Funções para simulação: Simular observações de uma distribuição Nd( µµµ, ΣΣΣ): (a) No Matlab: Statistics Toolbox e função mvnrnd(Mu,Sigma,n) (b) No R: Pacote mvtnorm e função rmvnorm(n,Mu,Sigma). Observação: A dimensão d é inferida da dimensão do vetor Mu declarado na função.
Compartilhar