Baixe o app para aproveitar ainda mais
Prévia do material em texto
Variável Aleatória Sumário Variável Aleatória Unidimensional Discreta:............................................................................... 3 Função Discreta de Probabilidade: ........................................................................................... 4 Esperança Matemática – Média (Caso Discreto): ..................................................................... 4 Variância (Caso Discreto): ......................................................................................................... 4 Desvio Padrão: .......................................................................................................................... 5 Coeficiente de Variação: ........................................................................................................... 5 Propriedades da Derivada: ........................................................................................................ 5 Propriedades da Integral: .......................................................................................................... 6 Variável Aleatória Unidimensional Contínua: ............................................................................. 6 Função Densidade de Probabilidade (Unidimensional): ........................................................... 6 Função de Distribuição de Probabilidade (Unidimensional): .................................................... 6 Cálculo de Probabilidade:.......................................................................................................... 7 Probabilidade Condicional: ................................................................................................... 7 Mediana: ................................................................................................................................... 8 Moda: ........................................................................................................................................ 8 Esperança Matemática – Média (Caso Contínuo): .................................................................... 8 Demonstração de Propriedades da Esperança: .................................................................... 9 Variância (Caso Contínuo): ........................................................................................................ 9 Demonstração de Propriedades da Variância: ...................................................................... 9 Outras Propriedades: .............................................................................................................. 10 Distribuição Uniforme de Probabilidade: ................................................................................ 11 Distribuição Exponencial de Probabilidade:............................................................................ 11 Função de Distribuição Exponencial: .................................................................................. 12 Propriedade da Perda de Memória: ........................................................................................ 12 Variável Aleatória Bidimensional Discreta: ............................................................................... 13 Tabelas / Função: .................................................................................................................... 13 Esperança Matemática – Média (Caso Discreto): ................................................................... 14 Variância (Caso Discreto): ....................................................................................................... 15 Independência (Caso Discreto): .............................................................................................. 16 Covariância: ............................................................................................................................. 16 Coeficiente de Pearson (Correlação): ..................................................................................... 16 Variável Aleatória Bidimensional Contínua: .............................................................................. 17 Função Densidade de Probabilidade (Bidimensional): ......................................................... 17 Independência (Caso Contínuo): ............................................................................................. 18 2 Função Marginal: ..................................................................................................................... 18 Funções Condicionais: ............................................................................................................. 19 Função de Distribuição de Probabilidade (Bidimensional): .................................................. 20 Distribuição Conjunta: ............................................................................................................. 20 Distribuição Marginal: ............................................................................................................. 20 Distribuição Condicional: ........................................................................................................ 21 Esperança/Variância/ Desvio Padrão Marginal: ...................................................................... 22 Esperança/Variância/ Desvio Padrão Condicional: ................................................................. 23 Esperança/Variância/ Desvio Padrão Conjunta: ..................................................................... 24 Demonstração das propriedades: .............................................................................................. 25 Propriedades de variáveis dependentes: ................................................................................ 25 Propriedades de variáveis Independentes: ............................................................................. 26 3 Variável Aleatória Unidimensional Discreta: Uma quantidade 𝑋, associada a cada possível resultado do espaço amostral, é denominada de variável aleatória discreta se assume valores num conjunto enumerável, com certa probabilidade. Propriedades: i. 0 ≤ 𝑃(𝑋𝑖) ≤ 1 ii. ∑𝑃(𝑋𝑖) = 1 Exemplo: Lançamento de duas moedas em sequência de forma independente. Qual a probabilidade de sair pelo menos uma vez “cara”? 𝑁° 𝑑𝑒 𝑐𝑎𝑟𝑎𝑠 𝑛𝑜𝑠 𝑑𝑜𝑖𝑠 𝑙𝑎𝑛ç𝑎𝑚𝑒𝑛𝑡𝑜𝑠⏟ 𝑋 ≥ 1 𝑃(𝑋 ≥ 1) = ? Passo 1: Quais os valores que 𝑋 pode assumir? Resultados possíveis nos dois lançamentos: 𝐶𝑎𝑟𝑎; 𝐶𝑜𝑟𝑜𝑎 → 1 𝐶𝑜𝑟𝑜𝑎; 𝐶𝑎𝑟𝑎 → 1 𝑋: {0, 1, 2} 𝐶𝑎𝑟𝑎; 𝐶𝑎𝑟𝑎 → 2 𝐶𝑜𝑟𝑜𝑎; 𝐶𝑜𝑟𝑜𝑎 → 0 Passo 2: Qual a probabilidade de 𝑋 assumir cada um desses valores? 𝑃(𝑋 = 0) = 1 4 ; 𝑃(𝑋 = 1) = 2 4 ; 𝑃(𝑋 = 2) = 1 4 𝑃(𝑋 = 0) + 𝑃(𝑋 = 1) + 𝑃(𝑋 = 2) = 1 Passo 3: Calcular a probabilidade para 𝑋 ≥ 1: 𝑃(𝑋 ≥ 1) = 𝑃(𝑋 = 1) + 𝑃(𝑋 = 2) = 2 4 + 1 4 = 3 4 ou pensando em complementar... 𝑃(𝑋 ≥ 1) = 1 − 𝑃(𝑋 < 1) = 1 − 𝑃(𝑋 = 0) = 3 4 Por quê Discreta? Porque só assume valores finitos ou infinitos numeráveis: 𝑋: {0, 1, 2} 4 Função Discreta de Probabilidade: Seja 𝑋 uma variável aleatória discreta unidimensional. A função de probabilidade 𝑓(𝑋) = 𝑃(𝑋) = 𝑃(𝑥𝑖 ) = 𝑃(𝑋 = 𝑥𝑖 ) é a função que atribui probabilidade a cada possível resultado (𝑥𝑖 ) do espaço amostral. Esta função deve satisfazer as seguintes condições: a. 𝑃(𝑥𝑖) ≥ 0, 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 (𝑥𝑖); b. ∑𝑃(𝑥𝑖) = 1. 𝑋 P(𝑥𝑖) 0 0,25 1 0,5 2 0,25 Soma: 1 Esperança Matemática – Média (Caso Discreto): O valor esperado, também chamado esperança matemática ou expectância, de uma variável aleatória é a soma do produto de cada probabilidade de saída da experiência pelo seu respectivo valor. 𝐸(𝑋) =∑𝑥𝑖 ∙ 𝑃(𝑥𝑖) 𝐸(𝑔(𝑋)) = ∑𝑔(𝑋) ∙ 𝑃(𝑥𝑖) Ex: 𝐸(𝑋) = 0 ∙ 0,25 + 1 ∙ 0,5 + 2 ∙ 0,25 = 1 Propriedades da Esperança: i. 𝐸(𝑎) = 𝑎 ; 𝑎 = 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒. ii. 𝐸(𝑎𝑋) = 𝑎 ∙ 𝐸(𝑋) iii. 𝐸(𝑋 + 𝑏) = 𝐸(𝑋) + 𝑏 iv. 𝐸(𝑎𝑋 + 𝑏) = 𝑎 ∙ 𝐸(𝑋) + 𝑏 Variância (Caso Discreto): A Variância é uma medida de dispersão que mostra o quão distante cada valor desse conjunto está do valor central (médio). 𝑉𝑎𝑟(𝑋) = 𝐸[𝑋 − 𝐸(𝑋)]2 =∑[𝑋 − 𝐸(𝑋)]2 ∙ 𝑃(𝑥𝑖) 𝑉𝑎𝑟(𝑔(𝑋)) = 𝐸[𝑔(𝑋) − 𝐸[𝑔(𝑋)]] 2 =∑[𝑔(𝑋) − 𝐸[𝑔(𝑋)]] 2 ∙ 𝑃(𝑋𝑖) Exemplo: 𝑉𝑎𝑟(𝑋) = (0 − 1)2 ∙ 0,25 + (1 − 1)2 ∙ 0,5 + (2 − 1)2 ∙ 0,25 𝑉𝑎𝑟(𝑋) = 0,25 + 0 + 0,25 = 0,5 5 Propriedades da Variância: i. 𝑉𝑎𝑟(𝑋) ≥ 0 ii. 𝑉𝑎𝑟(𝑎) = 0 ; 𝑎 = 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒. iii. 𝑉𝑎𝑟(𝑎𝑋) = 𝑎2 ∙ 𝑉𝑎𝑟(𝑋) iv. 𝑉𝑎𝑟(𝑋 + 𝑏) = 𝑉𝑎𝑟(𝑋) v. 𝑉𝑎𝑟(𝑎𝑋 + 𝑏) = 𝑎2 ∙ 𝑉𝑎𝑟(𝑋) vi. 𝑉𝑎𝑟(𝑋) = 𝐸(𝑋2) − 𝐸(𝑋)2 Desvio Padrão: O Desvio Padrão é uma medida de dispersão, ou seja, é uma medida que indica o quanto o conjunto de dados é uniforme. 𝐷𝑃 = √𝑉𝑎𝑟(𝑋) Propriedades do Desvio Padrão: i. 𝐷𝑃(𝑋) ≥ 0 ii. 𝐷𝑃(𝑎𝑋) = |𝑎| ∙ 𝐷𝑃(𝑋) iii. 𝐷𝑃(𝑋 + 𝑏) = 𝐷𝑃(𝑋) iv. 𝐷𝑃(𝑎𝑋 + 𝑏) = |𝑎| ∙ 𝐷𝑃(𝑋) Coeficiente de Variação: O coeficiente de variação é usado para expressar a variabilidade dos dados estatísticos excluindo a influência da ordem de grandeza da variável. 𝐶𝑉 = 𝐷𝑃(𝑋) 𝐸(𝑋) Propriedades da Derivada: i. 𝑑 𝑑𝑥 𝑘 = 0 ii. 𝑑 𝑑𝑥 [𝑘 ∙ 𝑓(𝑋)] = 𝑘 ∙ 𝑓′(𝑋) iii. 𝑑 𝑑𝑥 [𝑓(𝑋) ± 𝑔(𝑋)] = 𝑓′(𝑋) ± 𝑔′(𝑋) iv. 𝑑 𝑑𝑥 [𝑓(𝑋) ∙ 𝑔(𝑋)] = 𝑓′(𝑋) ∙ 𝑔(𝑋) + 𝑔′(𝑋) ∙ 𝑓(𝑋) v. 𝑑 𝑑𝑥 [ 𝑓(𝑋) 𝑔(𝑋) ] = 𝑓′(𝑋)∙𝑔(𝑋)−𝑔′(𝑋)∙𝑓(𝑋) 𝑔(𝑋)2 vi. 𝑑 𝑑𝑥 [𝑎𝑥] = 𝑎𝑥 ∙ 𝑙𝑛 𝑎 vii. 𝑑 𝑑𝑥 [𝑒𝑥] = 𝑒𝑥 viii. 𝑑 𝑑𝑥 [𝑥𝑎] = 𝑎 ∙ 𝑥𝑎−1 ix. 𝑑 𝑑𝑥 [𝑙𝑛 𝑥] = 1 𝑥 x. 𝑑 𝑑𝑥 [𝑙𝑜𝑔𝑎 𝑥] = 1 𝑥∙𝑙𝑛 𝑎 xi. 𝑑 𝑑𝑥 [𝑠𝑒𝑛(𝑥)] = 𝑐𝑜𝑠(𝑥) xii. 𝑑 𝑑𝑥 [𝑐𝑜𝑠(𝑥)] = −𝑠𝑒𝑛(𝑥) xiii. 𝑑 𝑑𝑥 [𝑠𝑒𝑐(𝑥)] = 𝑠𝑒𝑐(𝑥) ∙ 𝑡𝑎𝑛(𝑥) xiv. 𝑑 𝑑𝑥 [𝑐𝑠𝑐(𝑥)] = −𝑐𝑠𝑐 𝑥 ∙ 𝑐𝑜𝑡𝑔(𝑥) xv. 𝑑 𝑑𝑥 [𝑡𝑎𝑛(𝑥)] = 𝑠𝑒𝑐2(𝑥) xvi. 𝑑 𝑑𝑥 [𝑐𝑜𝑡𝑔(𝑥)] = −𝑐𝑠𝑐2(𝑥) xvii. 𝑑 𝑑𝑥 [𝑎𝑟𝑐 𝑡𝑔(𝑥)] = 1 1+𝑥2 xviii. 𝑑 𝑑𝑥 [𝑎𝑟𝑐 𝑠𝑒𝑛(𝑥)] = 1 √1+𝑥2 xix. 𝑑 𝑑𝑥 [𝑓(𝑔(𝑋))] = 𝑓′(𝑔(𝑋)) ∙ 𝑔′(𝑋) 6 Propriedades da Integral: i. ∫𝑓(𝑋) ± 𝑔(𝑋) ∙ 𝑑𝑥 = ∫𝑓(𝑋) ∙ 𝑑𝑥 ± ∫𝑔(𝑋) ∙ 𝑑𝑥 ii. ∫𝑘 ∙ 𝑓(𝑋) ∙ 𝑑𝑥 = 𝑘 ∫𝑓(𝑋) ∙ 𝑑𝑥 iii. ∫ 1 𝑥 ∙ 𝑑𝑥 = 𝑙𝑛 𝑥 + 𝑐 iv. ∫𝑥𝑎 ∙ 𝑑𝑥 = 𝑥𝑎+1 𝑎+1 + 𝑐 v. ∫𝑎𝑥 ∙ 𝑑𝑥 = 𝑎𝑥 𝑙𝑛 𝑎 + 𝑐 vi. ∫𝑘 ∙ 𝑑𝑥 = 𝑘 ∙ 𝑥 + 𝑐 vii. ∫ 𝑠𝑒𝑛(𝑥) ∙ 𝑑𝑥 = −𝑐𝑜𝑠(𝑥) + 𝑐 viii. ∫ 𝑐𝑜𝑠(𝑥) ∙ 𝑑𝑥 = 𝑠𝑒𝑛(𝑥) + 𝑐 ix. ∫ 𝑠𝑒𝑐2(𝑥) ∙ 𝑑𝑥 = 𝑡𝑎𝑛(𝑥) + 𝑐 x. ∫ 𝑐𝑠𝑐2(𝑥) ∙ 𝑑𝑥 = 𝑐𝑜𝑡𝑔(𝑥) + 𝑐 xi. ∫ 𝑠𝑒𝑐(𝑥) ∙ 𝑡𝑎𝑛(𝑥) ∙ 𝑑𝑥 = 𝑠𝑒𝑐(𝑥) + 𝑐 xii. ∫ 𝑐𝑠𝑐(𝑥) ∙ 𝑐𝑜𝑡𝑔(𝑥) ∙ 𝑑𝑥 = −𝑐𝑠𝑐(𝑥) + 𝑐 xiii. ∫ 1 1+𝑥2 ∙ 𝑑𝑥 = 𝑎𝑟𝑐 𝑡𝑔(𝑥) + 𝑐 xiv. ∫ 1 √1+𝑥2 ∙ 𝑑𝑥 = 𝑎𝑟𝑐 𝑠𝑒𝑛(𝑥) + 𝑐 xv. ∫ 𝑒𝑥 ∙ 𝑑𝑥 = 𝑒𝑥 + 𝑐 xvi. ∫ 𝑒𝐴𝑥+𝐵 ∙ 𝑑𝑥 = 𝑒𝐴𝑥+𝐵 𝐴 + 𝑐 Variável Aleatória Unidimensional Contínua: É uma variável para a qual o conjunto A é um conjunto infinito não enumerável. É uma variável que assume valores dentro de intervalos de números reais. Função Densidade de Probabilidade (Unidimensional): Seja 𝑋 uma variável aleatória contínua unidimensional tomando todos os valores em ℝ. A função de densidade de probabilidade 𝑓(𝑋) é uma função que satisfaz as seguintes condições: a. 𝑓(𝑋) ≥ 0, 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 (𝑋) ∈ ℝ; b. ∫ 𝑓(𝑋)𝑑𝑥 = 1. ℝ Função de Distribuição de Probabilidade (Unidimensional): A função densidade de probabilidade (FDP), ou densidade de uma variável aleatória contínua, é uma função acumulada que descreve a verossimilhança de uma variável aleatória tomar um valor dado. Ela é definida para uma variável aleatória 𝑋, para qualquer número real, como F(𝑋) = P(𝑋 x). 𝐹(𝑋) = ∫ 𝑓(𝑋)𝑑𝑥 𝑥 𝑙𝑖𝑚 𝑖𝑛𝑓. 7 Exemplo: Calcule o k da função para que ela seja densidade de probabilidade. 𝑓(𝑋) = { 𝑘 ( 𝑥 20 + 1) , 0 ≤ 𝑥 ≤ 20 0 , 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜 𝑓(𝑋) = ∫ 𝑓(𝑋)𝑑𝑥 20 0 = 1 ⇒ 𝑓(𝑋) = ∫ 𝑘 ( 𝑥 20 + 1) ∙ 𝑑𝑥 20 0 ⇒ 𝑘 ∙ ∫ ( 𝑥 20 + 1) ∙ 𝑑𝑥 20 0 ⇒ ⇒ 𝑘 ∙ [( 𝑥2 20 + 𝑥)]| 0 20 = 𝑘 ∙ [( 202 20 + 20) − ( 02 20 + 0)] ⇒ 𝑘 ∙ 40 = 1 ⇒ 𝑘 = 1 40 Cálculo de Probabilidade: 𝑃[𝑋 < 𝐵] = 𝐹(𝐵) = ∫ 𝑓(𝑋)𝑑𝑥 𝐵 lim inf. 𝑃[𝑋 > 𝐴] = 1 − 𝐹(𝐴) = ∫ 𝑓(𝑋)𝑑𝑥 lim sup. 𝐴 𝑃[𝐴 < 𝑋 < 𝐵] = 𝐹(𝐵) − 𝐹(𝐴) = ∫ 𝑓(𝑋)𝑑𝑥 𝐵 𝐴 Probabilidade Condicional: Probabilidade condicional ou probabilidade condicionada é um conceito da matemática que envolve dois eventos (A e B) num espaço amostral finito e não vazio. Assim, podemos calcular a probabilidade de um evento A acontecer, dado que um outro evento B já ocorreu da seguinte forma: 𝑃[𝐴 | 𝐵] = 𝑃[𝐴 ∩ 𝐵] 𝑃[𝐵] 𝑃[𝐵 | 𝐴] = 𝑃[𝐴 ∩ 𝐵] 𝑃[𝐴] 𝑃[𝑋 > 𝐵 | 𝑋 > 𝐴] = 𝑃[𝑋 > 𝐵 𝑒 𝑋 > 𝐴] 𝑃[𝑋 > 𝐴] = 𝑃[𝐴 ∩ 𝐵] 𝑃[𝑋 > 𝐴] 8 Mediana: A mediana (Md) é uma medida de tendência central da estatística que corresponde ao valor central de um conjunto de valores ordenados. 𝑃[𝑋 < 𝑀𝑑] = 50% = 𝐹(𝑀𝑑) = ∫ 𝑓(𝑋)𝑑𝑥 𝑀𝑑 lim inf. 𝑃[𝑋 > 𝑀𝑑] = 50% = 1 − 𝐹(𝑀𝑑) = ∫ 𝑓(𝑋)𝑑𝑥 lim sup. 𝑀𝑑 Exemplo: 𝑓(𝑋) = { 1 40 ( 𝑥 20 + 1) , 0 ≤ 𝑥 ≤ 20 0 , 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜 𝐹(𝑋) = { 0 , 𝑥 < 0 1 40 ( 𝑥2 20 + 𝑥) , 0 < 𝑥 < 20 1 , 𝑥 > 20 𝑃[𝑋 < 𝑀𝑑] = 50% 𝐹(𝑀𝑑) = ∫ 𝑓(𝑋)𝑑𝑥 𝑀𝑑 0 = 1 40 ( 𝑀𝑑 2 20 +𝑀𝑑) = 0,5 𝑀𝑑 2 800 + 𝑀𝑑 40 = 1 2 ⇒ 𝑀𝑑 2 + 20𝑀𝑑 = 400 ⇒ 𝑀𝑑 2 + 20𝑀𝑑 − 400 = 0 ∆= 202 − 4 ∙ 1 ∙ (−400) = 2000 𝑀𝑑 = −20 ± √2000 2 ∙ 1 ⟺ { 𝑀𝑑 ′ = −32,36 𝑀𝑑 ′′ = 12,36 Moda: A Moda (Mo) representa o valor mais frequente de um conjunto de dados. No caso contínuo, a Moda será o valor que corresponde ao ponto máximo da função. 𝑃[𝑋 = 𝐴] = ∫ 𝑓(𝑋)𝑑𝑥 𝐴 𝐴 = 0 Esperança Matemática – Média (Caso Contínuo): O valor esperado no caso contínuo é o valor da multiplicação de 𝑋 pela função de densidade de probabilidade. 𝐸(𝑋) = ∫𝑥 ∙ 𝑓(𝑋)𝑑𝑥 ℝ 𝐸(𝑔(𝑋)) = ∫𝑔(𝑋) ∙ 𝑓(𝑋)𝑑𝑥 ℝ 9 Demonstração de Propriedades da Esperança: i. 𝐸(𝑎) = 𝑎; 𝑎 = 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒: 𝐸(𝑎) = ∫𝑎 ∙ 𝑓(𝑋)𝑑𝑥 ℝ ⇒ 𝑎 ∙ ∫𝑓(𝑋)𝑑𝑥 ℝ ⇒ 𝑎 ∙ 1 = 𝑎 ii. 𝐸(𝑎𝑋) = 𝑎 ∙ 𝐸(𝑋) 𝐸(𝑎𝑋) = ∫𝑎 ∙ 𝑥 ∙ 𝑓(𝑋)𝑑𝑥 ℝ ⇒ 𝑎 ∙ ∫𝑥 ∙ 𝑓(𝑋)𝑑𝑥 ℝ ⇒ 𝑎 ∙ 𝐸(𝑋) iii. 𝐸(𝑋 + 𝑏) = 𝐸(𝑋) + 𝑏 𝐸(𝑋 + 𝑏) = ∫ (𝑥 + 𝑏) ∙ 𝑓(𝑋)𝑑𝑥 ℝ ⇒ ∫𝑥 ∙ 𝑓(𝑋)𝑑𝑥 + 𝑏 ∙ 𝑓(𝑋)𝑑𝑥 ℝ ⇒ ⇒ ∫𝑥 ∙ 𝑓(𝑋)𝑑𝑥 ℝ +∫𝑏 ∙ 𝑓(𝑋)𝑑𝑥 ℝ ⇒ 𝐸(𝑋) + 𝑏 ∙ 1 iv. 𝐸(𝑎𝑋 + 𝑏) = 𝑎 ∙ 𝐸(𝑋) + 𝑏 𝐸(𝑎𝑋 + 𝑏) = ∫ (𝑎 ∙ 𝑥 + 𝑏) ∙ 𝑓(𝑋)𝑑𝑥 ℝ ⇒ ∫𝑎 ∙ 𝑥 ∙ 𝑓(𝑋)𝑑𝑥 + 𝑏 ∙ 𝑓(𝑋)𝑑𝑥 ℝ ⇒ ⇒ 𝑎 ∙ ∫𝑥 ∙ 𝑓(𝑋)𝑑𝑥 ℝ +∫𝑏 ∙ 𝑓(𝑋)𝑑𝑥 ℝ ⇒ 𝑎 ∙ 𝐸(𝑋) + 𝑏 ∙ 1 Variância (Caso Contínuo): A Variância é uma medida de dispersão que mostra o quão distante cada valor desse conjunto está do valor central (médio). 𝑉𝑎𝑟(𝑋) = 𝐸[𝑋 − 𝐸(𝑋)]2 = ∫ [𝑋 − 𝐸(𝑋)]2 ∙ 𝑓(𝑋)𝑑𝑥 ℝ 𝑉𝑎𝑟(𝑔(𝑋)) = 𝐸[𝑔(𝑋) − 𝐸[𝑔(𝑋)]] 2 = ∫ [𝑔(𝑋) − 𝐸[𝑔(𝑋)]] 2 ∙ 𝑓(𝑋)𝑑𝑥 ℝ Demonstração de Propriedades da Variância: i. 𝑉𝑎𝑟(𝑋) ≥ 0 𝑉𝑎𝑟(𝑋) = 𝐸[𝑥 − 𝐸(𝑋)]2 = ∫ [𝑥 − 𝐸(𝑋)]2⏟ ≥ 0 ∙ ℝ 𝑓(𝑋)𝑑𝑥⏟ ≥ 0 ≥ 0 ii. 𝑉𝑎𝑟(𝑎) = 0; 𝑎 = 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒. 𝑉𝑎𝑟(𝑎) = 𝐸[𝑎 − 𝐸(𝑎)]2 = 𝐸[𝑎 − 𝑎]2 = 𝐸[0]2 = 0 iii. 𝑉𝑎𝑟(𝑎𝑋) = 𝑎2 ∙ 𝑉𝑎𝑟(𝑋) 𝑉𝑎𝑟(𝑎𝑋) = 𝐸[(𝑎 ∙ 𝑥) − 𝐸(𝑎𝑋)]2 = 𝐸[𝑎 ∙ 𝑥 − 𝑎 ∙ 𝐸(𝑋)]2 ⇒ ⇒ 𝐸[𝑎 ∙ (𝑥 − 𝐸(𝑋))]2 = 𝐸[𝑎2 ∙ (𝑥 − 𝐸(𝑋))2] = 𝑎2 ∙ 𝑉𝑎𝑟(𝑋) iv. 𝑉𝑎𝑟(𝑋 + 𝑏)= 𝑉𝑎𝑟(𝑋) 𝑉𝑎𝑟(𝑋 + 𝑏) = 𝐸[(𝑥 + 𝑏) − 𝐸(𝑋 + 𝑏)]2 ⇒ ⇒ 𝐸[𝑥 + 𝑏 − [𝐸(𝑋) + 𝑏]]2 = 𝐸[𝑥 − 𝐸(𝑋)]2 = 𝑉𝑎𝑟(𝑋) 10 v. 𝑉𝑎𝑟(𝑎𝑋 + 𝑏) = 𝑎2 ∙ 𝑉𝑎𝑟(𝑋) 𝑉𝑎𝑟(𝑎𝑋 + 𝑏) = 𝐸[(𝑎 ∙ 𝑥 + 𝑏) − 𝐸(𝑎𝑋 + 𝑏)]2 = 𝐸[(𝑎 ∙ 𝑥 + 𝑏) − (𝑎 ∙ 𝐸(𝑋) + 𝑏)]2 ⇒ ⇒ 𝐸[𝑎 ∙ (𝑥 − 𝐸(𝑋))]2 = 𝐸[𝑎2 ∙ (𝑥 − 𝐸(𝑋))2] = 𝑎2 ∙ 𝑉𝑎𝑟(𝑋) vi. 𝑉𝑎𝑟(𝑋) = 𝐸(𝑋2) − 𝐸(𝑋)2 𝑉𝑎𝑟(𝑋) = 𝐸[𝑥 − 𝐸(𝑋)]2 = 𝐸[𝑥2 − (2 ∙ 𝑥 ∙ 𝐸(𝑋)) + 𝐸(𝑋)2] ⇒ ⇒ ∫[𝑥2 − (2 ∙ 𝑥 ∙ 𝐸(𝑋)) + 𝐸(𝑋)2] ∙ 𝑓(𝑋)𝑑𝑥 ℝ ⇒ ⇒ ∫𝑥2 ∙ 𝑓(𝑋)𝑑𝑥 − (2 ∙ 𝑥 ∙ 𝐸(𝑋)) ∙ 𝑓(𝑋)𝑑𝑥 + 𝐸(𝑋)2 ∙ 𝑓(𝑋)𝑑𝑥 ℝ ⇒ ⇒ ∫𝑥2 ∙ 𝑓(𝑋)𝑑𝑥 ℝ −∫(2 ∙ 𝑥 ∙ 𝐸(𝑋)) ∙ 𝑓(𝑋)𝑑𝑥 ℝ +∫𝐸(𝑋)2 ∙ 𝑓(𝑋)𝑑𝑥 ⇒ ℝ ⇒ ∫𝑥2 ∙ 𝑓(𝑋)𝑑𝑥 ℝ − 2 ∙ 𝐸(𝑋) ∙ ∫ 𝑥 ∙ 𝑓(𝑋)𝑑𝑥 ℝ + 𝐸(𝑋)2 ∙ ∫𝑓(𝑋)𝑑𝑥 ⇒ ℝ ⇒ 𝐸(𝑥2) − 2 ∙ 𝐸(𝑋) ∙ 𝐸(𝑋) + 𝐸(𝑋)2 ∙ 1 = 𝐸(𝑥2) − 2 ∙ 𝐸(𝑋)2 + 𝐸(𝑋)2 = 𝐸(𝑥2) − 𝐸(𝑋)2 Outras Propriedades: 𝜇 = 𝐸(𝑋) 𝜎 = √𝑉𝑎𝑟(𝑋) i. 𝐸 ( 𝑥−𝜇 𝜎 ) = 0 𝐸 ( 𝑥 − 𝜇 𝜎 ) = 𝐸 ( 𝑥 𝜎 − 𝜇 𝜎 ) = 𝐸 ( 1 𝜎 ∙ 𝑥 − 𝜇 𝜎 ) = 1 𝜎 ∙ 𝐸(𝑋) − 𝜇 𝜎 ⇒ ⇒ 𝐸(𝑋) 𝜎 − 𝜇 𝜎 = 𝐸(𝑋) 𝜎 − 𝐸(𝑋) 𝜎 = 0 ii. 𝑉𝑎𝑟 ( 𝑥−𝜇 𝜎 ) = 1 𝑉𝑎𝑟 ( 𝑥 − 𝜇 𝜎 ) = 𝑉𝑎𝑟 ( 𝑥 𝜎 − 𝜇 𝜎 ) = 𝑉𝑎𝑟 ( 1 𝜎 ∙ 𝑥 − 𝜇 𝜎 ) = ( 1 𝜎 ) 2 ∙ 𝑉𝑎𝑟(𝑋) ⇒ ⇒ 1 𝜎2 ∙ 𝑉𝑎𝑟(𝑋) = 1 (√𝑉𝑎𝑟(𝑋)) 2 ∙ 𝑉𝑎𝑟(𝑋) = 1 𝑉𝑎𝑟(𝑋) ∙ 𝑉𝑎𝑟(𝑋) = 1 iii. 𝐸(𝑥 − 𝜇) = 0 𝐸(𝑥 − 𝜇) = 𝐸(𝑋) − 𝜇 = 𝜇 − 𝜇 = 0 11 Distribuição Uniforme de Probabilidade: A distribuição uniforme é a distribuição de probabilidades continua em que a probabilidade de gerar qualquer ponto em um intervalo contido no espaço amostral é proporcional ao tamanho do intervalo. A função uniforme sempre será uma função de densidade de probabilidade. (𝑁𝑜𝑡𝑎çã𝑜: 𝑋~𝑈(𝑎, 𝑏)) 𝑓(𝑋) = { 1 𝑏 − 𝑎 , 𝑎 ≤ 𝑥 ≤ 𝑏 0 , 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜 ≁ 𝑈𝑛𝑖𝑓𝑜𝑟𝑚𝑒(𝑎, 𝑏) Exemplo: Uniforme (2, 7). 𝑓(𝑋) = { 1 7 − 2 , 2 ≤ 𝑥 ≤ 7 0 , 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜 Distribuição Exponencial de Probabilidade: A distribuição exponencial é um tipo de distribuição contínua de probabilidade, representada por um parâmetro λ. (𝑁𝑜𝑡𝑎çã𝑜: 𝑋~𝐸𝑥𝑝𝑜𝑛𝑒𝑛𝑐𝑖𝑎𝑙(𝛽)) 𝑓(𝑋) = { 1 𝛽 𝑒 −𝑥 𝛽 , 𝑥 > 0 0 , 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜 ≁ 𝑒𝑥𝑝(𝛽) ∫ 1 𝛽 𝑒 −𝑥 𝛽 ∞ 0 ∙ 𝑑𝑥 = 1 𝛽 ∫ 𝑒 −1 𝛽 ∙𝑥+0 ∞ 0 ∙ 𝑑𝑥 = 1 𝛽 ∙ 𝑒 −1 𝛽 ∙𝑥 −1 𝛽 | 0 ∞ = −(𝑒 −1 𝛽 ∙𝑥 )| 0 ∞ ⇒ ⇒ −(𝑒 −∞ 𝛽 − 𝑒 −0 𝛽 ) = −(𝑒−∞ − 𝑒−0) = −( 1 𝑒∞ − 1) = −( 1 ∞ − 1) = −(0 − 1) = 1 Exemplo: 𝑋~𝐸𝑥𝑝𝑜𝑛𝑒𝑛𝑐𝑖𝑎𝑙(5). 𝑓(𝑋) = { 1 5 𝑒 −𝑥 5 , 𝑥 > 0 0 , 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜 12 Função de Distribuição Exponencial: 𝐹(𝑋) = ∫ 𝑓(𝑋)𝑑𝑥 𝑥 𝑙𝑖𝑚 𝑖𝑛𝑓. = ∫ 1 𝛽 𝑒 −𝑥 𝛽 𝑥 0 ∙ 𝑑𝑥 = 1 𝛽 ∫ 𝑒 −𝑥 𝛽 ∙ 𝑑𝑥 𝑥 0 = 1 𝛽 ∙ ( 𝑒 −1 𝛽 ∙𝑥 −1 𝛽 )| 0 𝑥 ⇒ ⇒ −(𝑒 −1 𝛽 ∙𝑥 )| 0 𝑥 = −(𝑒 −𝑥 𝛽 − 𝑒 −0 𝛽 ) = −𝑒 −𝑥 𝛽 + 1 = 1 − 𝑒 −𝑥 𝛽 𝑃[𝑋 < 𝑎] = 1 − 𝑒 −𝑎 𝛽 𝑃[𝑋 > 𝑎] = 𝑒 −𝑎 𝛽 Propriedade da Perda de Memória: Um processo estocástico tem a propriedade de Markov (perda de memória) se a distribuição de probabilidade condicional de estados futuros do processo depende apenas do estado presente, não da sequência de eventos que o precedeu. 𝑃[𝑋 > 𝑠 + 𝑡 | 𝑋 > 𝑠] = 𝑃[𝑋 > 𝑡] 𝑃[𝑋 > 𝑠 + 𝑡 | 𝑋 > 𝑠] = 𝑃[𝑋 > 𝑠 + 𝑡 ∩ 𝑋 > 𝑠] 𝑃[ 𝑋 > 𝑠] = 𝑃[𝑋 > 𝑠 + 𝑡] 𝑃[ 𝑋 > 𝑠] = 𝑒 −(𝑠+𝑡) 𝛽 𝑒 −𝑠 𝛽 = 𝑒 −𝑠−𝑡 𝛽 𝑒 −𝑠 𝛽 ⇒ ⇒ 𝑒 −𝑠 𝛽 ∙ 𝑒 −𝑡 𝛽 𝑒 −𝑠 𝛽 = 𝑒 −𝑡 𝛽 = 𝑃[ 𝑋 > 𝑡] Exemplo: 𝑋~𝐸𝑥𝑝𝑜𝑛𝑒𝑛𝑐𝑖𝑎𝑙(4). 𝑓(𝑋) = { 1 4 𝑒 −𝑥 4 , 𝑥 > 0 0 , 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜 𝐹(𝑋) = 𝑃[𝑋 < 𝑎] = 1 − 𝑒 −𝑎 4 𝑃[𝑋 > 𝑎] = 𝑒 −𝑎 4 𝑃[𝑋 > 8 | 𝑋 > 5] = 𝑃[𝑋 > 3] = 0,4723 𝑃[𝑋 > 8 | 𝑋 > 5] = ∫ 𝑒 −𝑥 4 4 ∞ 8 ∙ 𝑑𝑥 ∫ 𝑒 −𝑥 4 4 ∞ 5 ∙ 𝑑𝑥 = −𝑒 −𝑥 4 | 8 ∞ −𝑒 −𝑥 4 | 5 ∞ = 0 − 𝑒 −8 4 0 − 𝑒 −5 𝛽 = 𝑒 −3 4 = 𝑃[𝑋 > 3] 𝑃[𝑋 < 5 | 𝑋 > 3] = 𝑃[𝑋 < 2] = 0,3935 𝑃[𝑋 < 5 | 𝑋 > 3] = ∫ 𝑒 −𝑥 4 4 5 3 ∙ 𝑑𝑥 ∫ 𝑒 −𝑥 4 4 ∞ 3 ∙ 𝑑𝑥 = −𝑒 −𝑥 4 | 3 5 −𝑒 −𝑥 4 | 3 ∞ = 𝑒 −5 4 − 𝑒 −3 4 0 − 𝑒 −3 𝛽 = −𝑒 −2 4 + 1 = 1 − 𝑒 −2 4 = 𝑃[𝑋 < 2] 13 Variável Aleatória Bidimensional Discreta: Sejam (ℇ) um experimento e (𝑆) um espaço amostral associado a ℇ. Sejam 𝑋 = 𝑋(𝑠) e 𝑌 = 𝑌(𝑠) duas funções, cada uma associando um número real a cada resultado 𝑠 ∈ 𝑆. Denota- se (𝑋, 𝑌) uma variável aleatória bidimensional (vetor aleatório). Propriedades: i. 0 ≤ 𝑃[𝑋, 𝑌] ≤ 1 ii. ∑ ∑ 𝑃[𝑋𝑖𝑗𝑌𝑗𝑖 ] = 1𝑗 Tabelas / Função: Exemplo: X: Número de pessoas que trabalham. S ou N Variável Qualitativa Y: Quantidade de vestibulares prestados. 1, 2, 3... Variável Quantitativa Aluno 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 X S S N N S N S N N N S N S S N N S S S N Y 1 1 2 1 1 2 3 1 1 1 2 2 1 3 2 2 2 2 1 3 Conjunta (X, Y) Freq. P(X, Y) (S, 1) 5 0,25 (S, 2) 3 0,15 (S, 3) 2 0,10 (N, 1) 4 0,20 (N, 2) 5 0,25 (N, 3) 1 0,05 ∑ 20 1 Dupla Entrada Y X 1 2 3 P(X) S 0,25 0,15 0,10 0,5 N 0,20 0,25 0,05 0,5 P(Y) 0,45 0,40 0,15 1 Marginal (X) Marginal (Y) Condicional (Y|X = S) Y P(Y|X = S) 1 P(1∩S/X=S) = 0,25/0,5 = 0,5 2 P(2∩S/X=S) = 0,3 3 P(3∩S/X=S) = 0,2 Y P(Y) 1 0,45 2 0,40 3 0,15 ∑ 1 X P(X) S 0,5 N 0,5 ∑ 1 14 Esperança Matemática – Média (Caso Discreto): 𝐸(𝑋) = ∑𝑥𝑖 ∙ 𝑃(𝑥𝑖) (Tabela Marginal de 𝑋) 𝐸(𝑌) = ∑𝑦𝑖 ∙ 𝑃(𝑦𝑖) (Tabela Marginal de Y) 𝐸(𝑔(𝑋, 𝑌)) = ∑∑𝑔(𝑋, 𝑌) ∙ 𝑃(𝑥𝑖, 𝑦𝑖) (Tabela Conjunta ou Dupla Entrada) Propriedade: 𝐸(𝑋 + 𝑌) = 𝐸(𝑋) + 𝐸(𝑌) 𝐸[𝑋 | 𝑌 = 𝑘] = ∑𝑥 ∙ 𝑃(𝑥𝑖) (Tabela Condicional) 𝐸[𝑌 | 𝑋 = 𝑘] = ∑𝑦 ∙ 𝑃(𝑦𝑖) (Tabela Condicional) Exemplo: X: Tempo de casado em anos. 1, 2, 3... Variável Quantitativa Y: Quantidade de filhos. 1, 2, 3... Variável Quantitativa X 5 4 5 5 4 3 4 5 4 4 Y 1 2 1 3 1 1 2 2 1 3 𝐸(𝑋) = 4,3 𝐸(𝑌) = 1,7 𝐸(𝑋 + 𝑌) = (4 ∙ 0,1) + (5 ∙ 0) + (6 ∙ 0) + (5 ∙ 0,2) + (6 ∙ 0,2) + (7 ∙ 0,1) + (6 ∙ 0,2) +(7 ∙ 0,1) + (8 ∙ 0,1) = 𝟔 = 𝐸(𝑋) + 𝐸(𝑌) Y X 1 2 3 3 0,1 0 0 4 0,2 0,2 0,1 5 0,2 0,1 0,1 Y X 1 2 3 3 3 + 1 = 4 3 + 2 = 5 3 + 3 = 6 4 4 + 1 = 5 4 + 2 = 6 4 + 3 = 7 5 5 + 1 = 6 5 + 2 = 7 5 + 3 = 8 𝐸(𝑋 ∙ 𝑌) = (3 ∙ 0,1) + (6 ∙ 0) + (9 ∙ 0) + (4 ∙ 0,2) + (8 ∙ 0,2) + (12 ∙ 0,1) + (5 ∙ 0,2) +(10 ∙ 0,1) + (15 ∙ 0,1) = 𝟕, 𝟒 ≠ 𝐸(𝑋) ∙ 𝐸(𝑌) Y X 1 2 3 3 0,1 0 0 4 0,2 0,2 0,1 5 0,2 0,1 0,1 Y X 1 2 3 3 3 ∙ 1 = 3 3 ∙ 2 = 6 3 ∙ 3 = 9 4 4 ∙ 1 = 4 4 ∙ 2 = 8 4 ∙ 3 = 12 5 5 ∙ 1 = 5 5 ∙ 2 = 10 5 ∙ 3 = 15 𝐸(𝑋 | 𝑌 = 2) = (3 ∙ 0) + (4 ∙ 2/3) + (5 ∙ 1/3) = 𝟒, 𝟑𝟑 X P(X|Y = 1) P(X|Y = 2) P(X|Y = 3) X2 2x + 5 3 0,1/0,5 = 0,2 0/0,3 = 0 0/0,2 = 0 9 11 4 0,2/0,5 = 0,4 0,2/0,3 = 2/3 0,1/0,2 = 0,5 16 13 5 0,2/0,5 = 0,4 0,1/0,3 = 1/3 0,1/0,2 = 0,5 25 15 𝐸(𝑋2 | 𝑌 = 2) = (9 ∙ 0) + (16 ∙ 2/3) + (25 ∙ 1/3) = 𝟏𝟗 𝐸(2𝑥 + 5 | 𝑌 = 3) = (11 ∙ 0) + (13 ∙ 0,5) + (15 ∙ 0,5) = 𝟏𝟒 Variância (Caso Discreto): 𝑉𝑎𝑟(𝑔(𝑋, 𝑌)) = 𝐸[𝑔(𝑋, 𝑌) − 𝐸(𝑔(𝑋, 𝑌))]2 Propriedade: 𝑉𝑎𝑟(𝑔(𝑋, 𝑌)) = 𝐸(𝑔(𝑋, 𝑌)2) − 𝐸(𝑔(𝑋, 𝑌))2 Propriedade: 𝑉𝑎𝑟(𝑔(𝑋) | 𝑌 = 𝑘) = 𝐸 ( 𝑔(𝑋)2 𝑌=𝑘 ) − 𝐸 ( 𝑔(𝑋) 𝑌=𝑘 ) 2 Exemplo: 𝑉𝑎𝑟(𝑋 | 𝑌 = 2) = 𝐸 ( 𝑋2 𝑌 = 2 ) − 𝐸 ( 𝑋 𝑌 = 2 ) 2 = 19 − 4,332 = 0,2511 𝐸(𝑋 + 𝑌)2 = (16 ∙ 0,1) + (25 ∙ 0) + (36 ∙ 0) + (25 ∙ 0,2) + (36 ∙ 0,2) + (49 ∙ 0,1) + (36 ∙ 0,2) + (49 ∙ 0,1) + (64 ∙ 0,1) = 𝟑𝟕, 𝟓 Y X 1 2 3 3 0,1 0 0 4 0,2 0,2 0,1 5 0,2 0,1 0,1 𝑉𝑎𝑟(𝑋 + 𝑌) = 37,5 − 62 = 𝟏, 𝟓 Y X 1 2 3 3 3+1= 4²= 16 3+2= 5²= 25 3+3= 6²= 36 4 4+1= 5²= 25 4+2= 6²= 36 4+3= 7²= 49 5 5+1= 6²= 36 5+2= 7²= 49 5+3= 8²= 64 16 Independência (Caso Discreto): Em estatística, independência entrevariáveis aleatórias se dá quando a probabilidade de todo espaço amostral de duas variáveis conjuntas, são iguais ao produto de suas probabilidades marginais. 𝑃(𝑥𝑖 , 𝑦𝑖) = 𝑃(𝑥𝑖) ∙ 𝑃(𝑦𝑖) ∀ (𝑥, 𝑦) se qualquer 𝑃(𝑋, 𝑌) ≠ 𝑃(𝑋) ∙ 𝑃(𝑌) as variáveis são dependentes. Covariância: A covariância, ou variância conjunta, é uma medida do grau de interdependência (ou inter-relação) numérica entre duas variáveis aleatórias. 𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸[(𝑥 − 𝐸(𝑋)) − (𝑦 − 𝐸(𝑌))] Propriedade: i. 𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸(𝑋 ∙ 𝑌) − 𝐸(𝑋) ∙ 𝐸( 𝑌) Coeficiente de Pearson (Correlação): Em estatística descritiva, o coeficiente de correlação de Pearson, também chamado de "coeficiente de correlação produto-momento" ou simplesmente de " ρ de Pearson" mede o grau da correlação (e a direção dessa correlação – positiva ou negativa) entre duas variáveis de escala métrica (intervalar ou de rácio/razão). 𝜌𝑥,𝑦 = 𝐶𝑜𝑣(𝑋, 𝑌) 𝐷𝑃(𝑋) ∙ 𝐷𝑃(𝑌) −1 ≤ 𝜌𝑥,𝑦 ≤ 1 quanto mais próximo de 0, menor a correlação, quanto mais próximo de -1 e 1, maior a correlação negativamente e positivamente. 17 Variável Aleatória Bidimensional Contínua: Caso a variável aleatória 𝑋 e a variável aleatória Y assumirem, cada uma, um número infinito não enumerável de valores, então a variável aleatória bidimensional (𝑋, 𝑌) é dita uma variável aleatória bidimensional contínua. Função Densidade de Probabilidade (Bidimensional): Seja 𝑋 e Y variáveis aleatórias contínua tomando todos os valores em ℝ2. A função de densidade de probabilidade (FDP) 𝑓(𝑋, Y) é uma função que satisfaz as seguintes condições: a. 𝑓(𝑋, 𝑌) ≥ 0, 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 (𝑋, 𝑅) ∈ ℝ2; b. ∫ ∫ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑦 ∙ 𝑑𝑥 ℝ𝑦 ℝ𝑥 = 1. Exemplo: Calcule o k da função para que ela seja densidade de probabilidade. 𝑓(𝑋, 𝑌) = { 𝑘 ∙ 𝑥 ∙ 𝑦(2𝑥 + 𝑦2), 0 ≤ 𝑥 ≤ 1 0 ≤ 𝑦 ≤ 2 0 , 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜 𝑓(𝑋) = ∫ ∫ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑦 ∙ 𝑑𝑥 2 0. 1 0 = 1 ⇒ 𝑓(𝑋) = ∫ ∫ 𝑘 ∙ 𝑥 ∙ 𝑦(2𝑥 + 𝑦2) ∙ 𝑑𝑦 ∙ 𝑑𝑥 2 0. 1 0 ⇒ ⇒ 𝑘 ∙ ∫ ∫ 2𝑥2𝑦 + 𝑥𝑦3 ∙ 𝑑𝑦 ∙ 𝑑𝑥 2 0. 1 0 = 𝑘 ∙ ∫ [ 2𝑥2𝑦2 2 + 𝑥𝑦4 4 ]| 0 2 ∙ 𝑑𝑥 1 0 ⇒ ⇒ 𝑘 ∙ ∫ [ 2𝑥222 2 + 𝑥 ∙ 24 4 ] − [ 2𝑥202 2 + 𝑥 ∙ 04 4 ] ∙ 𝑑𝑥 1 0 = 𝑘 ∙ ∫ [ 2𝑥2 ∙ 4 2 + 𝑥 ∙ 4 ∙ 4 4 ] ∙ 𝑑𝑥 1 0 ⇒ ⇒ 𝑘 ∙ ∫ 𝑥2 ∙ 4 + 4𝑥 ∙ 𝑑𝑥 1 0 = 𝑘 ∙ ∫ 4𝑥2 + 4𝑥 ∙ 𝑑𝑥 1 0 = 𝑘 ∙ [ 4𝑥3 3 + 4𝑥2 2 ]| 0 1 ⇒ ⇒ 𝑘 ∙ {[ 4 ∙ 13 3 + 4 ∙ 12 2 ] − [ 4 ∙ 03 3 + 4 ∙ 02 2 ]} = 𝑘 ∙ ( 4 3 + 4 2 ) ⇒ 𝑘 ∙ 10 3 = 1 ⇒ 𝑘 = 3 10 = 0,3 18 Independência (Caso Contínuo): Em estatística, independência entre variáveis aleatórias se dá quando a probabilidade de todo espaço amostral de duas variáveis conjuntas, são iguais ao produto de suas probabilidades marginais. 𝑓(𝑋, 𝑌) = 𝑓(𝑋) ∙ 𝑓(𝑌) ∀ (𝑥, 𝑦) se qualquer 𝑓(𝑋, 𝑌) ≠ 𝑓(𝑋) ∙ 𝑓(𝑌) as variáveis são dependentes. Exemplo: Calcule se a função (𝑓(𝑋, 𝑌) = 3 10 [2𝑥2𝑦 + 𝑥𝑦3]) é dependente ou independente. 3 10 [2𝑥2𝑦 + 𝑥𝑦3] = 3 10 [4𝑥2 + 4𝑥] ∙ 1 20 [4𝑦 + 3𝑦3] ⇒ ⇒ 3 200 [16𝑥2𝑦 + 12𝑥2𝑦3 + 16𝑥𝑦 + 12𝑥𝑦3] ≠ 3 10 [2𝑥2𝑦 + 𝑥𝑦3] R: As variáveis são dependentes, pois, o produto das marginais não é igual a função conjunta. Função Marginal: A função marginal de uma função 𝑓(𝑋) é encontrada através da integral da função conjunta em relação a Y e vice-versa. 𝑓(𝑋) = ∫ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑦 ℝ𝑦 𝑓(𝑌) = ∫ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑥 ℝ𝑥 Exemplo: Calcule a marginal de 𝑋 da função: (𝑓(𝑋, 𝑌) = 3 10 [2𝑥2𝑦 + 𝑥𝑦3]). 𝑓(𝑋) = ∫ 3 10 [2𝑥2𝑦 + 𝑥𝑦3] ∙ 𝑑𝑦 2 0 = 3 10 [ 2𝑥2𝑦2 2 + 𝑥𝑦4 4 ]| 0 2 ⇒ ⇒ 3 10 [( 2𝑥222 2 + 𝑥24 4 ) − ( 2𝑥2 ∙ 02 2 + 𝑥 ∙ 04 4 )] = 3 10 [4𝑥2 + 4𝑥] 𝑓(𝑋) = { 3 10 [4𝑥2 + 4𝑥], 0 ≤ 𝑥 ≤ 1 0 , 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜 19 Exemplo: Calcule a marginal de Y da função: (𝑓(𝑋, 𝑌) = 3 10 [2𝑥2𝑦 + 𝑥𝑦3]) 𝑓(𝑌) = ∫ 3 10 [2𝑥2𝑦 + 𝑥𝑦3] ∙ 𝑑𝑥 1 0 = 3 10 [ 2𝑥3𝑦 3 + 𝑥2𝑦3 2 ]| 0 2 ⇒ ⇒ 3 10 [( 2 ∙ 13 ∙ 𝑦 3 + 12 ∙ 𝑦3 2 ) − ( 2 ∙ 03 ∙ 𝑦 3 + 02𝑦3 2 )] = 3 10 [ 2𝑦 3 + 𝑦3 2 ] ⇒ ⇒ 3 10 [ 4𝑦 + 3𝑦3 6 ] = 1 10 [ 4𝑦 + 3𝑦3 2 ] = 1 20 [4𝑦 + 3𝑦3] 𝑓(𝑌) = { 1 20 [4𝑦 + 3𝑦3], 0 ≤ 𝑦 ≤ 2 0 , 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜 Funções Condicionais: 𝑓(𝑋|𝑌) = 𝑓(𝑋, 𝑌) 𝑓(𝑌) ⟹ 𝑉𝑎𝑟𝑖á𝑣𝑒𝑙 é 𝑜 𝑋 𝑓(𝑌|𝑋) = 𝑓(𝑋, 𝑌) 𝑓(𝑋) ⟹ 𝑉𝑎𝑟𝑖á𝑣𝑒𝑙 é 𝑜 𝑌 Exemplo: Calcule a probabilidade condicional 𝑃[𝑋|𝑌] da função: (𝑓(𝑋, 𝑌) = 3 10 [2𝑥2𝑦 + 𝑥𝑦3]). 𝑃[𝑋|𝑌] = 3 10 (2𝑥2𝑦 + 𝑥𝑦3) 1 20 (4𝑦 + 3𝑦3) = 3 10 ÷ 1 20 ∙ 𝑦 (2𝑥2 + 𝑥𝑦2) 𝑦(4 + 3𝑦2) = 6 ∙ ( 2𝑥2 + 𝑥𝑦2 4 + 3𝑦2 ) 𝑓(𝑋|𝑌) = { 6 ∙ ( 2𝑥2 + 𝑥𝑦2 4 + 3𝑦2 ) , 0 ≤ 𝑥 ≤ 1 0 , 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜 Exemplo: Calcule a probabilidade condicional 𝑃[𝑌|𝑋] da função: (𝑓(𝑌, 𝑋) = 3 10 [2𝑥2𝑦 + 𝑥𝑦3]). 𝑃[𝑌|𝑋] = 3 10 (2𝑥2𝑦 + 𝑥𝑦3) 3 10 (4𝑥2 + 4𝑥) = 𝑥(2𝑥𝑦 + 𝑦3) 𝑥(4𝑥 + 4) = 2𝑥𝑦 + 𝑦3 4𝑥 + 4 𝑓(𝑌|𝑋) = { 2𝑥𝑦 + 𝑦3 4𝑥 + 4 , 0 ≤ 𝑦 ≤ 2 0 , 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜 20 Função de Distribuição de Probabilidade (Bidimensional): A função de distribuição de probabilidade de uma variável aleatória contínua, é uma função acumulada que descreve a verossimilhança de uma variável aleatória tomar um valor dado. Ela é definida para variáveis aleatórias 𝑋 e Y, para qualquer número real, como 𝐹(𝑋, 𝑌) = 𝑃(𝑋 ≤ 𝑥 ; 𝑌 ≤ 𝑦). Distribuição Conjunta: 𝐹(𝑋, 𝑌) = ∫ ∫ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑥 ∙ 𝑑𝑦 𝑥 lim inf. 𝑦 lim inf. Exemplo: Calcule função de distribuição conjunta da função (𝑓(𝑋, 𝑌) = 3 10 [2𝑥2𝑦 + 𝑥𝑦3]). ∫ ∫ 3 10 (2𝑥2𝑦 + 𝑥𝑦3) ∙ 𝑑𝑥 ∙ 𝑑𝑦 𝑥 0 𝑦 0 = 3 10 ∫ ( 2𝑥3𝑦 3 + 𝑥2𝑦3 2 )| 0 𝑥 ∙ 𝑑𝑦 𝑦 0 ⇒ ⇒ 3 10 ∫ ( 2𝑥3𝑦 3 + 𝑥2𝑦3 2 ) ∙ 𝑑𝑦 𝑦 0 = 3 10 ( 2𝑥3𝑦2 6 + 𝑥2𝑦4 8 )| 0 𝑦 = 3 10 ( 8𝑥3𝑦2 + 3𝑥2𝑦4 24 )| 0 𝑦 ⇒ ⇒ 3 10 ∙ 1 24 [8𝑥3𝑦2 + 3𝑥2𝑦4] = 1 10 ∙ 1 8 [8𝑥3𝑦2 + 3𝑥2𝑦4] = 1 80 [8𝑥3𝑦2 + 3𝑥2𝑦4] 𝐹(𝑋, 𝑌) = { 0 , 𝑥 < 0; 𝑦 < 0 1 80 [8𝑥3𝑦2 + 3𝑥2𝑦4] , 0 ≤ 𝑥 ≤ 1 0 ≤ 𝑦 ≤ 2 1 , 𝑥 > 1; 𝑦 > 2 Distribuição Marginal: 𝐹(𝑋) = ∫ 𝑓(𝑋) ∙ 𝑑𝑥 𝑥 lim.inf. 𝐹(𝑌) = ∫ 𝑓(𝑌) ∙ 𝑑𝑦 𝑦 lim.inf. Exemplo: Calcule função de distribuição marginal de 𝑋 de: (𝑓(𝑋, 𝑌) = 3 10 [2𝑥2𝑦 + 𝑥𝑦3]). ∫ 3 10 [4𝑥2 + 4𝑥] 𝑥 0 ∙ 𝑑𝑥 = 3 10 ( 4𝑥3 3 + 4𝑥2 2 )| 0 𝑥 = 3 10 ( 8𝑥3 + 12𝑥2 6 )| 0 𝑥 ⇒ ⇒ 1 10 ( 8𝑥3 + 12𝑥2 2 )| 0 𝑥 = 1 20 [8𝑥3 + 12𝑥2] 𝐹(𝑋) = { 0 , 𝑥 < 0 1 20 [8𝑥3 + 12𝑥2] , 0 ≤ 𝑥 ≤ 1 1 , 𝑥 > 1 21 Exemplo: Calcule função de distribuição marginal de Y de: (𝑓(𝑋, 𝑌) = 3 10 [2𝑥2𝑦 + 𝑥𝑦3]). ∫ 1 20 [4𝑦 + 3𝑦3] ∙ 𝑑𝑦 𝑦 0 = 1 20 ( 4𝑦2 2 + 3𝑦4 4 )| 0 𝑦 = 1 20 ( 16𝑦2 + 3𝑦4 4 )| 0 𝑦 = 1 80 [16𝑦2 + 3𝑦4] 𝐹(𝑌) = { 0 , 𝑦 < 0 1 80 [16𝑦2 + 3𝑦4] , 0 ≤ 𝑦 ≤ 2 1 , 𝑦 > 2 Distribuição Condicional: 𝐹(𝑋|𝑌) = ∫ 𝑓(𝑋|𝑌) ∙ 𝑑𝑥 𝑥 lim.inf. 𝐹(𝑌|𝑋) = ∫ 𝑓(𝑌|𝑋) ∙ 𝑑𝑦 𝑦 lim.inf. Exemplo: Calcule função de distribuição condicional (𝑋|𝑌) de: (𝑓(𝑋, 𝑌) = 3 10 [2𝑥2𝑦 + 𝑥𝑦3]). ∫ 6 ∙ ( 2𝑥2 + 𝑥𝑦2 4 + 3𝑦2 ) ∙ 𝑑𝑥 𝑥 0 = 6 4 + 3𝑦2 ∫ 2𝑥2 + 𝑥𝑦2 ∙ 𝑑𝑥 𝑥 0 = 6 4 + 3𝑦2 ( 2𝑥3 3 + 𝑥2𝑦2 2 )| 0 𝑥 ⇒ ⇒ 6 4 + 3𝑦2 ( 4𝑥3 + 3𝑥2𝑦2 6 )| 0 𝑥 = 1 4 + 3𝑦2 [4𝑥3 + 3𝑥2𝑦2] = 4𝑥3 + 3𝑥2𝑦2 4 + 3𝑦2 𝐹(𝑋|𝑌) = { 0 , 𝑥 < 0 4𝑥3 + 3𝑥2𝑦2 4 + 3𝑦2 , 0 ≤ 𝑥 ≤ 1 1 , 𝑥 > 1 Exemplo: Calcule função de distribuição condicional (𝑌|𝑋) de: (𝑓(𝑋, 𝑌) = 3 10 [2𝑥2𝑦 + 𝑥𝑦3]). ∫ 2𝑥𝑦 + 𝑦3 4𝑥 + 4 𝑦 0 ∙ 𝑑𝑦 = 1 4𝑥 + 4 ∫ 2𝑥𝑦 + 𝑦3 ∙ 𝑑𝑦 𝑦 0 = 1 4𝑥 + 4 ( 2𝑥𝑦2 2 + 𝑦4 4 )| 0 𝑦 ⇒ ⇒ 1 4𝑥 + 4 ( 4𝑥𝑦2 + 𝑦4 4 )| 0 𝑦 = 4𝑥𝑦2 + 𝑦4 16𝑥 + 16 𝐹(𝑌|𝑋) = { 0 , 𝑦 < 0 4𝑥𝑦2 + 𝑦4 16𝑥 + 16 , 0 ≤ 𝑦 ≤ 2 1 , 𝑦 > 222 Esperança/Variância/ Desvio Padrão Marginal: 𝐸(𝑔(𝑋)) = ∫ 𝑔(𝑋) ∙ 𝑓(𝑋) ∙ 𝑑𝑥 ℝ𝑥 𝐸(𝑔(𝑌)) = ∫ 𝑔(𝑌) ∙ 𝑓(𝑌) ∙ 𝑑𝑦 ℝ𝑦 Exemplos: Calcule o 𝐸(𝑋), 𝑉𝑎𝑟(𝑋) e o Desvio Padrão da função: (𝑓(𝑋, 𝑌) = 3 10 [2𝑥2𝑦 + 𝑥𝑦3]). 𝐸(𝑋) = ∫ 𝑥 ∙ 3 10 [4𝑥2 + 4𝑥] ∙ 𝑑𝑥 1 0 = 3 10 ∫ 4𝑥3 + 4𝑥2 ∙ 𝑑𝑥 1 0 ⇒ ⇒ 3 10 ( 4𝑥4 4 + 4𝑥3 3 )| 0 1 = 3 10 (1 + 4 3 ) = 7 10 = 0,7 𝐸(𝑋2) = ∫ 𝑥2 ∙ 3 10 [4𝑥2 + 4𝑥] ∙ 𝑑𝑥 1 0 = 3 10 ∫ 4𝑥4 + 4𝑥3 ∙ 𝑑𝑥 1 0 ⇒ ⇒ 3 10 ( 4𝑥5 5 + 4𝑥4 4 )| 0 1 = 3 10 ( 4 5 + 1) = 3 10 ∙ 9 5 = 27 50 = 0,54 𝑉𝑎𝑟(𝑋) = 𝐸(𝑋2) − 𝐸(𝑋)2 = 0,54 − (0,7)2 = 0,05 𝐷𝑃 = √𝑉𝑎𝑟(𝑋) = √0,05 = 0,2236 Exemplos: Calcule o 𝐸(𝑌), 𝑉𝑎𝑟(𝑌) e o Desvio Padrão da função: (𝑓(𝑋, 𝑌) = 3 10 [2𝑥2𝑦 + 𝑥𝑦3]). 𝐸(𝑌) = ∫ 𝑦 ∙ 1 20 [4𝑦 + 3𝑦3] ∙ 𝑑𝑦 2 0 = 1 20 ∫ 4𝑦2 + 3𝑦4 ∙ 𝑑𝑦 2 0 ⇒ ⇒ 1 20 ( 4𝑦3 3 + 3𝑦5 5 )| 0 2 = 1 20 ( 20𝑦3 + 9𝑦5 15 )| 0 2 = 1 300 [20 ∙ 23 + 9 ∙ 25] ⇒ ⇒ 1 300 [160 + 288] = 1 300 ∙ 448 = 1,4993 𝐸(𝑌2) = ∫ 𝑦2 ∙ 1 20 [4𝑦 + 3𝑦3] ∙ 𝑑𝑦 2 0 = 1 20 ∫ 4𝑦3 + 3𝑦5 ∙ 𝑑𝑦 2 0 ⇒ ⇒ 1 20 ( 4𝑦4 4 + 3𝑦6 6 )| 0 2 = 1 20 ( 12𝑦4 + 6𝑦6 12 )| 0 2 = 1 240 [12 ∙ 24 + 6 ∙ 26] ⇒ ⇒ 1 240 [192 + 384] = 1 240 ∙ 576 = 2,4 𝑉𝑎𝑟(𝑌) = 𝐸(𝑌2) − 𝐸(𝑌)2 = 2,4 − (1,4993)2 = 0,17 𝐷𝑃 = √𝑉𝑎𝑟(𝑌) = √0,17 = 0,4123 23 Esperança/Variância/ Desvio Padrão Condicional: 𝐸[𝑔(𝑋)|𝑌] = ∫ 𝑔(𝑋) ∙ 𝑓(𝑋|𝑌) ∙ 𝑑𝑥 ℝ𝑥 𝐸[𝑔(𝑌)|𝑋] = ∫ 𝑔(𝑌) ∙ 𝑓(𝑌|𝑋) ∙ 𝑑𝑦 ℝ𝑦 Exemplos: Calcule o 𝐸[𝑔(𝑋)|𝑌 = 1], 𝑉𝑎𝑟[𝑔(𝑋)|𝑌 = 1] e o 𝐷𝑃 da função: (𝑓(𝑋, 𝑌) = 3 10 [2𝑥2𝑦 + 𝑥𝑦3]). 𝐸[𝑋|𝑌 = 1] = ∫ 𝑥 ∙ 6 ∙ ( 2𝑥2 + 𝑥𝑦2 4 + 3𝑦2 ) ∙ 𝑑𝑥 1 0 = ∫ 𝑥 ∙ 6 ∙ ( 2𝑥2 + 𝑥 4 + 3 ) ∙ 𝑑𝑥 1 0 ⇒ ⇒ ∫ 𝑥 ∙ 6 7 [2𝑥2 + 𝑥] ∙ 𝑑𝑥 1 0 = 6 7 ∫ 2𝑥3 + 𝑥2 ∙ 𝑑𝑥 1 0 = 6 7 ( 2𝑥4 4 + 𝑥3 3 )| 0 1 ⇒ ⇒ 6 7 ( 6𝑥4 + 4𝑥3 12 )| 0 1 = 1 7 ( 6𝑥4 + 4𝑥3 2 )| 0 1 = 1 14 [6 + 4] = 0,7143 𝐸[𝑋2|𝑌 = 1] = ∫ 𝑥2 ∙ 6 7 [2𝑥2 + 𝑥] ∙ 𝑑𝑥 1 0 = 6 7 ∫ 2𝑥4 + 𝑥3 ∙ 𝑑𝑥 1 0 ⇒ ⇒ 6 7 ( 2𝑥5 5 + 𝑥4 4 )| 0 1 = 6 7 ( 8𝑥5 + 5𝑥4 20 )| 0 1 = 6 140 [8 + 5] = 0,5571 𝑉𝑎𝑟[𝑋|𝑌 = 1] = 𝐸[𝑋2|𝑌 = 1] − 𝐸[𝑋|𝑌 = 1]2 = 0,5571 − (0,7143)2 = 0,047 𝐷𝑃 = √𝑉𝑎𝑟[𝑋|𝑌 = 1] = √0,047 = 0,2168 Exemplos: Calcule o 𝐸[𝑔(𝑌)|𝑋 = 0,5], 𝑉𝑎𝑟[𝑔(𝑌)|𝑋 = 0,5] e o 𝐷𝑃 da função: (𝑓(𝑋, 𝑌) = 3 10 [2𝑥2𝑦 + 𝑥𝑦3]). 𝐸[𝑌|𝑋 = 0,5] = ∫ 𝑦 ∙ 2𝑥𝑦 + 𝑦3 4𝑥 + 4 ∙ 𝑑𝑦 2 0 = 1 6 ∫ 𝑦 ∙ (𝑦 + 𝑦3) ∙ 𝑑𝑦 2 0 = 1 6 ∫ 𝑦2 + 𝑦4 ∙ 𝑑𝑦 2 0 ⇒ ⇒ 1 6 ( 𝑦3 3 + 𝑥5 5 )| 0 2 = 1 6 ( 5𝑦3 + 3𝑥5 15 )| 0 2 = 1 90 [5 ∙ 23 + 3 ∙ 25] = 1 90 [40 + 96] = 1,5111 𝐸[𝑌2|𝑋 = 0,5] = 1 6 ∫ 𝑦2 ∙ (𝑦 + 𝑦3) ∙ 𝑑𝑦 2 0 = 1 6 ∫ 𝑦3 + 𝑦5 ∙ 𝑑𝑦 2 0 = 1 6 ( 𝑦4 4 + 𝑥6 6 )| 0 2 ⇒ ⇒ 1 6 ( 3𝑦4 + 2𝑥6 12 )| 0 2 = 1 72 [3 ∙ 24 + 2 ∙ 26] = 1 72 [48 + 128] = 2,4444 𝑉𝑎𝑟[𝑌|𝑋 = 0,5] = 𝐸[𝑌2|𝑋 = 0,5] − 𝐸[𝑌|𝑋 = 0,5]2 = 2,4444 − (1,5111)2 = 0,16 𝐷𝑃 = √𝑉𝑎𝑟[𝑌|𝑋 = 0,5] = √0,16 = 0,4 24 Esperança/Variância/ Desvio Padrão Conjunta: 𝐸[𝑔(𝑋, 𝑌)] = ∫ ∫ 𝑔(𝑋, 𝑌) ∙ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑦 ∙ 𝑑𝑥 ℝ𝑦 ℝ𝑥 Exemplos: Calcule 𝐸(𝑋 + 𝑌), 𝐸(𝑋 ∙ 𝑌), 𝐸(𝑋2 ∙ 𝑌2), 𝑉𝑎𝑟(𝑋 ∙ 𝑌), 𝐷𝑃, 𝐶𝑜𝑣(𝑋, 𝑌) e o Coeficiente de Pearson da função: (𝑓(𝑋, 𝑌) = 3 10 [2𝑥2𝑦 + 𝑥𝑦3]). 𝐸(𝑋 + 𝑌) = ∫ ∫ (𝑋 + 𝑌) ∙ 3 10 [2𝑥2𝑦 + 𝑥𝑦3] ∙ 𝑑𝑦 ∙ 𝑑𝑥 2 0 1 0 ⇒ ⇒ 𝐸(𝑋 + 𝑌) = 𝐸(𝑋) + 𝐸(𝑌) = 0,7 + 1,4333 = 1,7333 𝐸(𝑋 ∙ 𝑌) = ∫ ∫ 𝑥𝑦 ∙ 3 10 [2𝑥2𝑦 + 𝑥𝑦3] ∙ 𝑑𝑦 2 0 ∙ 𝑑𝑥 1 0 = 3 10 ∫ ∫ [2𝑥3𝑦2 + 𝑥2𝑦4] ∙ 𝑑𝑦 2 0 ∙ 𝑑𝑥 1 0 ⇒ ⇒ 3 10 ∫ ( 2𝑥3𝑦3 3 + 𝑥2𝑦5 5 )| 0 21 0 ∙ 𝑑𝑥 = 3 10 ∫ ( 2𝑥3 ∙ 8 3 + 𝑥2 ∙ 32 5 ) 1 0 ∙ 𝑑𝑥 ⇒ ⇒ 3 10 ( 2𝑥4 ∙ 8 12 + 𝑥3 ∙ 32 15 )| 0 1 = 3 10 ( 16 12 + 32 15 ) = 1,04 𝐸(𝑋2 ∙ 𝑌2) = ∫ ∫ 𝑥2𝑦2 ∙ 3 10 [2𝑥2𝑦 + 𝑥𝑦3] ∙ 𝑑𝑦 2 0 ∙ 𝑑𝑥 1 0 = 3 10 ∫ ∫ 2𝑥4𝑦3 + 𝑥3𝑦5 ∙ 𝑑𝑦 2 0 ∙ 𝑑𝑥 1 0 ⇒ ⇒ 3 10 ∫ ( 2𝑥4𝑦4 4 + 𝑥3𝑦6 6 )| 0 2 ∙ 𝑑𝑥 1 0 = 3 10 ∫ ( 2𝑥4 ∙ 16 4 + 𝑥3 ∙ 64 6 ) ∙ 𝑑𝑥 1 0 ⇒ ⇒ 3 10 ( 2𝑥5 ∙ 16 20 + 𝑥4 ∙ 64 24 )| 0 1 = 3 10 ( 32 20 + 64 24 ) = 1,28 𝑉𝑎𝑟(𝑋 ∙ 𝑌) = 𝐸(𝑋2 ∙ 𝑌2) − 𝐸(𝑋 ∙ 𝑌)2 = 1,28 − (1,04)2 = 0,2599 𝐷𝑃 = √𝑉𝑎𝑟(𝑋 ∙ 𝑌) = √0,2599 = 0,5098 𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸(𝑋 ∙ 𝑌) − 𝐸(𝑋) ∙ 𝐸( 𝑌) = 1,04 − 0,7 ∙ 1,4993 = −0,0053 𝜌𝑥,𝑦 = 𝐶𝑜𝑣(𝑋, 𝑌) 𝐷𝑃(𝑋) ∙ 𝐷𝑃(𝑌) = −0,0053 0,2236 ∙ 0,4123 = −0,00576 Correlação Baixa. 𝜌𝑥,𝑦 { 𝐶𝑜𝑣(𝑋, 𝑌) ⟵ { 𝐸(𝑋) ⟵ {𝑓(𝑋) ⟵ {𝑓(𝑋, 𝑌) 𝐸(𝑌) ⟵ {𝑓(𝑌) ⟵ {𝑓(𝑋, 𝑌) 𝐸(𝑋 ∙ 𝑌) ⟵ {𝑓(𝑋, 𝑌) 𝐷𝑃(𝑋) ⟵ {𝑉𝑎𝑟(𝑋) ⟵ { 𝐸(𝑋) 𝐸(𝑋2) ⟵ {𝑓(𝑋) ⟵ {𝑓(𝑋, 𝑌) 𝐷𝑃(𝑌) ⟵ {𝑉𝑎𝑟(𝑌) ⟵ { 𝐸(𝑌) 𝐸(𝑌2) ⟵ {𝑓(𝑌) ⟵ {𝑓(𝑋, 𝑌) 25 Demonstração das propriedades: Propriedades de variáveis dependentes: i. 𝑬(𝑿 + 𝒀) = 𝐸(𝑋) + 𝐸(𝑌) 𝐸(𝑋 + 𝑌) = ∫ ∫ (𝑥 + 𝑦) ∙ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑦 ℝ𝑦 ∙ 𝑑𝑥 ℝ𝑥 = ∫ ∫ 𝑥 ∙ 𝑓(𝑋, 𝑌) + 𝑦 ∙ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑦 ℝ𝑦 ∙ 𝑑𝑥 ℝ𝑥 ⇒ ⇒ ∫ ∫ 𝑥 ∙ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑦 ℝ𝑦 ∙ 𝑑𝑥 ℝ𝑥 +∫ ∫ 𝑦 ∙ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑦 ℝ𝑦 ∙ 𝑑𝑥 ℝ𝑥 ⇒ ⇒ ∫ 𝑥 ∙ ∫ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑦 ℝ𝑦 ∙ 𝑑𝑥 ℝ𝑥 +∫ 𝑦 ∙ ∫ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑥 ℝ𝑥 ∙ 𝑑𝑦 ℝ𝑦 ⇒ ⇒ ∫ 𝑥 ∙ 𝑓(𝑋) ∙ 𝑑𝑥 ℝ𝑥 +∫ 𝑦 ∙ 𝑓(𝑌) ∙ 𝑑𝑦 ℝ𝑦 = 𝐸(𝑋) + 𝐸(𝑌) ii. 𝑬(𝒂𝑿 + 𝒃𝒀) = 𝑎 ∙ 𝐸(𝑋) + 𝑏 ∙ 𝐸(𝑌) 𝐸(𝑎𝑋 + 𝑏𝑌) = ∫ ∫ (𝑎 ∙ 𝑥 + 𝑏 ∙ 𝑦) ∙ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑦 ℝ𝑦 ∙ 𝑑𝑥 ℝ𝑥 ⇒ ⇒ ∫ ∫ 𝑎 ∙ 𝑥 ∙ 𝑓(𝑋, 𝑌) + 𝑏 ∙ 𝑦 ∙ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑦 ℝ𝑦 ∙ 𝑑𝑥 ℝ𝑥 ⇒ ∫ ∫ 𝑎 ∙ 𝑥 ∙ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑦 ℝ𝑦 ∙ 𝑑𝑥 ℝ𝑥 +∫ ∫ 𝑏 ∙ 𝑦 ∙ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑦 ℝ𝑦 ∙ 𝑑𝑥 ℝ𝑥 ⇒ ⇒ 𝑎 ∙ ∫ 𝑥 ∙ ∫ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑦 ℝ𝑦 ∙ 𝑑𝑥 ℝ𝑥 + 𝑏 ∙ ∫ 𝑦 ∙ ∫ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑥 ℝ𝑥 ∙ 𝑑𝑦 ℝ𝑦 ⇒ ⇒ 𝑎 ∙ ∫ 𝑥 ∙ 𝑓(𝑋) ∙ 𝑑𝑥 ℝ𝑥 + 𝑏 ∙ ∫ 𝑦 ∙ 𝑓(𝑌) ∙ 𝑑𝑦 ℝ𝑦 = 𝑎 ∙ 𝐸(𝑋) + 𝑏 ∙ 𝐸(𝑌) iii. 𝑬[𝑬(𝑿|𝒀)] = 𝐸(𝑋) 𝐸(𝑋) = ∫ 𝑥 ∙ 𝑓(𝑋) ∙ 𝑑𝑥 ℝ𝑥 = ∫ 𝑥 ∙ ∫ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑦 ℝ𝑦 ∙ 𝑑𝑥 ℝ𝑥 ⇒ ⇒ ∫ 𝑥 ∙ ∫ 𝑓(𝑌) ∙ 𝑓(𝑋|𝑌) ∙ 𝑑𝑦 ℝ𝑦 ∙ 𝑑𝑥 ℝ𝑥 = ∫ 𝑓(𝑌) ∙ ∫ 𝑥 ∙ 𝑓(𝑋|𝑌) ∙ 𝑑𝑥 ℝ𝑥 ℝ𝑦 ∙ 𝑑𝑦 ⇒ ⇒ ∫ 𝑓(𝑌) ∙ 𝐸(𝑋|𝑌) ℝ𝑦 ∙ 𝑑𝑦 = ∫ 𝐸(𝑋|𝑌) ∙ 𝑓(𝑌) ∙ 𝑑𝑦 ℝ𝑦 = 𝐸[𝐸(𝑋|𝑌)] iv. 𝑬[𝑬(𝒀|𝑿)] = 𝐸(𝑌) v. 𝑪𝒐𝒗(𝑿,𝒀) = 𝐸(𝑋 ∙ 𝑌) − 𝐸(𝑋) ∙ 𝐸( 𝑌) 𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸[(𝑥 − 𝜇𝑥)(𝑦 − 𝜇𝑦)] = 𝐸[𝑥𝑦 − 𝑋𝜇𝑦 − 𝑌𝜇𝑥 + 𝜇𝑥𝜇𝑦] ⇒ ⇒ 𝐸(𝑋 ∙ 𝑌) − 𝐸(𝑥𝜇𝑦) − 𝐸(𝑦𝜇𝑥) + 𝐸(𝜇𝑥𝜇𝑦) = 𝐸(𝑋 ∙ 𝑌) − 𝜇𝑦 ∙ 𝐸(𝑋) − 𝜇𝑥 ∙ 𝐸(𝑌) + 𝜇𝑥𝜇𝑦 ⇒ ⇒ 𝐸(𝑋 ∙ 𝑌) − 𝐸(𝑌) ∙ 𝐸(𝑋) − 𝐸(𝑋) ∙ 𝐸(𝑌) + 𝐸(𝑋) ∙ 𝐸(𝑌) = 𝐸(𝑥𝑦) − 𝐸(𝑌) ∙ 𝐸(𝑋) vi. 𝑬(𝑿 ∙ 𝒀) = 𝐸(𝑋) ∙ 𝐸(𝑌) + 𝐶𝑜𝑣(𝑋, 𝑌) 26 vii. 𝑪𝒐𝒗(𝒂𝑿, 𝒃 𝒀) = 𝑎 ∙ 𝑏 ∙ 𝐶𝑜𝑣(𝑋, 𝑌) 𝐶𝑜𝑣(𝑎𝑋, 𝑏 𝑌) = 𝐸[(𝑎𝑋 − 𝐸(𝑎𝑋))(𝑏 𝑌 − 𝐸(𝑏 𝑌))] ⇒ ⇒ 𝐸[(𝑎 ∙ 𝑥 − 𝑎 ∙ 𝐸(𝑋))(𝑏 ∙ 𝑦 − 𝑏 ∙ 𝐸( 𝑌))] = 𝐸[𝑎(𝑥 − 𝐸(𝑋)) ∙ 𝑏( 𝑦 − 𝐸( 𝑌))] ⇒ ⇒ 𝑎 ∙ 𝑏 ∙ 𝐸[(𝑥 − 𝐸(𝑋)) ∙ ( 𝑦 − 𝐸( 𝑌))] = 𝑎 ∙ 𝑏 ∙ 𝐶𝑜𝑣(𝑋, 𝑌) viii. 𝑽𝒂𝒓(𝑿 + 𝒀) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌) + 2 ∙ 𝐶𝑜𝑣(𝑋, 𝑌) 𝑉𝑎𝑟(𝑋 + 𝑌) = 𝐸[(𝑥 + 𝑦) − 𝐸(𝑋 + 𝑌)]2 = 𝐸[(𝑥 + 𝑦) − 𝐸(𝑋) − 𝐸(𝑌)]2 ⇒ ⇒ 𝐸[𝑥 − 𝐸(𝑋) + 𝑦 − 𝐸(𝑌)]2 = 𝐸[𝑤 + 𝑧]2 = 𝐸[𝑤2 + 2𝑤𝑧 + 𝑧2] ⇒ ⇒ 𝐸(𝑤2) + 𝐸(2𝑤𝑧) + 𝐸(𝑧2) ⇒ ⇒ 𝐸[𝑥 − 𝐸(𝑋)]2 + 2 ∙ 𝐸[(𝑥 − 𝐸(𝑋)) ∙ (𝑦 − 𝐸(𝑌))] + 𝐸[𝑦 − 𝐸(𝑌)]2 ⇒ ⇒ 𝑉𝑎𝑟(𝑋) + 2 ∙ 𝐶𝑜𝑣(𝑋, 𝑌) + 𝑉𝑎𝑟(𝑌) ix. 𝑽𝒂𝒓(𝒂𝑿 + 𝒃𝒀) = 𝑎2 ∙ 𝑉𝑎𝑟(𝑋) + 𝑏2 ∙ 𝑉𝑎𝑟(𝑌) + 2 ∙ 𝑎 ∙ 𝑏 ∙ 𝐶𝑜𝑣(𝑋, 𝑌) 𝑉𝑎𝑟(𝑎𝑋 + 𝑏𝑌) = 𝐸[(𝑎 ∙ 𝑥 + 𝑏 ∙ 𝑦) − 𝐸(𝑎𝑋 + 𝑏𝑌)]2 = 𝐸[(𝑥 + 𝑦) − 𝑎 ∙ 𝐸(𝑋) − 𝑏 ∙ 𝐸(𝑌)]2 ⇒ ⇒ 𝐸[𝑎 ∙ (𝑥 − 𝐸(𝑋)) + 𝑏 ∙ (𝑦 − 𝐸(𝑌))]2 = 𝐸[𝑎 ∙ 𝑤 + 𝑏 ∙ 𝑧]2 ⇒ ⇒ 𝐸[𝑎2 ∙ 𝑤2 + 2 ∙ 𝑎 ∙ 𝑤 ∙ 𝑏 ∙ 𝑧 + 𝑏2 ∙ 𝑧2] ⇒ ⇒ 𝐸[𝑎2 ∙ 𝑤2] + 𝐸[2 ∙ 𝑎 ∙ 𝑤 ∙ 𝑏 ∙ 𝑧] + 𝐸[𝑏2 ∙ 𝑧2] ⇒ ⇒ 𝑎2 ∙ 𝐸[𝑥 − 𝐸(𝑋)]2 + 2 ∙ 𝑎 ∙ 𝑏 ∙ 𝐸[(𝑥 − 𝐸(𝑋)) ∙ (𝑦 − 𝐸(𝑌))] + 𝑏2 ∙ 𝐸[𝑦 − 𝐸(𝑌)]2 ⇒ ⇒ 𝑎2 ∙ 𝑉𝑎𝑟(𝑋) + 2 ∙ 𝑎 ∙ 𝑏 ∙ 𝐶𝑜𝑣(𝑋, 𝑌) + 𝑏2 ∙ 𝑉𝑎𝑟(𝑌) Propriedades de variáveis Independentes:i. 𝑓(𝑋|𝑌) = 𝑓(𝑋) 𝑓(𝑌|𝑋) = 𝑓(𝑌) 𝑓(𝑋|𝑌) = 𝑓(𝑋, 𝑌) 𝑓(𝑌) = 𝑓(𝑋) ∙ 𝑓(𝑌) 𝑓(𝑌) = 𝑓(𝑋) ii. 𝐸(𝑋|𝑌) = 𝐸(𝑋) 𝐸(𝑌|𝑋) = 𝐸(𝑌) 𝐸(𝑋|𝑌) = ∫ 𝑥 ∙ 𝑓(𝑋|𝑌) ∙ 𝑑𝑥 ℝ𝑥 = ∫ 𝑥 ∙ 𝑓(𝑋) ∙ 𝑑𝑥 ℝ𝑥 = 𝐸(𝑋) iii. 𝑉𝑎𝑟(𝑋|𝑌) = 𝑉𝑎𝑟(𝑋) 𝑉𝑎𝑟(𝑌|𝑋) = 𝑉𝑎𝑟(𝑌) 𝑉𝑎𝑟(𝑋|𝑌) = 𝐸(𝑋2|𝑌) ∙ 𝐸(𝑋|𝑌)2 = 𝐸(𝑋2) ∙ 𝐸(𝑋)2 = 𝑉𝑎𝑟(𝑋) 27 iv. 𝐶𝑜𝑣(𝑋, 𝑌) = 0 v. 𝜌𝑥,𝑦 = 0 vi. 𝐸(𝑋 ∙ 𝑌) = 𝐸(𝑋) ∙ 𝐸(𝑌) 𝐸(𝑋 ∙ 𝑌)∫ ∫ (𝑥 ∙ 𝑦) ∙ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑦 ℝ𝑦 ∙ 𝑑𝑥 ℝ𝑥 = ∫ ∫ (𝑥 ∙ 𝑦) ∙ 𝑓(𝑋) ∙ 𝑓(𝑌) ∙ 𝑑𝑦 ℝ𝑦 ∙ 𝑑𝑥 ℝ𝑥 ⇒ ⇒ ∫ 𝑥 ∙ 𝑓(𝑋) ∙ ∫ 𝑦 ∙ 𝑓(𝑌) ∙ 𝑑𝑦 ℝ𝑦 ∙ 𝑑𝑥 ℝ𝑥 = ∫ 𝑥 ∙ 𝑓(𝑋) ∙ 𝐸(𝑌) ∙ 𝑑𝑥 ℝ𝑥 ⇒ ⇒ 𝐸(𝑌) ∙ ∫ 𝑥 ∙ 𝑓(𝑋) ∙ 𝑑𝑥 ℝ𝑥 = 𝐸(𝑋) ∙ 𝐸(𝑌) vii. 𝐸(𝑎𝑋 ∙ 𝑏𝑌) = 𝑎 ∙ 𝐸(𝑋) ∙ 𝑏 ∙ 𝐸(𝑌) 𝐸(𝑎𝑋 ∙ 𝑏𝑌) = ∫ ∫ (𝑎 ∙ 𝑥 + 𝑏 ∙ 𝑦) ∙ 𝑓(𝑋, 𝑌) ∙ 𝑑𝑦 ℝ𝑦 ∙ 𝑑𝑥 ℝ𝑥 ⇒ ⇒ ∫ ∫ (𝑎 ∙ 𝑥 + 𝑏 ∙ 𝑦) ∙ 𝑓(𝑋) ∙ 𝑓(𝑌) ∙ 𝑑𝑦 ℝ𝑦 ∙ 𝑑𝑥 ℝ𝑥 ⇒ ⇒ 𝑎 ∙ 𝑏 ∙ ∫ 𝑥 ∙ 𝑓(𝑋) ∙ ∫ 𝑦 ∙ 𝑓(𝑌) ∙ 𝑑𝑦 ℝ𝑦 ∙ 𝑑𝑥 ℝ𝑥 = 𝑎 ∙ 𝑏 ∙ ∫ 𝑥 ∙ 𝑓(𝑋) ∙ 𝐸(𝑌) ∙ 𝑑𝑥 ℝ𝑥 ⇒ ⇒ 𝑎 ∙ 𝑏 ∙ 𝐸(𝑌) ∙ ∫ 𝑥 ∙ 𝑓(𝑋) ∙ 𝑑𝑥 ℝ𝑥 = 𝑎 ∙ 𝐸(𝑋) ∙ 𝑏 ∙ 𝐸(𝑌) viii. 𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌) 𝑉𝑎𝑟(𝑋 + 𝑌) = 𝐸[(𝑥 + 𝑦) − 𝐸(𝑋 + 𝑌)]2 = 𝐸[(𝑥 + 𝑦) − 𝐸(𝑋) − 𝐸(𝑌)]2 ⇒ ⇒ 𝐸[𝑥 − 𝐸(𝑋) + 𝑦 − 𝐸(𝑌)]2 = 𝐸[𝑤 + 𝑧]2 = 𝐸[𝑤2 + 2𝑤𝑧 + 𝑧2] ⇒ ⇒ 𝐸(𝑤2) + 2 ∙ 𝐸(𝑤𝑧) + 𝐸(𝑧2) = 𝐸(𝑤2) + 2 ∙ 𝐸(𝑤) ∙ 𝐸(𝑧) + 𝐸(𝑧2) ⇒ ⇒ 𝐸[𝑥 − 𝐸(𝑋)]2 + 2 ∙ 𝐸[𝑥 − 𝐸(𝑋)] ∙ 𝐸[𝑦 − 𝐸(𝑌)] + 𝐸[𝑦 − 𝐸(𝑌)]2 ⇒ ⇒ 𝑉𝑎𝑟(𝑋) + 2 ∙ (𝐸(𝑋) − 𝐸(𝑋) ∙ 𝐸(𝑌) − 𝐸(𝑌)) + 𝑉𝑎𝑟(𝑌) ⇒ ⇒ 𝑉𝑎𝑟(𝑋) + 2 ∙ 0 + 𝑉𝑎𝑟(𝑌) ⇒ 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌) ix. 𝑉𝑎𝑟(𝑎𝑋 + 𝑏𝑌) = 𝑎2 ∙ 𝑉𝑎𝑟(𝑋) + 𝑏2 ∙ 𝑉𝑎𝑟(𝑌) 𝑉𝑎𝑟(𝑎𝑋 + 𝑏𝑌) = 𝐸[(𝑎 ∙ 𝑥 + 𝑏 ∙ 𝑦) − 𝐸(𝑎𝑋 + 𝑏𝑌)]2 ⇒ ⇒ 𝐸[(𝑎 ∙ 𝑥 + 𝑏 ∙ 𝑦) − 𝑎 ∙ 𝐸(𝑋) − 𝑏 ∙ 𝐸(𝑌)]2 = 𝐸[𝑎(𝑥 − 𝐸(𝑋)) + 𝑏(𝑦 − 𝐸(𝑌))]2 ⇒ ⇒ 𝐸[𝑎(𝑥 − 𝐸(𝑋)) + 𝑏(𝑦 − 𝐸(𝑌))]2 = 𝐸[𝑎 ∙ 𝑤 + 𝑏 ∙ 𝑧]2 ⇒ ⇒ 𝐸[𝑎2 ∙ 𝑤2 + 2𝑎 ∙ 𝑤 ∙ 𝑏 ∙ 𝑧 + 𝑏2 ∙ 𝑧2]2 = 𝐸(𝑎2 ∙ 𝑤2) + 2 ∙ 𝐸(𝑎 ∙ 𝑤) ∙ 𝐸(𝑏 ∙ 𝑧) + 𝐸(𝑏2 ∙ 𝑧2) ⇒ ⇒ 𝑎2 ∙ 𝐸(𝑥 − 𝐸(𝑋))2 + 2 ∙ 𝑎 ∙ 𝑏 ∙ 𝐸[𝑥 − 𝐸(𝑋)] ∙ 𝐸[𝑦 − 𝐸(𝑌)] + 𝑏2 ∙ 𝐸(𝑦 − 𝐸(𝑌))2 ⇒ ⇒ 𝑎2 ∙ 𝑉𝑎𝑟(𝑋) + 2 ∙ 𝑎 ∙ 𝑏 ∙ (𝐸(𝑋) − 𝐸(𝑋) ∙ 𝐸(𝑌) − 𝐸(𝑌)) + 𝑏2 ∙ 𝑉𝑎𝑟(𝑌) ⇒ ⇒ 𝑎2 ∙ 𝑉𝑎𝑟(𝑋) + 2 ∙ 𝑎 ∙ 𝑏 ∙ 0 ∙ 0 + 𝑏2 ∙ 𝑉𝑎𝑟(𝑌) = 𝑎2 ∙ 𝑉𝑎𝑟(𝑋) + 𝑏2 ∙ 𝑉𝑎𝑟(𝑌)
Compartilhar