Baixe o app para aproveitar ainda mais
Prévia do material em texto
Gabriel Queiroz Notas de Aula de MAE0119 1 Classificação de variável Variável Qualitativa descreve “não-números” tais como categorias. Subdivisões: Nominal quando não é ordinal. (ex: cores) Ordinal quando há alguam relação de ordem entre os valores possíveis. (ex: grau de escolaridade) Variável Quantitativa descreve um número. Subdivisões: Discreta quando não é contínua. (ex: resultado de um dado) Contínua quando o número é real ou “quase-real”1. (ex: preços) 2 Tabelas Tabelas de frequência contém as colunas: valor, frequência absoluta (𝑛𝑖), frequên- cia relativa (𝑓𝑖) e frequência acumulada. Exemplo: № de irmãos frequênciaabsoluta (𝑛𝑖) frequência relativa (𝑓𝑖) freq. acumulada 0 18 0,2093 0,2093 1 44 0,5116 0,7209 2 18 0,2093 0,9302 3 1 0,0116 0,9419 4 ou + 5 0,0581 1,0000 total 86 1,0000 Para Histogramas: 𝑆𝑖 = 𝑓𝑖 = ∆𝑖 × ℎ𝑖 preço frequênciarelativa (𝑓𝑖) comprimento do intervalo (Δ𝑖) Densidade de frequência (𝑑𝑖) [ 2, 3) 0,10 1 0,100 [ 3, 5) 0,15 2 0,075 [ 5, 10) 0,60 5 0,120 [10, 20) 0,15 10 0,015 total 1,00 Tabelas de contingência contém os rótulos nas colunas e linhas e os valores nas células interiores. Exemplo: 1Coisas como dinheiro e energia são tecnicamente quantizadas, mas geralmente aproximam-se como reais. 1 homens mulheres total Usaram o hospital 100 150 350 Não usaram o hospital 900 850 1750 total 1000 1000 2000 3 Correlação Definição do coeficiente de correlação linear de Pearson: Corr(𝑋,𝑌 ) = 1𝑁 𝑛 ∑ 𝑖=1 (𝑥𝑖 − ̄𝑥dp(𝑋))( 𝑦𝑖 − ̄𝑦 dp(𝑌 )) Corr(𝑋,𝑌 ) = ( 1 𝑁 ∑ 𝑛 𝑖=1 𝑥𝑖𝑦𝑖) − ̄𝑥 ̄𝑦 dp(𝑋) dp(𝑌 ) 𝐶𝑜𝑟𝑟(𝑋,𝑌 ) = (∑ 𝑛 𝑖=1 𝑥𝑖𝑦𝑖) − 𝑛 ̄𝑥 ̄𝑦 √(∑𝑛𝑖=1 𝑥2𝑖 − 𝑛 ̄𝑥2)(∑ 𝑛 𝑖=1 𝑦2𝑖 − 𝑛 ̄𝑦2) Onde dp é o desvio padrão: dp(𝑋) = √ 1𝑁 𝑛 ∑ 𝑖=1 (𝑥𝑖 − ̄𝑥) 2 dp(𝑋) = √√√ ⎷ 1 𝑁 ( 𝑛 ∑ 𝑖=1 𝑥2𝑖 ) − ̄𝑥2 Para o coeficiente de correlação linear, vale: −1 ≤ Corr ≤ +1 forte 0,7 < | Corr | moderada 0,3 < | Corr | < 0,7 fraca | Corr | ≤ 0,3 4 Probabilidade 4.1 Espaço de Probabilidade Definição: O espaço de probabilidade ou modelo probabilístico associado a um experimento é dado por (Ω, ℱ, P) com: Ω = espaço amostral = conj. de todos os possíveis resultados do experimento ℱ = 𝜎−álgebra de subconjuntos de = coleção de eventos de P = função de probabilidade definida em 𝐹 . 2 4.2 Função de Probabilidade Definição: Considere um experimento com espaço amostral Ω e uma coleção de eventos ℱ. A função P definida em ℱ com valores no intervalo [0, 1] (P ∶ ℱ → [0, 1]) é chamada de probabilidade se satisfaz as condições abaixo: (i) P(Ω) = 1 (ii) ∀𝐴 ∈ ℱ, 0 ≤ P(𝐴) ≤ 1 (ou apenas 0 ≤ P(𝐴)) (iii) ∀(𝐴,𝐵) ∈ ℱ2, 𝐴 ∩ 𝐵 = ∅ ⇒ P(𝐴 ∪ 𝐵) = P(𝐴) + P(𝐵) A última propriedade é equivalente a: para qualquer sequência de eventos mutua- mente exclusivos (ou disjuntos) 𝐴1, 𝐴2, … , 𝐴𝑛 ∈ ℱ (isto é, 𝐴1, 𝐴2, … , 𝐴𝑛 ∈ ℱ tais que 𝐴𝑖 ∩ 𝐴𝑗 = ∅ ∀𝑖 ≠ 𝑗), temos que: P ( 𝑛 ⋃ 𝑖=1 𝐴𝑖) = 𝑛 ∑ 𝑖=1 P(𝐴𝑖) Propriedades: 1. P(∅) = 0 2. P(𝐴∁) = 1 − P(𝐴), ∀𝐴 ∈ ℱ 3. ∀(𝐴,𝐵) ∈ ℱ2, 𝐵 ⊂ 𝐴 ⇒ P(𝐵) ≤ P(𝐴) 4. ∀(𝐴,𝐵) ∈ ℱ2, P(𝐴 ∪ 𝐵) = P(𝐴) + P(𝐵) − P(𝐴 ∩ 𝐵) 5. ∀𝐴𝑖, … ,𝐴𝑛 ∈ ℱ, P(⋃ 𝐴𝑖) ≤ ∑ P(𝐴𝑖) 4.3 Probabilidade Condicional Definição: Considere (Ω, ℱ, P). Dado o evento 𝐵, com P(𝐵) > 0, a probabilidade condicional de um evento 𝐴 qualquer dado que o evento 𝐵 ocorreu é definido por: P(𝐴|𝐵) = P(𝐴 ∩ 𝐵)P(𝐵) Regra do produto: Para quaisquer eventos A e B temos que P(𝐴 ∩ 𝐵) = P(𝐴|𝐵) · P(𝐵)(P(𝐵) > 0) = P(𝐵|𝐴) · P(𝐴)(P(𝐴) > 0) 4.4 Partição Os eventos 𝐴1, 𝐴2, … , 𝐴𝑚 ∈ ℱ são uma partição se e somente se as intersecções são nulas e a união é o espaço amostra. Em símbolos: 𝐴𝑖 ∩ 𝐴𝑗 = ∅, ∀𝑖 ≠ 𝑗 e ⋃ 𝐴𝑖 = Ω 3 4.5 Teorema da Probabilidade Total Considere o espaço de probabilidade (Ω, ℱ, P). Considere o evento 𝐵 e considere que os eventos 𝐴1, 𝐴2, … , 𝐴𝑚 sejam uma partição do espaço amostral, então: P(𝐵) = ∑ P(𝐵|𝐴𝑖) P(𝐴𝑖) Note que esse resultado é uma generalização de 𝑃(𝐵) = 𝑃(𝐵 ∩ 𝐴) + 𝑃(𝐵 ∩ 𝐴∁) = 𝑃(𝐵|𝐴)𝑃(𝐴) + 𝑃(𝐵|𝐴∁)𝑃 (𝐴∁) (regra do produto) 4.6 Teorema de Bayes Considere que os eventos {𝐴1, 𝐴2, … , 𝐴𝑚} sejam uma partição do espaço amostral e considere o evento 𝐵 (com P(𝐵) > 0). Então para 𝑘 fixado, 𝑘 = 1, … , 𝑚, P(𝐴𝑘|𝐵) = P(𝐵|𝐴𝑘) · P(𝐴𝑘) P(𝐵) = P(𝐵|𝐴𝑘)∑𝑚𝑖=1 P(𝐵|𝐴𝑖) · P(𝐴𝑖) · P(𝐴𝑘) Considerando o caso particular da partição {𝐴, 𝐴∁} o teorema de Bayes fica: P(𝐴|𝐵) = P(𝐵|𝐴)P(𝐵) P(𝐴) Esse resultado fornece uma maneira de atualizar a probabilidade do evento 𝐴 quando se tem a informação sobre o evento 𝐵. Essa atualização pode ser iterativa/recorrente, por exemplo, a 1ª informação dada é 𝐵1 (fórmula acima) então com a segunda infor- mação 𝐵2 tem-se que: 𝑃(𝐴|𝐵1 ∩ 𝐵2) = P(𝐵2|𝐴 ∩ 𝐵1)𝑃 (𝐵2|𝐵1) 𝑃 (𝐴|𝐵1) 4.7 Independência Definição: Dizemos que 𝐴 e 𝐵 são eventos (estatisticamente ou estocasticamente) independentes se e somente se: P(𝐴 ∩ 𝐵) = P(𝐴) P(𝐵) Implicações: Se 𝐴 e 𝐵 são independentes, então: 1. 𝐴 e 𝐵∁ são independentes; 2. 𝐴∁ e 𝐵 são independentes; 3. 𝐴∁ e 𝐵∁ são independentes. Definição: Dizemos que os eventos 𝐴𝑖, … ,𝐴𝑛 são conjuntamente independentes se e somente se: P (⋂ 𝐴𝑖) = ∏ P(𝐴𝑖) 4 4.8 Independência Condicional Definição: Dizemos que os eventos 𝐴 e 𝐶 são condicionalmente independentes dado o evento 𝐵 se P(𝐴 ∩ 𝐶|𝐵) = {𝑃(𝐴|𝐵) · 𝑃 (𝐶|𝐵) se 𝑃(𝐵) > 0𝑃(𝐴 ∩ 𝐶) se P(𝐵) = 0 4.9 Variável Aleatória Definição: uma variável aleatória 𝑌 é uma função real definida em Ω, em símbolos: 𝑌 ∶ Ω → R 4.9.1 Variável Aleatória Discreta A variável aleatória 𝑌 é dita ser discreta se ela assume valores em algum subconjunto enumerável {𝑦1, 𝑦2, …} de R. E definimos sua função (discreta) de probabilidade por: 𝑝(𝑦) = 𝑃(𝑌 = 𝑦) = {0 se 𝑦 ∉ {𝑦1, 𝑦2, …}𝑝(𝑦𝑖) se 𝑦 = 𝑦𝑖, 𝑖 = 1, 2, … A função de probabilidade também é denominada distribuição de probabilidade, ou simplesmente distribuição. Note que a distribuição de probabilidade deve satisfazer: 1. 0 ≤ 𝑝(𝑦𝑖) ≤ 1, ∀𝑦𝑖 ∈ {𝑦1, 𝑦2, ...} 2. ∑∞𝑖=1 𝑝(𝑦𝑖) = 1 Ao tratarmos de uma variável aleatória discreta Y é essencial 1. especificar o suporte da variável aleatória, isto é, quais são os valores 𝑦𝑖 que a variável aleatória assume. 2. atribuir uma probabilidade 𝑝(𝑦𝑖) = P(𝑌 = 𝑦𝑖) para cada valor que a variável aleatória assume. 3. verificar se ∑ 𝑝(𝑦𝑖) = 1. 4.9.2 Variável Aleatória Contínua A variável aleatória 𝑌 é dita ser contínua se sua função de distribuição (acumulada) 𝐹𝑌 é (absolutamente) contínua e pode ser expressa como: P(𝑌 ≤ 𝑦) = 𝐹𝑌 (𝑦) = ∫ 𝑦 −∞ 𝑓(𝑢) d𝑢 , 𝑦 ∈ R para alguma função integrável 𝑓 ∶ R → [0, ∞). 5 4.9.3 Função densidade de probabilidade A função 𝑓 é chamada função densidade de probabilidade (f.d.p.) da variável aleatória contínua 𝑌 e possui as seguintes propriedades: 1. 𝑓(𝑦) ≥ 0, ∀𝑦 ∈ R 2. ∫ +∞ −∞ 𝑓(𝑢) d𝑢 = 1 4.9.4 Função de distribuição Distribuição: Se 𝑌 é uma variável aleatória qualquer (discreta ou contínua) em (, ℱ, 𝑃 ), sua função de distribuição (acumulada) é definida por: 𝐹𝑌 (𝑦) = P(𝑌 ≤ 𝑦) para todo 𝑦 ∈ R Observações: 1. 𝐹𝑌 ∶ R → [0, 1] 2. A variável aleatória 𝑌 pode assumir valores num subconjunto de R, mas sua função de distribuição 𝐹𝑌 é definida em toda a reta Conhecer 𝐹𝑌 para todo 𝑦 ∈ R permite obter qualquer informação sobre a variável aleatória 𝑌 — “𝐹𝑌 determina ou caracteriza a variável aleatória 𝑌 ” 3. Para 𝑌 discreta: 𝐹𝑌 (𝑦) = ∑ 𝑖∶𝑦𝑖≤𝑦 𝑝(𝑦𝑖) Propriedades: 1. lim 𝑦→−∞ 𝐹(𝑦) = 0 e lim 𝑦→+∞ 𝐹(𝑦) = 1 2. 𝐹 é não decrescente, ou seja: 𝑎 ≤ 𝑏 ⇒ 𝐹(𝑎) ≤ 𝐹(𝑏) 3. 𝐹 é contínua à direita lim ℎ→0 𝐹(𝑦 + ℎ) ≜ 𝐹(𝑦+) = 𝐹(𝑦) e tem (existe) limite à esquerda lim ℎ→0 𝐹(𝑦 − ℎ) ≜ 𝐹(𝑦−) para todo 𝑦 ∈ R. Proposição: A variável aleatória 𝑌 é caracterizada por sua função de distribuição 𝐹 através de: 1. P(𝑌 > 𝑦) = 1 − 𝐹(𝑦) 2. P(𝑎 < 𝑌 ≤ 𝑏) = 𝐹(𝑏) − 𝐹(𝑎) 3. P(𝑌 = 𝑦) = 𝐹(𝑦) − 𝐹(𝑦−) Particularidade: Para toda variável aleatória discreta afunção de distribuição tem forma de escada com pontos de descontinuidade em forma de salto. Pela proposição (caracterização): 𝑝(𝑦) = 𝐹(𝑦) − 𝐹(𝑦−) = {𝐹(𝑦𝑖) − 𝐹(𝑦 − 𝑖 ) para 𝑦 ∈ {𝑦1, 𝑦2, …} 0 para 𝑦 ∉ {𝑦1, 𝑦2, …} Portanto, os pontos de salto são exatamente os pontos em que a variável discreta 𝑌 assume valores, e o tamanho do salto em 𝑦𝑘 equivale à probabilidade 𝑝(𝑦𝑘). 6 4.10 Esperança (discreta) Definição: A média ou valor médio ou esperança matemática de uma variável aleatória discreta 𝑋, que assume os valores 𝑥1, 𝑥2, … , 𝑥𝑘, é definida por E(𝑋) ≜ 𝑘 ∑ 𝑖=1 𝑥𝑖𝑃(𝑋 = 𝑥𝑖) = 𝑘 ∑ 𝑖=1 𝑥𝑖𝑝(𝑥𝑖) E[ℎ(𝑋)] = ∑ 𝑖 ℎ(𝑥𝑖)𝑝(𝑥𝑖) Note que: E(𝑎𝑋 + 𝑏) = 𝑎 E(𝑋) + 𝑏 4.11 Esperança (contínua) E(𝑋) ≜ ∫ +∞ −∞ 𝑦𝑓(𝑥) d𝑥 E[𝑔(𝑋)] = ∫ +∞ −∞ 𝑔(𝑥)𝑓(𝑥) d𝑥 E(𝑋) = ∫ +∞ 0 [1 − 𝐹𝑋(𝑥)] d𝑥 − ∫ 0 −∞ 𝐹𝑋(𝑥) d𝑥 onde 𝑓 é a f.d.p. de 𝑋. Note que: E(𝑎𝑋 + 𝑏) = 𝑎 E(𝑋) + 𝑏 Caso 𝑋 seja não-negativa, vale: E(𝑋) = ∫ +∞ 0 P(𝑋 ≥ 𝑢) d𝑢 = ∫ +∞ 0 [1 − 𝐹(𝑢)] d𝑢 4.12 Variância (discreta) Definição: A variância de uma variável aleatória discreta 𝑋, que assume os valores 𝑥1, 𝑥2, … , 𝑥𝑘, é definida por Var(𝑋) ≜ E [(𝑋 − 𝐸(𝑋))2] = ∑(𝑥𝑖 − E(𝑋))2𝑝(𝑥𝑖) = E(𝑌 2) − E(𝑌 )2 = ∑ 𝑖 𝑦2𝑖 𝑝(𝑦𝑖) − (E(𝑌 ))2 Propriedades: 1. dp(𝑋) = √Var(𝑋) 2. Var(𝑎𝑋 + 𝑏) = 𝑎2 Var(𝑋) 7 4.13 Variância (contínua) Definição: A variância de uma variável aleatória contínua 𝑋 é dada por: Var(𝑋) ≜ E [(𝑋 − 𝐸(𝑋))2] = E(𝑌 2) − E(𝑌 )2 Propriedades: 1. dp(𝑋) = √Var(𝑋) 2. Var(𝑎𝑋 + 𝑏) = 𝑎2 Var(𝑋) 4.14 Alguns resultados úteis Binômio de Newton (𝑎 + 𝑏)𝑚 = 𝑚 ∑ 𝑘=0 (𝑚𝑘 )𝑎 𝑘𝑏𝑚−𝑘 Desenvolvimento em série de Taylor (ou polinômio de Taylor) da função 𝑒𝑥: 𝑒𝑥 = ∞ ∑ 𝑘=0 𝑥𝑘 𝑘! Outra expressão para 𝑒𝑥 𝑒𝑥 = lim 𝑛→∞ (1 + 𝑥𝑛) 𝑛 4.15 Funções Indicadoras Seja 𝐴 um conjunto qualquer, definimos por função indicadora do conjunto 𝐴, a função: 𝟙𝐴(𝑥) = { 0 se 𝑥 ∉ 𝐴 1 se 𝑥 ∈ 𝐴 Note que 𝟙𝐴∁(𝑥) = 1 − 𝟙𝐴(𝑥) Dica: pense na função indicadora como uma função “discretizadora” que serve para “remover” a continuidade de algumas definições. 4.16 Modelo de Bernoulli Notação: 𝑌 ∼ Bernoulli(𝑝) 𝑝(𝑘) = P(𝑌 = 𝑘) = 𝑝𝑘(1 − 𝑝)1−𝑘𝟙{0,1}(𝑘) Onde 𝑝 é a probabilidade de sucesso. E[𝑌 ] = 𝑝 Var[𝑌 ] = 𝑝(1 − 𝑝) 4.17 Modelo Uniforme (discreto) Notação: 𝑌 ∼ Uniforme{𝑦1,𝑦2, … ,𝑦𝐾} 𝑝(𝑦) = P(𝑌 = 𝑦) = 1𝐾 𝟙{𝑦1,𝑦2,…,𝑦𝐾}(𝑦) 8 4.18 Modelo Uniforme (contínuo) Notação: 𝑌 ∼ Uniforme(𝑎,𝑏) 𝑓(𝑦) = 1𝑏 − 𝑎 𝟙[𝑎,𝑏](𝑦) E[𝑌 ] = 𝑎 + 𝑏2 Var[𝑌 ] = (𝑏 − 𝑎)2 12 4.19 Modelo Exponencial (contínuo) O parâmetro 𝜆 é chamado de taxa e 𝜆 > 0. Notação: 𝑌 ∼ Exponencial(𝜆) 𝑓(𝑦) = 𝜆𝑒−𝜆𝑦 𝟙(0,∞)(𝑦) E[𝑌 ] = 1𝜆 Var[𝑌 ] = 1 𝜆2 4.20 Modelo Exponencial (contínuo, variante) O parâmetro 𝛽 é chamado de média e 𝛽 = 1/𝜆. Notação: 𝑋 ∼ Exponencial(𝛽) 𝑓(𝑥) = 1𝛽𝑒 − 1𝛽 𝑥𝑦 𝟙(0,∞)(𝑦) E[𝑋] = 𝛽 Var[𝑋] = 𝛽2 4.21 Modelo Binomial Modela 𝑛 ensaios de Bernoulli independentes com mesma probabilidade de sucesso em cada ensaio. Notação: 𝑌 ∼ Binomial(𝑛, 𝑝) 𝑝(𝑘) = P(𝑌 = 𝑘) = (𝑛𝑘)𝑝 𝑘(1 − 𝑝)𝑛−𝑘𝟙{0,1,2,…,𝑛}(𝑦) E[𝑌 ] = 𝑛𝑝 Var[𝑌 ] = 𝑛𝑝(1 − 𝑝) 4.21.1 Aproximação Normal do Modelo Binomial Caso 𝑛 seja grande podemos aproximar 𝑋 ∼ Binomial(𝑛, 𝑝) com 𝑌 ∼ Normal(𝑛𝑝, 𝑛𝑝(1− 𝑝)) Lembrar de fazer a correção de continuidade: P(𝑋 < 𝑥0) ≈ P(𝑌 < 𝑥0 − 0,5) P(𝑋 > 𝑥0) ≈ P(𝑌 > 𝑥0 + 0,5) 9 4.22 Modelo Hipergeométrico Considere uma população com 𝑁 elementos dos quais 𝑟 tem uma característica especial. Seleciona-se 𝑛 elementos da população sem reposição e 𝑌 é o número de elementos com a característica especial nessa amostra. Notação: 𝑌 ∼ Hipergeométrico(𝑁, 𝑟, 𝑛) P(𝑌 = 𝑘) = (𝑟𝑘)( 𝑁 − 𝑟 𝑛 − 𝑘) (𝑁𝑛 ) para 𝑘 = max {0, 𝑛 − 𝑁 + 𝑟}, … , min {𝑟, 𝑛} Note que aqui os ensaios de Bernoulli são dependentes. E[𝑌 ] = 𝑛 𝑟𝑁 = 𝑛𝑝 Var[𝑌 ] ≈ 𝑛𝑝(1 − 𝑝)(1 − 𝑛 𝑁 ) 4.22.1 Exemplo: Captura e Recaptura População: tamanho 𝑁 desconhecido. Captura: tamanho 𝑟 e marca todos. Por- tanto, sabe-se que 𝑟 são marcados entre o 𝑁 desconhecidos. Recaptura: tamanho 𝑛. Entre os 𝑛 selecionados, observa-se 𝑘 marcados A variá- vel 𝑌 que representa o número de marcados entre os n selecionados tem distribuição geométirca2 com parâmetros 𝑁 , 𝑟, 𝑛. Na amostra de recaptura observamos 𝑘, então ”igualando-se”a proporção de marca- dos na população com a proporção de marcados na amostra 𝑟 𝑁 ≈ 𝑘 𝑛 Portanto, uma estimativa de 𝑁 é dada por 𝑁 = 𝑟𝑛𝑘 4.23 Modelo Poisson Seja 𝜆 a taxa de ocorrência de um evento em um tempo (ou comprimento, área ou volume) fixado, 𝜆 > 0. Seja 𝑌 o número de ocorrências do evento nesse “intervalo” de tempo (ou compri- mento, área ou volume) fixado. Notação: 𝑌 ∼ Poisson(𝜆) P(𝑌 = 𝑘) = 𝑒−𝜆 𝜆 𝑘 𝑘! 𝟙{0,1,2,…}(𝑘) E[𝑌 ] = 𝜆 Var[𝑌 ] = 𝜆 4.23.1 Aproximação Poisson da distribuição Binomial Caso 𝑛 seja grande e 𝑝 pequeno, podemos aproximar 𝑌 ∼ Binomial(𝑛, 𝑝) com 𝑌 ∼ Poisson(𝜆) onde 𝜆 = 𝑛𝑝. 2Isso não foi um erro de digitação e sim, a caputa-recaptura é hipergeométrica. 10 4.24 Modelo Geométrico Considere uma sequência enumerável de ensaios de Bernoulli independentes e com mesma probabilidade 𝑝 de sucesso em cada ensaio. A variável 𝑌 que representa o número de ensaios até obter (inclusive) o primeiro sucesso é dita ser geométrica e sua f.d.p. é dada por Notação: 𝑌 ∼ Geométrica(𝑝) 𝑝(𝑘) = P(𝑌 = 𝑘) = (1 − 𝑝)𝑘−1𝑝 𝟙{0,1,2,…}(𝑘) E[𝑌 ] = 1𝑝 Var[𝑌 ] = 1 − 𝑝 𝑝2 Há também uma variante que é o número de fracassos até o primeiro sucesso: (𝑌 = 𝑋 + 1) 𝑝(𝑘) = P(𝑌 = 𝑘) = (1 − 𝑝)𝑘𝑝 𝟙{0,1,2,…}(𝑘) E[𝑌 ] = 1 − 𝑝𝑝 Var[𝑌 ] = 1 − 𝑝 𝑝2 4.25 Falta de memória Dizemos que uma variável aleatória Y tem a propriedade de falta de memória se P(𝑌 > 𝑠 + 𝑡 | 𝑌 > 𝑠) = 𝑃(𝑌 > 𝑡) ∀𝑠, 𝑡 > 0 A única distribuição contítnua existente é a exponencial. 4.26 Modelo Normal Dizemos que a v.a. 𝑌 tem distribuição Normal com parâmetros 𝜇 e 𝜎2, 𝜇 ∈ R e 𝜎 > 0, se sua função densidade de probabilidade (f.d.p.) é dada por Notação: 𝑌 ∼ Normal(𝜇, 𝜎2) 𝑓(𝑦) = exp {−12( 𝑦 − 𝜇 𝜎 ) 2 } 1√2𝜋 Observações: 1. 𝜇 é ponto de máximo, ponto central, medida de posição (mediana e média). 2. 𝜎 mede dispersão. Na verdade, 𝜎2 = Var(𝑌 ). Dizemos que a v.a. Z tem distribuição Normal padrão se E(𝑍) = 0 e Var(𝑍) = 1. Neste caso sua f.d.p. é dada por 𝑓(𝑧) = 1√2𝜋 exp {− 1 2𝑧 2} Relação entre 𝑌 e 𝑍: Sejam 𝑌 ∼ Normal(𝜇, 𝜎2) e 𝑍 ∼ Normal(0, 1), então: 𝑍 = 𝑌 − 𝜇𝜎 e 𝑌 = 𝜇 + 𝜎𝑍 11 4.27 Desigualdade de Chebyshev Considere a variável aleatória 𝑋 com média E(𝑋) = 𝜇𝑋 e Var(𝑋) < +∞, então para todo 𝑎 > 0, P(|𝑋 − 𝜇𝑋| > 𝑎) ≤ Var(𝑋) 𝑎2 4.28 Distribuição de probabilidade conjunta Exemplo de tabela: 𝑦\𝑥 0 1 2 3 𝑝(𝑦) 0 1/8 2/8 1/8 0 1/2 1 0 1/8 2/8 1/8 1/2 𝑝(𝑥) 1/8 3/8 3/8 1/8 1 4.29 Função de probabilidade conjunta Sejam 𝑋 e 𝑌 v.a. discretas assumindo valores em 𝒟𝑋 = {𝑥1, 𝑥2, …} e 𝒟𝑌 = {𝑦1, 𝑦2, …}, respectivamente, então a função (ou distribuição) de probabilidade conjunta de (𝑋, 𝑌 ) é: P(𝑋 = 𝑥, 𝑌 = 𝑦) para 𝑥 ∈ 𝒟𝑋, 𝑦 ∈ 𝒟𝑌 satisfazendo: 1. P(𝑋 = 𝑥, 𝑌 = 𝑦) ≥ 0 para todo 𝑥 ∈ 𝒟𝑋, 𝑦 ∈ 𝒟𝑌 2. ∑ 𝑥∈𝒟𝑋 ∑ 𝑦∈𝒟𝑌 P(𝑋 = 𝑥, 𝑌 = 𝑦) = 1 4.30 Distribuições marginais (discreta) As funções de probabilidade (marginais) de 𝑋 e de 𝑌 são obtidas a partir de P(𝑋 = 𝑥) = ∑ 𝑦∈𝒟𝑌 P(𝑋 = 𝑥, 𝑌 = 𝑦) P(𝑌 = 𝑦) = ∑ 𝑥∈𝒟𝑋 P(𝑋 = 𝑥, 𝑌 = 𝑦) 4.31 Distribuição condicional (discreta) A distribuição de probabilidade condicional de 𝑌 dado que 𝑋 = 𝑥0, para 𝑥0 ∈ 𝒟𝑋, é dada por: P(𝑌 = 𝑦|𝑋 = 𝑥0) = P(𝑋 = 𝑥0, 𝑌 = 𝑦) P(𝑋 = 𝑥0) para 𝑦 ∈ 𝒟𝑌 e para qualquer 𝑥0 fixado, tal que P(𝑋 = 𝑥0) > 0. 4.32 Independência de variáveis aleatórias (discreta) Duas variáveis aleatórias discretas 𝑋 e 𝑌 são independentes se e somente se P(𝑋 = 𝑥, 𝑌 = 𝑦) = P(𝑋 = 𝑥) ⋅ P(𝑌 = 𝑦) para todo 𝑥 ∈ 𝒟𝑋, 𝑦 ∈ 𝒟𝑌 . 12 4.33 Independênciade variáveis aleatórias (contínua) Duas variáveis aleatórias contínuas 𝑋 e 𝑌 são independentes se e somente se: 𝑓𝑋,𝑌 (𝑥, 𝑦) = 𝑓𝑋(𝑥) · 𝑓𝑌 (𝑦) para todo 𝑥 ∈ R, 𝑦 ∈ R. 4.34 Esperança bivariada (discreta) Seja 𝑔(·, ·) uma função real bivariada e (𝑋, 𝑌 ) variáveis aleatórias com distribuição conjunta, então: E[𝑔(𝑋, 𝑌 )] = ∑ 𝑥 ∑ 𝑦 𝑔(𝑥, 𝑦) P(𝑋 = 𝑥, 𝑌 = 𝑦) E[𝑋𝑌 ] = ∑ 𝑥 ∑ 𝑦 𝑥𝑦 P(𝑋 = 𝑥, 𝑌 = 𝑦) E(𝑋 + 𝑌 ) = E(𝑋) + E(𝑌 ) Var(𝑋 + 𝑌 ) = Var(𝑋) + Var(𝑌 ) + 2 Cov(𝑋, 𝑌 ) 4.35 Esperança bivariada (continua) Seja 𝑔(·, ·) uma função real bivariada e (𝑋, 𝑌 ) variáveis aleatórias com função den- sidade de probabilidade conjunta, então: E(𝑔(𝑋, 𝑌 )) = ∫ R ∫ R 𝑔(𝑥, 𝑦)𝑓𝑋,𝑌 (𝑥, 𝑦) d𝑥 d𝑦 4.36 Esperança de Soma de Variáveis E(𝑋1 + 𝑋2 + … + 𝑋𝑚) = E(𝑋1) + E(𝑋2) + … + E(𝑋𝑚) 4.37 Variância de Soma de Variáveis Var(𝑋1 + … + 𝑋𝑚) = 𝑚 ∑ 𝑖=1 Var(𝑋𝑖) + 𝑚 ∑ 𝑖=1 𝑚 ∑ 𝑖≠𝑗=1 Cov(𝑋𝑖, 𝑋𝑗) 4.38 Covariância Cov(𝑋, 𝑌 ) = E[(𝑋 − E(𝑋)) · (𝑌 − E(𝑌 ))] Cov(𝑋, 𝑌 ) = E[𝑋𝑌 ] − E[𝑋] · E[𝑌 ] Se 𝑋 e 𝑌 são independentes, Cov(𝑋,𝑌 ) = 0. Entretanto, a recíproca não é garantida. 13 4.39 Correlação Corr(𝑋, 𝑌 ) = 𝜌(𝑋, 𝑌 ) = Cov(𝑋, 𝑌 )√Var(𝑋) Var(𝑌 ) 4.40 Função distribuição conjunta (contínua) A função distribuição (acumulada) conjunta de 𝑋 e 𝑌 é a função 𝐹𝑋,𝑌 ∶ R2 → [0, 1] definida por: 𝐹𝑋,𝑌 (𝑥, 𝑦) = 𝐹(𝑥, 𝑦) = P(𝑋 ≤ 𝑥, 𝑌 ≤ 𝑦), ∀𝑥, 𝑦 ∈ R Isto é, para todo 𝑥 e 𝑦 reais, 𝐹𝑋,𝑌 (𝑥, 𝑦) = ∑ 𝑢≤𝑥 ∑ 𝑣≤𝑦 P(𝑋 = 𝑢, 𝑌 = 𝑣) Para variáveis discretas 𝐹𝑋,𝑌 (𝑥, 𝑦) = ∫ 𝑦 −∞ ∫ 𝑥 −∞ 𝑓𝑋,𝑌 (𝑢, 𝑣) d𝑢 d𝑣 Para variáveis contínuas 4.41 Função densidade de probabilidade conjunta (contí- nua) A função 𝑓𝑋,𝑌 (𝑥, 𝑦) é a função densidade de probabilidade (f.d.p.) conjunta de 𝑋 e 𝑌 , e para todo 𝑥 e 𝑦 reais, 𝑓𝑋,𝑌 (𝑥, 𝑦) = 𝑓(𝑥, 𝑦) = 𝜕2 𝜕𝑥𝜕𝑦𝐹(𝑥, 𝑦) = 𝜕2 𝜕𝑦𝜕𝑥𝐹(𝑥, 𝑦) 4.42 Distribuição condicional (contínua) A função densidade de probabilidade condicional de 𝑌 dado 𝑋 = 𝑥0 é dada por 𝑓𝑌 |𝑋(𝑦|𝑥0) = 𝑓𝑋,𝑌 (𝑥0, 𝑦) 𝑓𝑋(𝑥0) , 𝑦 ∈ R para qualquer 𝑥0 fixado tal que 𝑓𝑋(𝑥0) > 0. 4.43 Normal Bivariada Dizemos que (𝑋, 𝑌 ) tem distribuição normal bivariada se a função densidade de probabilidade conjunta é dada por: (para −∞ < 𝑥, 𝑦 < ∞), 𝑓(𝑥, 𝑦) = 12𝜋𝜎𝑋𝜎𝑌 × exp { −12(1 − 𝜌2)[( 𝑥 − 𝜇𝑋 𝜎𝑋 ) 2 + (𝑦 − 𝜇𝑌𝜎𝑌 ) 2 − 2𝜌(𝑥 − 𝜇𝑋𝜎𝑋 )(𝑦 − 𝜇𝑌𝜎𝑌 )]} onde 𝜇𝑋 = E(𝑋), 𝜎2𝑋 = Var(𝑋), 𝜇𝑌 = E(𝑌 ), 𝜎2𝑌 = Var(𝑌 ) e 𝜌 = 𝜌(𝑋, 𝑌 ) = coeficiente de correlação entre (𝑋, 𝑌 ). 14 Distribuições marginais: 𝑋 ∼ 𝑁(𝜇𝑋, 𝜎2𝑋) e 𝑌 ∼ 𝑁(𝜇𝑌 , 𝜎2𝑌 ) Distribuições condicionais: 𝑋|𝑌 = 𝑦0 ∼ 𝑁(𝜇𝑋 + 𝜌 𝜎𝑋 𝜎𝑌 (𝑦0 − 𝜇𝑌 ), 𝜎2𝑋(1 − 𝜌2)) 𝑌 |𝑋 = 𝑥0 ∼ 𝑁(𝜇𝑌 + 𝜌 𝜎𝑌 𝜎𝑋 (𝑥0 − 𝜇𝑋), 𝜎2𝑌 (1 − 𝜌2)) 4.44 Combinação linear de var. aleat. com distr. Nor- mal Sejam 𝑋 ∼ Normal(𝜇𝑋, 𝜎2𝑋) e 𝑌 ∼ Normal(𝜇𝑌 , 𝜎2𝑌 ) com Cov(𝑋, 𝑌 ) = 𝜌𝜎𝑋𝜎𝑌 , então para 𝑎, 𝑏 e 𝑐 constantes reais, 𝑎𝑋 + 𝑏𝑌 + 𝑐 ∼ Normal(𝑎𝜇𝑋 + 𝑏𝜇𝑌 + 𝑐, 𝑎2𝜎2𝑋 + 𝑏2𝜎2𝑌 + 2𝑎𝑏𝜌𝜎𝑋𝜎𝑌 ) Sejam 𝑋 ∼ Normal(𝜇𝑋, 𝜎2𝑋) e 𝑌 ∼ Normal(𝜇𝑌 , 𝜎2𝑌 ) independentes, então para 𝑎, 𝑏 e 𝑐 constantes reais, 𝑎𝑋 + 𝑏𝑌 + 𝑐 ∼ Normal(𝑎𝜇𝑋 + 𝑏𝜇𝑌 + 𝑐, 𝑎2𝜎2𝑋 + 𝑏2𝜎2𝑌 ) Sejam 𝑋1, 𝑋2, … , 𝑋𝑘 variáveis aleatórias independentes tais que 𝑋𝑖 ∼ Normal(𝜇𝑖, 𝜎2𝑖 ) para 𝑖 = 1, … , 𝑘, então 𝑋1 + 𝑋2 + … + 𝑋𝑘 ∼ Normal(𝜇1 + … + 𝜇𝑘, 𝜎21 + … + 𝜎2𝑘) 5 Inferência e Estimadores Convenção: Variável unidimensional Letra maiúscula. Ex: 𝑋, 𝑌 , 𝑍 Valor observado Letra minúscula. Ex: 𝑥, 𝑦, 𝑧 Caso multivariado Negrito ou til. Ex: X = (𝑋1, 𝑋2, … , 𝑋𝑛), x = (𝑥1, 𝑥2, … , 𝑥𝑛), 𝑦̃ População X Amostra (𝑋1, … , 𝑋𝑛) Característica Parâmetro Estimador média E(𝑋) = 𝜇 𝑋 = 1𝑛 ∑ 𝑋𝑖 variância Var(𝑋) = 𝜎2 �̂�2 = 1𝑛 ∑(𝑋𝑖 − 𝑋)2 𝑆2 = 1𝑛−1 ∑(𝑋𝑖 − 𝑋)2 proporção 𝑝 ̂𝑝 máximo valor máx. de X 𝑋(𝑛) = máx{𝑋1, 𝑋2, … ,𝑋𝑛} mínimo valor mín. de X 𝑋(1) = mín{𝑋1, 𝑋2, … ,𝑋𝑛} distrib. probab. f.d.p. 𝑝𝑋 ou 𝑓𝑋 gráf. barras ou histograma Função de distr. 𝐹𝑋(·) função de dist. empírica 𝐹𝑒(𝑢) = 1𝑛 ∑ 𝟙(−∞,𝑢](𝑋𝑖) 15 5.1 Amostra Aleatória Definição: Dizemos que (𝑋1, … , 𝑋𝑛) é uma amostra aleatória de 𝑋 se 𝑋1, 𝑋2, … , 𝑋𝑛 são independentes e todas têm a mesma distribuição de probabilidade de 𝑋. Exemplo: média 𝜇, variância 𝜎2, proporção 𝑝, genericamente 𝜃 (representados por letras gregas) 5.2 Parâmetro Definição: Um parâmetro é uma quantidade 𝜃 cujo valor é desconhecido e sobre o qual (ou os quais) temos interesse. (𝜃 pode ser unidimensional ou multidimensional) 5.3 Estatística Definição: Uma estatística 𝑇 (𝑋1, … , 𝑋𝑛) = 𝑇 (X) é qualquer função da amostra aleatória X = (𝑋1, 𝑋2, … , 𝑋𝑛) que não depende do parâmetro. 5.4 Estimador Definição: Um estimador 𝑇 = 𝑇 (𝑋1, 𝑋2, … , 𝑋𝑛) é qualquer função da amostra (𝑋1, 𝑋2, … , 𝑋𝑛) que nos permita estimar o parâmetro de interesse 𝜃. Exemplo: média amostral ̂𝜇 ou �̄�, variância �̂�2 ou 𝑆2, proporção ̂𝑝, genericamente utilizamos a notação “ chapéu” ̂𝜃. 5.5 Estimativa Definição: Estimativa é o valor numérico do estimador para uma amostra observada (𝑋1, 𝑋2, … , 𝑋𝑛), isto é, 𝑡 = 𝑇 (𝑋1, 𝑋2, … , 𝑋𝑛). 5.6 Detalhes sobre Estimadores e Estimativas • Só faz sentido estimar um parâmetro se ele for uma quantidade desconhecida na população. • Como um estimador é função da amostra aleatória, então todo estimador é uma variável aleatória. • Uma estimativa corresponde a um dos possíveis valores numéricos que o estimador (como variável aleatória) pode assumir. 5.7 Viés ou Vício Dizemos que um estimador 𝑇 (𝑋1, 𝑋2, … , 𝑋𝑛) é não-viesado ou não-viciado para 𝜃 se E(𝑇 ) = 𝜃. Se E(𝑇 ) ≠ 𝜃 então dizemos que o estimador é viesado para 𝜃 e denominamos 𝑏𝜃(𝑇 ) = E(𝑇 ) − 𝜃 de viés ou vício de 𝑇 . 16 5.8 Erro Quadrático Médio Definição: O erro quadrático médio EQM do estimador 𝑇 para o parâmetro 𝜃 é definido por EQM(𝑇 ; 𝜃) ≜ E[(𝑇 − 𝜃)2] = Var(𝑇 ) + [E(𝑇 ) − 𝜃]2 = Var(𝑇 ) + (𝑏𝜃(𝑇 ))2 5.9 Consistência Definição: Dizemos que a sequência de estimadores {𝑇𝑛 = 𝑇 (𝑋1, 𝑋2, … , 𝑋𝑛)} é consistente para 𝜃 se para todo 𝜀 > 0 lim 𝑛→∞ P(|𝑇𝑛 − 𝜃| > 𝜀) = 0 Critério para consistência: Se {𝑇 𝑛} é assintóticamente não-viesado para 𝜃, isto é: lim 𝑛→∞ 𝑏𝜃(𝑇𝑛) = lim𝑛→∞ E(𝑇𝑛) − 𝜃 = 0 e se lim 𝑛→∞ Var(𝑇𝑛) = 0 então {𝑇𝑛} é consistente para 𝜃. 5.10 Consistência e Variância Usamos 𝑆2 como estimador da variância porque �̂�2 é enviesado (E[�̂�2] = 𝑛−1𝑛 𝜎2) ao contrário de 𝑆2 (E[𝑆2] = 𝜎2). �̂�2 = 1𝑛 ∑(𝑋𝑖 − 𝑋) 2 𝑆2 = 1𝑛 − 1 ∑(𝑋𝑖 − 𝑋) 2 5.11 Média Amostral E[𝑋𝑛] = E [ 𝑋1 + … + 𝑋𝑛 𝑛 ] = E[𝑋] = 𝜇 Var[𝑋𝑛] = Var [ 𝑋1 + … + 𝑋𝑛 𝑛 ] = Var[𝑋] 𝑛 = 𝜎 𝑛 5.12 Média Amostral de distribuição Normal Seja (𝑋1 + … + 𝑋𝑛) uma amostra aleatória de 𝑋 ∼ Normal(𝜇, 𝜎2). Então a média amostral 𝑋𝑛 tem distribuição Normal exata para todo 𝑛, isto é, 𝑋 ∼ Normal(𝜇, 𝜎2) ⇒ 𝑋𝑛 ∼ Normal(𝜇, 𝜎2 𝑛 ) 17 5.13 Distribuição amostral - caso geral Para obter a distribuição amostral de um estimador qualquer, temos que tomar todas as possíveis amostras de tamanho 𝑛 dos elementos da população, calcular as respectivas estimativas e fazer o histograma com todas as possíveis estimativas. 5.14 Teorema Limite Central Seja (𝑋1, 𝑋2, … , 𝑋𝑛) uma amostra aleatória de 𝑋 uma variável aleatória (na popu- lação) com qualquer distribuição de média = E(𝑋) e variância 𝜎2 = Var(𝑋), 𝜎 > 0. Então, para 𝑛 grande, a média amostral 𝑋𝑛 padronizada tem distribuição aproximada- mente Normal(0, 1), isto é, 𝑋𝑛 − 𝜇 √𝜎2/𝑛 ≈ N(0, 1) Abuso de linguagem: 𝑋𝑛 ≈ N(𝜇, 𝜎2/𝑛) para 𝑛 grande 5.15 Distribuição Amostral da Proporção Seja (𝑋1, 𝑋2, … , 𝑋𝑛) uma amostra aleatória de X ∼ Bernoulli(𝑝), então a média amostral 𝑋 ≡ ̂𝑝, é a proporção amostral. A proporção amostral ̂𝑝, padronizada, tem distribuição aproximadamente Normal(0, 1), para 𝑛 grande,isto é, ̂𝑝 − 𝑝 √𝑝(1 − 𝑝)/𝑛 ≈ 𝑁(0, 1) Abuso de linguagem: ̂𝑝 ≈ N(𝑝, 𝑝(1 − 𝑝)𝑛 ) para 𝑛 grande Note que: 𝑋1 + 𝑋2 + … + 𝑋𝑛 ≈ N(𝑛𝑝, 𝑛𝑝(1 − 𝑝)) 18 Profa. Beti Kira MAE 119 - 2020 Algumas distribuições de probabilidade DISCRETAS Distribuição f. discreta de probabilidade Média Variância F.G.Momentos Bernoulli(p) p(x) = pxq1−x1l{0,1}(x) p pq q + pe t p ∈ [0, 1], q = 1− p Binomial(n, p) p(x) = ( n x ) pxqn−x1l{0,1,...,n}(x) np npq (q + pe t)n p ∈ [0, 1], q = 1− p Hipergeométrica p(x) = ( r x )( N − r n− x ) ( N n ) n r N n ( r N )( N − r N )( N − n N − 1 ) (N, r, n) x = max{0, n−N + r}, r ≤ N,n ≤ N . . . ,min{r, n} Poisson(λ) p(x) = e−λλx x! 1l{0,1,...}(x) λ λ exp{λ(et − 1)} λ > 0 Geométrica(p) p(x) = pqx1l{0,1,...}(x) q/p q/p 2 p 1− qet No. de fracassos Geométrica(p) p(x) = pqx−11l{1,2...}(x) 1/p q/p 2 pe t 1− qet No. de ensaios Bin. Negativa(r, p) p(x) = ( r + x− 1 x ) prqx1l{0,1,...}(x) r.q/p r.q/p 2 ( p 1− qet )r No. de fracassos Bin. Negativa(r, p) p(x) = ( x− 1 r − 1 ) prqx−r1l{r,r+1,...}(x) r.1/p r.q/p 2 ( pet 1− qet )r No. de ensaios Profa. Beti Kira MAE 221 - 2020 Algumas distribuições de probabilidade CONTÍNUAS Distribuição f. densidade de probabilidade Média Variância F.G.Momentos Uniforme[a, b] f(x) = 1 b− a 1l[a,b](x) a+ b 2 (b− a)2 12 ebt − eat (b− a)t a < b, reais Normal(µ, σ2) f(x) = 1 σ √ 2π exp { −12 ( x−µ σ )2} µ σ2 exp { µt+ σ 2t2 2 } µ ∈ R, σ2 > 0 Exponencial(λ) f(x) = λe−λx1l(0,∞)(x) 1/λ 1/λ 2 λ λ− t , t < λ λ > 0 Gama(r, λ) f(x) = λr Γ(r) e−λxxr−11l(0,∞)(x) r/λ r/λ 2 ( λ λ− t )r , t < λ r, λ > 0, reais Beta(a, b) f(x) = 1β(a,b)x a−1(1− x)b−11l[0,1](x) a a+ b ab (a+ b+ 1)(a+ b)2 a, b > 0, reais Quiquadrado χ2(k), k = 1, 2, . . . f(x) = ( 1 2 ) k 2 Γ ( k 2 )x k2−1e−( 12)x 1l(0,∞)(x) k 2k ( 11− 2t ) k 2 , t < 12 t−Student(k) f(x) = Γ ( k+1 2 ) Γ ( k 2 ) 1√ kπ ( 1 + x 2 k ) k+1 2 0 k k − 2 não existe k > 0, real para k > 1 para k > 2 Cauchy (α, β) f(x) = 1 πβ { 1 + ( x−α β )2} não existe não existe exp{iαt− β | t |} α ∈ R, β > 0 α=mediana f. caracteŕıstica Distribuição F (Fisher-Snedecor) f(x) = Γ ( m+n 2 ) Γ ( m 2 ) Γ ( n 2 ) (m n )m 2 × n n− 2 2n2(m+ n− 2) m(n− 2)2(n− 4) não existe F (m,n) m,n = 1, 2, . . . × x (m−2)/2( 1 + mn x )(m+n)/2 1l(0,∞)(x) se n > 2 se n > 4 Pareto (θ, b) f(x) = θ bθ xθ+1 1l(b,∞)(x) θ b θ − 1 θ b2 (θ − 1)2(θ − 2) não existe b > 0, θ > 0 para θ > 1 para θ > 2 T A B E L A S 511 Tabela III — Distribuição Normal Padrão Z � N(0, 1) Corpo da tabela dá a probabilidade p, tal que p = P (0 < Z < Zc) parte in- Segunda decimal de Zc parte in- teira e teira e primeira primeira decimal decimal de Zc 0 1 2 3 4 5 6 7 8 9 de Zc p = 0 0,0 00000 00399 00798 01197 01595 01994 02392 02790 03188 03586 0,0 0,1 03983 04380 04776 05172 05567 05962 06356 06749 07142 07535 0,1 0,2 07926 08317 08706 09095 09483 09871 10257 10642 11026 11409 0,2 0,3 11791 12172 12552 12930 13307 13683 14058 14431 14803 15173 0,3 0,4 15542 15910 16276 16640 17003 17364 17724 18082 18439 18793 0,4 0,5 19146 19497 19847 20194 20540 20884 21226 21566 21904 22240 0,5 0,6 22575 22907 23237 23565 23891 24215 24537 24857 25175 25490 0,6 0,7 25804 26115 26424 26730 27035 27337 27637 27935 28230 28524 0,7 0,8 28814 29103 29389 29673 29955 30234 30511 30785 31057 31327 0,8 0,9 31594 31859 32121 32381 32639 32894 33147 33398 33646 33891 0,9 1,0 34134 34375 34614 34850 35083 35314 35543 35769 35993 36214 1,0 1,1 36433 36650 36864 37076 37286 37493 37698 37900 38100 38298 1,1 1,2 38493 38686 38877 39065 39251 39435 39617 39796 39973 40147 1,2 1,3 40320 40490 40658 40824 40988 41149 41309 41466 41621 41774 1,3 1,4 41924 42073 42220 42364 42507 42647 42786 42922 43056 43189 1,4 1,5 43319 43448 43574 43699 43822 43943 44062 44179 44295 44408 1,5 1,6 44520 44630 44738 44845 44950 45053 45154 45254 45352 45449 1,6 1,7 45543 45637 45728 45818 45907 45994 46080 46164 46246 46327 1,7 1,8 46407 46485 46562 46638 46712 46784 46856 46926 46995 47062 1,8 1,9 47128 47193 47257 47320 47381 47441 47500 47558 47615 47670 1,9 2,0 47725 47778 47831 47882 47932 47982 48030 48077 48124 48169 2,0 2,1 48214 48257 48300 48341 48382 48422 48461 48500 48537 48574 2,1 2,2 48610 48645 48679 48713 48745 48778 48809 48840 48870 48899 2,2 2,3 48928 48956 48983 49010 49036 49061 49086 49111 49134 49158 2,3 2,4 49180 49202 49224 49245 49266 49286 49305 49324 49343 49361 2,4 2,5 49379 49396 49413 49430 49446 49461 49477 49492 49506 49520 2,5 2,6 49534 49547 49560 49573 49585 49598 49609 49621 49632 49643 2,6 2,7 49653 49664 49674 49683 49693 49702 49711 49720 49728 49736 2,7 2,8 49744 49752 49760 49767 49774 49781 49788 49795 49801 49807 2,8 2,9 49813 49819 49825 49831 49836 49841 49846 49851 49856 49861 2,9 3,0 49865 49869 49874 49878 49882 49886 49889 49893 49897 49900 3,0 3,1 49903 49906 49910 49913 49916 49918 49921 49924 49926 49929 3,1 3,2 49931 49934 49936 49938 49940 49942 49944 49946 49948 49950 3,2 3,3 49952 49953 49955 49957 49958 49960 49961 49962 49964 49965 3,3 3,4 49966 49968 49969 49970 49971 49972 49973 49974 49975 49976 3,4 3,5 49977 49978 49978 49979 49980 49981 49981 49982 49983 49983 3,5 3,6 49984 49985 49985 49986 49986 49987 49987 49988 49988 49989 3,6 3,7 49989 49990 49990 49990 49991 49991 49992 49992 49992 49992 3,7 3,8 49993 49993 49993 49994 49994 49994 49994 49995 49995 49995 3,8 3,9 49995 49995 49996 49996 49996 49996 49996 49996 49997 49997 3,9 4,0 49997 49997 49997 49997 49997 49997 49998 49998 49998 49998 4,0 4,5 49999 50000 50000 50000 50000 50000 50000 50000 50000 50000 4,5 p Classificação de variável Tabelas Correlação Probabilidade Espaço de Probabilidade Função de Probabilidade Probabilidade Condicional Partição Teorema da Probabilidade Total Teorema de Bayes Independência Independência Condicional Variável Aleatória Variável Aleatória Discreta Variável Aleatória Contínua Função densidade de probabilidade Função de distribuição Esperança (discreta) Esperança (contínua) Variância (discreta) Variância (contínua) Alguns resultados úteis Funções Indicadoras Modelo de Bernoulli Modelo Uniforme (discreto) Modelo Uniforme (contínuo) Modelo Exponencial (contínuo) Modelo Exponencial (contínuo, variante) Modelo Binomial Aproximação Normal do Modelo Binomial Modelo Hipergeométrico Exemplo: Captura e Recaptura Modelo Poisson Aproximação Poisson da distribuição Binomial Modelo Geométrico Falta de memória Modelo Normal Desigualdade de Chebyshev Distribuição de probabilidade conjunta Função de probabilidade conjunta Distribuições marginais (discreta) Distribuição condicional (discreta) Independência de variáveis aleatórias (discreta) Independência de variáveis aleatórias (contínua) Esperança bivariada (discreta) Esperança bivariada (continua) Esperança de Soma de Variáveis Variância de Soma de Variáveis Covariância Correlação Função distribuição conjunta (contínua) Função densidade de probabilidade conjunta (contínua) Distribuição condicional (contínua) Normal Bivariada Combinação linear de var. aleat. com distr. Normal Inferência e Estimadores Amostra Aleatória Parâmetro Estatística Estimador Estimativa Detalhes sobre Estimadores e Estimativas Viés ou Vício Erro Quadrático Médio Consistência Consistência e Variância Média Amostral Média Amostral de distribuição Normal Distribuição amostral - caso geral Teorema Limite Central Distribuição Amostral da Proporção Principais Distribuições Discretas Contínuas Tabela da Normal Padrão
Compartilhar