Buscar

Resumo de Probabilidade e Estatistica

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 21 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 21 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 21 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Gabriel Queiroz
Notas de Aula de MAE0119
1 Classificação de variável
Variável Qualitativa descreve “não-números” tais como categorias. Subdivisões:
Nominal quando não é ordinal. (ex: cores)
Ordinal quando há alguam relação de ordem entre os valores possíveis. (ex: grau
de escolaridade)
Variável Quantitativa descreve um número. Subdivisões:
Discreta quando não é contínua. (ex: resultado de um dado)
Contínua quando o número é real ou “quase-real”1. (ex: preços)
2 Tabelas
Tabelas de frequência contém as colunas: valor, frequência absoluta (𝑛𝑖), frequên-
cia relativa (𝑓𝑖) e frequência acumulada. Exemplo:
№ de irmãos frequênciaabsoluta (𝑛𝑖)
frequência
relativa (𝑓𝑖)
freq. acumulada
0 18 0,2093 0,2093
1 44 0,5116 0,7209
2 18 0,2093 0,9302
3 1 0,0116 0,9419
4 ou + 5 0,0581 1,0000
total 86 1,0000
Para Histogramas:
𝑆𝑖 = 𝑓𝑖 = ∆𝑖 × ℎ𝑖
preço frequênciarelativa (𝑓𝑖)
comprimento do
intervalo (Δ𝑖)
Densidade de
frequência (𝑑𝑖)
[ 2, 3) 0,10 1 0,100
[ 3, 5) 0,15 2 0,075
[ 5, 10) 0,60 5 0,120
[10, 20) 0,15 10 0,015
total 1,00
Tabelas de contingência contém os rótulos nas colunas e linhas e os valores nas
células interiores. Exemplo:
1Coisas como dinheiro e energia são tecnicamente quantizadas, mas geralmente aproximam-se como
reais.
1
homens mulheres total
Usaram o hospital 100 150 350
Não usaram o hospital 900 850 1750
total 1000 1000 2000
3 Correlação
Definição do coeficiente de correlação linear de Pearson:
Corr(𝑋,𝑌 ) = 1𝑁
𝑛
∑
𝑖=1
(𝑥𝑖 − ̄𝑥dp(𝑋))(
𝑦𝑖 − ̄𝑦
dp(𝑌 ))
Corr(𝑋,𝑌 ) = (
1
𝑁 ∑
𝑛
𝑖=1 𝑥𝑖𝑦𝑖) − ̄𝑥 ̄𝑦
dp(𝑋) dp(𝑌 )
𝐶𝑜𝑟𝑟(𝑋,𝑌 ) = (∑
𝑛
𝑖=1 𝑥𝑖𝑦𝑖) − 𝑛 ̄𝑥 ̄𝑦
√(∑𝑛𝑖=1 𝑥2𝑖 − 𝑛 ̄𝑥2)(∑
𝑛
𝑖=1 𝑦2𝑖 − 𝑛 ̄𝑦2)
Onde dp é o desvio padrão:
dp(𝑋) = √ 1𝑁
𝑛
∑
𝑖=1
(𝑥𝑖 − ̄𝑥)
2
dp(𝑋) =
√√√
⎷
1
𝑁 (
𝑛
∑
𝑖=1
𝑥2𝑖 ) − ̄𝑥2
Para o coeficiente de correlação linear, vale:
−1 ≤ Corr ≤ +1
forte 0,7 < | Corr |
moderada 0,3 < | Corr | < 0,7
fraca | Corr | ≤ 0,3
4 Probabilidade
4.1 Espaço de Probabilidade
Definição: O espaço de probabilidade ou modelo probabilístico associado a um
experimento é dado por (Ω, ℱ, P) com:
Ω = espaço amostral
= conj. de todos os possíveis resultados do experimento
ℱ = 𝜎−álgebra de subconjuntos de
= coleção de eventos de
P = função de probabilidade definida em 𝐹 .
2
4.2 Função de Probabilidade
Definição: Considere um experimento com espaço amostral Ω e uma coleção de
eventos ℱ. A função P definida em ℱ com valores no intervalo [0, 1] (P ∶ ℱ → [0, 1])
é chamada de probabilidade se satisfaz as condições abaixo:
(i) P(Ω) = 1
(ii) ∀𝐴 ∈ ℱ, 0 ≤ P(𝐴) ≤ 1 (ou apenas 0 ≤ P(𝐴))
(iii) ∀(𝐴,𝐵) ∈ ℱ2, 𝐴 ∩ 𝐵 = ∅ ⇒ P(𝐴 ∪ 𝐵) = P(𝐴) + P(𝐵)
A última propriedade é equivalente a: para qualquer sequência de eventos mutua-
mente exclusivos (ou disjuntos) 𝐴1, 𝐴2, … , 𝐴𝑛 ∈ ℱ (isto é, 𝐴1, 𝐴2, … , 𝐴𝑛 ∈ ℱ tais
que 𝐴𝑖 ∩ 𝐴𝑗 = ∅ ∀𝑖 ≠ 𝑗), temos que:
P (
𝑛
⋃
𝑖=1
𝐴𝑖) =
𝑛
∑
𝑖=1
P(𝐴𝑖)
Propriedades:
1. P(∅) = 0
2. P(𝐴∁) = 1 − P(𝐴), ∀𝐴 ∈ ℱ
3. ∀(𝐴,𝐵) ∈ ℱ2, 𝐵 ⊂ 𝐴 ⇒ P(𝐵) ≤ P(𝐴)
4. ∀(𝐴,𝐵) ∈ ℱ2, P(𝐴 ∪ 𝐵) = P(𝐴) + P(𝐵) − P(𝐴 ∩ 𝐵)
5. ∀𝐴𝑖, … ,𝐴𝑛 ∈ ℱ, P(⋃ 𝐴𝑖) ≤ ∑ P(𝐴𝑖)
4.3 Probabilidade Condicional
Definição: Considere (Ω, ℱ, P). Dado o evento 𝐵, com P(𝐵) > 0, a probabilidade
condicional de um evento 𝐴 qualquer dado que o evento 𝐵 ocorreu é definido por:
P(𝐴|𝐵) = P(𝐴 ∩ 𝐵)P(𝐵)
Regra do produto: Para quaisquer eventos A e B temos que
P(𝐴 ∩ 𝐵) = P(𝐴|𝐵) · P(𝐵)(P(𝐵) > 0)
= P(𝐵|𝐴) · P(𝐴)(P(𝐴) > 0)
4.4 Partição
Os eventos 𝐴1, 𝐴2, … , 𝐴𝑚 ∈ ℱ são uma partição se e somente se as intersecções
são nulas e a união é o espaço amostra. Em símbolos:
𝐴𝑖 ∩ 𝐴𝑗 = ∅, ∀𝑖 ≠ 𝑗 e ⋃ 𝐴𝑖 = Ω
3
4.5 Teorema da Probabilidade Total
Considere o espaço de probabilidade (Ω, ℱ, P). Considere o evento 𝐵 e considere
que os eventos 𝐴1, 𝐴2, … , 𝐴𝑚 sejam uma partição do espaço amostral, então:
P(𝐵) = ∑ P(𝐵|𝐴𝑖) P(𝐴𝑖)
Note que esse resultado é uma generalização de
𝑃(𝐵) = 𝑃(𝐵 ∩ 𝐴) + 𝑃(𝐵 ∩ 𝐴∁)
= 𝑃(𝐵|𝐴)𝑃(𝐴) + 𝑃(𝐵|𝐴∁)𝑃 (𝐴∁) (regra do produto)
4.6 Teorema de Bayes
Considere que os eventos {𝐴1, 𝐴2, … , 𝐴𝑚} sejam uma partição do espaço amostral
e considere o evento 𝐵 (com P(𝐵) > 0). Então para 𝑘 fixado, 𝑘 = 1, … , 𝑚,
P(𝐴𝑘|𝐵) =
P(𝐵|𝐴𝑘) · P(𝐴𝑘)
P(𝐵)
= P(𝐵|𝐴𝑘)∑𝑚𝑖=1 P(𝐵|𝐴𝑖) · P(𝐴𝑖)
· P(𝐴𝑘)
Considerando o caso particular da partição {𝐴, 𝐴∁} o teorema de Bayes fica:
P(𝐴|𝐵) = P(𝐵|𝐴)P(𝐵) P(𝐴)
Esse resultado fornece uma maneira de atualizar a probabilidade do evento 𝐴 quando
se tem a informação sobre o evento 𝐵. Essa atualização pode ser iterativa/recorrente,
por exemplo, a 1ª informação dada é 𝐵1 (fórmula acima) então com a segunda infor-
mação 𝐵2 tem-se que:
𝑃(𝐴|𝐵1 ∩ 𝐵2) = P(𝐵2|𝐴 ∩ 𝐵1)𝑃 (𝐵2|𝐵1)
𝑃 (𝐴|𝐵1)
4.7 Independência
Definição: Dizemos que 𝐴 e 𝐵 são eventos (estatisticamente ou estocasticamente)
independentes se e somente se:
P(𝐴 ∩ 𝐵) = P(𝐴) P(𝐵)
Implicações: Se 𝐴 e 𝐵 são independentes, então:
1. 𝐴 e 𝐵∁ são independentes;
2. 𝐴∁ e 𝐵 são independentes;
3. 𝐴∁ e 𝐵∁ são independentes.
Definição: Dizemos que os eventos 𝐴𝑖, … ,𝐴𝑛 são conjuntamente independentes se
e somente se:
P (⋂ 𝐴𝑖) = ∏ P(𝐴𝑖)
4
4.8 Independência Condicional
Definição: Dizemos que os eventos 𝐴 e 𝐶 são condicionalmente independentes
dado o evento 𝐵 se
P(𝐴 ∩ 𝐶|𝐵) = {𝑃(𝐴|𝐵) · 𝑃 (𝐶|𝐵) se 𝑃(𝐵) > 0𝑃(𝐴 ∩ 𝐶) se P(𝐵) = 0
4.9 Variável Aleatória
Definição: uma variável aleatória 𝑌 é uma função real definida em Ω, em símbolos:
𝑌 ∶ Ω → R
4.9.1 Variável Aleatória Discreta
A variável aleatória 𝑌 é dita ser discreta se ela assume valores em algum subconjunto
enumerável {𝑦1, 𝑦2, …} de R. E definimos sua função (discreta) de probabilidade
por:
𝑝(𝑦) = 𝑃(𝑌 = 𝑦) = {0 se 𝑦 ∉ {𝑦1, 𝑦2, …}𝑝(𝑦𝑖) se 𝑦 = 𝑦𝑖, 𝑖 = 1, 2, …
A função de probabilidade também é denominada distribuição de probabilidade,
ou simplesmente distribuição.
Note que a distribuição de probabilidade deve satisfazer:
1. 0 ≤ 𝑝(𝑦𝑖) ≤ 1, ∀𝑦𝑖 ∈ {𝑦1, 𝑦2, ...}
2. ∑∞𝑖=1 𝑝(𝑦𝑖) = 1
Ao tratarmos de uma variável aleatória discreta Y é essencial
1. especificar o suporte da variável aleatória, isto é, quais são os valores 𝑦𝑖 que a
variável aleatória assume.
2. atribuir uma probabilidade 𝑝(𝑦𝑖) = P(𝑌 = 𝑦𝑖) para cada valor que a variável
aleatória assume.
3. verificar se ∑ 𝑝(𝑦𝑖) = 1.
4.9.2 Variável Aleatória Contínua
A variável aleatória 𝑌 é dita ser contínua se sua função de distribuição (acumulada)
𝐹𝑌 é (absolutamente) contínua e pode ser expressa como:
P(𝑌 ≤ 𝑦) = 𝐹𝑌 (𝑦) = ∫
𝑦
−∞
𝑓(𝑢) d𝑢 , 𝑦 ∈ R
para alguma função integrável 𝑓 ∶ R → [0, ∞).
5
4.9.3 Função densidade de probabilidade
A função 𝑓 é chamada função densidade de probabilidade (f.d.p.) da variável aleatória
contínua 𝑌 e possui as seguintes propriedades:
1. 𝑓(𝑦) ≥ 0, ∀𝑦 ∈ R
2. ∫
+∞
−∞
𝑓(𝑢) d𝑢 = 1
4.9.4 Função de distribuição
Distribuição: Se 𝑌 é uma variável aleatória qualquer (discreta ou contínua) em
(, ℱ, 𝑃 ), sua função de distribuição (acumulada) é definida por:
𝐹𝑌 (𝑦) = P(𝑌 ≤ 𝑦) para todo 𝑦 ∈ R
Observações:
1. 𝐹𝑌 ∶ R → [0, 1]
2. A variável aleatória 𝑌 pode assumir valores num subconjunto de R, mas sua
função de distribuição 𝐹𝑌 é definida em toda a reta Conhecer 𝐹𝑌 para todo
𝑦 ∈ R permite obter qualquer informação sobre a variável aleatória 𝑌 — “𝐹𝑌
determina ou caracteriza a variável aleatória 𝑌 ”
3. Para 𝑌 discreta:
𝐹𝑌 (𝑦) = ∑
𝑖∶𝑦𝑖≤𝑦
𝑝(𝑦𝑖)
Propriedades:
1. lim
𝑦→−∞
𝐹(𝑦) = 0 e lim
𝑦→+∞
𝐹(𝑦) = 1
2. 𝐹 é não decrescente, ou seja: 𝑎 ≤ 𝑏 ⇒ 𝐹(𝑎) ≤ 𝐹(𝑏)
3. 𝐹 é contínua à direita lim
ℎ→0
𝐹(𝑦 + ℎ) ≜ 𝐹(𝑦+) = 𝐹(𝑦) e tem (existe) limite à
esquerda lim
ℎ→0
𝐹(𝑦 − ℎ) ≜ 𝐹(𝑦−) para todo 𝑦 ∈ R.
Proposição: A variável aleatória 𝑌 é caracterizada por sua função de distribuição
𝐹 através de:
1. P(𝑌 > 𝑦) = 1 − 𝐹(𝑦)
2. P(𝑎 < 𝑌 ≤ 𝑏) = 𝐹(𝑏) − 𝐹(𝑎)
3. P(𝑌 = 𝑦) = 𝐹(𝑦) − 𝐹(𝑦−)
Particularidade: Para toda variável aleatória discreta afunção de distribuição tem
forma de escada com pontos de descontinuidade em forma de salto. Pela proposição
(caracterização):
𝑝(𝑦) = 𝐹(𝑦) − 𝐹(𝑦−) = {𝐹(𝑦𝑖) − 𝐹(𝑦
−
𝑖 ) para 𝑦 ∈ {𝑦1, 𝑦2, …}
0 para 𝑦 ∉ {𝑦1, 𝑦2, …}
Portanto, os pontos de salto são exatamente os pontos em que a variável discreta 𝑌
assume valores, e o tamanho do salto em 𝑦𝑘 equivale à probabilidade 𝑝(𝑦𝑘).
6
4.10 Esperança (discreta)
Definição: A média ou valor médio ou esperança matemática de uma variável
aleatória discreta 𝑋, que assume os valores 𝑥1, 𝑥2, … , 𝑥𝑘, é definida por
E(𝑋) ≜
𝑘
∑
𝑖=1
𝑥𝑖𝑃(𝑋 = 𝑥𝑖) =
𝑘
∑
𝑖=1
𝑥𝑖𝑝(𝑥𝑖)
E[ℎ(𝑋)] = ∑
𝑖
ℎ(𝑥𝑖)𝑝(𝑥𝑖)
Note que:
E(𝑎𝑋 + 𝑏) = 𝑎 E(𝑋) + 𝑏
4.11 Esperança (contínua)
E(𝑋) ≜ ∫
+∞
−∞
𝑦𝑓(𝑥) d𝑥
E[𝑔(𝑋)] = ∫
+∞
−∞
𝑔(𝑥)𝑓(𝑥) d𝑥
E(𝑋) = ∫
+∞
0
[1 − 𝐹𝑋(𝑥)] d𝑥 − ∫
0
−∞
𝐹𝑋(𝑥) d𝑥
onde 𝑓 é a f.d.p. de 𝑋.
Note que:
E(𝑎𝑋 + 𝑏) = 𝑎 E(𝑋) + 𝑏
Caso 𝑋 seja não-negativa, vale:
E(𝑋) = ∫
+∞
0
P(𝑋 ≥ 𝑢) d𝑢 = ∫
+∞
0
[1 − 𝐹(𝑢)] d𝑢
4.12 Variância (discreta)
Definição: A variância de uma variável aleatória discreta 𝑋, que assume os valores
𝑥1, 𝑥2, … , 𝑥𝑘, é definida por
Var(𝑋) ≜ E [(𝑋 − 𝐸(𝑋))2]
= ∑(𝑥𝑖 − E(𝑋))2𝑝(𝑥𝑖)
= E(𝑌 2) − E(𝑌 )2
= ∑
𝑖
𝑦2𝑖 𝑝(𝑦𝑖) − (E(𝑌 ))2
Propriedades:
1. dp(𝑋) = √Var(𝑋)
2. Var(𝑎𝑋 + 𝑏) = 𝑎2 Var(𝑋)
7
4.13 Variância (contínua)
Definição: A variância de uma variável aleatória contínua 𝑋 é dada por:
Var(𝑋) ≜ E [(𝑋 − 𝐸(𝑋))2]
= E(𝑌 2) − E(𝑌 )2
Propriedades:
1. dp(𝑋) = √Var(𝑋)
2. Var(𝑎𝑋 + 𝑏) = 𝑎2 Var(𝑋)
4.14 Alguns resultados úteis
Binômio de Newton
(𝑎 + 𝑏)𝑚 =
𝑚
∑
𝑘=0
(𝑚𝑘 )𝑎
𝑘𝑏𝑚−𝑘
Desenvolvimento em série de Taylor (ou polinômio de Taylor) da função 𝑒𝑥:
𝑒𝑥 =
∞
∑
𝑘=0
𝑥𝑘
𝑘!
Outra expressão para 𝑒𝑥
𝑒𝑥 = lim
𝑛→∞
(1 + 𝑥𝑛)
𝑛
4.15 Funções Indicadoras
Seja 𝐴 um conjunto qualquer, definimos por função indicadora do conjunto 𝐴, a
função:
𝟙𝐴(𝑥) = {
0 se 𝑥 ∉ 𝐴
1 se 𝑥 ∈ 𝐴
Note que 𝟙𝐴∁(𝑥) = 1 − 𝟙𝐴(𝑥)
Dica: pense na função indicadora como uma função “discretizadora” que serve para
“remover” a continuidade de algumas definições.
4.16 Modelo de Bernoulli
Notação: 𝑌 ∼ Bernoulli(𝑝)
𝑝(𝑘) = P(𝑌 = 𝑘) = 𝑝𝑘(1 − 𝑝)1−𝑘𝟙{0,1}(𝑘)
Onde 𝑝 é a probabilidade de sucesso.
E[𝑌 ] = 𝑝 Var[𝑌 ] = 𝑝(1 − 𝑝)
4.17 Modelo Uniforme (discreto)
Notação: 𝑌 ∼ Uniforme{𝑦1,𝑦2, … ,𝑦𝐾}
𝑝(𝑦) = P(𝑌 = 𝑦) = 1𝐾 𝟙{𝑦1,𝑦2,…,𝑦𝐾}(𝑦)
8
4.18 Modelo Uniforme (contínuo)
Notação: 𝑌 ∼ Uniforme(𝑎,𝑏)
𝑓(𝑦) = 1𝑏 − 𝑎 𝟙[𝑎,𝑏](𝑦)
E[𝑌 ] = 𝑎 + 𝑏2 Var[𝑌 ] =
(𝑏 − 𝑎)2
12
4.19 Modelo Exponencial (contínuo)
O parâmetro 𝜆 é chamado de taxa e 𝜆 > 0.
Notação: 𝑌 ∼ Exponencial(𝜆)
𝑓(𝑦) = 𝜆𝑒−𝜆𝑦 𝟙(0,∞)(𝑦)
E[𝑌 ] = 1𝜆 Var[𝑌 ] =
1
𝜆2
4.20 Modelo Exponencial (contínuo, variante)
O parâmetro 𝛽 é chamado de média e 𝛽 = 1/𝜆.
Notação: 𝑋 ∼ Exponencial(𝛽)
𝑓(𝑥) = 1𝛽𝑒
− 1𝛽 𝑥𝑦 𝟙(0,∞)(𝑦)
E[𝑋] = 𝛽 Var[𝑋] = 𝛽2
4.21 Modelo Binomial
Modela 𝑛 ensaios de Bernoulli independentes com mesma probabilidade de sucesso
em cada ensaio.
Notação: 𝑌 ∼ Binomial(𝑛, 𝑝)
𝑝(𝑘) = P(𝑌 = 𝑘) = (𝑛𝑘)𝑝
𝑘(1 − 𝑝)𝑛−𝑘𝟙{0,1,2,…,𝑛}(𝑦)
E[𝑌 ] = 𝑛𝑝 Var[𝑌 ] = 𝑛𝑝(1 − 𝑝)
4.21.1 Aproximação Normal do Modelo Binomial
Caso 𝑛 seja grande podemos aproximar 𝑋 ∼ Binomial(𝑛, 𝑝) com 𝑌 ∼ Normal(𝑛𝑝, 𝑛𝑝(1−
𝑝))
Lembrar de fazer a correção de continuidade:
P(𝑋 < 𝑥0) ≈ P(𝑌 < 𝑥0 − 0,5)
P(𝑋 > 𝑥0) ≈ P(𝑌 > 𝑥0 + 0,5)
9
4.22 Modelo Hipergeométrico
Considere uma população com 𝑁 elementos dos quais 𝑟 tem uma característica
especial.
Seleciona-se 𝑛 elementos da população sem reposição e 𝑌 é o número de elementos
com a característica especial nessa amostra.
Notação: 𝑌 ∼ Hipergeométrico(𝑁, 𝑟, 𝑛)
P(𝑌 = 𝑘) =
(𝑟𝑘)(
𝑁 − 𝑟
𝑛 − 𝑘)
(𝑁𝑛 )
para 𝑘 = max {0, 𝑛 − 𝑁 + 𝑟}, … , min {𝑟, 𝑛}
Note que aqui os ensaios de Bernoulli são dependentes.
E[𝑌 ] = 𝑛 𝑟𝑁 = 𝑛𝑝 Var[𝑌 ] ≈ 𝑛𝑝(1 − 𝑝)(1 −
𝑛
𝑁 )
4.22.1 Exemplo: Captura e Recaptura
População: tamanho 𝑁 desconhecido. Captura: tamanho 𝑟 e marca todos. Por-
tanto, sabe-se que 𝑟 são marcados entre o 𝑁 desconhecidos.
Recaptura: tamanho 𝑛. Entre os 𝑛 selecionados, observa-se 𝑘 marcados A variá-
vel 𝑌 que representa o número de marcados entre os n selecionados tem distribuição
geométirca2 com parâmetros 𝑁 , 𝑟, 𝑛.
Na amostra de recaptura observamos 𝑘, então ”igualando-se”a proporção de marca-
dos na população com a proporção de marcados na amostra
𝑟
𝑁 ≈
𝑘
𝑛
Portanto, uma estimativa de 𝑁 é dada por
𝑁 = 𝑟𝑛𝑘
4.23 Modelo Poisson
Seja 𝜆 a taxa de ocorrência de um evento em um tempo (ou comprimento, área ou
volume) fixado, 𝜆 > 0.
Seja 𝑌 o número de ocorrências do evento nesse “intervalo” de tempo (ou compri-
mento, área ou volume) fixado.
Notação: 𝑌 ∼ Poisson(𝜆)
P(𝑌 = 𝑘) = 𝑒−𝜆 𝜆
𝑘
𝑘! 𝟙{0,1,2,…}(𝑘)
E[𝑌 ] = 𝜆 Var[𝑌 ] = 𝜆
4.23.1 Aproximação Poisson da distribuição Binomial
Caso 𝑛 seja grande e 𝑝 pequeno, podemos aproximar 𝑌 ∼ Binomial(𝑛, 𝑝) com
𝑌 ∼ Poisson(𝜆) onde 𝜆 = 𝑛𝑝.
2Isso não foi um erro de digitação e sim, a caputa-recaptura é hipergeométrica.
10
4.24 Modelo Geométrico
Considere uma sequência enumerável de ensaios de Bernoulli independentes e com
mesma probabilidade 𝑝 de sucesso em cada ensaio.
A variável 𝑌 que representa o número de ensaios até obter (inclusive) o primeiro
sucesso é dita ser geométrica e sua f.d.p. é dada por
Notação: 𝑌 ∼ Geométrica(𝑝)
𝑝(𝑘) = P(𝑌 = 𝑘) = (1 − 𝑝)𝑘−1𝑝 𝟙{0,1,2,…}(𝑘)
E[𝑌 ] = 1𝑝 Var[𝑌 ] =
1 − 𝑝
𝑝2
Há também uma variante que é o número de fracassos até o primeiro sucesso:
(𝑌 = 𝑋 + 1)
𝑝(𝑘) = P(𝑌 = 𝑘) = (1 − 𝑝)𝑘𝑝 𝟙{0,1,2,…}(𝑘)
E[𝑌 ] = 1 − 𝑝𝑝 Var[𝑌 ] =
1 − 𝑝
𝑝2
4.25 Falta de memória
Dizemos que uma variável aleatória Y tem a propriedade de falta de memória se
P(𝑌 > 𝑠 + 𝑡 | 𝑌 > 𝑠) = 𝑃(𝑌 > 𝑡) ∀𝑠, 𝑡 > 0
A única distribuição contítnua existente é a exponencial.
4.26 Modelo Normal
Dizemos que a v.a. 𝑌 tem distribuição Normal com parâmetros 𝜇 e 𝜎2, 𝜇 ∈ R e
𝜎 > 0, se sua função densidade de probabilidade (f.d.p.) é dada por
Notação: 𝑌 ∼ Normal(𝜇, 𝜎2)
𝑓(𝑦) = exp {−12(
𝑦 − 𝜇
𝜎 )
2
} 1√2𝜋
Observações:
1. 𝜇 é ponto de máximo, ponto central, medida de posição (mediana e média).
2. 𝜎 mede dispersão. Na verdade, 𝜎2 = Var(𝑌 ).
Dizemos que a v.a. Z tem distribuição Normal padrão se E(𝑍) = 0 e Var(𝑍) = 1.
Neste caso sua f.d.p. é dada por
𝑓(𝑧) = 1√2𝜋 exp {−
1
2𝑧
2}
Relação entre 𝑌 e 𝑍: Sejam 𝑌 ∼ Normal(𝜇, 𝜎2) e 𝑍 ∼ Normal(0, 1), então:
𝑍 = 𝑌 − 𝜇𝜎 e 𝑌 = 𝜇 + 𝜎𝑍
11
4.27 Desigualdade de Chebyshev
Considere a variável aleatória 𝑋 com média E(𝑋) = 𝜇𝑋 e Var(𝑋) < +∞, então
para todo 𝑎 > 0,
P(|𝑋 − 𝜇𝑋| > 𝑎) ≤
Var(𝑋)
𝑎2
4.28 Distribuição de probabilidade conjunta
Exemplo de tabela:
𝑦\𝑥 0 1 2 3 𝑝(𝑦)
0 1/8 2/8 1/8 0 1/2
1 0 1/8 2/8 1/8 1/2
𝑝(𝑥) 1/8 3/8 3/8 1/8 1
4.29 Função de probabilidade conjunta
Sejam 𝑋 e 𝑌 v.a. discretas assumindo valores em 𝒟𝑋 = {𝑥1, 𝑥2, …} e 𝒟𝑌 =
{𝑦1, 𝑦2, …}, respectivamente, então a função (ou distribuição) de probabilidade conjunta
de (𝑋, 𝑌 ) é:
P(𝑋 = 𝑥, 𝑌 = 𝑦) para 𝑥 ∈ 𝒟𝑋, 𝑦 ∈ 𝒟𝑌
satisfazendo:
1. P(𝑋 = 𝑥, 𝑌 = 𝑦) ≥ 0 para todo 𝑥 ∈ 𝒟𝑋, 𝑦 ∈ 𝒟𝑌
2. ∑
𝑥∈𝒟𝑋
∑
𝑦∈𝒟𝑌
P(𝑋 = 𝑥, 𝑌 = 𝑦) = 1
4.30 Distribuições marginais (discreta)
As funções de probabilidade (marginais) de 𝑋 e de 𝑌 são obtidas a partir de
P(𝑋 = 𝑥) = ∑
𝑦∈𝒟𝑌
P(𝑋 = 𝑥, 𝑌 = 𝑦)
P(𝑌 = 𝑦) = ∑
𝑥∈𝒟𝑋
P(𝑋 = 𝑥, 𝑌 = 𝑦)
4.31 Distribuição condicional (discreta)
A distribuição de probabilidade condicional de 𝑌 dado que 𝑋 = 𝑥0, para 𝑥0 ∈ 𝒟𝑋,
é dada por:
P(𝑌 = 𝑦|𝑋 = 𝑥0) =
P(𝑋 = 𝑥0, 𝑌 = 𝑦)
P(𝑋 = 𝑥0)
para 𝑦 ∈ 𝒟𝑌 e para qualquer 𝑥0 fixado, tal que P(𝑋 = 𝑥0) > 0.
4.32 Independência de variáveis aleatórias (discreta)
Duas variáveis aleatórias discretas 𝑋 e 𝑌 são independentes se e somente se
P(𝑋 = 𝑥, 𝑌 = 𝑦) = P(𝑋 = 𝑥) ⋅ P(𝑌 = 𝑦)
para todo 𝑥 ∈ 𝒟𝑋, 𝑦 ∈ 𝒟𝑌 .
12
4.33 Independênciade variáveis aleatórias (contínua)
Duas variáveis aleatórias contínuas 𝑋 e 𝑌 são independentes se e somente se:
𝑓𝑋,𝑌 (𝑥, 𝑦) = 𝑓𝑋(𝑥) · 𝑓𝑌 (𝑦)
para todo 𝑥 ∈ R, 𝑦 ∈ R.
4.34 Esperança bivariada (discreta)
Seja 𝑔(·, ·) uma função real bivariada e (𝑋, 𝑌 ) variáveis aleatórias com distribuição
conjunta, então:
E[𝑔(𝑋, 𝑌 )] = ∑
𝑥
∑
𝑦
𝑔(𝑥, 𝑦) P(𝑋 = 𝑥, 𝑌 = 𝑦)
E[𝑋𝑌 ] = ∑
𝑥
∑
𝑦
𝑥𝑦 P(𝑋 = 𝑥, 𝑌 = 𝑦)
E(𝑋 + 𝑌 ) = E(𝑋) + E(𝑌 )
Var(𝑋 + 𝑌 ) = Var(𝑋) + Var(𝑌 ) + 2 Cov(𝑋, 𝑌 )
4.35 Esperança bivariada (continua)
Seja 𝑔(·, ·) uma função real bivariada e (𝑋, 𝑌 ) variáveis aleatórias com função den-
sidade de probabilidade conjunta, então:
E(𝑔(𝑋, 𝑌 )) = ∫
R
∫
R
𝑔(𝑥, 𝑦)𝑓𝑋,𝑌 (𝑥, 𝑦) d𝑥 d𝑦
4.36 Esperança de Soma de Variáveis
E(𝑋1 + 𝑋2 + … + 𝑋𝑚) = E(𝑋1) + E(𝑋2) + … + E(𝑋𝑚)
4.37 Variância de Soma de Variáveis
Var(𝑋1 + … + 𝑋𝑚) =
𝑚
∑
𝑖=1
Var(𝑋𝑖) +
𝑚
∑
𝑖=1
𝑚
∑
𝑖≠𝑗=1
Cov(𝑋𝑖, 𝑋𝑗)
4.38 Covariância
Cov(𝑋, 𝑌 ) = E[(𝑋 − E(𝑋)) · (𝑌 − E(𝑌 ))]
Cov(𝑋, 𝑌 ) = E[𝑋𝑌 ] − E[𝑋] · E[𝑌 ]
Se 𝑋 e 𝑌 são independentes, Cov(𝑋,𝑌 ) = 0. Entretanto, a recíproca não é
garantida.
13
4.39 Correlação
Corr(𝑋, 𝑌 ) = 𝜌(𝑋, 𝑌 ) = Cov(𝑋, 𝑌 )√Var(𝑋) Var(𝑌 )
4.40 Função distribuição conjunta (contínua)
A função distribuição (acumulada) conjunta de 𝑋 e 𝑌 é a função 𝐹𝑋,𝑌 ∶ R2 → [0, 1]
definida por:
𝐹𝑋,𝑌 (𝑥, 𝑦) = 𝐹(𝑥, 𝑦) = P(𝑋 ≤ 𝑥, 𝑌 ≤ 𝑦), ∀𝑥, 𝑦 ∈ R
Isto é, para todo 𝑥 e 𝑦 reais,
𝐹𝑋,𝑌 (𝑥, 𝑦) = ∑
𝑢≤𝑥
∑
𝑣≤𝑦
P(𝑋 = 𝑢, 𝑌 = 𝑣) Para variáveis discretas
𝐹𝑋,𝑌 (𝑥, 𝑦) = ∫
𝑦
−∞
∫
𝑥
−∞
𝑓𝑋,𝑌 (𝑢, 𝑣) d𝑢 d𝑣 Para variáveis contínuas
4.41 Função densidade de probabilidade conjunta (contí-
nua)
A função 𝑓𝑋,𝑌 (𝑥, 𝑦) é a função densidade de probabilidade (f.d.p.) conjunta de 𝑋
e 𝑌 , e para todo 𝑥 e 𝑦 reais,
𝑓𝑋,𝑌 (𝑥, 𝑦) = 𝑓(𝑥, 𝑦) =
𝜕2
𝜕𝑥𝜕𝑦𝐹(𝑥, 𝑦) =
𝜕2
𝜕𝑦𝜕𝑥𝐹(𝑥, 𝑦)
4.42 Distribuição condicional (contínua)
A função densidade de probabilidade condicional de 𝑌 dado 𝑋 = 𝑥0 é dada por
𝑓𝑌 |𝑋(𝑦|𝑥0) =
𝑓𝑋,𝑌 (𝑥0, 𝑦)
𝑓𝑋(𝑥0)
, 𝑦 ∈ R
para qualquer 𝑥0 fixado tal que 𝑓𝑋(𝑥0) > 0.
4.43 Normal Bivariada
Dizemos que (𝑋, 𝑌 ) tem distribuição normal bivariada se a função densidade de
probabilidade conjunta é dada por: (para −∞ < 𝑥, 𝑦 < ∞),
𝑓(𝑥, 𝑦) = 12𝜋𝜎𝑋𝜎𝑌
×
exp { −12(1 − 𝜌2)[(
𝑥 − 𝜇𝑋
𝜎𝑋
)
2
+ (𝑦 − 𝜇𝑌𝜎𝑌
)
2
− 2𝜌(𝑥 − 𝜇𝑋𝜎𝑋
)(𝑦 − 𝜇𝑌𝜎𝑌
)]}
onde 𝜇𝑋 = E(𝑋), 𝜎2𝑋 = Var(𝑋), 𝜇𝑌 = E(𝑌 ), 𝜎2𝑌 = Var(𝑌 ) e 𝜌 = 𝜌(𝑋, 𝑌 ) =
coeficiente de correlação entre (𝑋, 𝑌 ).
14
Distribuições marginais:
𝑋 ∼ 𝑁(𝜇𝑋, 𝜎2𝑋) e 𝑌 ∼ 𝑁(𝜇𝑌 , 𝜎2𝑌 )
Distribuições condicionais:
𝑋|𝑌 = 𝑦0 ∼ 𝑁(𝜇𝑋 + 𝜌
𝜎𝑋
𝜎𝑌
(𝑦0 − 𝜇𝑌 ), 𝜎2𝑋(1 − 𝜌2))
𝑌 |𝑋 = 𝑥0 ∼ 𝑁(𝜇𝑌 + 𝜌
𝜎𝑌
𝜎𝑋
(𝑥0 − 𝜇𝑋), 𝜎2𝑌 (1 − 𝜌2))
4.44 Combinação linear de var. aleat. com distr. Nor-
mal
Sejam 𝑋 ∼ Normal(𝜇𝑋, 𝜎2𝑋) e 𝑌 ∼ Normal(𝜇𝑌 , 𝜎2𝑌 ) com Cov(𝑋, 𝑌 ) = 𝜌𝜎𝑋𝜎𝑌 ,
então para 𝑎, 𝑏 e 𝑐 constantes reais,
𝑎𝑋 + 𝑏𝑌 + 𝑐 ∼ Normal(𝑎𝜇𝑋 + 𝑏𝜇𝑌 + 𝑐, 𝑎2𝜎2𝑋 + 𝑏2𝜎2𝑌 + 2𝑎𝑏𝜌𝜎𝑋𝜎𝑌 )
Sejam 𝑋 ∼ Normal(𝜇𝑋, 𝜎2𝑋) e 𝑌 ∼ Normal(𝜇𝑌 , 𝜎2𝑌 ) independentes, então para 𝑎,
𝑏 e 𝑐 constantes reais,
𝑎𝑋 + 𝑏𝑌 + 𝑐 ∼ Normal(𝑎𝜇𝑋 + 𝑏𝜇𝑌 + 𝑐, 𝑎2𝜎2𝑋 + 𝑏2𝜎2𝑌 )
Sejam 𝑋1, 𝑋2, … , 𝑋𝑘 variáveis aleatórias independentes tais que 𝑋𝑖 ∼ Normal(𝜇𝑖, 𝜎2𝑖 )
para 𝑖 = 1, … , 𝑘, então
𝑋1 + 𝑋2 + … + 𝑋𝑘 ∼ Normal(𝜇1 + … + 𝜇𝑘, 𝜎21 + … + 𝜎2𝑘)
5 Inferência e Estimadores
Convenção:
Variável unidimensional Letra maiúscula. Ex: 𝑋, 𝑌 , 𝑍
Valor observado Letra minúscula. Ex: 𝑥, 𝑦, 𝑧
Caso multivariado Negrito ou til. Ex: X = (𝑋1, 𝑋2, … , 𝑋𝑛), x = (𝑥1, 𝑥2, … , 𝑥𝑛), 𝑦̃
População X Amostra (𝑋1, … , 𝑋𝑛)
Característica Parâmetro Estimador
média E(𝑋) = 𝜇 𝑋 = 1𝑛 ∑ 𝑋𝑖
variância Var(𝑋) = 𝜎2 �̂�2 = 1𝑛 ∑(𝑋𝑖 − 𝑋)2
𝑆2 = 1𝑛−1 ∑(𝑋𝑖 − 𝑋)2
proporção 𝑝 ̂𝑝
máximo valor máx. de X 𝑋(𝑛) = máx{𝑋1, 𝑋2, … ,𝑋𝑛}
mínimo valor mín. de X 𝑋(1) = mín{𝑋1, 𝑋2, … ,𝑋𝑛}
distrib. probab. f.d.p. 𝑝𝑋 ou 𝑓𝑋 gráf. barras ou histograma
Função de distr. 𝐹𝑋(·) função de dist. empírica
𝐹𝑒(𝑢) = 1𝑛 ∑ 𝟙(−∞,𝑢](𝑋𝑖)
15
5.1 Amostra Aleatória
Definição: Dizemos que (𝑋1, … , 𝑋𝑛) é uma amostra aleatória de 𝑋 se 𝑋1, 𝑋2, … , 𝑋𝑛
são independentes e todas têm a mesma distribuição de probabilidade de 𝑋.
Exemplo: média 𝜇, variância 𝜎2, proporção 𝑝, genericamente 𝜃 (representados por
letras gregas)
5.2 Parâmetro
Definição: Um parâmetro é uma quantidade 𝜃 cujo valor é desconhecido e sobre o
qual (ou os quais) temos interesse. (𝜃 pode ser unidimensional ou multidimensional)
5.3 Estatística
Definição: Uma estatística 𝑇 (𝑋1, … , 𝑋𝑛) = 𝑇 (X) é qualquer função da amostra
aleatória X = (𝑋1, 𝑋2, … , 𝑋𝑛) que não depende do parâmetro.
5.4 Estimador
Definição: Um estimador 𝑇 = 𝑇 (𝑋1, 𝑋2, … , 𝑋𝑛) é qualquer função da amostra
(𝑋1, 𝑋2, … , 𝑋𝑛) que nos permita estimar o parâmetro de interesse 𝜃.
Exemplo: média amostral ̂𝜇 ou �̄�, variância �̂�2 ou 𝑆2, proporção ̂𝑝, genericamente
utilizamos a notação “ chapéu” ̂𝜃.
5.5 Estimativa
Definição: Estimativa é o valor numérico do estimador para uma amostra observada
(𝑋1, 𝑋2, … , 𝑋𝑛), isto é, 𝑡 = 𝑇 (𝑋1, 𝑋2, … , 𝑋𝑛).
5.6 Detalhes sobre Estimadores e Estimativas
• Só faz sentido estimar um parâmetro se ele for uma quantidade desconhecida na
população.
• Como um estimador é função da amostra aleatória, então todo estimador é uma
variável aleatória.
• Uma estimativa corresponde a um dos possíveis valores numéricos que o estimador
(como variável aleatória) pode assumir.
5.7 Viés ou Vício
Dizemos que um estimador 𝑇 (𝑋1, 𝑋2, … , 𝑋𝑛) é não-viesado ou não-viciado para 𝜃
se E(𝑇 ) = 𝜃.
Se E(𝑇 ) ≠ 𝜃 então dizemos que o estimador é viesado para 𝜃 e denominamos
𝑏𝜃(𝑇 ) = E(𝑇 ) − 𝜃 de viés ou vício de 𝑇 .
16
5.8 Erro Quadrático Médio
Definição: O erro quadrático médio EQM do estimador 𝑇 para o parâmetro 𝜃 é
definido por
EQM(𝑇 ; 𝜃) ≜ E[(𝑇 − 𝜃)2]
= Var(𝑇 ) + [E(𝑇 ) − 𝜃]2
= Var(𝑇 ) + (𝑏𝜃(𝑇 ))2
5.9 Consistência
Definição: Dizemos que a sequência de estimadores {𝑇𝑛 = 𝑇 (𝑋1, 𝑋2, … , 𝑋𝑛)} é
consistente para 𝜃 se para todo 𝜀 > 0
lim
𝑛→∞
P(|𝑇𝑛 − 𝜃| > 𝜀) = 0
Critério para consistência: Se {𝑇 𝑛} é assintóticamente não-viesado para 𝜃, isto
é:
lim
𝑛→∞
𝑏𝜃(𝑇𝑛) = lim𝑛→∞ E(𝑇𝑛) − 𝜃 = 0
e se lim
𝑛→∞
Var(𝑇𝑛) = 0
então {𝑇𝑛} é consistente para 𝜃.
5.10 Consistência e Variância
Usamos 𝑆2 como estimador da variância porque �̂�2 é enviesado (E[�̂�2] = 𝑛−1𝑛 𝜎2)
ao contrário de 𝑆2 (E[𝑆2] = 𝜎2).
�̂�2 = 1𝑛 ∑(𝑋𝑖 − 𝑋)
2
𝑆2 = 1𝑛 − 1 ∑(𝑋𝑖 − 𝑋)
2
5.11 Média Amostral
E[𝑋𝑛] = E [
𝑋1 + … + 𝑋𝑛
𝑛 ] = E[𝑋] = 𝜇
Var[𝑋𝑛] = Var [
𝑋1 + … + 𝑋𝑛
𝑛 ] =
Var[𝑋]
𝑛 =
𝜎
𝑛
5.12 Média Amostral de distribuição Normal
Seja (𝑋1 + … + 𝑋𝑛) uma amostra aleatória de 𝑋 ∼ Normal(𝜇, 𝜎2). Então a média
amostral 𝑋𝑛 tem distribuição Normal exata para todo 𝑛, isto é,
𝑋 ∼ Normal(𝜇, 𝜎2) ⇒ 𝑋𝑛 ∼ Normal(𝜇,
𝜎2
𝑛 )
17
5.13 Distribuição amostral - caso geral
Para obter a distribuição amostral de um estimador qualquer, temos que tomar todas
as possíveis amostras de tamanho 𝑛 dos elementos da população, calcular as respectivas
estimativas e fazer o histograma com todas as possíveis estimativas.
5.14 Teorema Limite Central
Seja (𝑋1, 𝑋2, … , 𝑋𝑛) uma amostra aleatória de 𝑋 uma variável aleatória (na popu-
lação) com qualquer distribuição de média = E(𝑋) e variância 𝜎2 = Var(𝑋), 𝜎 > 0.
Então, para 𝑛 grande, a média amostral 𝑋𝑛 padronizada tem distribuição aproximada-
mente Normal(0, 1), isto é,
𝑋𝑛 − 𝜇
√𝜎2/𝑛
≈ N(0, 1)
Abuso de linguagem:
𝑋𝑛 ≈ N(𝜇, 𝜎2/𝑛) para 𝑛 grande
5.15 Distribuição Amostral da Proporção
Seja (𝑋1, 𝑋2, … , 𝑋𝑛) uma amostra aleatória de X ∼ Bernoulli(𝑝), então a média
amostral 𝑋 ≡ ̂𝑝, é a proporção amostral.
A proporção amostral ̂𝑝, padronizada, tem distribuição aproximadamente Normal(0,
1), para 𝑛 grande,isto é,
̂𝑝 − 𝑝
√𝑝(1 − 𝑝)/𝑛
≈ 𝑁(0, 1)
Abuso de linguagem:
̂𝑝 ≈ N(𝑝, 𝑝(1 − 𝑝)𝑛 ) para 𝑛 grande
Note que:
𝑋1 + 𝑋2 + … + 𝑋𝑛 ≈ N(𝑛𝑝, 𝑛𝑝(1 − 𝑝))
18
Profa. Beti Kira MAE 119 - 2020
Algumas distribuições de probabilidade DISCRETAS
Distribuição f. discreta de probabilidade Média Variância F.G.Momentos
Bernoulli(p) p(x) = pxq1−x1l{0,1}(x) p pq q + pe
t
p ∈ [0, 1], q = 1− p
Binomial(n, p) p(x) =
(
n
x
)
pxqn−x1l{0,1,...,n}(x) np npq (q + pe
t)n
p ∈ [0, 1], q = 1− p
Hipergeométrica p(x) =
(
r
x
)(
N − r
n− x
)
(
N
n
) n r
N
n
(
r
N
)(
N − r
N
)(
N − n
N − 1
)
(N, r, n)
x = max{0, n−N + r},
r ≤ N,n ≤ N . . . ,min{r, n}
Poisson(λ) p(x) =
e−λλx
x!
1l{0,1,...}(x) λ λ exp{λ(et − 1)}
λ > 0
Geométrica(p) p(x) = pqx1l{0,1,...}(x) q/p q/p
2 p
1− qet
No. de fracassos
Geométrica(p) p(x) = pqx−11l{1,2...}(x) 1/p q/p
2 pe
t
1− qet
No. de ensaios
Bin. Negativa(r, p) p(x) =
(
r + x− 1
x
)
prqx1l{0,1,...}(x) r.q/p r.q/p
2
(
p
1− qet
)r
No. de fracassos
Bin. Negativa(r, p) p(x) =
(
x− 1
r − 1
)
prqx−r1l{r,r+1,...}(x) r.1/p r.q/p
2
(
pet
1− qet
)r
No. de ensaios
Profa. Beti Kira MAE 221 - 2020
Algumas distribuições de probabilidade CONTÍNUAS
Distribuição f. densidade de probabilidade Média Variância F.G.Momentos
Uniforme[a, b] f(x) =
1
b− a
1l[a,b](x)
a+ b
2
(b− a)2
12
ebt − eat
(b− a)t
a < b, reais
Normal(µ, σ2) f(x) =
1
σ
√
2π
exp
{
−12
(
x−µ
σ
)2}
µ σ2 exp
{
µt+ σ
2t2
2
}
µ ∈ R, σ2 > 0
Exponencial(λ) f(x) = λe−λx1l(0,∞)(x) 1/λ 1/λ
2 λ
λ− t
, t < λ
λ > 0
Gama(r, λ) f(x) =
λr
Γ(r)
e−λxxr−11l(0,∞)(x) r/λ r/λ
2
(
λ
λ− t
)r
, t < λ
r, λ > 0, reais
Beta(a, b) f(x) = 1β(a,b)x
a−1(1− x)b−11l[0,1](x)
a
a+ b
ab
(a+ b+ 1)(a+ b)2
a, b > 0, reais
Quiquadrado
χ2(k), k = 1, 2, . . . f(x) =
(
1
2
) k
2
Γ
(
k
2
)x k2−1e−( 12)x 1l(0,∞)(x) k 2k ( 11− 2t
) k
2
, t < 12
t−Student(k) f(x) =
Γ
(
k+1
2
)
Γ
(
k
2
) 1√
kπ
(
1 + x
2
k
) k+1
2
0
k
k − 2
não existe
k > 0, real para k > 1 para k > 2
Cauchy (α, β) f(x) =
1
πβ
{
1 +
(
x−α
β
)2} não existe não existe exp{iαt− β | t |}
α ∈ R, β > 0 α=mediana f. caracteŕıstica
Distribuição F
(Fisher-Snedecor) f(x) =
Γ
(
m+n
2
)
Γ
(
m
2
)
Γ
(
n
2
) (m
n
)m
2
× n
n− 2
2n2(m+ n− 2)
m(n− 2)2(n− 4)
não existe
F (m,n)
m,n = 1, 2, . . . × x
(m−2)/2(
1 + mn x
)(m+n)/2 1l(0,∞)(x) se n > 2 se n > 4
Pareto (θ, b) f(x) =
θ bθ
xθ+1
1l(b,∞)(x)
θ b
θ − 1
θ b2
(θ − 1)2(θ − 2)
não existe
b > 0, θ > 0 para θ > 1 para θ > 2
T A B E L A S 511
Tabela III — Distribuição Normal Padrão
Z � N(0, 1)
Corpo da tabela dá a probabilidade p, tal que p = P (0 < Z < Zc)
parte in- Segunda decimal de Zc parte in-
teira e teira e
primeira primeira
decimal decimal
de Zc 0 1 2 3 4 5 6 7 8 9 de Zc
p = 0
0,0 00000 00399 00798 01197 01595 01994 02392 02790 03188 03586 0,0
0,1 03983 04380 04776 05172 05567 05962 06356 06749 07142 07535 0,1
0,2 07926 08317 08706 09095 09483 09871 10257 10642 11026 11409 0,2
0,3 11791 12172 12552 12930 13307 13683 14058 14431 14803 15173 0,3
0,4 15542 15910 16276 16640 17003 17364 17724 18082 18439 18793 0,4
0,5 19146 19497 19847 20194 20540 20884 21226 21566 21904 22240 0,5
0,6 22575 22907 23237 23565 23891 24215 24537 24857 25175 25490 0,6
0,7 25804 26115 26424 26730 27035 27337 27637 27935 28230 28524 0,7
0,8 28814 29103 29389 29673 29955 30234 30511 30785 31057 31327 0,8
0,9 31594 31859 32121 32381 32639 32894 33147 33398 33646 33891 0,9
1,0 34134 34375 34614 34850 35083 35314 35543 35769 35993 36214 1,0
1,1 36433 36650 36864 37076 37286 37493 37698 37900 38100 38298 1,1
1,2 38493 38686 38877 39065 39251 39435 39617 39796 39973 40147 1,2
1,3 40320 40490 40658 40824 40988 41149 41309 41466 41621 41774 1,3
1,4 41924 42073 42220 42364 42507 42647 42786 42922 43056 43189 1,4
1,5 43319 43448 43574 43699 43822 43943 44062 44179 44295 44408 1,5
1,6 44520 44630 44738 44845 44950 45053 45154 45254 45352 45449 1,6
1,7 45543 45637 45728 45818 45907 45994 46080 46164 46246 46327 1,7
1,8 46407 46485 46562 46638 46712 46784 46856 46926 46995 47062 1,8
1,9 47128 47193 47257 47320 47381 47441 47500 47558 47615 47670 1,9
2,0 47725 47778 47831 47882 47932 47982 48030 48077 48124 48169 2,0
2,1 48214 48257 48300 48341 48382 48422 48461 48500 48537 48574 2,1
2,2 48610 48645 48679 48713 48745 48778 48809 48840 48870 48899 2,2
2,3 48928 48956 48983 49010 49036 49061 49086 49111 49134 49158 2,3
2,4 49180 49202 49224 49245 49266 49286 49305 49324 49343 49361 2,4
2,5 49379 49396 49413 49430 49446 49461 49477 49492 49506 49520 2,5
2,6 49534 49547 49560 49573 49585 49598 49609 49621 49632 49643 2,6
2,7 49653 49664 49674 49683 49693 49702 49711 49720 49728 49736 2,7
2,8 49744 49752 49760 49767 49774 49781 49788 49795 49801 49807 2,8
2,9 49813 49819 49825 49831 49836 49841 49846 49851 49856 49861 2,9
3,0 49865 49869 49874 49878 49882 49886 49889 49893 49897 49900 3,0
3,1 49903 49906 49910 49913 49916 49918 49921 49924 49926 49929 3,1
3,2 49931 49934 49936 49938 49940 49942 49944 49946 49948 49950 3,2
3,3 49952 49953 49955 49957 49958 49960 49961 49962 49964 49965 3,3
3,4 49966 49968 49969 49970 49971 49972 49973 49974 49975 49976 3,4
3,5 49977 49978 49978 49979 49980 49981 49981 49982 49983 49983 3,5
3,6 49984 49985 49985 49986 49986 49987 49987 49988 49988 49989 3,6
3,7 49989 49990 49990 49990 49991 49991 49992 49992 49992 49992 3,7
3,8 49993 49993 49993 49994 49994 49994 49994 49995 49995 49995 3,8
3,9 49995 49995 49996 49996 49996 49996 49996 49996 49997 49997 3,9
4,0 49997 49997 49997 49997 49997 49997 49998 49998 49998 49998 4,0
4,5 49999 50000 50000 50000 50000 50000 50000 50000 50000 50000 4,5
p
	Classificação de variável
	Tabelas
	Correlação
	Probabilidade
	Espaço de Probabilidade
	Função de Probabilidade
	Probabilidade Condicional
	Partição
	Teorema da Probabilidade Total
	Teorema de Bayes
	Independência
	Independência Condicional
	Variável Aleatória
	Variável Aleatória Discreta
	Variável Aleatória Contínua
	Função densidade de probabilidade
	Função de distribuição
	Esperança (discreta)
	Esperança (contínua)
	Variância (discreta)
	Variância (contínua)
	Alguns resultados úteis
	Funções Indicadoras
	Modelo de Bernoulli
	Modelo Uniforme (discreto)
	Modelo Uniforme (contínuo)
	Modelo Exponencial (contínuo)
	Modelo Exponencial (contínuo, variante)
	Modelo Binomial
	Aproximação Normal do Modelo Binomial
	Modelo Hipergeométrico
	Exemplo: Captura e Recaptura
	Modelo Poisson
	Aproximação Poisson da distribuição Binomial
	Modelo Geométrico
	Falta de memória
	Modelo Normal
	Desigualdade de Chebyshev
	Distribuição de probabilidade conjunta
	Função de probabilidade conjunta
	Distribuições marginais (discreta)
	Distribuição condicional (discreta)
	Independência de variáveis aleatórias (discreta)
	Independência de variáveis aleatórias (contínua)
	Esperança bivariada (discreta)
	Esperança bivariada (continua)
	Esperança de Soma de Variáveis
	Variância de Soma de Variáveis
	Covariância
	Correlação
	Função distribuição conjunta (contínua)
	Função densidade de probabilidade conjunta (contínua)
	Distribuição condicional (contínua)
	Normal Bivariada
	Combinação linear de var. aleat. com distr. Normal
	Inferência e Estimadores
	Amostra Aleatória
	Parâmetro
	Estatística
	Estimador
	Estimativa
	Detalhes sobre Estimadores e Estimativas
	Viés ou Vício
	Erro Quadrático Médio
	Consistência
	Consistência e Variância
	Média Amostral
	Média Amostral de distribuição Normal
	Distribuição amostral - caso geral
	Teorema Limite Central
	Distribuição Amostral da Proporção
	Principais Distribuições
	Discretas
	Contínuas
	Tabela da Normal Padrão

Continue navegando