Buscar

Principais Modelos

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 31 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 31 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 31 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Principais Modelos
1 Modelos Discretos
1.1 Modelo Uniforme
Definic¸a˜o 1.1. Uma varia´vel aleato´ria segue o modelo uniforme discreto, com valores
x1, x2, · · · , xn, se tem func¸a˜o massa de probabilidade dada por
fX(xi) =
1
n
, para todo i = 1, · · · , n.
Notac¸a˜o: X ∼ Ud[I], onde I = {x1, x2, · · · , xn}.
Exemplo 1.1. Lanc¸amento de um dado: Ω = {1, · · · , 6}.
fX(i) = P(X = i) =
1
6
, para todo i = 1, · · · , 6.
FX(x) =

0, se x < 1;
1
6 , se 1 6 x < 2;
1
3 , se 2 6 x < 3;
1
2 , se 3 6 x < 4;
2
3 , se 4 6 x < 5;
5
6 , se 5 6 x < 6;
1, se x > 6
1.2 Modelo Bernoulli
Qualquer experimento aleato´rio com somente dois resultados poss´ıveis “fracasso”e “su-
cesso”. Seja p a probabilidade de sucesso e q a probabilidade de fracasso, com p+ q = 1.
Notac¸a˜o: p = P(“sucesso”), q = P(“fracasso”).
Definic¸a˜o 1.2. Seja X o nu´mero de sucessos em uma u´nica tentativa do experimento.
A varia´vel aleato´ria X segue o modelo Bernoulli se assume apenas dois valores 0 e 1.
X =
{
1, se ocorre sucesso;
0, se ocorre fracsso.
Notac¸a˜o: X ∼ Ber(p)
A sua func¸a˜o de probabilidade e´ dada por
fX(x) = P(X = x) = pxq1−x =
{
q, se x = 0;
p, se x = 1.
A sua func¸a˜o de distribuic¸a˜o e´ dada por
FX(x) =

0, se x < 0;
q, se 0 6 x < 1;
1, se x > 1.
Exemplo 1.2. Lanc¸amento de uma moeda.
1
Exemplo 1.3. Uma urna contem 30 bolas brancas e 20 verdes. Retira-se uma bola
dessa urna. Seja X o nu´mero de bolas verdes. Encontre a func¸a˜o de probabilidade e a
distribuic¸a˜o da varia´vel aleato´ria X.
Resoluc¸a˜o:
X =
{
1, bola verde;
0, bola branca.
fX(x) = P(X = x) =
(
2
5
)x(3
5
)1−x
, x ∈ {0, 1}.
Ou seja, X ∼ Ber(p), onde p = 25 .
Propriedades 1.1. Seja X ∼ Ber(p), enta˜o
(i) E(X) = p.
(ii) Var(X) = pq.
1.3 Modelo Binomial
Consideremos n tentativas independentes de um mesmo experimento aleato´rio. Cada
tentativa admite apenas dois resultados: fracasso com probabilidade q e sucesso com
probabilidade p, onde p + q = 1. Ou seja, um experimento de Bernoulli e´ repetido n
vezes, independentemente. As probabilidades de sucesso e fracasso sa˜o as mesmas para
cada tentativa.
Definic¸a˜o 1.3. Seja X a varia´vel aleato´ria nu´mero de sucessos nas n repetic¸o˜es indepen-
dentes. Diremos que X segue o modelo Binomial com paraˆmetros n e p e sua func¸a˜o de
probabilidade e´ dada por
fX(x) = P(X = x) =
(
n
x
)
px(1− p)n−x, x ∈ {0, 1, · · · , n}.
Notac¸a˜o: X ∼ B(n, p), 0 < p 6 1.
Observac¸a˜o 1.1. Vamos verificar se fX(·) e´ func¸a˜o de probabilidade. Temos que fX(x) >
0, para todo x ∈ R e
n∑
x=0
fX(x) =
n∑
x=0
(
n
x
)
px(1− p)n−x = (p+ (1− p))n = 1,
pois
n∑
j=0
(
n
j
)
aj(b)n−j = (a+ b)n.
Logo fX(·) e´ func¸a˜o de probabilidade.
Propriedades 1.2. Seja X ∼ B(n, p), enta˜o
(i) E(X) = np.
(ii) Var(X) = npq.
2
Exemplo 1.4. Uma moeda honesta e´ lanc¸ada 20 vezes. Qual a probabilidade de sa´ırem
8 caras?
Resoluc¸a˜o: Temos que X e´ o nu´mero de sucessos (caras).
p = P(X = 1) = P(sucesso) =
1
2
.
Logo, X ∼ B(20, 12)
P(X = x) =
(
20
x
)(
1
2
)x(1
2
)20−x
, x ∈ {0, 1, 2, 3, · · · , 20}.
Se x = 8, temos
P(X = 8) =
(
20
8
)(
1
2
)8(1
2
)20−8
= 0, 12013.
Exemplo 1.5. Uma prova tipo teste tem 50 questo˜es independentes. Cada questa˜o tem
5 alternativas. Apenas uma delas e´ a correta. Se um aluno resolve a prova respondendo
a esmo a questa˜o, qual a probabilidade de tirar nota 5?
Resoluc¸a˜o: A v.a. X e´ o nu´mero de acertos, x ∈ {0, 1, · · · , n}. A probabilidade de
acerto p = P(acerto) = 15 . Logo, X ∼ B(50, 15).
Portanto a func¸a˜o de probabilidade e´ dada por
P(X = x) =
(
50
x
)(
1
5
)x(4
5
)50−x
.
Logo,
P(X = 25) =
(
50
25
)(
1
5
)25(4
5
)50−25
= 0, 000002.
Exemplo 1.6. Numa criac¸a˜o de coelhos, 40% sa˜o machos. Qual a probabilidade de que
nasc¸am pelo menos 2 coelhos machos num dia em que nasceram 20 coelhos?
Resoluc¸a˜o: Seja X a v.a. nu´mero de coelhos machos (c.m.), x ∈ {0, 1, 2, · · · , 20}, onde
p = P(sucesso) = P(c.m.) = 0.4.
Logo, X ∼ B(20, 0.4), cuja func¸a˜o de probabilidade e´ dada por
P(X = x) =
(
20
x
)
(0.4)x (0.6)20−x .
Portanto queremos calcular
P(X > 2) = 1− P(X < 2) = 1− (P(x = 0) + P(X = 1))
= 1−
{(
20
0
)
(0.4)0 (0.6)20−0 +
(
20
1
)
(0.4)1 (0.6)20−1
}
= 1− (0.0003 + 0.00049) = 0.99948.
1.4 Modelo Geome´trico
Consideremos tentativas consecutivas e independentes de ummesmo experimento aleato´rio.
Cada tentativa admite sucesso com probabilidade p e fracasso com probabilidade q, com
p+ q = 1.
3
Definic¸a˜o 1.4. A varia´vel aleato´ria X e´ o nu´mero de repetic¸o˜es necessa´rias ate´ o apare-
cimento do primeiro sucesso. A func¸a˜o de probabilidade P(X = x) representa a probabi-
lidade de fracasso nos primeiros k − 1 experimentos e sucesso no k−e´simo experimento.
Uma varia´vel aleato´ria discreta X segue o modelo Geome´trico com paraˆmetro p, onde
0 < p < 1, se a sua func¸a˜o de probabilidade e´ dada por
fX(x) = P(X = x) = p(1− p)x−1, x = 1, 2, · · · .
Notac¸a˜o: X ∼ Geo(p), 0 < p < 1.
Observac¸a˜o 1.2. (i) X = 1, corresponde ao sucesso (S), P(X = 1) = p;
(ii) X = 2, corresponde ao fracasso na 1a tentativa e sucesso na 2a (FS), P(X = 2) = q·p;
(iii) X = 3, corresponde ao fracasso nas duas primeiras tentativas e sucesso na 3a (FFS),
P(X = 3) = q2 · p;
(iv) X = 4, corresponde ao fracasso nas treˆs primeiras tentativas e sucesso na 4a (FFFS),
P(X = 4) = q3 · p;
(v) X = x, corresponde ao fracasso nas x− 1 primeira tentativas e sucesso na x−e´sima
(F · · ·F︸ ︷︷ ︸ S), P(X = x) = qx−1 · p;
Observac¸a˜o 1.3. Vamos verificar se fX(·) e´ func¸a˜o de probabilidade. Temos que fX(x) >
0, para todo x ∈ R e
∑
x>1
P(X = x) =
∑
x>1
qx−1 · p = p
∑
x>1
qx−1 = p(1 + q + q2 + q3 + · · ·
= p
1
1− q = p
1
p
= 1,
pois a soma acima e´ uma se´rie geome´trica cuja raza˜o |q| < 1 e∑
j>1
a1q
j−1 =
a1
1− q ·
A func¸a˜o de distribuic¸a˜o de uma varia´vel aleato´ria X ∼ Geo(p) e´ dada por
FX(x) = P(X 6 x) =
x∑
j=1
P(X = j) =
x∑
j=1
p(1− p)j−1.
Tomando i = j − 1 na expressa˜o acima, temos
FX(x) = p
x−1∑
i=0
(1− p)i = p1− (1− p)
x−1+1
1− (1− p) = 1− (1− p)
x,
pois
∑n
i=0(a)
i = 1−a
n+1
1−a , para 0 < a < 1.
4
Exemplo 1.7. A probabilidade de se encontrar aberto o sinal de traˆnsito numa esquina e´
0.2. Qual a probabilidade de que seja necessa´rio passar pelo local 5 vezes para encontrar
o sinal aberto pela primeira vez, ou seja, FFFFS?
Resoluc¸a˜o: Seja X a v.a. nu´mero de vezes necessa´rias para encontrar o sinal aberto.
p = 0.2 e q = 0.8.
Logo, X ∼ Geo(0.2) e
P(X = 5) = (0.8)4 · (0.2) = 0.08192.
Exemplo 1.8. Qual a probabilidade de que um dado deva ser lanc¸ado 15 vezes para que
na 15a vez ocorra a face 6 pela primeira vez?
Resoluc¸a˜o: Seja X a v.a. nu´mero de lanc¸amentos necessa´rios ao aparecimento da pri-
meira face 6. p = 16 e q =
5
6 .
Logo, X ∼ Geo (16) e
P(X = 15) =
(
5
6
)14
·
(
1
6
)
= 0.01298.
Observac¸a˜o 1.4. De forma equivalente, a probabilidade de serem necessa´rios n fracassos
antes do primeiro sucesso e´
fX(x) = P(X = x) = qxp, x = 0, 1, 2, · · ·
Observac¸a˜o 1.5. Falta de Memo´ria da Distribuic¸a˜o Geome´trica
Seja X ∼ Geo(p), vamos verificar que para quaisquer nu´meros inteiros positivos m e
n
P(X > m+ n|X > m) = P(X > n).
Por exe, se X representa a espera em dias para a ocorreˆncia de um certo evento, a
probabilidade condicional representa a probabilidade de espera de pelo menos m+n dias,
sabendo que o evento na˜o ocorreu antes de m dias. A falta de memo´ria estabelece que
essa probabilidade e´ a mesma de esperar pelo menos n dias.
De fato,
P(X > m+ n|X > m) = P([X > m+ n] ∩ [X > m])
P([X > m]) =
P([X > m+ n])
P([X >m])
=
∑
j>m+n P(X = j)∑
i>m P(X = i)
=
∑
j>0 p(1− p)j −
∑m+n−1
j=0 p(1− p)j∑
i>0 p(1− p)i −
∑m−1
i=0 p(1− p)i
=
(1− p)m+n
(1− p)m = (1− p)
n = P(X > n),
pois
∑
j>0
xj =
1
1− x e
n∑
j>0
xj =
∑
j>0
xj −
∑
j>n+1
xj =
1
1− x −
xn+1
1− x.
Propriedades 1.3. Seja X ∼ Geo(p), enta˜o
(i) E(X) = 1p .
(ii) Var(X) = q
p2
.
5
1.5 Modelo Pascal
Suponhamos que um experimento aleato´rio de bernoulli seja repetido independentemente
ate´ que um evento A ocorra pela r−e´sima vez. Seja P(A) = p(sucesso) e P(A) =
q(fracasso) em cada uma das tentativas do experimento.
Definic¸a˜o 1.5. Seja X a v.a. nu´mero de repetic¸o˜es necessa´rias (experimento bernoulli)
para que o evento A ocorra pela r−e´sima vez (considerando que o experimento sera´
repetido ate´ que se obtenha o r-e´simo sucesso), enta˜o a varia´vel X = nu´mero de tentativas
ate´ se obter o r-e´simo sucesso seguira a distribuic¸a˜o Pascal tambe´m chamada de Binomial
Negativa.
Para que o r-e´simo sucesso ocorra na x-e´sima tentativa e´ necessa´rio que ocorra um
sucesso nesta tentativa (repetic¸a˜o do experimento) e que tenham ocorridos (r−1) sucessos
nas (x−1) repetic¸o˜es anteriores. Dado que a probabilidade de ocorreˆncia de sucesso, numa
dada repetic¸a˜o do experimento e´ dada por p e a probabilidade de ocorrerem r−1 sucessos
em x − 1 repetic¸o˜es, sendo estes dois eventos independentes, a probabilidade de que o
r-e´simo sucesso ocorra na x-e´sima repetic¸a˜o do experimento e dada por:
fX(x) = P(X = x) =
(
x− 1
r − 1
)
prqx−r, x > r.
Notac¸a˜o: X ∼ BN(r, p), 0 < p < 1.
Exemplo 1.9. A probabilidade de que um sinal de traˆnsito esteja aberto numa esquina
e´ de 0.2. Qual a probabilidade de que seja necessa´rio passar pelo local 10 vezes para
encontra´-lo aberto pela 4a vez?
Resoluc¸a˜o: Seja X a v.a. nu´mero de passagens pela esquina. Temos que r = 4, x = 10
e p = 0.2. Logo,
P(X = x) =
(
x− 1
3
)
(0.2)4(0.8)x−4, x > 4.
Portanto,
P(X = 10) =
(
9
3
)
(0.2)4(0.8)6 = 0.035232.
Exemplo 1.10. Bob e´ um jogador de basquete da faculdade. Como arremessador ela
acerta 70% dos arremessos livres. Isto e´, a probabilidade de acerto de um arremesso
livre e´ de 0.7.Durante uma partida, qual e´ a probabilidade que Bob acerte seu terceiro
arremesso livre no seu quinto arremesso?
Resoluc¸a˜o: Seja X a v.a. nu´mero de arremessos livres de Bob, onde a probabilidade de
sucesso e´ p = 0.7. Temos que x = 5 e r = 3. Logo,
P(X = x) =
(
x− 1
2
)
(0.7)3(0.3)x−3, x > 3.
Portanto,
P(X = 5) =
(
4
2
)
(0.7)3(0.3)2 = 0.18552.
Propriedades 1.4. Seja X ∼ BN(r, p), 0 < p < 1, enta˜o
(i) E(X) = rp .
(ii) Var(X) = rq
p2
.
6
1.6 Modelo Poisson
Na distribuic¸a˜o Binomial, a varia´vel de interesse era o nu´mero de sucessos em um intervalo
discreto (n repetic¸o˜es de um experimento 0-1). Muitas vezes, entretanto, o interesse reside
no nu´mero de sucessos em um intervalo cont´ınuo, que pode ser o tempo, comprimento,
etc.
A probabilidade de ocorreˆncia de um sucesso no intervalo e´ proporcional ao intervalo.
A probabilidade de mais de um sucesso neste intervalo e´ bastante pequena com relac¸a˜o a`
probabilidade de um sucesso.
Definic¸a˜o 1.6. Seja X o nu´mero de sucessos em um intervalo. A varia´vel aleato´ria X
segue o modelo Poisson de paraˆmetro λ, λ > 0, se a sua func¸a˜o massa de probabilidade
for dada por
fX(x) = P(X = x) =
e−λλx
x!
, x = 0, 1, 2, · · · .
Notac¸a˜o: X ∼ P(λ).
O paraˆmetro λ indica o nu´mero esperado de sucessos no intervalo (a taxa de ocorreˆncia
para uma unidade de medida).
A distribuic¸a˜o de Poisson e´ largamente utilizada quando se deseja contar o nu´mero de
sucessos que ocorrem em intervalos de tempo, ou superf´ıcie ou volume. Por exemplo
(i) carros que passam por um cruzamento por minuto, durante uma certa hora do dia;
(ii) erro tipogra´ficos por pa´gina, em um material impresso;
(iii) defeitos por unidade (m2, m3, m etc.) por pec¸a fabricada;
(iv) coloˆnia de bacte´rias numa dada cultura por 0.01 mm2, numa plaqueta de mi-
crosco´pio;
(v) mortes por ataque do corac¸a˜o por ano, numa cidade;
(vi) em problemas de filas em geral;
(vii) nu´mero de chamadas recebidas por um telefone durante cinco minutos;
(viii) nu´mero de falhas de um computador num dia de operac¸a˜o;
(ix) nu´mero de relato´rios de acidentes enviados a uma companhia de seguros numa
semana.
Observac¸a˜o 1.6. Vamos verificar se fX(·) e´ func¸a˜o de probabilidade. Temos que fX(x) >
0, para todo x ∈ R e
∑
x>0
e−λλx
x!
= e−λ
∑
x>0
λx
x!
= e−λeλ = 1,
pois
∑
k>0
λk
k! = e
λ. Logo, fX(·) e´ func¸a˜o de probabilidade.
Observac¸a˜o 1.7. Seja X a v.a. definida como o nu´mero de eventos que ocorrem sobre
um per´ıodo de tempo t. Substitu´ımos λ na f.m.p. por tλ. Dessa forma,
fX(x) = P(X = x) =
e−tλ(tλ)x
x!
, x = 0, 1, 2, · · · .
7
Exemplo 1.11. Em um livro de 800 pa´ginas ha´ 800 erros de impressa˜o. Qual a proba-
bilidade de que uma pa´gina contenha pelo menos 3 erros?
Resoluc¸a˜o: Seja X o nu´mero de erros por pa´gina. Temos que λ = 1. Logo,
P(X > 3) = 1− P(X < 3) = 1− {P(X = 0) + P(X = 1) + P(X = 2)}
= 1−
{
e−1 · 10
0!
+
e−1 · 11
1!
+
e−1 · 12
2!
}
= 1− {0.367879 + 0.367879 + 0.183940}
= 1− 0.919698 = 0.080302.
Exemplo 1.12. Em uma central telefoˆnica chegam 300 telefonemas por hora. Qual a
probabilidade de que
(i) num minuto na˜o haja nenhuma chamada?
(ii) em 2 minutos haja 2 chamados?
(iii) em t minutos na˜o haja chamados?
Resoluc¸a˜o:
(i) Seja X a v.a. nu´mero de chamadas por minuto. Enta˜o, λ = 5.
P(X = 0) =
e−5 · 50
0!
= 0.006738.
(ii) Em dois minutos, λ = 10. Enta˜o,
P(X = 2) =
e−10 · 102
2!
= 0.002270.
(iii) Em t minutos, λ = 5t. Enta˜o,
P(X = 0) =
e−5t · (5t)0
0!
= e−5t.
Propriedades 1.5. Seja X ∼ P(λ), enta˜o
(i) E(X) = λ.
(ii) Var(X) = λ.
1.7 Aproximac¸a˜o do Modelo Binomial pelo Modelo Poisson
Muitas vezes, no uso da binomial, acontece que n e´ muito grande (n → ∞), e p e´ muito
pequeno (p → 0). Nestes casos, na˜o encontramos o valor em tabelas, ou enta˜o o ca´lculo
torna-se muito dif´ıcil, sendo necessa´rio o uso do computador. Podemos enta˜o fazer uma
aproximac¸a˜o da binomial pela distribuic¸a˜o Poisson.
Consideremos:

n→∞ (n > 30)
p→ 0, (p < 0.1)
0 < µ 6 10,
8
Nestas condic¸o˜es, se X ∼ B(n, p), queremos calcular P(X = x) =
(
n
x
)
px(1 − p)n−x.
Vamos mostrar que P(X = x) ' e−λλxx! ·
Seja
P(X = x) =
(
n
x
)
px(1− p)n−x = n!
x!(n− x)!p
x(1− p)n−x
= n(n− 1)(n− 2) · · · (n− x+ 1)p
x(1− p)n−x
x!
·
Fazendo p = λn (q = 1− λn) e passando o limite quando n→∞, obtemos
P(X = x) ' lim
n→∞
{
n(n− 1)(n− 2) · · · (n− x+ 1)
(
λ
n
)x 1
x!
(
1− λ
n
)n−x}
= lim
n→∞
{
1
(
1− 1
n
)(
1− 2
n
)
· · ·
(
1− x− 1
n
)
λx
1
x!
(
1− λ
n
)n(
1− λ
n
)−x}
= 1 · 1 · 1 · · · 1λx 1
x!
e−x · 1
=
e−λλx
x!
,
pois,
lim
n→∞
[
1− k
n
]n
= e−k·
Logo, a binomial tem a distribuic¸a˜o Poisson como limite, quando n→∞ e p→ 0.
Exemplo 1.13. Seja X ∼ B(200, 0.01). Calcular P(X = 10) usando binomial e apro-
ximac¸a˜o pela Poisson.
Resoluc¸a˜o:
Binomial:
P(X = 10) =
(
200
10
)
(0.01)10(1− 0.01)200−10 =
(
200
10
)
(0.01)10(0.99)190 = 0.000033.
Aproximac¸a˜o pela Poisson:
Temos que λ = np = 200× 0.01 = 2, logo
P(X = 10) =
e−2210
10!
= 0.000038.
Logo, a aproximac¸a˜o e´ bastante boa, pois o erro absoluto e´ de 0.000005 apenas.
Exemplo 1.14. A probabilidade de uma laˆmpada queimar ao ser ligada e´ de 1/100. Em
uma instalac¸a˜o com 100 laˆmpadas, qual a probabilidade de 2 laˆmpadas queimarem ao
serem ligadas?
Resoluc¸a˜o: Seja X o nu´mero de laˆmpadas queimadas. X ∼ B(100, 0.01). Logo,
P(X = 2) =
(
100
2
)
(0.01)2(1−0.01)100−2=
(
100
2
)
(0.01)2(0.99)98 = 0.1848648 (Usando R).
9
Aproximac¸a˜o pela Poisson:
Temos que λ = np = 100× 0.01 = 1, logo
P(X = 2) =
e−112
2!
= 0.1839397 (Usando R).
O erro absoluto e´ de 0.0009251.
1.8 Modelo Hipergeome´trico
No modelo hipergeome´trico, a populac¸a˜o e´ constitu´ıda de N elementos, dos quais r sa˜o
classificados como sucessos e n-r de fracassos. E´ selecionado, ao acaso e sem reposic¸a˜o,
uma amostra de tamanho n < N .
Seja X a v.a. nu´mero de sucessos na amostra de tamanho n. Qual a probabilidade
P(X = x)?
Temos que
P(sucesso) =
r
N
P(fracasso) = 1− r
N
=
N − r
N
.
Podemos tirar
(
N
n
)
amostras sem reposic¸a˜o. Os sucessos na amostra podem ocorrer
de
(
r
x
)
maneiras e fracassos
(
N − r
n− x
)
modos. Enta˜o as probabilidades de uma v.a.
hipergeome´trica podem ser avaliadas por
P(X = x) =
(
r
x
)(
N − r
n− x
)
(
N
n
) , x ∈ {0, 1, · · · ,min(r, n)} ou 0 6 x 6 n e x 6 r.
O evento [X = x] significa que foram retirados x elementos dentre os r sucessos e
foram retirados n− x dentre os n− r fracassos.
Notac¸a˜o: X ∼ H(N,n, r), com n < N e r < N .
Exemplo 1.15. Pequenos motores sa˜o guardados em caixas de 50 unidades. Um inspetor
de qualidade examina cada caixa, antes da posterior remessa, testando 5 motores. Se
nenhum motor for defeituoso, a caixa e´ aceita. Se pelo menos um for defeituoso, todos os
50 motores sa˜o testados. Ha´ 6 motores defeituosos numa caixa. Qual a probabilidade de
que seja necessa´rio examinar todos os motores dessa caixa?
Resoluc¸a˜o: Seja X o nu´mero de motores defeituosos da amostra. Temos que N = 50,
r = 6 e n = 5. Enta˜o,
P(X > 1) = 1− P(X < 1) = 1− P(X = 0)
= 1−
(
6
0
)(
50− 6
5− 0
)
(
50
5
) = 1− 0.5126 = 0.4874.
Exemplo 1.16. De um baralho de 52 cartas, retiram-se 8 cartas ao acaso, sem reposic¸a˜o.
Qual a probabilidade de que 4 sejam figuras?
10
Resoluc¸a˜o: Seja X o nu´mero de figuras em 8 cartas. Temos que N = 52, r = 12 e n = 8.
Enta˜o,
P(X = 4) =
(
12
4
)(
52− 12
8− 4
)
(
52
8
) = 0.0601.
Exemplo 1.17. Uma firma compra laˆmpadas por centenas. Examina sempre uma amos-
tra de 15 laˆmpadas para verificar se esta˜o boas. Se uma centena inclui 12 laˆmpadas quei-
madas, qual a probabilidade de se escolher uma amostra com pelo menos uma laˆmpada
queimada?
Resoluc¸a˜o: Seja X o nu´mero de laˆmpadas queimadas na amostra. Temos que N = 100,
r = 12 e n = 15. Enta˜o,
P(X > 1) = 1− P(X < 1) = 1− P(X = 0)
= 1−
(
12
0
)(
100− 12
15− 0
)
(
100
15
) = 0.8747.
Propriedades 1.6. Seja X ∼ H(N,n, r), enta˜o
(i) E(X) = nrN .
(ii) Var(X) = nrN
(
N − n
N
)(
N − r
N − 1
)
.
2 Modelos Cont´ınuos
2.1 Modelo Uniforme
Definic¸a˜o 2.1. Diremos que uma varia´vel aleato´ria X segue o modelo Uniforme, no
intervalo [α, β] ∈ R, α < β, se sua func¸a˜o densidade for dada por
fX(x) =
1
β − αI[α,β](x).
Notac¸a˜o: X ∼ Uc[α, β].
Observac¸a˜o 2.1. Vamos verificar se fX(·) e´ func¸a˜o densidade de probabilidade. A func¸a˜o
fX(·), conforme apresentada na definic¸a˜o acima, satisfaz as condic¸o˜es para ser densidade.
Ela e´ positiva e ∫ ∞
−∞
fX(x)dx =
∫ β
α
1
β − αdx = 1.
A func¸a˜o de distribuic¸a˜o do modelo uniforme em [α, β] e´ dada por
11
FX(x) =

0, se x < α;
x−α
β−α , se α 6 x < β;
1, se x > β.
(a)
(b)
Figura 1: Distribuic¸a˜o Uniforme: (a) Func¸a˜o densidade de Probabilidade; (b) Func¸a˜o
de Distribuic¸a˜o (acumulada).
Exemplo 2.1. Um ponto e´ escolhido ao acaso no intervalo [0, 2]. Qual a probabilidade
de que esteja ente 1 e 1.5?
Resoluc¸a˜o:
fX(x) =
{
1
2 , se 0 6 x 6 2;
0, c.c.
P(1 6 X 6 1.5) =
∫ 1.5
1
1
2
dx =
x
2
∣∣∣∣∣
1.5
1
=
1
4
·
Exemplo 2.2. A dureza H de uma pec¸a de ac¸o pode ser pensada como uma varia´vel
aleato´ria com distribuic¸a˜o uniforme no intervalo [50, 70] da escala de Rockwell. Calcular
a probabilidade de que uma pec¸a tenha dureza entre 55 e 60.
Resoluc¸a˜o:
fX(x) =
{
1
20 , se 50 6 x 6 70;
0, c.c.
P(55 6 X 6 60) =
∫ 60
55
1
20
dx =
x
20
∣∣∣∣∣
60
55
=
1
4
·
Propriedades 2.1. Seja X ∼ Uc[α, β], enta˜o
(i) E(X) = α+β2 .
(ii) Var(X) = (β−α)
2
12 .
12
2.2 Modelo Exponencial
A distribuic¸a˜o exponencial e´ muito importante em aplicac¸o˜es de confiabilidade de siste-
mas e bastante usada em engenharia. Tambe´m e´ usada frequentemente como modelo
para distribuic¸a˜o dos tempos entre ocorreˆncias de eventos sucessivos, tais como clientes
chegando em uma unidade de atendimento ou chamadas em uma central telefoˆnica.
Definic¸a˜o 2.2. Diremos que uma varia´vel aleato´ria X segue o modelo Exponencial, de
paraˆmetro λ, λ > 0, se sua func¸a˜o densidade for dada por
fX(x) = λe
−xλI(0,∞)(x).
Notac¸a˜o: X ∼ Exp(λ).
(a) (b)
Figura 2: Distribuic¸a˜o Exponencial: (a) Func¸a˜o Densidade de Probabilidade, (b) Func¸a˜o
de Distribuic¸a˜o (acumulada).
O paraˆmetro λ indica a taxa de ocorreˆncia por unidade de medida, que pode ser
tempo, distaˆncia ou volume, entre outras e 1/λ e´ o tempo me´dio entre chegadas.
Observac¸a˜o 2.2. Vamos verificar se fX(·) e´ func¸a˜o densidade de probabilidade. A func¸a˜o
fX(·), conforme apresentada na definic¸a˜o acima, satisfaz as condic¸o˜es para ser densidade.
Ela e´ positiva e ∫ ∞
−∞
fX(x)dx =
∫ ∞
0
λe−xλdx = −e−xλ
∣∣∣∞
0
= 1.
A func¸a˜o de distribuic¸a˜o do modelo exponencial e´ dada por
FX(x) = (1− e−xλ)I(0,∞)(x).
Exemplo 2.3. Suponha que o tempo de resposta X em um terminal de computador
on-line espec´ıfico (o tempo entre o final de uma consulta de um usua´rio e o comec¸o da
resposta do sistema para essa consulta) tenha distribuic¸a˜o exponencial com tempo de
resposta esperado de 5 segundos. Enta˜o, 1λ = 5, ou seja, λ = 0.2. Calcule:
(i) a probabilidade de o tempo de resposta ser no ma´ximo 10 segundos;
(ii) a probabilidade de o tempo de resposta estar entre 5 e 10 segundos.
Resoluc¸a˜o: Neste caso X ∼ Exp(0.2), enta˜o
(i) P(X 6 10) = FX(10) = 1− e−10(0.2) = 1− 0.135 = 0.865.
13
(ii) P(5 6 X 6 10) = FX(10)− FX(5) = (1− e−10(0.2))− (1− e−5(0.2)) = 0.233.
Exemplo 2.4. O tempo de vida (em horas) de um transistor pode ser considerado uma
v.a. com distribuic¸a˜o exponencial. Seque-se que o a vida me´dia do transistor e´ de 500
horas. Qual a probabilidade que ele dure mais do que a me´dia?
Resoluc¸a˜o: Neste caso 1λ = 500, enta˜o λ = 0.002 e X ∼ Exp(0.002). Logo,
P(X > 500) = 1− P(X 6 500) = 1− FX(500) = 1− (1− e−500(0.002)) = 0.3678794.
Propriedades 2.2. Seja X ∼ Exp(λ), enta˜o
(i) E(X) = 1/λ.
(ii) Var(X) = 1/λ2.
2.3 Modelo Gama
Definic¸a˜o 2.3. Diremos que uma varia´vel aleato´ria X segue o modelo Gama, se sua
func¸a˜o densidade for dada por
fX(x) =
βα
Γ(α)
xα−1e−βxI[0,∞)(x), (2.1)
sendo α e β dois paraˆmetros que satisfazem α > 0 e β > 0, e com Γ(α) sendo a func¸a˜o
gama dada por
Γ(α) =
∫ ∞
0
xα−1e−xdx, α > 0. (2.2)
Notac¸a˜o: X ∼ Γ(α, β).
Pela expressa˜o (2.2), tomando
fX(x) =
xα−1e−x
Γ(α)
I[0,∞)(x). (2.3)
Observac¸a˜o 2.3. A func¸a˜o fX(x) dada pela expressa˜o (2.3) e´ func¸a˜o densidade de pro-
babilidade pois fX(x) > 0 e
∫∞
0 fX(x)dx =
Γ(α)
Γ(α) = 1.
Figura 3: Func¸a˜o Densidade de Probabilidade: (a) Distribuic¸a˜o Γ(α, β); (b) Distribuic¸a˜o
Gama Padra˜o.
14
Observac¸a˜o 2.4. Tomando β = 1 na expressa˜o (2.1) temos a distribuic¸a˜o gama padra˜o
cuja func¸a˜o densidade de probabilidade e´ dada pela expressa˜o (2.3).
Vamos verificar que a integral impro´pria em Γ(α) existe (converge) para α > 0. Inte-
grando por partes, temos que
u = xα−1, dv = e−xdx,
du = (α− 1)xα−2dx e v = −e−x.
Logo,
Γ(α) = −xα−1e−x
∣∣∣∞
0
−
∫ ∞
0
−(α− 1)xα−2e−xdx
= (α− 1)
∫ ∞
0
xα−2e−xdx
= (α− 1)Γ(α− 1).
Logo a func¸a˜o Gama obedece a uma relac¸a˜ode recorreˆncia. Suponha que α seja um
inteiro positivo, digamos α = n. Enta˜o, repetindo a relac¸a˜o Γ(α) = (α − 1)Γ(α − 1),
temos que
Γ(n) = (n− 1)Γ(n− 1) = (n− 1)(n− 2)Γ(n− 2)
= (n− 1)(n− 2) · · ·Γ(1).
Pore´m, Γ(1) =
∫∞
0 e
−xdx = 1, portanto
Γ(n) = (n− 1)!.
Logo podemos considerar que a func¸a˜o Γ(α) e´ uma generalizac¸a˜o da func¸a˜o fatorial.
Podemos verificar que
Γ(1/2) =
∫ ∞
0
x−1/2e−xdx =
√
pi.
Agora, vamos verificar se fX(·) e´ func¸a˜o densidade. Temos que∫ ∞
0
βα
Γ(α)
xα−1e−βxdx =
βα
Γ(α)
∫ ∞
0
xα−1e−βxdx =
βα
Γ(α)
A,
onde A =
∫∞
0 x
α−1e−βxdx.
Vamos encontrar o valor de A. Aplicando integrac¸a˜o por artes em A temos
u = xα−1, dv = e−βxdx,
du = (α− 1)xα−2dx e v = −e
−βx
β
.
Logo,
A = −x
α−1e−βx
β
∣∣∣∞
0
+
(α− 1)
β
∫ ∞
0
xα−2e−βxdx =
(α− 1)
β
∫ ∞
0
xα−2e−βxdx
15
Novamente fazendo integrac¸a˜o por partes
u = xα−2, dv = e−βxdx,
du = (α− 2)xα−3dx e v = −e
−βx
β
.
Assim,
A = −(α− 1)x
α−2e−βx
β2
∣∣∣∞
0
+
(α− 1)(α− 2)
β2
∫ ∞
0
xα−3e−βxdx =
(α− 1)(α− 2)
β2
∫ ∞
0
xα−3e−βxdx.
Aplicando integrac¸a˜o por partes α vezes teremos
(α− 1)(α− 2) · · · 1
βα
Γ(1) =
(α− 1)!
βα
=
Γ(α)
βα
.
Portanto, ∫ ∞
0
βα
Γ(α)
xα−1e−βxdx =
βα
Γ(α)
A = 1
Assim, fx(·) e´ func¸a˜o densidade de probabilidade e o modelo esta´ bem definido.
Observac¸a˜o 2.5. Se α = 1, temos que
fx(x) = βe
−βxI(0,∞),
que a func¸a˜o densidade de probabilidade do modelo exponencial com paraˆmetro β, isto e´
X ∼ Exp(β), β > 0.
Observac¸a˜o 2.6. Quando X tem distribuic¸a˜o Gama padra˜o, a func¸a˜o de distribuic¸a˜o e´
dada por
FX(x) =
∫ x
0
yα−1e−y
Γ(α)
dy.
Observac¸a˜o 2.7. Seja Y uma varia´vel aleato´ria com distribuic¸a˜o Γ(α, β). Enta˜o, para
qualquer y > 0, a func¸a˜o de distribuic¸a˜o de Y e´ dada por
FY (y) = P(Y 6 y) =
∫ y
0
βα
Γ(α)
xα−1e−βxdx
=
∫ y
0
β
Γ(α)
(xβ)α−1e−βxdx
= β
∫ y
0
(xβ)α−1e−βx
Γ(α)
dx.
Fazendo u = βx, temos du = βdx, logo
FY (y) =
∫ βy
0
uα−1e−u
Γ(α)
du = P(U 6 βy) = FU (βy),
onde U ∼ Γ(α) (Gama Padra˜o).
Propriedades 2.3. Seja X ∼ Γ(α, β), enta˜o
(i) E(X) = α/β.
(ii) Var(X) = α/β2.
16
2.4 Relac¸a˜o entre a distribuic¸a˜o Gama e Poisson
Quando α e´ um inteiro positivo, a func¸a˜o densidade da distribuic¸a˜o Gama se relaciona
tambe´m com a func¸a˜o massa de probabilidade da distribuic¸a˜o Poisson.
Considere a integral
C =
∫ ∞
a
yαe−y
α!
dy,
na qual α e´ um inteiro positivo e a > 0.
Enta˜o,
α!C =
∫ ∞
a
yαe−ydy.
Integrando por partes, fazendo
u = yα, dv = e−ydy,
du = αxα−1dx e v = −e−y,
temos
α!C = −yαe−y
∣∣∣∞
a
+ α
∫ ∞
a
yα−1e−ydy
= aαe−a + α
∫ ∞
a
yα−1e−ydy.
Novamente integrando por partes, temos que
α!C = aαe−a +
(
−αyα−1e−y
∣∣∣∞
a
)
+ α(α− 1)
∫ ∞
a
yα−2e−ydy
= aαe−a + αaα−1e−a + α(α− 1)
∫ ∞
a
yα−2e−ydy.
Continuando a integrar por partes desde que α seja um inteiro positivo, teremos
α!C = e−a
(
aα + αaα−1 + α(α− 1)aα−2 + · · ·+ α!) .
Ou seja,
C = e−a
(
aα
α!
+
αaα−1
α!
+
α(α− 1)aα−2
α!
+ · · ·+ α!
α!
)
=
e−aaα
α!
+
e−aaα−1
(α− 1)! +
e−aaα−2
(α− 2)! + · · ·+ e
−a
= P(X = α) + P(X = α− 1) + P(X = α− 2) + · · ·+ P(X = 0)
=
α∑
k=0
P(X = k),
pois P(X = k) = eaakk! e´ a func¸a˜o massa de probabilidade de uma varia´vel aleato´ria
com distribuic¸a˜o Poisson, isto e´, X ∼ P(a), a > 0. A u´ltima igualdade e´ a func¸a˜o de
distribuic¸a˜o de uma varia´vel aleato´ria com distribuic¸a˜o P(a), isto e´,
17
FX(α) = P(X 6 α) =
α∑
k=0
P(X = k).
2.5 Modelo Normal
A distribuic¸a˜o normal e´ a mais importante de todas as distribuic¸o˜es. Muitas populac¸o˜es
nume´ricas possuem distribuic¸a˜o que podem ser ajustadas por uma curva normal apropri-
ada. Os exemplos incluem alturas, pesos e outras caracter´ısticas f´ısicas, erros em medidas
em experimentos cient´ıficos, medidas antropome´tricas em fo´sseis, tempos de reac¸a˜o em ex-
perimentos psicolo´gicos, medidas de inteligeˆncia e aptida˜o, pontuac¸a˜o em testes variados,
e numerosas medidas e indicadores econoˆmicos. Mesmo quando a distribuic¸a˜o e´ discreta,
a curva normal frequentemente fornece aproximac¸a˜o excelente.Ale´m disso, ainda que as
pro´prias varia´veis individuais na˜o seja normalmente distribu´ıdas, as somas e as me´dias
das varia´veis tera˜o uma distribuic¸a˜o aproximadamente normal sob condic¸o˜es adequadas.
Definic¸a˜o 2.4. Uma v.a. X segue o modelo Normal se a sua densidade e´ dada por:
fX(x) =
1√
2piσ2
e−
(x−µ)2
2σ2 I(−∞,∞)(x),
com µ, σ ∈ R, σ > 0.
Notac¸a˜o: X ∼ N(µ, σ2).
Figura 4: Gra´ficos da func¸a˜o densidade de probabilidade da distribuic¸a˜o normal
N(µ, σ2).
18
Caso Particular: Distribuic¸a˜o Normal Padra˜o
Quando, na Definic¸a˜o 2.4, temos µ = 0 e σ2 = 1.
Definic¸a˜o 2.5. Uma v.a. Z segue o modelo Normal se a sua densidade e´ dada por:
fZ(z) =
1√
2pi
e−
z2
2 I(−∞,∞)(z).
Notac¸a˜o: Z ∼ N(0, 1).
Observac¸a˜o 2.8. Seja Z ∼ N(0, 1). Enta˜o,
i) fZ(z) e´ sime´trica em relac¸a˜o a` origem. Enta˜o,
FZ(z) = 1− FZ(−z).
ii) fZ(z) tem um u´nico ponto cr´ıtico em z = 0 e fZ(0) =
1
2pi e´ o u´nico ma´ximo da func¸a˜o.
iii) z = 1 e z = −1 sa˜o pontos de inflexa˜o.
iv) limz→∞ fZ(z) = 0 = limz→−∞ fZ(z).
v)
∫∞
−∞
1√
2pi
e−
z2
2 dz = 1.
vi) P(Z ∈ A) = ∫A fZ(z)dz. Caso A = [a, b], com a < b, temos que
P(a 6 Z 6 b) =
∫ b
a
fZ(z)dz.
A func¸a˜o de distribuic¸a˜o (acumulada) da distribuic¸a˜o normal e´ dada por
FZ(z) =
∫ z
−∞
fZ(t)dt.
Figura 5: Ca´lculo da func¸a˜o de distribuic¸a˜o (acumulada) da distribuic¸a˜o N(0, 1).
19
Figura 6: Func¸a˜o de distribuic¸a˜o (acumulada) da distribuic¸a˜o N(0, 1).
Na˜o existe uma fo´rmula fechada para esta distribuic¸a˜o.
Exemplo 2.5. Seja Z ∼ N(0, 1), isto e´, a v.a. Z tem distribuic¸a˜o Normal padra˜o. Calcule
as seguintes probabilidades.
(i) P(Z 6 1.25). Resposta: 0.8944
(ii) P(Z > 1.25). Resposta: 0.1056
Figura 7: A´reas da curva normal padra˜o itens (a) e (b), respectivamente.
(iii) P(Z 6 −1.25). Resposta: 0.1056
(iv) P(−0.38 6 Z 6 1.25). Resposta: 0.8944-0.3520=0.5424
Figura 8: P(−0.38 6 Z 6 1.25) como a diferenc¸a entre duas a´reas acumuladas.
Percentis da Distribuic¸a˜o Normal Padra˜o
Para qualquer p, 0 < p < 1 podemos obter o 100p-e´simo percentil da distribuic¸a˜o
normal padra˜o.
Exemplo 2.6. O 99o percentil da distribuic¸a˜o normal padra˜o e´ o valor no eixo horizontal
tal que a a´rea sob a curva a` esquerda do valor seja 0.9900. Este e´ o problema inverso de
P(Z 6 z) =?
20
(a) (b)
Figura 9: Distribuic¸a˜o Normal Padra˜o: (a) Determinac¸a˜o do 99o percentil, (b) Relac¸a˜o
entre o 1o e o 99o percentis.
(i) 99o percentil, z = 2.33.
(ii) 1o percentil, z = −2.33.
(iii) 67o percentil, z = 0.44.
(iv) 95o percentil, z = 1.645 (me´dia de 1.64 e 1.65).
(v) 5o percentil, z = −1.645.
Notac¸a˜o zα:
Em infereˆncia estat´ıstica, precisaremos dos valores do eixo das medidas que encerram
pequenas a´reas da cauda abaixo da curva normal padra˜o.
Definic¸a˜o 2.6. zα representara´ o valor no eixo das medidas para o qual uma a´rea abaixo
da curva Z fuca a´ direita de zα.
Exemplo 2.7. z0.10 conte´m a a´rea sob a cauda superior 0.10 e z0.01 conte´m a a´rea sob a
cauda superior 0.01.
Figura 10: Notac¸a˜o zα ilustrada.
Como α da a´rea abaixo da curva normal padra˜o esta´ a` direita de zα, 1 − α da a´rea
esta´ a` esquerda de zα. Portanto, zα e´ o 100(1−α)-e´simo percentil da distribuic¸a˜o normal
padra˜o. Por simetria, a a´rea abaixo da curva normal e a` esquerda de −zα tambe´m e´ α.
Os zα’s normalmente sa˜o denominados de valores cr´ıticos de z. A Tabela que relaciona
os percentis normais padra˜o mais usados e os valores de zα.
21
Tabela 1: Percentisnormais padra˜o e valores cr´ıticos.
Percentil 90 95 97.5 99 99.5 99.9 99.95
α(a´rea sob a cauda) 0.1 0.05 0.025 0.01 0.005 0.001 0.0005
zα = 100(1− α)-e´simo percentil 1.28 1.645 1.96 2.33 2.58 3.08 3.27
Exemplo 2.8. z0.05 e´ o 100(1−0.05)-e´simo percentil=95o pecentil da distribuic¸a˜o normal
padra˜o, de modo que z0.05 = 1.645. A a´rea abaixo da curva normal padra˜o a` esquerda de
−z0.05 tambe´m e´ 0.05.
Figura 11: Determinac¸a˜o de z0.05.
Teorema 2.1. Sendo X ∼ N(µ, σ2), enta˜o Z = Z−µσ possui distribuic¸a˜o N(0, 1).
Prova: Temos que
P
(
Z − µ
σ
6 z
)
= P (Z 6 zσ + µ)
=
∫ zσ+µ
−∞
1√
2piσ2
e−
(x−µ)2
2σ2 dx
=
∫ z
−∞
1√
2pi
e−
y2
2 dx,
em que usamos y = x−µσ .
Observamos que este u´ltimo integrando e´ a func¸a˜o densidade de uma N(0, 1) e, por-
tanto, o resultado esta´ verificado. A distribuic¸a˜o N(0, 1) e´ denominada Normal Padra˜o.
Corola´rio 2.1. Sendo X ∼ N(µ, σ2), enta˜o Z = Z−µσ possui distribuic¸a˜o N(0, 1) e assim
P(a 6 X 6 b) = P
(
a− µ
σ
6 Z − µ
σ
6 b− µ
σ
)
= FZ
(
b− µ
σ
)
− FZ
(
a− µ
σ
)
.
P(Z 6 a) = FZ
(
a− µ
σ
)
e P(X > b) = 1− FZ
(
b− µ
σ
)
.
22
Figura 12: Igualdade das a´reas de curvas normais na˜o-padra˜o e padra˜o.
Exemplo 2.9. O tempo que um motorista leva para reagir a`s luzes de freio de um ve´ıculo
em desacelerac¸a˜o e´ crucial para evitar coliso˜es traseiras. O artigo “Fast-Rise Brake Lamp
as a Collision-Prevention Device”(Ergonomics, 1993, p. 391-395) sugere que o tempo de
reac¸a˜o de uma resposta no traˆnsito a um sinal de frenagem com luzes de freio convencionais
pode ser modelado com uma distribuic¸a˜o normal de me´dia 1.25 segundos e desvio padra˜o
0.46 segundos. Qual a probabilidade de que o tempo de reac¸a˜o esteja entre 1.00 e 1.75
segundos?
Enta˜o, Z ∼ N(1.25, (0.45)2)
P(1 6 X 6 1.75) = P(−0.54 6 Z 6 1.09) = 0.8621− 0.2946 = 0.5675.
Figura 13: Curvas normais.
Observac¸a˜o 2.9. Seja X ∼ N(µ, σ2). Enta˜o,
i) fX(x) e´ sime´trica com relac¸a˜o a` µ. Portanto,
P(X 6 µ) = 1/2 = P(X > µ)
e
P(X 6 µ− a) = P(X > µ+ a).
ii) µ+ σ e µ− σ sa˜o pontos de inflexa˜o.
iii) Para X ∼ N(µ, σ2), temos que
23
P(|X − µ| < kσ) = P(−kσ < X − µ < kσ) = P(µ− kσ < X < µ+ kσ)
= P(
−kσ
σ
<
X − µ
σ
<
kσ
σ
) = P(−k < X − µ
σ
< k)
= P(−k < Z < k) = P(|Z| < k) = FZ(k)− FZ(−k) = 2FZ(k)− 1,
onde Z ∼ N(0, 1) e Z = X−µσ .
Assim,
a) Para k = 1, P(|X − µ| < σ) = 2FZ(1)− 1 = 2× 0.8413− 1 = 0.6826.
b) Para k = 2, P(|X − µ| < 2σ) = 2FZ(2)− 1 = 2× 0.9772− 1 = 0.9544.
c) Para k = 3, P(|X − µ| < 3σ) = 2FZ(3)− 1 = 2× 0.9987− 1 = 0.9974.
Percentis de uma Distribuic¸a˜o Normal Arbitra´ria
O 100p-e´simo percentil de uma distribuic¸a˜o normal com me´dia µ e variaˆncia σ2 pode
ser facilmente relacionado com o 100p-e´simo percentil da distribuic¸a˜o normal padra˜o.
Proposic¸a˜o 2.1. 100p-e´simo percentil N(µ, σ2) = µ+ [100p-e´simo percentil N(0, 1)]σ.
Outra forma de expressar a proposic¸a˜o: se z e´ o percentil desejado da distribuic¸a˜o
normal padra˜o, enta˜o o percentil desejado da distribuic¸a˜o N(µ, σ2) esta´ a z desvios padra˜o
de µ.
Exemplo 2.10. A quantidade de a´gua destilada produzida por certa ma´quina tem dis-
tribuic¸a˜o normal com valor me´dio de 64 onc¸as e desvio padra˜o de 0.78 onc¸as. Qual o
tamanho do recipiente c que assegurara´ que ocorra transbordamento em apenas 0.5% das
vezes?
Se X representa a quantidade usada, a condic¸a˜o desejada e´ que P(X > c) = 0.005,
ou de forma equivalente P(X 6 c) = 0.995. Assim, c e´ o 99.5o percentil da distribuic¸a˜o
normal com µ = 64 e σ = 0.78. O 99.5o percentil da distribuic¸a˜o normal padra˜o e´ 2.58,
enta˜o
c = 64 + (2.58)(0.78) = 66 onc¸as.
24
Figura 14: Distribuic¸a˜o da quantidade produzida.
Propriedades 2.4. Seja X ∼ N(µ, σ2), enta˜o
(i) E(X) = µ.
(ii) Var(X) = σ2.
2.6 Modelo Chi-Quadrado χ2
Um caso importante da distribuic¸a˜o Γ(α, β), α, β > 0 e´ obtido, se tomarmos α = n/2 e
β = 1/2, onde n e´ um inteiro positivo. Obteremos uma famı´lia de distribuic¸o˜es de um
paraˆmetro.
Se X ∼ Γ(α, β),
fX(x) =
βα
Γ(α)
xα−1e−βxI(0,∞)(x).
Tomando α = n/2 e β = 1/2, temos para x > 0,
fZ(z) =
(1/2)n/2
Γ(n/2)
z
n
2
−1e−
z
2 I(0,∞)(z)
=
1
2n/2Γ(n/2)
z
n
2
−1e−
z
2 I(0,∞)(z).
A v.a. Z, que tem f.d.p. fZ(z), e´ chamada de chi-quadrado, com n graus de liberdade.
Notac¸a˜o: Z ∼ χ2n, ou Z ∼ χ2(n).
(a) (b)
Figura 15: Distribuic¸a˜o χ2n: (a) func¸a˜o densidade de probabilidade, (b) func¸a˜o de dis-
tribuic¸a˜o acumulada.
25
Por ser um caso particular da distribuic¸a˜o Γ(α, β), a distribuic¸a˜o χ2n, tem esperanc¸a
e variaˆncia dados por
X ∼ Γ(α, β)
E(X) = αβ
Var(X) = α
β2
−→ α = n
2
, β =
1
2
−→

Z ∼ χ2n
E(Z) = n
Var(Z) = 2n.
Para n = 1, temos
fZ(z) =
1
21/2Γ(1/2)
z
1
2
−1e−
z
2 I(0,∞)(z) =
1√
2pi
z
−1
2 e−
z
2 I(0,∞)(z).
Para n = 2, temos
fZ(z) =
1
2Γ(1)
z0e−
z
2 I(0,∞)(z) =
1
2
e−
z
2 I(0,∞)(z),
a qual e´ a f.d.p da distribuic¸a˜o exponencial.
Para n > 30, podemos utilizar uma aproximac¸a˜o normal a` distribuic¸a˜o chi-quadrado.
Especificamente, temos o seguinte resultado: Se Z ∼ χ2n, com n graus de liberdade, enta˜o
a v.a.
Y =
√
2Z −√2n− 1 ∼ N(0, 1).
Exemplo 2.11. Consultando a tabela temos que, para n = 30, P(Z > 40.25) = 0.1.
Utilizando a relac¸a˜o acima, temos que z =
√
2× 40, 256−√2× 30− 1 = 1, 291.
Portanto, P(Y > 1, 291)]0.099, onde Y ∼ N(0, 1), que resulta em uma boa apro-
ximac¸a˜o.
Exemplo 2.12. Considere Z ∼ N(0, 1) e a v.a. Y = Z2. Qual a distribuic¸a˜o de Y .
FY (y) = P(Y = y) = P(Z2 < y) = P(−√y < Z < √y) = FZ(√y)− FZ(−√y).
Derivando a expressa˜o acima temos
fY (y) = F
′
Y (y) =
1
2
√
y
[
F ′Z(
√
y)− F ′Z(−
√
y)
]
=
1
2
√
y
[fZ(
√
y)− fZ(−√y)]
=
1
2
√
y
[
1√
2pi
e−y/2 − 1√
2pi
e−y/2)
]
=
1√
2pi
y−1/2e−y/2
Logo, Y ∼ χ21.
Teorema 2.2. Sejam X1, · · · , n v.a. independentes e identicamente distribu´ıdas e Sn =∑n
i=1Xi. Enta˜o,
i) Sn ∼ χ2n ⇐⇒ X1 ∼ χ21
ii) X1 ∼ N(0, 1) ⇐⇒ Sn =
∑n
i=1Xi ∼ χ2n
iii) Y1 ∼ χ2a e Y2 ∼ χ2b , Y1 e Y2 independentes, enta˜o Y1 + Y2 ∼ χ2a+b.
26
Observac¸a˜o 2.10. Seja X1, · · · , Xn uma amostra aleato´ria, com Xj ∼ N(µ, σ2), para
j = 1, · · · , n.
1) Enta˜o,
n∑
j=1
(Xj − µ)2
σ2
=
n∑
j=1
Y 2j ∼ χ2n,
Yj =
(Xj−µ)2
σ2
, para j = 1, · · · , n
2) Seja Y 2 = n(X−µ)
2
σ2
.
Temos que,
E(X) = µ e Var(X) =
σ2
n
,
logo Y =
√
n(X−µ)
σ ∼ N(0, 1).
Portanto, Y 2 = n(X−µ)
2
σ2
∼ χ21.
3) No item anterior, se substituirmos a me´dia da populac¸a˜o µ pela me´dia amostral X,
temos que
n∑
j=1
(Xj −X)2
σ2
∼ χ2n−1.
Como aplicac¸a˜o dessa relac¸a˜o, considera-se o estimador na˜o tendencioso para a variaˆncia
da amostra s2 =
∑n
j=1
(Xj−X)2
n−1 . Assim,
(n− 1)
σ2
n∑
j=1
(Xj −X)2
(n− 1) =
(n− 1)s2
σ2
∼ χ2n−1.
2.7 Modelo Log-Normal
Definic¸a˜o 2.7. Uma varia´vel aleato´ria X tem a distribuic¸a˜o log-normal quando o seu
logaritmo Y = ln(X) (X = eY ) tem a distribuic¸a˜o normal. Logo, sua func¸a˜o de densidade
e´
fX(x) =
1√
2piσ2x2
e−
(ln(x)−µ)2
2σ2 I(0,∞)(x),
Observac¸a˜o 2.11. 1) A esperanc¸a de X = eY , quando Y ∼ N(µ, σ2), e´ dado por
E(X) = E(eY ) = exp(E(Y ) + 0.5Var(Y )) = exp(µ+ 0.5σ2).
2) A variaˆncia da log-normal tambe´m pode ser expressa em func¸a˜o da normal. Sendo
X = eY e Y ∼ N(µ, σ2), temos que
Var(X) = exp(2E(Y ) + Var(Y ))(exp(Var(Y ))− 1) = exp(2µ+ σ2)(exp(σ2)− 1).
27
(a) (b)
Figura 16: Distribuic¸a˜o Log-Normal: (a) func¸a˜o densidade de probabilidade, (b) func¸a˜o
de distribuic¸a˜o acumulada.
2.8 Distribuic¸a˜o t de student
Definic¸a˜o 2.8. Sejam X ∼ N(0, 1) e Y ∼ χ2n, X e Y v.a. independentes. Enta˜o, a v.a.
T =
X√Y/n
=
√
nX√
Y
,
e´ dita ter distribuic¸a˜o t de student com n graus de liberdade.
A func¸a˜o densidade de probabilidade da v.a. T e´ dada por
fT (t) =
Γ(n+12 )
Γ(n/2)
√
npi
(
1− t
2
n
)−(n+1)/2
, t ∈ R.
Notac¸a˜o: T ∼ tn ou T ∼ t(n).
Observac¸a˜o 2.12. 1) Caso particular: se n = 1, temos a distribuic¸a˜o de Cauchy com
α = 0 e β = 1, onde
fT (t) =
1
pi
(1 + t2)−1, t ∈ R.
2) Para n grande, a distribuic¸a˜o t-student se aproxima da distribuic¸a˜o normal.
3) A f.d.p. da distribuic¸a˜o t-student e´ sime´trica em t = 0 e lim
t→∞ fT (t) = 0 = limt→−∞ fT (t)
Figura 17: Distribuic¸a˜o tn: Func¸a˜o densidade de probabilidade.
28
Observac¸a˜o 2.13. Modelo Cauchy: Se X ∼ C(α, β), enta˜o
fX(x) =
1
piβ(1 + (x−αβ )
2)
,
onde α ∈ R e β > 0.
Propriedades: Seja X ∼ C(α, β), enta˜o
i) E(X) = @.
ii) Var(X) = @.
Observac¸a˜o 2.14. Propriedades: Seja X ∼ tn, enta˜o
i) E(X) = 0, se n > 1.
ii) Var(X) = nn−2 , se n > 2.
2.9 Modelo F-Snedecor
Definic¸a˜o 2.9. Sejam X e Y v.a. independentes com distribuic¸a˜o χ2m e χ
2
n, respectiva-
mente. A v.a.
F =
X/m
Y/n
=
n
m
X
Y
,
e´ dita ter distribuic¸a˜o F-Snedecor com (m,n) graus de liberdade.
Notac¸a˜o: F ∼ Fm,n ou F ∼ F (m,n).
A func¸a˜o densidade de probabilidade da v.a. F e´ dada por
fF (x) =
Γ(m+n2 )
Γ(m2 )Γ(
n
2 )
(m
n
)(m
n
x
)m
2
−1 (
1 +
m
n
x
)−(m+n
2
)
I(0,∞)(x).
Figura 18: Distribuic¸a˜o F (m,n),m = 5, n = 2: (a) func¸a˜o de distribuic¸a˜o acumulada,
(b) func¸a˜o densidade de probabilidade.
Observac¸a˜o 2.15. Propriedades:
i) Se X ∼ F (m,n) enta˜o, 1X ∼ F (n,m).
ii) Se Z ∼ C(0, 1) = t1, enta˜o Z2 ∼ F (1, 1).
29
iii) E(F ) = nn−2 , para n > 2.
iv) Var(F ) = n
2(2m+2n−4)
n(n−2)2(n−4) , para n > 4.
v) Se X ∼ tn, enta˜o X2 ∼ F (1, n).
Figura 19: Relac¸o˜es entre as principais distribuic¸o˜es.
30
Tabela 2: Tabela Distribuic¸a˜o Normal Padra˜o Z ∼ N(0, 1): FZ(z) = P(Z 6 z).
0 1 2 3 4 5 6 7 8 9
-3.0 0.0013 0.0010 0.0007 0.0005 0.0003 0.0002 0.0002 0.0001 0.0001 0.0000
-2.9 0.0019 0.0018 0.0017 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014
-2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019
-2.7 0.0035 0.0034 0.0033 0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026
-2.6 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036
-2.5 0.0062 0.0060 0.0059 0.0057 0.0055 0.0054 0.0052 0.0051 0.0049 0.0048
-2.4 0.0082 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064
-2.3 0.0107 0.0104 0.0102 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
-2.2 0.0139 0.0136 0.0132 0.0129 0.0126 0.0122 0.0119 0.0116 0.0113 0.0110
-2.1 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0154 0.0150 0.0146 0.0143
-2.0 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183
-1.9 0.0287 0.0281 0.0274 0.0268 0.0262 0.0256 0.0250 0.0244 0.0238 0.0233
-1.8 0.0359 0.0352 0.0344 0.0336 0.0329 0.0322 0.0314 0.0307 0.0300 0.0294
-1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367
-1.6 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455
-1.5 0.0668 0.0655 0.0643 0.0630 0.0618 0.0606 0.0594 0.0582 0.0570 0.0559
-1.4 0.0808 0.0793 0.0778 0.0764 0.0749 0.0735 0.0722 0.0708 0.0694 0.0681
-1.3 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823
-1.2 0.1151 0.1131 0.1112 0.1093 0.1075 0.1056 0.1038 0.1020 0.1003 0.0985
-1.1 0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170
-1.0 0.1587 0.1562 0.1539 0.1515 0.1492 0.1469 0.1446 0.1423 0.1401 0.1379
-0.9 0.1841 0.1814 0.1788 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611
-0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
-0.7 0.2420 0.2389 0.2358 0.2327 0.2297 0.2266 0.2236 0.2206 0.2177 0.2148
-0.6 0.2743 0.2709 0.2767 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
-0.5 0.3085 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776
-0.4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0.3228 0.3192 0.3156 0.3121
-0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483
-0.2 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859
-0.1 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247
0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7703 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9278 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9430 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9648 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9700 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9762 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9874 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
3.0 0.9987 0.9990 0.9993 0.9995 0.9997 0.9998 0.9998 0.9999 0.9999 1.0000

Outros materiais