Buscar

Probabilidade 1

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 86 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 86 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 86 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Probabilidade 1
José Carlos Fogo
Junho 2014
Teoria da Probabilidade Sumário
Sumário
1 Conceitos Básicos e Definições 3
1.1 Relações entre conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Algumas definições em probabilidade: . . . . . . . . . . . . . . . . . . . . . 6
1.3 Medidas de probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.1 Axiomas de Kolmogorov e espaço de probabilidade . . . . . . . . . 9
1.4 Propriedades das probabilidades . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5 Probabilidade condicional e teorema de Bayes . . . . . . . . . . . . . . . . 15
1.5.1 Probabilidade condicional . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.2 Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.5.3 Independência de eventos . . . . . . . . . . . . . . . . . . . . . . . . 24
1.6 Contagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.6.1 Amostras ordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.6.2 Permutações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.6.3 Amostras Desordenadas . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.6.4 Partições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2 Variáveis Aleatórias 42
2.1 Variáveis Aleatórias Discretas . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.2 Principais modelos de discretos . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2.1 Variável Aleatória Constante . . . . . . . . . . . . . . . . . . . . . . . 48
2.2.2 Distribuição uniforme discreta . . . . . . . . . . . . . . . . . . . . . . 49
2.2.3 Distribuição de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.2.4 Distribuição binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.2.5 Distribuição geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.2.6 Distribuição binomial negativa . . . . . . . . . . . . . . . . . . . . . . 60
2.2.7 Distribuição hipergeométrica . . . . . . . . . . . . . . . . . . . . . . . 62
2.2.8 Distribuição de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.2.9 Distribuições discretas no R . . . . . . . . . . . . . . . . . . . . . . . 73
3 Valor esperado e momentos de uma v.a. discreta 76
3.1 Valor esperado de uma v.a. discreta . . . . . . . . . . . . . . . . . . . . . . . 76
3.2 Propriedades de Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.3 Variância de uma v.a. discreta . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.3.1 Propriedades de Variância . . . . . . . . . . . . . . . . . . . . . . . . 83
3.3.2 Covariância e coeficiente de corelação . . . . . . . . . . . . . . . . . 85
2
Teoria da Probabilidade Conceitos Básicos e Definições
1 Conceitos Básicos e Definições
Estudos de fenômenos ou experimentos aleatórios
⇓
Busca-se avaliar a probabilidade
de ocorrência desses fenômenos.
APLICAÇÕES:
• teoria dos jogos • evolução de doenças
• controle de defeitos • evolução do crescimento populacional
• teoria da decisão • indústria bélica
1.1 Relações entre conjuntos
i) UNIÃO: Notação A ∪B,
sejam A e B eventos quaisquer, a união entre A e B é dada pelos elementos que
pertencem a A ou a B ;
ii) INTERSECCÃO: Notação A ∩B ou AB,
sejam A e B conjuntos quaisquer, a intersecção entre A e B é dada pelos elementos
que pertencem simultaneamente a A e a B ;
iii) COMPLENTAR: Notação Ac;
sejam A e B conjuntos tais que A ⊂ B, então, o evento complementar Ac de A, em
relação àB, é dado pelos elementos deB que não pertencem a A, ou seja, A∪Ac = B;
iv) DIFERENÇA: Notação B − A;
sejam A e B conjuntos quaisquer, então, a diferença B −A é dada pelos elementos de
B que não pertencem a A, ou seja, B − A = B ∩ Ac = BAc;
Nota: Se B ⊃ A, então, B − A = Ac;
v) DIFERENÇA SIMÉTRICA: Notação A M B;
é dada pelos elementos que pertencem exclusivamente a A ou a B, ou seja,
A M B = (A ∩Bc) ∪ (Ac ∩B)
= (A−B) ∪ (B − A);
3
Teoria da Probabilidade Conceitos Básicos e Definições
vi) CONJUNTOS DISJUNTOS: dois conjuntos A e B são disjuntos, ou mutuamente exclu-
sivos, se a intersecção entre eles é vazia, ou seja, A ∩B = ∅;
vi) PARTIÇÃO: os conjuntos A1, A2, . . . , Ak ⊂ Ω formam um partição de Ω se são disjuntos
dois-a-dois e se a união entre eles é igual a Ω, ou seja
– Ai ∩ Aj = ∅, ∀ i 6= j;
–
k⋃
i=1
Ai = Ω.
vi) LEIS DE MORGAN: considere uma sequência qualquer de eventos A1, A2, . . ., então,
segundo as leis de Morgan, valem as relações( ∞⋃
i=1
Ai
)c
=
∞⋂
i=1
Aci ;( ∞⋂
i=1
Ai
)c
=
∞⋃
i=1
Aci .
DEMONSTRAÇÃO VISUAL DAS LEIS DE MORGAN:
 
 
 
Ω
BA
C
AUBUC
(AUBUC)c
Figura 1.1: Diagrama de Venn para a união ( A ∪ B ∪ C )c
 
 
 
Ω
Ac
A
 
 
 
Ω
B
Bc
 
 
 
Ω
C
Cc
Figura 1.2: Eventos complementares Ac, Bc e Cc, respectivamente
4
Teoria da Probabilidade Conceitos Básicos e Definições
 
 
 
Ω
BA
C
Figura 1.3: Diagrama de Venn para a intersecção Ac ∩ Bc ∩ Cc
DEMONSTRAÇÃO FORMAL DAS LEIS DE MORGAN: 1a parte (Magalhães ou Hoel)
IDEIA: mostrar que
i)
( ∞⋃
i=1
Ai
)c
⊂
∞⋂
i=1
Aci ;
ii)
( ∞⋃
i=1
Ai
)c
⊃
∞⋂
i=1
Aci .
RESULTADO: Sejam A e B conjuntos quaisquer, então, se A ⊂ B e A ⊃ B =⇒ A = B.
Prova da parte (i):
Seja w ∈ (
∞⋃
i=1
Ai)
c =⇒ w /∈
∞⋃
i=1
Ai =⇒ w /∈ Ai, ∀ i = 1, 2, . . .
Desta forma, w ∈ Aci ,∀i = 1, 2, . . . =⇒ w ∈
∞⋂
i=1
Aci ,
o que prova a parte (i).
Prova da parte (ii):
Seja w ∈
∞⋂
i=1
Aci =⇒ w ∈ Aci =⇒ w /∈ Ai, ∀ i = 1, 2, . . .
Desta forma, w /∈
∞⋃
i=1
Ai, ∀ i = 1, 2, . . . =⇒ w ∈ (
∞⋃
i=1
Ai)
c,
5
Teoria da Probabilidade Conceitos Básicos e Definições
o que prova completa a prova.
1.2 Algumas definições em probabilidade:
a) EXPERIMENTO ALEATÓRIO: é um experimento no qual
– todos os resultados possíveis são conhecidos antecipadamente;
– uma realização do experimento resulta num dos possíveis resultados;
– pode ser repetido em condições idênticas.
Exemplo: Considere uma caixa com b bolas numeradas de 1 a b. Uma bola é retirada e
seu número é anotado.
b) ESPAÇO AMOSTRAL: é o conjunto dos resultados possíveis para um experimento ale-
atório. É denotado por Ω.
Pode ser:
i) Discreto
Finito: formado por um conjunto finito de pontos;Infinito: conjunto infinito e enumerável de pontos;
ii) Contínuo: formado por um conjunto não enumerável de pontos.
Exemplo: No experimento da retirada de uma bola de uma da caixa, Ω é um espaço
amostral finito dado pelo conjunto com b pontos, no caso Ω = { 1, 2, . . . , b }.
c) EVENTO: um evento é qualquer subconjunto do espaço amostral Ω, associado a um
experimento.
Notas:
1) Os eventos serão identificados por letras de fôrma e maiúsculas do algarismo ará-
bico, por exemplo A,B,C, . . ..
2) Aos eventos é que serão associadas probabilidades;
Exemplo: Na retirada de uma bola da caixa seja o evento A definido por:
A = {o resultado é um número par}.
Casos Especiais:
6
Teoria da Probabilidade Conceitos Básicos e Definições
i) Evento Complementar: Seja um evento qualquer A ⊂ Ω, então, seu evento com-
plementar Ac será definido pelos elementos de Ω que não estão em A.
Um evento A e seu complementar Ac são tais que A ∪ Ac = Ω.
ii) Eventos Disjuntos: Dois eventos quaisquer A e B são disjuntos, ou mutuamente
exclusivos se A ∩B = ∅.
iii) Eventos Elementares: Seja um espaço amostral finito Ω = {ω1, ω2, . . . , ωN}, em
que ωi, i = 1, 2, . . . , N são resultados elementares.
Um evento formado por um resultado elementar é chamado evento elementar.
Neste caso,
Ai = {ωi}, i = 1, 2, . . . , N,
são eventos elementares.
Notas:
1)Sejam dois eventos elementares Ai e Aj , i 6= j, então, Ai ∩ Aj = ∅;
2) Qualquer evento pode ser escrito como uniões de eventos elementares.
Particularmente, Ω = A1 ∪ A2 ∪ . . . ∪ AN .
Como o espaço amostral é finito, será associada uma probabilidade pi = 1/N para
cada ωi, i = 1, 2, . . . , N .
É intuitivo que 0 ≤ pi ≤ 1 e que p1 + p2 + . . .+ pN = 1.
Se, além disso, o espaço amostral for equiprovável (ou homogêneo), então,
pi =
1
N
∀ ωi ∈ Ω, i = 1, 2, . . . , N.
d) σ-ÁLGEBRA:
Seja uma coleção não vazia A de subconjuntos de Ω aos quais desejamos associar
probabilidades. Então A deve ser tal que, se A e B ∈ A , faz sentido calcular probabi-
lidades de que
i) A ou B ocorra, ou seja, (A ∪B);
ii) A e B ocorram, ou seja, (A ∩B);
iii) não ocorra A, ou seja, Ac.
Portanto, para A e B ∈ A , se A atender às propriedades:
7
Teoria da Probabilidade Conceitos Básicos e Definições
i) Ω ∈ A ;
ii) se A ∈ A =⇒ Ac ∈ A ;
iii) se A ∈ A e B ∈ A =⇒ (A ∪B) ∈ A .
então A é dita ser uma álgebra de subconjuntos (eventos) de Ω.
Além disso, deseja-se queA seja fechada também para um número infinito e enumerável
de operações (uniões e intersecções).
Definição: A é uma σ-álgebra de subconjuntos (eventos) de Ω se, e só se
i) Ω ∈ A ;
ii) se A ∈ A =⇒ Ac ∈ A ;
iii) se A1, A2, . . . ∈ A =⇒
∞⋃
i=1
Ai ∈ A .
Notas:
1) toda σ-álgebra é uma álgebra, porém, nem toda álgebra é uma σ-álgebra;
2) Seja A uma σ-álgebra de Ω, então, se A1, A2, . . . ∈ A =⇒
∞⋂
i=1
Ai ∈ A .
Exemplo: 1) Considere o lançamento de uma moeda, então Ω = { cara, coroa }
• A1 = {∅,Ω } → menor σ-álgebra;
• A2 = {∅, {cara}, {coroa},Ω } → σ-álgebra, classe de todos os subconjuntos de Ω.
Exemplo: 2) Considere o espaço amostral Ω = { 1, 2, 3 }
• A1 = {∅,Ω, {1}, {2, 3} } → é uma σ-álgebra
(todos os complementares e uniões estão presentes).
• A2 = {∅,Ω, {1}, {2}, {1, 3}, {2, 3} } → não é σ-álgebra pois: {1} ∪ {2} /∈ A2
(todos os complementares estão presentes, mas não todas as uniões).
8
Teoria da Probabilidade Conceitos Básicos e Definições
1.3 Medidas de probabilidade
a) EM ESPAÇOS FINITOS: número de resultados favoráveis a um evento, dividido pelo
número de resultados possíveis, assumindo que todos os resultados seja equiprováveis
P (A) =
card(A)
card(Ω)
em que Ω é o conjunto de resultados possíveis (espaço amostral).
b) GENERALIZAÇÃO PARA ESPAÇOS INFINITOS: se Ω é uma região com uma medida
bem definida, então
P (A) =
medida de A
medida de Ω
Exemplo: Um indivíduo realiza um tiro ao acaso num alvo circular de raio R. Qual a pro-
babilidade de que acerte o círculo central de raio r (r < R)?
 
 
 
R
Ω
r
A
P (A) =
área central (A)
área do alvo (Ω)
P (A) =
pir2
piR2
=
( r
R
)2
1.3.1 Axiomas de Kolmogorov e espaço de probabilidade
A definição a seguir é conhecida como Axiomas de Kolmogorov (Kolmogorov, 1933) e
define uma medida de probabilidade.
MEDIDA DE PROBABILIDADE: Seja Ω um espaço amostral e A uma σ-álbegra de even-
tos de Ω. P (.) é uma medida de probabilidade em (Ω,A ) se satisfaz
i) P (A) ≥ 0, ∀ A ∈ A ;
ii) P (Ω) = 1;
9
Teoria da Probabilidade Conceitos Básicos e Definições
iii) se A1, A2, . . . formam uma seqüência disjunta, então P
( ∞⋃
i=1
Ai
)
=
∞∑
i=1
P (Ai).
A trinca formada por (Ω,A , P ) é chamada de ESPAÇO DE PROBABILIDADE.
Um espaço de probabilidade é formado por um espaço amostral Ω, uma σ-álgebra de
eventos de Ω e uma medida de probabilidade P (A) ∀ A ∈ A .
Exemplo: 1) Número de ocorrências de um fenômeno.
Espaço amostral: Ω = { 1, 2, 3, . . . };
σ-álbegra: A = classe dos subconjuntos de Ω;
Medida de probabilidade: P (k) =
1
2k
, k = 1, 2, . . .
Checar os axiomas:
i) P (A) é dada pela soma de probabilidades de eventos elementares ωi ∈ A, i = 1, 2, . . .
=⇒ P (A) ≥ 0, ∀ A;
ii)
∞∑
i=1
P (k) =
1/2
1− 1/2 = 1 =⇒ P (Ω) = 1;
iii) A união de eventos disjuntos, forma um conjunto ao se aplica o resultado (i), que equi-
vale à soma das suas probabilidades individuais.
Exemplo: 2) Tempo de vida de pacientes.
Espaço amostral: Ω = { T ∈ R | 0 ≤ T <∞};
σ-álbegra: A = σ-álbegra de Borel;
Medida de probabilidade: P (A) =
∫
A
e−xdx, em que A ⊆ Ω são intervalos no conjunto
dos reais.
10
Teoria da Probabilidade Conceitos Básicos e Definições
1.4 Propriedades das probabilidades
Considere que os conjuntos abaixo seja, eventos no espaço de probabilidade (Ω,A , P ).
Então, tem-se que
a) P (A) = 1− P (Ac);
Nota: caso especial P (∅) = 1− P (Ω) = 0.
b) Sejam A e B eventos quaisquer, então P (B) = P (B ∩ A) + P (B ∩ Ac).
PROVA: i) para todo conjunto A tem-se que A ∪ Ac = Ω.
ii) Como B = B ∩ Ω = B ∩ (A ∪ Ac) = (B ∩ A) ∪ (B ∩ Ac)
iii) e como (B ∩ A) e (B ∩ Ac) são disjuntos, segue-se que
P (B) = P (B ∩ A) + P (B ∩ Ac).
Nota: Se A ⊂ B, então A ∩B = A e P (B) = P (A) + P (B ∩ Ac).
c) Se A ⊂ B, então P (A) ≤ P (B).
PROVA: Sai direto da relação anterior e dos axiomas.
d) Se A e B são eventos quaisquer, então P (A ∪B) = P (A) + P (B)− P (A ∩B).
 
 
 
Ω
A
A ∩ Bc
B
Ac ∩ BA ∩ B
Figura 1.4: (A ∪ B) como união de conjuntos disjuntos
11
Teoria da Probabilidade Conceitos Básicos e Definições
PROVA:
i) Os conjuntos (A ∩Bc), (A ∩B) e (Ac ∩B) são disjuntos, logo.
→ A ∪B = (A ∩Bc) ∪ (A ∩B) ∪ (Ac ∩B),
→ P (A ∪B) = P (A ∩Bc) + P (A ∩B) + P (Ac ∩B).
ii) Tem-se, ainda, que
→ P (A) = P (A ∩Bc) + P (A ∩B) e
→ P (B) = P (Ac ∩B) + P (A ∩B).
iii) Somando-se as probabilidades em (ii) obtem-se
P (A) + P (B) = P (A ∩Bc) + P (Ac ∩B) + P (A ∩B) + P (A ∩B), e, de (i) tem-se que
P (A) + P (B) = P (A ∪B) + P (A ∩B), de onde se conclui que
=⇒ P (A ∪B) = P (A) + P (B)− P (A ∩B).
Notas: 1) Da relação (d) segue-se que P (B ∪ A) ≤ P (A) + P (B);
2) Se A e B são disjuntos, então P (B ∪ A) = P (A) + P (B).
e) Das propriedades (c) e (d) tem-se P (
n⋃
i=1
Ai) ≤
n∑
i=1
P (Ai).
PROVA: Por indução.
g) Das leis de Morgan tem-se que
P
(
n⋃
i=1
Ai
)
= 1− P
(
n⋂
i=1
Aci
)
.
g) PARTE 1: Se A1 ⊂ A2 ⊂ . . . e A =
∞⋃
i=1
Ai ou
PARTE 2: Se A1 ⊃ A2 ⊃ . . . e A =
∞⋂
i=1
Ai,
então segue-se que lim
n→∞
P (An) = P (A).
PROVA: (PARTE 1)
→ seja B1 = A1;
12
Teoria da Probabilidade Conceitos Básicos e Definições
→ para n ≥ 2, seja Bn o conjunto de pontos que estão em An mas não estão em An−1,
ou seja Bn = An ∩ Acn−1;
→ os conjuntos Bn, n = 1, 2, . . . são todos mutuamente exclusivos e, ainda
An =
n⋃
i=1
Bi e A =
∞⋃
i=1
Bi;
→ conseqüentemente:
a) P (An) =
n∑
i=1
P (Bi) ,
b) P (A) =
∞∑
i=1
P (Bi) .
Desta forma, aplicando-se o limite para n→∞ em (a), tem-se
lim
n→∞
P (An) = lim
n→∞
n∑
i=1
P (Bi)
=
∞∑
i=1
P (Bi)
de (b)
= P (A) ,
o que completa a prova.
PROVA: (PARTE 2) Exercício.
→ observar que A1 ⊃ A2 ⊃ . . .⇒ Ac1 ⊂ Ac2 ⊂ . . ..
Exemplo: 1) Um dado equilibrado é lançado k = 2 vezes e os resultados anotados.
O espaço amostral para o experimento é:
Ω =
{
ω = (i, j) ∈ R2 | i = 1, . . . 6 e j = 1, . . . , 6}
Sejam:
A = classe de todos os subconjuntos de Ω e
P = probabilidade uniforme para todos os pontos de Ω, ou seja, P ({ω}) = 1
card(Ω)
.
O número de eventos elementares w’s é dado por card(Ω) = nk, em que
→ n total de resultados possíveis em uma realização do experimento, no caso n = 6,
→ k é o número de realizações do experimento, no caso k = 2.
Nesse caso, tem-se: card(Ω) = 36 ⇒ P ({ω}) = 1
36
, ∀ ω ∈ Ω.
Considere os eventos:
A = a soma dos resultados é um número ímpar;
13
Teoria da Probabilidade Conceitos Básicos e Definições
B = o resaultado do primeiro lançamento é um número ímpar;
C = o produto é um número ímpar.
Encontrar P (A ∪B) e P (A ∪B ∪ C).
Pontos favoráveis a cada um dos eventos:
A = { (1,2), (1,4),(1,6), (3,2), (3,4), (3,6), (5,2), (5,4), (5,6),
(2,1), (4,1), (6,1), (2,3), (4,3), (6,3), (2,5), (4,5), (6,5) };
B = { (1,1), (1,2), (1,3), (1,4), (1,5), (1,6), (3,1), (3,2), (3,3),
(3,4), (3,5), (3,6), (5,1), (5,2), (5,3), (5,4), (5,5), (5,6) };
C = { (1,1), (1,3), (1,5), (3,1), (3,3), (3,5), (5,1), (5,3), (5,5) }.
Resultados:
I card(A) = 18 =⇒ P (A) = 18
36
=
1
2
;
I card(B) = 18 =⇒ P (B) = 18
36
=
1
2
;
I card(C) = 9 =⇒ P (C) = 9
36
=
1
4
.
Intersecções:
i) A ∩B = { (1,2), (1,4), (1,6), (3,2), (3,4), (3,6), (5,2), (5,4), (5,6) }⇒ P (A ∩B) = 1
4
;
ii) A ∩ C = { ∅ }⇒ P (A ∩ C) = 0;
iii) como C ⊂ B, segue-se que B ∩ C = C,⇒ P (B ∩ C) = P (C) = 1
4
;
iv) de (ii), tem-se que A ∩B ∩ C = { ∅ }⇒ P (A ∩B ∩ C) = 0;
Da propriedade (d), tem-se que:
P (A ∪B) = P (A) + P (B)− P (A ∩B) = 1
2
+
1
2
− 1
4
=
3
4
Para encontrar P (A ∪B ∪ C) utiliza-se, ainda, a propriedade (d) fazendo:
P (A ∪B ∪ C) = P [(A ∪B) ∪ C] = P (A ∪B) + P (C)− P [(A ∪B) ∩ C]
= P (A) + P (B)− P (A ∩B) + P (C)− P [(A ∩B) ∪ (B ∩ C)]
= P (A) + P (B) + P (C)− P (A ∩B)− P (A ∩ C)− P (B ∩ C) + P (A ∩B ∩ C)
=
1
2
+
1
2
+
1
4
− 1
4
− 1
4
=
3
4
14
Teoria da Probabilidade Conceitos Básicos e Definições
Esse problema pode ser resolvido escolhendo-se um outro espaço amostral.
O lançamento de um dado pode ser representado por p se o resultado for par e por i se o
resultado for ímpar. Assim sendo, o novo espaço amostral pode ser escrito por:
Ω1 = { (p, p), (p, i), (i, p), (i, i) }
Como o espaço amostral original Ω é um espaço equiprovável, é fácil verificar que:
P [(p, p)] = P [(p, i)] = P [(i, p)] = P [(i, i)] =
1
4
.
Pontos favoráveis a cada um dos eventos:
A = {(p, i), (i, p)} =⇒ P (A) = 2
4
=
1
2
;
B = {(p, i), (i, i)} =⇒ P (B) = 2
4
=
1
2
;
C = {(i, i)} =⇒ P (C) = 1
4
.
1.5 Probabilidade condicional e teorema de Bayes
Em muitas situações, conhecimentos passados podem influenciar as probabilidades dos
eventos.
Por exemplo, a probabilidade de chuva num determinado dia pode ser influenciada se
choveu no dia anterior.
Sejam A e B eventos quaisquer associados ao espaço de probabilidade (Ω,A , P ), então,
para todo ω ∈ Ω,
→ se ω ∈ B, então ω ∈ A⇐⇒ ω ∈ (A ∩B).
Em outras palavras, sabendo que o evento B ocorreu, então, o evento A ocorre se, e só
se, ocorre a intersecção A ∩B.
Nesse caso, tem-se um novo espaço amostral dado pelo evento B, uma nova σ-álgebra
AB e uma nova medida de probabilidade PB, aplicada em subconjuntos de AB, satisfazendo
os axiomas de Kolmogorov
PB =
P (A ∩B)
P (B)
.
Portanto, (B, AB e PB) formam um novo espaço de probabilidade.
Prova: A prova fica como exercício para o leitor.
15
Teoria da Probabilidade Conceitos Básicos e Definições
Esquematicamente:
 
 
 
Ω
A BA ∩ B
Figura 1.5: Evento condicional.
1.5.1 Probabilidade condicional
Sejam os eventos A e B tais que P (B) > 0, então, define-se a probabilidade condicional
de B dado que ocorreu A por
P (A|B) = P (A ∩B)
P (B)
.
Notas: 1) Se P (B) = 0 =⇒ P (A|B) = P (A) (Magalhães, 2004);
2) Da definição de probabilidade condicional tem-se a relação P (A∩B) = P (A|B)P (B),
conhecida como regra do produto das probabilidades.
Exemplo 1) Uma caixa comtém r bolas vermelhas numeradas de 1 a r e b bolas brancas,
numeradas de 1 a b. Uma bola é extraída, sua cor observada. Sabendo que a bola é vermelha,
qual a probabilidade de que seja a de número 1?
A caixa contém (r + b) bolas logo, a probabilidade de uma bola qualquer é
1
(r + b)
.
Censidere os eventos:
A = { a bola extraída é vermelha }, logo, P (A) =
r
(r + b)
B = { a bola extraída é a de número 1 }, logo, P (B) =
2
(r + b)
16
Teoria da Probabilidade Conceitos Básicos e Definições
Como P (B ∩ A) = 1
(r + b)
, então,
P (B|A) = P (B ∩ A)
P (A)
=
1/(r + b)
r/(r + b)
=
1
r
.
Exemplo 2) Duas moedas idênticas são lançadas. Determine:
a) A probabilidade de se obter 2 caras sabendo que se obteve cara na primeira moeda.
Espaço amostral =⇒ Ω = {(c, c); (c, c¯); (c¯, c); (c¯, c¯)}, em que c = cara e c¯ = coroa.
Sejam os eventos:
C1 = { cara na 1
a moeda } =⇒ P (C1) = P [(c, c); (c, c¯)] = 2
4
;
C2 = { cara na 2
a moeda } =⇒ P (C2) = P [(c, c); (c¯, c)] = 2
4
.
Como P (C2 ∩ C1) = P [(c, c)] = 1
4
,
logo,
P (C2|C1) = P (C2 ∩ C1)
P (C1)
=
P [(c, c)]
P [(c, c); (c, c¯)]
=
1/4
2/4
=
1
2
.
b) A probabilidade de se obter 2 caras sabendo que se obteve pelo menos uma cara.
Neste caso os eventos são definidos por:
=⇒ {sair duas caras} = C1 ∩ C2;
=⇒ {sair ao menos um cara} = C1 ∪ C2;
Desta forma:
P (C1 ∩ C2|C1 ∪ C2) = P (C1 ∩ C2)
P (C1 ∪ C2) =
P [(c, c)]
P [(c, c); (c, c¯); (c¯, c)]
=
1/4
3/4
=
1
3
.
Exemplo 3) (Urna de Polya) Uma caixa comtém r bolas vermelhas e b bolas brancas. Uma
bola é extraída, sua cor observada e, a seguir, a bola é recolocada na caixa com mais c > 0
bolas da mesma cor. Esse procedimento é repetido m vezes.
O interesse aqui consiste em saber qual a probabilidade de se extrair uma bola vermelha
(ou branca) em cada uma das m retiradas.
17
Teoria da Probabilidade Conceitos Básicos e Definições
Sejam:
i) Rj : a j-ésima bola retirada é vermelha;
ii) Bj : a j-ésima bola retirada é branca, 1 ≤ j ≤ m.
Então:
⇒ Rj e Bj são disjuntos e
⇒ na j-ésima extração tem-se [b+ r + (j − 1) c] bolas na urna.
Para j = 1:
i) P (R1) =
r
b+ r
,
ii) P (B1) =
b
b+ r
.
Para j = 2:
i) P (R2|R1) = (r + c)
(b+ r + c)
;
ii) P (R1R2) = P (R1)P (R2|R1);
⇒ P (R1R2) = r
(b+ r)
(r + c)
(b+ r + c)
.
De maneira análoga,
⇒ P (B1 R2) = b
(b+ r)
r
(b+ r + c)
.
Logo, a probabilidade de que se extraia uma bola vermelha na segunda retirada é:
P (R2) = P (R1R2) + P (B1R2)
=
(
r
b+ r
)(
r + c
b+ r + c
)
+
(
b
b+ r
)(
r
b+ r + c
)
=
(
r
b+ r
)(
r + c
b+ r + c
+
b
b+ r + c
)
=
(
r
b+ r
)(
r + c+ b
b+ r + c
)
=
(
r
b+ r
)
Portanto:
18
Teoria da Probabilidade Conceitos Básicos e Definições
i) P (R2) = P (R1) =
r
b+ r
,
ii) P (B2) = P (B1) =
b
b+ r
.
Para j = 3:
Qual a probabilidade de vermelha na 3a extração?
Possibilidades:
i) R1R2R3 ⇒ P (R1R2R3) = P (R3|R1R2)P (R2|R1)P (R1);
ii) R1B2R3 ⇒ P (R1B2R3) = P (R3|R1B2)P (B2|R1)P (R1);
iii) B1R2R3 ⇒ P (B1R2R3) = P (R3|B1R2)P (R2|B1)P (B1);
iv) B1B2R3 ⇒ P (B1B2R3) = P (R3|B1B2)P (B2|B1)P (B1).
Com um pouco de esforço algébrico obtêm-se:
i) P (R3) = P (R1) =
r
b+ r
,
ii) P (B3) = P (B1) =
b
b+ r
.
Enfim, pode-se provar por indução que, P (Rj) = P (R1) e P (Bj) = P (B1), ∀ 1 ≤ j ≤ m.
1.5.2 Teorema de Bayes
Sejam os eventosE1, E2, . . . , Em em (Ω,A , P ) formando uma partição em Ω tal que todos
têm probabilidades positivas, ou seja, P (Ei) > 0, ∀ i = 1, 2, . . . ,m. Considere, ainda, um
evento A qualquer, P (A) > 0, ocorrendo sobre a partição de Ω.
O objetivo, nesta situação, consiste em determinar a probabilidade de ocorrência de uma
das partes de Ω dado que ocorreu o evento A, ou seja, P (Ek|A), k = 1, 2, . . . ,m.
Cmo pode-se observar pela Figura (1.6), o eventoA pode ser escrito como união de partes
disjuntas, formadas pela intersecção de A com as partes de Ω, ou seja
A = (A ∩ E1) ∪ (A ∩ E2) ∪ (A ∩ E3) ∪ (A ∩ E4) ∪ (A ∩ E5) ∪ (A ∩ E6) =
6⋃
i=1
(A ∩ Ei)
19
Teoria da Probabilidade Conceitos Básicos e Definições
Figura 1.6: Ocorrência de um evento A sobre uma partição de Ω com m = 6.
Para um m qualquer,
A = (A ∩ E1) ∪ (A ∩ E2) ∪ . . . ∪ (A ∩ Em) =
m⋃
i=1
(A ∩ Ei),
logo, a probabilidade do evento A é dada por
P (A) = P
[
m⋃
i=1
(A ∩ Ei)
]
=
m∑
i=1P (A ∩ Ei).
Pela regra do produto, tem-se que
P (A) = P
[
m⋃
i=1
(A ∩ Ei)
]
=
m∑
i=1
P (A|Ei)P (Ei).
O resultado acima é conhecido como lei da probabilidade total.
Para um Ek qualquer, k = 1, 2, . . . ,m, pode-se escrever P (A ∩ Ek) = P (A|Ek)P (Ek),
logo, a probabilidade de ocorrência de Ek dado que ocorreu A, é dada por:
P (Ek|A) = P (Ek ∩ A)
P (A)
P (Ek|A) = P (A|Ek)P (Ek)m∑
i=1
P (A|Ei)P (Ei)
, k = 1, 2, . . . ,m, (1.1)
o resultado em (1.1) é conhecido como teorema de Bayes. Foi obtido pelo Reverendo Thomas
Bayes e publicado em 1763, sendo um dos teoremas mais importantes da teoria estatística.
Exemplo 1) Numa população adulta 40% são homens e 60% mulheres. Sabe-se, ainda,
que 50% dos homens e 30% das mulheres são fumantes. Determine:
20
Teoria da Probabilidade Conceitos Básicos e Definições
a) A probabilidade de que uma pessoa escolhida ao acaso nesta população seja fumante.
Partição do espaço amostral =⇒ sexo = {H,M}.
Sejam os eventos:
H = { a pessoa escolhida é do sexo masculino (homem) } =⇒ P (H) = 0.40;
M = { a pessoa escolhida é do sexo feminino (mulher) } =⇒ P (M) = 0.60;
F = { a pessoa escolhida é fumante };
F c = { a pessoa escolhida não é fumante }.
Como P (F |H) = 0.50 e P (F |M) = 0.30, então, pela regra da probabilidade total:
P (F ) = P (F ∩H) + P (F ∩M)
P (F ) = P (F |H)P (H) + P (F |M)P (M)
P (F ) = 0.50 · 0.40 + 0.30 · 0.60
P (F ) = 0.38
b) A probabilidade de que seja um homem sabendo que é um fumante.
Pelo teorema de Bayes, tem-se a relação:
P (H|F ) = P (H ∩ F )
P (F )
P (H|F ) = P (F |H)P (H)
P (F )
P (H|F ) = 0.20
0.38
P (H|F ) = 0.5263,
portanto, a probabilidade de ser um homem dado que é fumante é de 0.5263.
Uma forma conveniente para se representar as probabilidades acima é através da ”arvore
de probabilidades”, nas quais representamos as probabilidades das partes e probabilidades
condicionais em ramos, conforme Figura (1.7). Nesse esquema, as probabilidades conjuntas
(das intersecções) são obtidas percorrendo-se os ramos e multiplicando-se as probabilidades.
21
Teoria da Probabilidade Conceitos Básicos e Definições
Figura 1.7: Diagrama de árvore para o exemplo (1).
Exemplo 2) Sabe-se que numa população 8% das pessoas são infectadas por um vírus
causador de uma doença muito grave. Um teste para detecção do vírus é eficiente em 99%
dos casos nos quais os indivíduos são infectados, mas resulta em 2% de resultados positivos
para os não infectados (falsos positivos).
Se o teste de uma pessoa dessa população der resultado positivo, qual a probabilidade
de que ela seja da fato infectada?
Defindo-se: I ⇒ grupo das pessoas infectadas;
Ic ⇒ grupo dos não infectados;
T+ ⇒ o resultado do teste é positivo;
T− ⇒ o resultado do teste é negativo;
tem-se as probabilidades: P (I) = 0.08; P (Ic) = 0.92; P (T+|I) = 0.99 e P (T+|Ic) = 0.02.
Porém, deseja-se calcular a probabilidade: P (I|T+)
que pela regra da probabilidade condicional é dada por P (I|T+) = P (I ∩ T
+)
P (T+)
.
As probabilidades podem ser representadas na seguinte tabela:
Tabela 1.1: Probabilidades
Resultado do teste Totais das
Grupo T+ T− linhas
I P (I ∩ T+) P (I ∩ T−) 0.08
Ic P (Ic ∩ T+) P (Ic ∩ T−) 0.92
Totais das colunas P (T+) P (T−) 1.00
22
Teoria da Probabilidade Conceitos Básicos e Definições
Pela regra do produto e pela lei da probabilidade total, encontra-se P (T+) de:
P (T+) = P (I ∩ T+) + P (Ic ∩ T+)
= P (T+|I)P (I) + P (T+|Ic)P (Ic)
= 0.99 · 0.08 + 0.02 · 0.92
= 0.0792 + 0.0184
= 0.0976
e, pelo teorema de Bayes, tem-se
P (I|T+) = P (T
+|I)P (I)
P (T+)
=
0.0792
0.0976
= 0.8115.
Qual seria a confiança no teste se o resultado fosse negativo, ou seja, qual a probabilidade
de o teste sendo negativo a pessoa de fato não seja infectada?
Deseja-se: P (Ic|T−) = P (I
c ∩ T−)
P (T−)
.
Como: P (T−) = P (I ∩ T−) + P (Ic ∩ T−) = 0.01 · 0.08 + 0.98 · 0.92 = 0.9024,
então, P (Ic|T−) = P (T
−|Ic)P (Ic)
P (T−)
=
0.9016
0.9024
= 0.9991,
portanto, se o teste for negativo a pessoa pode se sentir segura.
Na Figura (1.8) é apresentada o diagrama de árvore para o resultado acima.
Figura 1.8: Diagrama de árvore para o exemplo (2).
23
Teoria da Probabilidade Conceitos Básicos e Definições
1.5.3 Independência de eventos
Sejam o espaço de probabilidade (Ω,A , P ) e sejam os eventos A e B ∈ A , tal que
P (B) > 0. Pela regra da multiplicação pode-se escrever
P (A ∩B) = P (A|B)P (B).
Em alguns casos, no entanto, informações prévias a respeito do evento B não afetam a
probabilidade de ocorrência de A, isto é, a probabilidade concicional de A dado B é igual à
P (A), ou seja
P (A|B) = P (A).
Definição: Sejam dois eventos A e B, com probabilidades maiores do que zero, tais que
a ocorrência de um deles não altera a probabilidade de ocorrência do segundo, então, esses
eventos são ditos indepententes.
Da regra da multiplicação das probabilidades, portanto, se dois eventos A e B são inde-
pendentes então a probabilidade de ocorrência conjunta dos dois é dada pelo produto das
probabilidades individuais, ou seja,
P (A ∩B) = P (A)P (B). (1.2)
Seja A1, A2, . . . , Ak, k eventos independentes, então, de (1.2)
P (A1 ∩ A2 ∩ . . . ∩ Ak) = P (A1) · P (A2) · . . . · P (Ak)
Exemplo 1) Duas moedas idênticas são lançadas separadamente.
Ω = {(c, c); (c, c¯); (c¯, c); (c¯, c¯)}, em que c = cara e c¯ = coroa.
Sejam os eventos:
A = { cara no 2º lançamento } =⇒ P (A) = P [(c, c); (c¯, c)] = 1
2
;
B = { cara no 1º lançamento } =⇒ P (B) = P [(c, c); (c, c¯)] = 1
2
.
Determine P (A|B).
P (A|B) = P (A ∩B)
P (B)
=
1/4
1/2
=
1
2
= P (A).
24
Teoria da Probabilidade Conceitos Básicos e Definições
Portanto, conclui-se que A e B são independentes, ou seja, a ocorrência de cara no
primeiro lançamento não altera a probabilidade de que saia cara no segundo lançamento.
Propriedades de independência:
a) Seja um evento A tal que P (A) = 0, então A é independente de todo evento E ∈ A ,
em que P (E) > 0;
Prova: Se P (A) = 0
=⇒ P (E ∩ A) = P (E|A)P (A) = 0 = P (E) · P (A), ∀ E ∈ A �
b) Se A ∈ A é um evento qualquer tal que P (A) > 0, então A é independente de ∅ e Ω;
Prova:
i) A prova de que A e ∅ são independentes sai direto de (a), já que P (∅) = 0;
ii) Para a prova de que A e Ω são independentes, considere que A = A ∩ Ω, logo
=⇒ P (Ω ∩ A) = P (A) = P (A) · (1) = P (A)P (Ω) �
c) Se os eventos de A e B forem independentes, então A e Bc; Ac e B; Ac e Bc também
o são;
Prova: A seguir será apresentada apenas a prova de que A e Bc também são indepen-
dentes. As demais ficam como exerício para o leitor.
O evento A pode ser escrito por A = (A∩B)∪ (A∩Bc), (A∩B) e (A∩Bc) disjuntos,
logo
P (A) = P (A ∩B) + P (A ∩Bc)
P (A) = P (A)P (B) + P (A ∩Bc)
P (A)− P (A)P (B) = P (A ∩Bc)
P (A)[1− P (B)] = P (A ∩Bc)
P (A)P (Bc) = P (A ∩Bc) �
Definição: Seja A1, A2, . . . , Ak, k eventos independentes. Se, para qualquer subconjunto
A1, A2, . . . , Ar, tal que r ≤ k, os eventos forem independentes, ou seja,
P (A1 ∩ A2 ∩ . . . ∩ Ar) = P (A1) · P (A2) · . . . · P (Ar),
então A1, A2, . . . , Ak são chamados mutuamente independentes.
25
Teoria da Probabilidade Conceitos Básicos e Definições
Em outras palavras, os eventos A1, A2, . . . , Ak são mutuamente independentes se forem
independentes dois-a-dois, três-a-três, e assim por diante . . .
Exemplo 2) A probabilidade de que um homem esteja vivo daqui a 10 anos é de 3/4 e de
sua esposa, é de 5/6. Qual é a probabilidade de que, daqui a 10 anos:
a) Ambos estejam vivos?
Considere os eventos:
H = { homem vivo daqui a 10 anos } =⇒ P (H) = 3/4 logo P (Hc) = 1/4;
M = { mulher viva daqui a 10 anos } =⇒ P (M) = 5/6 logo P (M c) = 1/6.
Espaço amostral Ω = {HM,HM c, HcM,HcM c}
Assumindo independênciaentre os eventos H e M , a probabilidade de que ambos
estejam vivos daqui a 10 anos é dada por
P (HM) = P (H)P (M) =
3
4
· 5
6
=
5
8
b) Ao menos um esteja vivo?
Ainda assumindo independência entre H e M , a probabilidade de ao menos um esteja
vivo daqui a 10 anos é dada por
P (HM,HM c, HcM) = P (H)P (M) + P (H)P (M c) + P (Hc)P (M)
P (HM,HM c, HcM) =
3
4
· 5
6
+
1
4
· 5
6
+
3
4
· 1
6
P (HM,HM c, HcM) =
15
24
+
5
24
+
3
24
=
23
24
A solução acima é simplificada com a aplicação do evento complementar
P (HM) = 1− P (HcM c) = 1− 1
4
· 1
6
=
23
24
Exemplo 3) Aplicação em confiabilidade de sistemas.
26
Teoria da Probabilidade Conceitos Básicos e Definições
Um sistema de componentes é determinado por um conjunto de itens associados numa
dada configuração. As configrações mais simples são os sistemas em série e em paralelo. A
associação de ambas as configurações são chamadas de sistemas série-paralelo.
Neste sentido, a confiabilidade de um sistema num dado instante t é dada pela probabili-
dade de que este esteja funcionando normalmente.
Considere um componente tal que a probabilidade de que esteja funcionando num ins-
tante t dada por p, 0 ≤ p ≤ 1. Dois destes componentes são colocados em funcionamento
segundo as configurações abaixo. Assumindo que os componentes funcionem de maneira
independente, determine a confiabilidade do sistema em cada um dos casos.
Sejam os eventos:
S = { o sistema funciona no tempo t } =⇒ confiabilidade do sistema = P (S)
Ci = { o componente i funciona no tempo t } =⇒ P (Ci) = p
a) Sistema em série: na configuração em série, o sistema funciona se os dois componen-
tes funcionarem simultaneamente, desta forma
P (S) = P (C1 ∩ C2) = p2
Figura 1.9: Sistema em série
b) Sistema em paralelo: o sistema funciona se pelo menos um dos componentes estiver
funcionando, logo
P (S) = P (C1 ∪ C2) = p+ p− p2 = 2p− p2
Figura 1.10: Sistema em paralelo
27
Teoria da Probabilidade Conceitos Básicos e Definições
c) Sistema série-paralelo: o sistema série-paralelo, com a configuração dada pela Figura
1.11, funciona se C1 funcionar e, (C2 ou C3 funcionar).
Obd: Fica para o leitor mostrar que a confiabilidade deste sistema é dada por
P (S) = 2p2 − p3
Figura 1.11: Sistema série-paralelo
Exemplo 4) Uma moeda equilibrada é lançada tês vezes. Dê o espaço amostral:
i) Ω = {(c, c, c); (c, c, c¯); (c, c¯, c); (c¯, c, c); (c, c¯, c¯); (c¯, c, c¯); (c¯, c¯, c); (c¯, c¯, c¯)},
em que c = cara e c¯ = coroa.
ii) Verifique se os eventos {ocorrem pelo menos duas caras} e {ocorre coroa no 1º lança-
mento} são independentes.
A = { ocorrem pelo menos duas caras } =⇒ A = {(c, c, c); (c, c, c¯); (c, c¯, c); (c¯, c, c)}
B = { ocorre coroa no 1º lançamento } =⇒ A = {(c¯, c, c); (c¯, c, c¯); (c¯, c¯, c); (c¯, c¯, c¯)}
No lançamento de uma moeda P (c) = P (c¯) = 1/2, logo, os eventos elementares de Ω
têm todos probabilidade 1/8. Desta forma, verifica-se facilmente que
P (A) = P (B) =
1
2
.
Ainda, A ∩B = {(c¯, c, c¯); (c¯, c¯, c); (c¯, c¯, c¯)} =⇒ P (A ∩B) = 3
8
,
portanto,
P (A|B) = 3/8
1/2
=
3
4
6= P (A)P (B).
Logo, os eventos A e B não são independentes.
28
Teoria da Probabilidade Conceitos Básicos e Definições
1.6 Contagem
Considere um espaço amostral finito e equiprovável Ω, no qual cada evento elementar tem
probabilidade
P ({ωi}) = 1
card(Ω)
, i = 1, 2, . . . , card(Ω).
Considere um evento A pertencente ao espaço de probabilidade (Ω,A , P ), então, a pro-
babilidade do evento A é definida por
P (A) =
card(A)
card(Ω)
Assim sendo, a determinação de P (A) resume-se num problema de contagem do número
de elementos de A e de Ω, o que é um procedimento simples quando tanto Ω tem poucos
pontos, mas pode ser, trabalhoso, ou até mesmo impraticável, quando o número de pontos é
grande (ou mesmo moderado).
1.6.1 Amostras ordenadas
Considere dois conjuntos S e U , com m e n elementos, respectivamente. Ao serem sele-
cionados um elemento de cada conjunto, podem-se formar (m×n) duplas do tipo (xi, yj), i =
1, 2, . . . ,m; j = 1, 2, . . . , n, conforme mostra a Figura 1.12.
Figura 1.12: Seleção alatória em dois conjuntos finitos.
Considere, agora, n conjuntos distintos S1, S2, . . . , Sn, de tamanhos s1, s2, . . . , sn, respec-
tivamente. Se selecionarmos um elemento de cada conjunto teremos (s1 × s2 × . . . × sn)
n−uplas do tipo (x1, x2, . . . , xn).
29
Teoria da Probabilidade Conceitos Básicos e Definições
Se, no entanto, os n conjuntos forem o mesmo conjunto S, com s pontos, então existirão
sn n−uplas do tipo (x1, x2, . . . , xn) para as quais xi, i = 1, 2, . . . , n, é um ponto de S.
Esta situação, em que o número de elementos de S permanece constante, caracteriza
uma ”amostra aleatória com reposição”. Com a condição inicial de que o espaço amostral é
equiprovável, todas as sn n−uplas têm igual probabilidade de serem selecionadas, sendo
essa probabilidade igual a
1
sn
. (1.3)
Exemplo 1) Uma moeda equilibrada é lançada n vezes. Determine a probabilidade de se
obter ao menos uma cara nos n lançamentos.
Nessa situação, o conjunto S é dado por: S = {c, c¯}, sendo que P ({c}) = P ({c¯}) = 1/2.
Como s = 2, então, o número de n−uplas possíveis é igual a 2n.
Seja o evento de interesse A = { ao menos uma cara nos n lançamentos }.
Definindo Ai = { o evento cara no i−ésimo lançamento }, então,
A =
n⋃
i=1
Ai,
cuja probabilidade é dada por:
P (A) = 1− P (Ac)
P (A) = 1− P
[(
n⋃
i=1
Ai
)c ]
Das leis de Morgan, tem-se que
P (A) = 1− P
(
n⋂
i=1
Aci
)
P (A) = 1−
n∏
i=1
P (Aci)
Portanto, a probabilidade desejada é dada por:
P (A) = 1−
(
1
2
)n
.
30
Teoria da Probabilidade Conceitos Básicos e Definições
Se, por exemplo, n = 10, P (A) = 1− 1
1024
=
1023
1024
.
Considere, agora, o conjunto S, contendo s elementos distintos, sendo que o elemento
escolhido não é recolocado no conjunto após a seleção. Neste caso, a amostra alatória é do
tipo ”sem reposição”.
Repetindo o procedimento n vezes, o número de n−uplas possíveis, sem que nenhum xi,
i = 1, 2, . . . , n, seja repetido, é dado por:
As,n = s× (s− 1)× . . .× (s− n+ 1), (1.4)
sendo que a quantidade As,n representa um arranjo de s elementos tomados n-a-n.
Exemplo 2) Seja um conjunto S com s elementos distintos. Considerendo uma amostra-
gem aleatória com reposição, qual a probabilidade de que nenhum elemento de S apareça
repetido na amostra.
Seja o evento E = { nenhum elemento repetido na amostra }, então
P (A) =
total de amostras para as quais nenhum elemento apareça repetido
total de amostras possíveis
.
Desta forma, de (1.3) e (1.4), temos que a probabilidade acima é dada por
P (E) =
As,n
sn
=
s(s− 1) . . . (s− n+ 1)
sn
P (E) =
s
s
(s− 1)
s
. . .
(s− n+ 1)
s
P (E) =
(
1− 1
s
)(
1− 2
s
)
. . .
(
1− n− 1
s
)
P (E) =
n−1∏
k=1
(
1− k
s
)
. (1.5)
Como na maioria das situações práticas o número de elementos do conjunto S (ou ”popu-
lação”) é muito grande, calculando o limite em (1.5), tem-se
lim
s→∞
P (E) = lim
s→∞
[
n−1∏
k=1
(
1− k
s
)]
= 1,
ou seja, quando as populações são muito grandes, as amostras aleatórias “com” e “sem”
31
Teoria da Probabilidade Conceitos Básicos e Definições
reposição se equivalem.
Exemplo 3) Qual a probabilidade de que, num grupo com n pessoas, não existam duas
com aniversário na mesma data?
(este problema é muito popular, sendo conhecido como “problema dos aniversários”)
Seja: S = {1, 2, 3, . . . , 365}, então S é definido como sendo os dias do ano e, s = 365.
Considerando que uma data de nascimento é uma seleção aleatória de um elemento deS, então, para E = { nenhuma coincidência de datas de aniversário no grupo }:
P (E) =
n−1∏
k=1
(
1− k
365
)
.
Por exemplo, para um grupo de n = 4 pessoas
P (E) =
(
1− 1
365
)(
1− 2
365
)(
1− 3
365
)
= 0.9836.
Desta forma, a probabilidade de que, num grupo de quatro pessoas, pelo duas delas
façam aniversário na mesma data, é de 1− 0.9836 = 0.0164.
1.6.2 Permutações
Considere n caixas e n bolas distintas, numeradas de 1 a n. De quantas meneiras diferen-
tes podem-se colocar as n bolas nas n caixas, de modo que cada caixa contenha exatamente
1 bola?
O número de bolas possíveis para se colocar na primeira caixa é n, na segunda caixa é
(n− 1), na terceira (n− 2), e assim por diante, sendo que, para a n−ésima caixa, só restará
uma bola. O número de possibilidade, assim definido, é dado pela permutação das n bolas
Pn = n (n− 1) (n− 2) . . . 1 = n!
Na permutação, uma número n de objetos ou items são reorganizados em n posições
distintas, tal que, cada posição seja ocupada por apenas um item.
Assim sendo, uma compsição específica de bolas nas caixas tem probabilidade de ocor-
rência
1
Pn
=
1
n!
32
Teoria da Probabilidade Conceitos Básicos e Definições
Qual é a probabilidade de que a bola i seja colocada na caixa j, i, j = 1, 2, ...n?
Fixando uma bola e uma caixa restam (n − 1) bolas para serem permutadas nas (n − 1)
caixas, logo, o número de possibilidade tal que a bola i esteja na caixa j é dado por Pn−1 =
(n− 1)!. Desta forma, a probabilidade do evento A = { a bola i seja colocada na caixa j } é
P (A) =
Pn−1
Pn
=
(n− 1)!
n!
=
1
n
.
Por sua vez, a probabilidade de que, permutando-se n bolas em n caixas, exatamente k
bolas caiam em k caixa específicas é dada por:
Pn−k
Pn
=
(n− k)!
n!
=
1
An,k
.
Exemplo 4) Numa festa de final de ano, n = 8 casais concordam em participar de uma
brincadeira na qual, todos os casais participantes são separados e novos pares são formados
por sorteio para dançarem pelo menos uma música. Qual é a probabilidade de que exata-
mento 4 casais sejam mantidos, ou seja, 4 garotas fiquem com seus respectivos namorados?
Defindo o evento A = { 4 casais sejam mantidos }, então, n = 8 e k = 4, logo
P (A) =
(8− 4)!
8!
=
1
A8,4
= 0.000595.
1.6.3 Amostras Desordenadas
Considere o conjunto S, com s elementos, logo existem As,n amostras distintas de ta-
manho n, n < s, extraídas sem reposição. Nesta situação, considera-se a ordem das ob-
servações na amostra, ou seja, amostras com os elementos em diferentes ordenações são
consideradas distintas.
Em muitas situações, no entanto, o interesse recai nos elementos da amostras, indepen-
dente da ordem em que são selecionados. É o caso de amostras desordenadas. Neste
sentido, uma amostra sem reposição {x1, x2, . . . , xn} pode ser reordenada de n! maneiras di-
ferentes (todas com os mesmos elementos), fato este, que deve ser considerado no momento
da contagem.
Portanto, dividindo o número de amostras sem reposição pelo total de reordenações,
obtem-se o número de amostras possíveis, sem reposição e sem considerar a ordem dos
33
Teoria da Probabilidade Conceitos Básicos e Definições
elementos, ou seja,
As,n
n!
Multiplicando-se o numerador e denominador por (s− n)!, tem-se
As,n
n!
=
s(s− 1) · · · (s− n+ 1) (s− n)!
n! (s− n)! =
s!
n! (s− n)!
O termo As,n/n! é conhecido como coeficiente binomial ou combinação, podendo ser re-
presentado por Cs,n ou
(
s
n
)
. Logo, a combinação de s elementos, tomados n-a-n é dada
por (
s
n
)
=
s!
n! (s− n)! , n < s.
Exemplo Considere a amostra {3, 1, 7}. como n = 3, o número de reordenações dos seus
elementos é 3! = 6:
{3, 1, 7}, {3, 7, 1}, {1, 3, 7}, {1, 7, 3}, {7, 3, 1} {7, 1, 3}
Notas:
a) O coeficiente
(
a
x
)
é bem definido para a ∈ R e x ∈ N, por exemplo, se a = −pi e
x = 3, então(
−pi
3
)
=
−pi(−pi − 1)(−pi − 2)
3!
= −pi(pi − 1)(pi − 2)
6
= −11.1497.
b) Por definição, 0! = 1 e Aa,0 = 1.
c) Para a inteiro positivo, se x > a ou x < 0
p.def.
=⇒
(
a
x
)
= 0;
Exemplo 5) Considere S = {1, 2, . . . , s}, um conjunto finito. Qual a probabilidade de se
extrair k < s elementos de S tal que os valores estejam em ordem crescente, ou seja, tal que
1 ≤ x1 < x2 < . . . < xk ≤ s?
34
Teoria da Probabilidade Conceitos Básicos e Definições
O número de amostras de tamanho k < n que podem ser retiradas de S tal que não hajam
repetições é An,k = n(n− 1) . . . (n− k + 1).
Dessas As,k existem k! reordenações, das quais apenas uma contém os valores em
sequência.
Portanto, a probabilidade desejada é:
P (A) =
k!
As,k
=
1
Cs,k
Assumindo S = {1, 2, 3, 4, 5}, então s = 5 e k = 3 (amostras de tamamho 3 de um
conjunto com 5 elementos).
A seguir são apresentadas todas as amostras possíveis, com destaque em negrito para
as amostras nas quais os valores estão em ordem crescente.
1 2 3 1 2 4 1 2 5 1 3 4 1 3 5
1 3 2 1 4 2 1 5 2 1 4 3 1 5 3
2 1 3 2 1 4 2 1 5 3 1 4 3 1 5
2 3 1 2 4 1 2 5 1 3 4 1 3 5 1
3 1 2 4 1 2 5 1 2 4 1 3 5 1 3
3 2 1 4 2 1 5 2 1 4 3 1 5 3 1
1 4 5 2 3 4 2 3 5 2 4 5 3 4 5
1 5 4 2 4 3 2 5 3 2 5 4 3 5 4
4 1 5 3 2 4 3 2 5 4 2 5 4 3 5
4 5 1 3 4 2 3 5 2 4 5 2 4 5 3
5 1 4 4 2 3 5 2 3 5 2 4 5 3 4
5 4 1 4 3 2 5 3 2 5 4 2 5 4 3
. Amostras possíveis A5,3 = 60
. Reordenações 3! = 6
. Probabilidade do evento A = { extrair uma amostra de tamanho 3 com os valores em
ordem crescente }:
P (A) =
6
60
=
1
10
= 0.10
Exemplo 6) Qual é a probabilidade de se obter um royal straight flush numa mão de pôquer,
antes da troca de cartas?
Um royal straight flush é uma sequência com as maiores cartas (A, K, Q, J, 10), sendo
todas do mesmo naipe.
35
Teoria da Probabilidade Conceitos Básicos e Definições
. Antes da troca de cartas tem-se A52,5 mãos possíveis.
. Reordenações: 5! = 120 possibilidades de se obter a mesma mão.
. Probabilidade do evento A = { obter a mão (A, K, Q, J, 10) com todas as cartas do
mesmo naipe }
P (A) =
4× 5!
A52,5
=
4
C5,5
∼= 1.54× 10−6
Fica como exercício para o leitor calcular as probabilidades de se obter as demais mãos
no jogo no pôquer (antes da troca das cartas).
. Straight flush (cinco cartas do mesmo naipe, em sequência);
. Quadra (quatro cartas do mesmo valor);
. Full house (uma trinca e um par);
. Flush (as cinco cartas do mesmo naipe);
. Straight (cinco cartas em sequência, sem consideração de naipes);
. Trinca (três cartas do mesmo valor);
. Dois pares (pares com cartas de valores distintos);
. Par (duas cartas do mesmo valor).
Exemplo 7) No jogo da megasena o que mais vantajoso:
A = { escolher d = 10 dezenas e jogar todas as combinações possiveis de 6 dezenas } ou
B = { fazer 210 jogos distintos de 6 dezenas }?
Espaço amostral Ω = {1, 2, 3, . . . , 60}
Total de possibilidades com jogos de 6 dezenas: C60,6 =
60!
54! 6!
.
Total de jogos possíveis de 6 dezenas dentre as d = 10 escolhidas: C10,6 =
10!
4! 6!
= 210.
Portanto, as chances de se ganhar na megasena são iguais para os dois casos visto que:
P (A) = P (B) =
210
C60,6
≈ 4.2× 10−6
1.6.4 Partições
Seja uma população S, de tamanho s, dividida em k subpopulações S1, S2, . . . , Sk com
s1, s2, . . . , sk elementos, respectivamente.
Considerando o caso de amostras desordenadas e sem reposição, a probabilidade de
que, numa amostra de tamanho n sejam selecionados exatamente n1, n2, . . . , nk elementos
36
Teoria da Probabilidade Conceitos Básicos e Definições
de S1, S2, . . . , Sk, tal que ni < si, i = 1, 2, . . . , k, é dada por
P (n1, n2, . . . , nk) =
(
s1
n1
)(
s2
n2
)
· · ·
(
sk
nk
)
(
s
n
) ,
em que
k∑
i=1
si = s e
k∑
i=1
ni = n.
Exemplo 7) Num grupode com 12 professores e 5 alunos do curso de Estatística, devem
ser escolhidas n = 5 pessoas para formar uma comissão para falar com o Reitor. Quantas
comissões podem ser formadas de tal forma que, dos escolhidos, 3 sejam professores e 2
sejam alunos?
O grupo tem um total de N = 12 + 5 = 17, desta forma, o total de comissões é dado por(
17
5
)
=
17!
12! 5!
= 6188 comissões.
O número de copmissões com exatamente 3 professores e 2 alunos é dado por(
12
3
)(
5
2
)
= 2200 comissões com 3 prof. e 2 alunos.
Desta forma:
P (comissão com 3 professores e 2 alunos) =
(
12
3
)(
5
2
)
(
17
5
) = 2200
6188
= 0.355,
Exemplo 8 - Captura e recaptura) Num lago há uma população de peixes de tamanho N .
Uma rede é lançada, m peixes são capturados e marcados, após o que, são devolvidos à
água.
A rede é lançada uma 2ª vez e um total de n peixes são capturados. Qual é a probabilidade
do evento:
A = { exatamente x, dentre os n peixes capturados no 2º lançamento, são marcados }
37
Teoria da Probabilidade Conceitos Básicos e Definições
Após a primeira captura tem-se N peixes no lago, dos quais m são marcados.
Da partição da população desejamos que no segundo lançamento da rede sejam captu-
rados x peixes marcados e (n− x) não marcados, logo
P (A) =
(
m
x
)(
N −m
n− x
)
(
N
n
) (1.6)
Uma situação prática envolvendo o problema da captura e recaptura refere-se à estimação
do tamanho da população N .
Conhecendo m da primeira captura e tendo observado n e x do segundo lançamento da
rede, como podemos estimar o tamanho da população de peixes N?
Da inferência estatística tem-se que uma estimativa para o tamanho da população é dada
pelo valor de N que maximiza a probabilidade em (1.6).
Assumindo, por exemplo, m = 50 e n = 30, qual é a probabilidade de que exatamente x
peixes do segundo lançamento da rede sejam marcados?
P (A) =
(
50
x
)(
N − 50
30− x
)
(
N
30
) . (1.7)
Portanto, dado o número de peixes marcados na segunda captura, ou seja, dado x, o
tamanho da população de peixes no lago é estimado pelo valor de N que maximiza (1.7).
Simplificando ainda mais, considere m = 10 e n = 5. A probabilidade de que x = 1 peixe
do segundo lançamento da rede seja marcado é
P (A) =
(
10
1
)(
N − 10
4
)
(
N
5
) .
38
Teoria da Probabilidade Conceitos Básicos e Definições
Com um pouco de álgebra, obtem-se
P (A) =
50(N − 10)(N − 11)(N − 12)(N − 13)
N(N − 1)(N − 2)(N − 3)(N − 4) , N > 13.
A seguir são apresentados a tabela com os cálculos para a obtenção de N e a curva com
o valor de P (A) versus N . Pelos valores apresentados, verifica-se que valor de N pode ser
estimatido em N = 49 ou N = 50.
N P (A)
14 0.0050
20 0.1354
30 0.3400
40 0.4165
48 0.4311
49 0.4313
50 0.4313
51 0.4311
60 0.4217
80 0.3814
100 0.3394
120 0.3029
Exemplo 9 - Jogo da Megasena) Retomando o problema da megasena, considere que
o apostador escolha um número d de dezenas e aposte todos os jogos possíveis com 6
dezenas. Se o apostador conseguir acertar as 6 dezenas sorteadas, além de ganhar na
sena, de quebra, ele consegue algumas quinas e quadras.
Quantas quinas e quadras o apostador consegue ao acertar as seis dezenas sorteadas?
De maneira geral, apostando nos Cd,6 jogos possíveis e acertando as 6 dezenas sortea-
das, tem-se
39
Teoria da Probabilidade Conceitos Básicos e Definições
. ou seja, são 6 dezenas sorteadas, dentre as d escolhidas e (d− 6) não sorteadas;
. Q acertos dentre as 6 dezenas sorteadas e (6 − Q) erros, dentre as dezenas não
sorteadas; (
6
Q
) (
d− 6
6−Q
)
(1.8)
. se o apostador acertar as 6 dezenas, então Q = 6 e o número de senas é igual a(
6
6
) (
d− 6
6− 6
)
=
(
6
6
) (
d− 6
0
)
= 1
Este resultado é óbvio, uma vez que o procedimento de escolha implica a inexistência de
repetições, logo, haverá apenas um jogo de seis dezenas coincidindo com as dezenas sorte-
adas. Mas, acertando a sena, quantas quinas e quadras são, também, obtidas?
O raciocínio é o mesmo que no caso anterior, isto é, tendo feito a sena, sendo Q acertos
dentre as 6 dezenas sorteadas e (6−Q) erros dentre as não sorteadas, então
. fazendo Q = 5, o número de quinas obtidas é dado por(
6
5
) (
d− 6
6− 5
)
=
(
6
5
) (
d− 6
1
)
= 6(d− 6), d > 6
. da mesma forma, para Q = 4, o número de quadras é(
6
4
) (
d− 6
6− 4
)
=
(
6
4
) (
d− 6
2
)
=
15 (d− 6)(d− 7)
2
, d > 6.
. Se d = 10, como no exercício anterior, então, além de ganhar na megasena, o apostador
conseguirá(
6
5
) (
4
1
)
= 24 quinas e
(
6
4
) (
4
2
)
= 90 quadras
Pode-se generalizar o resultado em (1.8) para os casos em que o apostador acerte 5
dezenas (faz a quina) ou apenas 4 dezenas (faz a quadra). Desta forma, substituindo-se os
40
Teoria da Probabilidade Conceitos Básicos e Definições
valores 6 na primeira linha de (1.8) por 5 e 4, respectivamente, pode-se calcular o número de
quinas e quadras, possíveis, para as duas situações.
i) Se o apostador acertar 5 das dezenas sorteadas:(
5
Q
) (
d− 5
6−Q
)
. com Q = 5, serão (d− 5) quinas, d > 6,
. com Q = 4, o número de quadras é igual a
5(d− 5)(d− 6)
2
, d > 6.
ii) Acertando-se 4 dezenas: (
4
Q
) (
d− 4
6−Q
)
. com Q = 4, consegue-se
(d− 4)(d− 5)
2
, quadras d > 6.
Na Tabela 1.2 são apresentados os números de senas, quinas e quadras se acertar 6, 5
ou 4 dezenas, dentre as d escolhidas, com todas as Cd,6 apostas possíveis.
Tabela 1.2: Número de senas, quinas e quadras na megasena nos jogos com d dezenas
escolhidas e combinadas.
Dezenas Acertos número
apostadas 6 5 4 de
d senas quinas quadras quinas quadras quadras jogos
6 1 0 0 1 0 1 1
7 1 6 0 2 5 3 7
8 1 12 15 3 15 6 28
9 1 18 45 4 30 10 84
10 1 24 90 5 50 15 210
11 1 30 150 6 75 21 462
12 1 36 225 7 105 28 924
13 1 42 315 8 140 36 1716
14 1 48 420 9 180 45 3003
15 1 54 540 10 225 55 5005
41
Teoria da Probabilidade Variáveis Aleatórias
2 Variáveis Aleatórias
Dado um fenômeno aleatório, definido num espaço de probabilidade (Ω,A , P ), tem-se o
interesse em conhecer a estrutura probabilística de quantidades associadas a esse fenômeno.
Para isso, se faz necessário a introdução do conceito de variável aleatória e a especificação
de modelos para tais variáveis.
Definição 2.1. Seja o espaço de probabilidade (Ω,A , P ), então, define-se por variável alea-
tória, ou simplesmente v.a., qualquer função X : Ω→ R tal que:
X−1(Ω) =
{
ω ∈ Ω : X(ω) ∈ I
}
∈ A ,
para todo intervalo I ⊂ R.
Uma variável aleatória é uma função que leva os elementos do espaço amostral Ω a um
subconjunto dos reais R (Figura 2.1).
Figura 2.1: Variável aleatória X : Ω→ R.
Exemplo 2.1. As variáveis aleatórias são classificadas em dois tipos:
i) VA discreta: é aquela para a qual o conjunto I é um conjunto finito ou infinito enumerável,
por exemplo:
a) I =
{
1, 2, 3, 4, 5, 6
}
;
42
Teoria da Probabilidade Variáveis Aleatórias
b) I = N =
{
0, 1, 2, 3, 4, ...
}
.
ii) VA contínua: é aquela para a qual o conjunto I é um conjunto infinito não enumerável,
ou seja, é uma v.a. que assume valores em intervalos de números reais, por exemplo:
a) I = R = (−∞,∞);
b) I = [0, 1] ⊂ R.
Notas:
a) Para v.a.’s contínuas, a função que normalmente associa pontos de Ω ao conjunto I ⊆
R, é a função identidade;
b) Para v.a.’s discretas, a função que normalmente associa pontos de Ω ao conjunto I ⊆ R,
é uma contagem ou soma.
2.1 Variáveis Aleatórias Discretas
X é uma v.a. discreta, num espaço de probabilidade (Ω,A , P ), é uma função com do-
mínio em Ω e cujo contradomínio é um conjuntofinito ou infinito enumerável
{
x1, x2, x3, . . .
}
dos números reais R, tal que,
{
ω ∈ Ω : X(ω) = xi
}
é um evento para todo i e, portanto,
pode-se calcular a sua probabilidade de ocorrência
P
[
{ω ∈ Ω : X(ω) = xi}
]
, i = 1, 2, 3, . . . .
Notas:
a) Por simplicidade, representamos o evento
{
ω ∈ Ω : X(ω) = xi
}
por
{
X = xi
}
e as
probabilidades são simplificadas por:
P
[
{ω ∈ Ω : X(ω) = xi}
]
= P (X = xi)
b) Se x∗ /∈ I, então
{
ω ∈ Ω : X(ω) = x∗
}
= ∅, que também é um evento. Nesse caso,
P
[{
ω ∈ Ω : X(ω) = x∗}] = P (X = x∗) = 0
43
Teoria da Probabilidade Variáveis Aleatórias
c) Se o conjunto I de possíveis valores de uma v.a. discreta X é formado por valores
inteiros, ou inteiros não negativos, então, X é uma v.a. inteira, ou uma v.a. interia não
negativa. A maioria das v.a.’s discretas são inteiras não negativas.
Definição 2.2. Função de probabilidade de uma v.a. discreta X é uma função p(x) que
atribui probabilidade a cada um dos possíveis valores de X.
Seja X assumindo valores I =
{
x1, x2, x3, . . .
}
, então, para todo x ∈ I
p(x) = P (X = x).
Propriedades: A função p(x) de X em (Ω,A , P ) satisfaz:
a) 0 ≤ p(xi) ≤ 1, ∀ xi ∈ I;
b)
∑
i
p(xi) = 1.
Prova:
a) Como p(x) é uma medida de probabilidade, por definição, 0 ≤ p(x) ≤ 1;
b) Como, por definição, os eventos
{
w ∈ Ω : X(ω) = xi
}
, i = 1, 2, . . . são disjuntos, então
∑
i
p(xi) =
∑
i
P (X = xi)
= P
[⋃
i
{
w ∈ Ω : X(ω) = xi
}]
= P (Ω) = 1.
Definição 2.3. Função de distribuição, também chamada de função de distribuição acu-
mulada (fda) de uma v.a. discreta X é uma função F (x) que retorna a probabilidade de X
assumir valores até o ponto x.
Seja X assumindo valores I =
{
x1, x2, x3, . . .
}
, então, para todo x ∈ I
F (x) = P (X ≤ x).
Propriedades: F (x) apresenta as propriedades:
44
Teoria da Probabilidade Variáveis Aleatórias
a) F (x) é uma função do tipo escada, ou seja, para os pontos xi, xi+1 ∈ I e x tal que
xi ≤ x < xi+1,
F (x) = F (xi),
isto é, F (x) é constante no intervalo [xi , xi+1) (ver Figura 2.2).
b) Dada F (x), para xa e xb ∈ I, tal que xa < xb,
P (xa < X ≤ xb) = F (xb)− F (xa).
Desta forma, para um valor qualquer xi ∈ I, tem-se
p(xi) = F (xi)− F (xi−1),
ou seja, a probabilidade num ponto xi é dada pela altura do “degrau” em F (xi).
Exemplo 2.2. Seja a v.a. X discreta, com distribuição de probabilidade dada por:
x p(x) F (x)
0 0.15 0.15
1 0.28 0.43
2 0.26 0.69
3 0.18 0.87
4 0.08 0.95
5 0.05 1.00
Assim, temos:
a) p(3) = P (X = 3) = 0.18;
b) F (2) = P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2) = 0.69;
c) P (1 ≤ X < 5) = P (0 < X ≤ 4) = F (4)− F (0) = 0.80,
Ainda: P (1 ≤ X < 5) =
4∑
x=1
P (X = x) = 0.28 + 0.26 + 0.18 + 0.08 = 0.80;
d) P (2 ≤ X ≤ 4) = F (4)− F (1) = 0.52.
Exemplo 2.3. Considere 2 lançamentos independentes de uma moeda equilibrada. Definindo
X como sendo o número de caras nos 2 lançamentos, temos Ω =
{
cc; cc¯; c¯c; c¯c¯
}
.
Logo:
45
Teoria da Probabilidade Variáveis Aleatórias
p(0) = P
[
{ c¯c¯ }
∣∣∣ X( c¯c¯ ) = 0 ] = 1/4
p(1) = P
[
{ cc¯ } ∪ { c¯c }
∣∣∣ X( cc¯ ) = X( c¯c ) = 1 ] = 1/2
p(2) = P
[
{ cc }
∣∣∣ X( cc ) = 2 ] = 1/4
Portanto, a função de probabilidade de X, é dada por:
x 0 1 2
p(x) 1/4 1/2 1/4
A função de distribuição da v.a. X, é dada por:
F (x) =

0, x < 0;
1/4, 0 ≤ x < 1;
3/4, 1 ≤ x < 2;
1, x ≥ 2.
Figura 2.2: Função distribuição acumulada da v.a. X
Exemplo 2.4. Seja uma v.a. X assumindo os valores { 3, 4, 5, 6 }. Obter k ∈ R de modo que
p(x) seja uma função de probabilidade:
p(x) = k (x− 2)2
46
Teoria da Probabilidade Variáveis Aleatórias
Das propriedades da função de probabilidade,
∑
x
p(x) = 1, portanto:
k [(3− 2)2 + (4− 2)2 + (5− 2)2 + (6− 2)2] =1
k [1 + 22 + 32 + 42] =1
30k =1
k =
1
30
.
Desta forma, a função de probabilidade de X é dada por p(x) =
(x− 2)2
30
, x ∈ {3, 4, 5, 6}.
Exemplo 2.5. Considere o jogo no qual um alvo circular de raio 1 é dividido em n regiões
anelares concêntricas de raio 1/n, 2/n, . . . , 1. Lança-se um dardo ao acaso e, se ele atingir a
região Ai, delimitada pelos raios (i − 1)/n e i/n, i = 1, 2, . . . , n, ganha-se (n − i) reais (ver
Figura 2.3)
 
 
 
R=1
A1
n − 1
A2 n − 2
An−1 1
An 0
Figura 2.3: Regiões anelares identificadas em vermelho e ganho obtido em azul.
Seja a v.a. X = importância ganha em um lançamento, obtenha a função de probabilidade
de X.
Aqui, o espaço de probabilidade (Ω,A , P ) é o espaço uniforme sobre o disco de raio 1.
X é uma v.a. discreta definida neste espaço, assumindo os valores {0, 1, 2, . . . , n− 1}.
Ainda, Ai = {X = n − i} é um evento que ocorre se, e só se, o dardo atinge a região
delimitada pelos círculos de raios (i− 1)/n e i/n.
47
Teoria da Probabilidade Variáveis Aleatórias
A probabilidade para o evento Ai são dadas por:
P (X = n− i) = área de Ai
área total
P (X = n− i) =
pi
(
i
n
)2
− pi
(
i− 1
n
)2
pi
P (X = n− i) =i
2 − (i2 − 2i+ 1)
n2
P (X = n− i) =2i− 1
n2
, i = 1, 2, . . . , n.
Com x = n− i, então, a função de probabilidade de X é:
p(x) =

2(n− x)− 1
n2
, x ∈ {0, 1, 2, . . . , (n− 1)}
0, c.c.
Com p(x) assim definida:
i) Certifique-se de que p(x) é de fato uma função de probabilidade;
ii) Calcule a probabilidade de se acertar a região mais central do alvo (mosca).
2.2 Principais modelos de discretos
2.2.1 Variável Aleatória Constante
Seja uma v.a. X que associa um único valor k ∈ R para todo ω ∈ Ω.
Então {ω ∈ Ω | X(ω) = k} é todo o espaço amostral Ω e, X(ω) = k é uma v.a. discreta
com função de probabilidade:
p(x) =
{
1, x = k
0, x 6= k.
A função de probabilidade de uma v.a. é também chamada de degenerada em k e sua
48
Teoria da Probabilidade Variáveis Aleatórias
função de distribuição é dada por
F (x) =
{
0, x < k
1, x ≥ k.
Na Figura (2.4) são apresentadas as funções de probabilidade p(x) e de distribuição F (x)
para o modelo degenerado num ponto.
 
X
p(x
)
k
1
 
X
F(
x)
k
1
l
l
Figura 2.4: Funções de probabilidade (esquerda) e de distribuição (direita) do modelo dege-
nerado num ponto
2.2.2 Distribuição uniforme discreta
Considere a v.a. X assumindo valores em I = {x1, x2, . . . , xn}. X tem distribuição uni-
forme discreta se cada elemento de I tiver mesma probabilidade, ou seja
p(x) = P (X = x) =

1
n
, x ∈ I
0, x /∈ I
Notação: X ∼ Ud(I)
Notas:
i) O modelo uniforme discreto considera que os elementos x1, x2, . . . , xn de I são equi-
prováveis.
49
Teoria da Probabilidade Variáveis Aleatórias
ii) Normalmente I é um subconjunto dos naturais (I ⊂ N) definido por limites [a, b], em que
a < b são os parâmetros do modelo. Neste caso
X ∼ Ud(a, b).
A função de distribuição acumulada da v.a. da uniforme discreta é definida por
F (x) =
∑
i I[xi|xi≤x]
n
x ∈ {x1, x2, . . . , xn},
em que I[xi|xi≤x] = 1, se xi ≤ x e I[xi|xi≤x] = 0, caso contrário.
Exemplo 2.6. Considere o lançamento de um dado equilibrado e seja a v.a. X = valor
observado, então, I = {1, 2, 3, 4, 5, 6} e X ∼ Ud(1, 6)
p(x) =
1
6
, x = 1, 2, 3, 4, 5, 6;
F (x) =
x
6
x = 1, 2, 3, 4, 5, 6.
Na Figura (2.5) são apresentadas as funções de probabilidade e de distribuição acumulada
para o exemplo.
 
X
p(x
)
1 2 3 4 5 6
1/
6
 
X
F(
x)
1 2 3 4 5 6
1
l
l l
l l
l l
l l
l l
l
Figura 2.5: Funções de probabilidade (esquerda) e de distribuição (direita) do modelo Ud(1, 6)
50
Teoria da Probabilidade Variáveis Aleatórias
2.2.3 Distribuição de Bernoulli
Considere, agora, um evento A ⊂ Ω, tal que, X(ω) = 1, se ω ∈A e X(ω) = 0, se ω ∈ Ac,
então, A ocorre se, e só se, X(ω) = 1.
A v.a. X é uma variável indicadora de A, pois o valor de X indica a ocorrência de A e,
P (A) = P [{ω ∈ Ω | X(ω) = 1}] = P (X = 1)
Normalmente, o evento A é chamado de sucesso e Ac de fracasso e a v.a. assim de-
finida, é chamada de v.a. de Bernoulli, em que p = P (A) é a probabilidade de sucesso e
(1− p) = P (Ac) é a probabilidade de fracasso.
Notas:
i) Uma realização da v.a. de Bernoulli recebe o nome de “ensaio de Bernoulli ”.
ii) Ensaio de Bernoulli é todo experimento com apenas dois resultados possíveis, denota-
dos por sucesso e fracasso. Esses resultados são representados pelos valores 1 e 0 da
v.a. X, com probabilidades de corrência p e (1− p), respectivamente. Assim,X = 1, representa um sucesso,X = 0, representa um fracasso.
iii) A probabilidade de sucesso p é o parâmetro do modelo de Bernoulli.
Seja X uma variável de Bernoulli com probabilidade de sucesso p, então, sua função de
probabilidade é definida por
p(x) =

1− p, x = 0
p, x = 1
0, x 6= 1 e x 6= 0.
Notação: para indicar que uma v.a. tem distribuição de Bernoulli, usamos a seguinte
notação:
X ∼ Bernoulli(p).
A função de probabilidade para o modelo de Bernoulli pode ser mais elegantemente re-
presentada por:
p(x) = px(1− p)1−x, x = 0, 1.
51
Teoria da Probabilidade Variáveis Aleatórias
A função de distribuição para o modelo de Bernoulli, por sua vez, é dada por
F (x) =

0, x < 0
1− p, 0 ≤ x < 1
1, x ≥ 1.
A Figura (2.6) apresenta as funções de probabilidade e de distribuição acumulada para o
modelo de Bernoulli com parâmetro p.
Nota: Como veremos no restante da seção, a v.a. de Bernoulli serve de base para a
definição de grande parte dos modelos discretos de probabilidade.
 
X
p(x
)
0 1
p
1−
p
 
X
F(
x)
0 1
1−
p
1
l
l l
l
Figura 2.6: Funções de probabilidade (esquerda) e de distribuição (direita) do modelo
Bernoulli (p)
2.2.4 Distribuição binomial
Exemplo 2.7. Considere o experimento no qual uma moeda honesta é lançada três vezes,
sendo que a probabilidade de se obter cara em um lançamento é p e de se obter coroa é
(1− p), 0 ≤ p ≤ 1.
Para este experimento, o espaço amostral é dado por
Ω = {(c, c, c), (c, c, c¯), (c, c¯, c), (c¯, c, c), (c, c¯, c¯), (c¯, c, c¯), (c¯, c¯, c), (c¯, c¯, c¯)}
em que c = cara e c¯ = coroa.
Definindo a v.a. X = número de caras obtidos nos três lançamentos, determinar a função
de probabilidade de X.
52
Teoria da Probabilidade Variáveis Aleatórias
Para cada elemento do espaço amostral, a v.a. X assume os valores:
ω = (c, c, c) ⇒ X(c, c, c) = 3
ω = (c, c, c¯)
ω = (c, c¯, c)
ω = (c¯, c, c)
 ⇒ X(c, c, c¯) = X(c, c¯, c) = X(c¯, c, c) = 2
ω = (c, c¯, c¯)
ω = (c¯, c, c¯)
ω = (c¯, c¯, c)
 ⇒ X(c, c¯, c¯) = X(c¯, c, c¯) = X(c¯, c¯, c) = 1
ω = (c¯, c¯, c¯) ⇒ X(c¯, c¯, c¯) = 0
Uma vez que os lançamentos da moeda são independentes, a v.a. X tem a seguinte
função de probabilidade:
x p(x)
0 (1− p)3
1 3p(1− p)2
2 3p2(1− p)
3 p3
Os três elementos de Ω para os quais X = 2, resultam das possíveis combinações nas
quais são obtidas duas cara e uma coroa, implicando que a probabilidade individual p2(1− p)
seja multiplicada por 3. Desta forma, a probabilidade P (X = 2) pode ser escrita como
p(2) =
(
3
2
)
p2(1− p).
O mesmo acontece com X = 1, resultado das possíveis combinações nas quais se obtem
uma cara nos três lançamentos da moeda, sendo a probabilidade P (X = 1) escrita por
p(1) =
(
3
1
)
p(1− p)2.
Como podemos observar, p(x) é uma função de probabilidade discreta, pois:
i) p(x) ≥ 0 ∀ x = 0, 1, 2, 3, uma vez que 0 ≤ p ≤ 1;
ii)
3∑
x=0
p(x) = [p+ (1− p)]3 = 1.
53
Teoria da Probabilidade Variáveis Aleatórias
Considerando que a moeda é honesta, ou seja p = 1/2, temos
x 0 1 2 3
p(x) 1/8 3/8 3/8 1/8
A distribuição de probabilidade acima, como veremos pela definição (2.4), é a distribuição
binomial com parâmetros n = 3 e p = 0.5.
Definição 2.4. Considere n repetições independentes de um ensaio de Bernoulli cuja proba-
bilidade de sucesso é P (sucesso) = p e seja a v.a. X que conta o número de sucesso nas n
realizações independentes do ensaio, então, X tem distribuição binomial com parâmetros n
e p e a sua função de probabilidade é dada pela expressão
p(x) =
(
n
x
)
px(1− p)n−x, x = 0, 1, . . . , n.
Notação: X ∼ binomial(n, p).
 
X
p(x
)
0 1 2 3 4
0
0.
1
0.
2
0.
3
 
X
F(
x)
0 1 2 3 4
0
0.
2
0.
4
0.
6
0.
8
1
ll l
l l
l l
l l
l
Figura 2.7: Funções de probabilidade (esquerda) e de distribuição (direita) do modelo
binomial (4, 0.6)
Notas:
i) A distribuição de Bernoulli é um caso especial da binomial para o qual n = 1.
ii) A função de distribuição acumulada F (x) não tem uma forma explicita, sendo definda
por
F (x) =
∑
xi≤x
P (X = xi).
54
Teoria da Probabilidade Variáveis Aleatórias
iii) Se a v.a. X conta os sucessos em n ensaios independentes de Bernoulli,X ∼ binomial(n, p).
Então, se nos mesmos n ensaios, a v.a. Y contar o número de fracassos:
Y ∼ binomial(n, 1− p).
Exemplo 2.8. Uma indústria que produz placas para componentes eletrônicos, usadas na fa-
bricação de celulares, afirma que no processo de produção dessas placas 1% sai com defeito
nas furações. Considerando que na inspeção dessas placas, 10 unidades são selecionadas
aleatoriamente e avaliadas:
Defina uma v.a. para esse caso e determine a sua função de probabilidade p(x).
Uma vez que p(x) seja definida, qual é a probabilidade de que a inspeção encontre:
a) exatamente uma placa com defeito?
b) pelo menos uma placa com defeito?
c) no máximo três placas com defeito?
A inspeção de cada uma das placas resulta em um, dentre dois resultados possíveis (placa
com defeito ou placa boa), o que caracteriza um ensaio de Bernoulli no qual o resultado
de interesse (sucesso) é dado pela placa com defeito. Alé disso, como as inspeções são
independentes, a probabilidade de uma placa ser defeituosa (dada pelo índice de defeitos da
produção, ou seja, p = 0.01) é comum a todos os ítens produzidos.
Portanto, definindo a v.a. X = número de placas com defeito encontradas na inspeção das
n = 10 placas selecionadas, X tem distribuição binomial com parâmetros n = 10 e p = 0.01
e sua função de probabilidade é dada por
p(x) = P (X = x) =
(
10
x
)
(0.01)x (0.99)10−x, x = 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10.
As probabilidades solicitadas nos itens (a), (b) e (c) são, portanto, calculadas por
a) p(1) = P (X = 1) =
(
10
1
)
(0.01)1 (0.99)9 = 0.09135.
b) Pelo evento complementar temos que:
P (X ≥ 1) = 1− P (X = 0) = 1− (0.99)10 = 0.09562
c)
F (3) = P (X ≤ 3) = P (X = 0) + P (X = 1) + P (X = 2) + P (X = 3)
= 0.90438 + 0.09135 + 0.00415 + 0.00011 = 0.99999
55
Teoria da Probabilidade Variáveis Aleatórias
Exemplo 2.9. Uma indústria vende um produto em embalagens de ½ kg. O processo de
empacotamento tem como limite inferior o peso de 495 g, sendo que, os pacotes devem ter
peso superior a este limite. Apesar da automação, o processo produz 6% de pacotes abaixo
do limite, o que preocupa o dono da indústria numa possível inspeção.
Nas inspeções, os fiscais do órgão competente costumam recolher 20 pacotes do produto
das prateleiras dos supermercados e pesar cada um deles. Desta forma, qual é a probabili-
dade de que:
a) apenas um pacote esteja abaixo do limite de peso?
b) no máximo dois pacotes estejam abaixo do limite de peso?
Seja a v.a. X = número de pacotes, da amostra, abaixo do limite de peso.
Então, X ∼ binomial(20, 0.06).
Respostas:
a)
P (X = 1) =
(
20
1
)
(0.06)(0.94)19 = 0.3703;
b)
F (2) = P (X ≤ 2) = P (X = 0) + P (X= 1) + P (X = 2)
= (0.94)20 + 0.3703 +
(
20
2
)
(0.06)2(0.94)18
= 0.2901 + 0.3703 + 0.2246 = 0.8850.
2.2.5 Distribuição geométrica
Definição 2.5. Considere uma sequência de ensaios independentes de Bernoulli com proba-
bilidade de sucesso igual a p e seja a v.a. X que conta o número de fracassos até a ocorrência
do primeiro sucesso. Então, X tem distribuição geométrica com parâmetro p e a sua função
de probabilidade é dada pela expressão
p(x) = p(1− p)x, x = 0, 1, 2, . . .
Notação: X ∼ geométrica(p).
Exemplo 2.10. Num jogo de cassino, dois dados são lançados por um jogador que aposta
uma certa quantia de dinheiro antes do lançamento. O jogador dobra o valor apostado se
obter soma 11 ou 12 nos dados. Para tentar dobrar a posta, porém, o jogador tem até 3
tentativas, após as quais, ele perde o que apostou e precisa apostar novamente para continuar
jogando.
56
Teoria da Probabilidade Variáveis Aleatórias
Qual é a probabilidade do jogador dobrar a aposta numa rodada de lançamentos?
Seja a v.a. X = número de lançamentos com somas diferentes de 11 ou 12, até que o
jogador ganhe.
Então, X ∼ geométrica(p).
Mas, qual deve ser o valor de p?
Para isso precisamos do espaço amostral para os lançamentos dos dados:
Ω = {(i, j) ∈ N2 | 1 ≤ i ≤ 6 e 1 ≤ j ≤ 6}, (Ω é equiprovável)
Seja o evento A = { valores favoráveis ao jogador }, então, A = {(6, 5), (5, 6), (6, 6)}.
Logo, a probabilidade de sucesso p é igual a P (A), isto é:
p =
3
36
=
1
12
.
Assim, o jogador dobra o valor apostado se:
I sair soma 11 ou 12 no primeiro lançamento dos dados;
I sair soma 11 ou 12 no segundo lançamento, não tendo saído no primeiro;
I sair soma 11 ou 12 no terceiro lançamento, não tendo saído no primeiro nem no se-
gundo lançamentos.
Desta forma, temos que calcular P (X ≤ 2), uma vez que X conta os fracassos até o
primeiro sucesso. Portanto:
F (2) = P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2)
=
1
12
(
11
12
)0
+
1
12
(
11
12
)1
+
1
12
(
11
12
)2
=
1
12
[
1 +
11
12
+
(
11
12
)2]
= 0.2297.
Priopriedades:
i) A função de distribuição acumulada F (x) é de fácil obtenção, sendo calculada a partir
57
Teoria da Probabilidade Variáveis Aleatórias
do resultado
P (X ≥ x) =
∞∑
k=x
P (X = k)
= p(1− p)x + p(1− p)x+1 + p(1− p)x+2 + . . .
= p
(1− p)x
1− (1− p)
= (1− p)x.
Desta forma, temos que a função distribuição acumulada F (x) é dada por
F (x) = P (X ≤ x)
F (x) =1− P (X ≥ x+ 1)
F (x) = 1− (1− p)x+1.
No exemplo acima, p = 1/12 e, portanto:
F (2) = P (X ≤ 2) = 1−
(
11
12
)3
= 0.2297.
ii) A v.a. geométrica pode, ainda, ser definida como Y = número de ensaios até o primeiro
sucesso. Neste caso, Y assume valores a partir do 1, ou seja, y ∈ {1, 2, 3, . . .} e, em
função disto, a sua função de probabilidade passa a ser escrita como
p(y) = P (Y = y) = p(1− p)y−1, y ∈ N∗,
em que N∗ é o conjunto dos naturais, excluindo-se o zero, ou seja, N∗ = N− {0}.
Nota: Se a v.a. X conta o número de fracassos até o primeiro sucesso e a v.a. Y conta
o número de ensaios até o primeiro sucesso, então, a relação1 entre elas é dada por:
Y = X + 1 e:
p(y) = P (Y = y) = P (X + 1 = y) = P (X = y − 1) = p(1− p)y−1;
P (Y ≥ y) = (1− p)y−1;
F (y) = P (Y ≤ y) = 1− P (Y ≥ y + 1) = 1− (1− p)y.
1A relação entre duas v.a. discretas será vista em mais detalhes na seção funções de v.a.’s.
58
Teoria da Probabilidade Variáveis Aleatórias
iii) Uma propriedade importante da v.a. geométrica é a falta de memória, representada
pela relação
P (X ≥ x+ k |X ≥ x) = P (X ≥ k).
Ou seja, dado que X já atingiu o valor x, a probabilidade de alcançar o valor x + k só
depende de k, reiniciando-se a contagem.
Prova:
P (X ≥ x+ k |X ≥ x) = P [(X ≥ x+ k), (X ≥ x)]
P (X ≥ x)
=
P (X ≥ x+ k)
P (X ≥ x)
=
(1− p)x+k
(1− p)x
= (1− p)k = P (X ≥ k)
Exemplo 2.11. Considere um processo de produção cuja proporção de defeitos é de 0.03.
No processo de produção os itens são inspecionados um-a-um até que apareça o primeiro
com defeito quando, então, o processo é interrompido e ajustado.
a) Determine a probabilidade de que o processo seja ajustado sómente após o 40º item
produzido.
Seja X = número de itens bons até o primeiro com defeito.
Então: X ∼ geométrica(0.03).
Temos que calcular:
P (defeito no item 41 ou defeito no item 42 ou . . .) = P (X ≥ 40)
= (1− 0.03)40
= (0.97)40 = 0.2957.
b) Sabendo que já foram produzidos 25 itens, não havendo nenhum defeito, qual é a pro-
babilidade de que o primeiro item com defeito apareça após o 35º item produzido?
P (X ≥ 35 |X ≥ 25) = P (X ≥ 35− 25)
= (0.97)10 = 0.7374.
59
Teoria da Probabilidade Variáveis Aleatórias
c) Qual deve ser o intervalo de manutenção preventiva k se desejamos que nenhum item
com defeito ocorra entre duas manutenções consecutivas com probabilidade de pelo
menos 0.50?
Devemos obter k tal que P (X ≥ k) ≥ 0.50.
Tomando a igualdade, temos P (X ≥ k) = 0.50 = (0.97)k, logo, o valor de k é dado por
(0.97)k = 0.50
k ln(0.97) = ln(0.50)
k =
ln(0.50)
ln(0.97)
= 22.8
Ainda:
I se k = 22 =⇒ P (X ≥ 22) = (0.97)22 = 0.5117.
I se k = 23 =⇒ P (X ≥ 23) = (0.97)23 = 0.4963.
Logo, as manutenções devem ser feitas a cada 22 itens produzidos.
2.2.6 Distribuição binomial negativa
Definição 2.6. Considere uma sequência de ensaios independentes de Bernoulli com proba-
bilidade de sucesso igual a p. A v.a. X que conta o número de fracassos até a ocorrência do
r−ésimo sucesso tem distribuição binomial negativa com parâmetro r > 0 e p e sua função
de probabilidade é dada por
p(x) =
(
x+ r − 1
r − 1
)
pr(1− p)x, x = 0, 1, 2, . . . (2.1)
Notação: X ∼ BN(r, p).
Nota: O termo
(
x+ r − 1
r − 1
)
refere-se ao número de combinações possíveis para os
(x + r − 1) ensaios, anteriores ao r−ésimo sucesso, dos quais x são fracassos e (r − 1)
são sucessos.
Exemplo 2.12. Numa linha de montagem de uma grande indústria os parafusos são forne-
cidos em caixas com 50 unidades cada, sendo que a compra dos parafusos é feita em lotes
de 250 caixas. No recebimento dos parafusos o setor competente retira uma caixa do lote e
realiza uma inspeção, aceitando o lote se até a inspeção da metade da caixa, no máximo 2
60
Teoria da Probabilidade Variáveis Aleatórias
parafusos tiverem a rosca “espanada” (aceitando o lote a empresa arca com o prejuízo dos
demais parafusos que vierem a espanar). Por outro lado, se até a inspeção da metade da
caixa, três ou mais parafusos espanarem, o lote todo é devolvido ao fornecedor. Considerando
que o fabricante dos parafusos afirma que 9% dos parafusos produzidos acabam espanando
na hora do uso, cacule a probabilidade de que a devolução do lote ocorra exatamente ao se
testar a metade da caixa de parafusos.
Seja X = número de parafusos bons até o 3º ruim.
Note que, o lote será devolvido se ao se testar o 25º parafuso, aparecer o 3º ruim, logo
I x = 25− 3 = 22 parafusos bons e
I r = 3 parafusos espanados.
Desta forma, X tem distribuição X ∼ BN(3, 0.09).
P (X = 22) =
(
22 + 3− 1
3− 1
)
(0.09)3(0.91)22
=
(
24
2
)
(0.09)3(0.91)22
= 0.0253.
Exemplo 2.13. Uma linha de produção adota-se como critério de parada para regulagem das
máguinas a observação do k−ésimo item com defeito. Sabendo que a proporção de defeitos
é 0 ≤ p ≤ 1, qual é a probabilidade de que a produção tenha que ser interrompida para
regulagem na n−ésima peça produzida?
Se X = número de peças boas até a k−ésima com defeito, X ∼ BN(k, p).
P (X = n− k) =
(
(n− k) + k − 1
k − 1
)
pk(1− p)n−k
=
(
n− 1
k − 1
)
pk(1− p)n−k.
Notas 2.1. Das relações entre as combinações, temos uma forma alternativa da binomial
61
Teoria da Probabilidade

Outros materiais