Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

XIV ' I PREFÁCIO DA PRIMEiRA EDIÇÃO 
jeto; pani com a .Sr!! Carol Sloan, por ser uma datilógrafa eficiente e 
atenta; para com D. Van Nostrand, Inc., The Free Press, Inc: e Mac~ 
millan Publishing .Cqmpany, por sua permissã'o para reproduzir as. 
Tábuas 3, 6 e 1, respectivamente; para com McGraw~Hill Book Co., 
Inc., Oxford University Press Inc., Pergamon Press, Ltda. e P&ntice" 
Hall, Inc., por suas permissões para citar · determinados exemplos ·no 
texto, e, finalmente para com minha esposa, não somente por me am-
parar no esforço, como também por "deixar-me" e levar nossos :doi.s 
filhos com ela a visitarem os avós, por dois .cruciais meses de verão, du-
rante os quais fui capaz de transformar. nossa casa em uma desordenada, 
porém tranqhila oficina, da qual surgiu, miraculosamente, a última 
versão final deste livro. 
Pullman, Washirigton 
Abril, 1965 
P.L.M. 
, .·. 
SUMÁRIO 
Caprtuio 11 . Introdução à 1Probabilic1~de 
1.1 Modelos Matemáticos 1 
1.2 Introdução aos Conjuntos 4 
1.3 Exemplos de Experimentos Não-Determinísticos· 8 
1.4 O ~spaço Amostral 11 
1.5 Eventos 13 
1.6 Freqüência Relativa 15 
1.7 Noções Fundamentais de Probabilidade 17 
1.8 Duas Observações 21 
Cápftulo~ .;Espaços Amostrais Finitos 
\ ... 
2.1 . Espaço Amostral Finito 26 
2.2 Resultados Igualmente Verqssímeis 27 
2.3 Métodos de Enumeração 29 
-Ca~rtulo\\~ Probabilidade Condfcionada e Independência 
3.1 Probabilidade .Condicionada 42 
3.2 Teorema de Bayes 49 
3.3 Eventos Independentes 52 
Capftuio~ Variãveis Aleatórias Unidimensionais 
4.1 Noção Geral de Variável Aleatória 66 
4.2 Variáveis Aleatórias Discretas 72 
4.3 A Distribuição Binomial 75 
4.4 Variáveis Aleatórias Contínuas 80 
4.5 Função de Distribuição Acumulada 85 
4.6 Distribuições Mistas 89 
4.7 Variáveis Aleatórias Uniformemente Distribuídas 89 
4.8 Uma Observação 91 
Caprtuil>~ funções de Variáveis Ale~tórias 
5.1 Um Exemplo 97 
5.2 Everitos Equivalentes 97 ., 
5.3 ·Variáveis .Aleatórias Discretas 100 i 
5.4 Variáveis Aieatórias Contínuas 101 ! 
. I 
; 
·1 
r
-t~;;~~-~;:·:-':'· -:"·.. ' 
_ XVI I SUMÁRIO 
~ Caprtulo 6. 
~ 6.1 
r ~:~ 
lj 604 
i' 6.5 
r~ 
i' 
I 6.6 
I 
f Capítulo 1. 
l' 
r 
t 
I 
701 
702 
703 
. 704 
705 
7.6 
707 
708 
709 
7010 
7011 
Capftulo 8. 
801 
802 
8.3 
8.4 
805 
8o6 
807 
808 
Capftulo 9. 
901 
902 
903 
9.4 
905 
'. 906 
907 
9.8 
Variáveis Aleatórias de Duas 0111 Mais 
Dimensões 
Variáv~is Aleatórias Bidimensionais 
Distribuições de Probabilidade Marginal e Condicionáda 
Variáveis Aleatórias Independentes · · ' ·. 
Funções de Variável Aleatória 
Distribuição do Produto e do Quociente de Variáveis 
Aleatórias Independentes · 
Variáveis Aleatórias n-Dimensionais o l. 
Caracterização Adlicio1111al das . · 
Variáveis Aleatórias 
O Valor Esperado de Uma Variável AleatóriiJ. 
Expectância de uma Função de uma Variável Aleatória 
Variáveis Aleatórias Bidimensionais 
Prupriedades do Valor Esperado 
A Variância de uma Variável Aleat6ria 
Propriedades da Variância de uma Variável Aleatória 
Expressões Aproximadas da Expectância e da Variância 
A Desigualdade 'de Tchebycheff 
O Coeficiente de Correlação 
Valor Esperado Condicionado 
Regressão da Média 
Variáveis Aleatórias Discretas: A de Poisson 
e Outras 
A Distribuição de .Poisson 
A Distribuição de Poisson como Aproximação da 
Distribuição Binomial 
O Processo de Poisson·. 
A Distribuição Geométrica 
A Distribuição de Pascal 
Relação entre as Distribuições Binomial e de Pascal 
A Distribuição Hipergeométrica 
A Distribuição Multinomial 
Algumas Variáveis Aleatórias Continuas 
!mpoll'ital!'ites 
Introdução 
A Distribuição Normal ~ 
Propriedades da Distribuição Normal 
Tabulação da Distribuição Nonrtal 
A Distribuição Exponencial 
Propriedades da Distribuição Exponencial 
A Distribuição Gama o 
Propriedades da Distribuição Gama 
110 
116 
121 
124 
128 
131 ' 
137 
144 
149 
150 
ú6 
159 
162 
165 
167 
172 
175 
187 
194 
. 200 . 
203 
205 
206 
208 
214 
214 
215 
219 
223 
223 
227 
228 
' ·. 
SUfViÃRIO I XVII I 
I 
9.9 
9.10 
9.11 
9.12 
Caprtulo 10. 
A Distribuição de" Qu~-quadrado 
Comparações entre D
1
iversas Distribuições 
A Distribuição Normp Bidimensional 
Distribuições Truncadas 
I 
I 
A f11..mção Geratrõzi de Momentos 
! 
10 .1 Introdução 1 
10.2 A Função Geratriz de Momentos 
10.3 Exemplos de Funções Geratrizes de Momentos 
10.4 Propriedades da FunÇão Geratriz de Momentos 
~0.5 Propriedades Reprod~tivas 
10.6 Seqüências de Variáveis Aleatórias 
10.7 Observação ·Final ' 
Cap ótu !o 11. 
11.1 
11.2 
11.3 
11.4 
11.5 
11.6 
Aplicações à Teori~ da Confiabi!idade 
I 
Conceitos Fundamenfis . 
A Lei de Falhas Normal 
A Lei de Falhas Expdnencial 
A Lei de Falhas Exponencial e a Distribuição 
de Poisson J 
A Lei de Falhas de Weibull 
Confiabilidade de Sistemas 
I 
Capftulo 12. ,Somas de Variáveis Aleatórias 
~u,-J~~- G<--0 ...... ,, 
lv(l/12.1 InJ.odução . I 
f:Y J? ' 12_2 A Lei dos Grandes N~meros · 
., - () 12.3 Aproximação Normal da Distribuição Binomial 
"ÇJ 'y• 12.4 O Teorema do Limit~ Central 
ÔJ~· 12.5 Outras Distribuições Aproximadas pela Distribuição 
~ 
\f d Normal: a de Poisson ~ a de Pascal e a Gama 
l\ fv '\ C 12.6 A Distribuição da So~a de um Número 
,'JJ c\ Finito de Variáveis Aleatórias 
Capftulo ~ A'mostras e Dist~rib~ ições Amostrais 
13.1 
13 .2 
13.3 
13.4 
13.5 
Cap_í~-~~~ f. 
14.1 
14.2 
14.3 
14.4 
14.5 
Introdução 
Amostras Aleatórias 
Estatísticas 
Algumas Estatísticas 'mportantes 
A Transformação Integral 
· !Estimação de Parâmetros 
I 
Introdução 
Critérios para Estima~ivas 
Alguns Exemplos 
Estimativas de Máxima Verossimilhança 
O Método dos Mínimbs Quadrados 
I 
230 
233 
234 
236 
e 
247 
250 
255 
259 
260 
263 
267 
268 
271 
273 
274 
284 
286 
288 
292 
297 
299 
308 
310 
312 
313 
321 
329 
330 
334 
339 
349 
i ~ 
'' ,-
! ~ 
··. 
~ ' 
I· 
, _ 
L 
,. ,. 
I. 
I 
I 
I 
·I 
~ 
H 
1: 
li 
~ 
~ 
li 
li 
!I 
j! 
i' 
j! ,. 
li 
I• 
~· 
!: 
li 
11 
"l 
i 
i 
I 
.1! 
l. 
. .J 
XVIII I SUMÁRIO 
14.6 O Coeficiente de Correlação 
14 .7 Intervalos de Confiança 
1,4.8 A Distribuição de t de Student 
14.9 Mais Sobre Intervalos de Confiança 
Capftulo 1!5. Testes de IHiõpóteses 
354 
355 
357 
360 
15 .1. Introdução 370 
15.2 Formulação Geral: Distribuição Non~al com V~riância 
Conhecida 376 
15.3 Exemplos Adicionais 381 
15.4 Testes de Aderência 385 
APÊNDICE 397 
RESPOSTAS A PROBLEMAS SELECIONA!)OS 412 
INDICAÇÕES BIBLIOGRÁFICAS 420 
fNDICE ALFABÉTICO 422 
.i 
1 
·i 
Introdução Probabilidade 
Capítulo 1 
1 J" Modeios Matemáticos 
Neste capítulo examinaremos o tipo de fenômeno que estuda-
remos por todo este livro. Além disso, formularemos um modelo 
matemático que nos ajudará a investigar, de maneira bastante pre-
cisa, esse fenômeno. 
De início, é muito importante distinguir o próprio fenômeno 
e o modelo matemático para esse fenômeno. Naturalmente, não 
exercemos influência sobre aquilo que observamos. No entanto, 
ao escolher um modelo, podemos lançar mão de nosso julgamento 
crítico. Isto foi espec\almente bem expresso pelo Prof. J. Neyman, 
que escreveu:* 
"Todas as vezes que empregarmos Matemática a fim de estudar alguns 
fenômenos de observação, deveremos essencialmente começar por construir 
um modelo matemático (determinístico ou probabilístico) para esses fenô-
menos. Inevitavelmente, o modelo deve simplificar as coisas e certos por-
menores devem ser desprezados. O bom resultado do modelo depende de 
que os pormenores desprezados sejam ou não realmente sem import&ncia na 
elucidação do fenômeno estudado. A resolução do problema matemático pode 
estar correta e, não obstante, estar em grande discotdância com os dados ob-
servados, simplesmente porque as hipóteses básicas feitas não sejam confirma-
das. Geralmente é bastante difícil afirmar com certeza se um modelo mate-
mático especüicado é ou não adequado, antes que alguns dados de observação 
sejam obtidos. A fim de verüicar a validade de um modelo, deveremos dedu-
zir um certo númerode conseqüências de nosso .modelo e, a seguir, comparar 
esses resultados previ:Jtos com observações." 
Deveremos nos lembrar das idéias aCima enquanto estivermos 
estudando alguns fenômenos de observação e modelos apropriados 
" University oj Calijornia Publications in Statistics, Vol. I, Uriiversity of 
California Press, 1954. 
::! I PROBABILIDADE 
pax:a sua explicação. Vamos examinar, inicialmente, o que se pode 
adequadamente denominar modelo detenninistico. Por essa expres-
são pretendemos nos referir a um modelo que estipule que as con-
dições sob as quais um experimento seja executado determinem o 
resultado do experimento. Por exemplo, se introduzirmos uma 
bateria em um circuito simples, o modelo matemático que, presumi-
velmente, descreveria o fluxo de corrente elétrica observável seria 
I = E/R, isto é, a J~i de Ohm. O modelo prognostica o valor de I 
tão logo os valore:; de E e R sejam fornecidos. Dizendo de outra 
mail-eira, se o experimento mencionado for repetido um certo número 
de vezes, toda vez utilizando-se o mesmo circuito (isto ~" conservan-
do-se fixados E e R), poderemos presumivelmente esperar observar 
o mesmo valor para I. Quaisquer desvios que pudessem ocorrer 
seriam tão pequenos que, para a maioria _das finalidades, a descrição 
acima (isto é, o modelo) seria suficiente. O importante é que a ba-
teria, fio, e amperômetro particulares utilizados para gerai: e obser-
var a corrente elétrica, e a nossa capacidade de empregar o instru-
mento de medição, determinam o resultado em cada repetição. (Exis-
tem detenninados fatores que bem poderão ser diferentes de repeti-
ção para repetição, que, no entanto, não influenciarão de modo dig-
no de nota o resultado. Por exemplo, a temperatura e a umidade 
no laboratório, ou a estatura da pessoa que lê o. amperômetro, po-
de-se razoàvelmente admitir, não terão influência no resultado.) 
Na natureza, existem muitos exemplos de "experimentos", para 
os quais modelos determinísticos são apropriados. Por exemplo, 
as leis da gravitação explicam bastante precisamente o que ~contece 
a um corpo que cai sob determinadas condições. As leis de Kepler 
nos dão o comportamento dos planetas. Em cada situação, o. mo-
delo específica que as condições, sob as quais determinado fenômeno 
acontece, determinam o valor de algumas variáveiS observáveis: 
a grandeza da velocidade, a área varrida durante determinado pe-
riodo de tempo etc. Esses números aparecem em muitas' das fõr:-
mulas com as quais estamos familiarizados. Por exemplo, sa-
bemos que, sob determinadas condições, a distância percorrida 
(verticalmente, acima do solo) por um objeto é dada por s = -16t2 + 
+ v0t, onde vo é a velocidade inicial e t o tempo gasto na queda. O 
ponto, no qual desejamos fixar nossa atenção, não é a forma parti-
cular da equação acima (que é quadrática), mas antes o fato de que 
existe uma .relação definida entre t e s, a qual determina univo-
camente a quantidade no primeiro membro da equação, se aquelas 
no segundo membro forem fornecidas. 
i 
i 
i 
I 
! 
! 
i 
IN f RODUÇÃO À PROBABILIDADE I 3 
- Para um grande número de I situações, ~ modelo matemático 
determinístico apresentado acima! é suficiente. Contudo, existem 
também muitos fenômenos que ~equerem um modelo matemático 
diferente para sua investigação. São os que denominaremos modelos 
não-deterministicos ou probabüístico~. (Outra expressão muito corou-
mente empregada é modelo estocástico.) Mais adiante neste capitulo, 
estudaremos muito minuciosamente~ como tais modelos probabilísticos 
podem se~ apresentados. Por oraJ examinaremos alguns exemplos. 
SuponhaJilOS que se tenha uml fragmento de material radioativo 
que emita partículas alfa. Com o I auxílio de um dispositivo de con-
tagem, poderemos . registrar o número dessas partfculas emitidas 
durante um intervalo de tempo especificado. É evidente que não 
poderemos. a,ntecipar precisamente lo nÚiílero de partículas emitidas, 
runda que se conheçam de modo exato a forma,! a dimensão, a compo-
' . I 
sição química e a massa do objeto 1 em estudo. Por isso, parece não 
existir modelo determinístico razoáf el que forneça o número de par-
tículas emitidas, por . exemplo n, como uma função de várias carac-
terísticas pertinentes ao material ~onte. Deveremos considerar, · em 
seu lugar, um modelo probabilístico. 
Como outro exemplo, considere-se a seguinte situação meteo-
rológica. Deseja-se deterniinar qual · a precipitação de chuva que 
cairá · coino resultado de uma tempestade particular, que ocorra · em 
determinada localidade. Dispõe-s~ de instrumentos para registrar 
a precipitação. Observações metrorológicas podem nos fornecer 
considerável informação relativa à t~mpestade que se avizinhe: pressão 
barométrica em vários pontos, variações de pressão, velocidade do 
vento, origem e dir,eção da tormerlta, e várias leituras referentes a 
altitudes elevadas.. Contudo, quão !valiosas essas informações possam 
ser para o prognóstico da naturez~ geral da precipitação (digamos, 
fraca, média ou forte), simplesme:b.te não tomam possível dizer-se 
quanta chuva irá cair. Novament~ estaremos nos ocupando de um ,. 
I 
·fenômeno que não se presta a um . tratamento determinístico. Um 
modelo prob~billstico explica a sitdação mais rigorosamente. · 
Em princípio, poderemos ser ! capazes de dizer quanta chuva 
caiu se uma teoria tiver sido desen~olvida (o que não foi). Por isso, 
empregaremos um modelo probabilÍstico. No exemplo que trata de 
I 
desintegração radioativa, deveremos empregar um modelo probabi-
lístico invariavelmente em princípiol ' 
Arriscando-n.os a adiantarmos! demais na ap~esentação de um 
conceito que será definido. poster~ormelite, vamos apenas afirmar 
.que, em um modelo determinístico, 1 admite-se que o resultado efeti:Vo · 
i . 
4 I PROBABIUDADE 
(numérico ou de outra espécie) seja determinado , pl:)l~ çq~dições 
sob as quais o experimento ou o procedimento seja executlj,~O, .. Em 
um modelo não-determinístico, no entanto, as . co~diçqes c!a "e:xpl:lri-
rnentação determinam somente o comportamento prob~hÚí~tico 
(mais especificamente, a lei probabilística) do resuÍtad() : ()b~l:lFYáyeJ. 
Em outras palavras, em um modelo determinístico 'émpiegâmos 
"considerações físicas" para prever o resultado, enquantb em ·um 
modelo probabilístico ernpregfllllOS a mesma espécie de considerações 
para especificar uma distribuição de probabilidade. 
1.2. ~ ntrodução aos Conjuntos 
A fim de expor os conceitos básicos do modelo probabilístico 
que desejamos desenvolver, será conveniente conhecer algurn~s idéiM 
e conceitos da teoria matemática dos conjuntos. Este é um assunto 
dos mais extensos e muito se tem escrito sobre ele. Contudo, neces-
sitaremos apenas de algumas noções fundamentais. 
Um conjunto é urna coleção de objetos. Usualmente, conjuntos 
são representados por letras maiúsculas A, B etc. Existem três 
maneiras de descrever que objetos est~o contidos no ~·anjunto A: 
(a) Poderemos fazer uma lista dos elementos de A. Por exem-
plo, A = { 1, 2, 3, 11 descreve o conjunto formado pelos inteiros 
positivos 1, 2, 3, 4. 
(b) Poderemos descrever o conjunto A por meio de palavras. 
Por exemplo, poderemos dizer que A é formado de todos os números 
reais entre O e 1, inclusive. 
(c) Para descrever o conjunto acima poderemos simplesmente 
escrever A = { x J O :<:::; x :<:::; 1 }; isto é, A é ó conjunto de todos os x, 
onde x é um número real entre O e 1, inclusive. 
Os objetos que individualmente formam a cole~ão ou conjunto 
A são denominados membros ou elementos de A. Quando "à" for 
um elemento de A, escreveremos a E A, e quando "a" não for um 
elemento de A, escreveremos a Et A. 
Existem dois conjuntos especiais que, freqüentemente, nos in-
teressarão. Em muitos problemas nos dedicaremos a estudar um 
conjunto definido de objetos, e não outros. Por exemplo, poderemos 
interessar por todos os números. reais;· por todas as peças que 
uma linha de produção durante um período de 24 horas etc. 
o conjunto fundamental comoo conjunto de todos os 
·. ' 
INTRODUÇÃO À PROBABILIDAD!= I 5 
objetos que estejam sendo estudados. Este conjunto é, geralmente 
representado pela letra U. 
O QUtro conjunto que deve ser destacado pode surgir da seguinte 
nrui.neira: Suponha-se que o conjtm~ A seja descrito como o con- I; 
junto de todos os números reais x, que satisfaçam ~ equação I'' 
x2 + 1 ==O. Naturalmente, sabemos que não existem tais números; i' 
isto é, o conjunt~ A não contém qualquer elemento. Esta situação 
ocorre tão freqüentemente que se justifica a introdução de um nome 
especial para esse conjunto. Por isso, definiremos o conjunto vazio 
ou. nulo como o conjunto que não contenha qualquer ele~ento. · Ge-
ralmente se representa. esse conjunto por 0. ~ 
Pode acontecer que, quando dois conjuntos A e B sejam consi-
·derados, ser elemento de A implique ser elemento de B. Nesse caso, p;, 
diremos que A é um subconjunto .de B,.e escreveremos A C B. In-
terpretação semelhante será dada para B C A. Diremos que · dois 
conjuntos constituem o mesmo conjunto, A = B, se, ·e somente se,-
A C B e B C A. Desse modo, dois conjuntos serão iguais se, e so-
mente se, eles contiverem os mesmos elementos. 
As duas seguintes propriedades do conjunto vazio e do conjunto 
funda.mental são imediatas: 
(a) Para todo conjunto A, temos que 0 C A. 
(b) Desde que se tenha definido o conjunto fundamental, então, 
para todo conjunto A, considerado na composição de U, teremos 
AC U. 
Exemplo 1.1. Suponha-se que U = todos os números reais, 
A = I x I x 2 + 2x ~ 3 = O}, B = I x I (x ~ 2) (x2 + 2x ~ 3) = O} 
e c = r X I X = ~ 3, 1, 2}. Então, A c B e B = c. 
A seguir, estudaremos a importante idéia de combinar conjun-· 
tos dados, a fim de formarmos. um novo conjunto. Há duas opera-_ 
ç.ões fundai):lentais, e essas operações se assemelham, em· certos as-
pectos, à.s operações de adição e multiplicação de números. Sejam 
dois conjuntos A e B .. 
Definiremos C como a união de A e B (algumas vezes denomi-
nada a soma de A e B), da seguinte maneira: 
C = lx Jx E ,A ou x E B (ou ambos) ). 
Escreveremos· a união de A e B, assim: C= A U B. Desse modo, 
C será formado de todos os elementos que estejam em A, ou em B, 
ou em ambos. 
6 I PÀOBABILIDADE 
Definiremos D . como a interseção · d~ A e B (al~iiigs y~~es •. P,~no· 
minada o produto de A e B), da seguinte maneira: .: . , - ·. . . , ·. 
D = {xjx E A ex E B}. ·. · · 
. . . ·.. . . . . ~· ·::· ... J:;:.~~-: . L,j·,.~:~~·, ... :..' .... 
Escreveremos a jnterseção de A e 13, assi:q1: J) =c 4 0 i-:8.: :Rqi:t~ri~ó, 
D será formado de todos .os elementos queestão ,~~Ae e,mB. ;; .. · 
· Fiilaimente, ín troduziremos · a noção •· de complem;entc?:·d~ q~ : con...: 
junto 4., na forma seguinte: . O conhmto· denotado,J>or; i}:) ;cpnstf ... 
. tuido por todos os elementos que nào esteJam e!llA (mas que ~átej~m 
no conjunto fundamental U) é denominado ,éoinpletÍlen~o de A;· .. Is'to · 
é, A= {xjx EE A}. . . · .. 
Um recurso gráfico, conhecido como Diaura~a d(i fenn, - pód~rá 
ser vantajosamente empregado quando estivermos combW:and,<;> qon-
jun,tos, na maneira indicada acima. Em cada diagrama na}?ig .. J), 
a região sombreadarenresenta o conjunto sob exame . . · 
CD 
AnB 
IFig. 1.1 
:/~~~~' 
Exemplo 1.2.. Suponha-se que U = { 1, 2, 3, 4, 5; 6, 7, 8/9, io}, 
A = { 1, . 2, 3, 4}, B = { 3, 4, 5, 6} . Então, encontraremos · que 
A= {5,.6,7,8,9,10}, AUB= {1,2,3,4,5,6} e A ()B= {3;4}~ 
Observe-se que, ao descrever um .conjunto (tal como A U B), cada 
. elemento é relacionado apenas uma vez. 
As operações de união e interseção, definidas acima para doiS 
conjuntos, podem ser estendidas, intuitivamente, para qualquer 
número finito de conjuntos. Assim, defhüremos .A U "B U C como 
A U (B U C) 0'\1 (A U B) U C, o que é equivalente, como se poderá 
verificar facilmente .. De modo ànálogo, definiremos A () B n C 
como . sendo A (l (B () C) ou (A () B) () C, o que também se pode 
ver'fficar serem · equi~alent~s. É evidente que poderemo~ continuar 
essas composiçõe!; · de ·conjuntos para qualquer número finito de con-
juntos dados. 
i .J:.!'' 
i - . . 
INTRODUÇAO A PROBABILIDADE I 7 
I 
~ . . 
Afirmamos que alguns conjqntos são equivalente!'!, por exemplo, 
A n (B ()C) e (A () B) () c.i Conclui-se que existe Ul)l certo 
número de tai& conjuntos equivalentes, alguns ·dos quais estão rela-
cionados abaixo. Se nos lembrÚmos de que dois conjuntos são o 
mesmo conjunto sempre que ele:s contenham os mesmos elementos, 
será fácil mostrar que as afirmaÇões feitas são verdadeiras. O leitor 
poderá se convencer disso, com a :ajuda dos Diagramas ide Vemi'. 
1 
(a) A U B = B U A, I (b} A() B = B ()IA, (1.1) 
(c) A U (B U C)=(A U B) U C) (d) A() (B ()C)= (A() B) ()C. 
I 
• ! . 
~~~~üp{;)-s.,~li)t·e:c(li}wii~~f~fiU$Uff®1;;:~~-r~Y!v:~~r@.:i:f.í~~~~Ç;t~tf&~?·:,;; , 
Há- outras identidades de coAjuntos encerrando união, interseção 
e complementação. As mais irhportantes delas estão enumeradas 
I 
a ooguir. A validade de cada uma delas poderá ser verificada com 
. d d D' d V .I 1 ' s aJU a e um . 1agrama e enn. 
(e) A U (B ()~C)= (A U lJ) h-(A U C), V 
U) A() (B.U C)= (ªJnB) k«~. C), 
(g) .A () 0 = 0, 
(h) 4.U 0 ~A; 
('J) (A() B) =A ÜB, 
à ~ 0 :: (A u-131 
Observe-se que (g) e (h) mo·stram 
(1.2) 
I (i) (A u B) = A () B, 
(k) A= A. 
I , 
Uma o~tra"màneira de form~ conjuntos, quando forem dados dois 
(ou mais) conjuntos, será necessá~a a seguir. 
i 
I . . 
Definição. Sejam dois conjuntos A e B. Denominaremos produto 
cartesiano de A e B, denotando-o por A X B, o conjunto { (a, b ), a E A, 
b E B l, isto é, o conjunto de . tod:os os pares ordenados n..os quais o pri-
meifo elemento é tirado de A e o ~gundo, de B. 
\ 
Exemplo 1.3. Suponha-se queA = {1, 2, 3};B = {1, 2, 3, 4}. 
Então, A X B = { (1, 1), (1, 2), .. l , (1, 4), (2, 1) . .'., (2, 4), (3, 1), ... , 
(3, 4)}. I 
i 
Observação. Em geral, A X si=F B X A. 
8 I PROBABILIDADE 
A noção acima pode ser estendida da seguinte :maneira: Se.A1 , ••• , 
A n forem conjuntos, então, A 1 X A 2 X ... X An = {(a! ; a2 , ·;· •• an ), 
ai E Ai], ou seja, o conjunto de todas as ênuplas ordenadas ~ ·: · 
Um caso especial importante surge quando cons.ideram<;)S!O produto 
cartesiano--~~ um conjunto por ele próprio, isto é,AiXA,:o114 •X).l )Ç-A. 
···~?f.~my1~§:cit1~~E;~~~~~JJL.,q;g.~,g~~twõs!é}~t~~!~ll~~~~~J}~.$";".,~, 
onde R é d~coríjunto de todos os números reais, e do espaço eudideano 
tridimensional, representado por R X R X R. · 
O número de elementos de um conjunto terá .grandeiiD,portância 
para nós. Se existir um número finito de elementos no conjunto A, 
digamos ar, a2,_ ... , an, diremos que A éJinito: Q~~tie.liÍJifli.Pmer0 
--~~~J~;~j~~i~:;~- . :§~~~~~;=~~·é!f!;Sk!:f!~?!:;' 
ou·"injinito numerável. (Pode-se :m:ostrar, por exemplo, ·que\ () c-on-
junto de todos os números racionais é numeráveL) :.Finalmente, 
deveremos considerar o caso de um conjuntoinfinito:não~númerável; 
este tipo de conjunto possui um número infinito de elementos qUe não 
podem. ser enumerados. Pode-se mostrar, por exemplo, __ que para 
quaisquer dois números reais b > ~~ o conjunto · A = J x I a :::; .x :::; b} 
contém um número não-numerável de elementos, J ~ que pÇ>dererjws 
associar um ponto da reta dos números reais a cada m)mero .real, o 
que dissemos acima afirma que qualquer interv'~lo (não deg~nerado) 
contém mais do que um número contável de pontos. 
Os conceitos apresentados acima, muito embora representem 
apenas um rápido exame da teoria dos corijuritds, são sufic'iehtes 
·para nossos objetivos: expor, com razoável rigor e pr~ci.são, ·~ idéias 
fundamentais da teoria da probabilidade. 
1.3. Exemplos de Experimentos Não-DeterminísÜcos 
Estamos agora em condições de examinar o q1,1e enténdemos por 
um experimento '-'aleatório" ou "não-determinístico". '· {~ais ,'preci-
samente, daremos exemplos de fenômenos, para os · qmtis .: rriôdelos 
não-determinísticos são apropriados. Esta é uma distinção .·que o 
leitor deverá guardar. Portanto, nos referiremos freS!üêntemen'tea experimentos não-determinísticos ou aleatórios, quando de fato 
estaremos falando de um modelo não-detefminístico para um experi-
mento.) Kão nos esforçaremos em dar uma definição preCisa _desté 
~onceito. E.m vez disso, citaremos um grande ~úmer~ de exemplos. 
que ilustrarão o que temos em mente. 
6NTRODUÇÃO À PROBABIUDADE I 9 
E 1: Jogue um dado e observe o número mostrado na face de 
cima. 
E,: Jogue· uma moeda quatro vezes e observe o número de caras 
obtido. 
E 3: Jogue uma moeda quatro vezes e observe a seqüência obtida 
de caras-e coroas. 
E 4: Em uma linha de produção, fabrique peças em série e conte 
o número de peças defeituosas produzidas em um período 
de 24 horas. 
Eó: Uma asa de avião é fixada por um grande número de rebi-
tes. Conte o número de rebites defeituosos. 
Es: Uma lâmpada é fabricada. Em seguida é ensaiada quanto 
à duração da vida, pela colocação em um soquete e ano-
tação do tempo decorrido (em horas) até queimar. 
E1: Um lote de 10 peças contém 3 defeituosas. As peças são 
retiradas uma a uma (sem reposição da peça retirada) até 
que a última ·peça defeituosa seja encontrada. O núme-
ro total de peças retiradas do lote é contado. 
E'il: Peças são fabricadas até que 10 peças perfeitas sejam pro-
duzidas. O número total de peças fabricadas é contado. 
Es: Um míssil é lançado. Em um momento especificado t, 
suas três velocidades coq~.ponentes, v .. , v11 e v. são observadas. 
E 1o: Um míssil récem-lançado é observado nos instantes tb 
t2, ••• , t,. Em cada um desses instantes, a altura do míssil 
acima do solo é re~strada. 
E 11: A resistência à tração de uma barra metálica é medida. 
Eu: De uma urna, que só contém bolas pretas, tira-se uma bola 
e verüica-se sua cor. 
E 13 : Um termógrafo registra a temperatura continuamente, 
num período de 24 horas. Em determinada locálidade e em 
uma data especificada, esse termógrafo é lido. 
Eu: Na situação descrita em E18, x e y, 118 temperâturas núnima 
e máxima, no período de 24 horas considerado, são regis-
tra,das. 
O que os experimentos acima têm em comum? 
(a) Cada experimento poderá ser 
sob condições essencialmente inalteradas. 
10 I PROBABILIDADE 
(c) Quando o experimento for executado re~t~(l.amente, os 
resultados :individuais parecerão ocorrer de u:ffia , J~rma .aCidental. 
Contudo,· quando o experimento for repetÚlo º:tri ·g:~~~I[~3~~m:~-to . de 
vezes, uma configuração definida ou regulátidade ' surgirá. : É esta 
regularidade que toma possível construir um íri6cie'13' inatêltáÍico 
preciso, com o qual se analisará o expetimentCi. l\lhili brde, teremos 
muito que dizer sobre a natureza e a irnpqrtândade~ia}ágwaridade. 
Por- ora, o leitor necessita apenas pensar nas repetidas ~ogadas de 
uma moeda equilibrada. Muito embora caras e cordas- apareçam 
sucessivamente, em uma maneira quase arbttrária, é f~to . empírico 
bem conhecido que , depois de uni grande número d~. jogadas, a pro-
porção de caras e a de coroas serão aproximadamente Ígu'aiS. . 
Deve-se salientar que todos os experimentos . . descritos acima 
satisfazem a essas características gerais. (Evidentemente, a última 
característica mencionada somente pode ser · verificada . pela experi-
mentação; deixaremos para a intuição do leitor '. acreditar que · se o 
experimento fosse repetido um grande número de . vezes, a regulari-
dade referida seria evidente. Por exemplo, se um · g~~nde nÚmero 
de lâmpadas, de um mesmo fabricante, fosse ensaiado, . presumivel-
mente o número de lâmpadas que se queimaria após iOO horas poderia 
ser previsto com precisão considerável.) Note-sé que o experimento 
E 12 apresenta o traço peculiar de que somente umres11ltado. é possível. 
Em geral, tais experimentos não nos :interessarão, porque, realinente, 
o fato de não sabermos qual particular resultado virá Íl ocorrer, quando 
um experimento for realizado , é que torna um experimento intere'S8ante 
para nós. 
Comentário: Ao descrever os diversos experimentos, nós especificamos não 
somente o procedimento que tem que ser realizado, mas também aquilo que 
estaremos interessados em observar (veja, por exemplo, a diferença imtre E z e E 3 , 
citados anteriormente). Este .é um ponto rrmito importante, ao qual novamente 
nos referiremos mais tarde, quando explicarmos variáveis aleatórias. Por ora, 
vamos apenas comentar que, em conseqüência de um procedimento experimental 
isolado ou a ocorrência de um fenômeno único, muitos valores numéricos diferen-
tes poderiam ser calculados. Por exemplo, se uma pessoa for escolliida de um 
grupo grande de pessoas (e a escoTha real seria o procedimento e:X:perimental 
previamente mencionado), poderíamos estar interessados na altura daquela pessoa, 
. no seu peso, na sua renda anual, no número de fillios dela etc. Naturalmente, na 
·maioria dos ca~s. nós saberemos, antes de iniciar nossa experimentação, quais 
serão as características numéricas em que iremos estar interessados. · 
, 
11\!TRODUCÃO À PROBABiLIDADE I 11 
1A.~· 
Definição. -Para cada êxf>eDmêhto ·e do tipo que estamos con-
siderando, definiremos o úpâ:Ço amCist;az como <i cÓnjurito de tó:Jõs 'os 
resultados possíveis de e. Geraltnente representaremos esse conjunto 
por S. (Neste contexto, S repre,senta o conjwlto fundamental, expli-
cado anteriormente.) r· I . ' 
Vamos considerar cada um dos experimentos acima e descrever 
um espaço amostral para cada um deles. O espaço amostral S; se 
referirá ao experimento E;. 
S6: 
S1: 
Ss: 
S9: 
S10: 
Su: 
s12: 
Su: 
11, 2, 3, 4, 5, 6}. I 
lo, 1, 2, 3, 4}. 
{todas as seqüências p6ssíveis da forma a11 a2, aa, a4 }, onde 
I 
cada a; = H ou T, conforme apareça ca~a ou coroa na 
i-ésima jogada. ~ : , 
{0, 1, 2, ... , N}, onde
1 
N é o número máximo q:ue pode ser 
produzido em '24 hora.S . 
. I 
{0, 1, 2,-... , .M}, ond~ M é o número de ·rebites empre-
gado. 
ltlt ~ 0}. 
. I 
13, 4, 5, 6, 7, 8, 9, 10 }. 
I 
110, 11, 12, ... },. i ' 
I v.,, Vy, Vz I v.,, Vy, v, números reais}.·. 
{hh· .. , hn jh;;:::: O, i =11, 2, .. . , n}. 
ITIT~O}. i' 
I bola preta}. 
Este espaço amostral éj o mais complexo de todos os co!lsi-
derados aqui. Podemos admitir, com realismo, que a tem-. , I . . . . . 
peratura em determin!1-da localidade nunca possa ocorrer 
acima ou abaixo de ce*os valores 11! e m. Afora esta .rei-
trição, poderemos aceitar a possibilidade de que qualquer I . . 
gráfico apareça com /determinadas restrições. Presumi-
velmente, o gráfico não terá saltos (isto é, el~Ç representará 
uma função contínua).! Além ~isso, o gráfi~o terá certas 
características de ,regu\arização, que podem ser resumidllS 
matematicamente di~eddo-se que o gráfico representa uma , I . . 
função derivável. Deste modo, poderemos finalmente 
afirmar que o espaço a~ostral será: 
IJIJ uma função perivável, que satisfaça a m . .::::; . 
.::::; j(t) .::::; M, para ltodo t} .. 
I~ 
12 I PROBABH.HDADIE 
{(x, y)lm:::;; x:::;; y:::;; M}. Isto é, §aéfo11J1acio p0rtodos 
os pontos dentro e sobre um. triâJ1gulo: no:;~Ia,po . x; ybicli-
mensional. · · · .. . · · · ... · ... ,, .-.c-;•. ; ·,-, .> 
(Neste livro não cuidaremos de espaços amostrais di :•cdfnpl~xi'dade . 
encontrada em 81a- Ko entanto, tais espaços ariÍ6slrais'''p8dem ' súi:~ 
gir, mas exigem para seu estudo mais ~Íatemática âvànÇ~dâ>do qúe 
estamos admitindo aqui.) 
. e~~;.!~ii:f7~~]~~9r~~x;:~;;:mE:::;s;g;~@.8?::;;~. 
· estamos '' · .. ·· .. ·.··: . : d@ii::•"'"" Por isso, 
de ;,~;.·;'~~~~~;~ amostral associado a um experimerito, e P:ão de 
"o" espaço' amostraL A esse respeito, note-se a dif~re~ça· entre 
82 e 8a. 
Saliente~se, 'tambein~ 'qu~ o r~sul t-~do de ' urri '. ê},~·~~Q}~rho não é 
necessariamente, um número. Por exemplo, em E i, cada resultado 
é uma seqüência de caras (H) e coroas (T). Em É9 e E.1o cada re-
sultado e formado por um vetor, enquanto em E; 3 , e~d~ resultado 
constitui uma função . 
lativamente aos exemplos acima, observamos que 8], 82;. 8a, 84, 8s, .• 
81 e 812 são finitos, 8s é infinito numerável, e 8s, 89, 810r 8u, 813 e 
814 são infinitos não-numeráveis.:~~=::~~~;:;!~·:::,~~~~~t· 
:rimento ·Ê6 e seu e~paço amostral associado 81. É eVidente que, 
quando estivermos realmente registrando o tempo . tot~l t, •durante o 
qual uma lâmpada funcione, seremos "Vitimas" da precis[b de nosso 
instrumento de medir. Suponha-se que temos um instruínerrto que 
seja capaz de registrar o tempo com duas casas decir11ais, por exem.: 
. pio, 16,43 horas. Com esta restrição imposta, nosso esjlàço amos-
t ral se tomará infinito numerdvel: { 0,00, 0,01, 0,02; •: : : }. Além 
disso, é bastante próximo da realidade admitir quenenhíun8,Jâinpada 
possa durar 'mais do que H horas, onde H pode ser uín fiúinero muito 
grande. ConseqÜentemente, parece que se f()i:inos ·completamente 
realistas na descrição deste espaço amostral, estaremos realmente 
tratando com um espaço amostral finito: { 0,00, 0,01, 0,02, .. . , H}. 
O número total . de resultados seria (H/0,01) + 1, que poderá ser 
um número muito grande; mesmo que H seja moderadamente grande, 
.r 
j 
\ 
iNTRODUÇÃO À PROBABiii..IDADE I 13 
por exemplo se H = 100. Torna-se bem mail:l simples e, matemati-
camente, conveniente, admitir que todos os valores de t ~ O sejam .re-
sultados possíveis e, portanto, tratar o espaço amostral Ss tal como 
foi originalmente definido . 
. Diante desses comentários, alguns dos espaços amostrais des-
critos são idealizados. Em todas as situações subseqüentes, oespaço 
amostral ·considerado será aquele que for matematicamente mais 
conveniente. Na maioria dos problemas, pouca dúvida ~.urge quanto 
à escolha adeQuada ·d9 :êsPáçO·· amosti-al. :; ·.-..· .. :. : 
··.. . · . -: .. ,.., 
: .... ·,.:: · .. 
1._5. 
· .:;. : :~:- ·.- ... 
Eventos 
Outra noção fundamental é o conceito de evento. <R-~~~­
(relativo a um particular espaço amostral S, associado a" Upl expe-
rimento e ) < e<:smrp:):es~~At!P.~ti'tfi:C0nlj;un;,t~cl:~§lresu1t~dbsi-'#~~~t;~~-~·· . Na 
tenninologia. dos conjuntos, um evento é·;;~ ;~bconju~to d~· Ü;·<es­
paço amostral S. Considerando nossa exposição anterior, isto sig~ 
nifica que o próprio S constitui um-evento, bem como o é o conjunto 
vazio 0. Qualquer resultado individual pode também ser to~ado 
como um evento . 
. Al~s exe~plos d~ ey~nt()S s~- ~ados ~ - ~~~ir. N.?,yªqí~~te, . 
nos referimos aos . experimentos 'relacionados aCima: A; sé teféÍ{rií. 
ao evento asso~iad~ ao . éxpedrh~~tÓ EZ · -· ' · -_ ;· . \ '"· · 
Al: ul!l número par OCQrre, .isto é, Al = {2, 4, 6}. 
A2: {2} ;isto é, duas caras ocorrem. 
A3 : {HHHH, HHHT; HHTH, HTHH.; THHH); isto é, mais 
caras do que coroas ocorréfam.' - . . . 
A4: {O}; isto é, todas as peças são perfeitas. 
{' 
A6: {3, 4, ..• , M}; isto é, mais do que dois rebites eram defei-
tuosos. 
·As: { t I t < 3}; isto é, a lâmpada queima em menos de. 3 horas. 
Au: { (x, y) I y = x + 20}; isto é, a temper~tura máxima é 20° 
maior do que a mínima. " 
Quando o espaçó amostral S for finito ou infinito numerável, 
todo subconjunto poderá ser considerado um evento. [Constitui um 
I • 
exercício fácil de provar, e o faremos resumidamente, que se S cdn-
tiver n elementos, existirão exatamente 2n subconjuntos (eventos).] 
Contudo, se S for infinito não'-numerável, surgirá uma dificuldade 
teórica. Verifica-se que nem todo subconjunto imaginável poderá 
14 I PROBABDLIDAIDE 
._ ,.:;.;e~~:;:~:~;!~~~;~;;~!;d~~:!;::::;=:=~:~=:~~·~~ 
.. d.I:J.§t:a;~~J.Cp:lil.~'Wál:ç'ão. Felizmente, . tais subconjuntos>'iiã~:::adffiis~tveis 
-~·ã;;'~-~~rgem nas aplicações e, por isso, nãO ·'cU:idii.reÍxios:r dê)es . aqui. 
Na exposição subseqüente, será admitido : tacit~fn~ri't~ ~'que $empre 
que nos referirmos a um evento, ele .será da espécié :.4u'ê' j~ ~éljriitimos 
considerar. · · · , ~ · · · 
Agora, poderemos empregar as várias téGnicas .·de combirtar con-
juntos (isto é, eventos) ~ obter novos ·. conhintô~·~· {istó ê, ·eventos), 
os quais já apresentamos anteriormente. · · 
. (a) Se A e B forem eventos, A U B será o evento que ocorrerá 
se, e somente se, A ou B (ou ambos) ocorrêreri\: 
(b) Se A e B forem eventos, A nB será .o .evel).to que ocorrerá 
se, e somente se, A e B ocorrerem. 
(c) Se A for um evento, A será o evento que ocorrehí se, e so-
mente se, não ocorrer A. 
(d) Se A~> . : . , An for qUalquer coléção Íinita deeve~tos, então, 
U~-1 A; será o evento que ocorrerá se, e somente·se, ao menos um· 
dos eventos A; ocorrer. ···, 
(e) · Se A 1, ... , An for qualquer coleção finita de eventos, então 
n~-1 A; será o evento que ocorrerá se, e somente s~, todos os eventos 
A; ocorrerem. 
. . . 
U) Se A~> ... , An, . .. · for qualquer coleção infini~a (numerável) 
de eventos, então, Ui-- 1 A; será o evento que ocorre~~ se, e somente 
se, ao menos um dos eventos A; ocorrer. 
(g) Se A 11 •• • , An, ... for qualquer coleção infinita (numerável) 
' • (Q .. . .:.. . • - .•. :.. . - · : . 
de eventos, então, ();=1 A; será o evento que ocon.'erá se1 e soinente 
se, todos os eventos A; ocorrerem. 
(h) Suponha.se que S represente o espaço amo~f:.L~L~sociado a 
~;~~~~~;:;::~~:i~:i::~~~f!~~:;:::::::~;:~;:· 
·~~~::;!=~~::· 
(i) o exemplo contido em (h) pode, obviamente, ser generalizado. 
Considerem~se n repetições de um experimento & cujo espaço amostràl 
sejaS: 
S X S X . .'.X S = {(s 1 , s2 , ••• , sn), si ES, i= 1, •.. , n} 
:'lr., 
INf RODUÇÃO À PROBABILfDADE I 15 
I 
representa o conjunto de todos o~ possíveis resultados, quando & for 
executado n vezes. De certo modd, S X S X ..• X S é ele próprio um 
. espaço amostral, a saber, o espaçb amostral associado a n repetições 
. I . . 
de 8,. I 
Definição. Dois eventos, A le B, são den~~~Ê_g~,~"t:.@?.tr!mie 
-ez~ludentes, se eles não puderem 'ocorrer juntos. E~ri;mremos isso 
escrevendo.,~~t~"'B~rt~~J!lf'''isto é, a 1 interseção de A e B é o conjunto 
vaziO. I 
Exemplo 1.4. Um dispositivb eletrônico é ensaiado e o tempo - I . ! 
total de servjço t é registrado. Admitiremos, que o espaço amostral 
seja { t it 2:: O). Sejam A, B e cl
1 
três eventos definidos da seguinte 
maneira: 
A = ·{tjt < 100}; B = {t J.50 '~ t ~ 200i; C.= (tit > 150}. 
Conseqüentemente, 1 
A U B = (tlt ~ 200}; A jn B = {t J50 ~ t < 100}; 
BUC=(tJt2::50}; BnC={tJ150<t~200}; AnC=O; 
A u c = {tI t < 100 ou t > 150 J; ~ = {tI t ;::: 100 J; c = (tI t ~ 150 J. 
I 
Uma das características fundamentais do conceito de "experi-
mento", como foi apresentado n~ seção anterior, é que nÓs 11~0 sa-
bemos qual resultado particular Ócorrerá quando o experimento· for . . I 
realizado. Por ~;mtras palavras, Sf A for um 'evento associado a um 
experimento, então, não poderembs afirmar com certeza que A irá 
ocorrer ou não. Por isso, torna-s,e muito importante tentar associar 
um número ao· evento A, o qual medirá de alguma maneira quão 
verossírnil é que o evento A venll.a a ocorrer; Essa tarefa nos leva 
à teoria da prob.abilidade. I 
i 
1.~~efliii&lê~~~a;tiva-), 
A fim de · motivar a 
o seguinte procedimento: 
I 
Definição. ]A =· nA/n é denominada freqüência relativa do evento 
A nas n repetições de 8. A f;eqü~ncia relativa f A ap.rese~ta as seguin-
tes propriedades, de fácil verificaÇão: 
. (1) o ~ f A ~ 1. . . I 
(2) j A = 1 se, e somente se, h. OCOrrer em todas aS n repetições . . 
I 
.,, : 
16 I IP'ROISAIS8UDAiiJIE 
(3) !A. :=O se, e somente se, A nunca ocorrer nas;nrepetiçpes. 
(4) Se A e B forem eventos mutuamerité' ex2ludé#tes;e ~sef~ u B 
· for a freqüênci!l relativa associada ao ~vento~ ~y ,s, :~B.tio-;]~ •li. fi ·= . 
= fA + fB. . ... . ···:. ,,_ ,; _ ,_ .. ·. . . 
(5) fA, .com base em n repétiçõe"s dó ex.periment() 'e' :66nsideiada 
como uma função de n; "converge" em ceitó "senfído ''prohábilísti_ço 
paraP (A), quando n -7 oo . · .· · · · ' ' ' • · · 
Conientárw: A Propriedade (5) está evidentemente expressada um tanto 
vagamente, nesta seção. Somente mais tarde (Seç.l2.2), estaremos aptos a tornar 
esta idéia mais precisa. Por enquanto, podemos a~enas afirmar q_{iê ;a-Propriedade 
(5) envolve a nÕção nitidamente intuitiva de que a freq üêricia ·relativa, ba5eada em 
um número crescente de observações,tende a se "estabilizar" próximo. de algum •; 
valor definido . Este não é o mesmo conceito usual de convergência encontrado 
em alguma parte da Matemática. De fato, tal co.inó af'rrmamos aqui, esta riãó é, 
de modo algum, uma conclusão matemática, mas apenas um fato e~pírico. 
A maioria de nós está intuitivamente a par deste fenômeno de 
estabilização, muito embora nunca o tenhamos verificado. Fazê-lo exige 
considerável porção de tempo e de paciência, porque inclui um grande 
número de repetições de um experimento. Contudo, algumas vezes, 
poderemos ser ingênuos observadores deste fenômenô, como ilustra o 
seguinte exemplo: 
Exemplo 1.5. Admitamos que estejamos postados na calçada e 
fixemos nossa atenção em dois blocos de meio-fio adjacentes. Suponha-se · 
que comece a chover de tal maneira que sejamos realmente capazes de 
distinguir pingos isolados de chuvà e registrar se esses pingos caem num . 
meio-fio ou noutro. Ficamos a observar os pingos e a anotar seu ponto 
de impacto. Denotando o i-ésimo pingo por Xi, onde Xi = 1 se o pingo 
cair no primeiro meio-fio, e igual a O se . cair no outro, poderemos 
observar uma seqüência como, por exemp1o, 1, 1, O, 1, O; 0,0, 1, O, O, 1. 
É evidente que não seremos capazes de prever onde um particular pingo 
irá cair. (Nosso experimento consta de alguma espécie de situação me-
teorológica que causa a queda dos pingos de chuva.) Se calcularmos a 
freqüência relativa do evento A ·= { ci pingo cai no meio-fio 1}, então, 
a seqüência de resultados acima dará origem às Seguintes freqüências 
relativas (baseadas na observação de 1, 2, 3, ... pingos): 1, 1; 2/3, 3/4, 
3/5, 3/6, 3/7, 4/8, 4/9, 4/ 10, 5/11, ... Esses números e .. videnciam um 
elevado grau de variação, especialmente no início. É intuitivamente 
evidente que, se o experimento acima continuasse indefmidamente, essas 
freqüências relativas iriam se estabilizar próximas do valor 1/2. Canse-
. _qüentemente, teríamos toda razão em acreditar que, depois de algum 
tempo decorrido, os dois meios-fios estariam igualmente molhados. 
~ ' .·, 
·i 
Oi\!TRODUÇÃO À IP'IROBABIUDADE I H 
Esta propriedade de estabilidade da. freqüência relaJ;j.va é, por 
enquanto, uma noção inteiramente intuitiva, porém mais tarde es-
taremos aptos a torná-la matematicamente precisa. -~êl:lêí:ã 
~§ÍI!i"1fproprieda<!?.:ê';_g,ile'{-Se"~experimentó:ri'er--execntad&"uitr::gr.ande o· 
, n~~l!o~1le-ve~~S'Fa-frequên:'êÍa-tei!tti~"ª:idaii".éeórtên,Ç!ií.~c.:-álgum.;evento 
. .q..i4iii~~'hde~a""'i''~:ar.'º-~-.::ovez,"'mêíiõ,ili:;:rn.edi~que,.O""-nYmero~d,~:,re~·- . : ... 
·t~~~r?allli!.~-P~~d"ã:- Esta caracterfstica é também conhecida como 
regularidade estatística. 
N 6s fomos um tanto vagos em nossa definição de experimento. 
Quando um procedimento ou mecanismo constituirá, em nossa acep-
ção, um experimento capaz de ser estudado matematicani:ente por 
meio de um modelo não-determinístico ? Já afirmamos, anteriormente, 
que um experimento deve ser capaz de ser realizado repetid;unente, 
sob condiçQes essencialmente inalteradas. Agora, podemos acres-
centar outra. condição. Quando o experimento for repetidamente 
realizado, ele deverá apresentar a regularidade estatistica mencio-
nada acima. Mais adiante, estudaremos um teorema (denominado 
Lei dos Grandes Nú:meros) que mostrará que a regularidade .estatís-
tica é, de fato, uma conseqüência da primeira .condição: reprodutibi-
lidade. 
.. .. ·~ .. .. 
1.7. ·· ~~~~lr:nif~nià~i~~~cfl!~Ni~í1ffi;dade 
Voltemos agora ao problema proposto acima: atri~uir um número 
a cada evento A, o qual avaliará quão verossírnil será a ocorrência 
de A quando' ·o experimento for realizado. Uma possivel maneira 
de tratar a questão seria a seguinte:--repetir o experimento um grande 
número de vezes, calcular a freqüência relativa fA e utilizar esse nú-
mero. Quando record;nnos as propriedades de j A, torna-se evidente 
que este número fornece uma informação muito precisa de quão ve-
rossímil é a ocorrência de A. Além disso, sabemos que à medida que o 
experimento se repetir mais e mais vezes, a freqüência relativa f A se 
estabilizará próxima de algum número, suponhamos · p. ,···Há, con-
tudo, duas sérias objeções a esta maneira de tratar a questão: (a) Não 
está esclarecido ·quão grande deva ser n, antes que se cenheça o n~­
mero: 1.000 .? 2.000? 10.000? (b) Uma vez que o experimento tenha 
sitio c~mpletaÍnente · descrito e o evento A especificado, o número 
· que estamos. procurando não deverá depender .do experimentador 
ou da particular veia de sortE) que ele possua. (Por exemplo, é pos-
sível que uma moeda perfeitamente equilibrada, , .quando jogada 
10 vezes, venha a apresentar 9 caras e 1 coroa. A freqüência rela-
tiva do evento A = {ocorrer cara} seria, nesse caso, igual a 9/10 • . 
18 I PROBABILIOADE 
!\o entanto, é evidente que nas próximas 10 jogadas o padrão de 
caras e coroas possa se inverter.) O que desejamos é um meio de 
obter tal número, sem recorrer à experimentação. Naturalmente, 
para. que o número que convencionarmos tenha significado, qualquer 
experimentação subseqüente deverá produzir uma freqüência rela-
tiva que seja "próxima" do valor convencionado, particularmente 
se o número de repetições, no qual a freqüência relativa calculada 
se tenha. baseado, for muito grande. Nós procederemos, formalmente, 
da seguinte maneira: 
Definição. Seja e um experimento. Seja S um espaço amostral 
associado a e. A cada evento A associaremos um número real re-
presentado por P(A) e denominado probabilidade de A, que satisfaça 
à.s seguintes propriedades: 
(1) O ~ P(A) ~ 1. 
(2) P(S) = 1. (1.3) 
(3) Se A e B Corem eventos mutuamente excludentes, P(AUB)= 
= P(A) + P(B). 
(4) Se A 11 At,. .. , An,. . . forem, dois a dois, eventos mutua-
mente excludentes, então, 
Observe-se que da Propriedade 3, decorre imectiatamente que, 
para qualquer n finito, 
A Propriedade 4 não se seguirá; no entanto, quando considerarmos o 
espaço amostral idealizado, esta propriedade será imposta e, por isso, 
foi incluida aqui. 
A escolha das propriedades da probabilidade acima relacionadas 
é, obviamente, sugerida pelas correspondentes cara.ctcnsticas da 
frcqüência relativa. A propriedade, antes mencionada como regu-
laridade estatística, será mais adiante vinculada a esta definição de 
probabilidade. Por enquanto, nós apenas afirmamos que se pode 
mostrar que os números P(A) e f A são "próximos" um do outro (em 
determinado sentido), se }A for baseado em um grande número de 
repetições. ~ este fato que nos dá a justificativa da utilização de 
P(A) para avaliarmos quão verossímil é a ocorrência de A. 
Por enquanto não sabemos como calcular P(A). Nós apenas 
arrolamos algumas propriedades gerais que P(A) possui. O leitor 
INTRODUÇÃO À PROBABILIOAOE I 19 
terá que ser um pouco mais paciente (atê o próximo capitulo), antes 
quE' aprenda como avaliar P(A). Antes de voltarmos a esta questão, 
vamos enunciar e demonstrar várias conseqüências relacionadas a 
P(A), que decorrem das condições acima e que não dependem da ma-
neira pela qual nós realmente calculamos P(A). 
Teorema 1.1. Se 0 for o conjunto vazio, então P(0) =O. 
Demonstração: Para qualquer evento A, podemos escrever 
A = A U 0. Uma vez que A e 0 são mutuamente excludentes, 
decorre da Propriedade 3, que P(A) = P(A U 0) = P(A) + P(0). 
Daqui, a conclusão do teorema é imediata. 
Comentário: Mais tarde, teremos oeasiAo de ver q11e a reciproca do teorelllA 
acima nAo é verdadeira. lst.o é, se P(A) • O, nlo poderemos, em geral, concluir 
que A - 1!, porque existem situações nas quais atribuú:nos probabilidade zero a 
um evento que pode ocorrer. 
Teorema 1.2. Se à for o evento complementar de A, então 
P(A) = 1 - P(Ã). (1.4) 
Demonstração: Podemos escrever S = A U Ã e, empregando 
~ Propriedades 2 e 3, obteremos 1 = P(A) + P(Ã). 
Ccmwmtório: Este é um resultado puticulannente útil, porque ele significa 
que sempre que desejarmos avaliar P(A), poderemos cs.lculu P(Ã) e, depois, 
obtermos o resultado desejado por subtração. Veremos maistarde que, em mui-
Ws problemas, é muito mais fácil calculu P(ii) do que P(A). 
Teorema 1.3. Se A e B forem dois eventos quaisquer, então 
P(A U B) = P(A) + P(B)- P(A () B). (1.5) 
Demonstração: A idéia desta. demonstração é decompor A U B 
e B em dois eventos mutuamente excludentes e, em seguida, aplicar 
a Propriedade 3. (Veja o Diagrama de Venn na Fig. 1.2.) 
Desse modo escreveremos 
A U B = A U (B () A), 
B = (A () B) U (B () A). 
Conseqüentemente, 
PfA U B) = P(A) + P(B () Ã), 
P(B) = P(A (J B) + P(B () A). 
.~ · ' r i.;•' i 
.r~ ,. { ,, .. 
.... 
' I 
r 
I 
I 
i 
.! 
I. 
' l : ~ . 
20 I PROBABOUDADE 
Subtraindo a segunda igualdade da primeira, . obtém~se .. 
P(A U B) - P(B) = P(A) ----: P(A íi B) 
e daí chega-se ao resultado. 
Fig. 1.2 
Comentário: Este teorema representa uma extensão imediata da Proprie-_ 
.dade. 3, porque se A n B = 0, obteremos do enunciado acima .a. Propriedade 3. 
Teorema 1.4. Se A, B e C forem três eventos· quaisquer, então 
P(A U B U C)=P(A) + P(B)+P(C)-P(A íi B)-P(A (')C)-
- P(B íi C) + P(A íi B n t:). . (1.6) 
Demonstração: A demonstração consiste em. escrever A U B U C 
na forma (A U B) U C e aplicar o resultado do teorema anterior. 
Deixa-se ao leitor completar a demonstração. 
Comentário: Uma extensão óbvia do teorema é sugerida. Sejam A ii ... ,· Ak, 
quaisquer k eventos. Então, 
k k 
P(Ar u A2 u ... u Ak) = L P(A;) - L P(A; nA;) + 
1=1' i<j=2 
k 
+ ·E P{AinA;nAr) + ... +(-I)1HP(ArnA2n .. . nAk). 
i<j<r=a 
(1.7) 
Este resultado pode ser facilmente estabelecido porr indução matemática~ 
Teorema 1.5. Se A CB, então P(A):::;; P(B). 
Demonstração: Podemos decompor B em dois eventos mutua-
mente excludentes, na seguinte forma: B = A U (B nA). Conse-
i:. 
:; 
1: 
INTRODUÇÃO À PROBABiliDADE I 21 
qüentemente, P(B) = P(A.) + P(B nA) ;:::: P(A), porque P(B (I Ã) ;:::: 
;;:: O, pela Propriedade 1. . 
Comentário: Este resultado é, certamente, de conhecimento intuitivo, poill 
ele afirma que se B deve ocorrer sempre que A ocorra, conseqüentemente, · B é mu.Íll 
pl'ovável do que A. 
1.8. .Aig11.1mas Observações 
(a) Cabe aqui uma palavra de advertência. Da exposição an-
terior poderia ser (incorretamente) inferido que quando escolhermos 
mp modelo probabilístico para a descrição de algum fenômeno de 
observação, estaremos abandonando todas as relações determinís-
ticas. Nada poderia estar ~ais distante da verdade. Nós ainda 
utilizãm~; o fato de que, por exemplo, a Lei de Ohm I = E/R vale 
em determinadas circunstâncias. A diferença seria uma diferença 
de interpretação. Em vez de afirmar que a relação .acima determina 
I para E e R dados, admitiremos que E ou R (ou ambos) possam 
variar de alguma maneira aleatória imprevisível e que,· em conse-
qüência, I variará ta'Inbém de alguma forma aleatória. Para E 
e 'R dados, I será ainda determinado pela relação acima. O impor-
tante é que, quando se adotar um modelo probabilístico para a des-
crição de um circuito, considera-se a possibilidade de que E e R pos-
sam variar de alguma maneira imprevisível, a qual somente pode 
ser descrita probabilisticamente. . Portanto, desde que tenha sen-
. tido considerar somente a probabilidade de que E e R tomem certos 
valores, torna-se significativo . falar somente · da probabilidade de 
que I venha a tomar certos valores. 
-- ~- ·7~~::~=~~iflj[~l~!:~;;~~!f;~~~!~~· 
depenaercnrcomplicação de nossa técnica de mensuração e da exatidão 
associada a. ela. Por exemplo, se medidas exatas foremJlfo difíceis de 
obter que leituras repetidas da mesma quantidade condÚzam a resulta-
dos variados, um modelo probabilístico será sem dúvida mais adequado 
para descrever a situação. 
(c) Indicaremo~ resumidamente que, sob certas circunstâncias, 
teremos condições de fazer hipóteses adicionais sobre o comportamento 
probabilístico de nossos resultados experimentais, as quais nos conduzi-
rão a um método de avaliação das probabilidades básicas. A escollia 
dessas hipóteses adicionais pode ser baseada em 'considerações físicas do 
experimento (por exemplo, propriedades de simetria), evidência empí-
.,. ; 
- -
·. ~' ~:" . . 
22 I PROBABILIDADE 
rica ou, em alguns casos, apenas julgamento :<pesspãl,>bàseado em 
experiência anterior de uma situação similar! A IreqJ.iêl1ciâ relativa fA 
pode desempenhar um importante papel em nossa 'deliberação sobre a 
atribuição numérica de P(A). Contudo,~ imponànte' '·'coriÍ~ieender que 
qualquer suposição que façamos sobre P(A) deve '''s~r 'fajY:qú'~ " ~êjam 
satisfeitos os axiomas básicos desde (1) até (4)daDefuiiç'ãô·{1.3): · · · 
(d) No curso do desenvolvimento da5 idéias bâsicãs datêoria 'da 
probabilidade, faremos algumas referências a det~rriúnadas. analogias 
mecânicas. A primeira delas pode ser apropriada a.qili. Etii M~tânica, 
atribuímos a cada corpo B sua massa, digamos m(.B)~ ''Effi .§~guút"a'~ fa-
remos diversos cálculos e obteremos várias condüsÕÚ sobre o compor-
tamento de B e suas relações com outros coipos, iÍxirita(P,as -qliais 
envolvem sua massa m (B). O fato de que · nós podere·fu.os' ter que 
recorrer a alguma aproximação para obter reâlméntt m(B) pâra uin . 
corpo especificado não diminui a utilidade do coritéitó ' de hiassa~ 
Semelhantemente, estipularemos para cada evento A assocüid.() aoespaÇo 
amostral de um experimento um número P(A ), denominado 'probabili-
dade de A, e satisfazendo nossos axiomas básicos. Ao calci.ílar reallliente 
P (A) para um evento específico, nós teremos que fazer hipÓteses 
adicionais ou que obter uma aproximação base ada em evidência. empírica. 
(e") . 1!; muíto importante compreender que nós tenhamos pos-
tulado a existência do número P(A), e que tenhamos postulado de-
terminadas propriedades que esse número possui. A validade das 
várias conseqüências {teoremàs), decorrentes desses postulados, 'de 
modo algum depende da maneira pela qual iremos obter um valor 
numérico para P(A). 1!; essencial que este ponto fique claro. Por 
exemplo, admitimos que P(A U B) = P(A) + P(B). A fim de em-
pregar esta relação para a avaliação concreta de P(A U B), deveiemo~ 
conhecer os valores de ·P(A) e de· P(B). Explicaremos, i-esuffiida-
mente, que sob certas circunstâncias, nós poderemos fazer suposiçõês 
adicionais que conduzam a um método de avaliação dessas probabi-
lidades. Se essas (ou outras) suposições não forem fundamentadas, 
poderemos ter de recorrer à experi~entação a fim de alcançar o valor 
de P(A) a partir de dados reais. A freqüência relativa fA desempe~ 
nhará nisso um importante papel e será, de fato, utilizada para apro-
ximar P(A). 
Contudo, é importante saber que j A ,o P(A) ní'ío slto o. rncHllll\ 
coisn.; que nó11 ~~ponaH ni.iliznrom01-1 j A Jl l~l'l~ t\proJ<iouu• /'(A) ., qt11, 
li!llllpl'l q111 11011 rt •ft'IÍI'Illll ll 1L /'(ti), 1'1\I ,HIIIIIIIHI 111111 111r11 11tlo IIII Vn loll' 
\lllll l,llltlclo t 1 1101 11 1fl1nllll11111111111" J~ 1'11111 /'( ,1) , clt 111'1111 1'11111 
-~---- ------- -- --- -
INT;RODUÇÃO À PROBABILIDADE I 23 
[ 
preender que estaremos tão-somenie substituindo um valor postulado 
por urna aproximação obtida exp~rirnentalrnente. Quão boa ou má 
essa aproximação possa ser, de. ~odo algum influencia a estrutura 
lógica de nosso modelo. Muito ~mbora o fenômeno que o modelo 
tente representar tenha sido levadÓ em conta na construção do mode-
lo, nós nos teremos distanciado do bróprio fenôrnen~ (ao menos tempo-
:rariarnente), quando entrarmos no i-eino do modelo. 
I 
Problemas I I 
I 
I 
1.1. Suponha que o conjuntO funqamental seja ÍQI'Ill8do pelos- inteiros. po-
mtivos de 1 a. 10. Sejam A= (2, 3, 4) 1, B = (3, 4, 51, e C= (5, 6, 7). Enu-
mere os elementos dos seguintes conjuntós: -
·- . - .. I 
I 
(a) A n B. (b) A U B. (c) A n ~· (d) A n (B n C). (e) A n (B U C)· 
1.2. _ Suponha. que o conjunto ~undamental U seja dado por U = 
(x!O s; x ~ 2). Sejam os conjunto8 A e B definidos da forma. seguinte: 
A= (xll/2 < x~ 1) e B = {xll/4~ x < 3/2). Descreva os seguintes con-
juntos: I 
r 
(a) A U B. (b) A U B. (c) A n IJ, Cd> :A n B. 
I1.3. Quais das seguintes relações si\.o verdadeiras? 
I -
(a) (A U B) n (A U C) = A U (~ n C). (b) (A U B) = (A n B) U B. 
(c) A C\ B = A U B. (d) (A Li B) n c-= A n B n C. 
(e) (A n B) n (B n C) = e. I 
i 
1.4. Suponha que o conjunto fund~ental seja. formado por todos os pontos 
(x, y) de coordenadas ambas inteiras, e que estejam dentro ou sobre a fronteira 
do quadrado limitado pelas retas x = O, jy = O, x = 6 'e y = 6. Eriuroere .os ele-
mento,s dos seguintes conjuntoo: ! 
I 
(a) A= ((x,y)jx2 + y2 ~ 6). (~) B = ((x,y)Jy~ x~l. _ 
(c) C = {(x, y)jx ~ y2}. (d) B q1 C. (e) (B U A) n Ç· 
! 
1.5. Empregue diagramas de Vem\. para estabelecer as seguintes relly;õoa: 
(a) A C B e B C C implica quk A C C. " (b) A C B implica q\10 
A - A n B. (c) A c B I implica que- ·:B c A. (d) A c B ilnpliCII 
quo A u c c IJ u c. (lll A n B I.; 0 e c c A implicam quo B () c - 0. 
1 ,0, I'OI)I 'IIli\ HIU\111 rlr t 1\IHII lill (ll\ dr (HIIf)IIÇ O tlflO 11\1\r()!l,l\iUI 1(1 foi(tullm (/J) 
'"' 11 o r(tl(ll 1,11111111 (N), ~~~ I)IIIJifl \ ll 1Uijll111l01UIIlrl/1 I! 1111" < llllldl~Jtll l'IIV, Hl.l'l\r),., 
I , 
l1rl•t l11 III 11 1 lj\11 tlllr I prl~ll' l tlr1l11 1.111111111 1'111111!111111 '/ll~ ~~~],.lu (u(ll l•tt<llf ti I •(1111 
l(llllilo 111 V''~ lt ulttuu llhlu 111~(1111 ' 1111111hlk llltlllo 1(111• '"'"III ""' I" 11111 111 l1111111 r 
I h riU VI' IIII I IIM~II Ulljllll(l 111(1111' I I '""' ""'" ' '' 
2<l I PROBABILIDADE 
. · · -::-. 
frj). (a) Uma caixa coi:n N lâmpad!IS contém: r lâmpa<;llj.S ~- (r < ;:?'!) , com fila-: 
mento partido. Essas lâmpadas são verificadas \l!Íia a urnii, at.é .9ue .l,l!P-11 1~1!!­
pada défeituosa seja encontrada. Descreva um espaÇ0, ~kÇ;if~i :par~ : este e~ 
rimento.. .,.... · ' ·· · · ·· '· · ... , .. ,_·_ .. ·"·· ·/· ·-'' · '· . 
/' ' . • . . . _. , --~ _. <·: ... , __ :,~~ ... ,~ -._.' . 
(b) Suponha que as lâmpadas ·acima sejam verlficaâili uiriâ' à. •·uma; até que 
todas as defeituosas tenham sido encontradà.s. Déscreva: fe~p~Çi;: ~m6St~al para 
este experimento . -~~ '.~ · '. :. 
. 1.8. Considere ' quatro objetos, á'f-õl:t;ticiiiif;td'!J' . Suponha que a . or~m em que 
tais objetos sejam :listados represente o resultado de um experilp.ento. Sejam 
os eventos A e B definidos assim: A. = -fâ"êSf~lll!.~priméha:.-'-Posi~o); . B ~ 
lb"·el!t:t''ria":se-gnndB."-posição l . · 
(a) Enumere todos os elementos do ·'es~~m0st1>~J;h-
(b) Enumere todos os elemtmtos dos ey~entos<4 n B e A U iJ: 
1.9. Um lote contém pe~as pesando 5, 10, 15, .. . , 5Q gr11mas. : Admitamós 
que ao menos1 duas pe~as de cada peso sejam_ ensontradas no, !<;>te~ Duas ~as 
sãoretí;adas dà~ I0;te .. Sejam X o peso da pri~eita peça escolhid,a;}l .Y o pe'so q~ 
segunda. Portanto, o par de números (X, Y) rep_resentá : um .. resultl),do _simples 
do experii:ne\lto. Empregando o plano XY, marque o espaç.o amostral~ os segtün-
tes eventos: · 
(a) [X= Y). (b) !Y> XI. 
(c) A ·segunda pe~a é duas vezes mais pesada que a primeira. 
(d) A primeira peÇa pesa menos 10 ~ama$ que a segtmda -p~a. 
(e) O peso médio de duâs p~ças é meno~ do ~ue 30 gramas.·· 
Q;;) burante-:m ;~~rodo de 2~--horas, ein algum moment:O X, uma chave 
é posta na posição "ligada". Depois, em algum momento futuro Y (ainda du-
rante o mesmo período .de 24 horas), a chave é virada para a posi~ão "desligada". 
Suponha que X e Y sejam medidas em horas, no eixo dos tempos, com o início do 
período na origem da escala. O resultado do experimento é constituído pelo par 
de números (X, Y). 
(a) Descreva o espaço amostral. 
(b) Descreva e marque no plano XY os seguintes eventos; 
(i) O circuito está ligado por uma. _hora ou ~enos. 
I 
(Ü) O circuito está ligado no tempo z, onde zé algum instante no período 
dado de 24 horas. . 
(iii) O circuito é ligado antes do tempo lt e desligado depois do tempd 12 
(onde também 11 < t2 são dois instantes durante o período de 24 
-hora.S· especificado). 
(iv) O circuito permanece ligado duas vezes mais tempo do· que desligado. 
/f:11'1 Sejam A, É e C três eventos associados a um experimento. Exprima 
em ~~ões de conjuntos, as _segtüntes afirmações verbais: 
Ao menos um dos eventos ocorre. 
Exatamente um dos eventos ocorre. 
INTRODUÇÃO À PROBABILIDADE I 25 
(r) Exatamente dois dos eventos ocorrem. 
(d) Não pais de dois dos eventos ocorrem simultaneamente. 
1.12. Demonstre o Teor 1.4. 
l ' 
1.13. (a) Verifique que para dois eventos quaisquer, Ar e A2, temos que 
P(Ar U A2) S P(Ar) + P(A2) .. 
(b) Verifique que para quaisquer n eventos Ar, . . . , An, temos que 
P(Ar U . .. U An) S P(Ar) + ... + P(An). 
(Swestdo: Empregue a indução matemática. O resultado enunciado em (b) 
é denominado desigualdade de Boole.] 
. ~.14. O Teor. 1.3 trata da probabilidade de que ao menos um de dois eventos 
A ou"B ·o~rra. O seguinte enunciado se refere à probabilidade de que exalmMnte 
um deis eventos A ou B ocorra. Verifique que 
P[(A () B) U (B () A)] ·= P(A) + P(B) - 2P(A () B) . 
. @ J ~;n certo tipo de motor _ elé~ri~ falha se ocorrer uma das seguindteass 
srtuàçoes: emperramento dos :r,nancars, querma dos enrolamentos, desgaste 
escovas. Süponha que o emperr~tnén);o seja· dua.s vezes ma i~ pr.ováyel do que 1\ 
queima, esta ·sendo quàtro -..:e~es mais pro~ável 'do 'que ' o 'fles~alite, dàs es~ovas: . ' 
Q;at,será. ·a;' ProBabilidàde de 'que-a--fàlba · seja~flevida' a _c.ada um~· dessas\ circun
1
s-
tânçill.ll? . ,, ,. 
~-,.. / • ·'.<! 
")~':1"6.) Suponha que_ A .e B sejam eventos tais que P(.Á) = x, P(B) = y, e 
P(~~) = i. · Exprima cada uma das seguintes probabilidades em termos 
de x, y e z. 
(~) P(Ã U B). (b) P(Ã () B). (c) P(A U B). (d) P(A n Ii). 
1.17. Suponha que A, B e C sejam eventos tais que P(A) = P(B) = P(C) = 
= 1/4, P(A n· B) = P(C () B) = o e P(A () C) = 1/8. Calcule a probabilidade 
de. que ao menos um. dos eventos A, B ou C ocorra . 
.r;?:~·· . 
'-r.1-8. Uma instalação é constituída de duas caldeiras e umamáquina.Admita 
que o evento A seja qqe a _!TI~quina esteja em boas condições de funcionamento, 
enquanto. ,os ~veritos Bk (k := 1, :n são os eventos-de que a k-ésima caldeira esteja 
em boas condições. O evento C é que a instalação possa funcionar. Se--a instalação 
puder funcionar sempre que a máquina e pelo menos urria.das caldt;jras funcionar, 
expresse os eventos C e C, em termos de A e dos Bk. ' 
.~"'"',;~_...;., )~ 
('.....t.ts~· Um mecanismo tem dois tipos de unidades: I e · II_. Suponha que .se 
disponha de duas unidades do tipo I e três unidades do tipo I( Defina os eventos 
Ak, k= 1, 2eBj,j= 1, 2, 3 daseguintemaneiía:Ak:ak-ésimaunidade do tipo I 
está funcionando adequadamente; Bj= aj-ésima unidade do tipo II está funcionan-
do adequadamente. Finalmente,· admita que C represente o evento: o mecanismo 
funciona. Admita que o mecan1smo .funcione se ao menos uma unidade do tipo I 
e ao menos duas unidades do tipo II funcionarem; expressé o evento C em termos 
dosAk e dosBj. 
I 
, · 1 
·.;' . . ' 
... , '~ 
Espaços Amostrais Finitos 
Capí.tulo 2 
2.1. Espaço Amostral Finito 
Neste capítulo nos ocuparemos unicamente de experimentos 
para os quais o espaço amostral S seja formado de um número finito 
de elementos. Isto S 
A fim de caracterizar P(A) para este modelo, deveremos ini..: 
'cialmente considerar o evento formado por um resultado simples, 
algumas vezes denominado evento simples ou elementar, A ~ {a;}. 
Procederemos da seguinte maneira: 
A cada evento simples {a;} associaremos um número p;, deno-
minado probabilidade de {a;} 1 que satisfaça às seguintes condições': 
(a) p;;,:::o, i= 1,2, ... ,k, 
(b) P1 + P2 + ... + Pk = 1. 
[Porque {a;) é um evento, essas condições devem ser coerentes com 
aquelas postuladas para as probabilidades dos eventos em geral, 
como foi feito nas Eq. (1.3). É fácil verificar que isso se dá.] 
Em segu_ida, suponha-se ,que um evento A seja constituído por 
r resultados, 1 :::; r:::; k, a saber · · 
onde j;, j~,;· ., ;};representam mn qualquer'<'.Q§~;fq,~tfêsj de 1 até k. 
Conseqüentemente, conclui-se da Eq. (1.3), Propriedade 4, quei 1 I 
I ESPAÇOS AMOSTRAiS fiNiTOS 1 27 
• "?>~~.'õ'.':..~~~~~-- --~- - • • - ! • I 
~~~!~t~~~'f"!'·a atnbmçao dr probabilidades Pi a cada evento 
elementar {ad, sujtjto às condições (a) e (b) citadas anteriormente, 
determina ~,.:~~~~nte P(A) para lcada evento A C S, onde P(A) é 
dado pelãE~f~'t} 
1 
. , . 
Para avaliarmos os p; individuais, algllina hipqtese referente 
aos resultados individuais de_ve seJ feita. . · 
Exemplo 2.11.. Suponha-se que somente • tres resultados sejam 
possiveis em um experimento, a saber, ah .<li e a3• Aléni .disso, su-
ponha-se _que. a1 seja duas vezes Fis provável de o.correr que a2, o 
qual por sua vez é duas vezes mai~ provável de ocorrer que a3• 
Portanto, P1 = 2p2 e P2 = 2p3. Já que P1 + P:l + P3 = I, te-
remos 4pa + 2pa + pg = 1, o qul finalmente dá 
1 I 2 4 
Pa = 7• P2l 7 e P1 = T· 
Comentdrio: Ns exposição que se .. $egue, empregaremos a expressão "igual-
i . 
mente verossúneis" para signüicar "igu~lmeote prová'\éis". 
A hipótese mais co~um~nte I feita para ;espaços amostrais fini-
tos é a de que todos os . sejam igualmente verossímeis. 
• \ I • 
Esta · hipótese nãO pode ser, · tomada como segura; ela deve 
ser cuidadosamente justificada. ;Existem muitos experimentos para 
os quais tal hipótese é assegurad11, mas existem também muitas si-
. tuações experimentais nas quais i seria · absolutamente errôneo acei-
tar-se essa suposição. Por exeJ?~lo, seria b~~;Sta.nte irreal supor que 
seja igualmente verossímil não ocorrerem chamadas telefônicas em 
um centro entre 1 e 2 horas da ~adrugada e entre 17 e 18 horas da 
tarde. I 
"'~~==~~· l-~·rução P1 + ... + p~c =:= 1 torna-se kp• = 1· para todo, i. t Disto de-
, formado de r resultados, teremos 
1t muito importante ··C· om.onleii.der que a expressão de P(A) acima 
é apenas uma cons~qüên~i~ qa de,, que todos, os resultados 
o"::\ 
28 I PROBABILIDADE 
sejam igualmente verossimeis, e ela é aplicável somente . quandO essa 
suposição for atendida. Ela certamente não serve como .· uma · defi-
nição geral de probabilidade. ·-
Exemplo 2.2. Um dado é lançado e . todos os r~sriliados se su-
põem igualmente verossimeis. O evento A ·-~c~r~er'á. se, e. somente 
se, um número maior do que 4 aparecer, isto é, A =:: { 5, ' 6}: Con-
seqüentemente, P(A) = 1/6 + 1/6 . == 2/6. 
r-:>\ ~ 
v Exemplo 2.3. Uma moeda equilibrada é · at_irada .. çluas vezes. 
f_ W Seja A. o evento: {aparece uma cara). Na avaliação _de P(A), a 
~ ~ análise do . . problema poderia ser a seguinte: O espaço amostral é 
-~ 3 S ={O, 1, 2} onde cada resultado representa o número _ de ~aras 
~ que ocorre. Portanto, seria encontrada P(A) ;, 1/3! Esta análise 
~ é obviamente incorreta, porque no espaço amostral.cónsiderado aci~a; ' 
=r todos os resultados não são igualmente verossímeis. A fim de aplicar 
· !f os . métodos expostos, deveremos considerar. em s .eú lugar o espaÇo t amostral '= IHH, HT, TH, TT}, onde H ·i:épresenta cara, e ·T 
-. oroa. Neste espaço amostral todos os resultados são _ igualJ!lente 
verossimeis e, . por isso, obteremos como soluçãó cbrreta de · nosso 
problema: P(A) = 2/4 = 1/2. Poderíamos empregar corretamente o· 
· espaço S da seguinte maneira: Os resultados O e 2 ··são igualmente 
verossímeis, enquanto o resultado 1 é du~s vezes mais provável que 
qualquer um · dos outros. Portanto, P(A) =: 1/2, o que concorda 
com a resposta anterior. 
Este exemplo ilustra dois aspectos. Primeiro, deveremos estar 
bastante I SegUrOS de que tod~S OS resultados pOSSam SUpOr-Se igual.:_ 
mente verossíme\s, .antes de empregar o procedimento 'acima. Se-
gundo, poderemos freqüentemente, por uma escolha apropriada do 
espaço· amostral, reduzir o problema a outro, em que todos os resul-
tados seja,;_ igualmente verossímeis. Se~pre 'qne possível, isto deve 
. ser feito r porque g~ralmente· , torna o cálculo . máis si.rhples. Este 
aspectQ.será-de novo mencionado em exemplos subseqüentes. 
Muito freqüentemente, a maneira pela qual o experimento -é 
executado determina se os result!tdos possíveis são igualmente ve-
rossímeis ou iíão. Por exémplo, suponha-se que retiremos um para-
fuso de uma caixa /que ·coiitenh~ tr~s parafusos de tamanhos dife~n­
tes. Se simplesmente escolhermos o parafuso este:rrdendo a mão 
dentro da caixa e apanhando aquele que tocarmos primeiro, é óbvio 
que o parafuso maior terá maior probabilidade de ser escolhido que 
os outros dois. No entanto, etiquetando cuidadosamente cada para.:. 
fuso com um número, escrevendo o número em um ·cartão, é esco-
~ . 
IESI?AÇOS AMOSTIRA~S .fiNDTOS I 29 
lhendo um cartão, tentaremos garantir que cada parafuso tenha de 
fato a mesma probabilidade de ser escolhido. Assim, poderemos 
nos meter em enorme trabalho a fim de assegurarmos que a suposição 
matemática de resultados igualmente verossímeis seja de fato apro-
priada. 
' 
Nos exemplos já vistos e em muitos que se seguirão, trataremos 
d:a escolha ao aeliso de um ou mais objetos de uma dada coleção de 
~:.~;~::::::;~~,::=:!::!~~:~~~~::foe';:/:ion'hamQ~. 
(a) Escolher ao acaso.um obJeto, dentre N objetos, significa qiUle 
cada objeto tem ã mesrn.a: Pl)Obabilidade de ser esc,o!hido, isto é, 
· · -b ~ ). r · . ~ "· ,.~~·), 
Pro (escolher a;= lN, t = 1, 2, ... ,N. o l'!.'J.,<;~':?Gi':J/"i,::fc, . .-1, 
~..11"1 í((j de·:;, ~ ' ""r/Z 
(b) Escolher ao acaso dois obJetos, dentre N objetos, significa 
que cada par de objetos (deixada a'ordem à partertem a mesma pro-
babilidade de ser escolhido que qualquer outro par. Por exemplo, 
se devemos escolher ao acaso dois objetos dentre (ai; a2, as, a4), obter 
a1 e a2 é então tão .provávêl quanto obter a2 e as etc. '·Esta for~ula­
·r;ão'"levanta-imediatamente a questão de quantos pares diferentes 
existem. Admita-se que existam K desses pares. Então, a proba-
bilid~-;!,~~~R~/K. Logo,, Vft~~:m;,ç§~i~2:S~l~~iS~?). 
/,..........(~) Escolher ao acaso n objetos (n ::; N) dentre N objetos signi-
/ fica que cada ~nupla, a saber a;,, a;,, . .. , a;n é tão provável de ser 
/ escolhida quarito qualquer outra ~nupla. 
,. 
/ 
i Comentário: Já sugerimos acima que se deve tomarextremo cuidado durante 
., o procedimento experimental, para assegurarmos ,que a suposição matemática q~ ~ / , ..... . 
) . • • I 1 .:-~ t• =-+ ~ .• 4 .tl .P~-<J ~"'Y) 
\ "escolher. ao acaso" seJa atendtda.. .t ,, r1• .1 ; ... r , i li ·, ,<'= "'\ C ÇJ L-.· jlt,1 '-·· '"" \ .. . 1 . -~''{_ t:· " ~ ~e.. ' ·~ r. t.,.,.,. . ..,.. - or:';;....-r- .., . 
\~.--·'if'> €;--~/t.NiVJ;Dt. ?ki de . v , . 
2.3. Métodos de Enumeração 
Deveremos fazer uma digressão, a esta. altura, para aprendero 
mos como enumerar. Considere-se novamente a forma já vista de 
P(A) a saber P(A) = r/k, :'Onflfu~Ji~O'inlffil:ero"'io:t·a:l;;€hle:matt:eir.a:s..--
. -~;~:::~!!1:~=:~~;:~;~~~t~~;~!!!~~~;:~:;:~~:~~:" 
. aqui;-pequena difi~uld~de-foi ençontrada para calcular r e k. · Mas 
nós precisamos estudar sit~ações apenas um poupo mais complica-
das, para percebermos a necessidade de alguns procedimentos siste-
máticos de contagem ou enumerâção. 
I 
li 
I ,, 
30 I PROBABIUDADIE / lp _,. 
/ ,:;ljl~~~{~~~r,·.~ Uma partida de cem peças ,é ,comppsta ,de ~O . 
peçM-defeituosas e 80 peças perfeitas. n ·ez dessas .. peçás 'são esco-
lhidas ao acaso, sem reposição de qualqu~r peça· escolhida antes que 
a seguinte seja escolhida. Qual é a probabilidade de que exatarnente 
metade das peças escolhidas seja defeituosa? · · 
Para analisarmos este problema, consideremos ·o seguinte ·espa-
ço amostral S. Cada elemento de S é. constituÚ:lo deqez possíveis 
peças da partida, (i,, i2, . . . , i,o). Quantos resultádos des~es existem? 
E dentre esses resultados, quantos têm a característica de que exa-
tamente a metade das peças seja defeituosa? Nós, evidentemente, 
precisamos ter condições de responder a tais questões a fim de resol-
vermos o problema em estudo. Muitos problemas semelhantes dão 
origem a questões análogas. N'nST"puucmí:::i)eç~egumte~...,a.p.re~­
tãiêffio'S'::~àlgumas=téeni:cas~si1fteiji4Hj~.as,,;dg~êriDttmY.a~aeo 
Suponha-se que ·um procedimentopossa ser de n 1 ma~eiras. Admita'-se 
que um- segundo procedimento, designado por 2, possa ser executado 
de n2 maneiras. Suponha-se, também, que cada maneira de e~ecutâ.r 
1 possa ser· seguida por qualquer daquelas para executar 2. Então, 
o procedimento formado por 1 seguido de 2 poderá ser executado de 
n 1 • n 2 maneiras. Para indicar a validade deste priiJ.cipio, é ~ais 
fácil considerar o seguinte tratamento sistemático; 
p 
i"íg. 2.1 
COnsiderem-se um ponto P e duas retas L 1 e L2. Admita-se que 
o procedimento 1 consista em ir de P até L1, enquanto o procedimento 
2 consista em ir de L 1 até L2• A Fig. 2.1 indica como o resultado 
final é obtido. 
Comentário: Obviamente, esta regra pode ·ser estendida a qualquer número 
de procedimentos. Se existirem k procedimentos e o i-ésimo procedimento puder 
· set executado de n,; maneiras, i = 1, 2, .. ; , k, então o proc.edimento formado 
por 1, seguido por 2, .. . , se'guido pelo procedimento k, poderá ·ser executàdo de 
l'l1ll:! • • • nk rrumeiras. 
ESPAÇOS AMOSTRAIS FINITOS I 31 
Exemplo 2.5. UDll). peça manufaturada deve passar por três 
estações de controle. Em cada estação, a peça é inspecionada para 
determinada característica e marcada adequadamente. ~a primeira 
estação, três classificaçõe..> ~il.o possiveis, enquanto nas duas últimas, 
quatro classificaçõe!l são po!~!l{veis. Conseqüentemente, exilitem 
3 - 4 - 4 = 48 maneiras pela:; quais uma peça pode ser marcada. 
B. Regra da Adição. Suponha-se que um procedimento, de-
signado por 1, possa ser realizado de n1 maneiras. Admita-se que 
um segundo procedimento, designado por 2, possa ser realizado de n2 
maneiras. Além disso, suponha-se que não seja possível que ambos 
os procedimentos l e 2 sejam realizados em conjunto. Então, o 
número de maneiras pelas quais poderemos realizar ou I ou 2 será 
n1 + n2. 
Novamente, empregaremos um tratamento esquemático para nos 
convencermos da validade da regra da adição, como a Fig. 2.2 indtca. 
p 
L,~l, 
Fig. 2.2 
Comenúirio: Esta regra também pode ser generalizada da seguinte maneira: 
Se existirem k procedimentos e o i-ésimo procedimento puder ser realizado de n; 
manein.s, i ~ 1, 2, ... , k, entAo, o número de m&neiras pelas quais poderemos 
realizar ou o procedimento 1, ou o procedimento 2, ou ... , ou o procedimento k, 
é dado por n1 + n2 + _ . + nA:. supond<H!e que dois quaisquer deles nlo se pos-
sam realizar co llJltament.e. 
Exemplo 2.6. Suponha-se que estejamos planejando uma via-
gem e devamos escolher entre o transporte por ônibus ou por trem. 
Se existirem três rodovias e duas ferrovi~, então existirão 3 + 2 = 5 
caminhos disponíveis para a viagem. 
C. Permutações e Arranjos. (a) Suponha-se que nós temos n 
objetos diferentes. De quantas maneiras "p" poderemos dispor (per-
mutar) esses objetos 'l Por exemplo, se tivermos os objetos a, b e c, 
P<>deremos considerar as seguintes permutações: abc, ccb, bac, bca, 
cab e cba. Portanto, a resposta é 6. Considere-se, em geral, o se-... ._ __________________________ __ 
·'I 
. 32 I I"ROBAB!UOADIE 
O primeiro comparti,mento pode ser ocupado por qualquer 
uma das n maneiras, o segundo compartimento por qualquer u~a. 
das (n - 1) maneiras, .. . , e o último comparÜmentO apenas por 
uma maneira. Portanto, aplicando-se a regra da multiplicação, 
vista acima, verifica-se que a caixa poderá ser carregada de n(n-1) 
(n- 2) . .. 1 maneiras. Este número aparece tão freqüentemente em 
Matemática que se adotam um nome e um símbolo especiais para ele. 
Definição. Sendo n um inteiro positivo, definimos n! = · (n)(n- I) 
(n- 2) ... 1 e o denominamos fatorial de n. Também definimos 
O!= 1. 
Dessa maneira, o número de permutações de n objetos diferen-
tes é dado por 
(b) Considerem-se novamente n objetos diferentes. cA<gQp§t9:~- .• 
~~~::;~fi!!~~~~~~:;~!e~v:!~:!~~~-~:;;r-~~~~~~]1!~3~~~~: , 
por ::11Jf;. ··Recorremos novamente ao esquema acima, de encher uma 
caixa de n compartimentos; desta vez simplesmente paramos depois 
que o compartimento de ordem r tenha sido ocupado. Assim, o pri-
meiro compartimento pode ser preenchido de n maneiras, o segundo 
de (n- 1) maneiras, ... e o de ordem -r de n- (r- I) maneiras. 
Portanto,- o procedimento completo poderá ser executado, novamente 
aplicando-se a regra da multiplicação, de 
n(n -'- 1) (n - 2) ... (n- r + 1) 
maneiras. Empregando a notação · de fatorial, introduzida acima, 
poderemos escrever 
D. Combinações. C.on8iderem-se, novamente, n objetos dife-
rentes. Agora, trataremos da cont&g<em do número de mweiras de 
ESPA'ÇOS AMOSTRAIS FINITOS I 33 
escolher r dentre esses n objetos sem. considerarmos a ordem. Por 
exemplo, temós os obj~tos a, -b, ~ ';':Z/ ~ :; =: 2; desejainQ~· contar ab, 
ac, ad, bc 1 bd e cd; por outras palavras, não contaremos ab e ba, por-
que os mesmos objetos estão incluídos e somente a ordem é diversa. 
Para obtermos o resultado geral, recordaremos . a· fórmula dedu-
zida acima: o número de maneiras de escolher r objetos dentre n, e 
permutar os r escolhidos é n!/(n- r)! Seja C o número de maneiras 
. de escolher r denl;re os n, não considerada a ordem. (Isto· é, C é o 
número procurado.) Observe-se que, uma vez que r objetos tenham 
sido escÓlhidos, existirão r! maneiras de permutá-l~s. Conseqüen-:-
temente, aplicando~se novamente a regra da multiplicação, junta-
mente com esse resultado, obteremos 
C 1
__ n! 
r.- (n- r)! 
Portanto, o número de maneiras de escolher r dentre n objetos dife-
rentes, não se considerando. a ordem, é dado por. 
C= . n! . 
r!{fl.- r)! 
Este número surge em muitas passagens da Matemática e, por 
isso, um símbolo especial é empregado pará éle. Escreveremos 
rl(n~ r)! = ( ~) 
Para nossos objetivos atuais, ( ~) somente fica definido para n in-
teiro positivo e r um inteiro tal que O :5_ r :5_ n. Contudo, pode-
remos definir (~) · de modo mais geral, para qualquer número real 
n e para qual<Iuer inteiro não negativo r, na forma seguinte: 
( n) = n(n-l)(n-2) ··· (n- r+ 1). r r! . 
Os números ( ~) são freqüentemente denominados coeficientes bino-
miclis, porque eles. aparecem como co!)ficientes no desenvolyimento da 
<e;lq)ressio binomial (a+ b)n. I Se n for um inteiro positivo, (a+ w = 
= (a+ b) (ar+ b) ..• (a + b). Q~ando a multiplicação tiver sido 
eKecutada, cada termo será formado de k elementos a, e de (n - k) 
elementos b, k =O, 1, 2, .. . ,n. Quàntos te~osda forma akbn-k 
34 I PROBABiLIDADE 
existir~? Simplesmente contaremos o númeci ,iJ.e>lniuiei.ráB posSf .. 
veis de escolher k déntre os n elemen~s a, ·débiandó deiãdó a'otdém. 
Mas isw é justamente dado por ( ~) ~· Dai ob~rtridso "~Jeé collhe-
cido como o reorema birwmial: 
(a+ b)" ~ ± (n)a~bn-k_ . ·. . •-o k . . (2.2) 
Os números (;)apresentam muitas propriedades in~~ess;mtes, ape-
nas duas das quais mencionaremos aqui: (A . merios que . ~e diga 
expressamente de modo diverso, admitiremos que n sej~ inteiro posi-
tivo e r um inteiro, O ~ r ~ nJ · 
~ fácil verificar algebricamente as duas identidades acima. Basta 
desenvolverem-se, em cada uma, · o primeiro e o segundo membros, e 
verificar que são iguais. 
Existe, contudo, outra maneira de verificar essas "'id~ntidades, 
que emprega a interpretação que demos para ( ~), . a · saber, o nú-
mero de maneiras de escolher r dentre n coisas. 
(a) Quando escolhemos ·r dentre n coisas, estamos ao mesmo 
tempo deixando (n:.... r) coisas não ·escolhidas, e, por isso, escolher r 
dentre n é equivalente a escolher (n ·- r) dentre n. Ora, isso é exa-
tamente a primeira identidade a verificar. 
(b) Vamos fixar um qualqm~r dos n objetos, por exemplo o pri-
meiro, a1. Ao. escolher r objetos, a1 estará incluído ou estará excluído, 
mas não ambas as coisas. Portanto, ao contar o número de maneir!LS 
de escolher r objetos, poderemos aplicar a Regra da Adição, expli-
cada anteriormente. 
Se a1 for excluído, então deveremos escolher os r objetos dese-
jados dentre os restantes (n - I) objetos, e existem ( n ~ 1) maneiras 
de se fazer isso. 
Se a1 for incluído, entã:o somente(r - I) mais objetos deve~ 
ser escolhidos dentre os restantes (n - I) objetos e isto pode ser 
feito de ( ~ = ~) maneiras. Conseqüentemente;· o .número procu-
rado é a soma desses dois, o que verifica a segunda identidade. 
:~ 
f. 
I . . 
ESPAÇOS AMOSTRAIS FINITOS I 35 . 
I 
N [ f" · b' · · ( n ) t" t'd Comentário: este contexto, os c~e 1c1entes momm.lS k em sen 1 o 
somente se n e k forem inteiros não-negativos, com O ,;;; k ,;;; n. Todavia, se escre-. I 
vermos i -
I 
n . n! _ n(~-l) ... (n -k+ l) 
( )=---- I ·' 
k k!(n-k)! k! 
I 
observaremos que a última expressão temi sentido se n for qualquer número real e 
k for qualquer inteiro não-negativo. Portanto, 
I I 
3 (-3)(+ 4) ... (-7) ! . c ) = -----,-,...-----
5 I 5! 
e assim por diar1te. I 
Empreg;uido · esta versão estendida dos· coeficientes binomiais, poderemos 
estabelecer a forma generalizada do teorenk binomial: 
. I 
. n ooi n k 
(l+x) =E' ( )x ·· kJo k 
I 
' I 
Esta série tem significado para qualquer ;n real e para todo x tal que I· X I < 1. 
Observe-;<;e que, se n for um inteiro posithp, a série infinita se reduz a um número 
finito de t~rmos,porque, neste caso, ( ~) f O, se k> n. 
i . 
• Exemplo 2.1. (a) Dentre oi:o l pessoas, quantas conússõ~s de 
tres membros podem ser escolhidas ? Desde que duas corrussões 
sejam a mesma comissão se forem cbnstituidas pelas mesmas pessoas 
(não se levando em conta a ordem e~ que sejam escolhidas), · teremos 
· ( ~ ) = 56 conússões possíveis. 1 
(b) Com oito bandeiras difere~tes, quantos sinais , feitos com 
tl'ês bandei;ra.s se podem obter? Este problema parece-se muito com 
o anterior. No entanto, aqui a ordem acarreta diferença e, ,por isso, 
obteremos 8!f5! = 336 siwüs. : · · · 
(c) Um grupo de oito pessoa.S é formado de cinco homens e 
três mulheres. Quantas coiDÍllSões ~e três pessoas podení. ser cons-
tituídas, .· incluilldo exatamente dois 1 homens? · Aqui deveremos fazer 
duas coisas: escolher dois homens (dentre cinco) e escolher uma 
. I 
mulher (dentre três). Daí 1 obtermos como 1 número procurado 
( ~) · ( ~ ) = 30 comissões. ! 
(á) Agora poderemos verifica~ uma afirmà.ção feita anterior-
mente, a · saber, a de que o númerq de subconjuntos (ou partes) de 
36 I lf'ROBABIUDAOIE 
um conjunto constituído de n elementos é igüàJa 2" :(coritados o 
conjunto vazio e o próprio ()onjunto) . . · Siwplesine11te a.ssoçiemos a 
cada elemento o valor um ou zero, conforme esse elemento deva 
ser incluído . ou excluído do subconjunto. Existe~ du~s .· maneiras 
de rotular cada elemento e existem a,o ~oqo p, desses elementos. 
Daí a regra da multiplicação nos dizer que existem 2 · 2 · 2 · · · 2 = 2" 
rotulações possíveis. Mas cada rotulação particular representa uma 
escolha de um subconjunto. Por exemplo, . (1; 1, O, ,0, o;· ... , O) 
constituiria. Ó subconjunto formado exatamente por d.1 e · ~~- Ainda, 
(1, 1, •... , 1) representaria o próprioS, e (0, O, ... , O) . representaria 
. o conjuntá vazio. 
(e) Poderíamos. obter o resultado acima, pelo emprego da Regra 
da Adição, na forma seguinte: Para obter subconjuntOs, .deveremos 
escolher o conjunto vazio,. aqueles subconjuntos co:D,stituídos . exata-
mente por ~m elemento, aqueies constituídos exat~nÍenÚ~ por dois 
elementos, ... , e o próprio conjunto constituído por todos os n ele-
mentos. Isto seria feito de 
maneiras. Ora, a soma desses coeficientes. binomiais é exatamente 
o desenvolvimento de' (1 + 1)" = 2": 
Voltemos agora ao . Ex. 2.4. De · uma partida formada . por 20 
peças defeituosas e 80 peças perfeitas, escolhemos ao acaso 10 (sem· 
reposição). O número de maneiras de fazer isso é · e~). Daí, 
a probabilidade de achar exatamente 5 peças defeitu0sas e · 5 perfeitas 
entre as 10 escnlhidas ser dada por 
(2~) (~o)_ 
e~) 
Por meio de logaritmos de fatoriais (os quais se acham tabuls.dos), 
a expressão acima pode ser avaliada como igual a 0,021. 
Exemplo ·2.8. Vamos generalizar o problema acima. Admi-
tamos que temos N peças. Se. escolhermos ao acaso n delas, sem repo-
sição, teremos ( ~) diferentes amostras possíveis, todas elas com 111 
· rilesma. probabilidade de serem escolhida.S. Se as N peças forem 
!~~madás por r 1 da classe A e r2 da, classe B · (COJ1l r1 + r2 = N), 
ESPAÇOS AMOSTRAIS !FINITOS I 37 
então, a probabilidade de qu~ as n peças escolhidas sejam exatamente 
111 da classe A e (n- s1) da classe B será dada por 
(A express·ao acima se denomina probabilidade ltipergeomélrica, e 
será aillda reencontrada.) 
Comentdrw: 11: muit;o importante <éspecificar, quando falarmos de peças 
G!lxtra!das oo acaso, SG!l a eS1:nlh& é · com ou sem reposiçl!.o. Na maiori& dos casos 
concretcs, pretenderemos a última. Por exemplo, qus.ndo inspecionamos certo 
ndmero de- peças manufs.turadas a fim de descobrirmos quantas defeituosas po-
deriw existir, geralmente não tencionaremos examinar a mG!lSma. peça. duas vezes. 
Já disSG!l!D.()8 que o número <l.e maneiras de e.gcolher r coiSilll dentre n, não considerada 
B ordem, é dado por (~). · O. número de maneiras de escolher y coisas dentre n, 
com repoaição, é dado por n•. Neste caso, eataremoa interessados na ordem em 
que as peç:ns sejam escolhidas. ··- · . 
Exemplo 2.9. Admitamos que se escolham ao acaso dois objeios, 
dentre os quatro denominados a, b, c e d. 
(a) Se escolhermos sem reposição, o espaço amostral S poderá. 
ser representado da forma abaixo: 
S = ((a, b); (a, c); (b, c); (b, d); .(c, d); (a, d)}. 
Existem ( ~ ) = 6 resultados passiveis. Cada um desses resultados 
indica somente quais os dois objetos que foram escolhidos e não a or-
dem em que eles foram escolhidos. 
(b) Se escolhermos com reposição, o espaço amostral §' poderá 
-ser representado por: 
S' = { (a, a); (a, b);_ (a, c); (a, d); (b, a); (b, b); (b, c); (b., d);}. 
(c, a); (c, b); (c, c,); (c, d); (d, a); (d, b); (d, c); (d, d) 
Existem 42 _ = 16 resultados possíveis. Aqui, cada um desses resul-
tados indica quais objetos foram escolhidos e a ordem -em que eles 
o foram. Escolher ao acasq implica que, se escolhermos sem repo-
sição, todos os resultados em S serão igualmente verossimeis, enquanto 
se escolhermos com reposição, então todos os resultados em S' serão 
igualmente verossímeis. Portanto, se A for o evento {o objeto c é 
I 'Í 
38 I PROBABILIDADE 
escolhido} I então teremos: de . s, P(A) = 3/f, ;=( 1/2 se ' eS(!Olh~rffios 
se~ reposição; e de S', P(A) = 7/16 se escdlhermôa com;-re~~siÇão. 
E. _ _,.Ji!e7f/ttiil&$r§<ÇÕW,4lu'úits:c;Jtléirient&~:,B~e'ffie~ftvs~' · Em. todas . as 
técnicas'"â~:.:-êiiumeraçã~ já apresent~das, . admitimos que ~deis os 
objetos considerados fossem diferentes (isto é, distinguív(lis). No 
entanto, não é sempre essa a situação que ocorre, · 
Suponha-se, a seguir, que temos n objetos, tai!l que n~ sejam 
de uma primeira espécie, nz de uma segunda espécie, -., .;•m< .de .;\una 
k-ésima espécie, com n1 + nz + ... + n~c = _n. - Nesse CaS!), o 'nú~ 
mero de permutações possíveis desses n objetos .é dado por 
n! 
n1!nz!. . . n~c! 
Deixa-se ao leitor a dedução dessa fórmula. Note-se ~tie, se todos 
OS objetos fossem diferentes, teríamos TU = 1, i ·:.: 1j 2, ; ·~ . 
1 
k, é, 
conseqüentemente, a fórmula acima se reduzirià a n!, que é o res'll1- . 
tado obtido anteriormente. 
Comentán"o: Devemos .salientar mais uma vez que a atribuição realística de 
probabilidades a resultados individuais de um espaço amostral,( ou a mp.a.éoleção 
de resultados, isto é' um evento) constitui alguma coisa que nã:o pode sei déduzi~a 
matematicamente, mas que deve ser originada de outras considerações. Por 'exem-
plo, poderemos recorrer a determinados traços simétricos do experimento para ' 
averiguar se todos os resultados são .igualmente prováveis. Além disso;poderemos 
construir um procedimento de amostragem (por exemplo, escolhendo :• um:ou 
vários indivíduos de uma população especificada) de tal maneira que' seja rai:oávd 
admitir que todas as escolhas sejam igualmente prováveis. Em muitos outi:os casos, 
quando nenhuma suposição básica natural sejaapropriada, deveremos recorrer à 
aproximação da freqüência relativa. Nós repetiremos o experimento n'vezes e·, em 
seguida, calcularemos a proporção de vezes em que o resultado (ou eveiltÓ) efu es-
tudo tenha ocorrido . Ao empregar isto como uma aproximação, sabemos que é 
bastante improvável que esta freqüência relativa difira da ''Verdadéira" pfõbàbili~ 
dade (cuja existência tenha sido especificada por nosso modelo te6rico), de tim 
valor apreciável, se n for suficientemente grande. Quando for impossível estabe-
lecer suposições razoáveis sobre a probabilidade de um resultado e também 
impossível repetir o experimento um grande número de vezes (em Virtude de 
considerações de custo ou de tempo, por exemplo), será realmente bastante sem 
sentido prosseguir com um estudo probabilístico do experimento, exceto em uma 
base puramente teórica. (Para um comentário adicional sobre este mesmo ponto, 
veja a Seção 13.5). ' 
2.1. O aeguÍnte grupo de pessoas está numa ·sala: 5 homens maiores de 21 
anos; 4 homens com menos de 21 anos deidade; .6 mulheres maiorés de 21- anos, ·e 
·.· 
li 
~ ..ti "'{'< -, ''!' I"'\ 
j, ,J .. .J " r ''..]'-
.,..:\ DOt;, \ . -~-...\ 
r .r-.,5"'<---J \ "J' 
V'" \}( 
ESPAÇOS AMOSTRAIS FINITOS I 39 
3 mulheres menores. Uma pessoa. é esdolhida ao ace.So. Definem-se os seguint..es 
eventos: A= {a pessoa é ~aior de'2i1 an~sl; 'E= (a. ,pessoil. é menor de 21 
anos).;, C,;;,· (.a. pessoa. é homem); D ;= (a. ~oa. .é mülhe'rl, ~ CS.!~e: · 
(a) P(B U D), (b) P(Ã n C). 
·. ~ E~· um~ s~J,la., 10 pessoas estãd usando emble~as numerados de 1 até 10. 
Tr~OII8 são escolhidas ao acaso e I convidadas a saírem da sala simultanea-
... t ···' 
mente. r.O número de seu_!~mblem_~. é _~nota.do. . 
. .. · .... ::. . . l .. , .... ·:.:·.·. ~ .. . :·:-: .. - ·.:..:.:~ -~-: .... ~:.:-~,..:.-~;::-:;.::.r::::::::;~.-:;":-~_--:,-·::~:::::: .. , ... 
(a) Qual é a. probabilidade ·d~ .qtle .o menor número .de .ern~~IDJ!oAlCja .-5? ... ,.,, ' 
(b) Qual é .. ~ p~~b~hÜidad~ d~ que lo' ~~iJ;·~;j;~;~d~·~~bl~ma ~ej~ 5? / . .·· ... \ i . . ,_ ~ . .. ' ·-· .. 
2.3. (a) Suponha que os três dígitoS.l, 2 e 3 s~jam escritos em ~rdem*a-
tória. Qual a probabilidade· de que ao menos um dígito. ocupe seu lugar próprio? 
(b) O ~esmo que em (a), com os \dígitos 1, 2, 3 e 4. . i · · -
(c) ·o mesmo que em (a), com os idígitos 1, 2, 3, ... , n. 
SugeStão·: Empregue (1.7) . ! 
(d) Examine a resposta a (c), quarldo .n for grande. 
. . I . 
2.4. Uma remessa de 1.500 a,rrueias contém 4ÔO peças defeituosas e 1.100 
perfeitas. Duzentas arruelas são escolhidas ao acaso (sem reposição) e classi~ 
ficadas. . .. I · · 
(a) Qual a probabilidade de que sejam encontradas exatamente 90 peças 
defeitUOSas? ; ' , , r, . I· . . • ,; 
(b) Qual a probabilidade de que sei encontrem ao. menos 2 p
1
eças .defeituosas? 
2.5. Dez ficha~ numeradas <:le 1 até 10 são misturadas em uma urna. Duas. 
fichas, nu:merad~ ._<X, Y), são extr~!das jda urna, sucessivame,nte : e, sem reposição. 
Qual é a probab1hdade de que seJa X +t- Y ·= 10? .f.J.__. l J (1. . ,r// "~ 
· 1 . r • ) o'-"~ . 
2.6. Um lote é formado de 10 ar~i~os bons, 4 ~rr: d~feitos menor~~ e 2 com . ' ' : \ ' . / \ "\.. . 
defeitos graves; U:m arti"go é dcolnido lf acãso. ··Ache a probab,ilidade de que: 
(a) . Ele não tenha defeitos. j 
(b) ,EJel nii.o t;nh~ d~reitos gra':-es. • · . 
(c) E!~ ~u ·seja p~rfei~· ou 'tenh~· d~feitos graves. 
• - ,~· - I , ,'·~ · . 
2.7. s 'e do lote 1~~rtigos descrito [no Probi. :2.{!, dois artigos f~re~ escolhi- . 
dos (sem rep,osiÇ.ão), áché a probabilidàd~1de que: ~ L . .-:::) 
t.a) Ambos- sejam' perfeitos. · (b} Amb~s"'-tenham defeitos gr~~eà, (c) ~o 
meno.s um. seja -perfeito. (d) No máxill]ó úin seja perfeito. (e) Exatamente Úm • 
sejã ·.Perfêltó' . . -(j1""Neuhum deles teuba l defeitos graves. ,....Cg) Nenhum deles seja 
. / 1_ ! ....._ " ./' 
perfeito. -~ ~ · · 
2.8. Um produto é montado em 1 três estágios. No primeiro estágio, exis-
tem 5 linhas de montagem; no segundo lestágio, existem 4 linhas de montagem e 
no terceiro estágio, existem 6 linhas d,e montagem . De qúantás maneiras dife-
rentes poderá o prod.utó se deslocar durante o processo de montagem? I . . . 
2.9. Um inspetor visita 6 máquinas diferentes durante um dia . A fim cie 
evitar que os operários saibam quando 1ele os irá. inspecionar, o inspetorvaria a 
ordenação de suas visitas. De quantas maneiras isto poderá ser feito? •·' 
. I 
4 
40 I lf'ROBABBUDADE 
man!~· ;~:á m=~ueC:7:~:~~/:!e3f~h~~;:~;<;~ ;~":~1:;'i;,pç quantas 
2.1~ . Eirist0m 12. categor~ de d~feitos ~~~6~' :.ât0't~~f~ç~ -~J;anrifatu­
rradm, e 10 tipoo de defeitos graves. De quantM'~a,fi~ir~ :pode~q.'. Je<iirer, 1 de-
:~J;,~S~~SS;j~l}~~~#;;;;,, 
(b) Adm1W. que esses mecanismos sejam ins't~l'ados- 'eni âetemiiriâda 'ordem 
(lin~) preestabelecida. De quantas ~aneir!lll o si&t~rria .po~~f.4 '; ~er: disposto, se 
dois mecanismos adjacantes não estiverem em igul!.l -pqsiçã~ -~-.:':·, : .. .. 
(c) Qu~mtas maneiras de disppr· serão possíveis, se ,8omentç. as -posições .a e b 
1orem usadas, e o forem com igual freqüência? . __ 
1 
: ... ,. __ · ·:.- , _,,." .''·'" . 
(d) Quantas maneiras serão possíveis, se somente duas. posições fo~em usa,. 
das, e d~as posições .uma ocorrer três vezes mais freqüe~te~ez;_f.~' q~~ -~ ~utra? 
. . . ·.,· ,. t' ~ .. f• . ·: I . 
-2.13. Suponha que de N objetos, n sejam escolhidos ao acaso, com reposição. 
Qual sem SI probabilidade de que nenhum objeto·seja escolhido maiS do qiui'uroa 
vez? (Admita n < N.) , 
2.'14. Com as seis letras a, b, c, d, e, j quantas palavras-có~igo de 4 letras 
poderão ser foriDSidas se: 
·(a) Nenhuma let~_a puder ser repetida? 
(b) Qualquer letra. puder ser repetida qualquer · núi:nero de_ vezes-? 
2.15. Supondo que ( 9i) . =a e (O:) = b, expreSstJ ( 19W)emtermos de 
111 e b. (Sugeswô: . N ao ca.lcule as expr~ões acima, para . resolver ~ . p;oblema:) 
2.16. Uma caiu contém etiquetas numeradas 1,· 2, ... , n. Duas etique-
tas_ são escolhidas ao acaso. Determine a probl),bilidade de que os ·números das 
<etiquetms ooj&m inteiros consecutivos se: 
(a) As etiquetas forem escolhidas sem reposição .. _ 
{b) As etiquetas forem escolhidas com reposição. 
2.17. Quantos subconjlintos se podem formar, contend~ . a~- ·p-tenos um ele-
mento, de um conjunto de 100 elementos? 
2. ~gj. Um inteiro é escolhido ao a.ca.so, dentre os números 1, 2, ~ . . , 50. Qual 
00~ a probabilids.de de que o número esoolhld9 seja divisível por 6 ou por 8? 
2.19. Dentre 6 números positivos e 8 negativos, escolhem-se ao acaso .4 
números (sem reposição) e multiplicam-se esses números. Qual, será aprobabili-
dade de que o produto séja. um número positivo? 
2.20. Determinado composto qufmico é obtido pela. mistura de 5 Ú~uidos 
diferentes. P ropõe-se despejar um lfquido em uin tanque e, em seguida, juntar 
os outro~ lfquidos sucessivSJ,mente. Todas as seqüências possíveis devem ser 
ensaiadas, para verificar-se qual delas dará o ~elhor resultado.· Quantos ensaios 
deverão ser efetuados? 
\ 
.I ., 
I 
I 
I 
\ 
I 
I 
ESPAÇOS AMOSTRAIS FINOTOS I 41 
2.21. Um lote contém n peças, das quais se sabe serem r defeituosas. &l 
a orden{ da inspeção das peças se fizer ao acaso, qual a probabilidade de que a peç&· 
inspecionada em k-ésimo lugar (k ~ r) seja s última peça defeituosa contida no 
lote? 
2.22. Dentre os números O, 1, 2, ... , 9 são escolliidos ao acaso (sem repo-
sição) r números (O <r < 10). Qual é a probabilidade de que não ocorram dois 
números iguais? 
'. 1,,: .. ""." 
"·! 
Probabilidade Condicionada 
e Independência 
3.1. P·robab.ilid.ade Cond,icionada . 
Capítulo 3 
. l 
·Vamos . reexaminar a diferença entre extrair uma peça de um 
lote, ao acaso, com ou sem reposição. No Ex. 2.4, :o lote estudado 
tinha a seguinte composição: 80 não-defeituosàs e 20 defeituosas. 
Suponha-se que escolhemos duas peças desse lote: ·(a) com reposi-
ção; (b) sem reposição. ,. · 
Definamos os dois eventos seguintes: 
A = {a primeira peça é defeituos~); B = {a segundapeça é . 
defeituosa) . 
Se estivermos extraindo com reposição, P(A) = P(B) = 20/100 = 
= 1/5, porque cada vez que extrairmos do lote, existirão 20 peças 
defeituosas no total de 100. No entanto; se estivermos extraindo 
sem reposição, os resultados ~ão serão tão imediatos. É: ainda ver-
. dade, naturalmente, que P(A) = 1/5. Mas e sopre P(B) ? É evi-
dente que, a fim de calcularmos P(B), dB:veremos conhecer a compo-
siçãq do lote no momento de se extrair a segunda peça. Isto é, deve-
remos saber se A ocorreu ou não. Este exemplo mostra a necessidade 
de se introduzir o seguinte importante conceito. 
Sejam A e B dois eventos associados ao experimento e. De~ 
.notaremos por P(BIA) a probabiiidade condicionada d~ evento B, 
quando . A tiver ocorrido. 
No exemplo acima, P(B I A) = 19/99, porque se A t iver ocorrido, 
então para a segunda extração restarão somente 99 peças, das quais 
19 delas serão defeituosas. 
Sempre que calcularmos P(B IA), estaremos essencialmente cal.:. 
culando P(B) em relação ao espaço.amostral reduzido A, êm lugar de 
··'.. 
I . \_ 
PROBABILIDADE CONDICIONADA Ê.INUEP.ENDENCIA I .4l~ 
I 
fazê-lo em relação ao espaço ambstral original S. Consideremos o 
Diagra$ de Venn da Fig . . 3.1. 
r---~--------·s 
A B 
(]) 
!Fig. 3.1 
Qu:kdo . calcularmos · P(B) estâl:emos 
nos per~taiido quão provávEl! será estar-
D;J.OS em! B, sabendo que · devemos_ -estar 
em S. ~ quando calcularmos P(B I A) .esta-
remos p~rguntando ·quão provável será, es-
tarmos eii). iJ,. sabendo que ~evemos estar 
em A, i(Isto é, o ·espaço amostral ficou 
redmido Ide S para A.) Logd, daremos uma 
definiçãJ rigorosa <teP(BIA). Por enquan~ 
to, contudo, empregaremos nossd noção intuitiva de 1 probabilidade 
d.. d d. I con ICIOna a e aremos um exemplo. 
1-· 
Exemplo 3.1. Dois dados ~quilibrados são lançados, regis-
trand~se o resultado ~orno (x1, x2~, onde Xi é o resultado do i-ésimo 
dado, ~ = 1, 2. Por Isso, o esp3:ço amostral S pode ser represen-
tado pela seguinte lista de 36 re~ultados igualmente prováveis. 
( (1, I)'" 
S = ) (2, I) . 
{ (6, :I) 
I . 
(1, ~) (1, 6) ) , 
(2, 2) . (2, 6) ~ 
I c 
(6, 2) (6, 6) ) ' 
Consideremos os dois eventos seguintes: . I 
A = {(x1, x2) I x1 + X2 = 10t B = {(x1, x2) I x1 ,> x2}. 
I 
. I . . 
Assim, A = {(5; 5), (4, 6), (6, 4)} e fl. = ·{(2, 1), (3, 1), (3, 2), ... , (6, 5)}. 
· Portanto, P(A) = 
3
3
6 
e P(B) = l~ · · E P(B 14) = ~, :uma ve.z; qüe 
. o espaço amostral é, _ agora, forma!do por A (isto é, ·três resultados), 
e somente um desses três resultadJs é coerente com o evento B. De 
. . I . 
modo semelhante, poderemos calc~lar P(A !B) ,= I/15. 
Finalmente, vamos calcular PCA () B) . . O evento A () B ·ocorre 
se, e soii).ente se, a soma dos dois \dados for 10 e se o primeiro dado 
tiver, apresentado um valor maior
1 
que o segundo dado~ Existe ape-
nas um desses resultados e, por isso, P(A () B) = . 1/36. Se fizermos 
, . I 
um exame cuidadoso dos vá'rios números já calculados, concluiremos 
I ' 
que 
P(AIB) = P(A () B) 
P(B) 
i 
I 
el P(BIA) = P(A () B) · 
· · . P(A') · 
i i 
44 I lí'IROBABBUDADIE ,, 
Essas relações não surgiram apenas do particular exemplo que 
<Consideramos. Ao contrário, elas são bastante gerais, e_ nos .<ião um 
caminho p3;ra definir rigorosamente a probabilidad~ ·condicionada. 
Para sugerir essa definição, voltemos ao conc~it<J de frequência 
relativa. Admitamos que um experimento s tenha ~ido. repetido n 
vezes. Sejam nA, nB e nAnB o número de vezes que, respectiva-
mente, os eventos A, B e. A () B tenham ocorrido em n repetições; 
Qual o significado de nAnB/nA? Representa a frequência relativa 
de B naqueles resultados em que A tenha ocorrido. . Isto é, nAnB/nA 
é a frequênc.ia relativa de B, condicionada a que A tenha. ocorrido. 
Poderemos escrever nAn~/riA, da· seguint~ forma:-
fUnB nAnB/n . }AnB =--· nA nA/n }A · 
onde }AnB e }A são as frequências rel~tivas dos eventos A ()B e A, 
respectivamente. Como já dissemos (e explicaremos ~ais tarde) 
se n, o número de repetiçõesfot grande, }Anil f)erá próximâ de P(A () B) 
e Ú ·será próxima de P(A), Conseqüentemente, a relação acima 
sugere que nAnB/riA . será próxima de P(B I A). Por isso, estabelece-
remos a seguinte definição: . 
Definição: 
P(BiA) = P(A n B) I desde que P(A) >o. (3.1) 
P(A) 
Comentârios: (a) :f: importante co~preender que isso não ·é um teoremil. 
(nós não demonstramos coisa ·alguma), nem é tim axioma. Apena.s introduzimos 
a noção intuitiva de probabilidade condicionada e, . depoi.~, estabelecemos uma. 
definição ·formal daquilo ·que essa noção significa. o fato de que no!lSÍ!. defiriiÇão 
formal corresponde à noSsa noção intuitiva· é fundamentado. pelo .parágrafo que 
precede à definição. 
(b) l!: assunto simples verificar que P(B IA) para A fixado, satisfaz aos várioo 
posttdados de probabilidade das Eq. (1.3). (Ver ·Probl., 3.22.) IstO é; temos 
(1') O~P(B!A)~l, 
(2') P(SIA) = 1, 
(3') P(BiU~~IA),;P(B1 !A)+P(B2lA) se Bt()B2='0, (3.2) _ 
(4') P(Bt u B2 u ···IA)= P(BtlA) + P(B2IA) + ·: · · se · B; nn; =e 
para i ~j. 
(c) Se A= S, P(B I S) =P(B n S) I P(S) =P(B). 
(d) A cada evento B c S poderemos associar dois números, P(B), a proba-
bilidade (não-condicionada) de B, e P(B 1 A), a probabilidade condicionada de 
._·. B, desde que _algüm evento A (para o qualP(A) > 0) tenha ocorrido. Em gerai, 
· essas·.; duas medidas de probabilidade atnouirão probabilidades diferentes ao 
I 
:~ .· 
·~ . 
. ·.; 1 ;_:. 
PROBABILIDADE COi\lDBCiOI\lADA rE ii\lDrEI"rENDIÊi\lCiA I 45 
evento B, como indicaram os exemplos precedentes. Dentro em breve, estudare-
mos um caso especial importante, para o qualP(B) e P(B I A) serão iguais. 
(e) Observe-se que a probabilidade condicionada está definida em termos . 
da medida de probabilidade não-condicionada P, isto é, se conhecermos P(B) 
para todo B c S, poderemos calcular P(B 1 A) para todo B c S. 
Deste modo, temos duas maneiras de calcular a probabilidade 
condicionada P(B I A): 
(a) Diretamente, pela consideração da probabilidade de B einm 
~relação ao espaço amostra! ~~:Cduzido .Al. 
(b) Empregando a definição acima, onde P(A n B) e P(A) são 
calculados em relaÇão ao espaço amostr~l original S. 
Ccmientário: Se A = S, obteremos P(B IS) = P(B () S)/P(S) = P(B), porque 
P(S) = 1 e B () S = B. Isto é como seria de se esperar, porque dizer que S 
ocorreu é à.penas dizer que o experimento joi realizado. 
N 
u 
Tab. 3.1 
E M 
·. 
40 30 
20 10 
60 40 
70 
30 
100 
Exemplo 3.2. Suponha-'se que um escritório possua 100 má-
quinas de calcular. Algumas dessas máquinas são elétricas (E), 
enquanto outras são manuais (M); e algumas são novas (N), enquanto 
outras são muito usadas (U). A Tàb. 3.1 dá o número de máquinas 
de cada categoria. Uma pestsoa entra no escritório, pega uma má-
quina ao acaso, e descobre que é nova. Qual será a probabilidade 
de que seja elétrica? Em termos da notação introduzida, desejamos 
calcular P(E I N) . 
Considerando-se somente o espaço amostral reduzido N (isto 
· é, as 70 máquinas novas), temos P(E IN) = 40/70 = 4/7. Empre-
gando a definição de probabilidade condicionada, temos que 
P(E 
1 
N) = P(E n N) = 40/IOO = .!. 
: P(N) 70/100 7 ' 
A mais importante conseqüência da definição de probabilidane 
condicionada acima, é obtida ao se escrever: 
P(A n B) = P(B I A)P(A) ou, equivalentemente, 
.. .-.~·':. · .. 
11 
46 I PROBABILIDADE 
P(A n B) =P(A ' i B)P(E) . .... (3;3.a) 
. Isto é, algumas vezes, mencionado como o teore_ma. da ·miiltiplicação 
de probabilidades. · · · '" . · 
Podemos aplic~r esse teorema para calcular a ptobabÜidade da 
ocorrência conjunta dos eventos A e B. 
Exemplo 3.3. Consideremos novamente o 'lote forma<;lo . de ·. 20 
peças defeituosas e 80 não-:defeituosas, estudado no início' da Seç~ 3.1. 
Se escolhermos ao acaso duas peças, sem reposição, qu.ai se~á a pro-: 
babil~ade de que ambas as peças sejam defeituosas? 
Como anteriormente, definamos os eventos . A e . B, na seguinte 
forma. 
A = {a primeira peça é defeituosa l;B = {a segunda peça é 
defeituosa l· 
Conseqüentemente, pediremos P(A (I B), qtre poderemos cal-
cular, de acordo com a fó~da acima, como P(B\A) P(A). ::'i1as, · 
P(B I A) = 19/99, enquanto P(A) = 1/5. Portanto, P(A. (I B) = 
=: 19/495. ') 
Cornentdrjo: O teorema da multiplicação de probabilidades (3.3.a) pode ser 
· generalizado para mais de dois eventos, da seguinte maneira : 
p [A 1 n A 2 n ... n An J = 
=P(Á 1 )P(A 2 I A 1 )P(A 3 I A,,A 2 ) ... P(An I A, ... Ari -1). (3.3.b) 
(a) A nB=íl (b) A :: B (c) B c A (d) Nenhum desses casos 
Fig. 3.2 
Examinemos agora, rapidamente,. se poderemos fazer uma afir- · 
geral sobre a grandeza relativa de P(A jB) e P, (A). Consi-
quatro casos, que estão ilustrados pelos Diagramas de 
Fig. 3.2. Teremos: 
porque A não poderá ocorrer se · B 
--~~· --~---=-~~-·-·· .. . 
• ' .. 
· ' :::. 
:;:. · . 
1-
,/.' 
Íl: ' \ 
I": 
l 
l · 
L 
IPROBABIUDADE CONDiCIONADA E INDEPENDÊNCIA I 47 
I 
(b) P(A I .8) = P(A í1 B)/P(B) I= [P(A)/P(p)l ~ P(A), já que 
O~ P(B) ~ 1. i 
(c) P(A IB) = P(A í1 B)/P(B) \= P(B)/P(B) = 1 ~ P(A). 
. (d) Neste caso nada poderem4s afirmar spbre a grandeza rela-
tiva de P(A IB) e P(A). 1 . · · · 
I 
Observe-se que em dois dos casos acima, P(A) ~ 1 P(A I B); em~ 
um caso, P(A) ;:::: P(A !B); e no qu~rto caso: não podemos fazer qual-
quer comparação~ I . 
· · Até aqui, empregamos o conceito de probabilidade condicionada 
. a fim de avaliar a p~obabilidade de [ocorrência conjunt~ de dois even-
;tos. Poderemos aphcar esse conce1to em outra manem• rle calcular 
• a: ·.probabilidade de um evento suhples A. Necessitaremos ·da se-
·•. g\J'in:te 'definição: f 
I . 
Definição. Dizemos que os e~entos B 11 B 2, ••• , Bk representam 
:uma partição do espaço amostral S, f uando 
(a) B ; íl Bi . = 0, para todo i ~ j. 
. I . 
/c 
(b) U B; =S. 
(c9 P(B;) > O para todo i. 
Explicando: Quando o experimento E é realizado um, e somente I I .· . 
um, dos {'V~ntos Bi ocorre. I·, · · · 
(P?r exemplo: na jogada de um dado, 
B1 ~ 111,_21; B2 = •{3, 4, 5) e B3 = {6} 
representariam uma partição do espaço 
amo~trhl, enquanto C 1 = I i, 2, 3, 4) ~ 
c2 = 't j4, 5, 6) não o representariam.) 
Fig.·3.3 
Consideremos A um evento qual-
quer referente aS, e B 1, B2, .. .', B~c uma 
partição de S. O Diagrama de Venn 
na Fi~. 3.3 ilusira isso para k = 8. 
· Portan~o, . poderem~s escrever 
. I 
A = A íl B1 U A n B2 U ... U A íl Bk. . . I . 
. . I . 
Natura.lmcntc, alguns dos conjunto~ A n Bi poderãó ser vazios, mas . , I . . 
isso não invalidá essa decomposição de A. O ponto importante é 
que todos os ~ven.tos A n B11 •• • ,)A í1 B~r, são dois a ,dois mutua-
mente excludentes. Por isso, poderemos aplicar a propriedade da 
. ' 
I 
;•. : 
'! 
· I 
I 
I 
I 
I 
48 I IPROBABIUDADIE . , __ ,: 
adição de eventos mutuamente éxcludentes"[Eq." '(t3)k !e-es~rever 
P(A) = P(A n B1) + P(A (1 B2) + ~ -.. -+;rDí. :n ~k). 
·. ·· :l · · · ;t ... _:: _ _..._!::-· /-.~!- ~ - r,.:f ':. ·' • .. _ 
Contudo, c'ada termo P(A () B;) pode ser expresso na forma P(iq B;): 
·P(B;) c, daí, obteremos o que se denomi;1a o teoremà -'d3: J;;·obaliili-
dade total: · ' 
P(A) = P(AIB1)P(B1,) + P(AjB2)P(B2)+ ... +P(AIBk)~(nS (3.4) -
Este resultado representa ~ma relação extré;n~~e,ite .útil, - porque 
freqüentemeqte, quando P(A) é pedida, p~dc_ ser difícii ,calculá-la 
diretamcnte. No entanto, com a informação adicional de qÚe B; 
tenha ocorrido, seremos capa~es de calcula~ P(A.IB;) ~. e~ - seguida, 
empregar a fórmula acima. · -· -
Exemplo 3.4. Consideremos (pela última vez) o lote de 20 peças 
defeituosas c 80 não-defeituosas, do qual extrairemos duas peças, 
sem 1·eposição. Novamente definindo-se A e B como iguais lJ. 
_A = I a primeira peça extraída é defeituosa J, 
B = I a _segunda peça extraída é defeituosa}, 
poderemos, agora, calcular P(B), assim: 
P(B) = P(BIA)P(A) + P(BjA)P(A} 
Empregando alguns dos "cálculos realizados no Ex:. 3.3, ~ncontramo~ 
q ue 
19 1 20 4 l 
P(B) = -·-+- ·- = - -
99 ' 5 99 5 5 
Este resultado pode ser um tanto surpreendente, especialmente 
se o leitor se recordar de que no início da Seç. 3.1 encontramo!:! que 
_!(I!) = 1/5, quando extraímos- as peças com reposição. 
Exemplo 3.5. Uma determinada peça é manufaturada por três _ 
fábricas, digamos _1, 2 e 3. Sabe-se que 1 produz· o dobro de peças 
que 2, e 2 e 3 produziram o mesmo número de peças (durante um 
período de produção especificado). Sabe-se também que 2 por cento 
- das peças produzidas por l e por 2 são defeituosas, enquanto 4 por · 
. . 4 ' 
cento daquelas produzidas por 3 são defeituosas. Todas as peças . 
produzidas são colocadas em um dep6sito, e dep,ois . uma peça é- ex-
traída ao acaso. Qual é a probabilidade de que ess; peça seja de-
"ÍE)ituosa? 
.. , - ·;;<Vamos introduZir os seguintes , eventos: A = I a peça é defei-
tuº~~ }-, ~~ = , I a peça provém de 1}, B2 = I a peça provém de 2}, 
- B.:~ :;::""')~~pe~a provém de 3 J. 
::.:; 
PROBABiUDADIE CONDICIONADA IE iNDEPENDÊNCIA I 49 
Pede-se P(A), e empregando-se o resultado acima, poderemos 
escrever: 
P(A) = P(A JB1)P(B1 ~ + P(A JB2)P(B,) + P(A IB3)P(B3). 
Ora,-P(B1)=1/2, enquantó P(B 2)=P(B3)= 1/4. Também, P(AIB1) = 
= P(A I B2) = 0,02, enquanto P(A I B3) = 0,04. Levando-se esses vm~ 
lores à expressão acima, encontraremol;l P(A) = 1!},025. 
Comentário: A seguinte analogia com o teorema da probabilidade total é 
· observada em Quí~ica:· Sup~nha-se que ternos k frascos contendo diferentes 
soluções de um mesmo sal totalizando, digamos, um litro. Seja P(Bi) o volume 
do i-ésirno frasco e seja P(A IBi) a concentração da solução no i-ésirno frasco. 
Se reunirmos todas as soluções em um só frasco e seP(A) denotar a concentração· 
da sq~tição resultante, teremos: 
P(A) = P(A JB1)P(BI)+ ·=·+PIA IBJ,)P(B~~:). 
Poderemos empregar o Ex. 3.5 para sugerir outro importante 
resultado. Suponha-se que uma peça seja retirada do depósito e se 
verifique ser ela d~feituosà~ Qual é a probabilidade de que tenha sido 
produzida na fábriCa 1? 
Empregando a notação já introduzida, pede-se P(BdA). Pode-
remos calc~lar esta probabilidade como uma conseqüência da seguinte 
exposição: ·Seja B 1, B2, .. . , Bk uma partição .do espaço amostral S 
e seja A um evento associado a S. Aplicando-se a definição de pro-
babilidade . condicionada, poderemos escrever 
P(BdA) = ~(A JB,)P(B;) 
:L j = 1 P(A I B;)P(B;) 
1: =: 1, 2,. o., k. ~3.5) 
Este resultado é conhecido como Teorema de Bayes. É também 
denominado fórmula da probabilidade das ;,causas" (ou dos "antece-
dentes"). Desde que os B.; constituam uma partição do êspaço amos-
. trai um, e somente um, dos eventos B; ocorrerá. (Isto ' é, um dos 
eventos B; deverá ocorrer e somente um poderá ocorrer.) Portanto, 
a expressão acima nos dá a probabilidade de um particular B; (isto·· 
é, uma "causa"), dado que o evento A tenha ocorrido~ A .fim de 
aplicar esse teorema, deveremos conhecer os valores das P(B;). Muito 
freqüentemente, esses valores são desconhecidos, e isso limita a apli-
cabilidade do teorema. ,Tem havido considerável controvérsia 
sobre o Teorema de Bayes; ele é perfeitamente. correto matemati- . 
camcnte; somente a escolha imprópria dos P(B;) pode tornar o . resul-
tado discutível. 
~':'·. -, .. 
50 I PRQBABIUDAD!: 
Voltando ao problema proposto a~ima, , ~ agqra, apltca114o a Eq. 
(3.5), obtemos: 
P(B IA) = (0,02)(1/2) . .. . _; - 'o .4··· 0· 
1 
. . (0,02)(1 /2) + (0,02)(1/4)+JQ;p4)(JL~) ·.:~ ,.' ~. ~ ' 
Comentário: De novo, podemos encontrar para :ó· Tê:or~inâ ~e . Baye~, uma 
analogia da Química. Em k frascos, temos soluções docmesino saCporém de 
concentrações diferentes. Admita-se que o ·volume totaL das ·soluções seja um 
litro. Denotando por P(Bi) o volume da s~lU:çio do i~êsiino frasco, e a concentra-
ção do sal nesse· i-ésimo frasco por P(A lEi), verificaremos que a Eq. (3.5) forneee 
a proporção da quantidade total do sal que é encontrada; no·i-ésimo frasco. 
O seguinte exemplo do Teorema de Bayes nos ·dará uma oportuni-
dade para introduzir a idéia dodiagrama de árvore, um esquema bas-
tante útil para analisar determinados problemas. 
Suponha-se que um grande número de caixas de bombons sejam 
compostas de dois tipos, A e B. O tipo A · contém 70 por cento de · 
bombons doces e 30 por cento de bombons .amargos, enquanto no ti-
po B ·essas percentagens de sabor são inversas. Além disso, suponha-se 
que 60 por cento de todas as caixas de bombons sejam do tipo A, en-
quanto as restantes sejam do tipo B. 
Você agora se defronta com ó. seguinte problema de decisão: uma 
caixa do tipo desconhecido lhe é oferecida. Você terá. per:inissão para 
tirar uma amostra de bombom (uma situação reconhecidamente irrea-
lística, mas que nos permitirá introduzir idéias importantes, sem ficar 
muito complicado), e com esta informação você deve .decidir se adivi-
nha que a caixa que lhe foi oferecida é do tipq A ou se do tipo B. O 
seguinte "diagrama de árvore" (assim denominado por causa dos vários 
passos ou ramos que aparecem) nos ajudará a analisar o problema. (Sa 
e sa correspondem, respectivamente, a escouier um bombom de ·saJ:>or 
doce ou um bombom de sabor amargo.) 
I"IROBAB!UDADIE CONDiCIONADA E INDEPENDÊNCiA I 51 
i 
I 
Façamos alguns cálculos: I 
I 
P(A) = 0,6;P(B) = 0,4;P(Sa IJi) = 0,7; . 
P(Sa I:A) = 0,3;P(Sa IB) = 0,3;1P(Sa IB) = 0,7 . . 
Desejamos realmente saber: I 
. I 
P(A ISa), P(AIS0 ), IP(BISa) e, P(BlSa). · 
I . I 
. Suponha-se que realmente ret~remos um bombom de sabor doce. 
Qual decisão seríamos mais tentados a tomar?· Vamos comparar 
I 
P(A lSa) ~ P(BiSa). 
Empregando a fórmula de Bayes, teremos , . I . 
· · _ P(Sa IA)P(A) 
P(A IS a)- P($a iA)P€A) + P(Sa IB)P(B) 
I 
(0,7)(0,6) 7 
(0,7)(0,6) +(0,3)(0,4) =9. 
i . . 
. I 
Cálculo semelhante dará. . j . 
P(BISai) = 2/9 . . 
Dessa maneira, baseados na evidência que tivemos (isto é, a tirada 
de urh bombom de sabor doce) é ~i vezes mais provável que nós este-
jamos _diante de uma caixa do tipojA, em vez de uma do tipo B. Con-
seqüentemente, podéríamos presurhlvelmente decidir que uma caixa do 
tipo A foi apresentada. (Naturalmbnte, nós poderíamos estar errados. 
A sugestão desta análise é que esta~errios escolhendo aquela alternativa 
que pareça ·a mais provável, com base na evidência liffiitada que ti-
vermos.) . I 
Em termos do diagrama da ánrore, o que era realme~te necessário 
(e foi ·feito) era uma análise parai o pas~~do. I Assim, dado. o que f?i 
observado Sa, neste caso iqual a probabilidade de que o tlpo A seJa 
o envolvido? I . , , 
. I . . . . . 
Uma situação mais interessante surge, se nos for permitido tirar 
dois bombons antes de decidir sci se trata do tipo A ou do tipo_ B. 
Neste casó, o diagrama de árvore aparece ássim: ' · ' · ·. -. I . . . 
I 
i' 
' 
J 
'i 
t: I, 
; 
li 
I 
[.' 
52 I PROBABHUDADE 
A 
B 
· No problema 3.26, você será chamado a decidir de qual dos dois ti-
pos, A ou B, você tirou ·a amostra, na dependência de · qual seja Óbser-
vado dentre três resultados experimentais possíveis . 
. 3.3. Eventos Independentes 
Ja·consideramos eventos A e B que não podem ocorrer conjun-
tamente, ü1to é, A (I B = 0. Tais eventos são denominados mutua-
mente excludentes, ou eventos incomi>atíveis. Observamos anterior-· 
mente que se A e B forem mutuamente excludentes, então P(A IB) =: O, 
porque a ocorrência dada de B impede a ocorrência de A. No outro 
extremo, temos a situação já estudada, na qual B :,) A e, conse-
qÜentemente, P(B I A) = L 
. Em cada uma· das sitúações mencionadas, saber que B já ocorreu 
nos da · algumà "nforinação bastante definida referente à probabili-
dade . de ocorrência de A. Existem, porém, muitas situações nas 
quàis saber que algum evento B ocorreu não tem qualquer interesse 
quanto à ocorrênciaou não ocorrência de A. 
Exemplo. 3.6. Suponhamos que um dado equilibrado seja jogado 
duas vezes. Definamos os eventos A e B, da seguinte forma: 
A = {o primeiro dado mostra um número par}, 
.~ B =<= I o segundo dàdo mostra um 5 ou nm 6}. 
· ~ inttrltivamente compreensível que os evento~ A e B são intei-
ramente não . relacionados. Saber que B ocorreu não . fornece qual-
qUer illformação sobre a ocorrência de A. De fato, o seguinte cál-
culo mostra isso. Tomando como nosso espaço amostral os 36 resul-
.. . 
. . IPIROBAIBU.DDlADIE COI\!DiC~OI\!AIDIA ~ H\IDEIPIENIJIÊNCiA I 53-
tados igualmente prováveis, considerados no Ex. 3.1, encontraremos 
que P(A) = 18/36 = 1/2, P(B) = 12/36 = 1/3, enquanto P(A () B) = 
= 6/36= 1/6~ Conseqüentemente, P(A IB) = P(A () B) f P(B) = 
= (1/6)/Ü/3) = 1/2. 
Deste modo encontramos, como seria de se esperar, que a proba- ~ . 
bilidade absoluta (ou não condicionada) é igual à probabilidade coli-
dicionada P(A I B). Semelhantemente, . 
P(lUI A) (t) 1 . 
P(BjA) = P(A) - = (f) = 3 = P(B). 
Daí, pod~rlamos ser tentados a dizer que A e B serão indepen-
dentes se, e somente se, P(A IB) = P(A) e P(BIA) = P(B). l\fuito 
embora isso~pudesse ser essencialmente apropriado, existe outra forma 
de colocar a questão que contorna a dificuldade encontrada aqui, a 
saber, que tanto P(A) como P(B) devem ser não-nulos para que as 
igualdades . acima tenham significado. 
Consideremos P(A () B), supondo que· as probabilidades condi-
cionadas sejam iguais às correspondentes probabilidades absolutas. 
Teremos: 
P(A () B)= P(AjB)P(B) = :P(A)P(B), 
P(A () B) = ['(B I A)P(A) = P(B)P(A). . . 
Desse modo, desde quienem P(A) nem P(B) sejam iguais a zero, veri-
ficamos que as probabilidades absolutas serão iguais às probabili.-
da.des condicionadas se, e somente se, .,e(A () 1J) = P(A) P(B). Em . : :r-- . 
c~mseqüência, formulamos a segú.inte definição, a qual sell.'á tàmbém 
válida quer P(A) óu P(B) seja nulo: · . . 
I . . . . . 
Definição: A e B ser.ão eventos independentes se, ·e somente. se, 
P(A () B) ~ P(A)P(B). (3.6) 
Comenlário:· EsW. definiçil.o é, essencialmente, equivalente àqQ.ei& I!Ugerida 
!!.Cima, a Sa.ber, que A e B são independentes quando P(B!A) = P(B) e. P(A IB) = 
= P(A). . Esta. última for!IU!I ·é ligeiramente mais intuitiva, porque diz precisa-
mente o que se t).nha. tentado dizer antes: que A e B ileril.o indePendentes se o co-
nhecimento da. ocorrência de A de nenhum modo infltienciar. a probabilidS.de da . 
ocorrência. de B. 
Peio exame do seguinte exemplo, vê-se que a definição formal acima adotadm. 
apresenta também uma oerta1atra.çio intuitiva. 
Exemplo 3t7 .. Consideremos novamente ' o Ex. 3.2. Inicial~ 
mente examillaremos apenas a tabela abaixo, em que sii.Q forneddÇ>s 
. 54 I PROBABiLIDADE 
somente os valores marginais. Isto ·· é; existem 60 ináqúiiias · elétri-
cas e 40 manuais, e delas 70 são novas enquanto ao.;sãd usadas. 
E M 
Nu I I· 7o 
30 
~--------~--~ 
60 íoo 
Existem muitas maneiras de preencher as· .casas da tabela; con-
cordantes com os totais marginais dados. · A seguir apresentaremob 
algumas dessas possibilidades. 
E llf E M E llf 
N 16: 10 I 70 N 130 40 I 70 N I:: 281 70 u 30 30 u 30 .o 30 . u 12 30 
60 40 100 60 40 100 60 40 100 
(a) (b) (c) 
Consideremos a Tab. (.a). Aqui todas as máquirias elétrica8 
são novas e todas as ·máquinas usadas são manuais. Desse modo, 
existe uma conexão óbvia (não necessariâmente causal) entre a ca-
racterística de . ser elétrica e a de ser nova. Semelhántemente, na 
Tab. (b), todas as máquinas manuais são novas e todas as· máquina9 
usadas são elétricas. Também, uma conexão definida existe entre 
essas características. No entanto, quando chegamos à Tab. (c), a 
situaçãO fica bem diferente: aqui, nenhuma relação evidente existe. 
Por exemplo, 60 . por cento de todas as máquinas são el~tricas, e 
exatame~te 60 por cento das máquinas usadas são . eÍétricas. Se-
nielhantemen; e, 70 por cento de todas as máquinas são novas, · 
enquanto exatamente 70 por cento das · máquinas man1,1ais são novas 
etc; Portanto; nenh)lma indicação está evidente .de que a carac-
terística de "ser nova" e de "ser elétrica" tenham qualquer cone-
xão uma com a outra. Naturalmente, esta tabela foi construída 
justamente de modo a apresentar essapropriedade. Como foram 
obtidos os valores. das casas da· tabela? ·Apenas com o . emprego da . 
Eq~ (3.6); isto é, porque P(E) = 60/100 e P(N) = 70/100, deveremos 
ter, para independêp.cia, P(E () N) = P(E) P(N) :/42/100. Daí, a 
. riasa' na tàbela que indique o número de m:áquina~ elétricas novas 
deverá conter o número 42. As outras casas seriam obtidas de ma-
Jlei~a análoga. 
mai?ria das aplicações, teremos que adotar a hzpôtese de ín,- . 
.,,...,ii;;>~ a-. de' dois eventos A e B, e depois empregar essa suposição 
. .. .P(A () B) como igual a P(A) P(B). Geralmente, 
PROBABILIDADE CQNDICIONADA E INDEPENDÊNCIA I 55 
i 
condições físicas sob as quais q experiment~ seja realizado tornarão 
possível decidir se tal suposição será justificada ou ao menos apro-
ximadamente justificada. I 
I 
Exemplo 3.8. Consideremés um lote grande de .peças, digamos 
10.000. Admitamos que 10 pof cento dessas p~ças sejam defeituosas 
e 90 por cento perfeitas. Duas peças são extraídas. Qual é a pro-
babilidade de que ambas. sejarJ perfeitas? 
. I 
Definamos os eventos A e B,, assim: 
I . 
A = I a primeira peça -é perfeita}, 
I . 
B = I a segunçla peça é perfeita}. ''<:t. 
Se adill.itirmos que a primeira Jeça seja reposta, antes que a segunda 
seja escolhida, então o~ eventoJ A e B podem ser consideràdos inde-
pendentes e, portanto, P(A. h B) = (0,9) (0,9) = 0,81. Na prá-
tica, contudo, ·a ~egunda peça éj escolhida sem a reposição da prim~ira 
peça; neste caso, .1 
P(A n B) = P(E I A)P(A) = 1 ~999 (O 9) 
. ! . 9999 ' 
I 
que é aproximadamente igual a 0,81. Assim, muito embora A e B 
não sejam independentes no sebdo caso, a hipótese de independên-
cia (que siinplifi~a considerav~lmente os · ~ cálculos) . acarreta apenas 
um erro desprezível. (Recorde~se o objetivo de um .mod.elo matemá-
tico, tal como foi apresentado i na Seç. 1.1.) Se existissem somente 
poucas peças no lote; cligÍlmos j30, a hipótese de independência teria 
acarretado um erro grande. . Por isso, torna-se importante · verificar 
cui~adosamente as condiçõ~s s?b as quais o e~:rimen~q é realizad?, 
a f1m de estabelecer a validade de uma -supos1çao de mdependênCia 
. entre os vários eventos. i · . · .. · 
E,xemplo 3.9. Admitamos) que ,um mecanismo, seja constituído 
por dois componentes montados em série, como indicado na Fig." 3.4. 
I . 
Cada componente tem uma probabilidade p de não 'funcionar. Qual 
será a probabilidade de ·que o: mecanismo funcione ? . 
i 
-~ 
. .,Fig, 3.4 
I 
1!; evidente que o mecanis~o funcionará s'e, e somente se, ambos 
às componentes estiverem funcionando. Por isso, 1 
· Prob (o mecanismo funcione) [= Prob (C1 funcione e C2 funcio11e). 
._., .. -.'; .. 
I 
I 
I 
I . I I · I . 'j 
. • ' I 
·. " .. L 
56./ PROBABIUDADE :·.,! 
A informação fornecida não nos permite continuiJ.r · sem, que, se saiba 
(ou se suponha) que os dois mecanismos trabalhem mdeperidénteJnimte 
um do outro. Isto pode, ou não, ser uma sup~siÇão:' r~àlista, depen-
dendo. de como as duas partes sejam engatadas. . Se admitirmos que . 
ru3 duas partes trabalhem independe~terh~~te, 9l:ite~e~~~ .·· pár,a a 
· · probabilidade pedida o valor (1- p)2, · . · · · · · 
· Será importante para nós, estendermos a noção dejndependên-
cia para mais de dois eventos. Consideremos, iriicialm~nte, três 
eventos associados a um experimento, digam~s A, B e C. · Se A 
e B, A e C, B e C forem independentes doiS a dois (no sentido acima), 
então não se concluirá, em geral, que não exista dependência entre 
os três eventos. O exemplo seguinte (um tanto artificial) ilustra 
esse ponto. 
Exemplo 3.10. Suponha-se que joguemos dois dados. Definam-
se os eventos A, B e C da seguinte forma: 
A = {o primeiro dado mostra um número par}, 
B = I o segundo dado mostra um número ímpar ), 
c = I ambos os dados mostram números ímpares ou ambos 
mostram números pares} . 
Temos P(A) = P(B) = P(C) = 1/2. Além disso, P(A () B) = 
= P(A rt C) = P(B rt C) = 1/4. Portanto, os três eventos são 
todos independentes dois a dois. Contudo, P(A n B n C) = 
= O ;é P(A) P(B) P(C). 
Este exemplo sugere a seguinte definição. 
Definição . . Diremos que os três eventos A, B e C são mu.tUOr 
mente independentes ~e, e somente se, todas ru3 condições seguintes fo-
rem válidas: 
P(A n B) = P(A)P(B), 
P(B rt C) = P(B)P(C), 
P(A rt C)= P(A)P(C), (3.7) 
P(A rt B rt C) = P(A)P(B)P(C). 
Finalmente, generalizaremos esta noção para n eventos, na se~te 
definição: 
Definição. Os n eventos Ah A2 , •• • , An serão mutu9:,mente inde-
pendentes se, e somente se, tivermos para k = 2, 3, . .. , n: 
P(A;1 rt A;2 rt · · · rt A;k) = P(A;1)P(A;2) • • • P(A;t)· (3.8) 
(Existem . ao todo 2n - :n· - 1 condições aí arroladas; veja o 
Probl. 3.18.) 
PROBABILIDADE COI\IDiC~ONADA E iNDEPENDÊNCUA / 57 
Comentário: Na maioria das aplicações, não precisaremos verificar todas 
essas condições, porque nós geralmente admitimos a independência (baseada na-
quilo que conhecermos do experimento). Depois, empregaremos essa suposição 
para calcular, digamos P(A,, (I A;, (I · · · (I A;k) como P(À;,)P(A;,) · · · P(A;k). 
Exemplo 3.11. A probabilidade de fechamento de cada relé do 
circuito apresentado na Fig. a:s é dada por p. Se todos os relés fun-
cionarem independentemente, qual será a probabilidade de que haja 
corrente entre os terminais L e R?. 
f--l~· 1 2 _ R 
3 4 
f--j 
Fig. 3.5 
Represente-se por A; o evento {o relé i está fechado J, i = 1, 2, 3, 4. 
Represente-se por E o evento {a corrente passa de L para R). Em 
consequenCia, E = (A1 (J A2) U (A3 (J A4). (Observe-se . que 
AI n A2 e A3 n A4 não são mutuamente excludentes.) Portanto, 
P(E) = P(A1 (J A2) + P(A3 (J A,) - P(A1 () A2. n A3 ri A,) 
= p2 + p2- p4 = 2p2- p'. o 
(' . 
. Ex~:mplo 3.12. Suponhamos novamente que, para o circuito da 
Fig. 3.6, a probabilidade de que cada relé esteja fechado é p, e que 
todos os relés fúncionem independentemente. Qual será a proba-
bilidade de que exista corrente entre os terminais L e R? 
Empregando a mesma notação do Ex. 3.11, teremos que 
P(E) ~ P(A1 (J A2) + P(A6) + P(A3 n A4)- P(A1 (J A2 (J As) 
- P(Al (J A2 ri AJ ri A4) - P(A6 (J A3 () A4). 
+ P(At (J A2 Íl As n A4 () A6) 
== p2 + p + p2 - p3- p'- p3 + p5 = p + 2p2- 2p3- p' + p~. 
Vamos encerrar este capitulo com a indicação de uma bastante 
comum, mas errônea, resolução de um problema. 
I ~ . 
I ~ '. 
1
! , 
11 
d : 
i .. 
58 I PROBABiLIDADE 
Exemplo 3,13 .. Admita-se que dentre seis:pârafusosf 'dois ·sejam 
menores do que um comprimento ei!pecificado)< ·Se':'d9is'::doi(parafU:7 
sós forem escolhidos ~ '.• acaso, qual 's~rá a 'Pióoàb\úa:i<Ié: ~e . que os 
dois parafusos mais curtos sejam extraídos? . Seja Ai o êveiíto {o i-ési~ 
mo parafuSo escolhido é curto J, i = 1, 2. 
Portanto, desejamos calcular P(Al nA%), . A sohição 'correta é 
obtida, naturalmente, escrevendo 
A solução comum, mas incorreta, é obtida escrevendo-se 
Naturalmente, o importante é que, muito embora a respost.a esteja 
numericamente correta, a identificação de 1/5 com P(A 2) é incorreta~ 
1/5 representa P(A2IA 1). Para calcular P(A 2) corretamente, escre-
veremos 
3.4. Considerações Esquemáticas; Probabilidade 
Condicionada e Independência 
A abordagem esquemática seguinte poderá se.r útil para compreen-
der a probabilidade condicionada. Stiponhamos que A e B Sejam dois 
eventos associados a um espaço amostral ·para o q]Jal as várias probabi-
lidades estão indicadf s no Diagrama de Venn, dado :ila Fig. 3 .7. 
0,2 
!Fig. 3.7 
Tem-se P(A n B) = 0,1; P(A) = 0,1 + 0,3 = 0,4 eP(B) =;= 0,1 + 0,4 = . . 
= 0,5. 
' 
PROBABILIDADE CONDICIONADA E INDEPENDÊNCIA I 59 
I 
I 
. Em seguida, representaremos asl várias probabilidades pelas áre(ls 
dos retângulos, como na Fig. 3.8. Exti cada caso, as regiões somhreadas 
indicam o evento B: no retângulo cti esquerda, estamos representando 
A í1 B e, no da direita, A' í1 B. I ' · 
0,2 · B' 
0,4 
B 
Agora, admitamos que se deseje balcular P (B I A). Por isso, neces-
sitamos somente considerar A, isto él A' pode ser ignoradono cálculo. 
Observamos que a prop.orção de B A é 1/4. (Poderemo~ também ve-.' 
rificar isso pela aplicaçãb da Eq. (3. : P(B I A) = P(A í1,B) ! P(A) = 
= 0,1ÍÔ,4 = 1/4.) Portanto, P(B' I ) = 3/4, e nosso diagrama repre-. . . , I . . , , . 
sentando essa probabilidade . seria dado pela Ffg. 3.9. . 
1,0 
B' 0,75 
B 
. i 
fig. ~.9 
o 
A' 
j / 
Observe-se, também, que se A fqr dado como tendo ocorrido, toda 
a probabilidade (isto é, I) deverá se~ associada ao evento A, enquanto 
nenhuma probabilidade (isto é, O) e:stará associada a A'. Além disso, 
observe-se que, no retângulo d~ esqu~rda, representando AI somente os 
v;uores individullis mudaram na Fig. 3.8 para a Fig. 3.9 (cuja soma é 1, , 
em lugar de 0,4). Contudo, as propor~ões dentro do retângulo permane-
ceram as mesmas (isto é, 3 :1). · ' 
,i 
I 
\ 
60 I PROBABIUDADIE 
V amos também ilustrar a noção de independência; empregap.do a 
abordagem esquemática introduzida· anterionilente. Supàiiljaljlcis ~;qüe 
A .. e B sejam como indicado na Fig. 3.1 O. Nesse caso; as 'prÇi (e:·,:~qe,s 
nos dois retângulos, represéntando A e A', são as mesmas: 3:1 fiõ,dois 
casos. Por isso, teremos P(B) = 0,1 + 0,15 ~ 0,25 e P(B n 'A}~ 
= 0,1/0,4 = 0,25. . . 
o 
B 1 0,3 
B 
A 
!Fig. 3.10 
0,45 
A' 
~ ~ 
B' o r ~?'~ j 
B 
Finalmente, observe-se que, simplesmente olhando a FÍg . .3.8, 
poderemos também calcular as outras probabilidades condicionadas; 
: P (A I B) = l/5 (desde que 1/5 da área total retangular representando 
\festeja ocupada por A'); P (~' I B) = 4/5 . . 
\.problemas 
~ . 
3.1 ;'\ A urna r' contém x· bolas brancas e y bolas ve~:melhas. A ur.n.a. ·2. con.-
tém z bol~{>ranca.s e v bolas vermelhas. Uma bola é escolhida ao acaso da 'ur.na ~ 
e posta na ur"na 2. A seguir, uma. bola é escolhida ao aca,so da urna 2. Qual será 
a probabilidade de que esta bola seja branca? 
3.2. Duas válvulas defeituosas se misturam com duas válvulas pedeita.s. As. 
válvulas são epsaiarlBs, UillA a uma, até.que amb&S as defeitu~as sejam encontradas. · 
(a). Ql.lal ~á a -prbbabilidade de que a últirrui. vs.!~l:i. defeiru0S& seia encon-
trada.no segundo ensaiO?- . ' 
(b) Qual será a prpbabilidade de que a última válvula defeituosa seja encon-
trada no terceiro. e"D.Sai@ ? · · 
(c) .. Qual 9erá a probabilid8.de de !lUe a úl.ltãma vá.!vuia defeitu~sa sejae~coa-
tr.ad.a n.o qu.o.rto ensaio? ' . . . 
.. . ·. ·'.(d) Some os 11úmeros obtidos em (a), (b) e (c) aciina. O tesultado é surJ?re-
eO:dente? 
.·-· - - --· _ __:_ ____________ ~ . 
!~ . I 
. J 
, j 
:I 
.. \ 
_) 
PROBABULIOADE CONDICIONADA E INDEPIENDÊNCDA I 61 
3.3. Um_a caixa contém 4 válvulas defeituosas e 6 perleitl).S. Duas vil.lvul,as 
são extr11ída8 juntas: Uffil!. delas é em;aiada e -se verüic~~< ser perfeita. · .QW1l a 
· idarde de que a outra válvula também seja perfeita? 
No' problema anterior, as válvulas são verificadas e;xtrai.ndo-se uma 
v v a ao acaso,, énsaiandoca e repetindo-se o procedimento até q_ue todaS as 4 
vá.lvulas defeituosas s_ejam encontradas. Qual .será a probabilidade de que a 
quarta vá.lvula defeituosa.,seja encontrada: 
(a) No quinto ensaio,? 
(b) No décimo ensaio? 
3.5. Suponha que A e B sejarn-eventos independentes l).Ssociados a um ex-
> ;..perimento. Se a probabilidade de A ou ·s ocorrerem fm: igual a 0,6, eJ;Jquanto a. 
• probabilidade da ocorrência de A fOJ; igual a. 0,4, determine a probabilidade da 
ocorrência de B. 
3.6. Vinte peças, 12 das quais são defeituosas e 8 perfeitas, são inspecio-
nadas uma a pó~ .a outra. Se essas peças forem extraídas ao. acaso, qual será a. 
probabilidade de que: 
(a) As duas primeiras peças sejam defeituosas? 
(b) As duas primeiras peças sejam perfeitas? • 
(c) Das .duas primeiras peças inspecionadas, uma seja. perfeita e a outra 
defeituosa? 
r . 
3.7. Suponha que temos duas urnas. 1 e 2, _cada uma· corri duas gavetas. 
A urna 1 contérn uma moeda de ouro. em uma gaxeta e uma moeda de prata na 
outra gaveta; enquanto a urna 2 contém uma moed.a de ouro em cada gaveta .. 
Uma urna é escolhida ao acaso; · a seguir uma _de .=s ·gavetas é aberta ao ~caso .. 
Verifica-se que a moeda encontrada nessa gaveta ,é de ouro. Qu11l a probabili-
dade de que a moeda provenha da urna . 2? . 
3.8. Um saco contém três' moedas, uma das quais foi cunhada cm;n 'duas 
caras, enquanto as duas outras moedas são normais e não viciadas. Uma mpeda 
é tirada ao acaso do saco e jogada quatro vezes, em seqüência. Se sàir cara toda 
vez, qual se~.á a probabilidade de que essa seja a moeda de duas caras? . · 
3.9. Em uma fábrica .de parafusos, as máquinas A, B e C produzem 25, 35 
lll 40 por cento do total produzido, respectivamente. Da produção de cada. máqUi-
na, 5, . 4 e 2 por cento, respectivamente, silo parafusos defeituosos. Es.colhe-se ao 
. acaso um parafuso e se verifica. Sf1t defeituoso. Qual será a probabilidade de que 
o parafuso venha da máquina-A? Da B? Da C? 
- .1. . ( ' 
·3.10. Sejam A e B dois eve,ntos associados a- úrll experimento. Su:p.onha 
que P(A) = 0,4, enquanto P(~ u,.~,~ =;~0,7, . Seja ,P(B)·_:= t :· .. ..____ 
[
(a) Para que valor de '?• A e .B -serão ~utuai,Dente · excludentes? 
(b) Para que valor de p, A e B serão mdependentes? 
3.11. Três componentes C1, C2 e C3, de um mecanismo são postos em série 
(em li9!;Ja_reta). Suponha que esses C?JHPOÍ1~ntes sejam dispostos em ordem alea-
tória. Seja R o evento ( C2 est4 à direhil>d;~ . C1l. e seja S o evento ( C3 está à di-
~- reita de Cd .. Os eventos R e-S são indep~ndentes? Por ,.qilê? 
~ 3.12. Um dado é l ançado e, independentemente, uma carta é extrafda de 
um bara.lho completo (52 cartas). Qual será a probabilidade de que: 
III' 
li 
!j ' . 
! • · 
i! 
!! 
!I 
~ 1 ,, 
q: 
'I 
~i l 
!! 
" i' 
li ,, 
:• 
!1 
:I 
' I 
1: 
li 
11. 
ii 
:j 
li 
_.) 
,J 
I! 
! 
I 
! 
l 
I 
i 
I 
i ,. 
!.;. 
r 
I 
I 
I 
62 I PROBABiLIDADE ···. _ 
(a) O dado mostre um número par . e a , c~t~ta ~~ja A~ ,Uffi-, ·Jil~ip~;\Y,em:Ellbo? 
;,: 3~ ~~o n:::: :::::e:::s::t:í:~â~::11sà:t:.~jgii~fj~t~f\l;:~oo: 
exemplo, 1011, 1100 etc.) Esses núrn~rós têrri i!1J:p,~r~~~WP.ll~~i! ~~ .~~t4[i~~o 
de computadores eletrônicos. Suponha que um iilíxn~ró'';})iriário.'<sei~~:!?izrtil(lO' de 
n dígitos. Suponha que a probabilidade de úrli -dígito ilrtotrêtdi'ii:li'â:r~cet 'seja P 
e que os erros em diferentes dígitos sejam independentes i.im\ .'âo~ · Ói.itros. ''Qual 
será a probabilidade de formar-,se um nú171:ero incorr.eto? . · . . : . ·. :' .. 
3.14. Um dado é atirado n vezes. Qual é a probabilidad~ de que "6" apa-
. reça ao ID.eno~ uma. vez em n jogadas! ··,.· ·· 
3.15. Cada uma de duas pessoas j~ga três rnoe~as eq~liÚbr;das. · Qual é 
a probabilidade de que elas obtenham o mesmo número de carS:.S ?. . " . .. 
3.16. Jogam-se dois dados. Desde que as faces mostrem números dife-
rentes, qual é a probabilidade de que urna face seja 4? 
3.17. Sabe-se que na fabricação de um certo 11rtigo, defeitos. de um ' tipo 
.ocorrem com JJiobabilidade 0,1 e defeitos de outro Úp(; com probabilida'de · Õ,Ó5. 
Qual'l' será a probabilidade de que: i . 
(a) Um a.rtig~ ~o tenha .a~b<)s os tii>os de defeitos? 
(b) Um ãrtigo 'aéja defeituos'o? - · · -- .' . -
(c) u~ artigo' ~e"nha ~~nas· ,irn.c~q--~a'rJefcl~o: sabido que"é defeituoso? _,_ ______ __ 
3:18. Ve.rifique que o núm.ero de condições impostas· pela Eq, (3.8) é dado 
por 2n- n- 1. 
3.19. Demonstre que, se A e B forem eventos independentes, também o serão, 
A e Ii, A e B, A e Ii. . . . . 
3,20. Na Fig. 3.ll(a) e (b), suponha que a probabilidade ~e que cada relé 
esteja fechado seja p, e que cada relé seja aberto ou fechado independentemente 
um do outro. Em cad~ CMo, determine a probabilidade de· que a corrente pas.se 
de L para R. · · · 
(a) (b) 
fig. 3.11 
3.21. DuM ·máquinas A e B,· sendo operadas independentemente, podem ter 
alguns desarranjos cada dia. A Tab. 3.2 dá a distribuição de probabilidades dos 
desarranjos· para cada máquina. Calcule M segUinte!) probabilidades: 
(a) A e B tenham o mesmo número de desarranjos. , 
(b).O nli.rooro total de dsstln':IDjos seja menor que 4; me~~.or que 5 .. 
..· 
1-. , , , 
i 
·f 
! • 
·f:'ROBABIUDADE CONDICIONADA IE iNDEPENDENCIA I 63 
. I 
I 
(c) A tenhà mais desarranjos que B. f· 
(d) B tenha duas vezes mais desarranjos que · A . . 
(e) B tenha 4\!iesarranjos, quando se li saiba. que B ,iá tenha tido 2 desar-
ranjos. 
U) o número mínimo de desarranjos ~as - duas máquinas . seja 3; seja menor 
do que 3. 
(g) O JILúmero má.ximo de desarranjos das máquinaS seja 3; seja maior que 3. 
Número de 
desa.rranjós 
A 
B 
o 
0,1 
0,3 
1 
0,2 
0,1 
2 
I 
Tab. 3.2 
I 
0,3 I 
0,1 
4 5 6 
0,09 0,07· 0,04· 
0,1 0,15 0,15t 
3.22. Verifique pelas Eqs. (3.2) que, se~do A flxo, P(~ IA) satisfaz aos váriO!! 
post~os da probabilidade. I . . 
3.23.. Se cada eleinento de um determinante d~ segunda. ordem for zero 
ou um, qusJ será a probabilidade de que o jvaior do detenrunante seja positivo? 
. (Admita que· os elementos do dete_rminante j sejam escolhidos independentemente, 
a cad_a valor se atri,buindo a probabilidade ~/2.) . 
3.24. Verifique que o teorema da multiplicação P(A n B) = P(A I B)P(B), 
estabelecido para dois eventos, pode ser estkndido para três eventos, da seguinte 
maneira:. . I , . . 
"- _, P(A (JB n C)= P(AIB n C)P(BIC)P(C). 
\ ... . ) 
. · . 3.2~ Uma montagem eletr.ônica é fonilada de dois subsistemas A e B. De 
\iiro~meQ.tos de ensaio anteri9re8, as· seg1uintes probabilidades . ser admitem co-
nhecidaS~ j · 
P(A falhe) = 0,20, P(A e B falhem) i= 0,15, P(B falhe 8o::inho) := 0,15. 
• . /" I. ·' ·' 
Cllllcule as seguintes probâbilidades: I . . 
(a) P(4. falhe I B teiilia falhado). (b) I P(A falhe sozinho). . .. , . . . ·, , . I . .. 
3.26. Conclua à análise do exemplo djldo na Seção 3 .2, pela decisão de qual 
dos dois tipos de caixa de bombons, A ou B, foi apresentada, ba~eando-5e na 
evidêncià·dos dois bombons que foram tiradÓs na amostra.· " I , 
· 3.27. Sempre que um experimento é! realizado, a ocorrência de um parti-
cu1ar evento A é igual a 0,2. O experimento é repetido independentemente, até 
que A ocorra. Calcule a proba~ilidade de qu~ seja necessário levar a cabo o experi-
mento até a quarta vez. : · · 
3.28. Suponha que .um equipamento 1 possua N v.ílvulas, todas necessárias 
para seu funcionamento. A fim de localizar uma válvula com mau funcionamento, 
faz-se a substituição de cada válvula: sucessi~amente, por U)Ila '?Ílvula nova. Calcule 
a probabilidade de que seja necessário trocar N válvulas, se a probabilidade (cons-
tante) de uma válvula estar desarranjada por lp. · I . ! 
3.29. Demonstre:SeP (A I B) >P (A), então,P (B I A) >P (B) . 
. I 
I 
I 
64 I IPROBABHUDADE 
3.30. Uma válvula a vácuo pode provir de três fabricantes, com probabili-
dades p, = 0,25, P2 =. 0,50 e p 3 = 0,25. As probabilidades de que, ·durante 
determinado período de tempo, a válvula funcione bem são, respectivamente, 
0,1; 0,2 e 0,4 para cada um dos fabricantes. Calcule a probabilidade de que uma 
válvula escolhida ao acaso funcione bem durante o período de· tempo especifiiido. 
. . . : 
3.31. Um sistema elétrico é composto de dois comutadores do tipo A, um 
do tipo B, e quatro do tipo C, ligados como indica a Fig. 3.12. Calcule a probabi-
lidade de que uma pane no circuito não possa ser eliminada co~ a chave K, se 
os comutadores A, B e C estiverem abertos (isto é, desligados) com probabilidades 
0,3; 0,4 e 0,2, respectivamente, e se eles operarem independentemente. 
Fig. 3.12 
3.32. A probabilidade de que um sistema fique sobrecarregado é 0,4 duran-
te cada etapa de um experimento. Calcule a probabilidade de que o sistema 
deixe de funcionar em -três tentativas independentes do experimento, se as proba-
bilidades de falhas em 1, 2 ou 3 tentativas forem iguais, respectivamente, a 0,2; 
0,5 e 0,8. 
··.~ 
3.33. Quatro sinais de rádio são emitidos sucessivàmente._Se a recepção de 
cada uni for 'independente'·d~ recepção de outí:o, e se .essas probabilidades forem 
0,1; 'b,2;0.,3 e o,4;respectivamente, .calcule a probabilidadé de que k sinais 
venham a ser recebidos pàia: k;,; 0', 1; 2, 3, 4. ' 
3.34. A seguinte (de algum modo simplória) previsão de tempo é empregada 
por um amador. :0 tempo, diariamente, é classificado como "seco" ou "úmido", e 
supõe-se que a probabilidade de que qualquer dia dado seja igual ao dia anterior 
seja uma constante p (0 < p < 1). Com base em registras passados, admite-se que 
1? de janeiro tenha probabilidade {3 de ser dia "seco". Fazendo f3n = probabilida-
de (de que o 1 n-ésimo dia do ano seja "seco"), pede-se obter uma expressão para 
13n em termos de {3 e de.p. Calcule também limn..., "" f3n. e interprete o seu resulta-
do [Sugestão: Exprima f3n em termos de 13n _ 1-J · 
3.35 .. Três jornais A, B e C são publicados em uma cidade e uma recente 
pesquisa entre-_9'S leitores indica o segufute: 2Q por cento ~êem ;i; 2Q., PO! CeJ:lt<2_ 
-lêem B; 14 por cento lê~m ,C; 8 por ce!ltO lêem A e\8._;_5,. pot.cento lêem A ·-e Ç; 
.2 porceflt? lêem A, f1 e. Ç; ~ 4p_:por .cento lêe~B,~ ~f]ara um adulto .esco!hiêlo' 
ao acaso; calcule a probabilidade de que: (a) ele não leia qualquer dos jornais; 
\ 
' i 
1 
I 
I 
·I 
I 
I 
.J, 
I'ROBAIBDUDADE CONDICIONADA E iNDEPENDÊNCIA I 65 
(b) ele leia exatamente um dos jornais; (c) ele leia ao menos A e B, se se souber· 
que ele lê ao. menos um dos jornais publicados. 
3.36. Uma moeda equilibrada é jogada 2n vezes. (a) Obtenha a probabi-
lidade de que ocorrerá um igual número de caras e coroas; ( b) Mostre que a 
probabilidade calculada em (q_) __ ,,uma função decrescente de n. 
3.37. Cada uma das n umas: Urna 1, Urna 2, ... , Urna n, contém a bolas 
brancas e fi bolas pretas. Uma bola é retirada da Urna 1 e posta na Urna 2; em se-
guida, uma bola é retirada da Urna 2 e posta na Urna 3, e assim por diante. Final-
mente, uma bola é retirada da Urna n. Se a primeira bola transferida for branca, 
qual será a probabilidade de que a última bola escolhida seja branca? Que acon-
tece, se n _, co? [Sugestão: Façapn = Prob (a n-ésima bola transferida seja branca) 
e exprima Pn em termos de Pn _ 1·l 
3.38. A Urna 1 contém a boias brancas e fi bolas pretas, enquanto a Urna.2 
contém fi bolas brancas e a pretas. Uma bola é extraída (de ·uma das umas) e é 
em seguida reposta naquela uma. Se a bola extraída for branca, escolha a próxima 
bola da Urna 1; se a bola extraída for preta, escolha a próxima bola da Uma 2. 
Continue a operar dessa maneira. Dado que a primeira bola escolhida venha da 
Urna 1, calcule Prob (n-ésima bola escolhida seja· branca) e também o limite 
dessa probabilidade, quando n _,. oo. 
3.39. Uma máquina impressora pode imprimir n letras, digamos a 1, ci 2·, ••• , 
"'n- Ela é acionada por impulsos elétricos, cada letra sendo produzida por um 
impulso diferente. Suponha que exista uma probabilidade constante p de imprimir 
a letra correta e também suponha independência. Um dos n impulsos, escolhido . 
ao acaso, foi alimentado na máquiria duas vezes e, em ambas, a letra a 1 foi im-
pressa. Calcule a probabilidade de que o impulso escolhido tenha. sido para impri-
mira1 . 
1l 
I I 
i 
! 
I 
1 
I· 
i 
! 
; 
' 
Variáveis Aleãtórias Unidimensionais · 
Capítulo 4 
4.1. Noção Geral de Variável Aleatória 
Ao descrever o espaço amostral de üm experimento, ·não especi-
ficamos que um resultado individual necessariamente seja um nú:.. 
mero. De fato, apresentamos alguns exemplos nos quais os resul-
tados do experimento· não eram uma quantidade numérica. Por 
exemplo, ao ·descrever uma peça manufaturada, podemos empregar 
apenas as categorias "defeituosa" e "não defeituosa". Também, 
ao observar a temperatura durante o periodo de 24 horas, podemos 
simplesmente registrar a cwva traçada pelo termógrafo. .Contudo, 
em muitas situações experimentais, estaremos interessados na men-
suração de alguma-coisa e no seu registro como l.iin número. Mesmo 
nos casos menci.onados acima, poderemos atribuir um número a cada 
resultado (não numérico) do experimento. Por exemplo, podererp.osatribuir o valor um às peças perfeitas e o valor zero · às defeituosas. 
Poderemos registrar a temperatura máxima do ·dia, ou a temperatuTa 
mínima, ou a média das temperaturas máxima e mínima. 
Os exemplos acima são bastante típicos, de uma classe muito 
geral de problemas: em muitas situações experimentais, desejamos 
atribuir um nú-mero real x a todo elemento 8 do espaço amostral B. 
Isto é, x = X(8) é o valor di) uma função X do espaço amostral no 
espaço dos números reais. Com isto em mente, formulamos a seguinte 
definição. 
Definição. Sejam S um experimento e S um espaço amostral 
associado ao experimento. Uma junção X, que associe a cada ele-
mento 8 E 8 um número real, X(8), é denominada vari.ável aleat6ria. 
Comentários: (a) A terminologia acima é um tanto infeliz, mas é tão uni-
versalmente aceita·, que não nos afastaremos dela. Tornamos tão claro quanto 
. possível que X é uma funçao, e contudo, a denominamos uma variável (aleatória)! 
VARIÁVEIS AlEATÓRIAS UNI DIMENSIONAIS I 67 
(b) E evidente que nem toda funçãt imaginável pod~ ser considerada uma 
variável aleatória. Um requisito (embora_ hão seja o mais geral) é que, para todo · 
número real x, o evento [X(s) = x] e,p-~a t.odo intervalo/, o evento [X(s)E/] 
têm probabilidades bem definidas, con~stentes com os axiomas básicos. Na 
maioria das aplicações, essa dificuldade não surge e nós não voltaremos a ·nos 
referir a ela. I 
I . 
(c) Em a.lgunias situações, o resultado \1: do espaço amostral já eonstitui ,a 
.caracterlatics num~ca . que desejamos li reíiistrar. \ Simplesmente tomaremoa 
X(s) = s, a função 1dentJ.dade. _ 
(d) Na maior parte de nOSBI!. sub5eqii:ente exposição sobre vo.riáveis alea-
tórias, não necessitaremos indicar a natur~za funcional de X. · Geralmente, esta-
remos interessados 'tios valores po~veis d~ X, mais do que de onde el~ se origi-
nam. Por exemplo, suponha-se que atiremos duas moedas e considéremos o es~ 
paço associado a este experimento. · Isto! é, 
S = {HH, HTi TH, TTI. - · 
. I 
Definamos a variável aleatória da seguintfi maneira: X é o número de caras (H) 
obtidas nas duas moedas. Daí, X(HH) = 12, _ X(IIT) = X(TH) = 1 e X(TT) =O. 
S = espaço amostral de ·& llx = valores possívei~ de X ! . 
i 
I 
-Fig. 4
1
.1 
I 
(e) 11: muito importante . compreende~ uma. exigência fundamental de uma 
função (unívoca) : A cada sES coi:respohderá exatamente um valor X(s). Isto 
I. . I 
está apresentado esquematicamente na Fig. 4.1. Diferentes valore
1
s de s podem 
levar ao mesmo valor de X. Por exempJolr na ilustração acima, verificamos que 
X(HT) = X(TH) = 1. . , -
I - . 
·o espaço Rx, conjunto de tod~ os valores possíveis de X, é 
algumas vezes denominado contradc'minio. De certo modo, podere-
mos considerar Rx como um outro ~aço amostral. O espaço amos-
tral (original) S corresponde ao reshltado (possiv~l:m:!mte não-l'lumé-
rico) do experimento, enquanto Rx lé o espaço amostral·, IJSSOCiado à 
variável aleatória X, . representand4 a característica numérica que 
nos poderá interessar. Se for X(s), = s, tererrl.os S ::= Rx. 
. Muito embora estejamos prevezUdos do perigo didático inerente 
a dar muitas explicações para umÁ mesma coisa, 'vamos salientar 
que püderemos pensar em u:ma.. variá.t el aleatótia :X, de du~ maneiras: 
(a) Realizamos o ·experimento 1E que dá um regultado sES; 
a seg;,.ir cal~ulamos o número X(s). ! 
68 / PROBABIUDADE 
(b) Realizamos 8, obtemos o resultado ~.e (imediatamente) 
calculamos X(s). Neste caso, o número X(s) é~;>ensado éo~o ovr6-
prio resultado do experimento e Rx se toma o . espli,ÇO amost~al do 
experimento. ·. . ·· - -' 
A diferença entre as interpretações (a) e (b) é percebida com · 
dific1,1ldade; é relativamente secundária, mas me1;ecedora de, atl~nção. 
Em (a), o experimento essencialmente. termina com a obs~rvação de s. · · 
A avaliação de X(s) é considerada alguma coisa qile é feita poste- .· 
'riormente, e que não é influenciada pela aleatoriedade de 8. Em · 
(b), o experimento não é considerado concluídO ·até que o ni1mero 
X (s) tenha sido realmente calculado, desse modo se originando o e.S-
paço amostral Rx. l\iuito embora a primeir~ interpretação, (a), seja 
aquela ·geralmente pretendida, a segunda interpreta'ção, (b), pode-
rá ser muito útil e o leitor deverá lembrar-se dela. 
Aquilo que estamos dizendo, e isso ficará cada vez inais claro nas 
seções posteriores, é que no estudo das variáveis. _ aleatórias estaremos 
mais interessados nos valores que X toma do qlle em sua forma funcio-
nal. Conseqüentemente, em muitos casos, ignoramos completamente 
o espaço amostral subjacente no qual X pode ser definido. 
Exemplo 4.1. Suponha-se que uma lâmpada tenha sido posta 
em um soquete. O experiment,o será. considerado terminado quando a 
lâmpada se queimar. Qual será um possível resultado, s? Uma das 
maneiras de descrever s seria apenas registrar o di'a e a ho_ra em que ' 
a lâmpada se queimou, por exemplo: 19 de maio, 16 h e 32 min. Em 
conseqüência, o - espaço am~stral poderia ser rep~e~entado por 
S = { (d, t) I d = dia, t = momento do dia). Presu~iyelmente, a 
variável alpat6ria que interessa é X, a duração até queimar. Ob~er­
ve-se que, uma vez que s = (d, t) tenha sido observado, o cálculo · 
de X(s) não inçlui qualquer aleatoriedade. Quando s é especificado, 
X (s) fica completamente determinado. 
As du~. interpretações explicadas acima -podem ser aplicadas 
a este exemplo, como se segue. Em -(a), consideramos o experimento 
terminado Cdm a observação S = (d, t), O dia e a hora. 0 cálculo 
de X(s) é realizado -depois, abrangendo um& operação aritmética 
simples. Em (b),_ consideramos que o experimento somente estará 
terminado depois que X(s) tenha sido calculado · e um,... número; por 
exemplo, X(s) = 107 horas seja então considerado o resultado do 
exi>erimento. 
Pode-se salientar . que análise semelhante se aplicaria a qual-
quer outra variável que interessMSe, por exemplo, Y(s), a tempe-
ratura da sala no momento em que a lâmpada se tenh& queimado. 
VARiÁVIEUS ALEATó,~ IAS UNiDRMENSiONAiS I 69 
( ' 
Exemplo 4.2. Três moedas são atiradas sobre a mesa. Tão 
·iogo as moedas repousem, !!), !fase / 1aleat6ria" do experimento tenni-
_lllOU. Um resultado simplea 8 poderia consistir ~a descrição deta: 
lhada de como e onde as moedas pousaram. · Presumivelmente, 
estaremos oomente intereesados em certas características numéricas. 
· •ciadas a este experimente. Por exemplo, poden2.mos avaliu: 
X(s) número de caras que apareceram, 
Y(s) distância máxima entre duas moedas quaisquer, 
Z(s) distância mínima das moedas a um bordo qualquer da 
mesa. 
Se for a variável X que interesse, poderemos, como se explicou no 
exemplo anterior, Íncluir a avaliação de X(s) na descrição de nosso 
experimento ·e, depois, simplesmente afirmar que o espaço amostral 
associado· ao experimento é {0, 1, 2, 3), correspondendo aos valores 
de X. Conquanto muito freqüentemente venhamos. a adotar esta 
interpretação, é importante compreender que a contagem do número 
de caras é feita depois que os aspectos aleat6rios do experimento te-
nham terminado. · 
Comentário: Referindo-nos a variáveis aleatórias, empregamos quase sem 
exceção ~etras maiúsculas, como X, Y, Z etc. Contudo, quando falamos do valor 
que essas variáveis. aleatórias tomam, usaremos, em geral, letras minúsculas, como 
x, y, z etc. Esta é uma distinção muito importante a ser feita e o estudante pode 
bem parar para considerá-la. Por ·exemplo, quando nós falamos em escolher uma 
pessoa ao acaso, de alguma população designada, e medimos sua altura (em centí-
metros, por exemplo), poderemos nos referir aos resultados possíveis como uma 
variável aleatória X. Poderemos então formular várias questões sobre X, como 
indagar se P (X;;, 60). No entanto, uma vez que tenhamos escolhido uma pessoa 
e medido sua altura, obteremos um valor específico de X, digamos x. Por isso, não 
teria sentido indagar se P (x;;, 60), uma vez que x é ou não é ;;, 60 . Esta distinção 
entre uma variável aleatória e seuvalor é importante e nós voltaremos a fazer 
referência a ela. 
Quando estivermos interessados nos eventos associados a um 
espaço amostral S, verificaremos a necessidade de examin~r os eventos 
relativamente à variável aleatória X, isto é, subespaços do contra-
domínio Rx. Bastante freqüentemente, certos . eventos associados 
a S são "relacionados" (em um sentido a ser explicado) a eventos 
associados com Rx, na seguinte forma: 
I 
Definição. Sejam um experimento 8 e seu espaço amostral S. 
Seja X uma variável aleat6ria definida em Se seja Rx seu contrado-
mínio. Seja Bum evento definido em relação a Rx, isto é, B C Rx. 
70 I PROBABILIDADE 
Então, A será definido assim: 
A= {8 E SjX(s) E B) . (4.1) 
Explicando: A será constituído por todos os resultados em S, 
para os quais X(s) E B (veia Fig. 4.2). NesÍe c~o, direnios que 
A e B são event08 ~qu.ivalenle8. 
Fig. 4.2 
Coment6,rios: (a) Dizendo a mesma coisll, com :inenos rigor: A Ei B serão equi-
valentes sempre que ocorram juntos. Isto é, quando A ocorre, B ocorre; é inver-
samente. Porque se A tiver ocorrido, então um resultado 8 :terá ocorrido, para o 
qual X(li) E B ~~ portanto, B ocorreu. Reciprocamente, se B ocorreu, um valor 
X(s) terA sido observa<;lo, para .o qual 8 EA e, portanto, A, ocorreu. . . . 
{b) É impÓrtante ·compreender que, -'em ·l1~ssa defuriçA~ ·de ·evcmtoS equiva-
lentes, A ·e B sãCI associados .a espaços amostrais diferentes. . . 
Exemplo 4.3. Considere-se a jogada ·de duas moedas. Dai, 
S = •I HH, HT, TH, TT}. Seja X ·o número de carp.s ob'tidC>-. Por-
·tanto, Rx = {O, 1, 2}. Seja B = {1}. Já que X'(IIT) = X('I'Il) =··.11 
se, e somente se, X(s) = 1; temos que A= IIIT, THj é·equiva:lenteaB. 
Agora, daremos a seguinte importante definição. 
Definição. Seja B 1im evento no ·contra:dO'l'IlÍnio Rx. Nesse 
caso, definimos P(B) da seguinte maneira 
P(B) = P(A), onde A= Is E SJX(s) EB}. (4;2) 
Explicando: Definimos P(B) igtl.al à pro·babilida:de do evento 
A C S, ;o q\~al é equivalente a B, no sentido ·da Eq. (4.1). 
Ccnnentár (qs : (a) Estamos ·admitindo que probabilidaacs possam ser asso-
ciadas a. eventos ·em S. Portanto, a. definição acima. torna possível atribuir .pro-
babilidades a ev-entos associados a Rx em termos·de probabilidades·definidas sobreS. 
(b) É realmente possível demonstrar ·que P(B) deve ser definida tal como . e 
fizemos. Contudo, isto envolveria algumas dificuldades teóricas que desejamos 
evitar e, por isso, procedemos ·como acima. 
(c) Desde que na formulação ·da Eq. (4.2) .os eventos A e B se referem a. 
espaços amostrais diferentes, deveríamos realmente empregar notaÇão diferente 
·qJ:ando. nos ·referíssemos a probabilidades definidas sobre S ·e àquelas ·aefinidaa 
.s9bie Rx, digamos alguma. coisa tal como P(A) e Px(B). No entanto, .não .fare-
VARIÁVEiS ALEATÓRIAS UNDIOIMENSIONABS I 71 
I 
mos isso, mas continuaremos simplesmeJep•escrever .P(A.) e P(B). ·o contexto 
em que tais expressões apar"'çam tornará lcÍara a interpretação. · 
(d) As probabilidades associadas a eventos ~o .espaço amostrai (original) S 
são, de 'certo modo, determinadas por "{orças .fora de nosso controle", ou como 
às vezes se diz :•pela. Natureza". A comppsição de uma fonte radio~iiva •que erniW. 
partfculas, a dmpos1ção de um grande numero de pessoas ·que façam éhamaàa!l 
telefónicas durante certa hora, e a agit~ção térmica que aê ·origem a 'Um fluxo 
·ou as condições atmosféricas que dêein ofigem a urna tempe5tade, ilustram esse as-
pecto. Quando introduzimos. uma variável aleatólia X e seu··contradomfnio Rx 
estl!,rnos induzindo probabilidades nos ev~ntos associados a ·'Rx, as quais serão es-
tritamente determinadas se as probabiliclades associadas a ·e~entos em S forem 
especificadas. I ' 
Exemplo 4.4. Se as moedas I consideradas 'llQ Ex . . 4:3 -forem 
"equilibradas", teremos P(HT) = P(TH) = 1/4. Poft;a'Il'OO, P(HI', 
TH) = 1/4 + 1/4 = 1/2. (Os cálculos acima são m:ria. lt!onsequência 
direta de nossa suposição fundaxrlental referente à :propriedade ·de 
equilíbrio ou simetria das moedas. ii Visto que ·o evento ·I X = 1}' é 
equivalente ao evento {HT, TH}, empregando a Eq. (4.1); teremos. 
que P(X = 1) == P(HT, .TH) = l/2J [Na realida:de não 'e:lciste escolha I . 
para o valor de P(X = 1) .. coeren~e com a Eq .. (4.2), uma ·vez que 
P(HT~ ·Til) tenha sido determinada. 1l': neste sentido que probabi-
. !idades associadas a eventos de Rxj são induzida.'l.l 1 
Comentário: Agora qúe jil. -esta:belecebos a existência de ·uma funl,li!.o ·de pro-
babilidade indozida. sobre o contradomiJio de X- Eqs. (4.1 ·e 4.2)- achamos . . I , . . . 
conveniente . l!Jlprimir a natureza. 'funcional de X. Por isso, escreverein!ls ·(como 
fizemos no ·e~plo ·acima) P(X = 1) = 142. O que se quer dizer é que, um certo 
evento no ·espsço amostral S, a saber ·(HT, THI = (s}!X(s) = 11 •ocbrre com pro-
babilidade 1/2. Da.! atribuirmos ·essa m~sma probabilidade, ao ·evento (X = 11 
no contradom!U:ió. · Continuaremos a escr~ver expressões sernelha.n~s a P(X = 1), 
. I . 
P(X ~ 5) etc. t muitc imporlánle para o I,eitor compreender o que essas expressões 
reslm:ente representam. I . 
I I 
Uma v.ez que as probabilidad~s associadas aos vááos resultadoe 
(ou eventos) :no contradomin:io R~ tenham sido determinadas (mais 
precisamente, induzida.S), ignor.arbmos freqüentemente o espaço 
amostral original S, que deu orige~ a 'essas probabilidades. Assim, 
bo exemplo anterior, ·• simplesmepte estaremos inter~ssados em 
Rx =' {O, 1, 2} e as probabilidaqes assCJciad'as (1/4, 1/'i, 1/4). O 
fato, de que ·essas probabilidades s~jam determinadas por uma função 
. de probabilidade definida ~obre o! espaço amostral original s, não 
nos interessa, quando estamos ap:enas interessados em estudar os 
valores da v~riável aleatória X. I 
Ao apresentar, em minúcias, lrmito~ dos 
1
importantes con:tieitos 
·referentes a variáveis aleatórias, J julgamos conveniente distinguir 
72 I I'ROBAB!UDADE 
dois casos importantes: as variáveis aleatórias discretas e as variá-
veis aleatórias contínuas. 
'De}z"-nição. Seja X uma variável aleatória. Se o número de va-
l ores possíveis de X (isto é, Rx, o. contrado:riúnio) for finito ou infi-
nito numerável, denolninaremos X de variável aleat6rja discreta. Isto 
é, os valores possíveis· de X, podem ser postos em lista como x11 
· x2, . ... , Xn. No caso finito, a lista acaba, e no caso infinito ntiínerá-
vel, a lista continua indefinidamente. 
Exemplo 4.5. Uma fonte radioativa está eMitindo partículas a. 
A. emissão dessa.s partículas é observada em um dispositivo contador, 
durante um período de tempo especificado. A variável aleatória 
seguinte é a que intere3sa: 
X = número de partículas observada{~. 
Quais são os valores possíveis de X? Admitiremos que esses valores 
são todos os inteiros não negativos, isto é, R.Tt: = (O, 1, 2 . .. , ·n, . .. }. 
Uma obje~ão com que j ~ nos defrontamos uma vez pode, novamente, 
ser levantada neste ponto. Pode-se argumentar que durante um es- , 
pecificado intervalo (finito) de tempo, é impossível observai· mais. :. 
do que, digamos N partículas, onde N pode ser um inteiro positivo 
muito grand~. Conseqüentemente, os valores possíveis para X real-
mente seriam: O, 1, 2, . .. , N. Contudo, torna-:se matematicamente 
·mais simples considerar a descriÇãO idealizada feita .acima. De fa-
to, sempre que adniitirmos que os valores possíveis de unta variá-
vel aleatória X sejam infinito numerável, estaremos realmente consi-
derando uma: representação idealizada de X. 
À yista de nossas explicações anteriores da descrição prob~bi­
lística de eventos com um ,número finito ou infinito numerável de 
elementos, a descrição prol?abilística d~; uma variável aleatória dis-
creta não apresentà.rá quakruer dificuldade. Procederemos da se-
guinte maneira: 
Definição. Seja X uma, variável aleatória discreta. "Portando, Rz, 
o contradomínio de X, será formado no máximo por Um número in-
finito numerável de valores x1, x2,. • • A calla poss[vel resultado x' 
associaremos um número p(xi)= P (X = x;), denominado probabi-
lidade de . x;. ·Os . números p(x;), .i = 1, 2, . . . devem satisfazer às 
.. 
VAR!ÃVIEOS ALIEAlJ"Ó~QAS UI\IIDiilfiiEI\ISOONA!S I 73 
seguintes condições: 
(a) p(x;) ~ O para todo i, 
"' 
(b) L p(x;) = 1. (4.3) 
oi=l 
A função p, definida acima, é denominadajun;ão de probabilidade 
(ou função de probabilidade no ponto) dá.'V!i.riável aleatória X. A 
coleção de pares [.r;, p(.ri)], i= 1, 2, ... , é. algumas vezes denominada 
distribuição de probabilidade de X. 
Comentários: (a) A escolha. particular dos números p(x;) é presum!Velmente-
determinn.da a partir. do. função de probabilidade associada. aos eventos no espaço 
Fig. 4.3 
amostral S, no qual X. seja definida. Isto é, p(x;) = P[s IX(s) = :r;]. [Veja as 
Eqs. (4.1 e 4.2).] Contudo, já que es tamos interessados apenas nos valores de X, 
isto é, Rx, e as probabilidades IISSociadas a. . estes valores, estaremoS novamente 
suprimir,c:lo _a. natnre~a fun.cional de X. · . . (Veja a Fig. 4.3.) Muito embora, tia. maio-
ria dos casos, os números sejam de fato determinados a partir da distribuição 
de probabilidiules em algum espaço amostral subjacente s, qualquer conjunto de 
números p(:í:i), que satisfaçam às Eqs. (4.3), pode servir comi:> descrição proba.bi-
llstica apropriada de uma variável aleatória discreta. 
(b) Se X tomà.r apenas um número finito de : valores, digamos XlJ ••. ,xN, 
então p(x;) = O para i > N, e1 portanto, a série infinita na Eq. (4.3) se transforma 
em uma soma finita. 
(c) Podemos salientar, novamente, uma análogia com a Mecânica, ao con-
siderarmos a massa total de uma. unidade distribuída sobre a reta real, com a massa 
total concentrada nos pontos x11 X2, . . . Os ·números p(x;) representam a quan-
tidade de massa localizada. no ponto x;. 
(d) A interpretação geométrica (Fig. 4.4) de uma. distribuição de probabi-
lidade é freqüeritemente útil. 
p(x) 
111 I ii J ~x 
Fig. 4.oll 
74 I PROBABIUDADIE 
Seja Bum evento associado i variável aleatória X; isto é, B C Rx 
(Fig. 4.5). Suponha-se, especificamente, que B = I x,;1, x;w .. }. Daf, 
P(B) = ..f'[s!X(s) E B] (porque esses eventos são equivalentes) 
:::, P[s!X(s) = x;i'j = 1, 2, ... ] = f:p(r;1). . . i=l .... 
(4. 4) 
Explicando: A probabilidade de um evento B é igual à iíoma das 
probabilidades dos resultados individuais aSsociados com . B. 
Comentários: (a) Suponhamos qué a variável aleatpria disereta X possa 
tomar somente um número finito de vàlores, X 1 , ... : ; Xfif. Se os resultados forem 
igualmente prováveis, então teremos obviamente p(x,) == ... = p(xN) = 1/N. 
(b) Se X tomar um número infinito numerável de vàlores, então é impossível 
ter todos os valores igualmente prováveis; porque · não poderemos satisfazer à 
condição . :E oo p (xi) = 1, se tivermos p (xi) = c para todo i. 
z= 1 , 
(c) Em todo intervalo finito, existirá no máxi:Íno um número finito de 
valores possíveis de X. Se algum desses intervalos não contiver qualquer desses 
valores possíveis, nós atribuiremos a ele probabilidade zero. Assim, se Rx = 
= [x,, x2 , ••• , Xnl e se nenhum xiE [a, b],entãoP [a"" X"" b] =O. 
ExemjJlo 4.6. Suponhamos que urna vái~Ià' eletrônica . seja 
posta em um saquete e ensaiada. Admitiunos que a ·p:robabilidàde 
de que o teste seja positivo seja 3/4; daí, á p~ob~bilid~e _dé que s~2 
ja negativo é igual a 1/4. Admitamos também que estej~os ensai:. 
ando uma partida grande dessas válvulas. Os ensaios : ~ontinuam 
até que a primeira vál~la positiva apareça. Definàmqs a variá-
vel aleatória, assim: X é o n,úmero de testes · neÚss.ârios para con- . 
cluil' o experimento. O espaço amostral associado ·a este experi-
mento é: 
s ==: I+, - +, - - +, - +, ... }. 
Para determinarmos a dist~il:>uição. de probabilidáde de X, racioCl-
p.aremos da seguinte forma: os valores possíveisde X são 1, 2, . .. n, •..• 
(estamos, obviamente, tratando com um espaço amostral idealizado). 
E será X = n se, e somente se, as pri:!neiras (n - l), válvulas forem 
negatjvas e a. '(.1.-ésima válvula for positiva. Se aceitarmos que a 
condição ·de 1Uill1 váLvula não influencie a condição de 'outra, pode-
remos escrever 
( 1 )n-l.( 3) p(n) == P(X = n) = 4 4 , n = 1, 2, .. •; 
VARIÁVEIS ALEATÓRIAS UNIDIMENSIONABS 1 75. 
I I - -
Para verificarmos que esses valores de p(n) satisfazem à Eq. (4.3) 
observaremos que \ ' · 
.. 3 ( \ 1 1: ) L p(n) = - 1 + - + - + · · · 
n=l 4 1 4 16 . 
3 i 1 
=--~ -- = 
4 1\-_!_ 
. I. 4 
1. , 
-I 
' I 
Comenl.árw: Estamos empregand6 aqui o resultado de que a. série gpomélrica 
1 +r+ r+ ... çonv~rge para _1.'(1 t- ~) sempre q~e· \r I < 1. ~ste é lUD re-
sultado que será menciOnado mu1las vezes. Suponha-se que ,deseJemos calcular · 
P(A), onde A 6 defini.d.o como: 10 exphimento termina. depois 'de um nú!l;leco paJ: 
de repetições.! Empregando n. Eq. (414); teremos~ 
.. I 
P(A) = L p(2ni = .2_ + 2_1 + · · · 
71=1 i 16 256 
3 I 1 ' 3 I 1 
= --:16 (1 +: ~ + .. ·) = 16 --~- = 5 . 
i 1 - 16 
I 
4.3. A Distribuição Bi.nomial\ 
Nos prmamos capítulos, estJdaremos pormenorizadamente algu-
mas variáveis discretas importantk Agora estudaremos apenas uma 
delas e, em seguida, a empregar~mos para ilustrar alguns conceitos 
importantes. \ . 
! 
Exemplo 4.7. Suponha que ~eças saiam ,~e uma l~nha de produ-
ção e sejam classificadas como defe~tuosas (D) ou como não-defeituosa~ 
(N), isto é, perfeitas. Admita que três dessas peças, da produção de um 
dia, sejam escolliidas ao acaso e Classificadas de acordo com esse es-
quema. O espaço amostral para es~se experimento, S, pode ser assim, 
apresentado: i . I 
I . •I 
S = {DDD, DDN,DND,NDD,NND,NDN,DNN,NNNJ. 
. I I . . 
(Outra maneira de descrever s ,é como s = s 1 X Sz X s3' o produ-
to cartesiano de St, S2 e S3, onde c~daSi = {D,N}.) 
Suponhamos que seja 0,2 a probabilidade de uma peça sér, defeituosa 
e 0,8 a de ser não-defeituosa. A4rnitamos q~e essas probabilidades 
' 
76 i PROBABUUDADIE 
sejam as mesmas para cada peça, ao menos enquanto durar o nosso 
estudo. Firialmente, admita-se que a classificação . de qualquer peça 
em particular, seja independente da classificação de qualquer outra 
peça . . Empregando essas suposições, segue-se q~e as probabilidades 
associadas aos vários resultados do espaço ariwstral S, como se explicou 
acima, são: 
(0,2)3 ' (0,8)(0,2)2 ' (0,8)(0,2)2 ' (0,8)(0,2)2 ' (0,2)(0,8)2 ; (0,2)(0,8)2 ; 
(0,2)(0,8)2 , (0,8)3 . 
Geralmente, nosso interesse não está. dirigido para os resultados .indivi-
duais de S. Ao contrário, desejamos tão-somente cànhécer qiuzntas 
peças defeituosas seriam encontradas . (não interessà:ndo . a ordem em 
que tenh'am ocorrido). Isto é~ desejamos estudar a variáv~l aleirtóriaX, 
a qual atribui a cada resultado s e S o número de peças defeituosas 
encontradas em s. Conseqüentemente, o conjunto dos valores possí-
veis de X é {0, 1, 2, 3}. 
Poderemos obter a distribuição de probabilidade de X, p(xi) = 
= P(X = xi), .da seguinte maneira: 
X = O se, e somente se, ocorrer NNN; 
X = 1 se, e somente se, ocorrer DNN, NDN, ou·NND; 
X= 2 se, e somente se, ocorrer DDN, DND, ouf!DD; 
X = 3 se, e somente se, ocorrer DDD. 
(Note-se que {NNN} é equivalente a {X= O} etc.) Ent'ão, 
p(O) = P(X =O)= (0,8)3 p(l) = P(X = 1) = -~ (0,2)(0,8)2 , 
p(2) = P(X = 2) = 3(0,2)2 (0,8), p(3) =P(X = 3) = (0,2)3 • 
Observe que a soma dessas probabilidades é igual a 1, porque .a soma 
pode ser escrita como igual a (0,8 + 0,2)3 • 
Comentdrio: A explicação dada ilustra como as probabilidades em um con-
tradomínio Rx (neste caso {0, 1, 2, 3}) são induzidas pelas probabilidades defmi-
das sobre o espaço amostral S. Porque a hipGtese de que os oito Í esultados de 
S = {DDD, DDN, DND,NDD,NND,NDN, DNN, iiNN} 
tenham as probabilidades daçlas no Ex. 4.7, determinou o valor de p(x) para 
todo x e Rx. 
VARIÁVEiS AlEATÓROAS UI\!DD!MIENSOONAHS I 77 
Vamos agora generalizar as noções introduzidas no ex. anterior. 
Definição: Consideremos um experimento E e seja A algum 
'"evento associado a E. Admita-se que P(A) = p e conseqüentemente 
P(A)= 1 - p. Considerem-se n repetições de E. Daí, o espaço 
amostral será formado por todis as seqüências passiveis I a1, á2, . . . , an I, 
onde cada a; é ou A ou A, dependendo de que tenha ocorrido A ou A 
na i-ésima repetição de E. (Existem 2n dessas seqüências.) Além 
disso, suponha-se que P(A) = p permaneça a mesma para todas as 
repetições. A variável aleatOria X será assim definida: X = número 
de vezes que o· e-vento A tenha ocorrido. Denominaremos X de va- · 
riável aleatória binomial, com parâmetros n e p. Seus valores possí-
veis são evidentemente O, 1, 2, ... , n. (De maneira equivalente, dire-
mos que X tem uma. distribuição bmoinial.) 
As repetições individuais de E serão denominadas Provas de 
Bernouilli. 
Teorema 4.1. Seja X uma variável binomial, baseada em n 
repetições. Então, 
P(X = k) = ( ~) p1'(1- Pt-lc, k =O, 1, ... , n. (4.5) 
Demonstração: Considere-se um particular elemento do espaço 
amostral de S satisfazendo à condição X = k. Um resultado como 
esse poderia surgir, por exemplo, se nas primeiras k repetições de E 
ocorresse A , enquanto nas últimas n- k r~petições ocorresse A, · 
isto é, 
AAA· · · AÃAA· ··A. 
k n-· k 
Como todas as repetições são independentes, a probabilidade desta 
seqüência particular seria plc(l - p)n-k, mas exatamente essa mesma 
probabilidade seria associada a qualquer outro resultado para o 
qual X = k. O número total de tais resultados é igual a {~), por-
que deveremos escolher exatamente k posições (dentre n) para o 
evento A. Ora, isso dá o resultado acima, porque esses (~) resul-
tados são todos mutuamente excludentes. 
78 I PROBABILIDADE · ........ · 
Comentários: (a) Para verificaJ' nO!lflO resultado, . ~bªervemos que empre-
gando o teorem,a binomial temos . . . · . > · 
I:~~o P(X = k) = Lk=O m pk(l ~ p)n~~ =; [p + (1 '- p)]n = "1" = 1, 
como era de se esperar. · Como as probabilidÍld~ '(k) pk(f:...:. p)ii-k São obtid&S . 
pelo desenvolvimento da expressão binomial[p + (i C:: p)];.;/eí'a+ecelle a deri'omi~ 
nação de distribuição binomial. . ' · . 
(b) Sempre que realizarmos repetiÇões indep.eridentes_' de uni:experiinento 
e estivermos interessados somente em uma dicotOmia- defeituoso ou nãc:i-def.eic 
tuoso (perfeito).; dureza acima ou abaixo de certO padrão;, nível .,de ruído em um 
sistema de comwúcações acima ou abaixo de ~~ limiar , pr~estab~lecido ~ esta-
remos virtualmente tratando com um espaço amostrai nÕ qual podemos definir 
uma. variável aleatória binomial. ·Enquanto as con:diçÕes da experimentação 
permaneçam suficientemente · estáveis, · .de· modo que a probabilidade de . algum 
atributo, digamos A, permaneça constante, poderemos empregar o modelo aciina. 
(c) Se n for pequeno, os termos individuais da distribuição binomial serão 
r~:lativamente fáceis de calcular. Contudo, se n for relativamente grande, os 
cálculos se tornam bastante incómodos. Felizmente, foram preparadas tábuas. de 
probabilidades bin01piais; existem várias dessas tábuas. (Veja o . Apêndice.) 
Exemplo 4.8. Sup@ha-se que uma válvula eletrônica, instalada 
em determinado circuito, tenha probabilidade 0,2 de funcionar mais 
do que 500 horas. Se ensaiarmos 20 válvulas, qual será a probabili-
dade de que· delas, exatamente k, funcionem mais que 500 horas, 
k = o, 1, 2, ... ' 20? 
P(x) 
I I 'I L-~0-+1~2~3~4~5~~6-!7~8~9~1~0~1~1~1~2~13~14~15~16~1=7~1~8-x 
Fig. 4.6 
Se X for o número de válvulas que funcionem mais de 500 ho-
ras, admitiremos que X tenha uma distribuição binomial. Então, 
P(X = k) = CZ2) (0,2)!<(0,8)=0-k. Os valores podem ser lidos na Tab. 4.L 
~ ~ . . 
Se marcarmos os valores dessa distribuição, obteremos o gráfico 
apresentado na Fig. 4.6. A configuração que observamos aqui é 
bastante· geral. As probabilidades binomiais crescem monótonica-
. mente, até que atingem um valor máximo e, depois, decrescem mo-
notonicamente. (Veja o Probl. 4.8.) 
P(X = O) = 0,012 
P(X = 1) = 0,058 
P(X = 2) = 0,137 
P(X = 3) = 0,205 
(As probabilidades 
- I - . 
VARBAVIEISA!l.EATORIAS UI\IDDIMIENSiOI\IAIS I 79 
I 
Tab. /4.1 
I 
I 
P(X = 4) = 0,218 P(X ;, 8) = 0,022 . I . 
P(X = 5) = 0,175 P(X '= 9) = 0,007 
I 
P(X = 6) = 0,~09 P(X == 10) = 0,002 
P(X = 7) = o,pss P(X = k) = o+ para k ~ 11 
restantes são meilores do que 0,001.) 
I 
I 
Exemplo 4.9. Ao operar det~rrninada máquina, existe alguma 
probab-ilidade de que o operador qa máquina cometa um erro. Po~ 
de-se admitir, razoavelmente, que ;o operador aprenda, no sen~,ido dç 
que . decresça a probabilidade de cpmeter um erro, se ele usar repeti-
damente a máquina. Suponha que q operador faça n tentativas e que as 
n repetições sejam estatisticamente ipdependentes. Suponhamos, especi-
ficamente, que P (um erro ser cometido na i-ésima repetiçã<;>) = 1/(i + 1), 
i = 1, 2, . .. , n. Admitamos que /se pretendam 4 tentativas (isto é, 
n = 4) e defmamos a variável aleatória X como o número de operações 
da máquina, executadas sem erro. NJ
1 
ote-se que X não tem distribuição 
binomial, porque a probabilidade de "sucesso" não é constante. 
Para calcular a probabilidade jde que X = 3, por exemplo, pro-
cede-se do seguinte modo: X = 3 se, e somente' se, houver exatamente 
uma tentativa mal sucedida. -Isto ~ode ocorrer na prin~eira, segunda,-
terceira ou· quarta tentativas. Portanto, I . . . 
1 2 3 4 ~ 1 3 4 1 2 1 4 
~x=m=----+~---+----+ . 2 3 4 5 ~ 3 4 5 2 3 4 5 
1 2 3 1 5 
+z-345= iz· 
I 
I . 
Exemplo 4.10. Considere-se ruma situação semelhante à.quel11, 
· apresentada no .Ex. 4.9. Agora, !admitiremos que exista uma pro-
babilidade constante p 1 de não cmpeter um erro na máquina, dura~te 
cada 'uma das n 1 tentativas, e urra probabilidade constante p~ ~ P1 
de não cometer um erro em cada uma das n2 .repetições:subseqüentes . 
. Seja X o número de operações be~ sucedidas da máquina durante as 
n = n 1 + n2 tentativas independe? tes: Vamos procurar a expressão 
geral de P(X = k). Pelo mesmo rp.otivo dado no exemplo precedente, 
X não tem distribuição binomial. i Para obter P(X = ik), procede-se 
qa seguinte maneira: ' I · 
Sejam Y1 o número de operações corretas 'durante as primeiras 
n 1 tentativas, · e Y2 o número dei· operações corretas· durante as n2 
tentativas s~bseqüentes. Portantp, Y 1 e Y2 são variáveis aleatórias 
independentes e X = _ Y1 + Y2• 1 Assim, X = k se, e somente se, 
I 
80 i PROBABILIDADE . 
Y1 =r e Yz = .k- r, para qualquer inteiro r ql).e satisfaça às condi-
ções O ::::; r S n1 e O ::::; k - r ::::; n 2• 
As restrições aciina, sobre r, são eqUivalentes 'a ·o ::::; r .:5 n1 e 
k - n2 ::::; r ::::; k. Combinando-as, põdérêmb~ es~re'v~rmáx. (O, 'k ~ 
- nz) ::::; r S mín. (k; ni)., Portanto, teniinci~ 
Com nossa convenção usual de que (b) = O sempre qu~ b > a ou 
b < O, poderemos escrever a probabilidade acima como 
. P(X= k) = T~ (~1) p~(l- PI)nl-'r(k ~r) p;-r(l-' P2)"2-k+r 
(4.6) 
Por exemplo, se P1 = 0,2, P2 = 0,1, n1 = n2 = 10 e k = 2, a proba-
bilidade acima fica, depois de um cálculo direto: 
Comentário: Sup.onha-ose que p1 = P2· Neste . caso, ii; Eq. (4.6) se reduz a 
· (k) p~ (1 - pi)n-k, porque agora a .variável aleatória X tem. uma dist~ibuição 
binomiaL Para verificar que é a.Ssim, note-se que poderemos escrever, (desde 
que n1 + 112 = n): 
P(X = k) =· p~(l- p1)n-k ~ (~1) (k~ ,.) 
Para verificar que a SQ~~ acima é igual a (~), bast& comparar os coeficien~ 
das potências de xl,; .ehi ambos os membros da idéntidade (l +. x)n 1 (1 + x)"2 ~ 
= (1. + x)nl+n2. 
··4.4. Variáveis Aleatórias Conttífl'lluas 
Suponha-se que o · contradonúnio de X seja formado por um 
número finito muito grande de val~res, digamos todos OS . valores X 
no intervàio O ::::; x s i, da forma: O; 0,01;. 0,02; ... ; 0,98; 0,99; 
1,00: A cada um · desses valores .está associado um número não-ne-
gativo p(x.) ;, P(X =:= Xi), i.= 1,· 2,·: .. , cuja soma é igual a 1. Esta 
operação está represen~ada geometricamente na !"ig. 4. 7. . -
VA.RO Á VEUS A. LEA.TÕR8A.S UN8Dii\liENSDONA.iS I 81 
J á. salientamos anteriormente que poderia ser matematicamente 
ma.iB fácil idealizar aapresentação probabilística de X, pela 
P!ll) 
kJmw I iliiillli., 
O I 
suposição de que X pudesse tomar 
t<Jdos os valores possíveis, O ~ x ~ 1. 
Se fizermos isso, que acontecerá às 
probabilidades no ponto p(x;)? Co-
mo os· valores possíveis de X não 
são numeráveis, não podemos real-
mente falar do i-ésimo valor de X, 
e, por isso, p(x;) se torna sem sentido. O que faremos é substituir a 
função p definida somente para x1, x2, • •• por uma função f definida 
(neste conte:do) para todos os valores de x, O ~ x ~ 1. As proprie-
dades da Eq. (4.3) serão substituídas por j(x) ~O e fo 1 f(x)dx = 1. 
Vamos proceder formalmente como se segue. 
Definição: Diz-se que X é uma variável aleatória contínua, se existir 
uma função t, denominada função densidade de probabilidade (fdp) de 
X que satisfaça às seguintes condições: 
(a) f(x) ?>O para todo x, · 
(b) I+ ~ f(x ){lx = 1, (4.7) 
- 00 . . 
(c) p~a quaisquer a, b, com - oo < a < b < + oo, teremos 
P(a<X<b)=Jg f(x)dx. (4.8) 
Comentários: (a) Estaremos essencialmente dizendo que X é uma variável 
aleatória contínua, se X puder tomar todos os valores em algum intervalo (c, d), 
onde c e d podem ser-~ e+~, respectivamente. A existência estipulada de uma 
fdp constitui um artifício matemático, que possui considerável apelo intuitivo e 
torna nossos cálculos mais simples. Em relação a isso, também devemos salientar 
que, quando supomos que X seja uma variável aleatória contúma, estamos tratan-
do com uma descrição idealizada de X. 
(b) P(c <X< d) representa a área sob a curva no gráfico da Fig. 4 .8, da 
fdp f. entre x = c ex = d. 
J(x) 
X=C 
='+-----..,:.: 
ir=d 
82 I PROBABILIDADE 
. (c) Constitui uma conseqüência da descrição probabilfstica de .. X, acima, 
que, par& qualquer valor especificado de X, di~~s ~; · téciíiri~·P(X = Zo) ' = O, 
porque P(X = xa) = Jz;o j(x) dx = O. Este rooult~o pode, ~~ecer ~clto con-
trário à. nossa intuição. Contudo, . devemos compreender que se permitirmos 
que X tome rodos os valores em algum Intervalo, então a pr.obe.bili<lade zero. não é 
equivalente à impossibilidade. Por issO, no caso contínuo, P(A) = O não implica 
· ser A = 0, o conjunto vazio. (Veja. o Teor. 1.1.) Explicandc) ias:> •ménos rigo-
rosamente, . considel"EHle a escolha de um ponto . ao aéaso, : nó .se~ento de reta 
{xj O .:S x.:S 2l. Muito embora. possamos ~ta.r desejosos em concordar (para 
objetivos matemáticos) que cada.. ponto imagiml.vel no segmento posSa. ser resultado 
de nosso experimento, ficaríamos completamente surpreendidos qu~nto ii. isso, 
sa de. fato escolhéssemos precisamente o ponto médio do segmento ou · qualquer 
outro ponto especificado. Quando expressamos isto '.em ling'uagetn . matemática 
rigorosa., dizemos que o evento tem "probabilidade líerÕ". Tend~ em vista. essas 
obaerve,ções, 88 seguintes probabilidades serl!.o todas iguaiiJ, se X for uma va.riá~el 
aleatória contínua: · · 
P(c5. X 5. d), P(c 5. X< d), P(c <X 5. d), e P(c <X< d). 
(d) Apesar de não verificarmos aqui os detBlhes, pode-se mostrar que easa 
atribuição de probabilidades a eventos em Rx · sa.tisfa.Z aos ·axiomas básicOs. da 
probabilidade [Eq. (1.3)1, onde poderemos toiiU!.l" {zl - "' < x < + ·"'I como · 
nosso espaço amo&ti:al. 
(e) Se uma função r satisfizer às condiÇões j'; (z) ~ O para todo x, e 
f_+.,"" r (:z;) dx = K, onde K é um número real positivo (não necessiuiamente igilal 
a 1), então r não satisfaz a todas as condiÇões para ser uma fdp. No entanto, 
poderemos fácilmente definir uma nove. função, digamos J, em termos de r. ll&,lim: 
j(z) = JO(z) 
K 
para todo x. 
Em conseqüência, f se.tisfad, a todas as condiÇões de uma fdp. 
(f) Se X tomar valorea somente em algum intervalo rmito [a, b], poderemos 
aimplesmente pôrj(x) = O para todo z EE [a, bl. Em conseqüência, · a. fdp ficam 
definida para todoo os valores ree.is dez, e poderemos. exigir quef_f;.,"" j(x) dx=r. 
Sempre que a fdp for especificada somente para determinados valores de z, deve-
ramos supor que seja zero em todos os demais. 
(g) J(x) não representa. 111 probabilidade de coisa alguma! Anteriorm!)nte 
j& salientamos que, por exemplo, P(X = 2) = O e, conseqüentemente, f(2} cer-
ta.mente nl!.O representa easa. probabilidade. Somente quando a função for in-
tegrada entre dois limites, ela produzirá uma. probabilidade. Poderemos, con-
tudo, dar uma interpretação dej(x)t:.x, da: seguinte maneira: Bo teorema do valor 
médio, em Cálculo, tem-se que , 
i
z+L'>z 
P(x 2 X 2 x + tu) = j(s) ds = l:.xj(~), 
.i 
.:f 
. ,.; , 
~ -~ l 
·.! 
· VARIÁVEIS k lEATÕRBAS UNIDIMENSIONAIS l 83 
Se D.x for pequeno, f(x) D.x será aprd,ximadamente igual a P(x ~ X~ x + D.x)·. 
(Sef for contínua à direita, esta aproxitnação se tornará mais exata quando D.x->0.) 
(h) Devemos novamente salientat que a distribuição de probabilidade (neste 
caso a fdp) é induzida em Rx pela probabilidade s~bjacente associada com eventos 
I . 
em S. Por isso, quando escrevemos P(c < X < d), queremos significar como sem-
pre P[c < X(s) < d], que por sua vez! é igual a P[s 1 c < X(s) < d], já que esses 
eventos são equivalentes. A definição anterior, Eq. (4.8), estipula essencialmente 
a existência de uma fdp f definida sobre Rx tal que 
. P[,j« X[•) ~ ~ - 1' J[•) d>. 
I 
Novamente suprimiremos a natureza funcional de X e, por isso, trataremos so-
mente com Rx e a fdp f. . I . . 
(i) No caso contínuo, também !poderemos considerar a seguinte analogia 
com a Mect1nica: Suponha-se que tembs uma massa ·total de uma unidade contt-
nuamente distribuída sobre o intervalo a~ x ~ b •. 'Nesse caso, f(x) represe~ ta 
a densidade de massa no ponto x e J:d f(x) dx representa a massa total contida 
no intervalo c ~ x ~ d. I · 
I 
Exemplo 4.11. A e~istêncial de uma fdp foi admitida na exposição 
de uma variável aleatória cont~ua. Vamos considerar um . exemplo 
simples, no qual poderemos facilmente determinar a f~p, fazendo uma 
suposição apropriada sobre o corp.portamento probabilístico da variável 
aleatória. Suponhamos que -~m ~onto_ s~ja e~~ollúdo n~ interv~o (O,l). 
Representemos por X a vanavel hleatona cuJpvalor seJa a absc1ssax do 
ponto escolhido. I 
Supor: Se I for qualquer intervalo em (0,1), então Prob [X E I] · 
I 
será diretamente proporcional ao cumprimento de I, digamos L (I). 
Isto é, Prob [X E I]= kL(I), oJde k é a constante de 'proporcionalida-
de. (É fácil verificar, tomando-se I = (0,1) e observando-se .que 
. I 
L :[(0,1)] = 1 e Prob [X E (0,1)] = 1, que k = 1.) . , 
Obviamente, X toma todos , os valores em (O,l).' Qual é sua fdp? 
Assim, podemos encontrar uma fynção f tal que 
I 
P(a<X < b) = f b f(x')dx? 
j a 
Note que, se a<b<Ooui1<a<b,P(a<X<b)=Oe,poris-
so,f(x) = O. Se O< a<; b < 1,,P(a<X < b) = b- a e, conseqüente-
mente,[(x) = 1. Portanto, encontramos . 
I 
{
1,0<x<
1 
1 , 
f(x)= . , . · 
O, para qfrusquer outros valores. 
84 I PROBABBUOAD_E 
Exem,plo 4.12. Sup~nhamos que a variável a.Ieatótia X ·seja 
contínua. (Veja a Fig. 4.9.) Seja ·a fdp j dada pO~· 
. j(x) 2x, 0< x < 1;' 
o, para quaisquer outros valores . . 
Evidentemente, .j(x) ~O e. f_+,"" j(x)dx = fo~'!-xdx ::_ i. · Para calcu-
lar P(X.;;;; 1/2), deve-se apenas calcular a integral fo 112 (2x)_ dx = 1/4. 
f(x) J(x) 
"'---L---~----------+--Qx X= 1500 
Fig. 4.9 Fig. 4.10 
O conceito de probabilidade condicionada, explicado no Cap. 3, 
pode ser significativamente aplicado a variáveis aleatórias: Assim, 
no exemplo acima, podemos calcular P( X :::; i I-} :::; X :::; } )· · 
Aplicando-{le diretamente a definição de probabilidade condicionada, 
teremos 
p ( X < _!_I _!_ ~ X < _3_) = p ( t :::; X :::; +) 
- 2 3 - - 3 . p (l. < X < _3_) 
3 - - 3 
f~)~ 2x dx 5(36 5 
fi)~ 2x d:c 1/3 = n ' 
Exemplo 4.13. Seja X a duração da vida (em horas) de um 
certo tipo de lâmpada. Admitindo que X seja uma variável aleató-
ria contínua, suponha-se que a fdp j de X seja dada por 
j(x) = a/x 3, 1.500 :::; x :::; 2.500, 
= O, para _quaisquer outros valores. 
(Isto é, está se ~tribuindo probabilidade zero aos eventos {X < 1.500}e {X > 2.500} .) Para calcular a constante a,. recorre-'§e à condição 
. f_"', j(x) dx = 1, que neste caso se torna fr_~ggo (a/x 3)dx = 1. Dai 
se obtém a = 7.031.250. O gráfico de j est~ apresentado na Fig. 4.10. 
Em capítulo posterior estudaremos, pormenorizadamente, mui-
tas variáveis aleatórias importantes, tanto discretas como contínuas. 
'\ 
! 
.j 
• _.·!' 
;-:;· 
VARIÁVIEIS ALEATÓRIAS UNDDDMIENSIONAHS I 85 
Sabemos, de nosso emprego de modelos determinísticos, que certas 
funções gozam de papel _ mais importante que outras. . Por exemplo, 
as funções linear, quadrática, exponencial e trigonométrica têm 
papel vital na .explicação de modelos determinísticos. Ao desenvol-
ver modelos não-determinísticos (isto é, probabilísticos) verificare-
mos que certas'Ovariáveis aleatórias são de notável importância. 
4.5, Função de Distribuição Acumulaw'la 
Vamos introduzir outro importante conceito. geral, neste capítulo. 
Definição. Seja X uma variável aleatória, discreta ou continua. 
Def~ne-se a função F como .a junção lk distribuição. acumulada da· 
variável - aTeatóJ;iá X (abreviadamente indicada fd) como F(x) ,;, 
= P(X ~ x). 
Teorema 4.2. (a) .Se X for uma variável aleatória discreta 
F(x) = L p(xi), (4.9) 
j 
onde o somatório é estendido a todos os índices j que satisfaçam à 
condiÇão Xi ~ x. 
(b) Se X for uma variável aleatória contínua com fdp j, 
F(x) = J: f(s)ds. (4.10) 
Demonstração. Ambos os resultádos decorrem imediatamente da 
definição. 
Exemplo 4.14. ~<G.P'bnhamos que a variáyel aleat~~a X tome 
os três valores O, 1 e'2; com probabilidades 1/3, 1/6 e 1/2;)respectiva-
mente. Então, · ·.. . 
1 
F(x) = o se x <O, 
1 
se O$ x < 1, =-3" 
.1 
se 1 ~ x < 2, 
2 
= 1 se x ;::: 2. 
(Obse~e-se que é muito intportante indicar a inclusão ou a exclusão 
dos limites, na descrição dos diversos intervalos:) O gráfico de F 
está apresentado na Fig. 4.11 . 
! 
. ! 
í ; 
' . . , 
l 
' 
I 
d 
!' 
j 
I 
I 
1! 
r 
~ 
li 
j 
I 
I 
1 
I 
jt 
I! 
1j 
·i! 
.
:· __ -. ','-
'1 
li 
: I 
!.·-. 11-j I 
:.1 
'I! 
li 
lj 
(;!('l'Jiil 
86 I PROBABILIDADE 
Ftx) 
ik--_ , 
I 2 
I • x· · .. . 
3. 
IFiPJ. 4.11 
Exemplo 4.15. Suponhamos que X seja uma variável c~mthma 
com ·ídp 
j(x) 2x, O < x < l, 
O, para quaisquer outros valores. 
Portanto, a fdp de Fé dada por 
F(x) = O se, x::::; O, 
[o" 2s ds = x2 • 
se O< x::::; 1, 
lsex>l. 
O gráfico está apresentado na Fig. 4;12. 
F_(x) 
fig. 4.12 
. i 
Os gráficos· apresentados nas Figs. 4.11 e 4.12 para as fd são, 
em cada caso, bastante típicos, no seguinte sentido~ 
(a) Se X for uma variável aleatória discreta, com um número finito 
de valores possíveis, o gráfico da fd será constituído por segmentos de 
reta horizontais (nesse caso, a fd se denomina função ém degraus). A 
função Fé contínua, exceto nos valores possíveis de X: x 1 , ••• ,xn, ... 
No valor xi o gráfico apresenta um "salto" de magnitude p(xi) = 
=P(X=xi). . . 
(b) Se X for uma variável aleatória continua, F será uma funÇão 
continua para todo x. · 
i . 
· > 
I 
,. 
•\: 
i 
VARIÁVEIS ALEATÓRIAS Ui\IIDIMENSIONA8S I 87 I . 
(c) A fd Fé definida. para. todok os valores de x, o que é um motivo 
importante para considerá-Ia. I _ , 
Existem duas ou_tras importantes propriedades da fd, que re-
"·· sumirem~s ~oc'"teore~aseguiiite: , ... 
? .. I 
Teorema 4.3. (a) A função P é não-decrescente
1
• Isto é, se 
x1 ~ x2, teremos F(xi) ~ F(x2). ! 
-~- -(b) lilllz-+- mF(x) = O e lim.:~ .. F(x) = 1. [Freqüentemente, escre-
vemos isto como F(- oo) = O e F("") = 1.1 
! 
Demonstração: (a) De(inamol:! os eventos A e B, assim: .A = 
I X ~ xil, B = 'I X ~ i2l - · P~rtanto, como xi ~ i2, teremos 
A C B e, ,pelo Teor. r.5, P(A) ~ ~ P(B), que é o resultado d~sej~o. 
(b) .N.o caso continuo, teremo~ : · _ 
F(- "".) = Jlt-.. -~~~']{8)'âir-[ ,~: 
F("") . =;: 1J 1-"' f(s) _ds = 1, ' 
' z-+CD - GD ,. 
No . caso discreto, o raciochuo é an~ogo. . 
A função de _distribuição ( ac~mulada) é importante por · muitas 
razões. Isto é particularmente verdadeiro quando tratarmos com uma 
variável aleatória contúma, porque nesse caso não poderemos estudar' 
o comportamento probabilístico d~ X através do cálculo de P(X = x). 
Aquela probabilidade é sempre igultl a zero no caso contínuo. Contudo, 
poderemos indagar de P(X ~ x) ·e\ como demonstra ó teorema seguin-
te, obter a fdp de X . J 
I 
Teore:ma 4.4. (a) Seja F a i fd de urna variável aleatória con-
tínua, com fdp j . Então, I d 
f(x) = iax F(x), 
! 
para todo x no qual F seja derivável. . 
I . 
(b) Seja X uma variável aleatória dis<:reta, com .. valores possí-
veis xi, x2, . .. , e suponha-se qu.e jesses valores tenham, sido indexados 
de mooo que XI < X2 < ., .. SeJa! F a fd de X. EntãO, 
. I 
p(xi) = P(X = xJ)! F(xi)- F(xh). (4.12) 
I f_ . 
Demonstração: (a) F(x)=P(X ! ~ x) = -"'= j(s) ds. Por isso, apli-
' . cando-se o teorema fundamental !do Cálculo, :obteremos F'(x). = j(x) . 
. I " • 
88 I 'f"ROBABDU DA DIE 
E 
(b) Como admitimos Xr < x 2 < ... ; teremós' .; · 
F(x;-) = P(X = Xj U X= x;--1 \j ;'; ·Ü'X = x;) .· 
= p(j) + p(j - i) +. -:·:·+·' pcir ·· 
. . . . ·• . . ' ' '; ·.• :' ·: ;·~) ,, . ;' ·~ 
F(Xi-cl) = P(X = Xj-1 u X =. ~f-;2 u ... u X = XI) 
= p(j- 1) + p(j....,. 2) + :. :+.p(l); -
Portanto, 
Comentário: Vamos rtisumidamente recon~i~~rar apart~ Ú)dÓTeor~ma 4.4. 
Recordemos a definição de derivada de uma funÇão F: ·· · .. · ·· · 
F(x)= lim F(x+h)-F(x) 
h-+ o h 
= lim 
h-" o+ 
P(X < x +h)- P(X.;; x) 
h 
= lim - 1- [P(x<X<x+h)]. 
h-'> o+ h 
Portanto, se h for pequeno _ll-positivo, 
/ 
F' (x/~ f(x)'- P(x <X< x +h) 
h 
Assim,f(x) é aproximadamente igual à "quantidade de. probabilidade no intervalo 
(x, x + h) pelo comprimento h". Daí o nome função densidade de probabilidade, 
~r---~. 
Exemplo 4.16. Suponha-se que uma variável aleatória contí-
nua tenha a fd F dada por 
F(x) O, x ~ 0, 
1- e-, x >O. 
Kesse caso, F'(x) = e- para x > O, e, por isso, a fdp será dada por 
j(i) = e-z, X;::: 0, 
= O, para quaisquer outros valores. 
Camenlário: É oportuno dizer uma palavra. fi11al sobre a terminologia. Esta 
terminologia, muito embora ainda não uniforme, tornou-se bastante· p-adroni-
zada. Quando falamos da distribm'çllo de probabilidade de uma variável alea-
tória X, nos referimos à s_ua fdp se ·x fõr contínua, ou à sua fun~ão de probabili-
dade no ponto, p, definida para x11 x~, ... se X fõr discreta. Quando falamos 
da função de distribuição acumulada, ou algum~ vezes apenas junçao de distri-
buição (ou função de repartição),queremos sempre nos referir aF, ondeF(x) = 
=P(X<x). 
. i 
\ 
VAR~ÃVIEOS Al!EATÓRIAS Ui\! iDiMIENSIONA~S I 89 
4.6. IDJistribuições Mistas 
Restringimos nossa explanação tão-somente a vanaveis alea-
tórias que sejam discretas ou contínuas. Tais variáveis são certa-
mente as mais importantes nas aplicações. Contudo, há situações 
em que poderemos encontrar um tipo misto: a variável aleatória X 
pode tomar alguns valores diferentes, digamos xh . .. x., com proba-
bilidade n.ã.o-p.ula, e também tomar todoo os valores em algum in-
tervalo, digamos a :::; x :::; b. A distribuição de probabilidade de 
tal variável aleatória seria obtida pela combinação das idéias já exa-
minadas na descrição de variáveis aleatórias discretas e de contí-
~ nu.as, ·como se verá a seguir. A cada valor x, associa-se um número 
p(x;) tal que p(x;) ~ O p.ara todo i, e tal que L~=l p(x;) = p < l. 
Em seguida, defme-se uma função j, satisfazendo a j(x) ~ O, 
fab .j(x) dx = 1 - p. Para todo a, b, com - oo <a < b < + 00, P(a <; 
·<;X<; b) = fab f(x) dx + L p(xi). Desta maneira, aten-
{i:a<xi<b} 
deremos à condição P(S) = P(- oo < X < oo) = 1. 
Uma variável aleatória de tipo misto p~d~ria surgir da maneira 
explicada a seguir. Supónha-se que estejamos ensaiando algum 
equipamento e façamos igual . a X o tempo de funcionamento. Em 
muitos problemas, ·descreveremos X como uma variável aleatória 
contínua, com valores possíveis x ;:::=: O. No entanto, podem surgir 
situações nas quais existauma probabilidade não-nula de que a peça 
não funcione de modo algum, isto é, falhe no momento X= O. Nesse 
caso, desejaríamos modificar nosso modelo e atribuir uma probabili-
dade p > O ao resultado X = O. Conseqüentemente, teríamos 
P(X = O) = p e P(X > O) = I - p. Deste modo, p descreveria 
a distribuição de X no ponto O, enquanto & fdp j descreveria a distri-
buição para valores de X > O. (Veja a Fig. 4.13.) 
j{JI) 
1 
l'(X=O)=p 
. I 
Fi!l). 4.14 
4.7. Variáveis Aleat6riaJs \\Jniformem®nte Distribuídas 
( " 
Nos Caps. 8 e 9, estudaremos minuciosamente muitas variáveis 
aleatórias discretas e contínuas importantes, Já introduzimos a 
. li 
ii 
'-i 
:: ... I 
f 
H · 
~ 
' ' i. 
Iii 
! 
l 
:r 
90 I PROBABILiDADE _,. , ·' 
importante variável aleatória binoiniaL V~os ; âg6rii exaíninar, 
resumidamente; uma importante variável a.Ie'atória cohtinua . 
. . ·' '·.:.:,: , .... ~ . . : ~- .. ' ·. ' : ; -~ . 
Definição. Suponha-se que X seja uma varl~v~iáleat6ria con-
tínua, que tome todos os valores no intel'Valô [ii;' b], 'lio 'qual a e b 
sejam ambos finito/~.fdJLde .X-f~por) · 
. /(x) = b ~- a ' a ~- x~}~ (4.13) 
. [ • / " / 
. ·\ = O, para ,g,uru:squer Qutros yalores, .diremo.s 
'~-----·------------· 
que X é uniformemente distribuída sobre o intervalo [ci, :91. (Veja a 
Fig. 4.14.) 
Cvmentários: (a) .Uma· variável aleatória · uniformemente distribuída. tem 
uma fdp que é constante sobre o intervalo de definição. A fim de satisfazer à 
condição f_+, m j(x) dx = 1, essa constante deve ser igual ao inverso do compri-
mento do intervalo. 
(b) Uma variável aleatória uniformemente distribuída representa o análogo 
contínuo dos resultados igualmente pro~áveis, no seguinte sentido. · Para qual-
quer subintervalo [c, d], onde a:::_ c < d :::_ b, P(c :::_ X:::_ d) é a ~msma para todos 
os subintervalos que tenham o mesmo comprimento. Isto é, 
f. d d- c P(c :::_ X:::_ d) = j(x) dx = --. - .-· c .b ... ·a . ·, 
e, por isso, depende unicamente do comprimento do intervalo . e nã'o da posição 
desse intervalo. ·· 
(c) Agora podemos tornar mais precisa a noção intuitiva de e3colher ao aca..o· 
um p<mto P, em um i~tervalo [a, ·b]. Por isto simplesmente quetémos dizer que a 
coordenada x do ponto escolhido, digamos X, é uniformemente distribuída sobre 
~a, b]. 
I 
Exemplo 4.17. tJrh ponto é escolhido ao aca.so no segmento de 
reta [O, 2]. Qual será a probabilidade de que o ponto escolhido 
esteja entre 1 e 3/2? 
Fazendo-se X representar a coordenada do ponto escolhido, nós 
temos que a fdp de X é dada por j(x) = 1/2,. O < x < 2 e, portanto, 
P(1 ~ X ~ 3/2) = 1/4. 
F(x) 
x=a x=b 1 
Fig. 4.15 
! 
' 
(' 
·, 
· I . ; 
VARIÃVEIS i i..EATÓRIAS UNiDIMENSIONAIS I 91 
I . . 
Exemplo 4.18. A dureza ~ de uma peça de aço (avaliada na 
escala Rockwell) pode-se supor ~er. uma variável aleatória contínua 
uniformemente distribuída sobre o intervalo [50, 70}, da escala B. 
Conseqüentémente, I 
1 .1 
f(h) = 2o 1 510 < h < 701 
= O, para/ quaisquer putros v~ores. 
Exemplo 4.19. Vamos obte~ a expressão da fd de umà variável 
I 
aleatória uniformemente distribuída. 
I 
F(x) = P(X .~ r) = /_" ... j(s)~ . 
=0 se x <a, 
x-a I 
=---sea<x<b b- a I - 1 
= 1 ~e x;::: b. 
O gráfico está apresentado na Fík. 4.15. 
I 
4.8 ~m• Oboomção i 
Repetidamente temos salien~ado que em algum estágio de nosso 
desenvolvimento de. um modelo probabilístico, algumas .prpbabilidades 
devem ser atribuídas a resultados, com base ou em evidência experi-
mental (como as freqüências relat~vas, por exemplo) 'ou, em alguma outra 
consideração, como a experiênci~ passada com o fenômep.o que esteja 
em estudo. A seguinte questão pode ocorrer :ao estudante: Por que nós 
não podemos obter todas as proijabilidades em que estejamos iriteressa-
dos por tais meios não-dedutivÇ>s? A resposta e que muitos eventos 
cujas probabilidades desejamos I conhecer são tão complicados que 
nosso conhecimento intuitivo é ipsuficiente. Por exemplo, suponhamos 
que 1000 peças estejam sairido diariamente de uma linha de produção, 
algumas das quais defeituosas. ~esejiunos saber a probabilidade de ter 
50 ou menos peças defeituosas! em certb dia. Mesmo que estejamos 
familiarizados com o comportamento geral do processo de produção, 
poderá ser difícil para nós assodiarmos uma medida quantitativa com 
I . 
o evento: 50 ou menos peças são defeituosas. No entanto, poderemos 
ser capazes de fazer a afirmação /de que qualquer peça individual tenha 
probabilidade de 0,10 de ser def;eituosa. (Assim; a experiência passada 
nOs dá a informação de que cerd,a de 1 O por cento das peças são defei-
1 
92 I PROBABILIDADE 
tuosas.) Além disso, poderemos estar inclinados a adirütir _qu:e, indivi-
dualmente, as peças sejam defeituosas ou perfeitas iridepen<;leriteme:rite 
uma da outra. Agora, poderemos proceder deduÜvame~-i:e , ·e obter a 
probabilidade do evento em estudo. Assim, se X=. número de peças 
defeituosas, 
. 50 (1000) . 
P(X.;;;, 50)~ ~ (O,lO)k (0,90)1000- k 
k= o . k .. 
O que se quer destacar aqui é que os vários métodos que nós dedu-
zimos para calcular probabilidades (e outros que serão estudados 
subseqüentemente) são de enorme importância, porque com eles pode-
remos avaliar probabilidades associadas a eventos bastante complicados, 
as quais seriam difíceis de obter por meios intuitivos ou empíricos. 
-i1J &~ q~ 1liilA determinada. moeda apresenta. cara. três vezes mais · 
freqüeiitemente que OOI'oa. .E= moeda é jo~da três vêzés. Seia X o. número 
de' caras _qíle~p~. -Es~beleç~~> . a dis~buiçl!.ci de probabilidade de X e ta.m-
··"' ~- ..... -· ~ ·--.) . 
-bém ~Jtfâ.. t-Fa.ça. um esboço do. grá.fioo de-IUilbllS.rl 
~-F7 ~ . ( r ~ / ~ • ' . . 9 De um lote ~ue contém ~-)je-l)ãâ, ~ quais 5 são deíejtuosas, são esco-
lhi IIS 4 ao &easo. &lJa. X o número de defe1tuosas encontra.daa. Estabeleça _a 
distribuição de probabilidade de X, quando: 
(a) AD peças forem escolhidas com r.eposiçl!.o. 
(b) As-peças forem escolhidas sem reposição. 
/; . l9 Suponh~ que ~ variável a.lea.t6ris. X tenha. os valores pol!!líveis 1, 2, 3, -~ .. , 
e P(X = J1 = 1/2', i= 1, 2, ... 
(a) Ca.lcule P(X ser par). 
(b) Calcule P(X ;:::: 5). 
(c) Calcule P(X ser divisível por 3) • 
. x 4.13, Considere UIM variável aleatória. X com resultados possíveis: -0, 1, 2, ... 
Suponha que P(X = J1 = (1 - a)ai, i = O, 1, 2, ..• 
(a) _Para que valores de a o modelo acima tem sentido? 
(b) Verifique qu~ esse. eJCpressão represente uma legíti.xru!. dietribuição de 
probabilidade. · 
(c) Mostre que, para · quaisquer dom inteiros positivos· a e 8, 
J 
P(X .> s + t IX > s) = P(X ;:::: t). 
VARIÁVEiS ALEATÓRIAS UNIDIMENSIONAIS ./ 93 
/4~ Suporihà que ·a máqUina 1 ·produza (por dia) o dobro das peças que 
sã~uzidas ·pela máquina 2. . No entanto, 4% das peças fabricad:i.s pela má-
qUina: 1 tendem a ser defeituosas, enquanto somente cerca de 2% de defeituosas-
produz a máquina 2: Admita que a produção diária das duas máquinas seja mis-
turada. Uma amostra aleatória de 10 peças é extraída da produção total. Qual 
será a probabilidade · de que essa amostra· contenha 2 peças defeituosas? 
4. . Foguetes são lançados até que o primeiro lançamento bem sucedido 
a ocorrido. Se isso não ocorrer até 5 tent~tivas, o expernr;ento é ~lispenso 
e o eqUipamento inspecionado. Admita que exista uma probabilidade constante· 
de 0,8- de haver um lànçamento bem sucedido e que . os sucessivos lançamentos. 
sejam independentes. Suponha que· o custo do primeiro lançamento seja K dó-
lares, enquanto os lan~;amentos subseqüentes custam K/3 dólares. Sempre que 
ocorre um. lançamento !\em sucedido, uma certa quantidade de informação é obti-
da; a qual pode ser expressa como um ganho financeiro de C dólares. Sendo T 
o . custo líqUido· desse experimento, estabeleça a disti:i.buição de probabilidade de T • . 
@ Calcule P(X = 5), onde X é a variável ale~tória definida no Ex. 4.10. 
suponha que n1 = 10, n2 = 15, PI = 0,3 e P2 = 0,2. · 
)("4.8 . . (Propriedades das Probabilidades Binomiais.) Naexplanação do Ex. 4.8, 
um padrão geral para as _probabilidades binomiais (';,)p7c(1- p)n-:-lc foi sugerido. 
Vamos denotar essas 'probabilidades por Pn(k). 
(a) Mostre que, para O~ k <n~ temos 
Pn(k + 1)/pn(k) = [(n - k)/(lc + 1)] [p/(1 - p)]. 
(b) Empregando (a), mostre que 
(i) Pn(k + 1) > Pn(k) se k < np - (1 - p), 
(ü) Pn(k + 1) = Pn(k) se k = np - (1 - p), 
(iü) Pn(k + 1) < p~(k) se k > np - (l- p). 
(c) Mostre que se np - (1 - p) fói: um inteiro, Pn(k) toma seu valor máxinto 
para dois valores de k, a saber, ko = np - (1 - p) e ko' = np - (1 - p) + 1. 
(d) Mostre que se np - Ú - p) não fórum inteiro, então Pn(k) toma seu 
valor máximo quando k for iguàl ao men<:>r inteiro maior que ko. 
(e) · Mostfé que se np - (1 - p) < O, Pn(O) > Pn(1) > ... > Pn(n), enquanto 
se np - (1 - p) = O, Pn(O) = Pn(1) > Pn(2) > ... > Pn(n) . 
. 4. . A variável aleatória contínua X tem para fdp: · j(x) = x/2, O~ x ~ 2. 
São feitas du~ det~rminações independentes de X. Qual será a prÓbabilidade 
de que ambas essas determinações sejam maiores do que 1 ? Se três determinaçÕes 
independentes "forem feitas, qual a probabilidade de que exatanierite duas dela~ 
sejam maiores do que 1? 
4 • . 0. Seja X a duração da vida de uma válvula eletrônica. e admita--se que X 
possa ser representada por uma variável aleatória contínua, com fdp j(x) = be-00:, 
x ~ O. Seja Pi = P(j ~X < j + 1). Verifique que Pi é da forma (1 - a)ai 
e determin~ a. · ' 
--,_...., . 
4;11. A variável aleatória con~ínua X tem fdp j(x) = 3x2; .-1 ~ x ~O 
se b for um número que satisfaça a -1 < b < O, cs:lcule P(X-> b IX < b/2). 
! 
l 
1 I 
I 
I 
l ' 
I 
I·. 
94 I PROBABILIDADE 
6 ··. Suponha que j e g sejam fdp no mesmo intervalo a .:'S. x .:'S. b. . 
~a) Verifique que j + g não é uma fdp nesse interyalo. · .·· . • . 
(b) Verifique que, para todo núm~ro {3, O< {3 < 1, {3j(x)+(1 ~ {3)g(x} 
é uma fdp nesse intervalo. ' · 
r.r::J . . .·, . . ' . . . 
,ij·~J~ Su~onha que o gráfico na Fig. 4.16represente afdp de_hni.a variável 
aleatória x; . 
(a) Qual será a relação entre a e b? 
· (b) Se a > O e b > O, que se pode dizer do maior valor que b pode tomar?' 
(Veja a Fig. 4.16.) . 
Fig. 4.16 
( 4~ A percentagem de álcool (100 X) em certo composto pode ser 
derada ú'ma variável aleatóri~,_Jmde X, 1f < X < 1, tem a seguinte'fdp: 
j(x) = 20x3(1 - x),_ O < x < 1. 
(a) E>tabeleça a expressão da fd F e esboce seu ~áfico. 
(b) Calcul~ P(X ~ 2/S). 
consi-
(c) . Supollha qu_!l o preço de venda desse composto dependa do conteúdo 
·de álcool. Especificamente, se 1/3 < X < 2/3, o composto se vende por C1 dó-
lares/galão; caso contrário, ·ele se vende por C2 dólaresjgalão. Se . o custo for c; 
dólares/galão, calcule a distribuição de probabilidade do lucro líquido por galão. 
r:Q 
4.15. Seja X uma variável aleatória contín]ia, com fdp dada por 
J 
f(x) ax, 
a, 
O.:'S.x.:'S.l, 
1.:'S.x .:'S. 2,. 
-ax + 3a, 2.:'S. x .:'S.3, 
O, para quaisquer outros valores. 
(a) Determi.ne a cot;l,l:Jtll.nte a. (b) Determine a fd F e esboce. o seu gráfico. 
(c) Se X 1, X2 e X a forem til\8 observações independentes de X, qual será a proba~ 
bilidade de, exatameilte, um desses três ·números ser maior do que 1,5? 
~ O diâmetro X de um cabo elétric~ supõe-se ser uma ·~ariável aleatória 
contmuJ X, com fdp f(x) = 6x(l - x), O ~ x ::::_ 1. " · 
(a) Verifíque que essa expressão é uma fdp e ·esboce o seu gráfico. 
(b) Obtenha uma expressão para a fd de X -e esboce o seu gráfico. 
(c) Determine um número b tal _que P(X < b) = 2P(X > b). 
(d) Calcule P(X .:'S.l/211/3 < k< 2/,3). 
I 
I 
.I 
VARDÃVEDS A~EATÕRIAS UNIDIMENSIONAIS I 95 
I 
4.17. Cada uma das seguintes funç~es representa a. fd de mna. va.riá.vel alea.-
tória continua. Em cada caso, F(x) = O pa.ra x < a. e F(r) = 1 pa.ra x > b, onde 
[a, b] é o interva.lo indicado. Em ca.da. c+o, <'"b~l·e o gráfico da. função F, deter~ 
mine a fdp f e faça o seu gráfico. També,m verifique que f é ·uma fdp. 
(a} F(x) = x/5, O .S x .S 5.. (b)i F(x) = (2/Jr) sen-1 ( y';), o _s x _s .1. 
I 1 
(c) F(x)=eJ.z,- "'<x.SO. (d) F(x)=x3/2+ 2 ,-l.Sx.S1. 
I 
4.18. Seja .\ 1!. duração da vida j(medid& em horas) de um, <lispositivo 
eletrõnico. Suponha. que X seja. X va~iá.vel aleatória contínua com fdp j(x) = 
= kjx" 1 2.000 _s X _s 10.000. 
(a) Para n = 2, determine k. (b) !Pa.ra. n = 3, determine k. (c} Pa.ra. n 
I • 
em geral, determine k. (d) Qua.l a. probapilida.de de que o dispositivo falhe antes'' 
que 5.000 horas se tenham pa.ssad() 7 (e) Esboce a fd F(t) para 11 letra (c) e deter-
mine sua forma 8lgébrict\. l 
I 
4.19. Seja X uma. va.riá.vel alea.tótia com distribuição hinomia.l, basea.da 
em 10 repetições de um experimento. Sei p = 0,3, calcule as seguintes probabili-
da.des, empregando a tábua da distribuiçro binomial do Ap~ndicte: 
(a} P(X .S 8); (b) P(X = 7); (c) P(X > 6). 
I 
4.20. Suponha que X seja uniforlnemente distribulda sol;lre l-a, + a], 
onde a > O. Quando posslvel, determin~ a de modo que as seguintes relações 
sejam satisfeitas: 
(a) P(X > 1) = ..!_ • 
3 
I 1 
(b) P(X J I) = "2 . 
i 
(c) P(X' < ..!. ) = 0,7. 
. 2 
1 
(d) P(X < -zl = 0,3. (e) P<IXI < 1) = P(iXI > 1). 
I 
4.21. Suponha que X tenha distribuição uniforme sobre (O, a], a > O. Res-
d 
I , 
ponda. às perguntas o Probl. 4.20. J 
4.22. Um ponto é ·escolhido ao acaso, sobre uma. reta. de comprimento L. 
Qual é a. probabilidade de que o quocien~e do segroen~ mais curto p&ra o mais 
longo seja menor do que 1/4? 1 
4.23. Uma fábrica. produz 10 recipi~ntes de vidro por dia.. Deve-se supor 
que exista uma probabilida.de constante~ = 0,1 de produzir um recipiente defei- ·· 
tuoso. Antes que esses recipientes seja~ estocados, eles são inspecionados .e os 
defeituosos são separados. Admita que exista uma probabilidade con>tante r = 0,1 
I 
de que um recipiente defeituoso seja mal classificado. Faça. X igual a.o número 
de recipientes classificados como defeitU:~sos ao fim de um dia ··de produção. 
I 
(Admita. que todos os recipientes fabricados em um dia sejam inspeciona.dos na-
quele dia..) j . 
(a) Calcule P(X = 3) e P(X > 3). !' (b) Obtenha a expressão de P(X = k). 
I ' 
4.24. Suponha que 5 por cento de todas as peça.s que 'saiam de uma linha 
de fabricação sejam defeituosas. $e 10 dessas peças fo,rem escolhida.s e ill:lpecio-
nada.s, qual será a proba.bilida.de de que j no máximo 2 defeituosas sejam encon-
.trada.s? 1 
96 I PROBABILIDADE 
4.25. Suponha que a duração da vida (em horas) de uma certa válvula seja 
uma variável aleatória contínua X com fdp f(x) = 100fx2, para x > 100, ·e zero 
para quaisquer outros valores de x. 
(a) .Qual ~erá a probabilidade de que uma válvuia dure menos de 200 horas, 
se soubermos que ela ainda está funcionando após 150 horas de serviço? 
(b) Se tr~ dessas válvulas forem instaladas em um conjunto, qual será a 
probabilidade de que exatamente uma delas tenha de ser substituída após 150 
horas de serviço? 
(c) Qual será -o número máximo de válvulas que poderá ser colocado em um 
conjunto, de modo que exista uma probabilidade de 0,5 de que após 150 horas 
de serviço to~as elas ainda estejam funcionando? 
4.26. Um experimento consiste em n tentativas independentes. Deve-se 
admitir que por catÍsa da "aprendizagem~', a probabilidade de :...obter um resul-
tado favorável cresça com o número de tentativas realizadas. Especlficamente, 
sliponha que P (sucesso na i-ésima repetição) = (i + 1)/(i + 2), i = 1, 2, . . . , n. 
(a} · Qual será. a probabilidade de ter ao menos 3 resultados favoráveis, em 
8 repetições? 
'(b) Qual será a probabilidade de que o primeiro resultado favorável ocorra 
na oitava repetição? 
4.27. Com referência ao Ex. 4.10: 
(a} Calcule P(X = 2), se n = 4. 
(b) Para n arbitrário, verifique que P(X = n- 1) = P (exatamente uma 
tentativa mal sucedida) é igual a [1/(n + 1)] L?= 1 (1/i). 
4;28. Se a variá.vel aleatória K fór uniformemente distribuída sobre (O, 5), · 
qual será. a probabilidade de que as raízes da equação 4x2 + ·4xK + K + 2 = O' 
sejam reais? · 
4.29.Suponha que a variável aleatória X tenha valores possíveis, 1, 2, 3, ... 
e que 
P(X =r)= k(1- (3}r- 1, O < (3 < 1. 
(a) Determine a constante k. 
(b) Ache a moda desta distribuição (isto é, o valor de r que tome P(X =r) 
a maior de todas). 
4.30. Uma variável aleatória X pode tomar quatro valores, com probabili-
dades (1 + 3x)/4, (1 - x)/4, (1 + 2x)/4 e · (1 - 4x)/4. Para que valores de x é 
esta uma distribuição de probabilidade? 
ij 
.! 
·I 
;( ., 
•t 
- ! 
-; 
>i 
-; ! ,, 
·. ~ 
-Í 
F un_ções de Variáveis _Aleatórias 
Capítulo 5 
Suponhamos que o raio do orifício de um tubo calibrado com 
precisão X seja conside~ado uma variável aleatória contínua com 
fdp j. Seja A = 1r X 2 a área da secção transversal do orifício. É 
intuitivamente evidente que, uma vez que o valor de X é o resul-
tado de um experimento aleatório, o valor de A também o é. 
Quer dizer, A é uma variável aleatória (contínua) e desejamos obter 
sua fdp, que denotaremos g. Esperamos, Úma vez que A é função 
de X, que a fdp g seja de algum modo deduzivel do cànhecimento 
da fdp j. N;t:Ste capítulo, tr11taremos de' problemas desse tipo geral. 
Antes porém de nos familiarizarmos com algumas das técnicas espe-
cíficas necessárias, vamos exprimir os conceitos acima mais rigoro-
!lalllen te. 
Seja E um experimento · e ~ja S um espaço amostral associado 
a S. Seja X uma variável aleatória definida em S. Suponha-se 
que y = H (x) seja uma função real de x. Então, Y = H(X) é uma 
Fig. 5.1 
variável aleatória, porque para todo s E S, um valor de 
terminado, a saber y= H [X(s)l. Esquematicam~nte, . 
Fig. 5.1. -
98 I PROBABILIDADE 
Como anteriormente, denominaremo~ Rx o contradomínio de X, 
o conjunto de todos os valorc;; possíveis da função X . Semelhante-
mente, definiremos R y como o contradomínio (la variável aleatória 
Y, o conjunto de todos os valores possíveis de Y. Anteriormente, já 
definimos [Eq. (4.1)] a noção de eventos equivalentes em S e em Rx. 
Agora, estenderemos esse conceito na seguinte forma natural. 
Definição. Seja C um evento (subconjunto) associado ao con-
tradomínio RY, de Y, como se explicou acima. Seja B C Rx defi-
nido assim: 
B = {-;?:E Rx: H(x) E C}. (5.1) 
Em palavras: B é o conjunto de todos os valores de X, tais que 
H(x) E C. Se B e C forem relacionados desse modo, os denomina-
remos eventos equivalentes. 
Comentários: (a) Como anteriormente, a interpretação não formal disso é 
que B e C serão eventos equivalentes se, e somente se, B e C ocorrerem conjunta-
meu te. Isto é, quando B ocorrer, C ocorrerá, e inversamente. 
(b) Suponha-se que A seja um evento ·ai;sociado a S, o qual é equivalente a. 
um evento B associado a Rx. Então, se C for um evento ru,sociado a Ry o qual 
é equivalente a B, teremos que A será equivalente a C. 
(c) B também importante compreender que quando falamos de eve~tos 
equivalentes (no sentido acima), esses eventos são associados a diferentes espaços , 
amostrais . 
Exemplo 5.1. Suponha-se que H(x) = 1rx2, tal como na Seç. 5.1. 
Então, . os eventos B: {X > 2} e C: { Y > 47r l são equivalentes. 
Porque, se. Y = 7r X 2 , então {X > 2} ocorrerá se, e somente se, 
{ Y > 47r l ocorrer, desde que X não pode tom.ar valores negativos no 
caso presente: (Veja a Fig. 5.2.) 
y 
Fig. 5.2 
ii: Cvmenlário: B também importante salientar que uma notação abreviada 
i está sendo empregada quando escrevemos expressões tais como !X > 2} e 
J I Y > 471"}. Aquilo a que nos estaremos referindo, naturalmente,· são os valores L c d, X • oo volo•~ do Y, llilo '• [•[XI•: > 2[ • [•[Y(•) > 4,L ' 
' -
\ 
; ' 
Tal cqmo fizemos 
definição. 
FUl\IÇÕ"ESjDE VARI'Á VEIS ALEAJÓRIAS / -99_:. 
I 
no Cap. 4,1 [Eq. (4,2!], dar~~~s- ~ j~~~7 
i . .. ...... :· .. ;:,..:; .. . . . . 
Definição: Seja uma variável! al~atória X defiil:id~ n~ , e~~~~­
amostral S. Seja Rx o contradomínio de X. ' Seja 1/ rumaruriÇã:~' 
real e considere-se a variável aleat6Ha y = H(X) com contrii.dólníill~ . 
I . . . . 
R,y. Para qualquer evento C C RIY, definiremos P(C) ~ssim: : . ··,,_~:: 
P(C) = P[ {x E Rx: H(x) E C)]. . (5,2) 
Em linguagem corrente: A p~obabilidade de um ~vento asso-
ciado ao contradomínio de . Y é d~finida como a probabilidade do 
evento equivalente (em termos de X), como indicado pela Eq. (5.2). . ! -
Comerúár.ios: ' (a) A definição acima jtorna possível calc~_ar probahilidades 
que envolvam eventos associados a Y, se ·conhecermos ·a distribuição .de proba-
bilidade de X e se pudermos determinar o erento equivalente em apre_ço~ 
(b) .Uma vez que explicamos anterioxhente [Eq. (4.1 e 4.2)] como relacionar 
probabilidades associadas a Rx com prob:abilidades associadas a S, podemos re-
escrever a Eq. (5.2) assim: i 
I . 
P(C) = P[(x E Rx: H(x) E ClJ = P l (s E S: H[X(s)] E C}] . . 
v · 
I . 
Exemplo 5.2. Seja X uma variável 
I 
contínua ~oro fdp 
·I j(x) = e-, x > O. 
(Uma . in~egração simples confirma que 
I 
J;~. e- dx = 1.) 
I 
Suponha-se que. H(x) = 2x + 1. Em 
conseqüênbia, I;lx = { x I x > O), enquanto 
RY = { y I y > 1). Suponha-se, que. o even-
to C seja definido deste modo: C= { Y;::: 5). 
I 
--,4 ---J<J..=.:...l _ _,__.,.-)C Então, y 2: 5 se, e somente se, .2x + 1 ;::: 5, 
o . que porJsua vez acarreta x;?: 2. Daí, C 
é equivalente. a B = {X ;?: 2 J. (Veja Fig. 
Fig, 5.3 
5.3.) Então, P(X ;::: 2) = h~ e- !ax = 1/e2• .Aplicando-se então a. 
Eq. (5 .. 2) encontraremos que i 
P(Y ;?: 5) ·= 1/e2• 
CQ77le111.drios: (a) li: nov.a~ente provbitoso salientar que poderemos consi-
derar a incorporação de ambas as avaliaçõ~ de x = X(s) e .de y = H(x) em_ ll,q~Q:. 
experimento e, conseqüentemente, conside~ar apenas Ry, o contra?o~fu!.o ~tf,~; · 
como o espaço amostral de nOBBo experimento. '·'·:f·" · 
Rigorosamente falando, o eapaço amo~tral de nosso e)!:perimenti> . é . _ 
sultado do expe!imento é 8. Tudo o que ~ faz subseqüentemente , n.ão 
Wlll I f'ROBAIBUUDADE 
cia<l<i pela ,natureza aleat6ria do experimento. A determinaçii.o de x = X(s)" e 
a avnliaçíi.o de y =. H(x) .sll,o processos ngorosamente. determinísticos depois qúe. s · 
tenha sido observado. COntudo, .. como já explicam·os, podemos incorporar esses 
cálculos na descri~o de nosso. experimento. e, deste modo, tratar diretamente 
com o contradomínio Ry. 
(b) Exatamente ·do modo como a distribuição de probabilidade foi induzida 
em Rx pela distribuiÇii.o. de probabilidade sobre o espaço amostral original· S, a . 
distrib!=liçii.o de probabilidade de y será determinada quando a distribuição de 
probàbilidade de ··X for conhecida. Assim, no Ex. 5.2 acima, a distribuição espe· 
cificada de. x:determillOI:l'COmpletarnente o valor de P(Y ~ 5). 
. (c) ·Ao· considerar uma função de uma variável aleatória X, digamos 
Y = H(X), devemos observar _que nem· «ida funçii.o H concebível poderá ser aceita. 
Contudo, as funções ·que surgem nas-aplicações estão infalivelmente entre aquelas 
que podemos considerar e, por isso, não nos referiremos maÍfj a esta· pequena difi-
culdade. 
5.3. Va~riáveis Aleatórias Discretas 
Caso L X é uma· variável aleatória diseretá~ Se X for um~ 
variável aleatória discreta e Y = H(X), nesse ca~o segue~se ímedia-
. tamente que y será também uma variável aleatória discreta. ' 
Porq~e sup()r _que os valor~s possíveis de X possam ser ~nume­
radps COniO X1, . X2, .... , Xn, . . . acarr~ta qu~ Certamente OS Valores 
pos~(veis de Y sejam enumerados · como Y1 = .f:l(xi), y 2 = H(x2), . ... . 
(Alguns desses valo_res de Y poderão ser iguais, mas isso certamente 
não perturba o fatq de qUe esses valores possam ser enumerados.) 
ExemplO 5.3 . . · S~ponhamos que a variável aleatória X tome os · 
três valores -1, O e 1, com probabilidades 1/3, 1/2 e 1/6, respectiva-
mente. Seja y = 3X + 1. Nesse CIJ.SO os yalores possíveis de y 
são -2, 1 e 4, tomados coniprob~bilidades 1/3, 1/2 e 1/6. . 
Este exemplo sugere o seguinte procedimento geral: Se - ~1 ; .•• , 
Xn, . .• forem os valores possíveis de X, p(x;) ~- P(X = x;), e· ii for 
uma função tal que, a cada valor y correspÔhda exatamente um 
valor x, _então adistribuição de probabilidade . de Y será obtida do 
seguinte modo: 
Valores possíveis de Y: 
Probabilidades de Y: 
y; = H(x;), i= 1,_.21 .- •• , n, .. . ; 
q(y;) = P (Y '= y;) = p(x;). 
Muito freqÜentemente a função H não possui a característica 
acima, e poderá acontecer que vários valores :.de X levem ao mesmo 
~~dor de Y, como ilustra o exemplo seguinte: . · 
Exemplo 5.4. Suponha-se que consideramos a mesma variável 
aleatória X, como no Ex. 5.3 acima. Contud;, frttrodu,ziilws Y # X 2• 
FUNÇÕES DE VARIÃVI;1S A .LEATÓRIAS I 1"01. 
Portanto, os valores possíveis de Y são zero e um, tomados com pio-
habilidades 1/2 e 1/2, porque Y ==: 1 se, e somente se; X = ---,· 1 ou 
X = 1 e a probabilidade deste último evento é i/3 + 1/6 = 1/2. 
Em termos de nossa terminologia preliminar, os eventos B: [X = ± 1} 
e C: [ Y =.1} são eventos equivalentes e, em conseqüência, pela 
Eq. (5.2) têm iguais probabilidades. 
O procedimento geral para situações como a apresentada no exem-
plo acima é o seguinte: Sejam x;P ·x;2, • •• , x;k, . .. os valores de X 
que tenham a propriedade H(x;;) = y; para todo j. E~ tão, 
q(y;) = P(Y = y;) = p(x;) + p(i;2) + ... 
isto é, para palcular a probabilidade d<;> evento I Y = y;}, acha-se o 
evento equivalente em termos de X (no· contradomínio Rx) e em 
seguida adicionam-se todas as probabilidades correspondentes. (Veja 
a Fig. ·5.4.) 
Fig. 5.4 
Exemplo 5.5. Admita-se que X. tenha os valores possíveis 
1, 2, .. . , n, . . . e suponha-se que P(X = n) = (1/2)n. Seja 
Y = 1 se X for par, 
Y = - 1 se X for ímpar. 
Portanto, Y toma os dois valores -1 e + 1. Desde que Y = 1 se, 
e · somente se, X = 2, ou X = 4, ou X = 6, ou ... , a aplicação da 
Eq. (5.2) fornece 
. 1 1 1 1 
P(Y = 1) = 4 + W + M + ... = 3 . 
Conseqüentemente: 
. 2 
P(Y = -1) = 1 - P(Y = 1) = -
3 
Caso 2. X é uma variável aleatória contínua. Pode acon-
tecer que X seja uma variável aleatória contínua enquanto Y seja 
discreta. Por exemplo, suponha-se que X possa · tomar todos os 
valores reais, enquanto Y seja definido igual a + 1 se X ;::: o; e 
i' 
! 
. I 
~r 
·'!:. 
),·: 
., 
I 
I ' I ' . 
i 
102 I PROBABBUDADE 
Y = - 1 se X < O. A fim de obter a distribuição de probabilidade 
de Y, determina-se apenas o evento equivalente (no contradomínio . 
Rx) correspondente aos diferentes valores de Y. Neste caso, Y = 1 
se, e somente se, X ~ O, · enquanto Y =- 1 se, e somente ?C, X < O. 
Por isso, P(Y = 1) = P(X ~ 0)1 enquanto P(Y = -1) = P(X < O). 
Se a fdp de X for conhecida, essas probabilidades poderão ser calcula-
das. No caso geral, se I Y = yi) for equivalente a um evento, por 
exemplo A, no contradominio de X, então 
q(y;) = P(Y = y;) = .h. j(x) dx. 
5.4. Variáveis Aleatórias Contínuas 
O caso mais importante (e mais freqüentemente encontrado) 
aparece quando X for uma variável aleatória continua com fdp j e H 
for uma função continua. Conseqüentemente Y = H(X) será uma 
variável aleatória continua, e nossa tarefa será obter sua fdp, que 
denotaremos por g. 
O procedimento geral será: 
. 
(a) Obter G, a fd de Y, na qual G(y) = P(Y ~ y), achando-se 
o evento A (no contradomínio de X) o qual é equivalente ao everito 
{Y ~ y}. 
(b) Derivar G(y) em relação a y, a fim de obter g(y). 
(c) Deteiminar aqúeles valo-
res de y no contr;adominio de Y, 
para os quais g(y) > O. 
Exemplo 5.6. Supoilhamos que 
X tenha fdp 
j(x) = 2x, Ü < X < 1, 
= O, para outros quaisquer 
valores. 
Seja .H(x) = 3x + 1. Da[, para 
obter a fdp de Y = H(X)/teremos 
(veja a F\g. 5.5). ' 
y 
Fig. 5.5 
-' . FUNÇ0
1
ES DE 'í'ARIÁVEIS ALEATÓRIAS / 103. 
i ' 
G(y) P(Y :::; ~) = P(àx' + 1 :::; y)-
= P[X' ::5 i(y - · 1)j3] ' · · . . /' ~ ~. . I . . 
1
(11-1)/3 . . ' . 
= : 2x dx ,;,. [(y-:- 1)/3]~; . 
0 I 
D~ i . . 
. I 2 ·. 
. . · g(y) = . G'(~) = 9 (y -:- 1). . . . . . 
. . I . . . . • . 
Desde que j(x) > O para O < xl < 1, encontramos q'ue g(y) > O para 
1 < y < 4. I · · . 
. . I . . . 
Comentário: O evento A, :rereri~o acima, equivalente ao evento { Y ~ y I 
é apenas {X ~(y- 1)/3}. i · 
. Existe uma outra maneid, ligeiramente diferente, de obter o 
mesmo resultado, a qual será ,de utilidade mais tarde. Considere-
mos novamente ·j · . . . . 
G(y) = P(Y ::5 y) = P (X:::; y ;l) = F(y; 1), 
onde F é a fd de X; i~to é, 
F(x) ~ P(X_~:::; x): 
A fim de calcular a derivada de G, G'(y), ·empregaremos a regra 
• I . . . 
de denvação de função, coino s
1
egUe: . . . 
dG(y) == dG(y) . du , . onde u = Y - 1 . . 
dy du dy 3 
. I . 
Portanto, . · . .
1 
· G'(y) = F'(u) · _!_ = f(u) · _!_ = 2 ( Y - 1 ) . ~ , 
3 . ·I 3 . . 3 . . 3 
T~l) 
I ')' 
y= I y=4 
Fig; 5.6 
como .anteriormente. A fdp de Y 
teip. 9 gráfico apresentado. na Fig. 
5.6. (Para verificar o cálculo, ob-
serve que j;4 g(y)dy = L) 
Exemplo 5.7. Suponhamos que 
uma variável aleatória contínua tem 
I •• 
a fdp como foi dada no Ex. 5.6. Se-
I . ·. ·.·· '· 
ja H(x) = e-. Para achar a fdp de Y = H(X), · procederemos co-
mo se mdica a segwr (veja a /Fig. 5.7): 
. I 
G(y) . = P(Y ::5 y) = P(e-x ::5 y)' 
P(X ~ ~1 Iny) = ~· i · 2xdx · -ln11 
1--: (-~ y)2. . 
I 
l 
l 
i . t ,, 
l 
I 
l' 
I. 
!: . 
'I' 
i' ,; 
:I: i 
·' 
I. i 
'li I' 
li 
I
' I 
•I 
li 
104 I PROBABIUOADE 
Daí, g(y) = G'(y) = - 2.ln, yfy. · Visto quej(~).> O pára O < i: < 1, 
~ricontramos que g(y) ::> Q pari!, l/e < y < L .. [Observe q~e o . s-i,rtal 
algébricó para g(y) está C:orreto, pois que ln y< O pii,ra l/e < y <).] 
O gráfico de g(y) está esboçado na Fig. 5.K. . . . 
y 
· : · . . = 
Fig, 5.7 Fig •. 5.8 
Poderemos também obter ó resultado acima por um tratamento 
um pouco diferente, que esboçll.remos resumidamente. Tal como 
anterio.rmente 
G(y) = P(Y ~ y) = P(X ?: -ln y) 
- 1- P(X~ -lny) = 1-F(-ln'y), 
onde F é a fd de X, comei antes. A fim de obter a derivada de G, 
aplicaremos também a regra de .derivação· de função de função, co-
mo sé segue: 
dG(y) . = ·ac au 
dy du ·dy ' 
onde u = -ln y. 
Deste modo 
. · ( i) .. . (· 1) . •G'(y) ·= - F'(u) - - = . + 2ln y· . ----:- , 
. . Y · . y 
·tal como anteriotniente. 
Vam~s agora generalizar o tratamento sugerido pelos exemplos 
acima. O passo mais importante em· cada um dos exemplos foi dado 
quando substituímos o evento I Y ~ y} pelo evento equivalente em 
termos da variável aleatória X~ Nos problemas acima, isso foi re-
lativamente fácil porque em .cada caso a função de X era estrita-
mente crescente ou estritamenté decrescente. 
.FUNÇÕES D.E VARIÁ\ÍEIS.ALEATÓRIAS "/ ~105 
. Na JFig. 5.9, y é uma funçoo estritam.ente crescente de z . . Por 
ll8so, ~deremos resolver y = H(x) em termos de y, i~to é, x = Ji-l(JJ), 
:J? · · onde H-1 é denominada fun-
ção invell'Sa de H. Porumto, 
( " 
~--------~~~-----Y x=H-I(y) 
IFi!lJ. 5.9 
se H foli' estritamente crescente 
I H(X) ::; y} será equivalente 
. e (X::; H-1(y)}, enquanto se 
H for estritamente decreséente, 
I H(X) ::; y} será equivalente 
a {X;::: H-1(y)}. 
O processo empregado nos exem-
plos acima pode agora ser ge-
neralizado, na seguinte forma: 
Teorema 5.l. Seja X uma variável aleatória continua com fdp j, 
onde j(x) > O, para a < x < b. Suponha-se que y = H(x) seja uma 
função de x estritamente monótona (ou· crescente ou decrescente). 
Admita-se que essa função seja derivável (e, portanto, contínua) 
para todo x~ Então, a variável aleatória Y, definida como Y = H (X) 
possui a fdp g dada por ·-
g(y) = j(x) I :I• (5.3) 
onde x é expresso em termos de y. Se H for crescente, então g será 
não-nula para aqueles valores de y que satisfaçam H(a) < y < H(b). 
Se H for decrescente, então g será não-nula para aqueles valores de y 
que satisfaçam H(b) < y < H(a). 
Demomtração: (a) Suponha-se que H seja uma função estrit~t­
mente crescente. Daf 
'· 
G(y) P(Y ::; 'J!.) = P[H(X) ::; y] 
P[X ::; H-1(y)] = F[H-'(y)]. 
Derivando G(y) em relação a y, obteremos com o emprego da regrá 
da derivada de função de função: 
dG(y) dG(y) dX 
dY = ---a;- dy I onde x = H-1(y). 
Portanto, 
I 
, dF(x) dx dx 
G(y) = --- =J(x) - ·· 
dx dy dy 
=-======------__:________ __jr 
l.:r 
l i 
·.L 
106 I PROBABILIDADE 
(b) Suponha-se que H seja uma função decrescente. Daí 
G(y) P(Y:::; y) = P[H(X) :::; y] = P[X ~ H-i-(y)] 
1 - P[X :::; H-1(y)] = 1 - F[H-1(y)]. 
Procedendo tal como acima, poderemos escrever 
dG(y) = dG(y) dx = j_ [1 _ F(x)] dx = _ f(x) dx. 
dy dx dy · dx dy dy 
Comentário : O sinal algébrico obtido em (b) está correto porque, se y for 
uma função decrescente de x, i será uma função decrescente de y e, conseqüente-
mente, dxfdy < O. Deste modo, pelo emprego do sinal, com o valor absoluto 
em tomo de dxfdy, poderemos combinar o resultado de (a) e dé (b) e obter a forma 
final do teorema. 
Exemplo 5.8. Vamos reexaminar os Exs. 5.6 e 5.7 pela aplicação 
do Teor. 5.1. 
. (a) No Ex. 5.6 tivemos f(x) = 2x, O < x < 1, e y ~ 3x + 1. 
Conseqüentemente, x = (y - 1)/3 e dxfdy = 1/3. Por isso, g(y) = = 2 [(y - 1)/3Í(l/3) = 12/9)(y - 1), 1 < y < 4, o que confirma o 
resultado obtido anteriormente. 
(b) No Ex. 5.7, tivemos j(x) = 2x, O < x < 1 e y = e""". Em 
conseqüência, x ;= - ln y e dxfdy = - 1/y. Deste modo, g(y) ::, 
,;, ;_ 2(ln y)fy, 1/e < y < 1, o que também confirma o resultado já 
obtido. 
Se y = H(x) não for uma função monótona de x, não poderemos 
aplicar diretamente o processo acima. Em vez disso, voltaremos 
ao processo geral esquemàtizado acima. O exemplo seguinte ilustra 
esse procedimento. 
Exemplo 5.9. Suponhamos que 
j(x) 1/2, -1 < x < I, .. =~=---:~. . ' . 
·.~.-- , · · ·< : :._ = O, fora desse mtervalo. 
' . ' · ' '-.'•, \ ' 
.· ... ,··S~J~~ÍJ(x) ~~~: Jjbviamente, esta. ·~ é unia função monótona 
( 'Z~B~t~~..:&~!~/{-;-1, I] .(Fig. 5.10). Por isso, obteremos a fdp de 
~: dcrségumte modo: . . 
G(y) P(Y :5 y) = P(X2 :5 y) 
P(- Vy :5X ~ Vy) 
F(Vy)- F(-v0, 
F.UNÇÕE;S OE VARIÁVEIS .ALEATÓ.RIAS I I . . . . .. . - . 
onde F é a fd da variável aleat6~a X.'. Logo, . . I . 
g(y/ = G'(y) = 1v'J;) J< ~vi;) , 
2vy -2-v'Y 
. ']• . 
1 I - -
=c _r u<Y Y) +J(-vy)l. 
2v y i \. 
Deste modo, g(y) = (1/2Vy) (1/2 + 1/2) l/2.;;y, o'<y< 1; 
a Fig. 5.11.) i <:. __ , · -< 
(Veja 
g(y) 
y 
I 
y=x2 · 
(t,4) 
X 
x=-l x=i .! 
y 
Fig. 5.10 I Fig. 5.11 ! 
! . • 
O · d I 1 · f · · processo emprega o no e~emp o acrma omece o segwnte re-
sultado geral. I 
I 
Teorema 5.2. Seja X uma v'ariável aleatória contínua c~m fdp j. 
Façamos Y = X 2• Então, a varikvel aleat6ria Y tem a fdp . dada por 
1 j 1 -
g(y) = _r U<y y) + J(-v' y)]. 
2v y . 
i 
I 
Demonstração: Veja o Ex. 5r· 
Problemas i 
i ·-
5.1. Suponha que X seja uniformemente distribuída sobre ( -1, 1). Seja 
Y = 4 .- X 2• Achar a fdp de Y, g(y), e fazer seu : gráfico. Verifiq)Í'e t.à.mbém 
que g(y) é a fdp adequada. 
1 
I 
5.2. Suponha que X ·seja. uniformemente distribuída sobre (1, 3). Ache 
a fdp dll.'l seguintes variáveis aleatórill.'l! 
(a) Y = 3X ~ 4, (b) i Z =eX. 
Verifique em cada ca.so que a função obtida é a fdp. Esboce os gráficos. 
I 
I 
I 
108 I PROBAIBHUIDAOE 
5.3. Suponha que "' variável aleatória contínua X tenha fdp j(x) "" e...,, 
z > O. Ache a fdp das seguintes variá.veis aleatórias: 
(a) Y "" X 3, (b) Z "" 3/(X + 1)2• 
5.4. Suponha que a variável aleatória discreta X tome os valores 1, 2 e 3 
com igual probabilidade. Ache a distribuição de probabilidade de Y "" 2X + 3. 
5.5. Suponha que X seja uniformemente distribuída sobre o intervalo (O, 1). 
Ache a fdp das seguintes variáveis aleatórias: 
(a) Y "" X2 + 1, (b) Z "" 1/(X + 1). 
5.6. Suponha que X seja uniformemente distribuída sobre ( -1, 1). Ache 
m fdp das seguintes variáveis. aleatórias: ' 
(a) Y = sen (7r/2)X, (b) Z = cos (7r/2)X, (c) W = IX!. 
5.7. Suponha que o raio de uma esfera seja uma variá.vel aleatória contínua. 
(Em virtude de imprecisões do processo de fabricação, os raios das diferentes es-
feras podem ser diferentes.) Suponha que o raio R tenha fdp j(r) = 6r(1 - r), 
O < r < 1. Ache a fd;p do volume V e da IM-ea suJllflrlicial S da esfera. 
5.3~ Uma corrente elétrica oscilante I pode ser considerada como uma va-
riável aleatória uniformemente distribuída sobre o intervalo (9, 11). Se essa 
corrente passar em um resistor de 2 ohms, qual será a fdp da potência P = 2P? 
5.9. A velocidade de uma molécula em um gás uniforme. em equilíbrio é 
uma variá.vel aleatória V cuja fdp é dada por 
j(v) = wP e-b••, v> o; 
onde b = mf2kT e. k, T e m denotam respectivamente a constante de Boltzman; 
a temperat~a absoluta e a massa da molécula. . 
(a) Calcular a constante a (em termos de b). [Sugesldo: Considere o fato 
de que J;"" e-z• dx -"" v;;2 e integre por partes.) 
(b) Estabeleça a distribuição da variá.vel aleatória W ""mV2/2, a qual re-
presenta a energia cinética d_a molécula. 
5.10. A tensão elétrica aleatória X é uniformemente distribuída sobre o 
intervalo (!- k, k) . . Se Y for a entrada de um dispositivo não~linear, com as carac-
terísticas indicadas na Fig. 5.12, ache a distribuiçãode probabilidade de Y, nos 
três casos seguintes: (a) k < a, (b) a < k < xo, (c) k > xo. 
y 
Fng. s.12 
Comentário: A distribuição de probabilidade de Y constitui um exemplo 
de uma distribuição mista. Y toma o valor zero com probabilidade não-nula 0 
também toma todos os valores em certos, intervalos. (Veja a Seç. 4.6.) 
. , 
I 
I 
( " f Ui\lÇÕIES DIE VA!RiÃVIEiS A LIEATÓ!RiAS I 109 
5. 11 . A energia radiante (em Btu/hora/pé2 ) é dada p.ela seguinte função da 
t emperatura T (em escala Fahrenheit): E = 0,173 (T/100)4 • Suponha que a 
temperatura T seja considerada uma variável aleatória contínua como fdp 
J.(l) 
O, pl!.i'e. outros quawquer vll!lorea. 
Estabeleça a fdp da energia radiante· E. 
t\~ Para medir velocidades do ar, utiliza-se um tubo (conhecido como 
tubo estático de Pitot), o qual permite que se meça a pressão diferencial. Esta 
pressão diferencial é dada por P = (1/2) dV 2 , onde d é a densidade do ar e V é a 
velocidade do vento (mph) . Achar a fdp deP, quando V for uma variável aleatória 
uniform~mente distribuída sobre (10, 20) . · 
~W~\Suponha que P(X .;; 0,29) = 0,75, onde X é uma variável aleatória 
contín\1-'lJ?lcom alguma distribuição definida sobre (0, 1) . Quando Y = 1 - X, 
determinar k de modo queP(Y .;; k) = 0,25 . 
[ 
I 
f 
r 
·1 
I 
____) .. · 
I 
Variáveis Aleatórias de Duas ou 
Mais Dimensões 
· Capítulo 6 
6.1. Variáveis Aleatórias Bidimensionais 
Até aqui, em nosso estudo de variáveis aleatórias, consideramos 
apenas o caso unidimensional. .Jsto é, o resultado do experimento 
seria registrado como um único número x. 
· ·-·,:.;1;~~~~=~;~z~;;:r~:B~·*· -;(~fiít1rceã;:;:.~a~:!~::"!-~:~ 
a dureza H e a tensão de -;~ptu;~· T de uma peça manufaturada de 
aço poderão interessar, e nós consideraríamos (h, t) como um único 
resultado experimental. Poderíamos estudar a estatura H e o peso w ·'. 
de alguma pessoa escolhida, o que forneceria o resultado (h, w). Fi-
nalmente poderíamos observar a altura total da chuva R e a tempera-
tura T em uma certa localidade, durante um mês especificado, dando 
origem ao resultado (r, t). 
Faremos a seguinte definição formal. 
Definição. Sejam & um experimento e S um espaço amostral 
s 
X 
y 
Fig. 6.1 
associado a &. Sejam X = X(s) e Y = Y(s) duas funções, cada uma 
associando um l!Úmero real a cada resultado s E S (Fig. 6.1). ~~ 
- I -
VAR IA VEIS ACE"ATORIAS DU~S OUIVIA1S IJIMENSOES I 111 
como no caso não estaremos interessados 
na natureza funcional de X(s) e Y(s), nos valores que X e Y tomam. Tam-
bém falaremos do contradomínio de Y), a .saber Rxx y, como o conjúnto de 
todos os valores possíveis de (X, Y). caso bidimensional, por exemplo, o con-
tradomínio de (X, Y) será um subconjunto do plano euclidiano. C.ada resultado 
. I . 
X(s) , Y(s) pod,erá ~er represent~do conto u~ po!lto (~, y) no plano. Tam~ém 
supriremos a natureza funcional de X e Y, ao escrevermos, por exemplo, P [X 2 a, 
y 2 b] em lugar de P[X(s) 2 a, Y(s) 21 b]. · . . 
Tal como . no caso unidimensional, distinguiremos dois tipos básicos de va-
riáveis aleatórias: as variáveis aleatórirul discretas e as contínuas. . I I 
. Definição.·ex, Y) será uma !variável aleatória discreta bidimen-
sional se os valores possíveis de (X, Y) forem finitos ou infinitos nu-
meráveis. Isto é, os valqres pos~íveis de (X, Y) poséam ser repre-
~entados por (x;, Yi), i~\1,2, -[- .,n, .. . ; J= 1,2, , .. ,m .. . , 
(X, Y) será . uma variável aleatória contínua bidimensional se 
(X, Y) puder tomar .todos os vai6res em algum conjuhto não-nume-
rável do plano euclidiano. [Por rxemplo, se (X, Y) t~m-ar todos os 
valores no retângulo { (x; y) I a ~ x ~ b, c ~ y :s; d} ou todos os 
valores no círculo { (x, y) I x2 + y2 1~ 1), poderemos diier que (X, Y) 
é un:;a variável aleatórià bidimen~ional contí~uaJ 
Comentários: (a) Falando não ri~orosainente, (X, Y) . será uma variável 
aleatória bidimensional se ela representat o resultado de um experimento aleatório 
no qual tenhamos medido os dois caractehsticos numéricos X e Y .. 
(b) Pode acontecer que um dos 9omponentes_ de (X, Y), por exemplo X, 
seja discreto, enquanto o outro seja conrínuq. No entanto, em muitas aplicações 
trataremos somente com os casos apresFntadcis acima, · nos quais ·ambos os com-
ponentes serão discretos ou ambos serão contínuos. · 
(c) Em muitas situações as duas v~riáveis X e Y, quando considera.das con-
juntamente, constituirão de maneira m~ito natural o· resultado de um único ex-
perimento, como se · ilustrou nos exem~los acima. Por. exemplo, X e Y podem 
representar a estatura e o peso do mesbo indivíduo etc. Contudo, esta espécÍe 
de conexão não existe necessariamente.! Por exemplo, X poderá ser a corrente 
que passe em um circuito em dado moxfento, enquanto Y poderá spr a tempera-
tura da sala naquele momento, 1e podetemos considerar, então, a variável ale.a'tó-.. 
ria bidimensional (X, Y). Em quase to'das as aplicações existe Ullia razão bas-
tante. definida para . considerar X e Y cdnjuntamente. · 
Procederemos de modo análo,go ao 
1
1caso unidimei,~Sional ao expor a distribui-
ção de probabilidade de (X, Y). ' 
112 I PROBABILIDADE 
. . 
Definição. (a) Seja (X, Y) uma variável alea:tória discreta bi-
'dimensional. A cada resultado possível (x.;, y;) aSsociaremos um 
número p(x;1 y;) representando P(X = x;, Y = y;) , e satiSfazendo às 
seguintes condições: _ · . . _ ,...;-)~ 
(1) p(x;, y;) ~ O para todo (x, y), . .- .í~ ~ 
(2) ., ., ~C-D .o u (6.1)/l \ L L p(x;, Yi) = 1. . . ) . \ \...-- \ !'i, ' o c:L.( 
i=l i=l · ~ . - ~""jj(90~ir {JtAO..:;- . 
· A função p definida para todo (x;, yj) ·no coutradominio de 
(X, Y) é denominada a junçãÓ de probabilidade de (X, Y), · O ' con-
junto dos ternos [x;, y;, p(x;, Yi)], i, j = 1, 2, ... é, algumas vezes; 
denominado distribuição de probabilidade de (X, Y). 
(b) Seja (X, Y) uma variável aleatória contíJ:lua tomando todos 
os valores em alguma região R do plan~ . e\:iclidiano. A junção densi-
dade de probabilidade con}unta j é ui:na função que satisfaz às seguintes 
condições: · . ~ p 
(3) j(x, y) ~ O para todo (x, y) E R cfÚ 
(4) jjJ(x, y) dx dy = l. .___--
(6.2) 
R 
Comentários: (a) A analogia . com a distribuição de massa é também . aqui 
evidente. l'emos uma massa unitária distribuída sobre uma região no plano. No 
caso discreto, toda a massa estil. concentrada em um. número finito ou infinitQ · 
munerável de lugares 6om mruisa p(x;, Yi) situada em (~, y;). No caso. ccintíiluo, 
a massa é encontrada em todos · os pontos de algum conjunto não-Jiuinerável; no 
plano. · · . 
(b) A condição (4) afirma que o volume total sob a superfície dada pela equa-
ção z = j(x, y) é igual a 1. 
(c) Como no caso unidimensional, j(x, y) não representa a probábilidade de. 
coisa alguma. Contudo, para Ax positivo e Ay _suficienteinente pequeno, j(x, y) 
Ax Ay é aproriroadamente igual a P(x :S. X_::: x + Ax; y :S. Y :S. y + Ay). 
(d) Como no caso unidimensional, adotaremos a convenção de que j (x, y) = O 
se (x, y) EE R. Por isso, poderemos considerar j definida para todo (x, y) no plano 
e a condição (4) acima se torna f_+.,"' J_+.,"' j(x, y) dx dy = 1. 
(e) Também suprimiremos a naturtf;a funcional da variável aleatória bidi-
mensional (X, Y). Nós deveríamos sempre escrever ·expressões da forma P (X(s) = 
=· x;, Y(s) = Yil etc. No entanto, se nossa notação abJ:eviada for compreendida, 
nenhuma dificuldade deve~á ~urgir. 
W Também, como no caso unidimensional, a. distribuição de probabilidade 
de (X, Y) é realmente induzida pela. probabilidade dos eventos associados ao ~ 
. paço amostral original S. Contudo, estaremos interesSados principalmente nos 
valores de (X, Y) e, por isso, trataremos diretamenre com o coritradomínio de 
(X, Y). Não obstante, o leitor não deverá p.erder de vista o fato de que se P(A) 
I 
~ 
r 
I 
! 
I 
,. ! 
. I 
1 
i 
1 
"! 
i 
I 
v 
I 
i 
J 
'l 
.I 
' I 
I 
i 
:1 
. I 
I 
I 
j 
VARIÁVEiS ALEATÓRiAS DE DUAS OU MAOS DIMENSÕES I 113 
for especificado para todos os eventos A C S, então a probabilidade associada aos 
eventos no contradomínio de (X, Y) ficará determinada. Isto é, se B estiver no 
contradomínio de (X, Y), teremos 
P(B) = P{[X(s), Y(s)] E B} = P{si[X(s), Y(s)] E B}. 
Esta última probabilidade se refere a um evento em S e, conseqüentemente, de-
termina a probab.ilidade de B. De acordo com nossa terminologia anterior, B e 
(si(X(s), Y(s)] E Bl são eventos equivalentes (Fig. 6.2). . 
Fig. 6.2 
Se B estiver no contradomínio de (X, Y), teremos 
P(B) = LL p(x;, Yj), 
B 
(8.3) 
~ (X, Y) for discreta, na qual a soma é feita para todos os índices (1:, })' para os 
quais (x;, y;) E B. E 
s.e (X, Y) for contínua. 
P(B) = Jf j(x, y) dr dy, 
B 
(6.4) 
EXim!plo 6.1. Duas linhas de produÇão fabricam um certo tipo 
de peça. Suponha que .a capacidade (em qualquer dia) seja 5 peças 
nà. linha I e 3 peças .na linha II. Admita que o número de peças 
realmente produzidas em qualquer lill;ha seja uma variável aleató-
ria, e que (X, Y) represente a variável aleatória bidimensional quê 
fornece o número de peças produzidas Pela. linha I e a linha II, res-
pectivamente. A Tab. 6.1 dá a distribuição de probabilidade êon-
junta de (X, Y). Cada casa representa 
p(x;1 y;) = P(X = x;, Y = y;). 
Assim, p(2, 3) = P(X = 2, Y = 3) = 0,04 etc. Port:J.nto, se B for 
definido' como 
B = { l\fais peças são produzidas pela linha I que pela linha II l. 
encontraremos q)le 
P(B) = 0,01 + 0,03 + 0,05 + 0,07 + 0,09 + 0,04 + 0,05 + 0,06 
+ 0,08 + 0,05 + 0,05 + 0,06 + 0,06 + 0,05 = 0,75. 
114 I .P.ROBABI,LID.ADE 
o 1 3 I 4 5 
o o 0,01 0,03 0,05 0,07 0,09 
1 0,01 0,02. 0,04 0,05 0,06 0,08 
~ 
0,01 0,03 (o05 0,05 0,05 0,06 0,01 0,02 ~ 0,00 0,()6 0,05 
. ' ,. 
Exemplo 6.2. Suponha que um fabricante de lâmpadM esteja 
interessado no número de lâmpadas encome~dadas a ele durante os 
meses de janeiro e fevereiro . . Sejam X e Y, respectiv!i.mente, o nú-
mero de lâmpadM encomendadas durante esses dois meses. Admi-
tiremos que (X, Y) seja uma variável . aleatória contínua bidimensio-
nal, com a seguinte fdp conjunta (veja Fig. 6.3): 
.-.'::. 
' ' .-'-- . ) . . . 
j(x, y) ~-~-\se 5.000 ::; x ::; 10.000 e .4.000 ::; y::; 9.000, 
= O · )para quaisquer outros valores. 
y 
-r------+-------~-----x 
x=5000 X= 10.000 
!Fig. 6.3 
Para determinar c, levaremos em conta o fato de que 
J
+~ f+~ 
_.. _.. j(x, y) dx dy = 1. 
.... 
Por conseguinte, 
f_+ a> ;· +., 19,000 110.000 , ·. I j(x, y) dx dy = · f(x, y) dx dy = é[5.000]!. .. - ., 4.1100 5.00ll 
·r 
·l 
I 
I 
I 
I r 
I 
i ,. 
I 
ll 
!' 
'I .. 
- ~ 
I ,, 
'I' 
I' 
I 
i_ 
I 
I 
l 
I 
T 
-J 
I 
I 
V~I'!I~VEIS ALEATÓRIAS,, DE DUAS' OU MAIS Dli\I!ENSÕ~7,_1 1fs) f 
'l~:::~nal?/, .. ,.? ,, __ ,, -<~'c ;Jl,, .~ ,,-, ,...,, '1 '·). , 
,....-r .-;r-t;;/ ??·~/. )"l.,_, .. ,· s· i!'" 't !( . -"'~::s~ ..,'J.b_,~ f·'~f\ \< 1:...."'-:\Q, •. :/r:J c~· ..... t) 
Assirrr; -:~_:_,.(5~)?·-- Daí, se ~ ~ {X~ Yj, teremos 
l_ ' 1 1.9.00p J.ll 
P(B) = 1 - ··c ooo)2 _:. I ax ay 
{5. / 5.000 5.000 ~ 
1 - ·- (~~~~) 2 J.:J00 [y- 5.ÓOOJ dy = . -~~ · . ~-
1 -
Comentário: No Ex. 6-2, X e Y Jdevem, evidentemente, ser inteiras, porque 
não podemos encomendar um númerofracionário de. lâmpadas! No entanto, es-
tamos novamente tratando com uma situação idealizada, na qual permitimos que 
X tome todos os valores entre 5.000 e/10.000 (inclusive). 
Exemplo 6.3. Suponhamos J que a var~ável aleatória contínua 
bidimensional (X, Y) tenha fdp Çonjunta dada por 
xy / 
f(x, y) = x2 + 3 , lo~ x ~ 1, O~ y ~ 2, 
= O para quais
1
quer outros valores. 
.f_+m Ir+"' Para verificar que - m i-., j(x, y) dx dy = I: 
1:· [" f(x,y)~dy ~ A' J:' ( x' +i )a~ dy 
. = /i2 ~ + x2y 1"'=1 dy ; 
}~ 3 6, x=O 
= - + .Jf._ dy = - y + JL !J
2 
( 1 ) 1 21
2 
I 3 6 3 12 Q 
21 4 ' 
. . = 3 1+ 12 = 1. 
· Seja B ·=- {X-.; :Y'~ .i }. (Veik a Fig. 6.4.) . Deveremos calcular 
' __ , - ' ' - . 
P(B) pela avaliação de' 1- P(Bf, on~e B ={X+ 'Y < 1'}. Portanto, 
P(B) ~ 1 1,- [l~~(x'+ ';)~y~ 
. I. . o . ,o 
y 
=II -.. ç [ x2(J - x) + x(l; x)2 J dx 
I )à . I 
' 7 ·65 
= ;1 - 72 = 72. 
i ' 
Ao dstudar variáveis aleatórias unidimen-
\:-----"--x I . 
sionais, '{imos que F,' a função de distribuição 
acumulada, representava imp6rtante papel. No 
! ' 
Fig. 6.4 
116 I PROBABILIDADE 
.. {aso bidirnensionai, também · defínirnos urna função acumulada, dll> 
seguinte maneira: 
Definição. Seja (X, Y) uma variável aleatória bidimensional. 
A função de distribuição acumulada (fd) F da variável aleatória bi-
dimensional (X, Y) é definida por 
F(x, y) = P(X ~x, Y ~ y). 
Comentário: F é uma função de duas. variáveis e tem múitas propriedades 
I!!.Ilálogas àquelas expostas. para a fd unidimensional. (Veja Seç. 4.5.) Menciona,.. 
remos somente a seguinte propriedade importante: 
Se F for a fd de uma variável aleatória bidimensional com fdp j, então 
I 
a2F(x, y)fax ay = j(x, y) 
sempre que F for derivável. Este resultado é análogo ao Teor. 4.4, no qual pro-
vamos que (d/dx)F(x) = j(x), onde j é a fdp da variável aleatória unidímerisional X. 
6.2. ·Distribuições de Probabilidade Marginal .e Condi-
cionada .. . ' 
A cada variável aleatória bidimensional (X, Y) associamos duas 
. . ' 
variáveis aleatórias unidirncnsionais, a saber X e Y, individualmente. 
Isto é, poderemos· estar interessados na distribuição de probabilidade 
de X ou na distribuição de probabilidade de · Y:' 
Exemplo 6.4. Vamos . novamente considerar o Ex. 6.1. Em 
complementação às casas -da Tab. 6.1, vamos ta~bérn calcular os 
totais "marginais", isto é, a sorna das 6 colunas e 4 linhas da -tabola .. 
(Veja Tab. 6.2.) 
As probabilidades que aparecem nas margens, linha e coluna, 
representam a distribuição de probabilidade de Y e de X, respecti-
vamente. Por exemplo, P(Y = 1) = 0,26, P(X = 3) = 0,21 · etc. 
Em virtude da forma de apresentação da Tab. 6.2, aludiremos, de 
modo muito usual, à distribuição marginal de X ou à distribuição 
marginal de Y, sempre que tivermos uma variável aleatória bidimeri~ 
sional (X, Y), quer discreta, quer contínua. 
o 1 
o ,'oJ 0,01 
1 0,01 0,02 
2 0,01 0,03 
3 0,01 0,02 
Soma ' I' o;õl) I 0,08 ' 
Tab. 6.2 
2 
0,03 
0,04 
o 05 
o:o4 
0,16 
3 
o,os 
O,On 
0,05 
0,.06 
0,21 
4 5 Soma 
o 07 ,. 0,09 0,2.5 
o:o6 o,os o,2o 
0,0:> 0,06 0,2.i 
0,06 0,05 0,24 
0,24 1 0,2-i ,-1,00-
í 
;j 
~ 
! 
I 
I 
J 
I 
' ,. I 
J 
! 
I 
I 
.) 
VARIÁVEIS A LEATÓRIAS DE DUAS OU MAIS DIMENSÕES I 117 
No caso discreto, procederemos assim: Desde que X = x; deve 
ocorrer junto com Y = Yi para algum i e pode ocorrer com Y = Yi 
somente para um j , teremos 
p(x;) = P(X = x;) = P(X = x;, Y = Y1 ou ~ = x;, Y = Y2 ou · ' · ) 
= t p(x;, Yi) ·, 
Je=l ,.-
A função p definida para x1, x2, . . . , representa à distribuição de pro-
babilidade marginal de X. Analogamente definimos q(yi) = P(Y = 
-~ Yi) = Li:l p(x;, Yi) como a distribuição de probabilidade marginal 
de Y. 
No caso contínuo, procederemos do segrnnte modo: Seja f a fdp 
conjunta da variável aleatória bidimensional continua (X, Y). Defi-
niremos :g e · h, respectivamente as junções densidade de probabilidade 
marginal de X e de Y, assim: 
! +"' ' g(x) = "' f(x, y) dy; 
Essas fdp correspondem às fdp básicas das variáveis aleatórias uni-
dimensionais X e Y, respectivamente. Por exemplo 
., 
P(c:::::; X::::; r1) .= P[c:::::; X:::::; d,- ."" < Y < oo] 
. = f J: "'I f(x, y) dy dx 
= _jd g(x) dx. 
Exemplo 6.5. Dois característicos do desempenho do motor de 
um foguete são o empuxo X e a taxa de mistura Y. Suponha-se que 
(X,' Y) seja uma variável aleatória contínua bidimensional com fdp 
conj~ta: . 
j(x, y) = 2(x + y - 2xy), O ::=::; x ::=::; 1, O _:::; y ::=::; 1, 
= 0,.· para quaisquer outros valores. 
(As unidades foram escolhidas de modo a empregú valores entre O 
e 1.) A fdp marginal de X é dada por 
g(x) = {
1 
2(x + y- 2xy)dy 2(xy + y2/2- xy2)jÕ }o , 
1, ' 0:::::; X :::::; ,1. 
Quer dizer, X é uniformemente distribmda sobre [0, 1]. 
< .. 
118 I PROBABILIDADE 
A fdp marginal de Y é dada por 
h(y) = 11 2(x + y - 2xy) dx = 'l.(z2/2 + xy - z~y)jà 
= 1, O::;; y::;; L 
Portanto, Y é também uniformemente distribuída sobre [0, ll. 
Definição. Dizemos .que a . variável aleatória oontíi:ma bidinien~ 
sional é uniformemente distribuída sobre a região R do piano euclidiano 
quando · 1 · 
para (x, y) E R, · f(x, y) = cte 
o para qualquer outra região. 
Em virtude da condição f_+,"" f_+,"" f(x, y) dx dy = 1, a defini-
ção acima acarreta que a constante será igual a l/área (R). Estamos 
supondo que R seja uma região com área finita, nã.o nula .. 
Comentário: ÉÍlsa definição represe.nt& o .análogO bidimensional da variável 
aleatória UIÚdimensional dístr\buida uniformemente .. 
Exemplo 6.6. Suponhamos que a variável aleatória (X, Y) seja 
uniformemente distribuúla sobre a região sombreada R indiçada na 
Fig. 6.5. Portanto, 
1 
f(x, y) = área (R) ' (x, y) E R. 
Encontraremos que 
. 1 1
1 . 
área (R) = (x- x1) dx = 6· 
Logo, a fdp será dada por 
f(x, y) = 6, 
=o, 
(x, y) E R, 
(x, y) EE R. 
y 
Fig. 6.5 
Encontraremos as fdp marginais de X e Y, pelas seguintes expressões: 
g(x) = 1:"" f(x, y) dy = 1" 6 dy = 6(x - x 2), " O ::;; x ::;; 1; 
h(y) = /:'" f(x, y) dx = l..Jíi 6 dx = 6(yy- y), O~ y ~1. 
Os gráficos dessas fdp estão esboçados na Fig. 6.6. 
I. 
1-
! 
."I 
-i· 
I 
I 
•t 
'· 
I 
I 
g(x) h(_r) 
X=~ (I, O) (I , O) 
(a) (b) 
(6.5) 
' I 
I 
ii 
T2() I P.ROBA!31L'IDADE:. 
A ftip de X condicionada a uin dado Y = y é definida por 
g(x I y) = J(x, y) 
h(y) ' 
h(y) >o. 
A fdp ·de Y condicionada a um dado X = x é definida por 
h(y I x) = -j(x, y) 
g(x) ' 
g(x) >O. 
(6.7) 
(6.8) 
C~rics: (a) AB fdp condicionadas, acima, satisfazem a todas as condi-
!jOOS impostas para uma fdp unidimensional. Deste modo, para y fixado, nós 
teremos g(xiy) ~ O e 
!+~ 1· +~ jx 1 !+= h(y) , ·· g(xiy)dx = ~(' y)) dx = --,;--( ) j(x, y) dx = h[) = 1. ~ -<D . y y _, . y 
Um cálculo análogo pode ser feito para h(y lx). Dar; as Eqs. (6.7) e (6.8) definirem 
fdp em Rx e Ry; respectivamente. 
(b) Uma interpretação intuitiva de g(xiy) é obtida se considerarmos a su-
perfície representada pela fdp conjunta j cortada ·pelo plano y = c, por exemplo. 
A interseção do plano com a superfície z = j(x, y) determinará uma fdp unidimen-
sional, a saber a fdp de X para Y = c. Isto será justamente g(x I c). 
(c) Suponhamos que (X, Y) represente a estatura :e o peso de uma pessoa, 
respectivamente. Sejam j a fdp conjunta de (X, Y) e g a fdp marginal de X (sem 
lev!M' em conta Y). Portanto, fs.~· g(x) dx representaria a probabilidade do evento 
15,8 .::':X.::': 6) sem considerar o peso Y. E fs.~· g(x 1150) dx seria interprets,da 
como P(5;8 .::': X.::': 61 Y = 150). Estiitainente falando, esta probabilidade c~n­
dicionada não é definida, tendo em vista nossa convenção já feita para a proba-
bilidade condicionada, porque F(Y = 150) = O. Contudo, apenas empregamos 
a integral acima para definir essa probabilidade. .Certamente, em base intuitiva, 
este deve ser o significado desse número. 
Exemplo 6.8. Com refer~ncia ao Ex. 6.3, teremos 
g(x) = (
2 (x2 + xy) dy = 2x2 + _!_ x, 
· ~o 3 3. 
1
1 
( xy) ·y 1 h(y) = x 2 + - dx = - + - · 
3 6 3 
Portanto,x2+ :x;y/3 _ 6x2 + 2xy 
{?(xjy) = 1/3.+ y/6 - 2 + y 0 :::; X :::; 1, 0 :::; y :::; 2; 
h(ylx)= x
2
+xyf3 
2x2 + 2/3(x) 
3x2 + xy 3x+ y 
6x2 + 2x = 6x + 2 ' 
0 S y :::; 2, · 0 :::; X :::; 1. 
.i 
( 
: 
. : 
VAIFUÁVE!S AlEATÓAHAS DE DUAS OU MAIS DBMENSÕES I 12~ 
Para verificar que g(x I y) é uma fqp, teremos 
(1 Gx2 + 2xy dx -- 2 + y -- 1 J 0 2 + Y . 2 + Y para todo y. 
Um cálculo semelhante pode ser feito para h(y I x). 
6~3. Vatriáiveh~ A!earl:ória~ ! ndependent®s 
Exatamente da maneira pela qual definimos o conceito de inde-
pendência de dois eventos, A e B, agora definiremos variáveis aleató-
rias independentes. Intuitivamente, pretenderemos dizer que X e Y 
são variáveis aleatórias independentes quando o resultado de X, por 
exemplo, de modo algum influenciar o resultado de Y. Esta é uma 
noção extremamente importante e existem numerosas situações em 
que tal suposição é válida. 
Exemplo· 6.9. Consideremos duas fontes de material radioativo, 
a algUma distância uma da outra, as quais estão einitindo partículas a. 
Suponhamos que essas duas fontes sejam observadas durante um 
período de duas horas e o número de partículas emitidas seja regis-
trado. Admitamos que se esteja interessado nas seguintes variáveis 
aleatórias: XI e x2, respectivamente o número de partículas emitidas 
pela primeira fonte durante a primeira e a segunda horas; e Yi e Y~, 
o número de partículas emitidas pela segunda fonte durante. a pri-
meira e a segunda horas, respectivamente. Parece intuitivamente 
óbvio que {X1e Y1), ou (XI e Y2'), ou (X2e Y1) ou (X2e Y2) sejamtodoa 
os pares de variáveis aleatórias independentes; porque os Xi de~n­
dem somente das caracteristicas da fonte 1, enquanto os Yj dependem 
apenas das características da fonte 2, e não existe preaumivelmente 
motivo para supor que as duas fontes influenciem, de qualquer modo, 
o comportamento uma d~~, outra. Quando consideramos a possível 
independência de X 1 e X ll; no entanto, a questão não é assim tão 
nítida, Sem o mí.mero de partículas emitidas durante a segunda 
hora influenciado pelo número das que tenham sido emitidas durante 
& prim.eirn hora T Para responder a essa pergunta, deveremos obter 
informação adicional sobre o processo de emissão. Não poderíamos 
certamente supor, a priori, que X1 e X2 sejam independentes. 
V amos agorn tomar esa& noção intuitiva de independência mais 
precisa. 
Definição. (a) Seja (X, Y) uma variável a}e~~,t6ria discreta bidi-
mensional. Diremos que X e Y são variáveis ale'at6rias independentoo 
se, e somente se, p(x., Yi) = p(Xi.)q(yi) para quaisquer i e}. !ato é, 
P(X = x;, Y = y;) =P (X = x;) P(Y = y;) pandodo i e j. 
i!! 
l:l 
li!. 122 I PROBABIUDADE 
(b) Seja. (X, Y) uma variável aleatória. contínua bidimensional. 
Ji Diremos que X e Y são variá.veis aleatórias. independentes se, e so-
il mente se, j(x, y) = g(x)h(y) para todo (x, y), o~de f é a fdp conjunta, 
1: e g e h são as fdp marginais de X e Y, respectiv~mente. 
li; 
r' Co171e1!Urio: Se compararmos a defini~8o acima .com aquela. dada para wenws 
1
.1
1 
independentes, a seiuelliança fica eviden:estamos .essencie.Imente exigi!'ido que 
a probabilidade conj'unta (ou édp conjunta) possa ser fato;ada. O teorema se-
III guinte indica que a definiÇão acima é equivalente a outra maneira. de tratar o as-
!jl sunto, que poderíamos ter adotado. 
~ 
!~I Teorema 6.1. (a) Seja (X, Y) uma variável aleatória. discreta 
i\; .. bidimensional. Nesse cas. o, X e Y serão independentes se, e. so. me. n. te 
jl se, p(x; I y;) = p(x.) para todo i e j [ou, o que é. equivalente se, e somente 
~ se, q(y; I x.) = q(y;) para todo i e j]. · 
~· (b) Seja (X, Y) uma variável aleatória contínua bidimensional. ~. 
Nesse caso, X e Y serão independentes se, e somente se, g(xjy) = 
= g(x), ou equivalentemente, se e somente se,.h(y!x) =· h(y)1 para 
todo (x, y). 
Demonstração: Veja Probl. 6.10. 
Exemplo 6.10. Suponhamos que uma máquina.. ) seja utilizada 
para determinada . tarefa durante a manhã e para ·uma tarefa dife-
rente durante ·a tarde. Representemos por X e Y, respectivamente, 
o número de vezes que a máquina. pára por desarranjo de manhã e à 
tarde. A Tab. 6;3 dá a distribuição de probabilidadé conjunta ' de 
(X, Y). . 
Um cálculo fácil mostra que, para todas as casas 'da. Tab. 6.3, 
teremos 
p(x;, y;) = !P(X;)q(y;). 
Portanto, X e Y são variáveis aleatórias independentes. (Veja também o 
Ex. 3.7, para comparação.) 
Tab. 6.3 
~ o 1 2 q(y1) 
o 0,1 0,2 0,2 .... 0,5 
1 0,04 0,08 0,08 0,2 
2 O,OG 0,12 . 0,12 0,3 
p(x;) 0;2 0,4 . 0,4 1,0 
·, 
::·. 
) 
VARIÁVEIS ALEATÓRIAS! D-i:. DUAS Ol!.JMAIS DIMEi\I~ÕES I 123" 
I 
Exemplo 6.11. Sejam X e r a duração da vida ·de dois disposi-
tivos eletrônicos. Suponha-se que sua fdp conjunta seja dada por 
I 
j(x, y) = e-<"'+1>, x :2: O, y :2: O. 
. . I 
Desde que podemos fatorarj(x, '!)) = e-e-:-'11, a independência de X e 
Y fica estabelecida. I 
I . 
Exemplo 6.12. Suponha-se que j(x, y) 
= 8xy,j O ~ x ~ y ~ 1. (Q domínio é in-
dicado I pela região1 sombreada na Fig. 6.7). 
Muito !embora j seja (já) escrita na forma 
fatorada, X e Y não são independentes, já 
que o campo de definição t (x, y) 1 o ~ ~ ~ 
~ y ~ ~ 1) é tal que para dado x, y pode to-
"-------!'-----Jt mar soinente valores maiores do que aquele 
dado J! e menores ' que 1. Por isso, X e Y 
Fl·g 6 7 ~ - I · d d · t · · nao saç> m epen en es. 
! 
I . 
Comentário: Da definição de distribuição de probabilidade margiri.al (quer 
no caso discreto, quer no caso contínJo) torna-se evidente que a distribuição de 
. I 
probabilidade conjunta determina, uniyocamente, a distribuição de probabilidade 
Úlarginat Isto é, do conhecimento df fdp conjuntá j, poderemos obter as fdp 
marginais g e h. No entanto, 1J. rec!ptoca nAo é verdadeira! De fato, em geral, 
o conhecimento das fdp marginais g e 'hl não determina a fdp conjunta j. Somente ·-
qUji.Ildo X e Y forem independentes issô será verdadeiro, porque nesse caso teremos . I 
f(x, y) = g(x)h(y). i · · · . 
O teorema séguinte mostra que nossa definição de variáveis alea-
t6ri8.'3 independentes é coerente cbm nossa d~fi~ção anterior de even-
1 . 
tos independentes. 
! 
Teorema 6.2. Seja (X, Y) Jma variável aleatória bidimensional. 
Sej.am A e B eventos cuja ocorrência (ou não ocorrência) dependa 
apenas de X e Y, respectivamente. (Isto é, A é um-subconjunto---de 
. ! . . . 
Rx, : o contradomínio d~ __ X; enq~anto B--é um subconjunto de RY, o 
contradomínio de Y.) ;ElJ.tão, sf X e Y forem variáveis aleatórias 
independentes, teremos · P(A"() B) ._= P(A)P(B). .. . .. 
'-... ' ·. 
Demonstração (apen8.'3 para o c8.'3o contínuo): 
t· ··- - .. . ~ I - . 
P(A n B) = ff j(x,_y)! dx dy = }! g(x)h(y) dx dy 
4nB : A..nB~ 
I 
= f g(x) dx_r h(y) dy = P(A)P(B) . . }A 'JB I 
IIi 
i'' ,!1 
'•I 
il' 
ii 
I r 
I' 
I 
I 
I 
I 
I 
I 
r: 
1: 
j; 
I 
·I 
124 I PROBAB8LIDADE 
6,4,. Funções de Variável Aleatória 
Ao definir uma variável aleatória X, salientamos bastante que 
X é uma junção definida a partir do espaço amostral S para os nú-
meros reais. Ao definir uma variável aleatória bidimensional (X, Y) 
estaremos interessados em um par de funções; X = X(s)) Y = Y(s), 
cada uma das quais é definida no espaço amosÚal de algum experi-
mento e associa um número real a todo s ·E S, desse modo fornecendo·. 
o vetar bidimensional [X(s), Y(s).J. ' .. 
Vamos agora considerar Z = H 1(X, Y), uma função de duas 
variáveis aleatórias X e Y. Fica evidente que Z = Z(s) é também 
uma variável aleatória. Consideremos. a: seguinte seqüência de etapaS:· 
(a) Executar o experimento 8 e obter o resultado s. 
(b) Calcular os números X(s) e Y(s). 
(c) Calcular o número Z = H 1[X(s), Y(s)] . 
O valor de Z depende evidentemente de s, o resultado original 
do experimento. Ou seja, Z = Z(s) é . uma função que associa um 
número real Z(s) a todo resultado s E S . Conseqüentemente, Z é 
· uma variável aleatória. Algumas das importantes variáveis .àle·at6-
rias, nas quais estaremos interessados, são: X+ Y, XY, X/Y, 
mín (X,Y), máx (X, Y) etc. 
O problema que resolvemos no capitulo ant~rior, para a variáve,l 
aleatória unidimênsional, surge novamente: dada .a distribuição de 
probabilidade conjunta de (X, Y), qual é a distribuição de probabili-
dade de Z = H 1(X, Y)? (Deve ter ficado evidente, das muitas ex-
planações ante~iores sobre este assunto, que .uma distribuição de pro-
babilidade é induzida em Rz, o espaço amostral de Z.) 
Se (X, Y) for uma variável aleatória discreta, este problema 
estará resolvido bastante facilmente. . Suponha-se que (X, Y) tenha 
a distribuição dada nos Exs. 6.1 e 6.4. As seguintes variáveis alea-
tórias (unidimensionais) poderão interessar à questão : 
U = mín (X, Y) = menor número de peças produzidas · pel~ 
duas linhas; 
V = máx (X, Y) = maior número de peças produzidas pelas 
. duas linhas; 
W = X + Y = número total de peças produzidas pelas· duas 
linhas. 
Para obter a distribuição de · probabilidade de U, procederelflOS 
como se segue. Os válores possíveis de U são: O, 1, 2 .e 3. Para · 
I~ ---~-- · - -~-----------~------~--------------~----------~-----
VARIÁVEIS ALIEATÓRDAS DE DUAS OU MAIS iJIUMIENSÕES I 125 
calcular P(U = O), raciocinaremos que U = O se, e somente se, um, dos 
seguirites ocorrer: X= O, Y =O ou X= O.Y = 1 ou X= O, Y = 2 
ou X = O, Y = 3 ou X = 1, Y = O ou X = 2, Y = O ou X = 3, 
Y = O ou X = ( Y = O ou X= 5, Y = O. Portanto, P(U = O) = 
= 0,28. As outras probabilidades associadas a U podem ser obti-
das de modo semelhante. · Daí, a distribuição de probabilidade de 
U poder ser assim resumida: u: O, 1, 2, 3; P(U = u)-: 0,28, 0,30, 
0,25, 0,17. A distribuição de probabilidade das variáveis aleatórias 
V e W, .como definidas acima, pode ser ·obtida de maneira seme-
lhante. (Veja Probl. 6.9.) 
Se (X; Y) . for uma variável aleatória bidimensional contínua 
e se Z = H 1(X, Y) for uma função contínua de (X, Y), então Z ser~ 
uma variável aleatória contínua (unidimensionai) e o problema de 
achar sua-fdp é um pouco m3i;··c~mpllcado. A fim de resolver este 
problema, precisaremos de um teorema que enunciaremos e expli-
caremos a seguir. Antés de fazê-lo, vamos esboçar resumidamente 
· a idéia fundamental. 
Para procurar a fdp de Z = H 1(X, Y) é freqüentemÉmte mais 
simples introduzir uma segunda variável .. aleatória, por exemplo 
W = H 2(X, Y), e primeiro obter a fdp conjunta de Z e W, digamos 
k(z, w). Com o conhecimento de k(z, w), poderemos então obter a 
fdp de Z desejada, isto é, g(z), pela simples integração de k(z, w) com 
relação a w, ou seja, 
J
+<c> 
g(z) = -m . k(z, w) dw. 
Os problemas restantes .são: (1} como encontrar a fdp conjunta de 
Z e W, e (2) como escolher a variável aleatória apropriada W = 
= H2(X, Y). Para resolver o último problema, devemos dizer que 
geralmente se faz a mais simples escolha possível para W. Nesta 
passagem, W possu! apenas papel intermediário, e não estamos real-
mente interessá:dos nela em si mesma. A fim de encontrar a fdp 
conjunta de Z e W, temos necessidade do Teor. 6.3. 
Teorema 6.3. Suponhamos.que (X, Y) seja umay.ariável :iJeatória 
contínua bidimensional com fdp conjunta j. Seffm Z = H 1(X, Y) 
e W = H2(X, Y), e admitamos que as funções H 1 e H 2 satisfaça~ às 
seguintes condições: 
( ' 
(a) As equações z = HI(x, y) e w = H2(x, y) podem ser univoca-
mente resolvidas para x e y, em termos de z e w, isto é, x == Gi(z, w) · 
e y = G2(z, w). 
.. ! 
'] 
li ;I 
126 l PROBABILIDADE 
(b) As derivadas pareiais éJxfàz, éJxféJU?, ÕyféJz e Õy/Õt~ existem e 
são continua.s. 
Nessa.s circunstâncias, a fdp conjunta de (Z, W), isto é, k(i; tiJ) · 
é dada pela seguinte expressão: k(z, w) = j[G1(z, w), G2(z; te)] I J(z, w) I; 
onde J(z, w) é o seguinte determinante 2 X 2: . 
ax ax 
i)z ·aw 
J(z, w) 
éJy éJy 
é)z aw 
Este detenninan te é denominado o Jacobiano da transformação 
(x, y)--> (z, w) e, ~gumas vezes, é denotado por éJ(x, y)/éJ(z, w) . . Sali-
entamos que k(z, w) será. não-nula para aqueles valores de (z, w) cor-
respondentes a valores de (x, y) para os quais j(x, y) não seja nula. 
y 
(a} z (b) 
Fig. 6.8 
·, 
ComentárÍO$: (a) Muito embora não demonstremos este teorema, indic&-
remos ao menos o que se deseja e onde residem as dificuldades. Consideremos 
a fd conjunta da variável aleatória bidimensional (Z, W), isto é, . ) 
. j'" j' K(z, w) = P(Z ~ z, W ~ w) = _ ~ . _ ~ k(s, I) ds dt, 
na. qual k é a fdp procurada. Como se supõe que a transformação (x, y) _, (z, w) 
seja .biunívoca [veja a hipótese (a), acima], poderemos achar o evento, equivalente 
a {Z 5. z, W ~ wl , em ·termos de X e Y. Suponhamos que este evento seja 
de.notado por C. (Veja. a Fig. 6.8.) Sendo assim, {(X, Y) E C} se, e somente 
se, .IZ ~· z, W ~ w} • Conseqüentemente, 
f ,. f' k(s, t) ds dt = { 1• j(x, y} dx dy ... 
co -co }c· 
Como se admite j conhecida, a integral do segundo membro pode ser calculada. 
O cálculo de suas derivadas em relação a z e w fornecerá a. fdp pedida. Na maior 
pe.rte dos manuais de Cálculo avançado, mostra-se que essas· ~nicas conduzem 
oo resultado, tal como foi enunciado no . teorema. acima.. 
I 
I 
. VAR1ÃVEIS ALEATORIASIDE DUAS ou MAIS DIME~SÕIES I 121 
(b) Observe-se a acentuada semelhança entre o resultado acima e o res)ll-
tado obtido no caso unidimensiop.al, l explicado no· capítulo anterior .. (Veja o 
Teor: 5.1.) A .exigência de monotonicidade para a função y = H(x) é substituída 
pela suposição de que a co~respondênciJ entre (x, y) e (z, w) seja biuruvoca. A con-
diçã~ .de de~va.bilidade é s~b~tit~ída J po~ algumas hipótese~ sobre as der~vadas 
parmrus consideradas. A soluçao f10al jobt1da é, também, mm to semelhante aqqela . 
o:btids. no csso unidimensional: as var,iáveis x e y são simplesmente substituíd:JS 
por ·suas expressões equivalentes em termos de z e ·W, e o valor absoluto de dxfdy 
é substituído pelo .valor· absoluto do J ~cobiano. ' 
· Elemplo 6.13. Suponha-se que esteja-
y 
Fig. 6.9 
mos f~zendo mira em um alvo circular, de 
raio ~tário, que 'tenha sitio colocado de 
modo ~ue sim ce~tro se situe na origem 
. de um I sistema de coordenadas retangulares 
(Fig. 6l9). Admita-se que as coordenadas 
(X, Y) Ido ponto de impacto estejam unifor~ 
ni.eme,te distribuídas sobre o círculo. Isto é, 
J(l' y) = 1/';r, se (x, y) estiver dentro 
(ou . nai circunferência) do ~írculo, 
· . j(l , y) =O, se ,em qualquer outra parte. 
Suponha-se que estejamos inte~ados na variável aleatória R, que 
representa a distância da origem. (Veja : a Fig. · 6.10.) Então, 
R':' V X 2 + Y2• Encontraremys a. fdp de R, digamos . g, assim: 
SeJa <I> = tg:-1 (Y/X). Portanto, X= H 1(R; <I>) e Y = H 2(R, <I>), 
I ' onde x = H1(r, cp) = r cos cp e y = H2(r, cp) = r sen cp. (Estdios 
I apenas introduzindo coordenadas polares.) 
i 
r 
1
1--·---,---------.·(27r, 1} 
"···· I. 
Fig. 6.10 
O jacobiano é 
J= 
ax 
acp cos 1> 
T ;! I sencp 
. I 
= r cos2 cp +r seri2 cp = r. 
. I 
Fig. 6.11 
-r sen cp J 
r cos 4> I 
• <I> 
Pelá transformação acima, o círc~o unitário no plano xy fica trans-
formado no retângulo no plano cfJ,r, na Fig. 6.11. Em conseqüência, 
' · I 
I 
128 I PROBAB!IUDADE 
a fdp conjunta de (<I>, R) será dada por 
r 
g(cp, r) = O::::; r::::; 1, 
11"' 
Portanto, a fdp de R, pedida, e que vamos denÓtar por h; é dada por 
{2"' 
h(r) = }o g(cp, r) dcp = 2r, O::::; r::::; 1. 
Comentário: Este exemplo salienta a importância de obter-se uma represen-
tação precisa da região dos valores possíveis para as novas variáveis · aleatórias 
introduzidas. · 
6.5. rDistribu içãío do !Produto e do Quociente de Variá-
vais Aleatórias: _Independentes_ __ _ 
Dentre as mais importantes funções de X e Y que desejamos 
examinar; estão a soma S = X + Y, o produto W = XY e o quo-
ciente Z = X/Y. Poderemos empregar o método apresentado nesta 
seção para obter a fdp de cada uma dessas variáv~is aleatópas, sob 
condições bastante gerais. 
No Cap. 11, estudaremos a soma de variáveis aleatórias m'l'it'o 
minuciosamente.- Por isso, adiaremos para aquela ocasião o estudo 
da distribuição de probabilidadede X + Y. Consideraremos, en-
tretanto, o produto e o quocl.ente nos dois teoremas seguintes. 
Teorema 6.4. Seja (X, Y) · uma variável aleatória contínua 
bidimensional e admita-se que X e Y sejam independentes; Conse-
qüentemente, afdp jpodeser escritacomoj(x, y) = g(x)h(y) . Façamos 
W ~ XY. 
Nesse caso, a fdp de W, digamos p, é dada por 
p(w) = 1:= g(u)h{:) I ~ I du. (6.9) 
Demonstração: Sejam w = xy e u = x. Portanto, x = u e 
y = wfu. O jacobiano é 
o 
1 
u 
1 
u 
VAFIDÃVIEiS ALEATÓRiAS DE DUAS OU MADS DDMIIEI\!SÕIES I 12!!J 
Dai, a fdp conjunta de W = XY e U = X é 
s(w, u) = g(u)h (:) l ~ I 
A fdp marginal de W será obtida pela integração de s(w, u) em 
relação a u, fornec~ndo o resultado procurado. Os valores de w, 
para os quais p(w} > O, dependerão dos valores de (x, y) para os quais 
j(x, y) >O. · 
Comentário: Para calcular a integral acima, poderemos nos basear no fato 
de ·que 
~ 
Exemplo 6.14. Suponhamos que temos um circuito no qual 
tanto â corrente I como a resistência R variem de algum modo alea-
tório. Particularmente, suponhamos que I e R sejam variáveis 
aleatórias continuas independentes com as seguintes fdp: 
I: g(i) . = 2i, O .:::; i .:::; 1 e O fora desse intervalo, 
R: h(r) = r 2/9, O .:::; r .:::; 3 e O fora desse intervalo; 
A variável aleatória que-interessa é E = IR' (a tensão no circuito) . 
Seja p a fdp de E. 
Pelo Teor. 6.4, teremos 
(' 
Algum cuidado se deve tomar -ao calcular-se esta integral. Primeiro, 
observe-se · que a variável de int~gr~ção não pode tomar valores nega-
tivos. Segundo, observe-se que a fim de que o integrando seja posi~ · 
tivo, ambas as fdp que aparecem no integrando devem ser positivas . . 
Atentando,para os valores para os quais g e h não sejam iguais a zero, 
verificaremos que as seguintes condições devem ser satisfeitas: 
e O .:::; e/i .:::; 3~ 
Essas duas desigualdades são, por sua vez, equivalentes a e/3 .:::; i .:::; 1. 
Por isso, a integral acima se torna igual a 
j..J 
. ... u t rnUI:SAMILIDADE. 
2 = g-e(3- e), 
Um cálculo fácil mostra que ./o 3 
p(e) .de = 1. (Veja a Fig. 6.12.) 
e=~ (3, O) 
Fig. 6.12 
Teorema 6.5. Seja (X, Y) UII).a variável .aleatória bidimensional 
· contínua e suponhamos que X e Y sejam independentes. [Portanto, 
a fdp de (X, Y) pode ser escrita como j(x, y) ~ · g(x)h(y).] ·Seja 
Z = X/Y. Deste modo, a fdp de Z, digamos q, será dada por 
. + 
q(z) = 1"'"' g(vz)h(v)lvldv. (6.l0) 
. Demonstração: Seja!Il z = ·xfy e v = y. Portanto, x = vz e 
y = v. O jacobiano é 
J =I~ .z I 1 = .v. 
Daí a fdp conjuntâ de Z = X/Y e V = Y ser igual a 
t(z, v) = g(vz)h(v) I vi. 
Integrando esta fdp conjunta em relação a v obtém-se a fdp margi-
nal de Z procurada. · 
Exemplo 6.15. Admita-se que X e Y representem a duração da 
vida de duas lâmpadas fabricadas por processos diferentés. Supo-
nha-se que X e Y sejam variáveis aleatórias independentes, com fdp 
respectivamente f e g, onde 
f(x) = e..:r:, : 
g(y) = 2e-2v, 
x 2:: O, e O para outros .quaisquer valores; 
y 2:: O, e O para outros valores. 
Poderia · nos interessar a variável aleatória X/Y, que· 1representa o 
quociente das duas durações de vida. Seja q a fdp deZ. 
. r+ 
Pelo Teor. 6.5 temos que q(z) = J-.,"' g(vz)h(v) fv I dv. Porque 
X e Y podem tomar somente valores não-negativos, a integração 
a.cima precisa ser feita apenas sobre os valores positivos da variável 
VARIÁVEIS ALIEATÓFUAS IDE DUAS OU MAiS DIMENSÕES I 1J1 
de integração. Além disso, o int~grando será positivo somente quan-
do ambas as fdp que aparecem sejam positivas. Isto significa que deve-
remos ter v ;;;. O e vz ;;;. O. Visto :que z >O, e~sas desigualdades deter-
minam que v ;;;. O. Portanto a exprpssão acima se torna 
q(z) 
Fig. 6.13 
I q(z) = 1m e-·· 2e-2~ v dv = 
I I m 
i = 2 1 ve -•<2+•> dv. 
Uma integração por partes, fácil, 
fornece 
2 
q(z) = (z + 2)2 ' z 2': o. I 
(Veja a Fig. 6.13.) Constitui no~amente · um exercício fácil verificar 
que fo m q(z) dz = 1. 1 
I 
6.6. Variáveis Aleatórias! n-Dimensionais 
I . 
Até aqui, nossa exposição se restringiu completamente a variá-
. . I . . 
veis aleatórias bidimensionais .. !No entanto, como apontamos no 
iníCio deste capitulo, poderemos ter de tratar com três . ou mais carac-
terísticas numéricas simultâneas. I ' 
Faremos apenas uma brevfu,sima expos1çao de variáveis alea-
tórias n-dimensionais. A maio~ parte dos conceitos introduzidos 
acima para o caso bidimensional ~ode ser estendida para o caso n-di-
mensional. Nos restringiremos ad, caso conthluo. (Veja o Comentário 
no fim deste capitulo.) 
Suponhamos, a seguir, que ~X1, ... , Xn) possa tomar todos os 
valores em alguma região de uni espaço n-dimensional. Isto é, esse 
valor é um vetor n-dimensional.l 
I 
[XI(s),. ! .. , Xn(s)]. 
Caracterizaremos a distribuição: de probabilidade de (X 11 • •• ,X!') . I 
da seguinte maneira: . 1 
·Existe uma função densidaqe de probabilidade conjunta f qu,e 
satisfaz às seguintes condiÇõ~: : 
(a) j(x1, . .. , Xn) 2': O, para tddo (x1, ... , Xn). 
f_ +m J_+m I ) _ (b) -m • • • -a; j(x1, ... , Xn dx1 .. . dXn- 1. 
I 
132 I II"ROiflAIBBUDADIE 
Com o auxílio desta fdp definimos 
P[(Xh- . . , Xn) E C]= (. · ·_ff(xl,·· . . , Xn) dx1 .. . dxn; 
c . 
onde C é um subconjunto do contradomínio d~ (X 1,. ; . ,X;.). 
A cada uma das variáveis · aleatórias n-dimensionais, poderemos 
associar algumas variáveis aleatórias de dimensão mais baixa. Por 
exemplo, se n = 3, . então. 
onde g é a fdp marginal da variável aleatória l]nidimensional X3, 
enquanto 
onde h representa a fdp conjunta da variável aleatória bidimensional 
(X1, X~) etc. O conceito de variáveis aleatórias independentes será 
tàmbém estendido de maneira natural. Diremos que (X 1, ... ,Xn) 
serão variáveis aleatórias independentes se, e somente se, sua fdp 
conjunta j(x1, . •• , Xn) puder ser fatorada na. forma 
Existem muitas situações nas quais desejaremos considerar va-
riáyeis aleatórias n-dimensionais. :barerrí~s al!Slills ex.:e~plos. 
(a) Suponha-se que estejamos a estudar o padrão de precipi-
tação decorrente· de um particulàr sistema de tempestades. · Se 
tivermos uma rede de, digamos, 5 estações de observação e se admi-
tirmos que x, é a precipitação na· estação' i, devida a um particular 
sistema de· fre~tes de chuva, desejaremos considerar. a variável aiea-
tória a 5-dimensões (X1, X2, x3, x4, X6)-
(b) Uma das mais importantes aplicações de variáveis aleató-
rias n-dimensionais ocorre quando tivermos de tratar com mensura-
ções repetidas de algwria variável aleatória· X. Sup<:>nha-se que se 
deseje informação sobre a duração· da vida, X, de uma :válvula ele-
trônica. Um grande número dessas válvulas é produzido por determi-
nado fabricante, e ensaiamos n dessas válvulas. Seja x, a duração 
da vida da i-ésima válvula, i= l, ... , n·. Portanto, (Xr, .. . , Xn) 
é uma variável aleàtória n-diinensional. Se admitirmos que cada. 
X; tenha a mesma distribuição de prohabilidade (porque todas as 
VARIÁVEIS ALEATÓRIAS DE DUAS OU MA8S DIMENSÕES I 133 
válvulas são produzidas da mesma maneira), e se admitirmos que as 
X; sejam todas variáveis aleatór~as independentes (porque, presu-
me-se, a fabricação de uma válvula não influencia a fabricação das 
outras válvulas), poderemos supor que a variável aleatória n-dimen-
sional (X 1, ••• , Xn) seja .composta pelos componentes independentes, 
de idêntica distribuição de probabilidade X h ... , Xn. (É óbvio 
que, muito embora xl e x2 tenham a mesma distribuição, eles não 
precisam tomar o mesmo . valor.) 
(c) Outra maneira, pela qual surgem variáveis aleatórias n-di-
mensionais, é a seguinte: admita-se que X(t) represente a potência 
exigida por uma certa empresa industrial, na época t. Para t fixado, 
X(t) será uma variável aleatória unidimensional, Contudo, podtJ-
remos estar illteressados em descrever a potência exigida em n deter-
minadas-épocas especificadas, digamos t1 < t2 < ... < tn.: Portanto, 
desejamos estudar a variável aleatória n-dimensional 
Problemas deste tipo são estudados em nívelmais adiantado. (Uma . 
referência excelente para este assunto é "Stochastic Processes", por 
Emanuel Par2;en, Holden-:bay, São Fr~ncisco, 1962.) 
. I 
Comentário: Em vários pontos de nossa exposição, mencionamos o conceito 
de "espaço n-dimensional". Vamos resumir alguma· coisa das idéias fundamen-
tais a respeito. · 
.A cada número realx, podemos associar um ponto na reta dos números reais, ~; 
e reCiprocamente.· Semelhantemente, a· cada pa•r de números. reais (x1, x2), po-
demos associar um ponto no plano de coordenadas retangulares, e reei procamente. 
Finalmente, a cada conjunto de três números reais (xt, x2, x3), podemos associar 
um ponto no espaço de coordenw:las retangulares tridimensional, e reciprocamente. 
Em muitos dos problemas que nos interessam, tratamos corri um conjunto 
de n números reais, (xt, x2, ... , Xn), também denominado. uma ênupla. Muito 
· embo~a não possamos desenhar ql)alquer esboço se n > 3, podemos continuar 
a l;l.dotar a .terminologia geométrica, como sugerido pelos casos de menor número 
de dimensões mencionados acima. Deste modo, falaremos de um "ponto" no 
espaço n-dimensional determinado pela ênupla. (Xt, ... , x,) . Definimos como 
espaço n (algumas vezes denominado espaço n euclidiano). o conjunto de todo 
{x1, ... , Xn), onde x; pode ser qualquer número real. . 
Conquanto não necessitemos realmente de calcular integrais n-dimensionais, 
verificamos que . esse é um conceito muito útil e, ocasionalmente, precisaremos 
exprimir uma quantidade por uina integral múltipla. Se nos lembrarmos da de-
finição de 
J J j(x, y) dx dy, 
A 
.... 
134 I PROBABIUDADE 
na qual A é uma região no plano (x, y), então a extensão deste conceito a 
f · · · f J(xl, ... , x,.)dx1 . .• dxn, 
R 
na qual R é uma região .no espaço n, ficará evidente. Se j representar a fdp con-
junta da variável aleatória bidimensional (X, Y), teremos que 
f f f(x, y) dx dy 
.A 
representará a probabilidade P[(X, Y) E A]. Semelhnntcmente, se j representar 
a fdp conjunta de (X 1, ... , Xn), então 
f · · · f j(x1, . .• , Xn)dXl' · ·dr.,. 
R 
representará . 
P[(XJ, ... , Xn) E R]. 
Problemas 
6.1. Suponha que a tabela seguinte represente a distribuição de probabili-
dadE; conjunta da variável aleatória discreta (X, Y). Calcule todas as distribui-
ções marginais e as condicionadas. 
~ 1 2 3 -
1 
1 1 o -- 12 6 
2 o 1 1 -
9 5 
" 
1 1 2 
" - - -IS ~ 15 
6.2. Suponha que a variável aleatória 'bidimensional (X, Y) tenha a fdp 
conjunta 
.f(r, y) k:r(x - y), O < x < 2, - x < ~ < :r:A 
O, para outros quaisquer valores. 
(a) Calcule a constante k : 
(b) _!\çh~ ; _fdp marginal de X. 
E~~-- -~~~~-~- idP ~~gmãf~ 
6.3:-··supmlmí que a ídp conjunta da variável aleatória bidimensional (X, Y) 
seja dada por 
f(:r, y) x2 + x: , O < x < 1, O < y < 2, 
O, para quaisquer outros valores. 
l 
·j 
l 
J; 
~-
VARIÁVEiS ALEATÓRIAS DIE DUAS ou MAUS DIMENSÕES I 135 
(b) P(Y < 'f.l· l.(<) P(Y >HX <·lJ. 
Calcule o seguinte: 
(a) P(X):> !). 
:.···· . 
6.4. Suponha que duas cartas sejam tiradas ao acaso de um baralho de 
cartas. Seja X o número de azes obtido! e seja Y o número de damas obtido. 
(a) Estabeleça a distribuição de propabilidade conjunta de (X, Y). 
(b) Estabeleça a distribuição margiilal de X e a de Y. 
(c) Estabeleça a distribuição condiéionada de X (dadoY) e a: de Y (dado X). 
6.5. Para que valor de k, a expressãb j(x, y) = ke -(Xi;Y) é' a fdp conjunta de 
(X, Y), m:>bre a região O < x < 1, O < y !< 1? · 
! 
6.6. Suponha que a variável aleatória bidimensional . contínua (X, Y) seja 
uniformemente distribui da sobre o quadra4o cujos vértic~s são ( 1, 0), (0, 1),. (- 1, 0) 
e (0, - 1). Ache as fdp marginais de X e de Y. . 
6.7. Suponha que as dimensões, X J Y, de uma chapa retangular de metal, · 
possam ser consideradas variáveis alcatória!f contínuas independentes; com as s·e-
gtÚntes fdp: I 
X: g(x),., x- 1, 'j 1 <x.S2, 
-X + ?• 2 < X < 3; 
:= O, para'l quaisquer outros valores .. 
. Y: h(y) = !, 2 < y < 4, . 
= O, parai quaisquer outros valores. 
Ache e. fdp da área da chapa, A = XY. 
6.8. Admi~ que X represeri.te a du~ação da vida de um dispositi\l'o eletrô-
nico e suponha que X seja uma variável al~atória contínua com fdp 
j(x) = l.~?O , 1. x > ÚOO, 
= O, para I quaisquer outros valores. 
Sejam X 1 e X 2 dua.S<tletenninações independentes da variável ale~tória X acima. 
· (Isto é, suponha que estejamos ensaiando ~ dura~ da yida de dois desses dispo-
sitivos.) Ache a fdp da variável aleatória 1
1
z = XI!X2. 1 • 
. I I 
6.9. Obtenha a distribuição de probaJ?ilidade das variáve s aleatórias. V e W, 
introduzidas na Pág. 124. ' . 1 
6.10. Demonstre o Teor. 6.1. 
f~rça magnetizante II no .. ponto P, dis-
Fig. 6.14 
6.11. A 
' tante X unidades de um condutor que. conduza uma. 
corrente I, é d4a por H = 2!/X. (Vej~ a Fig. 6.14.) 
Suponh!l- que R seja um ponto móvel, isto é, X seja 
uma variável aleatória contínua uniformemente distri- ·• ; •. 
buída sobre (3 ) 5). Suponha que. a corrente I seja 
também uma :Variável aleatória contínua, uniforme-
mente distribuí!ia sobre (10, 20). Suponha, · \l-(lemais,· 
I , .. ' 
que as variáveis aleatórias X e· I sejam independeiites. 
Estabeleça a fdp da variável aleatória I!. 
136 I ll"ROBABUUIDAIOIE 
5,12 •. A intensidade luminose. em um dado ponto é dada pele. expressão 
I = C/Ifl, na qual C é o poder luminoso da fonte e D é & ·distância dess& fonte 
&té o ponto d!!.do. Suponha que C seja. uniformemente distribuída 8obre (1, 2), 
enquanto D sej& um& .variável &leatóri& contínua com fdp f(d) = cd, d > O. 
Ache e. fdp de I, · admitindo que C e D sejam independentes. (Sugest/lo: Primeiro 
ache a · fdp de D2 e depois aplique. os res\]ltiM!os de:ite capítUlo.) 
6.13. Qwtndo umil. corrente I (&mperes) pllSS& &través de um resistor R 
(ohms), a potênci& gerada é de.de. por W = PR (watts). Suponha. que i e R sejam 
v&riáveis aleatórii!S independentes, com I!S seguintes fdp: 
I: j(i) = 6i( l - t), O~i~ 1, 
= O, para quaisquer outros valores. 
R: g(r) = 2r, . O < r < 1, 
= O, para quaisquer · qutros valores. 
Determine e. fdp de. variável aleatória W e esboce seu gráfico. 
6.14. Suponha que a fdp conjunt&-de (X, Y) seja dada por 
j(x, y) = e-:111 para. z > O, y > x, 
=- O, para. quaisquer outros valores. 
(a) Ache a fdp marginal de X. 
(b) Ache a fdp marginal de Y. 
(c) Calcttle a. P(X > 21 Y < 4). 
Caracterização Adicional das 
Variáveis Aleatórias 
Capí"tulo 7 
7.1. O Valor Esperado de uma Variável Aleatória 
Considere-se a relação determinística ax + by = O. Nós a 
reconhecemos como uma relação linear entre x1 e y. As constan-
tes a e b são os parâmetros dessa relação, no sentido de que para qual-
quer escolha particular de a e b obtemos uma função linear específica. 
Em outros casos, um ou mais parâmetros podem catacterizar a re-
lação· em estudo. Por exemplo, se y = · ax2 + bx + c, três parâ-
metros são necessários. Se y = e-kz, uin parâmetro é suficiente. 
Não somente uma particular relação é caracterizada pelos parâme-
tros, mas, inversamente, a partir de um_a certa relação podemos defi-
nir diferentes paràmetros pertinentes. Por exemplo, se ay + bx = O, , __ , 
então m = - b/a representa a declividade da reta. Também, se 
y = · ax2 + bx + c, então - bf2a representa o valor para o qual 
ocorre um. máximo relativo ou um mínimo relativo. 
Nos modelos matemáticos não-determinísticos ou aleatórios, 
que temos considerado, os parâmetros podem, também, ser emprega-
dos para caracterizar a distribuição de probabilidade. A cada dis-
tribuição de probabilidade, podemos associar certos parâmetros, os 
quais fornecem informação valiosa sobre a distribuição (tal como a 
declividade de uma reta fornece informação valiosa sobre a relação 
linear que representa). 
Exemplo 7.1. Sup~:mha que X seja uma variável aleatória con-
tínua, com fdp j(x) = ke--Í"", x Z O. Para verificar que esta expres-
são constitui uma fdp, observe-se que fo m ke--1= dx = 1 para tod~ 
k > O, e que ke-lcx > O para k > O Esta distribuição é denomi-nada uma distribuição exponencial, a qual estudaremos !nimiciosa-
mente mais tarde. Ela é uma distribuição especialmente útil para 
138 I PROBABILIDADE 
·· representar a duração da vida X, de certos tipos de equipamentos ou 
componentes. A interpretação de k, nesse contexto, também será 
explicada depois. 
Exemplo 7.2. Admita-se que peças sejam produzidas indefini-
damente em uma linha de montagem. A probabilidade de uma peça 
ser defeituosa é p, e este valor é o mesmo para todas as peças. Su-
ponha-se, também, que as sucessivas · peças sejam defeituosas .(D). ' 
ou não-defeituosas (N), independentemente umas das <mtras. Seja 
a variável ale.ató:tia X o número de peças inspecionadas até que a 
primeira peÇa defeituosa seja encontrada. Assim, um resultado 
típico do experimento seria da forma NNNND. Aqui X(NNNND) == 
= 5. Os valores possíveis de X são: 1, 2, ... , n, . . . · Já que X= k 
se, e somente se, 'as primeiras (k - 1) peças forem não-defeituosas e· 
a k-ésima peça for defeituosa, atribuiremos a seguinte probabilidade 
ao evento {X = ic') : P(X = k) = p(1 - p)"-1, k = 1; 2, ... n, ... 
Para verificar que esta é uma. legitima distribuição de probabilida-
de, observemos que · ~ 
~ 
E p(1 - p)k-1 = pf1 + (1 - p) + Cl- p)2 + ... J 
lc- 1 . 
1 
= p 1 _ (1 _ P) = 1 se O < I p I < 1. 
Por isso, o. pa~âmetro p pode ser qualquer número satisfazen,do 
O<p<l. 
Suponha que uma variável aleat6ria e sua distribuição de pro-
babilidade sejam especificadas. Existirá alguma maneira de carac- · 
terizar-se essa distribuição em termos de alguns parâmetros numéricos 
adequados ?_ 
Antes de nos dedicarmos à questão acima, vamos mot~var nossa 
explanação com o estudo do exemplo seguinte. 
Exemplo 7.3. Uma máquina de cortar arame corta o arame con-
forme um comprimento especificado. Em virtude de certas i~preci­
sões do mecanismo de corte, o comprimento do .arame cortado · (em 
polegadas), X, pode ser considerado como uma variável aleatória · 
uniformemente distribuída sobre [11,5i 12,5]. . O comprimento espe-
cificado é 12 polegadas. Se 11,7.:5 X < 12,2, o ararrie pode ser ven-
dido com um lucro de US$ 0,25. Se X ~ 12,2, o arame pode ~er 
recortado, e um lucro eventual deUS$ 0,10 é obtid(). E se X< 11,7, 
o arame é refugado com uma perda de· US$ 0,02. Um cálculo fácil 
mostra que P(X;:::: 12,2) = 0,3, Pcll,7 .:5 X <- 12,2) = 0;5, e P(X < 
< 11,7) = 0,2. 
~~-~·· ~--~----------------------------------------
i ' , . 
·' ,'} 
I 
CARACTERIZAÇÃO ADiCiONAl DAS VARIÁVEIS ALEATÓRIAS / ' 139 
! 
l 
Supónha-se que um grande númfro" de peda,ços de. a~ame tenha sido 
cortado, digamos N. Sejam Ns l o número de pedaços para os quais 
X < -11,7, NR o número de ped~ços para os quais 11,7.:::; X< 12,2, 
e N L o número de pedaços paA ·os quais X ;::: 12,2. Daí, o lucro 
l ' ' 
total obtido da produção de N ~edaços é igual a T = N s(- 0,02) + 
+ N R(0,25) + N L(O,lO). O lucro total par pedaço de arame cortado, 
digamos W, é igual a W ,;,[ (N s/N) (- 0,02) + (N R/N) (0,25) + 
+ (N L{N) (0,1) . (Observe-se qu~ W é uma variável aleatória, porque 
N s, N R e N L são variáveis aleatótias.) 
. I 
· Já mencionamos que a freqüência relàtiva de um evento é pró-
xima da probabilidade desse:...evebto, se o núm~ro de repetições sobre 
I 
o qual a freqüência relativa foi I baseada for grande. , (Explicaremos 
isto mais precisamente no Cap. 12.) Portanto, se ' N for grande, 
poderemos esperar que Ns/N seja próxima de 0,2, NR/N seja pró-
xima de 0,5 e N L/N seja próxin\.a de 0,3. • Logo, para N grande, 
I 
W pode ser calculada aproximadamente como segue: ' . . i . . 
W ~ (0,2) (- 0,02) + (0,5) (0,25) + (0,3) .(0,1) = US$ 0,151. 
! . ' . ~ I 
Deste modo, se um grande número de pedaços de arame for produ-
zido, esperaremos conseguir um I lucro de US$ 0,151 ·por pedaço de 
arame. O número 0,151 é denhminado valor esperado da. variável 
I , 
aleatória ·w. i 
I 
Definição. Seja X wna variável aleatória discreta, com valores 
possíveis x1, ••• , x,. . . . Seja p(~) = P(X = x;), i = 1, 2, ... , ~ ... . 
Então, o valor esperado de X (ou esperança matemática de X), deno-
tado por E(X) é definido como I . 
E(X) = E x.p(x.), 
ti'=l 
! 
(7.1) 
se a série 2: xi p(xD convergir absolutamente, isto é, se 
i= 1 I 
00 i 
2: lxlip(x·)< oo. 
i= 1 IÍ I 
Este número é tam:bém denofninado o-valor médio de X, ou expec-
idncia de X. 1 
I 
Comentários: (a) Se X toÍnar apedas um número finito de valores, a expies-i ' ' 
são aGima se torna E(X) = L~=l p(Xi)fi. Isto pode ser considerado-como I1.Dlll. 
"médi!r.. ponderada" .dos valores poss!v~is a:~o ... , z,. Se todos esses valores pos-
síveis forem igualmente prováveis, E(JÍt) = (1/n) L~=l x., e. ·qual r~p!esenta ~ 
média aritmética simples ou usual dos ~ valores possíveis. 
I 
I 
'"i 
140 I I'ROBABDUDA DIE 
(b) Se um dado equilibrado for jogado e a variável aleatóna X designar o 
número de. pontos obtidos, então E(X) = (1/6) (1 + 2 + 3 + 4 + 5 + 6) = 7/2. 
Este exemplo simples ilustra, nitidamente, que E(X) não é o resultado que podemos 
esperar quantia X for observado uma única vez. De fato, na situação anterior 
E(X) = 7/2 nem mesmo é um valor possível de X! Fica evidente, porém, que se 
<Jbtivermos um grande número de observações independentes de)(, digamos 
X!J ... , Xn, e calcula.rmos a média aritmética desses resultados, então, sob condi-
ções bastante gerais, a média aritmética será próxima de E(X), em um sentido pro-
babilístico. Por exemplo, na situação acima, se jogássemos o dado um grande 
número de vezes e depois calculássemos a média aritmética dos vários resultados, 
.esperaríamos que essa média ficasse t~nto, mais próxima de 7/2 quà.rito maior nú-
mero de vezes o dado fosse jogado: . ' 
(c) Devemos notar a semelhança entre a noção de valor esperado, como foi 
-definida acima (especialmente se X puder tomar somente um número finito de 
.zy-alores), e a noção de média de um conjnnto de números z1, . . . , Zn . Comumente 
definimos z = (1/n) L~= l z.;. como a média aritmética dos números z1, . .. , Zn. 
Suponhamos, ademais, que tephamos números z1', ... , Zk1 , onde z.;.' ocorra 14 
vezes, L7=l n; = n. Fazendo' fi= n;/n, L7= 1 f; = 1, definimos a média pon-
derada dos números z1', . . • , z~' cpmo . ~\ \ 
. I k ' I kl \ 
1; """' I . ~ f ,;, --, .L.J 74Zi = \ . 2.) iZi •• 
·. : n;:i=l' i · \:\i=Il ( 
Muito embora exista Uma forte · semelhança entre a média pon-
derada acima e a definição de E(X), é importante cumpreender q~e 
a última é um número (parâmetro) associado a uma distribuiç~o de 
probabilidade teórica, enquanto a primeira é simplesmente o resul-
tado da combinação de um conjunto de numeras em uma forina par-
ticular. Contudo, existe mais do que apenas uma semelhança su-
perficial. Considere-se uma variável aleatória X e sejam x1, . .. , Xn 
os valores obtidos quando o experimento que origina X for realizado n 
vezes independentemente. (Isto é, x 1, • • • , Xn apenas representam 
os resultados de n mensurações repetidas da característica numérica X.) 
Seja x a média aritmética desses n números. Então, como eXplica-
' remos muito mais precisamente no Cap. 12, se n for suficientemente 
grande, x será "próxima" de E(X), em certo sentido. Este·. resul-
tado é bastante r.elacionado à idéia (também a ser explicada no Cap. 
12) de que ~ freqüência relativa j A associada a n repetições de um ex-
perimento será próxima da probabilidade P(A) se f A Jor baseada em 
um grande número de repetições de 8. 
Exemplo 7.4. Um fabricante produz peças tais que 10 por 
cento delas são defeituosas e 90 por cento são não-defeituosas. Se 
uma peça defeituosa for produzida, o fabricante perde US$ 1, en-
quanto uma peça não-defeituosa lhe dá um lucro de US$ 5. Se X 
CARACTERIZAÇÃO ADDCIONAL DAS VARIÁVEiS AlEATÓRiAS I 141 
for o lucro liquido por peça, então X será uma variável aleatória 
cujo valor esperado é calculado como E(X) = - 1(0, 1) + 5(0,.9) ~ 
= US$ 4,40. Suponha-se que um grande número de tais peças 
seja produzido. Nesse caso, quando o fabricante perder US$1cerca 
de 10 por cento das vezes e ganhar US$ 5 cerca de 90 por cento das 
vezes, ele esperará ganhar cerca de US$ 4,40 por peça, a longo prazo. 
Teorema 7.1. Seja X uma variável aleatória distribuida bino-
mialrriente, com parâmetro p, baseada em n repetições de um_ experi-
mento. Então, . 
E(X} = np. >\ __ ..... <) 
Demonstração: Como P(X- ; k)-== -(~)pk(1 - p t-k, teremos 
l'}.. 
n!' . d--a Q r\ .. -. . pk(l _ p)n-k = , ;--r 
Jt_!(~ _- k)) . . Vfv 1 y Ot\\ 
n! pk(l - p)"-k 8 l;r--.~ \ I . () n 
(k - l)!(n- k)! l'bU ~ 
(uma vez que o termo coni k = O é igual a zero). Façamos s = k - 1 
na soma acimà. Como k toma valores desde úm- até n, s tomará 
valores desde zero até (n- 1). Substituindo k, em todos os ter- -YJ - :€_ 
mos, por . (s + 1), obteremos {Q,4- ht'.: E (.i--())o:.e_ b 
B(X) = I:l ~ (n- 1) p<+t(1 -p).n-8-t:=o . ~ 
s=O------~ ~,..-..,! 
= np_ il (n -l)-;-;- p)n-t-•. . . 
s=O S -------
A soma, na última expressão, é apenas a soma das probabilidades 
binomiais com n substituído por (n - 1), . isto é, [p + (f- p)]n-l 
e, portanto, igual a um. Isto estabelece o resultado. 
·Comentário: O r'\Sultado acima corresponde certamente a nossa noção inc 
tuitiva, porque supomos que a probabilidade de algum evento A seja, digamos 
0,3, quando um experimento é realizado. Se repetirmos esse experimento, por 
exemplo 100 vezes, deveremos esperar que A ocorra cerca de 100(0,3) = 30 vezes. 
O conceito de valor esperado, introduzido acima para a variáv~l aleatória dis-
creta, _será muito em breve estendido. ao caso contínüo. 
Exemplo 7.5. Uma máquina impressora tem uma probabilidade_ 
constante de 0,05 de entrar em pane, cm um dia qualquer. Se a 
máquina não apresentar panes durante a semana, um lucw de :~JS 
será obtido. Se 1 ou 2 panes ocorrerem, um lucró de. $R s~rá alcan-
çado (R < S). Se 3 ou mais panes ocorrerem, um lucro de $( - L) 
I 
'I 
,, 
l;l 
:; 
142 I PROBABILIDADE 
será obtido. (Admitimos que R, S e L sej;1m maiores do que zero; 
também supomos que, se a máquina ent~ar em pane em qualquer 
dia, ela permanecerá parada durante o resto do dia.) Seja X o h,1cro . 
obtido por semana de cinco dias úteis. Os valores possíveis de X 
são R, S e (-L). Seja B o número de panes pcir semana. Teremos 
P(B = k) = (~) (0,05)k(0,95)5-k, k=0,1, . .. ,5. 
Já que X= S se, e somente se, B =O, X= R se, e somente se, B = 1 
ou 2, e X = (-L) se, e somente se B = 3, 4 ou 5, verificamos que · 
E(X) = -SP(B =O)+ RP(B = 1 ou 2) + (-L)P(B = 3; 4 ou 5) 
= 8(0,95)5 + R[5(0;05)(0,95) 4 + 10(0,05)2(0,95) 3] + . 
+ (- L)[10(0,05) 3(0,95)2 + 5(0,05)4(0,95) + (0,05)5] dólares. 
Definição. Seja X uma variável aleatória continua com fdp f. 
O valor esperado de X é definido como 
E(X) = J-: ... xj(x) dx. (7.2) 
Pode acontecer que esta integral (imprópria) não convirja. Con-
seqüentemente, d~remos que..E(X) existirá se, e somente se, 
1: lx lf(x) dx 
for finita. 
Comentário: Devemos observar .a analogia· entre o valor esperado de uma 
variável aleatória e o conceito de "centro de gravidade" em ·Mecânica. Se uma 
unidade de massa for distribuída sobre a reta, em pontos discretos X!J • •• , Xn. • • e 
se p(x;) for a massa no ponto x;, então vemos que L;': 1 x;p(x;) nipresenta o cen-
tro de gravidade (em relação à origem). Semelhantemente, se urna unidade de massa 
for distribuída continuamente sobre uma reta, e se j(x) ·representar a densidade · 
de massa em x, então J 2:: xj(x) dx poderá também ser interpretado como o centro 
de gravidade. No sentido acima, E(X) pode representar "um centro" da distri-
buição de probabilidade. Também, E(X) é algumas vezes denominado med1'da 
de posiçao central e é expresso nas mesmas unidades que X. 
Exemplo 7.6. Seja a variável aleatória X definida como segue. 
Suponha-se que X seja o tempo (em minutos) durante o qual um equi-
pamento elétrico seja utilizado em máxima carga, em um certo período 
de tempo especificado. Suponha-se que X seja uma variável alea-
tória continua com a seguinte fdp: 
I 
j(x) ~ (1.500)2 x, Ü ~X~ 1.500, 
CARACTERIZAÇÃO ADICIONAL DAS VARIÁVEIS ALEt\TÓRIAS I 143 
I 
-1 i 
(1.
5
00)2 (x - 3.00~), .· 1.500 ,::; x ::; 3.000, 
= O, para quaisquei !outros valoreE:, I . 
I 
Portanto 
E(X) = r:= xj(x) dx 
I 
1 [ r 1.500 . r3.000 J 
(1.500)(1.500) }b x2 dx - J1.500 x(x - 3.000) dx 
I . , 
= 1.500 minutos. 1 
(Veja a Fig. 7.L) 
f(x) 
~· 
x l l500 x =3000 
F~g. 7.1 
. . I 
Exeitnp.Zo 7.7. O conteúdo de cinzas (em' percentagem) no carvão, 
di X ~ri. 'd di . , 'l l . t, . gamos , }J'V'Ue ser coDSl era o como uma vanave a ea ona con- · 
tínua c<im. a se~te fdp: f(x) i= (1/4.S75Yx2, 10 ::; x ::; 25. Por-
tanto, E(X) = (1/4.875) .~;:5 x31 dx = 19,5 . por cento. Assim; o 
. coiiteúdo de cinz~ esperado no particula.r espé~ime de carvão que ,.i 
está sendo estudado é de 19,5 por cento. ' · . 
Teoienui 7,2. · Seja · X . unifo~emente distribuída sobre ci inter-
valo [a, b]. Nesse caso, r 
E(X) 1 a~ b. 
I . I 
Demonstração: Afdp de X é 1ada por j(x), = 1/(b-:- a), a:::::;. x ::; b .. . 
Portanto, i · · 
E(X).= fb _x_ dx i= _ 1_·.- ~210- a+ b. 'I 
· · a b...,. . a 1 b"-a 2 .. ---2-. 
(Observe-se que este valor r~pr~enta o ponto.médio do inte~~lo 
[a,·b], como era de se espe~ar.int~tivamente.) . . . . . .. . . . i . . . . . \ ' . . 
Come1if.<irio:: .Pode ser . valioso leri:tpràr nesta oca8ião que uma váriável alea-
tória X é uma função .de .um espaço a)nostral S sobre contradomínio Rx. Como . . I 
144 I PROBABILIDADE 
já salientamos repetidamente, para. muitos fins, estaremos tão-somente interessa-
dos no espaço amostral e nas probabilidades definidas nele. Esta noção .de valor 
esperado foi definida. completamente em termos do contradomínio. [Veja. as 
Eqs. (7.1) e (7.2).] Contudo, ocasionalmente, devemos observar a natureza. 
funcional de X. Por exemplo, como expressaremos a Eq. (7.1) em termos do re-
sultado s E S, admitindo que S seja finito? Desde que x; = X(s) para algum 
s E S, ·e já que 
p(x:;) = P[s: X(s) = x;], 
poderemos escrever 
n 
E(X) = r:· x; p(x;) = L X(s)P(s), (7.3) 
i - 1 • ES 
. ~ 
onde P(s) é a probabilidade do evento {s} C S. Por exemplo, se o experimento 
consistir na classificação de três peças como defeituosas (D) ou não-defeituosas 
(N), um espaço amostral para este experimento seria 
S = {NNN, NND, NDN, DNN, NDD, DND, DDN, DDD). 
Se X for definido como o número de defeituosas, e se admitirmos que todos os re-
sultados acima sejam igualmente possíveis, teremos, de acordo com a Eq. (7.3), 
E(X) = L X(~)P(s) 
•ES 
=o ·( t )+ 1 ( + )+ 1 ( + )+ 1 ( + )+ 2 ( t )+ 2 ( t )+2 ( + )+ 3 ( t) 
N a.tura.lmente; este resultado poderia ter sido obtido mais facilmente pela aplica-
ção da. Éq. (7.1) diretamente. Contudo, é conveniente lembrar que ·a fim de em-
pregar a Eq. (7.1), necessitaremos conhecer os números p(x;), o que por sua vez 
significa que um cálculo, tal como aquele que empregam,os acima, teria de ser 
executado. O que se deve salientar é que uma vez que a distrib\l.ição de probabi-
lidade sobre. Rx seja conhecida [neste caso, os valores dos números p(x;)], podere-
mos suprimir a. relação funcional entre Rx e S. 
7.2. Expectância de uma Função de uma Variável Alea-
tória 
Como já explicamos anteriormente, se X for uma variável. alea-
tória e se Y = H (X) for uma função .de X, então Y será também 
uma variável aleatória, com alguma distribuição de probabilidade; 
conseqüentemente, haverá interesse e terá sentidó calcular E(Y). 
Existem duas maneiras de calcular E(Y), .qOO se mostram equiva-
lentes. Mostrar que elas são, em geral, equivalentes, não é trivial e 
dei:nons~raremos apen~ um caso especíal. . No entanto, é importante 
que o leitor compréenda os dois tratamentos do assunto apresentados 
a seguir. 
CARACTER IZAÇÃO ADBC.IONAL DAS VARIÃV..EJS-ALE"ATÓRUAS I 145 
Definição: Seja X uma variável aleatória e seja ~--~ _!!__(~)­
(a) Se Y for uma variável aleatória . discreta C()m valores possí- · 
veis y1, Y2, . .. e se q(y;) = P(:r := y;), definiremos -
m 
E(Y) = L y;q(v.). (7.4) 
i=l 
b) Se Y foruma variável aleatória contínua com fdp g, defini-
remos 
f
+m 
E(:> = m yg(y)dy. (7.5) 
Comentário: Naturalmente, essas definições são completamente coerentes 
com as definições anteriores, dadas para o valor esperado de ~a variável alea-
. tória. · De ·rato, o que está acima sii:nplesmente representa uma reformula~ão em. 
termos de Y. Uma "desvantagem" de aplicar a definição acima -a fim de obter 
E(Y) é que a distribuição de probabilidade d~ Y (isto é, a distribuição de proba-
bilidade sobre o contradomjnio Ry) é exigida. Explicamos, no capítulo anterior, 
métodos pelos quais. podemos obter ou as probabilidades no ponto q(y;), ou g, 
a fdp de Y. No entanto, surge a questão de podermos obter E(Y), sem prelilni-
nàrmente encontrarmos a distribuição de probabilidade de. Y, partindo-se apenas 
do conhecimento da distribUição de probabilidade de X. A resposta é afirmativa, · 
· como o indicam os teoremas seguintes. 
Teorema 7.3. Seja X uma variável aleatórià e seja Y = H(X). 
(a) Se X for uma variável aleatória discreta e p(x;) = P(X = x;), 
teremos 
E(Y) = E [H(X)] = f: H(xJ)p(xJ). (7.6) 
i=I 
(b) Se X for uma variável aleatória contínua com fdp j, teremos 
j +m E'(Y) = E [H(X) ] = _ m H(x)j(x)dx. (7.7) 
Comentário: Este teorema torna a avaliação de E(Y) muito . mais simples, 
porque ele quer dizer que não necessitamos achar a distribuição de probabilidade 
de Y, a. fim de avaliarmos E(Y); o conhecimento da distribuição .de probabilidade 
de X é suficiente. 
Demonstração: [Somente demonstraremos a Eq. (7.6) . . A de-
monstração da Eq. (7.7) é 'um tanto mais complicada.) Considere-~e 
a soma L1:1 H(xJ)p(x;-) = Li:l [_L, H(x;)p(x;)], onde a soma inte-
rior é tomada para todos os índices i para os quais 1I(x;) ~YJ, para 
algum Yi fixo. Conseqüentemente, todos os termos. H(r.;) são cons-. 
' ... ,;. 
1! !1! 
146 I PROBABILIDADE 
tantes na soma interior. Por isso 
E H(x;)p(x;) = .f: Yi L p(x;). 
i=l i=l i 
No entanto, 
L p(x;) = L P[x !H(x.;) = y;] = q(y;). 
; . i 
Logo, I:,:I H(x;)p(xi) = }:;:I y;q(y;), o que estabelece a Eq. (7.6)" 
Comentário: O método de demonstração é essencialmente equivalente ao 
método de contagem, no qual reunimos todos os itens que tenham o mesmo valor. 
Assim, se desejarmos achar a soma total dos valores 1, 1, 2, 3, 5, 3, 2, 1, 2, 2, 3, pode-
remos ou somar diretamente, ou indicar que existem 3 um, 4 dois, ,) três e 1 cinco, 
o que determina que a soma total seja iguàl a 
3(1) + 4(2) + 3(3) + 1(5) = 25. 
Exemplo 7.8. Seja V a velocidade do vento (em milhas por hora) 
e suponha-se que V seja uniformemente distribmda sobre o intervalo 
[0, 10]. A pressão, digamos W (em libras/pé quadrado), na super-
fície da asa de um avião é dada pela relação: W = 0,003V2• Para 
achar o valor esperado de W, E(W), poderemos proceder de duas 
maneiras: 
(a) Empregando o Teor. 7.3, teremos 
E(W) = 110 0,003v2j(v)dv 
{10 1 
= }o 0,003v2 lO dv = 0,1 libras/pé quadrado. 
(b) Empregando a definiç&.o de E(W), precisaremos primeira-
mente achar a fdp de W que chamaremos g, e depois calcular 
f_+;, w wg(w)dw. Para acharmos g(w), observamos que w = 0,003v2 
é uma função monótona de v para v ~ O. Poderemos aplicar o. 
Teor. 5.1 e obter 
g(w) = 1~ I ~:1 
= .l.. Jww-112 
213 ' 
= O, para quaisquer outros valores. 
Em conseqüência 
. {0,3 
E(W) = }o wg(w)dw = 0,1 
CARACTERIZAÇÃO ADICION.O:liDAS VARIÁVEIS ALEATÓRiAS I 147 
I . . 
! 
depois de um cálculo simples. I Deste modo, como afirrn.a o teorema, 
os dois cálculos de E(W) forne~em o mesmo resultado. 
I 
Exempla 7.9. Em muitos problemas estamos interessados apenas 
na magnitude de uma variável! aleatória, sem con:siderarmqs o seu 
sinal algébrico. Isto é, estaremos interessados em 1 I X 1. Suponha-
. I 
mos que X seja uma variável a1eatória contínua com a seguinte fdp: 
. ec I 
j(x) = _ , 
e~~ 
= ~ 
se x ~O, 
se x > O. 
Seja Y = I X 1. Para obtermo~ E(Y), poderemos proceder por uma 
de duas maneiras. I 
(a) Empregando o Teor. (1.3, teremos 
E(Y) = J+ m I X IJ(x) ~X 
~ ~ -[/ (-x)~ dx + j," (x),- dx] 
( I . 
= 2 [1 + 1] = 1! 
. I 
(b) Para calcular E(Y) einpregando a definição, necessitamos 
obter a fdp de Y = lXI, que! denotaremos g. Seja G a fd de Y. ~,i 
~rl~o, i · 
G(y) = P(Y ~ y) = P[ IXI ~ y] i= P[-y ~X~ y] = 2P(O ~X~ y), 
! 
porque a fdp de X é simétrica! em relação a zero. Logo, 
l
i/ I 
1
!1.., 
G(y) = 2 j(x) dx:! 2 !!._ dx =-e-u+ 1. 
1 o 2 
I 
Deste modo teremos ~ara g, ai fdp ~e Y, g(y) = ~'(y) =·e-u, y _"2:. O. 
Portanto, E(Y) = fo yg(y) dy r= fo ye-u dy = 1, tal como acrma. 
. I 
Exemplo 7.10. EIQ mui~s problemas, pode~os empreg:=J:r o 
valor esperado de uma variável alea,tória a fim de tomar uma certa 
decisão de uma maneira ótima: I ' . . . 
Suponha-se que um fabncante produza um cert<J trpo de óleo 
lubrificante, o qual perde algum de seus atributos especiais se não 
I 
I 
I 
I 
I 
I 
I 
I 
I 
I 
ii' 
Iii 
'I I· 
'! 
I 
~43 I PROBABIUDADIE 
for · utilizado dentro ·. de certo pei(odo «!e tempo. Seja _x · o:n,límero 
de unidades de Óleo encomElndadas ao ' f~bricllJlk (lu~~t~ ;~$~ $Kl~· 
(Uma unidádie ~ igual' a 1.000 ,gal~.) · Suponba-sie que X: aeja uma 
V"ariáveL aleat6rla coritúma; uiüform~ment~ . diStlclblddk 8ijb~ [2, 4]. 
Piirtarito, a fdp J tém . a forma · 
·.' 1 
f(x) ,.. z > 
' ' ' 
= o, para quaisquer outros valores. 
Suponha-se :.que para cada . unidade vendida; se ~n~a um lucro de 
US$ 300, enquanto para cada unidade não vendid~t (durante qualquer · 
ano especific11do) se . verifique unia perda de US$ ioo, porque uma 
. unidade :não . utiliza-da terá.:· de ser jogi_da fora. · Admít~t-se que o 
. fabrica.nte deva. decidir, alguns meses antes -do início de cada ano, 
quanto ele irá produzir, e que ele decida fàbricar Y unidades. (Y não · 
é rima variável aleat6ri~; é · especificada pelo fabricante.) S~ja Z 
o lucrd por ano (em dólares). Aqui, Z é .eVidentemente uma variável 
· àleatórla, porque é uma fW:lção da variável aleatória X. Especifi-
camente, Z = H(X). onde 
H(X) :;: 300Y se x ·_;:::: Y, 
300X + ( -lOO)(Y - X) se X< Y.' 
. . . . 
(A 1fltima expressão pode ser escrita como 4ooX ~ lOOY) 
A fim de ~bterxnos E(Z), aplicaremos io ~oor. · 7.3 e escreve-
remos 
z 
I 
E(Z) = f+ .. H(x)J(x) dx = . ! 1· . ~ H(i) dx. 
-<m· 6:1 2 
.·~ 
2 y 4 
E(Z) 
Y=2 Y=3~S Y=<l 
IFifii; 7•3 
. Para calcul~r esta integrai, dev:ere~os c~nsiderar três c~os: Y < 2, 
2 ::; Y ::; . 4 e Y > .4. Com .a. ·ajude da F-ig. 1.2 e depois <J,e atgunias 
CARACTERIZAÇÃO ADICIONAL DAS VAR IÁVEoiS ALEATÓRIAS I 149 
simplificações, obteremos 
E(Z) = 300 Y se Y ~ 2 
- 100Y2 + 700Y- 400 
se2<Y< 4 
= 1.200- lOOY se Y?: 4, 
A questão seguinte apresenta interesse. Como deve o fabri-
cante escoll!er o valor de· Y, a fim de maximizar seu lucro esperado ? 
Poderemos responder a esta questão facilmente, estabelecendo 
apenas que dE(Z)/dY = O. Isto fornece Y = 3. 5. (Veja a Fig. 7. 3.) 
7.3: · Variáveis Aleatórias IBidimensionats 
Os conceitos discutidos acima, para o caso unidimensional, 
também valem pa!a variáveis aleatórias de dimensão mais elevada. 
Em particular, para o caso bidimensional, estabeleceremos a se-
guinte definição. 
Definição. Seja (X, Y) uma variável aleatória bidimensional 
e seja Z' = H(X, Y) uma função réal de (X, Y). Em conseqüência, 
Z será uma variável aleatória (unidimensi~nal) e definiremos E(Z) 
como se segue: 
(a) Se Z for uma variável aleatória discreta, com valores pos-
síveis z1, z_2, •.. e com p(z;) P(Z = z;), 
m 
então E(Z) = Í: z,p(z;). 
i= 1 
(7.8) 
i 
(b) Se Z for UIIl1l. variável aleatória contínua com fdp j, teremos 
J_+m E[(Z) = ~ zj(z) <h. (7.9) 
Como no caso unidimensional, o seguinte teorema (análogo ao 
Teor. 7 .3) pode ser demonstrado. 
Teorema 7.4. Seja (X, Y) uma variável aleatória bidimensio-
' nal e façamos Z = H(X, Y). 
(a) Se (X, Y) for uma variável aleatória discreta e :;;e 
' \ 
p(xi, y;) = P(X -= x;, Y = Y;), i,j = l, 2,. 
,. 
' 
! 
:! 
~ ! 
~ 
11 i' 
! 
i 
r 
::, 
:~i: 
I '! 
~I 
I 
~ 
•:! 
i:' 
'~l .1iii ,, 
'i 
i 
;I 
ii :r 
11 ~Iii 
111: ~\\ 
150 I PROBABiliDADE 
teremos 
m m 
E(Z) = L L H(x;, Yi)p(x;, Yi), ) (7.10) 
j - I i=l 
(b) Se (X, Y) for urna variável aleatória contínua com fdp con-
junta j, teremos 
E(Z) = J: "'1:"' H(x, y)j(x, y)dx dy . (7.11) 
Comentário: Não demonstraremos o Teor. 7.4. Também, tal como no caso 
unidimensional, este é um resultado extremamente útil porque ele afirma que nllo 
necessitamos achar a. distribuição . de probabilidade da. va.riá.vel aleatória. Z, a fim 
de calcular sua. expectância. Poderemos achar E(Z) diretamente, a partir do co-
nhecimento da. distribuição conjunta de (X, Y) . 
Exemplo 7.11. Vamos reconsiderar o Ex. 6.14 e achar E(E) 
onde E= IR . Já vimos que I e R er~m variáveis aleatórias com 
as seguintes fdp g e h, respectivamente: 
g(i) = 2i, o ~ i~ 1; h(r) = r 2/9, O ~ r ~ 3. 
Também encontramos que a fdp de E era p(e) = (2/9)e(3 - e), 
O ~ e ~ - 3. Visto que I e R são variáveis aleatórias independentes, 
a fdp conjunta de (I, R) é simplesmente o produto das fdp de I e de R: 
j(i, r) = (2/9)ir2, O ~ i ~ 1, O ~ r ~ 3. Para calcular E(E) em-
pregando o Teor. 7.4, teremos ·' 
211 13 3 = - i 2 di r8 dr = - · 
9 o ~ 2 
Empregando diretamente a definição (7.9), teremos 
{3 {3 2 
E(E) = }o ep(e) de =}o_ e 9 e (3 - e)de 
2 { 3 3 
= 9 Jo (3ell- efl) de= 2-. 
7.4. Propriedades de Valor Esperado 
Mencionaremos algumas importantes propriedades do valor 
esperado de uma variável aleatória, as quais serão muito úteis para 
I 
I 
I . . I 
CARACTERIZAÇÃO ADICION,AL DAS VARIA VEIS ALEATQRIAS 
I 
151 
o estudo subseqüente. Em ~ada _caso, admitirelfos· que todos os 
valores esperados que mencionarmos, existam. As demonstrações . . I , 
serão dadas apen&a para o ca.So contínuo. O leitor deve estar apto . . I I . 
111 desenvolver l!ll demonstração para o c;aso discreto, pela simpl~s 
substituiçãO dM integrais pot somat6rios. · . 
I 
Pr~ 7.1. Se X=+ C, onde C é .uma constante, então, 
F(x) I E(X) = C. 
1 Demonstração: 
,..--------F(x)=i I 
i E(X) = J:"' C~(;r;) dx 
x=C xl . ·d·.·,, r+~ 
!Fig. 7.4 I -. _)J-"' j(x) dx =C. 
Comentário: O significado de ser X igual a' C é o seguinte: · Desde- que X 
é uma função do espaço amostral nd Rx, a propriedade acima diz que o Rx é cons-
tituído unicamente plllo v:alor C. Gonseqüentemente, X será iguai a C, se, e . so-
mente se, P[X(s) = C.l = 1. Estai idéia é melhor explh::ada em termos d;,. 'fd 
de X, A saber, F(x) = O, se x < é; F(x) ~ 1, se x 2: C (veia a Fig. 7.4). Tal 
variável aleilt6ria é, algumas vez~, chamada degenerada. · · . .. . ... I • . 
Propriedade 7.2. Supo~a,.:se que C seja uma constante e X 
seja uma variável aleatória. !ED,tão, E(CX) ="' CE(X). 
Demonstração: i 
! +... I f+"' E( C X) = _"' Cxj(x) F = C :__ ~ xj(x) dx = CE(X} 
~ I. 
Propriedade 7 .3. Seja (~, Y) uma variável aleatória bídimen- . 
sional · com uma distribuição de probabilidade conjunta. Seja 
I 
Z = H 1(X, Y) e W "= H 2(X, Yj). Então, E(Z + W) = E(Z) + E(W). 
I 
Demonstração: i 
i 
E(Z + W) = J: "'1: .. [+(x, y) + H 2(x, y)]j(x, y)dx dy = 
.j 
1 [onde j é a fdp conjunta de (X, Y)J 
: . . ;.- ., 
I I 
: .. 
152 I PROBABIUDADIE 
Propriedade 7.4. Sejtilm X .~ Y duas variáveis aleatóriM qu&is-
quer. Então, E(X + Y) = E(X) + E(Y). 
Demonstração: Isto decorre ãmOOi&tmnente da Propriedade 7.3, 
ao se fazer H 1(X, Y) = X e H 2(X, Y) = Y. 
Comentário: (a) Combinando-se as Propriedades 7.1, 7.2 e 7 .4, observaremos 
o seguinte fato importante: Se Y = aX + b, onde a e b sl!.o constantes, .entl!.o 
E(Y) = aE(X) + b. Em linguagem corrente: o valor esperado de uma função 
line&r é 111 mesma função line&r do v&lor esper&do. X!!to fUlo será. verdadeiro, a 
men9s que se trate de função linear, e constitui um erro comum pensar que a pro-
priedade ·seja vá.lid& para outras funções. Por eJtemplo, E(X 2) ;;é (E(X)J2, 
E(ln X) ;;é ln E(X) etc. Assim, se X tomar valores _: 1 e + 1, cada um com pro-
bBbilidade 1/2, entlto E(X) = O. No entanto, 
(b) Em geral, é difícil obter expressões para E(l/X) ou E(X 112 ), digamos 
em termos de 1 I E (X) ou [E (X) ] 112 • Contudo, algumas desigualdades estão 
disponíveis, as quais são muito simples de deduzir. (Veja os artigos de Fleiss, 
Murthy e Pillai e o de Gurland, nos números de fevereiro e dezembro de 1966 e 
abril de 1977, respectivamente, da revista The American StatisticiLui.) 
Por exemplo, teremos: 
(1) se X tomar soinente valores positivos e tiver expectância finita, então, 
E (I/X);;. 1/E(X). 
(2) sob as mesmas hipóteses de (1), E(X 112 ) .;; [E(X)] 112 • 
Propriedade 7.5. Sejam n variáveis aleatórias X 1, .•• , X,.. 
Então, 
E(Xt + ... + Xn) = E(Xt) + ... + E(Xn). 
Demonstração: Isto decorre imediatamente da Propriedade 7.4, 
pela aplicação da indut;ão matemática. 
Comentário: Combina.nd<HJe esta propriedade com a anterior, obteremos 
E ( ± ~x.) = E ~E(X;), 
io:::r 1 i -1 
onde os a; são constantes. 
Propriedade 7.6. Seja (X, Y) uma variável aleatória bidimen-
sional e suponha-se que X e Y sejam independentes. Então, E(XY) = 
= E(X)E(Y). 
CARACTERIZAÇÃO ADiCIONAl DAS VARIÁVEIS AlEATÓFUAS I 153 
Demonstração: 
f +mf+= E(JÇY) = _"' _"' xyj(x,y) dxdy 
r+"'j+"' 
= J-"' - m xyg(x)h(y) dx dy 
f +m r+"' = = xg(x) dx} _"' yh(y) dy = E(X)E(Y). 
Comentário: A hipótese adiCional de independência é exigida para estabele-
cer-se a Propriedade 7 .6, enquanto tal suposição não foi necessária para obter-se 
a Propriedade 7 .4. 
Exemplo 7.12. (Este exemplo se baseia em um problema do livro 
An Introduction to Probability Theory and Its Applications, de W. 
Feller, p. 225.) 
Suponhamos que seja necessário testar alguma característica em um 
grande número .de pessoas, com resultados positivos ou negativos. Além 
disso, suponhamos que alguém possa tomar amostras (ou provas) de 
várias pessoas e testar a amostra combinada como uma unidade, como 
pode ser o caso de certos tipos de exames de sangue. 
Suposição: A amostra combinada dará um resultado negativo se e 
somente se todas as amostras que contribuem forem negativas. 
Por isso, no caso de um resultado positivo (da amostra combinada), 
todas as amostras devem ser retestadas individualmente, para determinar 
quais são as positivas. Se as N pessoas forem divididas em n grupos de 
'k pessoas (admita-se que N = kn), então, surgem as seguintes escclhas: 
(a) testar todas as N pessoas individualmente, sendo necessários 
Ntestes; 
(b) testar grupos de k amostras, o que poderá exigir tão pouc6 
quanto n = Njk testes ou tantos testes quanto (k + l)n = N + n. 
· Será nosso propósito estudar o número médio de testes exigidos 
no caso (b) e, em seguida, comparar esse número comN 
Suposição: A prob~bilidade de que os resultados do teste sejàm 
positivos é igual a p, e é a mesma para todas as,pessoas. Os resultados 
dos testes para pessoas de um mesmo grupo sujeitas ao teste também 
são independentes. Seja X= número de testes requerídos para deterrni-
11~11 1~\ :: 
154 I PROBABILIDADE 
nar a característica que esteja sendo estudada para todas as N pessoas, 
e seja Xi = número de testes requeridos para testar pessoas no i-ésimo 
grupo, i= 1, .. . , n. 
Daí, X= X 1 + ... +Xn e, por isso, E(X) =E(Xt)+ .. . +E(Xn), 
o que é igual a nE(Xt), porque todos os Xi têm a mesma expectância. 
Agora, X1 toma somente dois valores: 1 e k + 1. Ademais,P(X1 = 1) = 
= p (todas as k pessoas no grupo 1 são negativas)= (1 - p )k. 
Portanto, 
e então 
Logo, 
P(X1 =k+ 1)= 1-(1-p)k . ) 
E(Xt)= 1· (1-p)k +(k+ 1)[1-(1-p)k]= 
= k[ 1-(I- p )k + k- 1 ]. 
(A fórmula acima é válida somente para k > 1, desde que k = 1 
conduz aE(X) =N + p • n, o que obviamente é falso!) 
Uma questão de interesse é a escolha de k para o qual aE(X) s~ja 
a menor possível. Isto poderá ser trátado facilmente por algum procedi-
mento numérico. (Veja o Problema 7.11.a.) 
Finalmente, note-se que, para o "teste em grupo" ser preferível ao 
teste individual, deveremos ter E(X) < N, isto é, 1 - (1- p )k + k- 1 < 1, 
o que é equivalente a k- 1 < (1: - p )k. Isto não podeocorrer, se 
(1 ~ p) < 1/2, porque, nesse caso, (1'- p)k < 1/2k < 1/k, a última 
·desigualdade decorrendo do fato de que 2k > k. Daqui, obteremos a 
seguinte conclusão interessante: Se p, a probabilidade de um teste posi-
tivo em qualquer dado individual; for maior do que 1/2, então nunca 
será preferfvel grupai amostras antes de testar. (Veja o Problema 7.11.b.) 
Exemplo 7.13. Vamos aplicar algumas das propriedades acima 
pára deduzir (de novo) a expectância de uma variáy;,l aleatória dis-
tribuída binomialmente. O método empregado poderá ser aplicado 
vantajosamente em muitas situações similares, 
. Consideremos n repetições d~ um experimento e seja X o nú-
mero de vezes que algum evento, digamos A, ocorra. Seja p = P(A) e 
CARACTERIZAÇÃO AD8C.IONAL pAS VAR~ÁVEIS ALEATÓRIAS I 155 . 
i 
admitamos que _ este número seja\ constante em tod~Mj as repetições 
OOWJJidemd&a. · 
Defmmmoa aa v~iáveia ~uxiliarea Y1, ••• , Y,., asaim: 
i 
Yfã = .li. ae o ewnto A ooorjrer nm i-ésima repetição, 
= @ illiiiSO oontxiírio. 
i . . 
Em oonseqüência, X = Y 1 + Y 2 + ... + Y ,.; e aplicando a Proprie--
d!M!e 7.5, obteremos· . . ! 
E~X) = E(Yl) l+ ... + E(Y,.). 
t!ontudo, · I 
E(Yo) = l(p) + 0(11- p) = p, para todo i. 
. I 
. . . - .. ·;· ···· --) . . 
..AssJm, E(X) = np, o que verific~ o resultado antenor. 
I 
Comentd.rio: V~m~.os relliterpretar ~w importante resultado. Consideremo5l 
~ v~iáwl aleatória X/n~ Isto repreeenJ a freqUência relativa do evooto A, dêritre 
'J!B n repetições de&. Empregando a·Pro~riedade 7.2, teremos E(X/n) = (np)fn = p. 
Isto é, intUitivamente, CQmo seria d<a ~p<arar-se, porque afirma ·que a freqüência. 
relativa .~a do evento A .ê p, quarldo p = P(A). Ele representa a primeira 
verifiC8\)li.0 tOOrie& do fato de que existe ~One:xão entre I a freqüênciiL remtiVI!. de um 
evento· e .a probabilidade ds,quele eventb. Em um eapítulo posterior, obteremos 
outros nsultados que est:Welecem uma · telaÇio ~uito . :maiS pr~ entre freqüên-
cia, rolativa e probabilidade. 1• ' 
! 
I 
Exemplo 7.14. Suponhamos que a procura D, por semana, de um 
certo produto seja uma variável [aleatória com uma certa distribui- .. 
çio de probabilidade, digamos J:r(D = n) = p(n), n = O, 1, 2, ... 
Admitamos que o custo pe.ra o t endedo:r seja C1 dólares por peça, 
enq1Jlanto ele vende cada peça P?r C 2 dólares. Qualquer peça· que 
não tenha sido vendida até o fim da semana. deve ser estocada ao 
. I 
custo de Cu dólares por peça.. Se o vendedor deddir · pro-duzir · N 
peÇ$.8 no início da semana, qual s~á seu lucro esperado por seman.11.? 
Pam. que valor 'de N, o lucro esp~ra.do se toma máximo? Se T for 
.o lucro por semana, teremos \ . 
I 
.T NC,. - N(;l se D > N, 
l 
DC2- C1N- CJra(N- D) se D ~ N. 
. I ;. 
Reescrevendo o que ea~ acima., Qbteremos 
I 
I 
. '1' N(Cs- C1) se E! > N, \ 
(Cs + CD)D - N((C1 + Ca) se D ::_:; N. 
I 
I 
. 
I 
156 I PROBABIUDAOE 
Por isst>, o lucro esperado é obtido assim. 
E(T) 
N 
N(C2- Ct)P(D > N) + (C2 + C a) L np(n) 
n·=o 
- N(Ct + Ca)P(D ~ N) 
m N 
N(C2- Ct) L p(n) + (C2 + C3) Lnp(n) 
n=N+l · n-0 
N 
- N(Ct + Ca) L p(n) 
n=O 
N 
N(C2- Ct) + (C2 + Ca) L p(n)(n - N). 
n=O 
Suponhamos que se. saiba que a seguinte distribuição de probabili-
dade seja apropriada para D: P(D = n) = 1/5, n = 1, 2, 3, 4, 5. Daí, 
E(T) = N(C2- C1) + (C2 ~ C3) [N(N + 1)/2 .~ N 2] se N ~ 5, 
1 . 
N(C2 - C1) + (C2 + Ca) 5 (15 ~ 5N) se N > 5. 
Suponhamos que C2 = $9, C1 = $3 e C3 = $1. Logo, 
E(T) 
L-----~------~--~N 
E(T) =6N + 2 [ N(N
2
+ 1) - N2] 
se N ~ 5, 
6N + 2(15 - 5N) se N > 5, 
7N- N 2 
30-4N 
se N ~ 5,. 
se N > 5. 
Portanto, o máximo ocorre para N = 3,5. (Veja Fig. ·7.5.) Para 
N = 3 ou 4, teremos E(T) = 12, que é o máximo atingível, porque 
N é um inteiro. 
7.5. A Variãncõat de uma Variável Aleatória 
Suponhamos que, para uma variável aleat6ria X, verificamos 
que E(X) = 2. Qual é o significado disto ? É importante que · não 
atribUamos a essa informação mais significado do que é autori~ado .. 
CARACTERIZAÇÃO ADDCIOI\IAL D"AS.VARIÁVE.ISAlEATÔRIAS I 15.7 
Ela simplesmente signific& que se considerarmos um grande número 
de determinações de X, digamos x ••... . , Xn e calcularmos SI média 
desses valores de X, esta média estaria' próxima de 2, se n fosse grande. 
No entanto, é verdadeiramente crucial não atribu~r demasiado sig-
nificado a um valor esperado. Por exemplo, suponhamos que X 
represente a durnção da vida de lâmpadas que estejam sendo recebi-
das de um fabricante; e que E(X) = 1.000 horas. Isto poderia sig-
nificar uma dentre muitas coisas. Poderia significar que a maioria 
das lâmpadas deveria durar um periodo compreendido entre 900 horas 
e.l.lOO horas. Poderia, também, significar que as lâmpadas forne-
cidas são formadas de dois tipos de lâmpadas, l.nteiramente diferen-
tes:eerca de metade são de muito boa qualidade e du~arão aproxima-
damente 1.300 horas, enquanto a outra metade são de muito má qua-
lidade-e durarão aproximadamente 700 horas. 
Existe uma necessidade óbvia de introduzir uma medida quanti-
tativa que venha a distinguir entre essas duas situações. Vária.S 
medidas são por si mesmas muito sugestivas, mas a seguinte é a quan~ 
tidade mais comumente empregada. 
Definição. Seja X uma variável aleatória. Definimos a vari-
ância de X, denotada por V(X) ou ~Yx2 , da maneira seguinte: 
V(X) = E [X - E(X)]2 • (7.12) 
A raiz quadrada positiva de V(X) é denofuinada o desvio-padrão 
de X, e é denotado por ~Yx. 
Comentários: (a) O número V(X) é expresso por unidades qua<Jr{ulas ·de X. 
Isto é, se X for medido em horas, então V(X) é exprelS:\1 em (horas)2 • Este é um 
motivo para considerarmos o desvio-padrão; ele é expresso nas m~ unidades 
que X.· 
(b) Outra medida possível poderia ter sido E I X - E(X) J. Por alguns 
. motivos, um dos quais é que X2 é uma função melhor "comportada" que IXJ, 
a variância é preferida. 
(c) . Se interpretarmos E(X) como o centro de gravidade da unidade de 
massa distribuída· sobre = reta, poderemos interpretar V(X) como o momento · 
de inércia dessa massa, em relação a um eixo perpendicular que passe pelo centro 
.de gravidade da massa. 
(d) V(X), tal como definida na Eq. (7.12) é: um caso especial da seguinte 
noção mais geral. O k-ésimo rrwmento da variável aleatória X, em relação a sua 
expectância, é definida comd sendo }J. J, = E [X - E(X) ]k. Evidentemente,· para 
k = 2, obteremos a variância. 
O cálculo dé V(X) pode ser simplificado com o auxílio :do seguinte 
resultado. 
158 I PROBABILIDADE 
Teorema 7.5. 
Demonstração: Desenvolvendo E[X- E(X)]2 e empregando as 
propriedades já estâbelecidas para o valor esperado, obteremos 
V(X) = E[X - E(X)] 2 
= E{X 2 - 2XE(X) + [E(X)] 2 j 
= E(X 2)- 2E(X)E(X) + [E(X)] 2 [Lembrar que E(X) é 
= E(X2) _ [E(X)l2. uma constante.] 
'Exemplo 7.15. O serviç~ de meteorologia classifica o tipo de 
céu que é visivel, em termos de "graus de nebulosidade". Uma es-
cala de 11 categorias é empregada: O, I, 2, .. . , 10, onde O representa 
um céu perfeitamente claro, 10 representa um céu completamente 
encoberto, enquanto os outros valores representam ~ diferentesó .c,on-
dições intermediárias. Suponha-se que tal classificação seia;}E;!ita 
em uma determinada estação meteorológica, em uriJ. daterminaq~,,dia 
e hora. Seja X a variável aleatória que pode tomar um dos Ii · ~a­
lores acima. Admita-se que a distribuição de probabilidade de X seja 
P1 = P2 = Ps = pa = 0,15; 
Pa = p~ = P6 = pa = p1 = 0,06. 
Portanto1 
E(X) = 1(0,15) + 2(0;15) + 3(0,06) + 4(0,06) + 5(0,06) + 
+ 6(0;06) + 7(0,06) + 8{0,15) + 9(0,15) + 
+ 10(0,05) = 5,0. 
A fim de calcular V(X), necessitamos calcular E(X2). 
E(X2) = 1(0,15) + 4(0,15) + 9(0,06) + 16(0,06) + 25(0,06) + 
+ 36(0,06) + 49(0,06) + 64(0,15) + 81(0,15) + 
+ 100(0,05) = 35,6. 
Portanto, 
V(X) = E(X2) - [E(X))2 = 35,6 - 25 = 10,6, 
e o de.svio,-padrão u = 3,25. 
\ 
Exemplo 7.16. Suponhamos que X seja uma variável aleatóri~ 
continua com f'dp · 
~ I . I I . 
CARACTERIZAÇAO AD.ICIONAL DAS VARIA VEIS ALIEATORIAS I t59- I - . 
j(x) = 1 + X; I - 1 ~ x ~ O, 
= 1 ~- X, ~ 0 ~ X ~ 1. 
(Veja a Fig. 7.6.) Em virtude da[simetria da fdp, E(X) =O. (Veja 
o comentário abaixo.) · · 
Além disso, 
E(X') ~ 1>(1 + x) dx + i 
+ 11 x 7(1- x)ch = !
1
• 
f(x) 
\ -1 X 
Portanto, V(X) = ! · . i . .· 
. IFIQJ. 7.6 
Com~~rio: Su_ponhamos q~e uma \va.riável al~atória con~nua tenha uma 
fdp que seJa s1métnca em rela.çao a x =· O. Isto e, j(- x)· = j(x) para todo x. 
Então, desde que E(X) exista, E(X) =o, lo que é uma !conseqüência imediata da 
definição de E(X). Isto pode ser estendido a um ponto arbitrário de simetria 
. ' . I 
z = a, e nesse caso E(X) = a. (Veja o f'robl. 7.33.) 
7.6. 
tória. 
I 
I 
Prçpriecllades rdla Variância clle uma Variãvel Alea-
! 
Existem vana.s propriedades I imp~rtantes, {!m parte análogas 
àquelas expostas para a expectân4ia . de uma variável aleatória, as 
quais valem para a variância. I . i . 
Propriedade 7.7. Se C for uni.a constant~, 
I 
l'(X + C)i= V(X). (7.13) 
Demonstração: · 
I 
V(X + C) = E[(X + C) :- E(X +i C)]2 = l..1(X + C) ...,. E(X) -: C]z 
= E[X - E(X))2 ,;: V(~. 
. I 
Comentário: Esta ·propriedade é intuitivamente evidente, porque somar 
UIWI constante a um resultado X ni!.o llllt6-a sua variabilidade, qUl!l é siquilo que a 
vmância mede. Apenas "desloca" oo valores de X para 11. direita ou Iii esquerde, 
dfl~ndendo do sinal de C. . j . 
I 
Pr()prÍedade 7.8. ~ C for ~a constante, 
V(CX) = l c~V(X). (7J.4) 
· Demcmstração: i 
. V(CX) = E( C X)~ - [E(CX)}~. l (}2E(X2) - C2[E(X)}2 \ 
. . I 
= C!(E(X2)- (E(X)}2}J.= C!V(X). 
160 I PROBABIUDADIE 
Propriedade 7.9. Se (X, Y) for uma variável aleatória bidi-
mensional, e se X e Y forem ·indépendentes, então 
Y(X + Y) = l'(X) + V(Y). (7.15) 
Demonstração: 
r(X + Y) = E(X + Y)2- [E(X + Y))2 
E(X 2 +2XY + Y2)- [E(X)]2- 2E(X)E(Y)- [E(Y))2 
E(X2)- [E(X))2 + E(P)- [E(Y)}2 = V(X) + V(Y). 
Comernário: 1!: importante compreender que .a variância. nao é, em geral, 
aditiva, como o é o valor esperado. Com a hipótese complementar de indepen-
dência, a Propriedade 7.9 fica ·válida. A variância t.ambéin não possui a proprie-
·dade de linearidade, que expusemos para a expectância, isto é, V(aX + b) r" 
r" a V(X) + b. .Em vez disso, teremos V(aX + b) = a2V(X) . 
Propriedade 7:10. Sejam X 1, . . • , Xn, n variáveis aleatórias in,-
dependentes. Então, 
(7.16) 
Demonstração: Isto decorre da Propriedade 7.9, por indução 
matemática. 
Propriedade 7.11. Seja X uma yariável aleatória com variân-
eia finita. Então, para qualquer número real a, 
V(X) = E [(X - a) 2] - [E(X) - aJz: (7.17) 
Demonstração: Veja o· Probl. 7.36. 
Comerúários: (a) Esta é 1.1ma extensão óbvia do Teor. 7.5, porque fazendo 
a = O, obteremos o Teor. 7.5. 
(b) Se interpretarmos V(X) como o momento de inércia e E(X) como o 
centro de ·uma unidade de massa, então a propriedade · acíma é uma formulação 
do bem conhecido teorema dos. e.z':t.os paralelos, em · ~Iecânica: O momento de inér-
cia em relação a üm ponto arbittário é igual ao mom.ento de inércia em relação ao 
centro de gravidade, mais o quadrado da distância desse ponto arbitrário ao cen-
tro .de gravidade. 
(c) E[X - aY se torna mínimo se a = E(X). Isto decorre imediatamente 
da propriedade acima. Portanto, o momento de· inércia (de uma unidade de ma.ssa 
-distribuída sobre uma reta), em relação a um eixo que passe por um ponto arbi-
trário, torna-se mínimo se esse ponto escolhido for o centro de gravidade~ ... 
Exemplo ·7.17. Vamos calcular a variância de uma variável 
aleatória X, distribuída binomialmente, com parâmetro p. 
Para calcular F(X), podemos proceder de duas maneiras. Como 
já sabemos que E(X) = np, devemos apenas calcular E(X 2) e a seguir 
.CARACTERI:ZAÇÃOADICDONALDAS VAR!ÁVIEISALEATÓRIAS I 161 
calcular · V(X) como igual a E(X2)- [E(X))2. Para calcular E(X 2), 
empregaremos o fato de que P(X = k) = (Z)pk(1- p)"--k, k = 
= o, 1, ... 'n. Portanto, E(X2) == Lk~O e(~)pk(1 - p)n--k Este 
somatório pode ser calculado bastante facilmente, mas em vez de 
fazer isso, empregaremos um método mais simples. 
Novamente empregaremos a representação de X introduzida 
no Ex. 7.13, a saber, X = Y1 + Y2 + ... + Yn. Agora .observa-
remos que os Y; são variáveis aleatórias independentes, uma vez que 
o valor de Y; depende somente do resultado da i-ésima repetição, e 
as sucessivas repetições são supostas independentes. Daí podermos 
aplicar:..a Propriedade 7.10 e obter 
V(X) = V(Y1 + ... + Yn) = V(YI) + ... + V(Yn)· 
Mas, V(Y/l = E(Y;) 2- [E(Y;)] 2. Então, 
E(Y;) = 1(p) + 0(1- p) = p, E(Y;) 2 = P(p) + 0 2(1-p)= p. 
Logo, V(Y;) = p- p2 = p(l - p) para todo ~- Assim, V(X) = 
= np(l- p) . 
Comentário: Vamos conside,ar V(X) = V( X) 
= np(l - p) como uma função de p, 
para n dado. Esboçaremos um gráfico 
como aquele mostrado na Fig. 7.7. 
Resolvendo (d/dp)np(l - p) = O, en-
contraremos que o valor máximo de 
V(X) ocorre para p = 1/2. O valor mí-
nimo de V(X), obviamente ocorre nos 
p=j 
extremos do intervalo, para p = O e p = Fig. 7.7 .~J 
= 1. Isto está de acordo com o que se 
esperava, intuitivamente. Lembrando que a variância é uma medida da varia-
ção da variável aleatória X, definida como o número de vezes que o evento A ocorre 
em n repetições, encontrar.emos que esta variação será zero, se p ,;, O ou 1 (isto é, 
se A ocorrer com probabilidade O ou 1) e será máxima quando estivermos tão "in-
certos quanto poderíamos estar" sobre a ocorrência ou não de A, isto é, quando . 
P(A) = 1/2. 
Exemplo 7.18. Suponhamos que 
uniformemente distribuída sobre [a, b]. 
riormente E(X) = (a+ b)/2.. 
a variável aleatória X seja 
Como já calculamos ante-. 
Daí, 
Para calcular V(X), vamos calcular E(X2): 
j b 1 ba- aa E(Xt) = x 2 dx = --:--:::---:--
( . a b - a 3(b - a) 
I 
V(X) = E(X2) - [E(X)] 2 = (b - a)
2 
12 
depois de um cálculo simples. 
162 I PROBAB!LIDADIE 
C.omenlários: (a) Este é um resultado intuitivamente significativo. Ele 
diz que a variância de X não depende de a e b, individualmente, mas .somente de 
(b - a)2, isto é, do quadrado de sua diferença. Portanto, dua.s variáveis aleatórias, 
cada uma das quais é uniformemente distribuída sobre algum intervalo (não ne-
cessariamente o mesmo para ambas), terão variâncias iguais enquanto os com-
primentos dos intervalos sejam iguais: 
(b) É um fato bem conhecido que o momento de inércia de uma haste del-
. gada de massa Me comprii:nento L, em reLM;ã.o a um eixo perpendicular que passe 
pelo seu centro; é dado por MV/12. 
7.7. Expressões Aproximadas ola Expectância e da Va-
riância 
Já observamos que a fim de calc1,1lar E(Y) ou V(Y), onde 
Y = H(X), não necessitamos achar a distribuição de probabilidade 
de Y, pois poderemos trabalhar diretamente com a distribuição de 
probabilidade de X. Semelhantemente, se Z = H(X, Y), poderemos 
calcular E(Z) e V(Z), sem primei~o obter a distribuição deZ. 
Se a função H for bem complicada, ó cálculo das expectâncias 
e variâncias pode conduzir a .integrações (ou somatórios) que são 
bastante difíceis. Por . isso, as seguintes aproximações são muito · 
úteis. 
Teorema 7.6. Seja X uma variável aleatória com E(X) = fJ. e 
V(X) = u 2• Suponha-se que Y = H(X). Então, ·) 
E(Y) e!. H(JJ.) + H'~(JJ.) u 2 , 
V(Y) e!. [H'(JJ.)] 2u 2• 
(7.18) 
(7.19) 
(A fim de tornarmos significativas as aproximações acima, exigi-
remos, obviamente, que H seja derivável ao menos duas· vezes no 
ponto x = f.L.) 
. Dem(J11,8tração (apenas . esboçada): A frm de estabelecer a 
Eq. (7.18), deSenvolveremos a função H em série de Taylor, próximo 
de x = fJ., até dois termos. Deste modo 
Y = H(f.L) + (X - !Jr)H'(p.) + (X - JJ.)W"(JJ.) + R 1, 
2 " 
onde R1 é o resto. Se abandonarmos o resto R1, e a seguir, tomarmos 
o valor esperado de ambos os membros, teremos 
E(Y) c::< H(p.) + H"(p.) u 2, 
2 
I 
CARACTERIZAÇÃO ADICIONAL IE>AS VARIÁVEIS ALEATÓRIAS I 163 
I 
porque E(X - p.) = O. A fim d'e e.Stabelecer a Eq. (7.19), desen-
volveremos H em série de Taylor laté u~ ~ermo, p~ra x = p.. Nesse 
caso, Y = H(p.) + (X-11-)H'(p.) +.R2.Se· abandonarmos o resto R 2 
e tomarmos a variância de ambos os membros, teremos 
Exemplo 7.19. Sob certas condições, a tensão superficial de um 
líquido (dina/centimetro) será dad~ pela fórmula S = 2(1- 0,005 T) 1•2, 
na qual T é a temperatura do líq(Iido (em graus centígrados). 
Suponhamos que T seja limai variável aleatória continua com a 
seguinte fdp 1 
J(t) = 3.ooot-\ t ;:::: H), 
. = O, para quaisqJr outros valores. 
Daí, 
r~ I 
E(T) ~ ], 3.ooor• dt ~ 15 (gm"' rentigrndo,), 
e I 
V(T) = E(T 2) .:_ . (15)2 i 
l
~ I 
= 3.000t-2 dt .L 225 = 75 (graus centígrados)2. 
. o I 
Para calcularmos E(S) e V(S), i teremos que calcular as seguintes 
integrais: I 
J. m (I - 0,005t)1.2e- 1 dt e I r~ (1 - 0,005t)Mt-4 dt. 10 1 J1o , 
i . 
Em vez de calcular estas expressões,· obteremos aproximações 
de E(S) e V(S) com o emprego d~ Eqs. (7.18) e (7.19). A fim de 
titilizar essas fórmulas, teremos dJ calcular H'(l5) e• H"(15), onde 
H(t) = 2(1 - 0,005t) 1•2• Teremos I 
H'(t) = 2,4(1- 0,005t)o.2(- 0,005) = - 0,012(1..,.. 0,005t)Oo2. 
I 
Portanto H(l5) = 1,8~:, H'(15) = 0,01. Semelhantemente, 
H"(t) =- 0,002 4(1 -- 0,005t)-M ( jl O.po5) = 0,000 012(1- 0,005t)-0·6: 
Logo, .· . 
Portanto teremos 
I 
H"(l5) = 'o;ooo 012 = o+. 
(o 925)0•8 , I 
i 
E(S) C:!. H(l5) + 75If'{l5) = 1,82 (d/em) 
V(S) ~ 75[H'(l5)]:a :i. 0,87 (d/cm)2• 
164 I PROBABDUDADE 
Se Z for uma função de duas variáveis, por exemplo Z =. H(X, Y), 
um resultado análogo será viável. 
Teorema 7.7. Seja (X, Y) uma variável aleatória bidimensional. 
Suponha-se que E(X) = !J.x, E(Y) = FJ.v; V(X) = O"x~ e V(Y) = O"y"'!.. 
SejaZ = H(X, Y). [Deve-se admitir que as várias derivadas de H 
existam para (Jlx, Jly ).] Então, se X e Y forem independentes, ter-se-á 
onde todas as derivadas parciais são calculadas para (;.;.:r, FJ.y). 
Demonstração: A demonstração envolve o desenvolvimento de 
H em série de Taylor, no ponto (;.;.:r, FJ.v), para um e dois termos, o 
abandono do resto, e, a seguir, o cálculo da expectância e da variân-
cia de ambos os membros, tal como foi feito na demonstração do 
Teor. 7.6. Deixamos os detalhes a cargo do leitor. (Se X e Y não forem 
independentes, uma fórmula um pouco mais complicada poderá ser 
deduzida.) 
Comentário: O resultado acima pode ser estendido a uma função de n v&iâ-
veis aleatórias independentes z ·= H(X, ... , Xn). Se E(Xi) = 1-Li, V(Xz) =a{, te-
remos as seguintes aproximações, admitindo-se que todas as derivadas existam: 
onde todas as derivadas parciais são calculadas no ponto Ú!11 ••• , lf.n). 
Exemplo 7.20. Admita-se que ~mos um circuito simples, 
para o qual a tensão M seja expressa pela Lei de Ohm como,M = IR, 
onde I e R são, respectivamente, a· corrente e a resistência do cir-
cuito. Se I e R forem variáveis aleatórias independentes, então M será 
uma variável aleatória, e empregando o Teor. 7.7, poderemos escrever 
E[M] ~ E{I)E(R), V[M] C!l:! [E(R)]2V(I) + [E(I)]2V(R). 
CARACTER~ZAÇÃO ADiCiONAl DAS VARIÁVEIS ALEATÓRIAS I 165 
Existe uma bem conhecida desigualdade, devida ao matemático 
russo Tchebycheff, que desempenhará um importante papel em nosso 
trabalho subseqüente. Além disso, ela nos fornece meios de com-
preender precisamente como a variância mede a variabilidade em re-
lação ao valor esperado· de uma variável aleatória. 
Se conhecermos a distribuição de probabilidade de uma varlá:vel 
aleatória X (quer a fdp no caso contínuo, quer as probabilidades 
punctuais no caso discreto), poderemos nesse caso calcular E(X) 
e V(X), se existirem. Contudo, a recíproca não é verdadeira. Isto 
é, do . conhecimento de E(X) e V(X) não poderemos reconstruir a 
distribuição de probabilidade de X e, conseqüentemente, calcular 
quantidades tais como P[ I X - E(X) I~ C]. Não obstante, veri.., 
fica-se que muito embora não possamos calcular tais probabilidades 
[a partir do conhecimento de E(X) e V(X)], poderemos estabelecer 
um limite superior (ou inferior) muito útil para essas probabilidades. 
Este resultado está contido no que é conhecido como desigualdade 
de Tchebycheff. 
Desigualdade de Tchebycheff. Seja X uma variável aleatória, com 
E(X) = f.l, e seja c um número real qualquer. Entã~, seE(X- c? for 
fmita e e for qualquer número positivo, teremos 
1 
P[ IX- c !;;. e]< --E(X- c)2 • 
€2 
As seguintes formas, equivalentes a (7.20), são imediatas: 
(a) Se considerarmos o evento complementar, obteremos 
(. 1 
P[IX-c l<e];;;;.1 - -E(X- c)2 • . é 
( b) Escolhendo c = f.l, obteremos 
(7.20) 
(7.20a) 
(7.20b) 
(c) Escolhendo c = f.1 e e = ka, onde a2 = V ar X> O, obteremos 
P[ IX- f.l i ;;;;.ka] <k-2 • (7.21) 
166 I PROBABILIDADE 
Esta última forma (7.21) é particularmente indicativa de como a 
variância mede o "grau de concentração" da probabilidade próxima de 
E(X)=JJ.. 
Demonstração: [Demonstraremos apenas a (7 ,20), porque as 
outràs decorrem do modo como foi indicado. Trataremos somente do 
cáso conVnuo. No caso discreto, o raciocínio é muito seinelliante, com 
as integrações substituídas por somatórios. Contudo, algum cuidado 
deve ser tomado com os pontos extremos dos intervalos]: 
Consideremos 
P[ IX- c I;;;. E] =f . 
1 
_ 1..,. cJ(x)dx . . X . X C """ c 
(O limite da integral diz que estamos integrando entre - oo e c - c e 
entre c+ E e+ oo.) 
Ora, lx - .cl;;;. 8. é equivalente a (x- c)2 /E 2 ;;;. L 
Conseqüentemente, a integral acima é 
(x- c)2 
f(x)dx, 
onde R = {x: I x - c I;;;. c} . 
Esta inte-gral é, por sua vez, 
(x- c)2 
f(x)dx, 
que é igual a 
1 . 
- E[X-c]2 
[2 ' 
. i 
como se queria demonstrar. 
·~. 
Comentdrios: (a) É importante compreender que o resultado acima é no-
tável, precisamente porque muito pouco é suposto a respeito do comportamento 
probabilístico da variável aleatória X. 
(/J) Como poderíamos suspeitar, informação adicioná! sobre a distribuição 
da variável aleatória X nos permitirá melhorar a desigualdade deduzida. Por 
exemplo, se C= 3/2, teremos da desigualdade de Tchebycheff 
·~ : .. ' 
CARACTERIZAÇÃO ADiCIOI\!All DAS VARIÃ~EIS AlE;ATÕRiAS I 167 
Admita-se que ta.mbém saibamos que ! X .é uniformemente distribuída sobre 
(1- 1/ v3, 1 + l/"\/'3). Daí, E(Xi = 1, V(X) = 1/9, e portlilnto, 
I 
3 I 1 1 
P[IX - .ui~ 2·o-] =P[IX- 111 ~ 21 ~ 1- P(IX- li,< 21 
I 
1 i 3 v3 
= 1- P[ 2 f X< 21 = 1- - 2 - = 0,134. 
i 
Observe-se que, muito embora o enuncia~o obtido da desigualdade de Tchebycheff 
seja coerente ~om este resultado, este últlmo é muito mais preciso. Não obstante, 
em muitos problemas, nenhuma hipót~e referente à. específica distribuição da 
variável aleatória é justificável e, em tl.Lis casos, a desigualdade de Tchebycheff 
nos fornece uma informação importante Jsobre o comportamento da variável alea.-
tória. 
Como podemos observar <lá I Eq. (7 .21), se V(X) for pequena, 
a maior parte da distribuição de probabilidade de X estará "con-
e entrada" próxima de E( X). Isio pode sér· expresso · mais precisa-
mente no seguinte teorema. I 1 • , • 
Teorema 7.8. Suponha-se qu~ V(X) =O. Então P[X = JJl = 1, 
onde J.L = ECX). (Isto é, X = J.L, fom "probabilidade 1.") 
Demonstração: I)a Eq. (7.20:b ), encontramos que 
P[i X - pI ~ 9 ] = O para qualquer c > O. 
Por conseguinte i 
I 
P[IX- JJI < n = 1 paraqualquer ~>O. 
Como e pode ser escolhido arbit~riamente pequeno, o teorema fica 
demonstrado. ; 
Comentários: (a) Este teorema mJtra que variância nula implica que toda 
probabilidade está concentrada em um úrtco ponto, a saber, em E(X). 
I " 
(b) Se E(X) = O, entã.o Y(X) = E(X1), e por isso, neste caso, E()(l) ~- O 
acarreta a mesma c~ncl~o. . 1· ' . • 
(c) .f: no senttdo actma que dizem011 que uma vartável X e ckge1le'l'ada: Ela 
toma somente um valor com probabilidJde l. 
I 
7.9. O Coeficiente de Cofrelação 
I 
Até aqui estivemos t;atandÓ de parâmetros relacionados, tals 
I . . 
como E(X) e V(X), com a distribuição de variáveis aleatórias uni-
i . . . 
dimensionais. Estes parâmetros /medem, em um sentido ' ~xplicado 
anteriormente, certas caracterist~cas da distribuição. Se tivermos 
I 
168 I PROBABI!.. BDADIE 
uma variável aleatória bidimensional (X, Y), um problema análogo 
será encontrado. Naturalmente, também poderemos eStudar as 
variáveis aleatórias unidimensionais X e Y associadas com (X, Y). 
Contudo, a questão surge quanto a haver um parâmetro expressivo, 
que meça de algum modo o "grau de associação" entre X e Y. Est~ 
1 noção bastante vaga será tornada mais precisa, brevemente. Esta-
beleçamos a seguinte definição. 
Definição. Seja (X , Y) uma variável aleatória bidimensionaL 
Definiremos pxy, o coeficiente de wrrelação, entre X e Y , da seguinte 
forma: 
E{[X- E(X)][Y- E(Y)]! 
P:zu = VV(X)V(Y) 
(7.22) 
Comentários: (a) Supomos que todas as esperanças matemáticas existam 
e que ambas V(X) e V(Y) sejam não-nulas. Quando não houver dúvida quanto 
às variáveis, simplesme~te·escreveremos p em vez de Pxy· 
(b) O numerador de p, E [[X- E(X)][Y- E(Y)]], é denominado cova-
riância entre X e Y, e algumas vezes é d_enotado por axy. 
(c) O coefiCiente de correlação é uma quantidade adimensional. 
(d) Antes que a definição acirria fique realmente expressiva, devemos des-
cobrir exatamente o que p mede. Faremos isto pela consideração de algumas pro-
priedades de p. 
Teorema 7.9. 
E(XY) - E(X)E(Y) 
p = VV(X)V(Y) 
Demonstração: Considere-se 
E[[X- E(X)][Y- E(Y)]) = 
= E[XY- XE(Y) - YE(X) + E(X)E(Y)J 
= E(XY) - E(X)E(Y) - E(Y)E(X) + E(X)E(Y) 
= E(XY) - E(X)E(Y). 
Tteorema 7.10. Se X e Y forem independentes, então p =O. 
Demonstração: Isto decorre imediatamente do Teor. 7.9, porque 
E(XY) ·= E(X)E(Y) 
se X e Y forem independentes . 
. Comentário: A recíproca do Teor. 7.10 em geral nao é verdadeira. (Veja 
o Probl. 7.39;) Isto é, podemos ter p = O, e no entanto X e Y não precisam ser 
independentes. Se p = O, diremos que X e Y são nao correlacúm.adas. Portanto, 
eer não correlacionado e ser independente, em geral, não são equivalentes. 
CARACTERIZAÇÃO ADDCDONAL IDAS VARIÁVEIS AUEATÓROAS / 169 
O exemplo seguinte ilustra esta questão.* 
Sejam X e Y duas variáveis aleatórias quaisquer que tenham a 
mesma distribuição. Sejam U =X- Y e V= X+ Y. Então,E(U) =O 
e cov ( U, V) = E[(X- Y) (X + Y)] = E(J(l - J72) = O. Portanto, U 
e V são não correlacionadas. Ainda que X e Y sejam independentes, 
U e V podem ser dependentes, como a seguinte escolha de X e Y indica. 
Sejam X e Y os números ·que aparecem no primeiro e no segundo dados, 
respectivamente, que tenham sido jogados. Nós agora achamos, por 
exemplo, que P[ V= 4 I U = 3) = O (uma vez que X- Y = 3; X+ Y 
não pode ser igual a 4), enquanto P(V = 4) = 3/36. Portanto, U e V 
são depen<!entes. 
Teorema 7.11. -1 .::; p ::; 1. (Isto é, p toma valores entre 
- 1 e + 1, inclusive.) 
Demonstração: Considere-se a seguinte função da variável 
real i: 
q(t) = E[V + tW] 2 , 
onde 
V = X - E(X) e W = Y ~ E(Y). 
'í(t} q(t) 
v 
(a) (b) 
Fig. 7.3 
Visto que [V + tW] 2 2: O, temos que q(t) 2: O para todo t. Desen~ 
volvendo, obteremos 
I . 
* O exemplo dado neste comentário foi tirado de uma explicação que apareceu no 
artigo intitulado "Mutually Exclusive Events, Independence and Zero C~rrelation", 
por J. D. Gibbons, em The American Statistician, 22, N? 5, December)968, 
p. 31-32. ' 
~' 
11~\ ~ 
170 I PROBABILIDADE 
Deste modo, q(t) é uma expressão quadrática de t. Em geral, se u. 
expressão quadrática q(t) = at2 + bt + c tem a propriedade de < 
q(t) ~ O para todo t, isto significa que seu gráfico toca o eixo dm 
em apenas 1un ponto, ou não toca, como se indica na Fig. 7.8. Is 
por sua vez, significa que seu discriminante b2 - 4ac deve ser :::::; 
porq~e b2 - 4ac >O ~ignificaria que q(t) teria duàs raízes reais d 
tintas. Aplicando-se esta conclusão à função q(t), que estávam 
considerando acima, obteremos 
4[E(VW)]2 - 4E(V.2)E(W2) ~ O. 
Isto acarreta 
[E(VW)]2 {E[X- E(X)][Y- E(Y)]p 
E(V2)E(W2) ~ 1• e daí V(X)V(Y) = p
2 
~ 1. 
Portanto, - 1 :::::; p ~ 1. 
Teorema 7.12. Suponha-se que p 2 = 1. Portanto (com proba 
bilidade 1, no sentido do Teor. 7.8), Y = AX + B, onde A e B sã• 
constantes. Em palavras: Se o coeficiente de correlação p for ± 1 
então Y será uma função linear de X (com probabilidade 1). 
Demonstração: Considere-se novamente a função q(t), descrita 
na démonstração do Teor. 7.11. É coisa simples observar na de· 
monstração daquele teorema que, se q(t) > O para todo t, então p2 < 1 
Daí a hipÓtese do presente teorema, a saber p2 = 1, acarretar qm 
deve existir ao menos um valor de t, digamos to, tal qu~ q(to) = 
= E(V + toW) 2 =O. Desde que V+ t0W =[X- E(X)] + to[Y-
-E(Y)], temos que E(V + toW) =O e portanto a variância ·cv + 
+toW) = E(V + toW) 2 • Deste modo, encontramos que .a hipótesE 
do Teor. 7.12 leva à conclusão de que a variância de (V+ toW) = O 
Conseqüentemente, do Teor. 7.8 podemos concluir que a variáve 
aleatória (V + toW) = O (com probabilidade 1). Logo, [X - E(X)] + 
+ to[Y- E(Y)J :o: O. Reescrevendo Ísto, encontramos que Y = 
= AX + B (com probabilidade 1), como queríamos demonstrar. 
·comentário: A recíproca do Teor. 7.12 também vale, como est§; mostradc 
no Teor. 7'.13. 
. Teorema 7.13. Suponha-se que X e Y sejam duas variáveü 
aleatórias, para as quais Y = AX + B, onde ~ e B são constantes 
Então p 2 = 1. Se A >O, p = + 1; se A < Ó, p = -1. 
Demonstração: Visto 1que Y = AX + B,. teremos E(Y) = 
= AE(X) + B e V(Y) = A 2V(X). Também, E(XY) = E[X(AX + 
+ B)] = AE(X2) + BE(X). Portanto, 
· .i 
{ 
· ~ 
i 
CARACTERIZAÇÃO AOICIOi\!~l DAS VAR IÁVEIS ALEATÓRIAS I 171 
i 
[E(XY)- E(X)!E(Y)]2 
V(X)V(Y)! 
I 
IAE(X2) + BE~X)- E(X)[AE(X) + B]2 }2 
l{(X)A 2 V(X) 
i . 
I . . 
I AE(X2) + BE(iX) - A[E(X))2- BE(X)I2 
.j1 2[V(X))2 . 
A 21 E(X2) - [E(.~)]2 rz . 
A 2 [V(X)F [ . 
1. 
. I ~- . . 
(A segunda. parte do teo~ema resulta. da observação de que v A 2 =IA I.) 
i ' 
Cmnentário: Os Teors. 7. 1~ e 7.13 estabelecem. a seguinte importal).te carac-
terística do coeficiente de correlação: I O coeficiente de correlação é ~ma medida 
do grau de linearidade entre X e Y. V~l<il'es de p próximos de -f- 1 ou - ·r indicam 
um alto grau de linearidade, .enquan~ valores de p próximos de O jndiçam ·ralta 
de tal linearidade. Valores positivos ~e p mostram que Y "tende a crescer com o 
crescimento de _X, enquanto ~alares nekativos· de p Iii.ostr&m que Y tende· a decres-· 
cer com valores crescentes de X, Exi~te muito eqU:ivoco sobre a interp"ret&.ção do 
coeficiente de correlação. Um valor d~ p próximo de zero indica apenas a ausên-
cia M relação linear entre X e. Y. E!~ nãô eliminá a possibilidade de alguma re-
laÇão nali-lúl€ar. ' . . . . 
y 
f------,--71(1, 1) 
j Exemplo 7 .21. Suponha-se q,ue a 
variável aleatória bidimensional (X, Y) 
sej~ uniformemente distribuída sobre as 
regiões triangulares· 
R 
Fig. 7.9 
I . 
I R= l(x,y)IO<x<y<l}. 
! 
(Veja a Fig. 7.9) Conseqüentemente, a 
fdp \é dada como 
I 
I f(x, y) ;, , 2, (x, y) E R, 
= ·O, para outros quais-
quer valores. 
I 
Por conseguinte, as fdp niargiriaid déX e Y são · - I 
~(x) = /
1 
(2) dy,; ~(J- x), O~ :t ~ 1; 
I 
h(y) ,;, 11! (2)d~ = ~y, 
O I 
\ 
O~y~l. 
I 
~I 
- -------------.--
172 I PROBABIUDADE 
Logo, 
1
1 
1 
E(X) = x2(1- x) dx = -, 
3 1
1 2 
E(Y) = y2ydy =-i 
o 3 
. [1 1 
E(X2) = }o x22(1- x)dx = 6, 1
1 1 
E(P) = y22y dy = 2 ; 
V (X) = E(X2) - [E(X)]2 = __!_, 
18 
V(Y) = E(P) - [E(Y)]2 = _!_ ; 
18 
111Y 1 E(XY) = xy2 dx dy = -. o 4 
Portanto, 
E(J( Y) - E(X)E(Y) 1 
p = VV(X)V(Y) = 2 
Como já observamos~ o coeficiente de correlação é uma quanti-
dade adimensional. Seu valor não é influenciado pela mudança de 
escala. O seguinte teorema pode ser facilmente demonstrado. (Veja 
o Problema 7.41.) 
Teorema 7.14. Se Pxy for o coeficiente de correlação entre 
X e Y, e se V = AX + B e W = CY + D, onde A, B, C e D são 
constantes, eiJ.tão Pvw = (ACfJACJ)Pxv· (Supondo-se A~ O, C ~ - 0.) 
7.i0. Valor Esperado Condicionado 
Tal como definimos o valor esperado de uma variável aleatória X 
(em termos de sua distribuição de probabilidade)_ igual a f-~"' xj(x) dx 
ou .;E;=l x,p(x;), tambêm podemos definir o valoresperado condi-
cionado de uma variável .aleatória (em termos de sua distribuição de 
probabilidade condicionada), da seguinte maneira: 
Definição. (a) Se (X, Y) for uma variável aleatória contínua 
bidimensional, definiremos o valor esperado condicionado de X, para. 
um dado Y = y, como sendo 
1+"' E(X jy) = "' xg(xjy) dx. (7 .23} 
(b) Se (X, Y) for uma variável aleatória discreta bidimensio-
nal, definiremos o valor esperado condicionado de X, para um dado 
CARACTERIZAÇÃO AIJI!C!ONAL DAS VARiÁVEIS AlEATÓRIAS I 173 
Y = y;, como sendo 
"' 
E(X I Yi) = L x;p(x; I Yi) . 
i=l 
(7.24) 
O valor esperado condicionado de Y, para um dado X, será 
definido de modo análogo. 
Oomentários: (a) A interpretação do valor esperado condicionado é a se-
guinte: Desde que g(xly) representa a fdp condicionada de X para um dado· 
Y = y, E(XIy) é o valor esperado de X, condicionado ao evento { Y = y). Por 
exemplo, se (X, Y) representar o esforço de tração e a duréza de um espécime de 
aço, enj;ão E(XIy = 52,7) será o esforço de tração esperado de um espécime de· 
aço escolhido ao acaso da população de espécimes, cuja dureza (medida na Escala 
Rockwell) for 52,7. 
· (b) :f: importante compreender que, em geral, E(XIy) é uma função de y e, 
por isso, é uma variável aleat6ria. Semelhantemente, E(Yix) é uma função de x 
e, também, é uma variável aleatória. [Estritamente falarido, E(XIy) é o valo·r 
da variável aleafória E(X I Y) .] 
(c) Porque E(YIX) e E(XIY) são variáveis aleatórias, terá.sentido falar de-
BetUI valores esperados. Deste modo, poderemos considerar E[E(X I Y)l, por exem-
plo. :f: importante compreender que o valor esperado, interno, é tomado em re-
lação à distribuição condicionada de X, para Y igual a y, enquanto o valor espe-
ya,do, externo, é tomado em relação à distribuição de probabilidade de Y. 
Teorema 7.15. 
E[E(XI Y)] = E(X), 
E[E(YIX)] = E(Y). 
(7,.25) 
(7.26) 
Demonstração (apenas para o caso continuo): Por definição, 
f +® f+~ ) E(XIy) =, " xg(xly) dx = . _., x j~~f dx, 
onde fé a fdp conjunta de (X, Y) e a fdp marginal de Y. Por isso, 
! +"" f+"'[f_+"' ] . E[E(X I Y)] = .. E(X I y)h(y) dy= _"' . · _.. xf~Cy~) dx h(y) dy. 
Se existirem todos os v17lores esperados, será permitido escreyeX' 
a integral iterada acima, com a ordem de integração .trocada. Por isso 
E[E(XI Y)] = 1:= x [J:"'j(x, y) dy ]dx = J:""xg(x) dx '1, É(X), 
174 I PRO.BABBLIDADE 
[Um raciocínio semelhante poderia ser empregado para estabele-
cer a Eq. (7.26).] Este teorema é muito útil, como ilustram os exem-
plos seguintes. 
Exemplo 7.22. Suponha-se que remessas, contendo um número 
variável de peças, chegue cada dia. Se N for o número de peças da 
remessa, ·a distribuição de probabilidade da variável aleatória N, 
será dada assitn: 
n: 10 11 12 13 14 15 
P(N = n): 0,05 0,10 0,10 0,20 0,35 0,20 
A probabilidade de que qualquer peça em particular seja defeituosa 
é a mesma. para todas as peças e igual a O, 10. Se X for o número de 
peças defeituosas que chegue cada dia, qual será. o valor esperado 
de X? Para um dado N igual a n, X apresentará distribuição bi-
nomial. Como N, por sua vez, é uma variável aleatória, procedere-
mos como se segue. 
Temos E(X) = E[E(X IN)l. Contudo, E(X!N) = 0,10N, porque 
para N dado, X tem distribuição binomial. Conseqüentemente, 
E(X) = E(0,10N) = O,lOE(N) 
= 0,10[10(0,05) + 11(0,10) + 12(0,10) + 13(0,20) + 14(0,35) + 
+ 15(0,20)] 
= 1,33. 
Teorema 7.16. Suponha-se que X e Y sejam variáveis aleató-
rias independentes. Então 
E(X I Y) = E(X) e E(Y I X) = .8(Y). 
Demonstração: Veja o Probl. 7.43. 
Exemplo 7.23. Suponha-se que o fornecimento energético (qui-
lowatts) a uma companhia hidrelétrica, durante um período especi-
ficado, seja uma variável aleatória X, a qual admitiremos ter uma 
distribuição uniforme sobre [10, 30]. A demanda de potência (qui-
lowatts) é também uma variável aleatória Y, que admitiremos ser 
uniformemente distribuí.da sobre [10, 20]. [Deste modo, em média, 
mais potência é fornecida do que é demandada, porque E(X) = 20, 
enquanto E(Y) = 15.1 Para cada quilowatt fornecido, a companhia 
realiza um lucro de US$ 0,03. Se a demanda exceder a oferta, a 
companhia obterá potência adicional de outra fonte, realizando um 
lucro de US$ 0,01 por quilowatt desta potência fornecida. Qual será. 
o lucro esperado, durante o especificado período considerado? 
CARACTERrZAÇÃO ADiCiONAL dAs VARiÁVEIS ALEATÓRiAS/ 175 . I 
Seja T este lucro. Teremos! 
i 
I 
'1' = 0,03Y se Y <X, 
I 
= 0,03X + O,OI(Y- K) se Y >X. 
I 
Para calcular E(T), o escreveremos como E[E(TIX)]. Teremo10 
I . 
! 
i" 0,03y 1~ dy + 120 (O,Oly + 0,02x) 1~ dy 
E(Tix) I= 1 se 10 < x < 20, 
L200,03y 1~ dy se '20 < x < 30~ :... 
! 1
~ [0,015x2 - 1,5 + ~ + 0,4x - 0,005x2 ~ 0,02xz] 
= 1 se 10 < x < 20, 
9 i 
20 
se 20 < x < 30, , 
I . 
I 
= { 0,05 + 0,04x - 0,001X2 se 10 < x < 20, 
0~45 se 20 < x < 30!. 
, I 
Logo, 
r I 
E[E(TIX)] = ~ }
10 
(0,051+ 0,04x- 0,00lx2)dx + 
i 1 (30 
j+ 20 J20 0,45 dx ~ $0,43 
I 
7.11. Regressão da Média I 
Como já salientamos na seção I anterior, E(X I y) é o valor dava-
riável' aleatória E(X I Y) e · é uma junção de y. O gráfico .desta função 
de y é conhecido como a çurva de I regressão (da média) de X em Y. 
Analogamente, o gráfico da funçãp de x, E(Yix) é denominado a 
curva de regressão (da média) de Y em X,. Para, cada valor fixalio 
y, E(XIy) será o valor esperado da variável aleatória (unidimensio-
nal) cuja distribUição de probabiliçlade é definida pela Eq. (6.5) ou 
(6.7). (Veja a Fig. 7.10.) Em geral, este valpr esperado dlipenderá 
de y. [Interpretações análogas podem ser feitas para E(Yix).r ' 
~I 
176 I IP'ROBAB!U.DADE 
E(Y ix) E(XJy) 
·J! 
(a) (b) 
Fig.7.11 
Exemplc 7.24. Suponha-se que (X, Y) seja uniformemente dis-
tribuída sobre o semicírculo indicado na Fig. 7 .11. Nesse csso, 
f(x, y) = 2/'if', (x, y) E semicireulo. Portanto, 
-1 :::;; :E:::;; ll; 
Logo, . 
g(x I y) 1 - V 1 - y 2 :::; x :::; V 1 - y 2 ,· 
I = 2Vl- Y2 ' 
1 
h(yix) - O:::; y:::; V 1 - x 2• - Vl- x 2 ' 
CARACTERiZAÇÃO ADiCiONAl DAS VARIÁVEiS AlEATÓRiAS I 177 
Em conseqüência 
E(Yix) = i.yr-:;; yh(ylx) dy 
- r~·y 1 dy= 1 r/~= 
- }o V 1 - x2 V 1 - x2 2 o 
;Semelhantemen te 
{ ' 
l _;--
= 2 v 1- x 2 • 
!
+·~II-•• 
E(XIy) = _ xg(xly) dx 
-v1-11' 
=o. 
Pode acontecer que ·uma ou ambas as curvas de regressão sejam 
de fato linhas retas (Fig. 7.12). Isto é, E(YI;;) pode ~er uma função 
linear .de x, ou E(X I y) pode ser uma função linear de y, ou ambas as 
funções podem ser lineares. Neste caso, diremos que a regressão 
da média, digamos de Y em X, é linear. 
y 
Fig. 7.12 
Exemplo 7.25. Suponha-se que (X, Y) seja uniformemente dis-
tribuída sobre o triângulo indicado na Fig. 7 .13. :Kesse caso, 
j(x, y) = 1, (x, y) E T. As seguintes expressões para as ídp margi-
nal e condicionada são facilmente encontradas: 
g(x)= 2x, O::::; x::::; 1j 
2- y 
h(y) = -2- ' o ::::; y ::::; 2. 
2 ' 1 
g(xly) = 
2 
_ y , y/2::::; x::::; 1; h(ylx) = 2x , O ~\y::::; 2x. 
Portanto, E(Yix) = fr/z yh(yjx) dy = fo 2" y(!/2x)dy = x. 
178 I PROBABIUDADE 
Semelhantemen te, 
E(X I y) = r! xg(x I y)dx 
JY/2 1
1 
- X 
Y/2 
2 y 1 
dx=--:;-+-
2
• 
2- y "" 
Por conseguinte, ambas as regressões de Y em X e de X em Y são 
lineares (Fig. 7.14 ). 
y y 
(1, 2) 
(1, 2) 
T 
Fig. 7.13 !Fig. 7.14 
Verifica-se que se a regressão da média de Y em X for ~ear, 
digamos E(Yix) = aX + {3, po,deremos nesse caso e,q>rimir os ·coe-
ficientes a e f3 em termos de certos parâmetros da distribuição con-
junta de (X, Y). Vale o seguinte teorema: 
Teorema 7.17. Seja (X, Y) uma variável aleatória bidimensio-
nal e suponha-se que 
E(X) = J.Lx, E(Y) = J.Ly, 
Seja p o coeficiente de correlação entre X e Y. Se a regressão 
de Y em X for linear, teremos 
E(Yix) = !J.y + p uu (x- J.L,). 
u., 
('1.27) 
Se a regressão de X em Y for linear, teremos " 
E(XIy) = Jl.x + P Ux (y- J.Ly). 
fTy 
(7.28) 
Demonstração: A demonstração deste teorema está esboçada no 
Probl. 7.44. 
- I . . .CARACTEIFI!ZAÇAO ADICiONAl DAS VARDAVIEiS AliEATORiAS I 179 
I 
Comentários: (a) Como foi sugerido pe~a exposição acima, é possível que uma. 
das regressões da média seja linear, enquanto ia outra não o seja. 
(b) Observe-se o papel decisivo represbnt!do pelo coeficiente de correlação 
nas expressões ooima. Se 111 regressão de xj em Y, por exemplo, for linear, e se 
p =O, então verificaremos (de novo) que E(X Iy) não depende de y. Observe-se 
também que o sinal algébrico de p determiml' o sinal da declividade da reta de re-
gressão. 
(c) Se ambas as funções de regressãb forem lineares, verificaremos, pela 
resolução simultânea das Eqs. (7.'J:7) e (7.28),! que as retas de regressão se intercep-
tam no "centro" da distribuição, (y.", P-y). I 
I 
I 
! 
Como já salientamos (Ex. 7.23), por exemplo), as funções de 
regressão não precisam ser lineares. No entanto, poderemos ainda estar 
interessados em aproximar a curva Ide regressão com uma função 
linear. Isto é usualmente feito recorrendo-se ao princípio dos mí-
nimos quadrados, o qual neste conte~to é assim enunciado: Esco-
lham-se as constantes a e b de modo \ que E[E(YJX) - (aX + b))2 se 
torne mínima. Semelhantemente, es,colham-se as constantes c e d, 
de modo que E[E(XI Y)- (cY + d)]r se torne miníma. 
As retas y = ax + b e ~· = cy ~ d são denominadas as aproxi-
mações de mínimos quadrados às correspondentes curvas de regressão· 
E(Yix) e E(X Jy), respectivamente: I O teorema seguinte relaciona 
essas retas de regressão àquelas examinadas anteriormente. 
. I 
Teorema 7.18. Se y = ax + b fpr a aproximação de I}Únimos 
quadrados a E(Y I x) e se E(YJx) for de fato uma função linear de x, 
isto é I 
I 
E(YJx) = a'x + b', 
então a = a' e b = b'. Enunciado báiogo vale para . a regressão 
de X em Y. I 
Demoru;tração: Veja o Probl. 7.45. 
Problemas 
7.1 . 
(a) 
(b) 
(c) 
(d) 
I 
Determinar o valor esperado das i seguintes vatiáveis alea.t6rias: 
A variável aleatória X definida nd Probl. 4.1. 
A variável aleat6ria. X definid& nd Probl. 4.2. 
,A_ variável ~eatória T definida nd Probl. 4.'6. 
k variável aleat6ria. X definida. no, Probl. 4.18. 
I 
' l I \ , ', 
7.2. Mostre que E(X) não existe par~ a variável aleatória X defini~& ~.o 
Probl. 4.25. 
180 I PROBABIUDADE 
7.3. Os valores abaixo represent!!m a distribuiçe.o de probabilidade de D, 
a ·procura diária de um certo produto. Calcule E(D): 
d: 1, 2, 3, 4, 5 
P(D = d) : 0,1, 0,1, 0,3, 0,3, 0,2. 
7.4. Na produção de petróleo, e temperstura de destila.ção T (graus cen-
tígrados) é decisivs na determ ina.çã.o da qualidade do produto final. Suponh&-se 
que T seja considerada uma variável aleatória uniformemente distribufda sobre 
(150, 300). 
Admita-se que produzir · um galão de petróleo . custe C1 dólaz:es . . Se o óleo 
for destilado á ums temperatura menor que 200<>C, o produto é conhecido como 
nafta e se vende por C2 dólares por galão. Se o .~leo for destilado a uma tempe-
rstura maior que 200<>C, o produto é denominado óleo refinado desti.lado e se vende 
por CJ dólares o galão. Determinar ó lucro líquido esperado (por ga!Ao). . 
7.5. Uma cert.a. liga é formada pela reunião da mistura em f~o de dois 
metais. A liga resultante contém uma certe percentagem de chumbo X, que pode 
ser considerada como uma. variável aleatória. Suponha que X tenha a seguinte fdp: 
3 
f(x) = 5 l<r5 x(lOO - x), o~ z~ 100. 
Suponha-se que P, o lucro líquido obtido pela venda dessa liga (por libra), seja a 
seguinte função da percentagem de chumbo contida: P = C1 + C2X. Calcule 
o lucro esperado (por libra). 
7.6. -Suponha que um dispositivo eletrônico tenha uma duração de vida X 
(em unidades de 1.000 horas), a qual é considerada como uma variável aleatória. 
contínua, com a seguinte fdp: ·'. 
f(x) = e-:r:, X> O. 
Suponha que o custo de fabricação de um desses dispositivos seja US$ 2,00. O 
fsbricante vende a peça por US$ 5,00, mas garante o reembolso tot.a.l se X::::_ (),9. 
Qual será o lucro esperado por peça, pelo fabricante? . 
7.7. As 5 primeiras repetições de um experimento custam US$10 cada.uma. 
'I'odru; as repetições subseqüen'tes custn.m US$ 5 cada uma. Suponha que o ex-
perimento seje. repetido até que o primeiro resultado bem sucedido ocorra. Se· a 
probabilidade de mn resultado bem sucedido for sempre iguai a 0,9, e se as repe-
tições forem independentes, qual. será o custo esperado da operação complete? 
7.8. Sabe-se que um lote contém 2 peças defeituosas e 8 nã.CHI.efeituoses. 
Se essas peças forem inspecionadas ao acaso, uma após outra, qual será o número 
esperado de peças que devem ser escollúdas para inspeção, a fim de removerem-se 
todas as peças defeituosas? 
7.9. Um lote 'de 10 motores elétricos deve ser ou totalmente rejeitado ou 
vendido, dependendo do resultado do seguinte procedimento: Dois motores 
f!Ji.o es_colhidos ao acaso e inspecionados. ·Se um ou mais forem defeituoooo, o 
lote será rejeitado; caso contrário, será aceito. Suponha que cada motor custe 
US$ 75 e seja vendido por US$ 100. Se o lote contiver 1 motor defeituoso, qual 
será. o lucro esperado do fabricante? 
CARACTEIFIRZAÇÃO ADiCIONAL DAS VAifUÃVIERS AlEATÓRiAS I 181 
7.10. Suponha que D, a demanda diária de uma peça, seja uma variável 
aleatória com a seguinte distribuição de probabilidade: 
1
• P(D = d) = C2ajd!, d = 1' 2, 3, 4. 
(a) Calcule a constante C. 
(b) Calcule a demanda esperada. 
(c) Suponha que urna peça seja vendida por US$ 5,00 Um fabricante 
produz diariamente K peças. Qualquer peça que não .tenha sido vendida ao fim 
do dia, deve ser abandonada, com um prejuízo de US$ 3,00. (i) Determine a 
distribuição de probabilidade do lucro diário, como uma função de K. (ii) Quan-
ws peças devem ser fabricadas para tomar máx.imo o lucro diário esperado? 
7.11 . (a) Com N =50, p = 0,3, efetue alguns cálculos para achar.qual o 
valor de k minirnizaE(X) no Ex. 7 .12. 
(b) Empregrando os valores acima de N e p, e tomando lc = 5, 10, 25, 
determine, para cada um desses valores de k, se o "teste de grupo" é preferí-
vel. 
7.12. Suponha que X e Y sejam variáveis aleatórias independentes, com 
as seguintes fdp: 
J(x) = 8/r, X> 2; g(y) = 2y, o< y < 1. 
(a) Determine a fdp de Z,;, XY. 
(b) Obtenha E(Z) por duas maneiras: (i) empregai;!.do a fdp de Z, como 
foi obtida em (a); (ii) Diretamente, sem empregar a ídp de Z. 
7.13. Suponha que X tenha a fdp: j(x) = Sfr, x > 2. Seja W = (lj3)X. 
(a) Calcule E(W), empregando a fdp de W. 
(b) CeJcule E(W), sem empregar a fdp de W. 
7.14. Um dado equilibrado é jogado 72 vezes. Chamando de X o número 
de vezes que aparece o seis, calcule E()(l ). 
7.1!i. Determine o valor esperado e a variância das variáveis aleatórias Y e Z 
do JP'robl. 5.2. 
7.16. Determine o valor C:,!peyado e a variância da variá.vel aleatórie Y do 
lP'robl. 5.3. 
7.17. Determine o valor esperado e a variância das variáveis aleatórias Y e Z 
do Probl. 5.5. 
7.18. Determine o valor espern.do e a variância das variáveis Y, Z e W do 
lP'robl. 5.6 
7.19. Determine o valor esperado e a variância. das variáveis ·slentórias 
V e S do Probl. 5.'!. 
'1.211. Determine o valor esperado e a variâncis de variável Y do Probl. 5.10, 
am cuis um dos três casoo. 
7.21. Determine o valor espe,rado e . a ve.riânci& da variável aleatóri:~. A 
do lP'robl. 6.'1. 
7.22. Determine o valor e.~per~o e 11 variância da. variável ~tle~tórh;l H 
dlo Pl"obl. 6. 11. 
1_, 
[~11 !I l l:t ,, 
fi 
" ····· 
); !"~!i . 
'I 
ii:, I! j ' I li 
\i ! ;~;l ! I. i :~. r 
,/ 
~l:l I 1'':'1 nj 
'I 
~11 .!1 
t{~:ii!l[ 
! 
t~:iil I I 
~ 
'•11'1'1;11 t·:!, l • ·lt 
l"''ni'· ; !:Jt,l'!'' 
' '·~r~ ~~ / l~l' ll' ll ~~~- ,, ' ' 1~ li 
ffi 1 ~1 1 ' 1 1 li ,, I' I _il!bi 
tm~ 1 1 :1 11 
.. ~,~ --
1\ír!l ·!ii 
':'111'! I .. · · 
""i['l 
( 1,, ., 
'I'!' I '1,[': 
,; 'iii 
I' j'i:l ld:r '11; 'r' !I ~: i ii. ·: l···ii-:1 
I' 
Ji~!l·!( 
~' i'!!jJ [ 
~ 
,_,,,,,, 
: J ~l,l' 
I 'i'''':[ 
~ 
Uj·i 
11~1- ,, ;;l,lll' ,; 
~ i:i}tji " 
j 
I 
f"r I'H 
l l!t:ii 
fi' ii:·:! 
!i!lj:f 
!liJfii ;n~ . ! lr1 
~)f.:ii.!ili 
~ .;; 
!:)!· 
':]! 
·;li 
):i· 
ill; 
i!l! 
ji~~; 
:!,1, 
1\;. 
I!;[ 
'iii. 
li ":! i 
r ,., 
;! 
i[ 
' 
I 
t'! 
~ ' I 
l·ii 
182 I PROIBABIUDADE 
7.23. Determine o valor esperado e a variância da; variável aleat6ria W do 
Probl. 6.13. 
7.24. Suponha que X seja uma variável aleatória, para a ,qual E(X) = 10 
e V(X) = 25. Para quais valores positivos de a e b deve Y = aX - b ter valot 
esperado O e variância 1 ? 
7.25, Suponha que S, uma _tensão aleatória, varie entre O e 1 volt e seja 
uniformemente distribuíd-a sobre esse intervalo. Suponha que o sinal S seja per-
turbado p~r um ruído aleatório indepe~dente, aditivo, N, o qual seja uniforme-
me_nte distribuído;> entre O e 2 volts. 
(a) Determine a tensão esperada do sinal. levando em conta o ruído. 
(b) Determine a potência esperada quando o sinal perturbado for aplicado 
a um resistor de 2 ohms. 
7.26. Suponha que X seja uniformemente distribuída sobre [ -: a, 3a]. De-
termine a variância de X. 
7.27. Um alvo é constituído de três círculos concêntricos de raios 1/v3; 1, 
e V3. Tiros dentro do ~lrculo interior valem 4 pontos, dentro do anel seguinte 
valem 3 pontos, e dentro do anel exterior valem 2 pontos. Tiros fora do alvo 
valem zero. S0ja R a variável-aleatória que representa a distância do ponto de 
impacto ao centro do alvo. Suponha que a fdp de R seja j(r) = 2{-rr(l + r'Z), 
r > O. Calcule o valor esperado do escore depois de 5 tiros. 
7.28. Suponha que a variável contínua X tenha a fdp 
j(x) = 2xe-r, X~ 0. 
Seja Y =X'-. Calcule E(Y): (a) Diretamente, sem primeiro obter a fdp de Y. 
(b) Primeirame!_lte, obtendo a fdp de Y. 
7.29. Suponha que a vaxjável aleatória bidimensional (_X, Y) seja unifor-
memente distribuída sobre o triângulo da Fig. 7.15. Calcule V(X) e _ V(Y). 
y 
(2, 4) 
Fig. 7.15 Fig. 7.16 
7.30. Suponha que (X, Y) seja unüonnemente distribuída sobre o triân-
gulo da Fig. 7.16. 
(a) Estabeleça a fdp marginal de X e 111 de Y. 
(b) Calcule V(X) e V(Y), 
! 
CARACTERI2AÇÃO ADJCIONAL -Dl SVARIÃVEIS AlEATÓfliAS l 183 
7.31. Suponh& que X e Y sejj ·· variáveis mleatórioo para oo quais 
I . 
.E(X) = p.,., E(Y) =lly, V(X) =· ~r,}, e V{IY) =<rl. Empregmndo o Teor. 7.7, 
obtenha uma aproximaçittbde E(Z) e V(Z), jonde Z = X/Y. 
7.32. Suponha qu~ X e Y sejam v~á.veis eJ.e~tórias indepàndentA:s, cmdl!. 
uma delas uniformemente distribuída sobrjl (1, 2). Seja Z = X/Y. · 
(a) Empregando o Teor. 7.7, obtenpa expressões aproximadas para E(Z) 
a V(Z). 1 
(b) Empregando o Teor. 6.5, obteruJ a fdp de Z, a a seguir, determine oo 
I 
vll.llores exmtos de E(Z) e V(Z). Comparej<>s com (a). 
7.33. Mostre que se X for ~ma va~vel aleatória contíÍma, com fdp j tendo 
111 propriedade de que o gráfico de j sejaJ simétrico em relação & z = a, entã.o 
E(X) =a, desde que E(X) exista. (Veja o Ex. 7.16.) . 
7.34. (a) Suponha que a variável eJ.Ja.tória X tome os valores -1 e 1, c!Mlm 
um deles com probabilidade 1/2. Consid~re P[ IX- E(X)I 2:: k v'v(X}] como 
uma função de k, k > O. Em um gráfico) marque esta função de k e, no mesmo 
sistema de coordenadas, marque o limitei superior da ·probabilidade acima, tal 
COIW) é dada. pela. desigualdade de Tchebylheff. 
(b) O mesmo que em (a), exceto qj P(X = - 1) = 1/3, P(X = 1) = 2/3. 
7.35. Compare o limite superior da probabilidade P[ I X- E(X) I 2:: 2 VV(X)l, 
· obtida pela desigualdade de Tchebycheff, <iam a. probabilidade exata se X for uni-
formemente distribuída sobre (-1, 3). j . 
7.35. Verifique a. Eq. (7.17). i 
7.37. Suponha que a variável alea.Jsria. bidimensional (X, Y) seja unifor-
memente distribuída sobre R, onde R é ·definida por ( (z, y) I z2 + 1 y2 2 1, y 2:: O l . 
(Veja a Fig. 7.17.) Calcule p"'Y, o coefici~nte de correlaÇão. 
7.38~ Suponha · que a variável aledtória bidimensional (X, Y) tenha fdp 
dada. por l 
j(x, y) = ke""11, I O < z < y < l 
= -0, para.1 quaisquer putros valores. 
(Veja a Fig, 7.1!3.) Detennine o coefrciente de oon:elação Pzu· 
I y . 
-1 
FiiiJ. 7.17 
I 
I 
I 
I 
I 
I 
~ig. 7.18 · 
7.~9. O exemplo segúinte ilustra ~ue p =O não significa independência. 
Suponha que (X, Y) tenha uma distribui~o de probabilidade conjunta d11-da pele. 
Tab. 7.1. ! · .· · 
·. \ 
184 I PROBABILIDADE 
(a) Mostre que E(XY) = E(X)E(Y) e conseqüentemente p =O. 
(b) Explique por que X e Y não são independentes. 
(c) Mostre que este exemplo pode ser generalizado como se segue. A esco-
lha do número 1/8 não é decisiva. O que é importante é que todos os valores cir-
cundados sejam· iguais, todos os vm.lores enqWIIdrados sejl!m iguais e o valor cen-
tral seja zero. 
Tab. 7.1 
I>< - I o i 
-I CD [}] CD 
o [I] o []] 
I CD w CD 
7 . .00. Suponha que A. e B sejam dois eventos associados ao experimento e. 
Suponhs que P(A) > O e P(B) > O. Sejam as variáveis aleatórias X e Y defini-
das =im: 
X = 1 se A. ocorrer, e O em caso contrário, 
Y = 1 se B ocorrer, e O em caso contrário. 
Mostre que P:rv = O ·implica que X e Y sejam independentes. 
7.41. Demonstre o Teor. 7.14. 
7.42. Para a variável aleatória (X, Y) definida no Probl. 6.15, calcule E(Xjy), 
E(Yjx), e v~rifique que E(X) = E[E(XIY)] e E(Y) = E[E(YjX)]. 
7.43. Demonstre o Teor. 7.16. 
7.44. Demonstre o Teor. 7.17. [SugesUw: Para o ci!SO contínuo, multi-
plique a equação E(Y.lx) = Ax + B por g(x), a fdp de X, e integre de - <D 111 m, 
Faça a mesma coisa, empregando xg(x) e, depois, resolva ru> duas equações resul-
tantes para A e para B.] 
7.45. DemolllStre o Teor. 7.18. 
7.46. Se X, Y e Z forem variáveis m.leatóri&s não-correlacionadas, com 
desvios-padrões 5, 12 e 9, respectivamente, e se U = X + Y e V = Y + Z, cal-
cule o coeficiente. de correlação entre U e V. .., 
7.47. Suponha que ambas as curvas de regressãO da média. sejam, de fato, 
lineares. Particularmente, admita. que E(Y)jx) = - (3/2)x- 2 e E(Xjy) = 
= - (3/5)y - 3. 
(a) Determine o coeficiente de correlação p. 
(b) Determine E(X) e E(Y). 
'I .I 
i 
CARACTERfiZAÇÃO ADICRONAL DAS VARIÃVEIS AlEATÓRiAS I 185 
7.48. Considere a previsão de tempo com duas possibilidades: "chove" ou 
"não chove" nas próximas 24 horas; Suponha que p = Prob (chove nas próximas 
24 horas > 1/2). O previsor marca 1 ponto se ele estiver correto e O ponto se não 
estiver. Ao fazer n previsões, um previsor sem capacidade escolhe de qualquer 
maneira, ao acaso, n dias, (O< r < n) para afirmar "chove" e os restantes n- r 
dias para afirmar "não chove" . Seu escore total de pontos é Sn. Calcule E(Sn) e 
V ar (Sn) e encontre qual o valor de r para o qual E (Sn) é o maior. (Sugestão: 
F aça Xi = 1 ou O, dependendo de que a i-ésima previsão esteja correta ou não . 
Então, Sn = :Ef = 1 Xi. Observe que os xi não são independentes.] 
\. 
'. 
Discretas: Variáveis Aleatórias 
A de Poisson e Outras 
Capítulo 8 
8,1, A !Distribuição de Poisson 
Tal como nos modelos determinísticos, nos quais algumas rela-
ções funcionais desempenham importante papel (como por exemplo 
a linear, a quadrática, a exponencial, a trigonométrica etc.), também 
verificamos que, na construção de modelos não-determinísticos para 
fenômenos observáveis, algumas distribuições de probabilidade sur-
gem mais freqüentemente que outras. Um motivo para isso ~ que, 
da mesma maneira que no caso determinístico, alguns modelos mate-
máticos relativamente si~ples parecem ser capazes de descrever uma 
classe bastante grande de fenômenos. 
Neste capítulo, estudaremos bastante pormenorizadamente, algu-
mas variáveis aleatórias discretas. No capitulo seguinte, faremos 
o mesmo para variáveis aleatórias contínuas. 
Vamos apresentar. rigorosamente a seguinte variável aleatória. 
Depois, indicaremos sob quais circunstâncias esta variável aleatória 
poderá representar o resultado de um experimento aleatório. 
Definição. Seja X uma variável aleatória discreta, tomando os 
seguintes valores: O, 1, . .. , n, . . . Se 
e--a ak 
P(X= k) = --k! I k. = O, 1, ... ~ n, ... , (8.1) 
diremos que X tem distribuição de Poisson, com parâmetro a > O. 
Para verificar que a expressão. acima representauma legítima 
distribuição de probabilidade, basta observar q~e 
L;;=oP(X = k) = L,;;=o (e--aakfk!) = e,_,.e" = 1. 
VARIÁVEiS ALEATÓRiAS DISCRIE~AS: A DE POISSON E' OUTRAS I 187 
I 
i 
Comentário: Já que estamos definindo a variável aleatória diretamente em 
termcs de seu contradomínio e distribbição de probabilidade, sem referência a 
qualquer espaço amostral subjacente s,l poderemos snpor que o espaço amostral 
S tenha sido identificado coin Rx e qt.Íe X(s) = s. Isto é, os resultados do ex-
perimento são apenas os números O, 1, 2j .. . e as probabilidades ·associadas a cada 
um desses resultados são dadas pela Eq.! (8.1). . I 
Teorema 8.1. Se X tiver ~istribuição 
metro a, . então E(X) ;, a e V(X) I= a. 
de Poissón ·com parâ-
i 
Demonstração: 
.. 
E(X) =.L 
k! I :t ~-e-«_a_k-.-: k=1 (k - 1)! k~O 
Fazendo-se s = k - 1; verificamos que a expressão 
·"' e-"a'~ 1 j "' e-" a' 
E(X) L l=aL- =a. 
s~o 8! I s~O 8! 
Semelhan temente, I 
"' 2 --a J 
E(XZ) = L . k e a ' 
k~O k! 
Fazendo, novamente, 8 = k-- 1, ! obteremos 
I 
se torna 
(I) e-a. as+ 1 1 Ol e--a a' co e-a as 
E(X2) = L (s + 1) = a [: 8 --+ a L-- = a 2 + a 
o~O s! s: ~o s! s=O s! 
(porque o primeiro somatório 
é igual a um]. Portanto, · 
I 
rewesenta E(X), enquanto 
I 
o segundo 
V(X) = E(X2) - [E(X))Z = a 2 + a - a 2 = a. 
Comentário: NotEHJe a. interessante / propriedade que uma 1variável aleatória 
de Poisson apresenta.: seu valor esperadt é igual a sua variância. 
8.2. A DistriblUiição de Poisson! Como AproJtimação : 
da Distrib111ição Binomial 1 
A distribuição de Poi~son reJresenta U:m papel muito importante, 
por si mesma; como um modelo probabilístico adequado para um gran-
de número de fenômenos 'aleató~os. Explanaremos isso na próxima 
seção. Aqui, trataremos da impo~tância dessa dist'ribuição como uma 
aproximação das probabilidades bihomiais. 
I .. 
Exemplo 8.1. Suponhamos que chamadas telefônicas <;heguem a 
uma grande central, e que em fn período particular de três 'horas 
~~ 
~; ,t 
jf, 
~~ 
~· 
!i 
~ ~ j 
f~ •I r;, 
~f 
:j' 
~ 
li :i ? 
,.1 ~ t· 
~ 
~: 
~ 
f' li 
f~ 
t~ 
'~ 
1i' 
f 
i: 
i' n 
i 
t 
188 I PROBABI LIDADE 
(180 minutos), um total de 270 chamadas tenham sido recebidas, ou 
seja, 1,5 chamadas por minuto. Suponhamos que pretendamos, com 
base nessa evidência, calcular a probabilidade de serem recebidas O, 
1, 2 etc. chamadas durante os próximos três minutos. 
Ao considerar o fenômeno da chegada de chamadas, poderemos 
chegar à .conclusão. de que, a qualquer instante, uma chamada telefônica 
é tão provável de ocorrer comoem qualquer outro instante . Assim, a 
probabilidade permanece constante de "momento" a "momento". A di-
ficuldade é que, mesmo em um intervalo de tempo muito pequeno, o 
número de pontos não é apenas infinito, mas n~o pode ser enumerado. 
Por isso, seremos levados a uma série de aproximações, que descreve-
remos agora. 
Para começar, poderemos considerar o intervalo de três minutos 
subdividido em nove intervalos de 20 segundos cada um. Poderemos 
então tratar cada um desses nove intervalos como uma prova de 
Bernouilli, durante a qual observaremos uma chamada (sucesso) ou 
nenhuma chamada (insucesso ou falha), com P (sucesso) = (1,5) 
(20/60) = 0,5. Desse modo, poderemos ser tentados a afirmar que a 
probabilidade de duas chamadas durante o intervalo de três minutos 
[isto é, 2 sucessos em 9 tentativas com P (sucesso) = 0,5] seja igual a 
(~)(J/2)9 = 9/128. 
A dificuldade com esta aproximação é que estamos ignorando as 
possibilidades· de, digamos, duas, três etc. chamadas durante um dos 
períodos experimentais de 20 segundos. Se essas possibilidades fossem 
consideradas, o emprego da distribuição binomial indicado não poderia 
ser legitimado, porque essa distribuição é aplicável somente quando 
existe uma dicotomia: uma chamada ou nenhuma chamada. 
É para eliminar essa dificuldade que nos voltamos para a aproxima-
ção seguinte e, de fato, seremos levados a uma inteira seqüência de 
aproximações. Uma das maneiras de estar provavelmente certo de que 
ao menos uma chamada será recebida na central, durante um pequeno 
intervalo de tempo, é fazer esse intervalo muito curto. Assim, em vez de 
considerar nove intervalos de 20 segundos de duração, vamos, a seguir, 
considerar 18 intervalos, cada um de dez segundos de duração. Agora 
poderemos representar nosso experimento como 1 8' provas de Bernouilli, 
com P (sucesso) = P (entrar chamada durante o subintervalo) = (1,5) 
(10/60) = 0,25. Conseqüentemente, P (duas chamadas durante o inter-
valo de três minutos)= C~J (0,25)2 (0,75l 6 . Observe-se que, não 
obstante, agora, estarmos tratando com uma distribuição binomial 
VARIÁVEIS ALEATÓRIAS DISCRETAS: A DE POISSON E OUTRAS I 189 
diferente da anterior (isto é, tendo parâmetros n = 18, p = 0,25, em 
lugar de n = 9, p = 0,5), o valor esperado np é o mesmo, a saber, np = 
= 18 (0,25) = 9(0,5) = 4,5. 
Se continuarmos nesta maneira, aumentando o número de subinter- · 
valas (isto é, n), faremos, ao mesmo tempo, decrescer a probabilidade 
de chegar uma chamada (isto é, p ), de tal maneira que np fique cons-
tante . 
Portanto, o exemplo precedente nos leva a formular a seguinte 
pergunta: que acontece .com as probabilidades binomiais ( Z) pk 
(1 - p )n - k, se n--* oo e p--* O, de tal maneira que np permaneça cons-
tante, digamos np =ex? 
O cálculo seguinte leva à resposta desta questão muito importante. 
Consideremos a expressão geral da probabilidade binomial, 
P(X = k) = (~ )p,.(1 - p)n-<c = 
n! k .....Jc 
k!(n - k)! p {l - p) = 
n(n- l )(n- 2) .. . (n- 1c + 1) 
k! 
Façamos np = ot. Daí, p = ot/n, e 1 - p = 1 - afn = (n - a)/n. 
Substituindo todos os termos que contenham p . por sua expressão 
equivalente em termos de ot, obteremos 
P(X = k) = n(n- 1). ··~~- k + 1) (~f (n ~ otr-k _ 
ot
1' [ ( 1 ) ( 2) ( k - 1)' ]( a ]"-k = k! (1) 1 - -; 1 - -; . . . 1 - -n- 1 --;;-
~~ [ (1) ( 1 ~ ~) ( 1 - ! ) ... ( 1 -- k ~ 1)] X 
X (1- ;r(l .- :rk 
Agora, façamos n --+ m, de tal modo que np = ot permáneçil, cons-
tante. Evidentemente, isto significa que p --+ O, enquanto n --> oo, 
f~J, E :: ~:, 
I 
!~i::,: 
\ :~i.-r· : ~ 
n:·::· .. 
!i:~ r 
··],; 
:.u·:. 
11 -~~~J! , . 
J 
I 
' I 
~ l 
i 
' 
ti!:l'li•l 
1111 
~~1íjl!l jiill''l 
~~~:!·I 
~iiL 
.jfjl;]fll 
lr!ii'' 
' ilffi!i1iil ·r ''1\l:;il 
!t í'H' 
I, I ~ ( ~ ;i: , 
li\j' l Ir ! ·:::,l 
I ,':~~ i: 
l ' ii ! 
;!i'it J 
~~~ .i I , !t 
J: ~" ~ :1 
j:.l! I 
:''' I' '.iit ·I ·ii: H 
~ i}:' ir 
f;j 
l!i!i,il li 
I· i[! ' t '··'···I 
[ 1!1: .. 
i!lii!l 
~~~~ 
il! 
mnr: 
!~i ll :i 
ilii:!i !'"! . :;!i 
~~r ::! 
~ r·i· 
::I 
j : 
!' •' ! 
\:·;: 
;.i• I: 
.! :ii 
'i lt:ll 
I' ' .ii 
n! 
ii i:, 
t'· i': ll j ''' ,[: ;! 
!!·:!! 
l:i:t!j 
rii
1
·1: 
''lll :'1!; ;: 
i Iii:: 
: ~ ~ i ; : l: 
t,il'l-
\!iil 
ii111 
1,:rl· 
1 ,;!i~l 
•' I ,., 
,.,I 
H 
''i i 
'' !' 
.l:;i, 
,; 
: ~ ; 
:'I 
: I 
! 
j, • 
r: 
,!!! 
· 190 I PROBABIUDADIE 
porque de outro modo np não poderia ficar constante. (Equiva-
lentemente, poderíamos impor que n ~ co e p ~ O, de · tal modo que 
np~a.) 
.i 
Na expressão acima, os termos da forma (1 - 1/n), (1 - 2/n), . . . 
se aproximam da unidade à medida que n tende para infinito, o que 
dá (1 - afn)-~<. f} bem conhecido (da definição do número e) que 
(1 - afn)" ~ e- quando n ~ "". 
Por isso, Iim ,._,, P(X = k) = e- ak/k!. Isto 
obteremos a distribuição de Poisson com parâmetro .01. . 
mir este importante :resultado no seguinte teorema: 
é, no limite, 
Vamos resu-
Teorúna 8.2. Seja X uma variável ahiatória distribuída bino-
mialmente com parâmetro p (baseado em n repetições de um experi-
mento). Isto é, 
Admita-se que quando n ~ "", fique np = 01. (const.), ou equi-
valentemente, quando n ~ "", p ~O, de modo que np ~a. Nessas 
•Condições teremos 
e-mOt.k 
lim. P(X = k) = --- , 
,_,.. k! 
que é a distribuição de Poisson com parâmetro a. 
Comentários: (a) O teorema acima diz, essencialmente, que poderemos 
obter uma aproximação das probabilidades binomiais comas probabilidades da 
distribuição de Poisson, toda ve~ que n seja grande e p seja peq,ueno. 
(b) Já verificamos que se X tiver uma distribuição binomial, E (X) = np, 
enquanto se X tiver uma distribuição de Poisson (com parâmetro a), E(X) == a. 
(c) A distribuição binomial é caracterizada por dois parâmetros, n e p, 
enquanto · a distribuição de Poisson é caracterizada por um único parâmetro, 
a == np, o qual representa o número esperado de sucessos por unidade de tempo 
(ou por unidade de espaço em alguma outra situação). Esse parâmetro é também 
conhecido com a intensidade da distribuição. É importante distinguir entre o 
número esperado de ocorrências por unidade de tempo e o número esperado de 
ocorrências em um período de tempo especificado. Por exemplo, no Ex. 8.1, a 
intensidade é 1,5 chamadas por minutos e, portanto, o número esperado de cha-
madas em, digamos, um período de 10 minutos seria 15." 
(d) Poderemos também considerar o seguinte raciocínio para avaliannos a 
variância de uma variável aleatória de Poisson X, com parâmetro a: X pode ser 
considerado como um caso limite de uma variável aleatória distribuída binomial-
mente Y, com parâmetros n e p, onde .n--+ oo e p _,.O, de tal modo que np--+ a. 
Desde que E(Y) = np e Var(Y) = np (1- p), nós observamos que, no limite, 
Var(Y) --+ a. · 
·~ 
~'~! 
I 
·~ ~:t 
:~. 
~ 
-,;,~'!/ 
··~i· 
I g; 
11 
·"' 
[i 
~, 
~l 
I 
~i 
I 
i~ 
.~[( 
·~~ 
:~;~.{~. 
~1~ 
I 
I 
VARIÁVEIS ALEATÓRIAS DISCT ETAS: A DE POISSON E OUTRAS I 191 
Já existem extensas tábu~s da distribuição de Poisson. (E. C. 
Molina, Poisson's Exponential j Binomial Limit, D. Van Nostrand 
Company, Inc., New York, 1942.) Uma tábua resumida desta distribui-
ção está ·apresentado no Apêndid,e (Tábua 3): 
Vamos apresentar três exe~plos a mais, que ilustram a aplicação 
da distribuição de Poisson. I 
I , 
Exemplo 8.2. Em um cruzamento de tráfego intenso, a probabili-
dade p de um carro sofrer uni acidente é muito pequena, digamos · 
p = 0,0001. Contudo, durante! certa parte1 do dia, por exemplo das 
16 às 18 horas, um grande número de carros passa no cruzamento 
(1000 carros, admitamos). Ness~s condições, qual é a probabilidade de 
que dois ou mais acidentes ocorr~m durante aquele período? . 
Vamos fazer algumas hipót~ses. Dever{1mos admitir que p seja a 
mesma para todo carro. També~ deveremo~ supor que o fato de um 
carro sofrer o~I não um acidente I não depende do que ocorra a qualquer 
outro carro. (Esta hipótese, ob~amente, não corresponde à realidade, 
mas, apesar disso, a aceitaremos.) Assim, poderemos supor que, se X 
for o número de acidentes ent}e os 1000 parros que chegam, então. 
X terá distribuição binomial corrb = 0,0001. (Outra hipótese que fare-
mos, não explicitamente, é que n, o número de carros que passam no 
cruzamento entre 16 e 18 horas, é prefixado em 1000. Obviamente, 
. I . 
um tratamento mais realista seFia considerar o próprio n como uma 
variável aleatória, cujo vaior dep~nda de um mecanismo casual. Contu-
. I 
do, não faremos isso, e tomare*os n como pré-fixado.) Deste modo, 
poderemos obter o valor exato d~ probabilidade procurada: 
I 
P(X~ 2) = 1- [Jf(X= O)+ P(X= 1)] = 
= 1- (0,9999)1000 - 11000(0,0001)(0,9999)999 • 
I 
Considerável dificuldade sulrge para o cálculo desses números. 
Como n é grande e pé pequeno!, poderemos aplicar o Teorema 8.2, e 
obter a seguinte aproximação: I . 
i e-o,I (O 1 ,k 
P(X~k)~ 'r 
k! 
Conseqüentemente, 
F(X~ 2) ~ 1- e~ 0 ' 1 (1 + 0,1) = 0,0045. 
192 I I?ROBABflUDADIE 
Exemplo 8.3. Suponha-se que um processo de fabricação pro-
duza peças de tal maneira que uma determinada proporção (cons-
tante) das peças p seja defeituosa. Se uma partida de n dessas peças 
for obtida, a probabilidade de encontrar exatamente k peças defei-
tuosas pode ser calculada pela distribuição binomial como igual a 
P(X = k) = (~)pk(l - p)"-k, onde X é o número de peças defei-
tuosas na partida. Se n for grande e p for pequeno (como é freqüen-
temente o caso), poderemos aproximar a probabilidade acima por 
Suponha-se, por exemplo, que um fabricante produza peças, das quais 
cerca de 1 em 1.000 sejam defeituof.fas. Isto é, p = 0,001. Daí, 
empregando-se a distribuição binomial, encontraremos que em uma 
partida de 500 peças, a probabilidade de que nenhuma das peças 
seja defeituosa será. (0,999)600 = 0,609. Se aplicarmos a aproxi-
mação de Poisson, esta probabilidade poderá ser escrita cerno 
e-0•6 = 0,61. A probabilidade de encontrar 2 ou mais peças defei-
·tuosas será, de acordo com a aproximação de Poisson, 1 - e-M(l . + 
+ 0,5) = 0,085. 
Exemplo 8.4. [Sugerido por uma expostçao contida em A. 
Renyi, .Çálculô de Probabilidade (em alemão) VEB Deutscher Verlag 
der Wisaenschaft, Berlim, 1962.1 
Na fabricação de garrafas de vidro, partículas pequenas e duras 
silo encontradas no vidr() em fusão, com o qual se fabricam as garrafas. 
Se uma. única dessas partículas aparece na garrafa, a garrafa não 
pode ser utilizada e deve ser jogada fora. Pode-se admitir que as 
partículas estejam aleatoriamente espalhadas no vidro em fusão. 
Devemos supor que o vidro em fusão seja produzido de ta:l maneira 
que o número de partículas seja (em média) o mesmo para uma quan-
tidade constante de vidro em fusão. Suponha-se, em particular, que 
em 100 kg de vidro em fusão sejam encontradas x dessas partículas e 
que seja necessário 1 kg de vidro em fusão para fabricar uma ga;rafa. 
Pergunta: Que percentagem das garrafas terá de ser jogada 
fora pelo fato de serem defeituosas? A primeira vista, a "solução'· 
deste problema poderia ser a seguinte. Visto que o material par~ 
100 garrafas contém x partículas, haverá aproximadamente x pol 
cento de garrafas que deva ser· jogada fora. Um pouco de reflexãc 
mostrará, no entanto, que essa solução não é correta, porque umf 
garrafa defeituosa poderá conter mais de uma partícula, deste mod< 
VARiÁVEIS ALIEA'l"ÓROAS DISCRETAS : ADIE POUSSON E OUTRAS I 1~3 
reduzindo a percentagem das garrafas defeituosas obtidas a partir 
do material restante. 
A fim de obtermos uma solução "correta", vamos fazer as se-
guintes hipóteses simplificadoras: (a) Cada particula aparece no 
material de cada garrafa com igual probabilidade, e (b) a distribui~ 
ção de qualquer partícula especifica é independente da de qualquer 
outra partícula específica. Com essas hipóteses, poderemos reduzir 
nosso problema ao seguinte modelo de "urna":-n bolas são distribuí-
das ao aca.So por N urnas. Qual é a probabilidade de que, em uma 
urna escolhida aleatoriamente, sejam encontradas exatamente k bo-
las? (As urnas, evidentemente, correspondem às garrafas, enquanto ~ 
as bolas correspondem às partículas.) 
Chamando de Z o número de bolas encontradas em uma urna 
escolhida aleatoriamente, decorre das hipóteses acima que Z é bino-
mialmente distribuída com parâmetro 1/N. Por isso 
P(Z = k) = (~) (~r ( 1 _ ~r-~ 
Suponha-se, agora, que o vidro em fusão seja preparado em quanti-
dades muito grandes. De fato, suponha-se que seja preparado em 
unidades de·lOO kg e que M dessas unidades tenham sido fornecidas. 
Portanto, N = 100M e n = xM. Façamos a = x/100, que é igual à 
proporção de particulas por garrafa. Conseqüentem-ente, N = nfa 
e a probabilidade acima pode ser escrita como igual a 
Deste modo, à medida que o processo de produção continuar (isto é, 
queM-+ oo e portanto n -+ oo ), obteremos 
Vamos calcular a probabilidade de que uma garrafa deva ser jogada 
fora. Ela será igual a 1 - P(Z = 0). Conseqüentemente, a P(uma 
garrafa defeituosa) ~ 1 - e'""'100• Se o número de garrafas fabri-
cadas for bastante grande; poderemos identificar a probabilidade de 
uma garrafa defeituosa com a freqüência relati'va das garrafas de-
feituosas. Por isso, a percentagem de garrafas defeitdosas . será, 
aproximadamente, 100(1- e""''100). Se desenvolvermos · 100(1 -
194 I PROBABDUDADE 
- e-4/Ioo) pela série de Maclaurin, obteremos 
[ ( 
x x2 xs 
100 1 - 1 - 100 + 2(100)2 - 3!(100) 8 + ... )] = 
Portanto, se x for pequeno, a proporçã<>de garrafas jogadas fora 
será aproximadamente x, como inicialmente sugerimos. No en-
tanto, para x grande, isto não valerá mais, Na situaçao em que 
x = 100, a percentagem de garrafas jogadas fora não será 100, mas 
em vez disso 100(1 - e-1) = 63,21 por cento . Este constitui, na~ 
turalmente, um caso extremo e não seria encontrado em um 'processo 
· de fabricação razoavelmente controlado. Suponha-se que x = 30 
(um número mais próximo da realidade). Nesse caso, em vez de 
jogar fora 30 por cento (nossa solução inicial, novamente), somente 
jogaríamos 100(1 - e-0•8) = 25,92 por cento. Poderíamos observar 
que se x fosse razoavelmente grande, seria mais ec~nômico fabricar 
garrafas menores. Por exemplo, quando for necessário apenas 
0,25 kg de vidro · em fusão por garrafa em vez de 1 kg, e se x = 30, 
então a percentagem jogada fora se reduzirá de 25,92 por cento para 
7,22 por cento. 
8.3, O Processo dle IPoisson 
Na seção anterior, a distribuição de Poisson foi empregada como 
um recurso de aproximação de uma distribuição conhecida, a saber, 
·a binomial. No entanto, a distribuição de Poissom exerce por si 
mesma um papel extremamente importante porque ela representa 
um modelo probabilistico adequado pari!.. wn grande número de fie-
nômen.os ob~erváveis. · 
Muito embora noo venhamos a dlax umà d.ed:ução completamente 
rigorosa de alguns dos resUltados que iremos apresentar, o tmtamento 
gemi é de tal i.mporla.ncia que valerá a ·pena- oomprooridê-lo, mesmo 
que não po.ssamos d,emonstrnr cada pasaagem. 
Com o objetivo de aludir a um exemplo específico, enquanto 
formos apresentando os detalhes matemáticos, vamos considerar 
uma fon~ de. material radi()ativo, que emita partímlls.s a. Seja Xt 
definido como o número de partículas emitidas durante um períOdo 
especificado de tempo.[O, t)~ Devemos fazer algumas hipóteses sobre 
! 
VARiÁVEiS ALEATÓRIAS DDSCRIE~AS: A DE POISSOI\I E ~UTRAS I 195 
i!> variável aleatória (discreta) Xt, L quais nos, pe,mritiroo estabelecer 
~~> distribuição de probabilidade d~ Xe. A plausibilidade dessas hi-
p6t.eses (recordando o que Xe rep~esenta) é fortl!.lecida pelo fato de 
que a evidência empírica aceita, ~m grau bastante oo~derá.vel, oa 
resultados teóricos que iremos obier. · 
! 
V ale a pena salientar que ao I deduzir qualquer resultado mate-
mático, deveremos aceitar alguns postulados 
1 
ou axiomas subjacen-
tes. Ao procurarmos axiomas p~.ra descrevei' fenô.menoa observá-
veis, alguns axiomas poderão ser ibastant.e mais plausíveis (e menos 
l!J'bitrá.rios~ que outros. Por exemplo, ao descrever o movimento 
de um objeto lançado para cima ~om ~alguma velocidade inicial, po-
deremos &Upor que a distância acima do solo, s, seja uma função 
quadrática do tempo t; isto é, si= at2 + bt + c. Com dificuldade 
isto conãtituiria uma suposição intuitiva genuína, em termos de 
! 
nossa experiência. Em lugar dissp, poderíamos supor que a acele-
ração fosse constante e, depois, deduzir disso 1que s deveria ser uma 
função quadrática de t. O importante é, naturalmente, que se de-
vemos supor alguma coisa a fun de ~laborar nosso modelo matemático, 
deveremos admitir aquílo ·que sej~ plausível, em lugar daquilo que 
seja menos plausível. 
1 
A . mesma orientação nos guia~á aqui, aõ construirmos um mo-
I 
delo probabilístico para a emissã<j de partículas a, por uma fonte 
:radioativa. A variável aleatória Jtt, definid~ acima, pode tomar os 
valores O, l, 2, . . . Seja Pn(t) = li[ X, = n], n = O, 1, 2, ... 
I I 
Agora serão feitas as cinco hipóteses seguintes: . I 
A1 : O número de partículak emitidas durante 'intervalos de 
tempo não-sobrepostos Jonstituem variáveis ;aleatórias in-
dependentes. I ' 
I 
A2 : Se Xt for definida como ~cima, e se Y, for igual ao número 
de partículas emitidas !durante [tJ, tl + t), então, para 
qualquer t1 > O, as variãveis aleatórias Xt e Y; terão a 
mesma distribuição de brobabilidade. (Em outras pala-
vras, a distribuiçCío do n~mero de partículas emitidas du~ 
rante qualquer intervaloi depende apenas do comprimento 
daquele intervalo e pão !de seus pontos extremos.) 
I 
A a: p 1(!:J.t) será aproximadamente igual a )\Ãt, 'se Ãl for sufi-
cientemente pequeno, onde )\ é uma constante positi>;a. Es-
creveremos isto, as~im \PJ(ó.t) ~ ÀÓ.t. Por toda \~stâ. se-
ção, a(ó.t) ~ b(!:J.t) sigllifica que a(ó.t)jb(!:J.t) -> 1 quando 
. . . . I -- . .. 
I 
196, I PROBABILIDADE 
ilt ---7 O. Devemos também supor que D.t > O. (Esta hi-
pótese afirma que se o intervalo for suficientemente pe-
queno, a probabilidade de obter exatamente uma eniissãO 
durante o intervalo é diretamente proporcional ao compri-
mento do intervalo considerado.) 
A4: L,;:= 2Pk(!J.t) -r O. (Isto significa que Pk(D.t) "' O, k ;:::: 2.) 
Isto afirma que a probabilidade de obter duas ou mais 
emissões durante um intervalo suficientemente · pequeno é 
desprezível. 
A~: Xo = O, ou o que é equivalente, po(O) = 1. Isto equivale a 
uma condição inicial ~ara o modelo que estamos apresen-
tando. 
Como dentro em pouco demonstraremos, as cinco hipóteses 
relacionadas acima nos permitirão deduzir ~a expressão para 
Pn(t) = P[Xt = nl. Vamos agora tirar algumas conclusões, a par-
tir das hipóteses acima. 
(a) As hipóteses Ai . e A2, em conjunto, querem dizer que as 
o t+~t 
Fig. 8.1 
variáveis aleatórias Xt e [XttAt-
- Xtl são variáveis aleatórias in-
dependentes, com a mesma distri-
buição de probabilidade. (Veja a 
Fig. 8.1.) 
(b) Da.c; hipóteses Aa e Â4, pqdemos concluir que 
m 
Po(!J.t)= 1-pl(!J.t)- L Pk(!J.t)~l-'At+p(!J.t), (8.2) 
k=2 
quando t-+ O. 
(c) Podemos escrever 
po(t + Llt) = P[Xt+At = O] 
= P[Xt = O e (X~+t.t- Xt) = oJ 
= Po(t)po(fJ.t). 
~ Po(t)[t - À!J.t]. 
(d) Daí, teremos 
[Veja a conclusão (a).] 
[Veja a Eq. (8.2).] 
Po(t + D.t) - Po(t) ,...., _ Àpo(t). 
tit 
VARiÁVEiS AILEATÓRDAS DISCRETAS: A DE PO!SSOI\I E OUTRAS / 197 
Fazendo i1t--) O, e observando que o primeiro membro repre-
senta o quociente das diferenças da função po e por isso se aproxima 
de po'(t) (mais corretamente, se aproxima da derivada à direita, por-
que i1t > O), teremos 
'(t) ' () , . I Po'(t) , Po = - I'.Po t ou, o que e. eqmva ente, -(-) = - 1\. 
Po t 
Integrando ambos os membros em relação a t, obtém-se ln po(t) = 
= - Àt + C, onde C é uma constante de integração. Da hipótese 
As, fazendo t = O, obtemos C = O. Portanto, 
Deste modo, nossas hipóteses nos levaram a uma expressão para 
P[X1 = ot Empregando essencialmente o mesmo caminho, agora 
obteremos pn(t) para n;:::: 1. 
(e) Consideremos Pn(t + l1t) = P[Xt+Lit = n]. 
Agora Xt+Lit = ·n se, e somente se, X, = x e [Xt+Lit ~ X,] = 
= n- x, x =O, 1, 2, .. -., n. Empregando as hipóteses At e A2, 
teremos 
Pn(t + f:1t) :t Px(t)pn-x(f:1t) = 
x=O 
n-2 
= L p.f...t}pn-x(f:1t) + Pn-t(t)pl(f:1t)+Pn(t)po(f:1t). 
8=0 
Empregando as hipóteses A3 e Â4 e também a Eq. (8.2), obteremos 
Pn(t + f:1t) "-' Pn-t(l)À./::it + p,.(t)(l - À.f:1t]. 
Conseqüentemente, 
Pn(t + /::it) - Pn(t) "-' Àpn-t(l) - Àpn(t). 
l1t 
De novo fazendo l1t--) O, e também observando que o primeiro mem-
bro representa o quociente das diferenças da função pn, obteremos 
Pn'(t) = - Àpn(t) + Àpn-I(t), n = 1, 2, .. : 
Isto representa um sistema infinito de equações diferenciais e de di-
ferençaS (lineares). O leitor, interessado poderá verificar que se 
definirmos a função qn pela relação qn(t) = eÀ1pn(t), ' o sistema acima 
se torna qn'(t) = Àqn-1(t), n = 1, 2, ... Desd~ que po(t) = ,e..->..\ en-
contramos que qo(t) = L [Observe-se também que qn(O) ='9 para 
n > O.] Por conseguinte, obteremos sucessivamente 
t.JJJ •'! 
1!!8 I PROBABiliDADE 
e daí 
Em geral, q .. '(t) = Àq,.-1(t) e por isso q,.(t) = (Àt)n/n! Lembrando a 
definição de q,., obteremos finalmente 
p,.(t) = e-">-'(1\t)"/n!,' n =· O, 1, 2, . . . (8.4) 
Mostramos, portanto, que o número de partfcúlas emitidas 
durante o intervalo de tempo [0, t) por uma fonte radioativa, sujeita 
~ hipóteses feitas acima, é uma variável aleatória, com distribuição 
de Poisson, com parâmetro (Àt).Comenúirios: (a) 11: importante compreender que a distrib,lição de Poisson 
surgiu como wna conseqüência de alguma.s hipótE'.ses que fizemos. Isto significa 
que ·~empre que essas hipóteses sejani válida.s (ou ao menos aproximadamente 
válida.s), a. distribuição de Poisson po.de ser empregada como um modelo adequado. 
Verifica-se que existe uma grande classe de fenômenos para os quais o modelo de 
Po.isson é adequado. 
(i) Admita-se que Xt represente o número de chamados que chegam a uma 
central telefónica, durante um período de tempo de comprimento t. As hlpó-
teses acima são aproximadamente satisfeitas, particularmente durahte o "p~ 
rlodo movimentado" do dia. Conseqüentemente, Xt tem urna distribuição de 
Poisson. 
(ií) Adm.ita-tle que Xt represente o número de elétrons lil:.>ertados pelo 
catodo de uma válvula eletrônica. Tambéin as hipóteses acima.são adequadss 
e, portanto, Xt tem uma distribuição de Poisson. 
(iii) o seguinte exemplo (da Astronomia) revela que o racioc(nio ACima pode 
ser aplicado não ,somente ao número de ocorrências de algum evento, durante 
um período de tempo fixado, mas também ao número de ocorrências de 
um evento dentro das fronteiras de uma área ou volume fixados. Suponha-se 
que um astrônomo investigue uma parte de. via-Láctea, .a admita que na parte 
considerada, a densidade das estrelas X seja constante. [Isto. significa que em 
um volume V (unidades cúbicas), podem-se encontrar, em média, À V estrelas.) 
Seja X v o número de estrelas encontradaS em uma parte da Via-Láctea que 
tenha o volume V. Se as hipóteses acima forem sat~feítas (com "volume" 
substituindo "tempo"), ent!l:o P[X v = n) = (X V)n e-À Vjn!. (As hipóteses, 
intsrpreta.das neste contexto, afirmariam essencialmente que o número de estre-
las que aparecem em P.artes não-sobrepostas do céu, representam variáveis 
aleatórias independentes, e que e. probabilidade de mais do que uma estrehl. 
&parecer em uma parte bastante pequena do ·céu é zeto.) 
(iv) Outra aplicação, no campo da Biologia, é lembrada se fizermos XA ser 
o número de glóbulos sangüíneos visíveis ao microscópio, a área de superfície 
visível no campo do microscópio sendo de.da por A unide.des quadradas. 
(b) A constante ]\. originalmente surgiu como uma constante de proporcio-
nalidade Dili hipótese Aa. As seguintes interpretações de ]\. sl!,o dignas de nOta : 
Se Xt representar o número de ocorrências de algum evento, durante um intervalC> 
de tempo de comprimento t, então E(Xt) = Àt, e portanto X = [E(Xt)lft repre-
I 
VARiÁVEiS AliEATÕRDAS DISCRIEf AS: A DE POISSON E OUTRAS I 1S!ll 
115nt& a. taxa (freqüência} esperada segun~o a qual as partículas sil.o emitidms. Se 
X v representar o número de ocorrênci4.. de algu~ evento dentro de um vol~e 
especificado V, então E(Xv) = XV, e portanto X= [E(Xy)]/V representa adefl.. 
sidade esperada, segundo a qual as estn\las ap&recem. 
I 
(c) É import&nte co~preender qu~ nossa exposição na. Seç. 8.3 nll.o tratou 
exatamente de uma v.ariivel ale&tóri& X 1 possuindo uma distribuição de Poiss<in . 
Mais exatamente, para todo t > O, encontramos que Xt possuíaluma distribuição 
de Poisson com um parâmetro dependehte de t. Tal coleção (infinita) de variáveis 
aleatórias é também conhecida conio Pr, cesso de Poiss~n. 
(Equivalentemente, um Processo de Poisson é gerado sempre que 
um evento ocorra em algum interv~lo de tempo: para o qual as hipótéses 
A 1 áté A 5 sejam satisfeitas.) De maheira análoga, poderemos.défmir um 
Processo de Bemouilli: se X 1 ,X2 , 1 • • • , Xn, ... forem os números de 
ocorrências de sucessos em 1, 2, . j ., n, . .. provas de Bemouilli, então 
I . 
a coleção de variáveis aleatórias Xi\1' ... ' xn' ... é denominada um 
Processo de Bernouilli. · . 
Exemplo 8.5. Uma corriplic~da peça de maquinaria, quando 
funciona adequadamente, dá um l~cro de C dóla~s por hora · (C > 2) 
, I 
a urna firma. Contudo, esta máquina tende a falhaJ;" em momentos 
in~sperados e imprevisíveis. Su~onha-se que o núm~ro de falhas, 
dura~te qualquer perlodo de duraJão t horas, seja urna variável alea-. 
tória com uma distribUição de Poisson com parâmetro t. Se a má·: 
quina falhar x vezes durante as t horas, o prejuízo sofrido (parada da 
máquina mais reparação) é igual ~ (~2 + x) dólares. Assim, o lucro 
total P, durante qualquer períodb de t horas, é igual a P = Ct -
- (X2. + X), onde X é a variável I aleatória que repres~nta o número 
de falhas da máquina. Logo, P é uma variável aleatória, e poderá 
interessar escolher-se t (o qual es,tá à nossa disposição) de .tal ma-
. neira que o lucro esperado se tome máximo. Teremos 
E(P) = Ct ~ E(X2 + X). 
Do Teor. 8.1, encontraremos ! que E(X) = t e E(X2) = t + (t)a. I . 
Segue-se então que E(P) = Ct - ~2t- t2• Para achar o valor de t 
para o qual E(P) se torna má.xirila, derivaremos E(P) e faremos a 
~xpr~ssão resultante igual a zero. j . Obteremos C - 2 - 2t = O, qu~ 
fornece t = 1/2 (C - 2) horas. ! · 
I . 
I . 
Exemplo 8.6. Seja Xt o número de partículas emitidas por un:i.a 
fonte radioativa, durante um intenralo. d.e tempo de duração t. Admi-
ta-se que X, possua distribuição d~ Poisson com parâmetro at. ,, Um 
dispositivo contador é colocado ~ara registrar Q número de p'artí-
. culas emitidas. Suponha-se que exista urna probabilidade consÚmte p I .. . , 
! 
200 I PROBABIUDADE 
de que qualquer partícula emitida não seja contada. Se Rt for o 
número de partículas contadas durante o intervalo especificado, qual 
sem a distribuição de probabilidade de Rt? 
Para um dadO X. = x, a variável aleatória Rc possui uma distri-
buição binomial, baseada em x repetições; com pacl~etro (1 - p). 
Isto é, 
Empregando a fórmula da probabilidade total [Eq. (3.4)], teremos 
., 
P(Rc = k) = "L, P(R, = klXt = x)P(Xc = x) 
8-k . 
( 
.)I& " 1-p e-1 1 , 
= -.- -k, L ( - k)i (pat) · . p . a-k X • . 
Façamos i = x - k. Porlanto, 
( 
1 "' )"' e-mi "' l~~t)i+k 
P(R, = k) = - " ~L -"'\}J'-"~-
p k! i-O i! 
= ( 1 .,.- p )"' e-«' (patY'eP"'t = 
p k! 
e-CI--Pll(I - p )at]"' 
k! 
Deste modo verificamos que Rt também possui distribuição de Pois-
son, com parâmetro (1 - p)at. 
8,4, A Distribuiçâlo Geométrica 
Suponha-se que realizemos um experimento· S e que estejamos 
interessados apenas·· na ocorrência ou. não-ocorrência de algum 
evento A. Admita~se; tal como na explicação da distribuição bino-
mial, que realizemos S repetidamente, que as ,.repetições sejam inde-
pendentes, e que em cada repetição P(A) = p e P(A) = 1 - p .= q 
permaneçam os mesmos. Suponha-se que repetimos o experimento 
até que A ocorra pela primeira vez. (Aqui nos afastamos das hipó-
teseS que levaram à distribuição. binomial. Lá, o número de repeti-
ções era predeterminado, enquanto aqui é uma variável aleatória.) 
VARIÁVIEIS AllEATÓRIAS DISCRETAS: ADIE I?OiSSOI\I E OUTRAS I 201 
Defina-se a variável aleatória X como o número de repetições 
necessárias para obter a primeira ocorrência de A, nele se incluindo 
essa última. Assim, X toma os valores possiveis 1, 2, ... Como 
X:= k se, e somen.te se, as primeiras (k- 1) repetições de 8 derem 
o resultado A, enquanto a k-ésima repetição dê o resultado A, te-
remos 
k = 1, 2, ... (8.5) 
Uma variável aleatória· com a distribuição de probabilidade da 
Eq. (8.5) recebe ~ denominação de distribuição geométrica. 
Um cálculo fácil mostra que a Eq. (8.5) define uma distribuição 
de probabilidade legítima. Temos, obviamente, que P(X = k) 2:: O, e 
"' - . ' [ 1 ] L P(X = k) = p(l + q + q2 + ·-· .) = p -
1
-·- = 1. 
k~l . - q 
, Poderemos obter o vàlor esperado de X, da seguinte maneira: 
"' "' d 
E(X) = Lkprf-1=p :E- q"' = 
k=l k=l dq 
= p---:- 2.::: t = P- -º- = -. d"' d[ ] 1 
dqk=l qq 1-q p 
(A permuta da derivação e do somatório é válida aqui, porque a série 
converge quando I q I < 1.) Um cálculo semelhante mostra que 
V(X) = q(p2. (Obteremos de novo, ambos os resultados no Cap. 10, 
seguindo um caminho diferente.) Resumindo o que está acima, 
enunciamos o seguinte teorema: 
Teorema 8.3. Se X tiver uma distribuição geométrica,

Mais conteúdos dessa disciplina