Buscar

Probabilidade: Arranjo, combinação, variáveis aleatorias

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

Introduc¸a˜o a` Teoria de Probabilidades para a
Economia
Marcelo Magalha˜es Taddeo1
17 de maio de 2017
1e-mail: marcelo.magalhaes@ufba.br
2
Suma´rio
I Teoria de Probabilidade 7
1 Introduc¸a˜o a` Probabilidade 9
1.1 O que e´ probabilidade? . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.1 Axiomas de Kolmogorov . . . . . . . . . . . . . . . . . . . . . . 17
1.1.2 Diagramas de Venn . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2 Probabilidade Condicional e Independeˆncia . . . . . . . . . . . . . . . . 23
1.2.1 A Regra do Produto . . . . . . . . . . . . . . . . . . . . . . . . 28
1.3 Fo´rmula de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.3.1 Partic¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.3.2 A Fo´rmula de Bayes . . . . . . . . . . . . . . . . . . . . . . . . 31
1.4 Exercı´cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2 Ana´lise Combinato´ria 37
2.1 O Princı´pio da Induc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2 Elementos Ba´sicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.3 Arranjos e Combinac¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.3.1 Arranjos ou k-Permutac¸o˜es . . . . . . . . . . . . . . . . . . . . . 42
2.3.2 Combinac¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.4 Arranjos e Combinac¸o˜es com Diferentes Subgrupos . . . . . . . . . . . . 48
2.5 Exercı´cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3 Varia´veis Aleato´rias 53
3
4 SUMA´RIO
3.1 Definic¸o˜es Gerais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.1.1 Exercı´cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4 Varia´veis Aleato´rias Discretas 63
4.1 Introduc¸a˜o e Principais Modelos . . . . . . . . . . . . . . . . . . . . . . 63
4.1.1 A Distribuic¸a˜o de Bernoulli . . . . . . . . . . . . . . . . . . . . 64
4.1.2 A Distribuic¸a˜o Binomial . . . . . . . . . . . . . . . . . . . . . . 65
4.1.3 A Distribuic¸a˜o Geome´trica . . . . . . . . . . . . . . . . . . . . . 70
4.1.4 A Distribuic¸a˜o de Poisson . . . . . . . . . . . . . . . . . . . . . 75
4.2 Distribuic¸o˜es Conjuntas de Varia´veis Aleato´rias Discretas . . . . . . . . . 77
4.3 Distribuic¸a˜o da Func¸a˜o de uma Varia´vel Aleato´ria Discreta . . . . . . . . 79
4.4 Esperanc¸a e Variaˆncia de uma Varia´vel Aleato´ria Discreta . . . . . . . . . 79
4.4.1 Valor Esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.4.2 Variaˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.5 Func¸a˜o Geradora de Momentos . . . . . . . . . . . . . . . . . . . . . . . 91
4.6 Entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.7 Exercı´cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5 Varia´veis Aleato´rias Contı´nuas 97
5.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.2 Alguns Modelos Contı´nuos . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.2.1 Distribuic¸a˜o Uniforme . . . . . . . . . . . . . . . . . . . . . . . 101
5.2.2 Distribuic¸a˜o Exponencial . . . . . . . . . . . . . . . . . . . . . . 102
5.2.3 Distribuic¸a˜o Gama . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.2.4 Distribuic¸a˜o Normal . . . . . . . . . . . . . . . . . . . . . . . . 104
5.2.5 Valor Esperado de uma Varia´vel Aleato´ria Contı´nua . . . . . . . 110
5.2.6 Valor Esperado de uma Func¸a˜o de uma Varia´vel Aleato´ria Contı´nua113
5.2.7 Variaˆncia de uma Varia´vel Aleato´ria Contı´nua . . . . . . . . . . . 114
5.2.8 Distribuic¸a˜o Conjunta de uma Varia´vel Aleato´ria Contı´nua . . . . 116
5.3 Independeˆncia de Varia´veis Aleato´rias Contı´nuas . . . . . . . . . . . . . 118
SUMA´RIO 5
5.4 Covariaˆncia entre Duas Varia´veis Aleato´rias . . . . . . . . . . . . . . . . 120
5.5 Exercı´cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
5.6 Exercı´cios 02 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
A Noc¸o˜es de Ca´lculo 127
A.1 Limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
A.2 Se´ries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
A.3 Derivadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
A.4 Integrais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
B Tabelas 131
B.1 Distribuic¸a˜o Normal Padra˜o . . . . . . . . . . . . . . . . . . . . . . . . 131
6 SUMA´RIO
Parte I
Teoria de Probabilidade
7
Capı´tulo 1
Introduc¸a˜o a` Probabilidade
1.1 O que e´ probabilidade?
Probabilidade, assim como as noc¸o˜es de distaˆncia ou peso, e´ uma medida. Mas medida
do queˆ? Em resumo, usamos a teoria de probabilidade com o intuito de medir nossa in-
certeza acerca da realizac¸a˜o de um determinado evento. Por exemplo, ao lanc¸armos um
dado, a menos que conhec¸amos com ma´xima exatida˜o todas as condic¸o˜es iniciais desse
lanc¸amento, na˜o podemos prever exatamente qual sera´ o resultado final. No entanto,
podemos dizer algumas coisas sobre esse experimento. De fato, sabemos que o resul-
tado final deve ser um (e somente um) nu´mero no conjunto {1, 2, 3, 4, 5, 6}. Sabemos
tambe´m que se o dado for de tal modo homogeˆneo, enta˜o nenhuma face deve prevalecer
sobre as demais. Em outras palavras, elas possuem a mesma chance de ocorrer. Intuiti-
vamente, dizemos, portanto, que a probabilidade de “sair qualquer uma das suas faces”
num determinado lanc¸amento e´ de 1/6. Quando dizemos isso estamos dizendo, entre
outras coisas, que esperamos que uma determinada face aparec¸a em me´dia uma vez a
cada 6 lanc¸amentos. Estamos tambe´m reafirmando numericamente o fato de que as fa-
ces sa˜o equiprova´veis e que nenhum outro nu´mero, ale´m daqueles seis, e´ possı´vel (e.g.
e´ impossı´vel que do lanc¸amento de um dado resulte o nu´mero 7). Em suma, portanto,
probabilidade pode ser entendida como uma medida da incerteza acerca das possı´veis
realizac¸o˜es de um experimento qualquer. Como veremos mais adiante, assim como acon-
tece com as medidas de distaˆncia ou peso, podemos avaliar a incerteza intrı´nseca a um
experimento, seja a respeito da realizac¸a˜o de determinados conjuntos de resultados.
Uma visita ao diciona´rio Aure´lio nos traz a seguinte definic¸a˜o:
Probabilidade.
1. Qualidade do que e´ prova´vel.
9
10 CAPI´TULO 1. INTRODUC¸A˜O A` PROBABILIDADE
2. Inı´cio ou raza˜o que deixa presumir a probabilidade de um fato.
3. Verossimilhanc¸a.
4. Conjunto de razo˜es ou circunstaˆncias que tornam algo prova´vel.
5. Ca´lculo das probabilidades: conjunto de regras por meio das quais se calcula o nu´mero
de causas favora´veis ou contra´rias a` produc¸a˜o de um certo acontecimento.
Observemos que a conceituac¸a˜o acima na˜o nos e´ muito u´til por ser circular. Isto e´, ela
se utiliza do conceito de probabilidade para definir probabilidade! Por exemplo, ao afir-
mar que a probabilidade e´ a qualidade do que e´ prova´vel, precisamos primeiramente ter
uma ideia do que seja prova´vel e isso so´ e´ possı´vel se formos capazes de mensurar a
incerteza associada ao evento de interesse. Para no´s, talvez o verbete mais u´til seja o
u´ltimo, i.e. aquele que caracteriza probabilidade (ou ca´lculo de probabilidades) como o
“conjunto de regras por meio das quais” se infere a incerteza de um acontecimento. Ob-
serve, no entanto, que o verbete faz mais do que dizer isso. Na verdade, ele sugere uma
definic¸a˜o de probabilidade. A saber, a probabilidade de um evento seria a raza˜o entre as
“causas favora´veis a` produc¸a˜o de um certo acontecimento” pelo total de possı´veis cau-
sas. Essa definic¸a˜o remete aos trabalhos
de J. Bernoulli e de Pierre-Simon Laplace para
quem a probabilidade de um evento e´ a raza˜o do nu´mero de casos favora´veis a ele, pelo
nu´mero de todos os possı´veis casos quando nada nos faz esperar que qualquer um destes
casos ocorra mais do que os outros, o que os torna, igualmente possı´veis. Em termos
matema´ticos, dirı´amos que se S (chamado doravante de espac¸o amostral) representa o
conjunto de todos os possı´veis resultados e A o conjunto de casos favora´veis, enta˜o
P (A) =
|A|
|S| ,
onde |A| denota a cardinalidade, ou nu´mero de elementos, em A.
Exemplo 1.1.1. Lanc¸amento de uma moeda na˜o-viciada. Diremos que uma moeda e´
na˜o-viciada se ambas as suas faces (H: cara / T : coroa) possuem a mesma chance de
ocorreˆncia. Dada, portanto, uma moeda na˜o-viciada, considere o experimento que no
seu lanc¸amento uma u´nica vez. Os u´nicos possı´veis resultados sa˜o H ou T e note que
somente um desses resultados e´ possı´vel! Suponha agora que estejamos interessados no
caso ‘sair Cara’, de modo que, usando a notac¸a˜o acima, o conjunto de casos favora´veis
e´ A = {H} e o conjunto de todos os possı´veis casos e´ S = {H,T}. Logo, pela definic¸a˜o
cla´ssica de probabilidade,
P (Cara) = P (A) =
|A|
|S| =
1
2
.
1.1. O QUE E´ PROBABILIDADE? 11
Exemplo 1.1.2. Lanc¸amento de um dado na˜o-viciado. Assim como no caso de uma
moeda, um dado sera´ na˜o-viciado se todas as suas faces (1, 2, 3, 4, 5 e 6) possuı´rem a
mesma chance de ocorreˆncia. Considerando-se, portanto, uma dado na˜o-viciado, tome-
mos o experimento consistindo do seu lanc¸amento uma u´nica vez e suponha que estejamos
interessados no caso ‘o resultado e´ menor ou igual a 2’. Logo, o conjunto de casos fa-
vora´veis e´ A = {1, 2} e o conjunto de todos os possı´veis casos e´ S = {1, 2, 3, 4, 5, 6}, de
modo que, pela definic¸a˜o cla´ssica,
P (Menor ou igual a 2) = P (A) =
|A|
|S| =
2
6
=
1
3
.
Exercı´cio 1.1.1. Como ficariam os exemplos acima se um dado e uma moeda na˜o-viciados
fossem simultaneamente lanc¸ados?
A essa interpretac¸a˜o de probabilidade da´-se o nome cla´ssica. Como veremos mais adi-
ante, ha´ outras interpretac¸o˜es que buscam resolver “problemas” inerentes a essa interpretac¸a˜o
sa˜o possı´veis. Pore´m, antes disso, discutamos alguns aspectos da visa˜o cla´ssica. Em pri-
meiro lugar, fac¸amos uma obsrvac¸a˜o de natureza operacional: o me´todo cla´ssico esta´
intimamente relacionado com a contagem de elementos no espac¸o amostral e, portanto, a
te´cnicas de ana´lise combinatorial. Por exemplo, tente responder a` pergunta: em quantas
vezes aumenta nossa chance de ganhar um preˆmio na loteria se nos for permitido marcar
um nu´mero a mais? Para tornar o problema mais concreto, suponhamos que numa ficha
com 60 nu´meros, um apostador deva escolher 6 nu´meros. O espac¸o amostral, nesse caso,
e´ formado por todas as combinac¸o˜es com de 6 nu´meros distintos entre 1 e 60. O total de
elementos em S e´ dado pela combinac¸a˜o(
60
6
)
=
60!
6!54!
= 50.063.860.
Logo, a chance de ganhar o preˆmio com apenas um jogo e´ de aproximadamente 1 em 50
milho˜es. Agora, suponha que nos seja permitido marcar 7 nu´meros. Em quantas vezes
nossa chance aumenta? Observe que ao marcar 7 nu´meros, isso equivale a fazer 7 jogos:(
7
6
)
=
7!
6!1!
= 7.
Ou seja, aumentamos em 7 vezes nossa chance.
Exercı´cio 1.1.2. Com base no exemplo acima, avalie em quantas vezes aumentariam as
chances de vencer na loteria assinalando-se 8 e 9 nu´meros. Se o jogo padra˜o (i.e. com
apenas 6 nu´meros marcados) custa R$1,00, quanto deveria custar um jogo com 7, 8 e
9 nu´meros marcados? Supondo agora que acertar 5 nu´meros apenas tambe´m rende um
preˆmio, o que voceˆ diria em relac¸a˜o a`s chances de um apostador que tenha marcado 7
nu´meros em relac¸a˜o a outro apostador que marcou apenas 6 nu´meros?
12 CAPI´TULO 1. INTRODUC¸A˜O A` PROBABILIDADE
Continuando
O me´todo dedutivo.
com a ana´lise da interpretac¸a˜o cla´ssica, uma noc¸a˜o que diferencia a pro-
babilidade de outras a´reas da matema´tica (e.g. teoria da medida) e´ a ideia de evideˆncia,
i.e. de que modo a revelac¸a˜o de um certo conjunto de informac¸o˜es pode influenciar nossa
incerteza a respeito de um determinado resultado potencial. Como ficara´ mais claro em
sec¸o˜es subsequentes, essa questa˜o esta´ conectada a` ideia de probabilidade condicional:
denotemos por P (A|E) o grau de incerteza de um evento A dadas as evideˆncias E. Ou
seja, P (A|E) deve nos informar o quanto a realizac¸a˜o de A e´ verossı´mil quando revelado
o conjunto de informac¸o˜es encapsuladas no evento E. Retornemos um pouco a` lo´gica
cla´ssica: nela, uma evideˆncia possui um cara´ter determı´nista no sentido que ela implica
(ou na˜o) uma determinada consqueˆncia, como no silogismo cla´ssico:
1. Todos homens sa˜o mortais.
2. So´crates e´ um homem.
3. (Logo,) So´crates e´ mortal.
Os pontos 1 e 2 no argumento acima se chamam premissas e delas segue obrigatoriamente
a conclusa˜o 3. Esse tipo de raciocı´nio tambe´m e´ chamado de deduc¸a˜o e se caracteriza pela
necessidade da conclusa˜o (lo´gica) frente a`s premissas apresentadas.
No entanto,
O efeito de novas
evideˆncias sob a o´tica
da interpretac¸a˜o
cla´ssica.
quando falamos de eventos incertos, uma premissa pode na˜o determi-
nar completamente uma certa conclusa˜o nos moldes acima. Voltemos ao exemplo do
lanc¸amento de um dado e suponhamos que nos seja revelada a informac¸a˜o E de que o
resultado obtido e´ par. Ou seja, dentre todos os possı´veis resultados considerados inicial-
mente, sabemos agora que os u´nicos realmente possı´veis sa˜o os nu´meros 2, 4 e 6. Agora,
pela simetria do espac¸o amostral, podemos concluir que a evideˆncia E implica em
P (1|E) = P (3|E) = P (5|E) = 0,
P (2|E) = P (4|E) = P (6|E) = 1/3.
Em outras palavras, embora na˜o possamos, a partir da evideˆncia E, dizer com certeza
qual sera´ o resultado do experimento, e´ certo que sua revelac¸a˜o, nesse caso especı´fico,
alterou nossa percepc¸a˜o sobre a verossimilhanc¸a dos possı´veis resultados. O exemplo
acima serve de ilustrac¸a˜o, pore´m e´ evidente que na pra´tica os espac¸os amostrais, assim
como as evideˆncias reveladas, sa˜o muito mais complicados do que isso. No entanto, em
que medida essa noc¸a˜o de evideˆncia afeta a interpretac¸a˜o cla´ssica de probabilidade? O
fato relevante e´ que, em praticamente qualquer caso que possamos imaginar, ha´ sempre
um conjunto de evideˆncias postas a nossa disposic¸a˜o, sejam elas evideˆncias que traze-
mos da nossa pro´pria experieˆncia, da teoria subjacente ou a partir de elementos exter-
mos (e.g. do conhecimento de outras pessoas). Se chamarmos de E o conjunto de tais
1.1. O QUE E´ PROBABILIDADE? 13
evideˆncias, segue da hipo´tese de homogeneidade do espac¸o amostral que as probabilida-
des dos possı´veis casos (dado E) sejam sempre iguais, i.e.
P (x|E) = constante.
Segue
Limitac¸o˜es da
interpretac¸a˜o
cla´ssica.
da discussa˜o acima que, embora u´til em muitas circunstaˆncias, a interpretac¸a˜o
cla´ssica da probabilidade claramente apresenta algumas limitac¸o˜es que devem ser discuti-
das. Em primeiro lugar, conforme ja´ indicado mais acima, ela sofre de certa circularidade
no sentido de que, pela pro´pria definic¸a˜o, pede-se que todos os possı´veis casos possuam
a mesma chance de ocorreˆncia (ou, em outras palavras, que sejam equiprova´veis). Ora,
mas para que possamos dizer que tais casos sejam equiprova´veis, precisamos saber an-
tes o que e´ probabilidade! Mais ainda, estariam fora do escopo dessa definic¸a˜o os casos
na˜o equiprova´veis (como o de uma moeda viciada, por exemplo). Somente isso ja´ se-
ria suficiente para uma reformulac¸a˜o da sua definic¸a˜o. Pore´m, ainda ha´ outros pontos
discutı´veis: a raza˜o |A|/|S| so´ faz sentido se a cardinalidade de S for finita (por queˆ?).
Portanto, a definic¸a˜o cla´ssica exclui de seu
escopo um infinidade de casos de interesse
pra´tico. Por exemplo, poderı´amos estar interessados no conjunto (infinito) de possı´veis
taxas de retorno de uma ac¸a˜o ou derivativo. Outro ponto que merece atenc¸a˜o e´ o fato de
que na˜o e´ razoa´vel esperar que reveladas quaisquer evideˆncias a respeito do experimento
de interesse, os casos possı´veis sejam sempre equiprova´veis.
Exemplo 1.1.3. Um exemplo de experimento em que a hipo´tese de equiprobabilidade
na˜o e´ va´lida. Suponha que num jogo uma moeda na˜o-viciada seja lanc¸ada duas vezes
de forma independente (i.e. o resultado de uma moeda na˜o interfere de modo algum no
resultado da outra). Enta˜o, o espac¸o de todos os possı´veis casos e´
S = {(H,H), (T,H), (H,T ), (T, T )}.
Como os lanc¸amentos sa˜o realizados de forma independente e as moedas sa˜o na˜o-viciadas,
e´ razoa´vel admitir que todos os possı´veis casos sejam igualmente prova´veis, i.e.
P ((H,H)) = P ((T,H)) = P ((H,T )) = P ((T, T )) = 1/4.
Suponha agora um jogo no qual o participante leva um preˆmio se pelo menos uma das
moedas resultar em ‘Cara’. Indiquemos por 1 o caso em que ele ganha o preˆmio e por 0
o caso em que ele na˜o ganha o preˆmio. Observe que o espac¸o de todos os possı´veis casos
agora e´ representado por S ′ = {0, 1} e que 0 acontece se, e somente se, (T, T ) acontece,
enquanto 1 ocorre se, e somente se, (H,H), (T,H), (H,T ). Ou seja, o participante tem
uma chance em quatro de perder, e treˆs chances em quatro de ganhar, i.e. P (0) = 1/4 e
P (1) = 3/4.
Embora, o novo espac¸o de casos na˜o seja representa´vel diretamente a partir da
definic¸a˜o cla´ssica, poderia-se argumentar que ele e´ obtido a partir de um espac¸o mais
14 CAPI´TULO 1. INTRODUC¸A˜O A` PROBABILIDADE
fundamental que se encaixa naquele formalismo. Ocorre, no entanto, que em experimen-
tos pra´ticos, e´ possı´vel que o mecanismo gerador (i.e. o lanc¸amento duas moedas) seja
desconhecido do participante de modo que ele na˜o pode usa´-lo para inferir suas chances.
Nesse caso, a interpretac¸a˜o cla´ssica na˜o se aplicaria.
Uma
Probabilidade lo´gica.
forma de acomodar essas questo˜es seria manter a ideia cla´ssica de que probabi-
lidades podem ser determinadas pura e simplesmente pelo escrutı´nio do espac¸o amostral
S, embora permitindo (i) atribuir aos possı´veis casos diferentes pesos, e (ii) a`s evideˆncias
influeˆncia na˜o necessariamente sime´trica em relac¸a˜o aos possı´veis casos. Esse e´ o escopo
do que chamamos probabilidade lo´gica. Em suma, trata-se de uma tentativa de generali-
zar a lo´gica dedutiva (como indicada acima) e a noc¸a˜o de implicac¸a˜o, atribuindo-lhe pesos
ou graus de implicabilidade. O conceito de probabilidade lo´gica foi estudado por diversos
pensadores, destancando-se entre eles o trabalho de Carnap1, para quem as evideˆncias (e)
oferecem um determinado grau de evideˆncia a favor das hipo´teses (h) representado por
c(h, e), ou func¸a˜o confirmato´ria, de modo que
c(h, e) =
m(h & e)
m(e)
,
onde m representa uma medida de probabilidade qualquer. Como veremos mais adiante,
essa noc¸a˜o esta´ intimamente ligada ao que chamaremos de fo´rmula de Bayes. Na˜o en-
traremos aqui no me´rito de como Carnap entendia dever ser definida a medida m. Os
pontos relevantes para no´s sa˜o (i) que m, representada aqui como uma o peso a favor
de uma afirmac¸a˜o, e´ representada por uma medida de probabilidade e (ii) que o peso de
uma evideˆncia de uma evideˆncia sobre uma hipo´tese na˜o mais age de forma balanceada
sobre todos os possı´veis casos. Essas condic¸o˜es devera˜o ser satisfeitas por qualquer outra
interpretac¸a˜o de probabilidade que venhamos a adotar.
O
Me´todos indutivos vs.
me´todos dedutivos
uso de um conjunto (limitado) de evideˆncias a favor (ou contra) uma determinada
conclusa˜o e´ o que diferencia o me´todo dedutivo daquele que chamamos de me´todo indu-
tivo. Posto de outro modo, o me´todo indutivo trabalha de acordo com o princı´pio de que
se uma hipo´tese e´ verdadeira (ou falsa), enta˜o nossa crenc¸a a seu favor (ou contra) deve
aumentar na presenc¸a de novas evideˆncias: dirı´amos que uma hipo´tese cientı´fica e´ “bem”
confirmada sempre que c(h, e) (ou P (H|E)) for suficientemente grande. O quanto seria
esse suficientemente grande e´ uma questa˜o respondida com base em argumentos externos
a` Teoria da Probabilidade.
Permanece, pore´m, em aberto a questa˜o de como construir novas medidas de probabi-
lidade que ampliem o escopo da noc¸a˜o cla´ssica. Uma construc¸a˜o alternativa e´ aquela iden-
tificada com o que se chama de interpretac¸a˜o frequentista da probabilidade. De acordo
com essa definic¸a˜o, a probabilidade de um evento de interesse corresponde a` frequeˆncia
1Carnap, R., 1950, ‘Logical Foundations of Probability’, Chicago: University of Chicago Press.
1.1. O QUE E´ PROBABILIDADE? 15
relativa com que ele ocorre em um certo nu´mero de experimentos quando este e´ levado
ao infinito. Ou seja, se nA correponde a` quantidade de vezes que o evento A e´ obser-
vado quando um experimento e´ realizado n vezes, enta˜o, pela interpretac¸a˜o frequentista
de probabilidade, tem-se que
P (A) = lim
n→∞
nA
n
.
Note, em particular, que tal interpretac¸a˜o presume que o experimento de interesse seja
reprodutı´vel. Ou seja, para que falemos em probabilidade num sentido frequentista, deve-
mos assumir que somos capazes de reproduzir exatamente o mesmo experimento quantas
vezes no´s desejemos e essa e´, com certeza, uma hipo´tese bem forte! O resultado ma-
tema´tico que serve de suporte (em certa medida) para essa interpretac¸a˜o e´ chamado de
“Lei dos Grandes Nu´meros” e o estudaremos mais detalhadamente em capı´tulos subse-
quentes. No entanto, adiantando um pouco o tema, o que ele garante, posto aqui de forma
pouca rigorosa, e´ que, no limite, a me´dia nA/n converge para o seu valor “correto” ou
“teo´rico”.
Exemplo 1.1.4. Continuac¸a˜o do exemplo 1.1.1. Retomemos o experimento correspon-
dente ao lanc¸amento de uma moeda na˜o viciada. Novamente, nosso objetivo e´ deter-
minar a probabilidade de obtermos ‘Cara’. De acordo com a interpretac¸a˜o frequen-
tista, P (A) = limn→∞ nA/n, onde nA e´ simplesmente igual ao nu´mero de vezes que o
lanc¸amento resulta em ‘Cara’ em n lanc¸amentos. A figura 1.1 ilustra o comportamento
da frequeˆncia relativa quando n→∞. Note que, conforme o valor de n aumenta, o valor
de nA/n se aproxima de 1/2. Essa convergeˆncia (sob certas condic¸o˜es que veremos mais
adiante) e´ o que garante a Lei dos Grandes Nu´meros.
Exemplo 1.1.5. Lanc¸amento de uma moeda arbitra´ria. Suponha agora que na˜o saiba-
mos nada sobre a moeda. Ou seja, na˜o ha´ garantia nenhuma de que ela seja na˜o-viciada,
de modo que na˜o sabemos a priori se ‘Cara’ e ‘Coroa’ sa˜o igualmente prova´veis. De
acordo com a interpretac¸a˜o cla´ssica de probabilidade, na˜o terı´amos como determinar
as probabilidade de um e de outro. No entanto, a interpretac¸a˜o frequentista nos oferece
um meio de, pelo menos, estimar tais probabilidades. De fato, dada tal moeda, podemos
lanc¸a´-la, como antes, um nu´mero arbitra´rio de vezes e anotar para cada lanc¸amento a
frequeˆncia relativa de ‘Cara’. Para efeitos de ilustrac¸a˜o, suponhamos que ‘Coroa’ seja
duas vezes mais prova´vel que ‘Cara’ (na pra´tica, na˜o terı´amos essa informac¸a˜o!), ou
seja P (Cara) = 1/3. Realizando um experimento semelhante ao do exemplo anterior,
obterı´amos algo como na figura 1.2.
Exercı´cio 1.1.3. Supondo um dado na˜o-viciado reproduza o experimento acima usando
algum software (e.g. Excel ou R).
Cabe observar que a definic¸a˜o acima e´ uma abstrac¸a˜o, visto que, na pra´tica, na˜o
poderı´amos jamais reproduzir um experimento infinitas vezes. Alia´s, em muitas cir-
cunstaˆncias, seria ate´ mesmo impossı´vel reproduzir ate´ mesmo mais uma vez o mesmo
16 CAPI´TULO 1. INTRODUC¸A˜O A` PROBABILIDADE
0 100 200 300 400 500
0.
0
0.
2
0.
4
0.
6
0.
8
1.
0
n
Figura 1.1: Frequeˆncia relativa do evento ‘sair Cara’ conforme observado em cada etapa
do experimento. O eixo-x corresponde ao nu´mero n de lanc¸amentos da moeda.
0 100 200 300 400 500
0.
0
0.
2
0.
4
0.
6
0.
8
1.
0
n
Figura 1.2: Frequeˆncia relativa do evento ‘sair Cara’ conforme observado em cada etapa
do experimento. A probabilidade teo´rica de ‘Cara’ e´ 1/3.
1.1. O QUE E´ PROBABILIDADE? 17
experimento. Por exemplo, poderı´amos estar interessados nas probabilidades de que uma
plataforma de petro´leo afunde, ou que um avia˜o caia, ou que uma empresa entre em
processo de faleˆncia no pro´ximo ano. Embora nenhum desses eventos seja reprodutı´vel, e´
absolutamente legı´timos que nos perguntemos sobre tais probabilidades. Por exemplo, em
seu cla´ssico sobre teoria de probabilidades, W. Feller fez a seguinte observac¸a˜o: “There
is no place in our system for speculations concerning the probability that the sun will rise
tomorrow. Before speaking of it we should have to agree on an (idealized) model which
would presumably run along the lines ”out of infinitely many worlds one is selected at
random... Little imagination is required to construct such a model, but it appears both
uninteresting and meaningless.”
1.1.1 Axiomas de Kolmogorov
As interpretac¸o˜es cla´ssicas e frequentistas na˜o sa˜o as u´nicas possı´veis. Outras abordagens
ja´ foram elaboradas e cada uma delas apresenta um conjunto de qualidades que serve
de lastro a seu favor. No entanto, seja qual for a definic¸a˜o de probabilidade, existe um
certo grupo de propriedades que ela deve sempre satisfazer. Essas propriedades foram
descritas e colocadas na forma de axiomas por A. Kolmogorov em 1933. Desde enta˜o,
a teoria matema´tica de probabilidades e´ essencialmente o conjunto de desdobramentos
desses axiomas. No entanto, antes de enuncia´-los, formalizemos alguns dos conceitos
a serem utilizados. Qualquer procedimento que possa ser repetido uma quantidade ar-
bitra´ria de vezes e cujos possı´veis resultados sejam todos conhecidos a priori e´ chamado
de experimento. Se, ale´m disso, se os resultados especı´ficos, embora conhecidos em
sua totalidade, possam assumir mais de um valor, enta˜o o experimento e´ dito aleato´rio.
Chamaremos de espac¸o amostral, e denotaremos por S, o conjunto de todos os possı´veis
resultados de um experimento aleato´rio qualquer.
Exemplo 1.1.6. Alguns espac¸os amostrais...
i. Lanc¸amento de uma moeda. S = {H,T}.
ii. Lanc¸amento de um dado. S = {1, 2, 3, 4, 5, 6}.
iii. Lanc¸amento de um dado e uma moeda.
S = {(H, 1), (H, 2), (H, 3), (H, 4), (H, 5), (H, 6),
(T, 1), (T, 2), (T, 3), (T, 4), (T, 5), (T, 6)}.
iv. Lanc¸amento de uma moeda ate´ que ‘Cara’ aparec¸a pela 1a vez.
S = {H,TH, TTH, TTTH, TTTTH, . . . }.
18 CAPI´TULO 1. INTRODUC¸A˜O A` PROBABILIDADE
Observe que TT · · ·TH e´ simplemesmente uma representac¸a˜o da sequeˆncia
(T, T, · · · , T,H).
v. Taxa de retorno sobre um investimento. S = R.
vi. Tempo de vida. S = [0,∞).
O espac¸o amostral representa a totalidade dos possı´veis resultados de um experimento.
No entanto, na maior parte do tempo, estamos interessados em situac¸o˜es particulares que
podem ser facilmente caracterizadas como subconjuntos de S. Tais subconjuntos de S
sera˜o chamados de eventos.
Exemplo 1.1.7. Lanc¸amento de dois dados. No experimento em que dois dados sa˜o
lanc¸ados sucessivamente (cada um deles somente uma vez), o espac¸o amostral e´ dado
por
S = {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6),
(2, 1), (2, 2), · · · , (6, 4), (6, 5), (6, 6)}.
O evento definido por ‘o 1o lanc¸amento resulta no nu´mero 2’ e´ o subconjunto A de S:
A = {(2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6)}.
Agora, dada uma certa colec¸a˜o de eventos podemos construir outros novos eventos a
partir dela. De fato, valem as seguintes regras:
i. Se A e´ um evento qualquer, enta˜o seu complementar AC = S \ A tambe´m e´ um
evento (formado por todos os elementos de S que na˜o esta˜o em A).
ii. Se A1, ..., An sa˜o eventos quaisquer, enta˜o sua unia˜o A1 ∪ · · · ∪ An tambe´m e´ um
evento. De modo mais geral, se A1, A2, ... e´ uma colec¸a˜o enumera´vel de eventos,
enta˜o
⋃
iAi tambe´m e´ um evento.
iii. Se A1, ..., An sa˜o eventos quaisquer, enta˜o sua intersecc¸a˜o A1 ∩ · · · ∩ An tambe´m
e´ um evento. Em geral, se A1, A2, ... e´ uma colec¸a˜o enumera´vel de eventos, enta˜o⋂
iAi tambe´m e´ um evento.
Ale´m disso, conve´m observar que o conjunto vazio ∅ contido em S (por queˆ?) e´ bastante
u´til (matematicamente, ao menos). Ele e´ claramente um evento, pois ∅ = SC e sera´
1.1. O QUE E´ PROBABILIDADE? 19
chamado de evento nulo. Sob o ponto de vista probabilı´stico, o evento nulo se caracteriza
pelo fato de NA˜O conter nenhum resultado2.
Observac¸a˜o 1.1.1. Muito embora os operadores bina´rios ∪ e ∩ sejam tı´picos da teoria
de conjuntos, quando olhados sob o prisma da teoria de probabilidades, eles possuem
uma interpretac¸a˜o especı´fica. Mais especificamente, se A e B sa˜o dois eventos, enta˜o
ale´m da leitura conjuntista, temos as seguintes outras:
• No lugar de A ∪ B, leia-se “Ocorre o evento A ou B” (note que esse ‘ou’ na˜o e´
exclusivo, ou seja, ambos os eventos podem ocorrer simultaneamente).
• No lugar de A∩B, leia-se “Ocorrem (necessariamente) ambos os eventos A e B”.
Do mesmo modo, podemos interpretar a expressa˜o AC = S \A como significando “Na˜o
ocorre o evento A”.
Definidos os conceitos de espac¸o amostral e eventos podemos, finalmente, passar aos
axiomas de Kolmogorov para medidas de probabilidade.
Definic¸a˜o 1.1.1. Uma func¸a˜o P definida sobre a classe de eventos associados ao espac¸o
amostral S e´ uma medida de probabilidade3 se:
K1. 0 ≤ P (A) ≤ 1, para todo evento A.
K2. P (S) = 1.
2A rigor, as noc¸o˜es acima deveriam ser formalizadas atrave´s de um objeto matema´tico, tambe´m usado
para que a teoria na˜o se contamine com certos casos (subconjuntos de S) patolo´gicos e muito particulares.
Mais precisamente, pede-se que o conjunto de todos os possı´veis eventos satisfac¸am certas propriedades
bem gerais. Tais propriedades caracterizam aquilo que se denomina σ-a´lgebra, definida da seguinte forma:
uma classe Σ de subconjuntos de S e´ uma σ-a´lgebra se
Σ.1. S ∈ Σ (i.e. Σ conte´m o pro´prio espac¸o amostral).
Σ.2. Se A ∈ Σ, enta˜o AC ∈ Σ (i.e. Σ e´ fechada para a operac¸a˜o de complementac¸a˜o).
Σ.3. Se A1, A2, · · · ∈ Σ, enta˜o
⋃
iAi ∈ Σ (i.e. Σ e´ fechada para a operac¸a˜o de unia˜o enumera´vel de seus
elementos).
A composic¸a˜o (S,Σ) e´ chamada de espac¸o mensura´vel. Embora necessa´ria em textos mais avanc¸ados de
probabilidade, para os nossos fins, na˜o ha´ a necessidade de tanta formalizac¸a˜o.
3Os axiomas K1 – K3 definem um caso particular do que se chama de medida. A` trinca (S,Σ, P ) da´-se
o nome espac¸o de probabilidade.
20 CAPI´TULO 1. INTRODUC¸A˜O A` PROBABILIDADE
K3. Dada uma colec¸a˜o enumera´vel de eventos dois a dois disjuntos A1, A2, . . . (i.e. Ai∩
Aj = ∅, se i 6= j), enta˜o4
P
( ∞⋃
i=1
Ai
)
=
∞∑
i=1
P (Ai).
Observe que ambas as interpretac¸o˜es, cla´ssica e frequentista, se encaixam na estrutura
definida acima. Avaliemos o caso da interpretac¸a˜o cla´ssica. Precisamos demonstrar que
os treˆs axiomas K1 – K3 sa˜o satisfeitos. O primeiro deles, K1, e´ trivialmente satisfeito,
pois sempre temos 0 ≤ nA ≤ n. Para verificar K2, basta notar que nS = n. Finalmente,
no caso de K3, como S e´ finito (pois |S| < ∞, podemos escolher, no ma´ximo, um
nu´mero finito de subconjuntos disjuntos. Sejam eles, por exemplo, A1, A2, ..., AN , e
defina A = A1 ∪ · · · ∪ AN . Note agora que nA = nA1 + · · ·+ nAN . Logo,
P (A1 ∪ · · · ∪ AN) = P (A) = nA
n
=
nA1 + · · ·+ nAN
n
=
nA1
n
+ · · ·+ nAN
n
= P (A1) + · · ·+ P (An),
o que conclui a demonstrac¸a˜o.
Exercı´cio 1.1.4. Demonstre que a probabilidade conforme
definida pela interpretac¸a˜o
frequentista tambe´m satisfaz os axiomas de Kolmogorov.
Enunciaremos agora algumas propriedades ba´sicas de uma medida de probabilidade.
P1. Para todo evento A, P (AC) = 1− P (A).
P2. P (∅) = 0.
P3. Se A ⊂ B sa˜o eventos, enta˜o P (B \ A) = P (B)− P (A).
P4. Dados dois eventos A e B, P (A ∪B) = P (A) + P (B)− P (A ∩B)
Prova.
4E´ comum representar a unia˜o entre dois conjuntos disjuntos A e B, por A∪˙B. Analogamente, no caso
mais geral com M eventos, podemos escrever ⋃˙
i≤MAi.
O ˙ sobre o sı´mbolo de unia˜o indica que os conjuntos envolvidos na operac¸a˜o sa˜o disjuntos.
1.1. O QUE E´ PROBABILIDADE? 21
(P1) Nesse caso, basta notar queA eAC sa˜o mutuamente disjuntos e que S = A∪AC .
Logo, de (K2) e (K3), temos que
1 = P (S) = P (A ∪ AC) = P (A) + P (AC).
(P2) De modo ana´logo, note que S = S ∪ ∅ (por queˆ?). Enta˜o,
P (S) = P (S ∪ ∅) = P (S) + P (∅),
de modo que P (∅) = 0.
(P3) Para demonstrar essa propriedade, note que B = A ∪ (B \ A) e que A e B \ A
sa˜o mutuamente disjuntos. Logo,
P (B) = P (A ∪ (B \ A)) = P (A) + P (B \ A),
de modo que P (B \ A) = P (B)− P (A).
(P4) Finalmente, para demonstrar a u´ltima propriedade nessa lista, note que A ∪B =
(A \ B) ∪ (A ∩ B) ∪ (B \ A). Mais ainda, essas treˆs componentes sa˜o mutuamente
disjuntas. Logo,
P (A ∪B) = P ((A \B) ∪ (A ∩B) ∪ (B \ A))
= P (A \B) + P (A ∩B) + P (B \ A)
= P (A \B) + P (A ∩B) + P (B \ A) + P (A ∩B)− P (A ∩B)
= P (A) + P (B)− P (A ∩B).
�
Em particular, segue de (P3) a seguinte consequeˆncia:
P3’. Se A ⊂ B sa˜o dois eventos, enta˜o P (A) ≤ P (B).
Exercı´cio 1.1.5. Demonstre P3’.
1.1.2 Diagramas de Venn
Nas demonstrac¸o˜es de P1 – P3, usamos argumentos puramente analı´ticos. No entanto, ha´
uma semelhanc¸a entre as medidas de probabilidade e de a´rea que sa˜o facilmente perce-
bidas quando utilizamos os diagramas de Venn. Esses diagramas, ou esquemas gra´ficos,
sa˜o usados para estabelecer relac¸o˜es lo´gicas entre dois ou mais conjuntos. Para comec¸ar,
desenhemos um retaˆngulo. Ele vai representar, para no´s, todo o espac¸o amostral S. Dado
que P (S) = 1, podemos, enta˜o imaginar que esse retaˆngulo possui tambe´m a´rea igual a 1
(figura 1.3a). Agora, cada evento sera´ representado como um subconjunto desse retaˆngulo
22 CAPI´TULO 1. INTRODUC¸A˜O A` PROBABILIDADE
e sua probabilidade corresponde a` a´rea desse subconjunto (figura 1.3b). A probabilidade
da unia˜o de dois eventos A e B, portanto, corresponde a` a´rea total da figura formada pela
composic¸a˜o dos subconjuntos correspondentes aos eventos A e B (figura 1.3c). A proba-
bilidade da intersecc¸a˜o desses dois mesmos eventos, por sua vez, corresponde a` a´rea em
comum dos dois dois subconjuntos (figura 1.3d).
(a) Representac¸a˜o do espac¸o amostral.
A
(b) Representac¸a˜o de um evento.
A
B
(c) Unia˜o dos eventos A e B.
A
B
(d) Intersecc¸a˜o dos eventos A e B.
Figura 1.3: Diagramas de Venn
Usemos agora, a tı´tulo de exemplo, os diagramas de Venn para deduzir a propriedade
P4. Considere, portanto, a representac¸a˜o gra´fica conforme a figura 1.4 e note que o evento
de interesse e´ composto de 3 partes. Identificando a probabilidade deA∪B com a a´rea de
ambos os subconjuntos reunidos, nota-se claramente que, ao somar P (A) com P (B), a
a´rea correspondente aA∩B e´ contabilizada duas vezes! Logo, para que tenhamos o valor
correto, devemos descartar uma das vezes, de modo que P (A ∪ B) = P (A) + P (B) −
P (A ∩B).
Exercı´cio 1.1.6. Represente o diagrama de Venn correspondente a` tomada do comple-
1.2. PROBABILIDADE CONDICIONAL E INDEPENDEˆNCIA 23
A
B
Figura 1.4: Diagrama de Venn para a verificac¸a˜o da propriedade P4.
mentar de um evento A e com base nele determine a fo´rmula de P (AC) em termos de
P (A).
Exercı´cio 1.1.7. Use os diagramas de Venn para obter a fo´rmula de P (A1 ∪A2 ∪A3) no
caso em que A1, A2, A3 sa˜o treˆs eventos quaisquer.
Observac¸a˜o 1.1.2. No caso geral de N eventos A1, ..., AN , temos
P (A1 ∪ · · · ∪ AN) =
N∑
i=1
P (Ai)−
∑
i<j
P (Ai ∩ Aj) +
∑
i<j<k
P (Ai ∩ Aj ∩ Ak)
−
∑
i<j<k<l
P (Ai ∩ Aj ∩ Ak ∩ Al) + · · ·+
+ (−1)N+1P (A1 ∩ · · · ∩ AN).
1.2 Probabilidade Condicional e Independeˆncia
Em muitas situac¸o˜es, algumas informac¸o˜es, descritas na forma de eventos, sa˜o reveladas
ou conhecidas. Nessas circunstaˆncias, tal conhecimento pode eventualmente modificar a
percepc¸a˜o de incerteza referente a um outro evento. Por exemplo, considere o lanc¸amento
de um dado na˜o viciado. Sabemos que a probabilidade de se realizar qualquer face e´
igual a 1/6. Suponha agora que apo´s o lanc¸amento do dado nos seja revelado apenas
que o nu´mero resultante e´ par. Evidentemente, segue daı´ que, dada essa informac¸a˜o, a
probabilidade de o resultado ser 1, 3 ou 5 e´ igual a zero. Mais ainda, como cada nu´mero
tinha inicialmente a mesma probabilidade de ocorrer, e´ razoa´vel supor que essa simetria
se mantenha para os nu´meros pares, de modo que, dada a informac¸a˜o que o resultado e´
par, podemos inferir que a nova probabilidade de ele ser 2 (ou 4, ou 6) e´ igual a 1/3. Essa
noc¸a˜o se traduz formalmente na figura da probabilidade condicional.
24 CAPI´TULO 1. INTRODUC¸A˜O A` PROBABILIDADE
Definic¸a˜o 1.2.1. Dados dois eventos A e B, com P (B) > 0, definimos a probabilidade
condicional de A dado B por
P (A|B) = P (A ∩B)
P (B)
.
O que isso significa em termos do diagrama de Venn? Observe, em primeiro lugar,
que P (B|B) = 1 e que se A ∩ B = ∅, enta˜o P (A|B) = 0. Em outras palavras, isso
significa que, dada a informac¸a˜o de que B ocorreu, a probabilidade e´ normalizada como
se o espac¸o amostral tivesse sido reduzido para B (figura 1.5).
B
A
A|B
Figura 1.5: Probabilidade condicional de A dado B.
Observac¸a˜o 1.2.1. A probabilidade condicional e´, ela mesmo, uma medida de proba-
bilidade. Ou seja, fixado B tal que P (B) > 0, enta˜o P (·|B) satisfaz os axiomas de
Kolmogorov.
Prova. Para verificar a observac¸a˜o, precisamos mostrar que, para B fixado, P (·|B) satis-
faz os axiomas K1 – K3.
(K1) Seja A um evento qualquer. Enta˜o, P (A|B) = P (A ∩ B)/P (B). Como P (A ∩
B) ≥ 0 e P (B) > 0, segue que P (A|B) ≥ 0. Por outro lado, A ∩ B ⊂ B, logo,
P (A ∩B) ≤ P (B) e, portanto, P (A|B) = P (A ∩B)/P (B) ≤ 1.
(K2) P (S|B) = P (S ∩B)/P (B) = P (B)/P (B) = 1.
(K3) Seja A1, A2, . . . uma sequeˆncia de eventos dois a dois disjuntos e note que
(A1 ∪ A2 ∪ . . . ) ∩B = (A1 ∩B) ∪ (A2 ∩B) ∪ . . . .
1.2. PROBABILIDADE CONDICIONAL E INDEPENDEˆNCIA 25
Ale´m disso, temos que, para todo i = 1, 2, 3..., os eventos Bi = Ai ∩ B sa˜o dois a dois
disjuntos (por queˆ?) e, consequentemente,
P (A1 ∪ A2 ∪ . . . |B) = P ((A1 ∩B) ∪ (A2 ∩B) ∪ . . . )
P (B)
=
P (A1 ∩B) + P (A2 ∩B) + . . .
P (B)
=
P (A1 ∩B)
P (B)
+
P (A2 ∩B)
P (B)
+ · · · = P (A1|B) + P (A2|B) + . . . .
�
Posto em outros termos, a ideia de probabilidade condicional implica que o conheci-
mento de B (se P (B) > 0) pode redimensionar nossa perspectiva da incerteza associada
a cada possı´vel evento do experimento sob ana´lise. Pore´m, para alguns eventos, e´ possı´vel
que o conhecimento de B na˜o mude em nada a probabilidade associada a ele. Isso acon-
tece quando os eventos sa˜o (estatisticamente) independentes entre si.
Definic¸a˜o 1.2.2. Se os eventos A e B forem tais que P (A ∩ B) = P (A) · P (B), enta˜o
dizemos que A e B sa˜o independentes. Caso contra´rio, dizemos que sa˜o dependentes.
Observac¸a˜o 1.2.2. Independeˆncia NA˜O significa eventos disjuntos! Dizer que A e B
na˜o significa dizer que esses eventos sejam disjuntos. Alia´s, se A e B forem tais que
P (A) > 0 e P (B) > 0, o fato de que ambos sa˜o disjuntos implica em dependeˆncia, pois,
caso contra´rio, se eles fossem independentes, terı´amos:
0 < P (A) =
P (A) · P (B)
P (B)
=
P (A ∩B)
P (B)
=
P (∅)
P (B)
=
0
P (B)
= 0,
o que
e´ impossı´vel.
O seguinte exemplo, por outro lado, ilustra uma situac¸a˜o em que A e B sa˜o nao
disjuntos, mas independentes. Suponha o lanc¸amento de um dado e considere os eventos
A : ‘o resultado e´ par.’ = {2, 4, 6},
e
B : ‘o resultado e´ menor ou igual a 4.’ = {1, 2, 3, 4}.
Note que P (A) = 3/6 = 1/2. Por outro lado, P (A ∩ B) = P ({2, 4}) = 2/6 = 1/3 e
P (B) = P ({1, 2, 3, 4}) = 4/6 = 2/3, de modo que
P (A|B) = 1/3
2/3
=
1
2
.
Como P (A) = 1/2 = P (A|B), segue que A sa˜o independentes (apesar de A ∩B 6= ∅).
26 CAPI´TULO 1. INTRODUC¸A˜O A` PROBABILIDADE
No exemplo, cabe observar, no entanto, que a independeˆncia entre A e B esta´ amar-
rada a` forma de B. Se, por exemplo, toma´ssemos no lugar de B o evento
B : ‘o resultado e´ estritamente menor do que 4.’ = {1, 2, 3},
enta˜o
P (A|B′) = 1/6
3/6
=
1
3
,
de modo que P (A) = 1/2 6= 1/3 = P (A|B′) e, portanto, A e B′ sejam dependentes!.
Moral de histo´ria: Dependeˆncia e independeˆncia estatı´stica teˆm tudo a ver com os
eventos envolvidos na histo´ria...
Em certas circunstaˆncias, como no exemplo abaixo, experimentos aleato´rios sa˜o re-
alizados sucessivamento. Nestes casos, conve´m falar em experimentos independentes,
nos quais os eventos determinados em cada termo dessa sequeˆncia de experimentos sa˜o
independentes.
Exemplo 1.2.1. Lanc¸amentos independentes de uma moeda na˜o-viciada ate´ que H
ocorra pela primeira vez. Ja´ vimos que, nesse experimento, o espac¸o amostral e´
S = {H,TH, TTH, TTTH, TTTTH, · · · }.
Assumindo que a moeda seja na˜o-viciada, temos que P (H) = P (T ) = 1/2. Agora,
se a sequeˆncia de de experimentos determinada pelos lanc¸amentos das moedas forem
independentes,
P (TT · · ·T︸ ︷︷ ︸
(n−1) vezes
H) = P (T ) · · ·P (T )︸ ︷︷ ︸
(n−1) vezes
P (H) =
(
1
2
)n−1
1
2
=
1
2n
.
De volta a` ideia de probabilidade condicional, se A e B sa˜o independentes, enta˜o
P (A|B) = P (A ∩B)
P (B)
=
P (A)P (B)
P (B)
= P (A),
reforc¸ando a ideia de que se A e B sa˜o independentes, enta˜o a informac¸a˜o de que B
ocorreu na˜o modifica em nada a percepc¸a˜o que temos quanto a` incerteza de A.
Exemplo 1.2.2. Lanc¸amento de dois dados na˜o-viciados independentes. Considere o
experimento consistindo no lanc¸amento sucessivo de dois dados na˜o-viciados e indepen-
dentes. Ja´ vimos que o espac¸o amostral e´ composto dos pares ordenados
S = {(i, j)|i, j = 1, 2, 3, 4, 5, 6}.
1.2. PROBABILIDADE CONDICIONAL E INDEPENDEˆNCIA 27
Como os dados sa˜o independentes, note que P (i, j) = P (i)P (j) = 1/36, para todo
i, j = 1, 2, 3, 4, 5, 6.
Agora, suponha que estejamos interessados na probabilidade do evento A: “o pri-
meiro dado resulta no nu´mero 6”, e que apo´s o lanc¸amento dos dados tenha-nos sido
revelado apenas uma informac¸a˜o sobre a soma de ambos os dados. Vamos supor primei-
ramente que o evento revelado tenha sido B: “a soma dos dados e´ menor igual a 6”.
Obviamente, nesse caso, e´ simplesmente impossı´vel que o primeiro dado tenha resultado
no nu´mero 6 (por queˆ?). Logo,
P (A|B) = 0.
Em particular, resulta daı´ que os eventos considerados sa˜o dependentes.
Por outro lado, se assumirmos que a informac¸a˜o revelada e´ o evento C: “a soma de
ambos os dados e´ igual a 7”, enta˜o temos queC = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}.
Logo, A ∩ C = {(6, 1)} e
P (A|C) = P ({(6, 1)})
P ({(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}) =
1/36
6/36
=
1
6
= P (A).
De onde se conclui que A e C sa˜o independentes. Ou seja, a informac¸a˜o de que a soma
de ambos os dados e´ igual a 7 na˜o altera em nada a percepc¸a˜o que temos acerca da
incerteza em relac¸a˜o ao primeiro dado assumir o valor 6. (Tente explicar isso!)
Embora tenhamos definido o conceito de independeˆncia apenas para dois eventos, ele
pode ser facilmente generalizado para situac¸o˜es com 3 ou mais eventos.
Definic¸a˜o 1.2.3. Os eventos A1,...,AN sa˜o mutuamente independentes se
P (A1 ∩ · · · ∩ AN) = P (A1) · · ·P (AN).
Uma pergunta bastante natural que podemos nos fazer apo´s ler essa definic¸a˜o e´ a
seguinte: dado que os elementos de um conjunto de eventos (A1, ..., AN ) sa˜o dois a dois
independentes (i.e. P (Ai ∩ Aj) = P (Ai)P (Aj), se i 6= j), enta˜o e´ verdade que tais
eventos tambe´m sa˜o mutuamente independentes? E a resposta e´ na˜o!
Exemplo 1.2.3. Independeˆncia dois a dois na˜o implica independeˆncia mu´tua. Suponha
que uma bola seja retirada ao acaso (i.e. a chance de ser qualquer uma das e´ exatamente
a mesma das demais) de uma urna contendo 4 bolas numeradas (1,2,3,4) e defina os
eventos A = {1, 2}, B = {1, 3} e C = {1, 4}. Enta˜o,
P (A ∩B) = P ({1}) = 1
4
=
1
2
· 1
2
= P (A)P (B),
P (A ∩ C) = P ({1}) = 1
4
=
1
2
· 1
2
= P (A)P (C),
P (B ∩ C) = P ({1}) = 1
4
=
1
2
· 1
2
= P (B)P (C),
28 CAPI´TULO 1. INTRODUC¸A˜O A` PROBABILIDADE
de modo que os eventos A, B e C sa˜o dois a dois independentes. Por outro lado,
P (A ∩B ∩ C) = P ({1}) = 1
4
6= 1
2
· 1
2
· 1
2
= P (A)P (B)P (C),
de onde se conclui que A, B e C na˜o sa˜o mutuamente independentes.
Por outro lado, a recı´proca e´ verdadeira.
Proposic¸a˜o 1.2.1. Se os eventos A1, . . . , AN sa˜o mutuamente independentes, enta˜o eles
tambe´m sa˜o dois a dois independentes.
Prova. Fac¸amos a prova para o caso de 3 eventos A, B e C mutuamente independentes.
P (A ∩B) = P ((A ∩B ∩ C) ∪ (A ∩B ∩ Cc)) = P (A ∩B ∩ C) + P (A ∩B ∩ Cc)
= P (A)P (B)P (C) + P (A)P (B)P (Cc) = P (A)P (B)(P (C) + P (Cc))
= P (A)P (B),
e, portanto, A e B sa˜o independentes. �
1.2.1 A Regra do Produto
Vimos que a probabilidade condicional deA dadoB depende das probabilidades deA∩B
e de B. Ocorre, no entanto, que em muitas circunstaˆncias pode ocorrer o inverso, i.e.
pode-nos estar disponı´vel a probabilidade condicional e dela desejarmos obter a probabi-
lidade de A ∩B. Segue diretamente da expressa˜o de probabilidade condicional que
P (A ∩B) = P (A|B) · P (B). (1.1)
A equac¸a˜o (1.1) se chama regra do produto.
Aplicando a regra acima iterativamente, podemos generalizar a regra do produto para
casos com mais de dois eventos. De fato, se A1, . . . , AN sa˜o eventos quaisquer, enta˜o
P (A1 ∩ · · · ∩ AN) = P (A1|A2 ∩ · · · ∩ AN)P (A2 ∩ · · · ∩ AN)
= · · ·
= P (A1|A2 ∩ · · · ∩ AN)P (A2|A3 ∩ · · · ∩ AN) · · ·P (AN−1|AN)P (AN).
Exemplo 1.2.4. (Problema do Chape´u) Treˆs pessoas lanc¸am seu chape´u no centro de
uma sala. Os chape´us sa˜o misturados e cada pessoa retira um deles ao acaso. Qual e´ a
probabilidade de que nenhuma das treˆs pessoas escolha o seu pro´prio chape´u?
1.2. PROBABILIDADE CONDICIONAL E INDEPENDEˆNCIA 29
Para cada i = 1, 2, 3, defina o evento
Ei = {Pessoa i seleciona o seu chape´u}.
Portanto, o evento ‘nenhuma das treˆs pessoas escolha o seu pro´prio chape´u’ corresponde
ao evento (E1 ∪ E2 ∪ E3)c, de modo que nosso objetivo se resume a calcular P ((E1 ∪
E2 ∪ E3)c).
Agora,
P (A∪B∪C) = P (A)+P (B)+P (C)−P (A∩B)−P (B∩C)−P (A∩C)+P (A∩B∩C),
e P (E1) = P (E2) = P (E3) = 1/3. Da regra do produto, temos, para i 6= j:
P (Ei ∩ Ej) = P (Ei|Ej) · P (Ej) = 1
2
· 1
3
=
1
6
.
Novamente usando a regra do produto, temos tambe´m
P (E1 ∩ E2 ∩ E3) = P (E1|E2 ∩ E3) · P (E2 ∩ E3)
= P (E1|E2 ∩ E3) · P (E2|E3) · P (E3)
= 1 · 1
2
· 1
3
=
1
6
.
Reunindo os resultados,
P (A ∪B ∪ C) = P (A) + P (B) + P (C)
− P (A ∩B)− P (B ∩ C)− P (A ∩ C) + P (A ∩B ∩ C)
=
1
3
+
1
3
+
1
3
− 1
6
− 1
6
− 1
6
+
1
6
=
4
6
.
Logo,
P ((E1 ∪ E2 ∪ E3)c) = 1− P (A ∪B ∪ C) = 2
6
=
1
3
.
Exemplo 1.2.5. (O Problema de Monty Hall) Num programa de audito´rio, um partici-
pante tem como objetivo ganhar um carro como preˆmio. Para tanto, o apresentador do
programa mostra-lhe 3 portas, as quais denotaremos por P1, P2 e P3. Atra´s de (exata-
mente) uma
delas ha´ um carro e atra´s de cada uma das outras, uma cabra. O apresen-
tador, enta˜o, pede ao participante que escolha uma das porta. Por exemplo, suponhamos
que ele escolha a porta P1. Pore´m, antes de abrir essa porta, o apresentador abre uma
das outras duas portas e mostra que ha´ ali uma cabra (obviamente, ele sabe o que ha´
atra´s de cada porta). Enta˜o ele pergunta ao participante se ele deseja mudar sua escolha
de porta. A questa˜o e´: o que deve fazer o participante?
Para resolver esse problema, definamos os eventos:
30 CAPI´TULO 1. INTRODUC¸A˜O A` PROBABILIDADE
G: ‘Ganhar o carro trocando de porta’;
Ci: ‘O carro esta´ atra´s da porta i’ (i = 1, 2, 3);
Hi: ‘O apresentadar abre a porta i’ (i = 1, 2, 3);
Nosso objetivo e´, portanto, calcular P (G). Supondo que o participante tenha escolhido
a porta P1, podemos particionar o espac¸o amostral em:
C1 ∩H2 C1 ∩H3 C2 ∩H3 C3 ∩H2
Logo,
P (G) = P (G ∩ C1 ∩H2) + P (G ∩ C1 ∩H3) + P (G ∩ C2 ∩H3) + P (G ∩ C3 ∩H2),
e aplicando a regra do produto duas vezes:
P (G) = P (G|C1 ∩H2)P (C1 ∩H2) + P (G|C1 ∩H3)P (C1 ∩H3)
+ P (G|C2 ∩H3)P (C2 ∩H3) + P (G|C3 ∩H2)P (C3 ∩H2)
= P (G|C1 ∩H2)P (H2|C1)P (C1) + P (G|C1 ∩H3)P (H3|C1)P (C1)
+ P (G|C2 ∩H3)P (H3|C2)P (C2) + P (G|C3 ∩H2)P (H2|C3)P (C3)
= 0 · 1 · 1
3
+ 0 · 1 · 1
3
+ 1 · 1 · 1
3
+ 1 · 1 · 1
3
,
de modo que
P (G) =
2
3
.
Ou seja, trocar de porta torna mais prova´vel ganhar o carro.
1.3 Fo´rmula de Bayes
Imagine um teste usado para identificar uma certa caracterı´stica. Imagine ainda que seus
resultados possam ser apenas positivo (presenc¸a da caracterı´stica de interesse) e nega-
tivo (auseˆncia da caracterı´stica de interesse). Suponha tambe´m que 99% dos indivı´duos
positivos e 10% dos negativos sejam marcados como positivos pelo teste (verdadeiro e
falso positivos, respectivamente). Suponha, finalmente, que uma certa porcentagem da
populac¸a˜o, digamos 0,1% seja efetivamente positiva (i.e. possui a caracterı´stica). Com
base nessas informac¸o˜es, como saber a probabilidade do indivı´duo ser efetivamente posi-
tivo dado que o teste marcou positivo?
1.3. FO´RMULA DE BAYES 31
1.3.1 Partic¸o˜es
Para responder a essa questa˜o, introduzamos primeiramente o conceito de partic¸o˜es. Em
particular, na populac¸a˜o considerada pela questa˜o, os seus indivı´duos podem pertencer a
uma de duas classes: aquela dos indivı´duos que possuem a caracterı´stica de interesse e
aquela dos indivı´duos que na˜o possuem a caracterı´stica de interesse. Um indivı´duo na˜o
pode na˜o pertencer a nenhuma delas e tampouco pode pertes a`s duas. Logo, essas classes
particionam o a populac¸a˜o em duas partes distintas e complementares. Essa e´ a ideia
essencial de uma partic¸a˜o.
Formalmente, dado o espac¸o amostral S, dizemos que H1, ..., Hm e´ uma partic¸a˜o de
S se
P1. Se i 6= j, enta˜o Hi ∩Hj = ∅.
P2. S = H1 ∪H2 ∪ · · · ∪Hm.
Em outras palavras, os eventos H1, ..., Hm e´ uma partic¸a˜o de S se eles forem dois a dois
disjuntos e recobrirem S (veja figura 1.6).
H1 H2
H4H3
Figura 1.6: Espac¸o amostral particionado em quatro partes representadas pelos eventos
H1, H2, H3 e H4.
1.3.2 A Fo´rmula de Bayes
A fo´rmula de Bayes oferece a resposta a` pergunta acima. Considere inicialmente dois
eventos A e B com P (A) e P (B) positivos. Note que
P (A|B) = P (A ∩B)
P (B)
. (1.2)
32 CAPI´TULO 1. INTRODUC¸A˜O A` PROBABILIDADE
Aplicando a regra do produto sobre o numerador, temos
P (A|B) = P (B|A)P (A)
P (B)
.
Agora, note que A e Ac formam uma partic¸a˜o de S (por queˆ?). Logo, podemos escre-
ver B = (B ∩A) ∪ (B ∩Ac), onde B ∩A e B ∩Ac sa˜o disjuntos, e, consequentemente,
P (B) = P (B∩A)+P (B∩Ac). Substituindo essa igualdade na expressa˜o (1.2), obtemos
P (A|B) = P (B|A)P (A)
P (B ∩ A) + P (B ∩ Ac) .
Finalmente, aplicando em cada termo do denominador a regra do produto, concluimos
que
P (A|B) = P (B|A)P (A)
P (B|A)P (A) + P (B|Ac)P (Ac) . (1.3)
Exemplo 1.3.1. (Resposta da questa˜o) Como ja´ observamos, a questa˜o sugere a partic¸a˜o
do espac¸o amostral em duas partes que denotaremos porA1, representando os indivı´duos
que possuem a caracterı´stica, e A2, representando os indivı´duos que na˜o possuem a ca-
racterı´stica. Denotemos por T o evento caracterizado por uma resposta positiva do teste.
Logo, pelo enunciado, P (T |A1) = 0, 99, P (T |A2) = 0, 10 e P (A1) = 0, 001. Usando a
fo´rmula de Bayes, temos que
P (A1|T ) = P (T |A1)P (A1)
P (T |A1)P (A1) + P (T |A2)P (A2)
=
99
100
1
1000
99
100
1
1000
+ 10
100
999
1000
=
99
99 + 9990
=
99
10089
= 9, 8%
A fo´rmula de Bayes em (1.3) para uma partic¸a˜o com duas componentes pode ser
facilmente generalizada para partic¸o˜es mais gerais.
Teorema 1.3.1. (Fo´rmula de Bayes) Sejam H1, ..., Hm uma partic¸a˜o do espac¸o amostral
S e B um evento qualquer. Enta˜o,
P (Hi|B) = P (B|Hi)P (Hi)
P (B|H1)P (H1) + · · ·+ P (B|Hm)P (Hm) , (1.4)
para todo i = 1, 2, ...,m.
Prova. Ja´ vimos que
P (Hi|B) = P (B|Hi)P (Hi)
P (B)
.
1.4. EXERCI´CIOS 33
Agora, como os eventos Hj formam uma partic¸a˜o de S, usando argumento semelhante ao
do caso da partic¸a˜o mais simples, temos que
B = (B ∩H1) ∪ · · · ∪ (B ∩Hm),
onde as componentes B ∩Hj sa˜o dois a dois disjuntos. Logo,
P (B) = P (B ∩H1) + · · ·+ P (B ∩Hm)
= P (B|H1)P (H1) + · · ·+ P (B|Hm)P (Hm),
onde a segunda igualdade se deve a` regra do produto. Logo,
P (Hi|B) = P (B|Hi)P (Hi)
P (B|H1)P (H1) + · · ·+ P (B|Hm)P (Hm) .
�
Exemplo 1.3.2. (Outra aplicac¸a˜o da fo´rmula de Bayes) Suponha que, para fins de risco
de cre´dito, uma determinada populac¸a˜o seja classificada como pertencente a um dos
nı´veis A, B ou C, onde A representa o menor risco e C o maior risco. Essa classificac¸a˜o
e´ feita por modelos matema´ticos e e´, portanto, passı´vel de erro. Num estudo de validac¸a˜o,
constatou-se que P (D|A) = 0, 1%, P (D|B) = 0, 8% e P (D|C) = 1, 9%, onde D
representa o evento de inadimpleˆncia. Sabendo que esses bancos dividem o igualmente o
mercado, pergunta-se: qual e´ a probabilidade de um indivı´duo sabidamente inadimplente
ser classificado como sendo do tipo A?
Para responder a essa questa˜o, note que se deseja conhecer a probabilidade P (A|D).
Pela fo´rmula de Bayes,
P (A|D) = P (D|A)P (A)
P (D|A)P (A) + P (D|B)P (B) + P (D|C)P (C)
=
1
1000
1
3
1
1000
1
3
+ 8
1000
1
3
+ 19
1000
1
3
=
1
1 + 8 + 19
=
1
28
.
1.4 Exercı´cios
1. Defina um espac¸o amostral para cada um dos seguintes experimentos aleato´rios:
(a) Lanc¸amento de dois dados; anota-se a configurac¸a˜o obtida.
(b) Numa linha de produc¸a˜o conta-se o nu´mero de pec¸as defeituosas num intervalo
de uma hora.
34 CAPI´TULO 1. INTRODUC¸A˜O A` PROBABILIDADE
(c) Investigam-se famı´lias com treˆs crianc¸as, anotando-se a configurac¸a˜o segundo
o sexo.
(d) Numa entrevista telefoˆnica com 250 assinantes, anota-se se o proprieta´rio tem
ou na˜o ma´quina de secar roupa.
(e) Mede-se a durac¸a˜o de laˆmpadas, deixando-as acesas ate´ que se queimem.
(f) Um ficha´rio com dez nomes conte´m treˆs nomes de mulheres. Seleciona-se ficha
apo´s ficha, ate´ o u´ltimo nome de mulher ser selecionado, e anota-se o nu´mero
de fichas selecionadas.
(g) Lanc¸a-se uma moeda ate´ aparecer cara e anota-se o nu´mero de lanc¸amentos.
(h) Um relo´gio mecaˆnico pode parar a qualquer momento por falha te´cnica. Mede-
se o aˆngulo (em graus) que o ponteiro dos segundos forma com o eixo ima-
gina´rio orientado do centro ao nu´mero 12.
(i) Mesmo enunciado anterior, mas supondo que o relo´gio seja ele´trico e, portanto,
seu ponteiro dos segundos mova-se continuamente.
(j) De um grupo de cinco pessoas A, B, C, D, E, sorteiam-se duas, uma apo´s outra,
com reposic¸a˜o, e anota-se a configurac¸a˜o formada.
(k) Mesmo enunciado que (j), sem reposic¸a˜o.
(l) Mesmo enunciado que
(j), mas as duas selecionadas simultaneamente.
(m) De cada famı´lia entrevistada numa pesquisa, anotam-se a classe social a que
pertence (A, B, C, D) e o estado civil do chefe da famı´lia.
2. Expresse em termos de operac¸o˜es entre eventos:
(a) A ocorre mas B na˜o ocorre;
(b) exatamente um dos eventos A e B ocorre;
(c) nenhum dos dois eventos A e B ocorre.
3. Se 2 dados na˜o-viciados sa˜o lanc¸ados, qual e´ a probabilidade de que a soma de
ambos seja igual a i para cada i = 2, 3, ..., 12?
4. Suponha que cada uma de treˆs pessoas lance uma moeda. Se o resultado de uma
das moedas for diferente das demais, enta˜o o jogo termina. Caso contra´rio, as 3
pessoas jogam novamente as moedas e assim sucessivamente. Assumindo moedas
na˜o-viciadas, qual e´ a probabilidade de que o jogo termine na primeira rodada? E
se as 3 moedas forem viciadas de modo que a probabilidade de sair ‘cara’ seja de
1/4, qual e´ a probabilidade de que o jogo se encerre na primeira rodada?
1.4. EXERCI´CIOS 35
5. Um restaurante apresenta apenas dois tipos de refeic¸o˜es: salada completa ou um
prato a` base de carne. Considere que 20% dos fregueses do sexo masculino prefiram
a salada, 30% das mulheres escolham carne, 75% dos fregueses sejam homens e os
seguintes eventos:
• H: fregueˆs e´ homem
• A: fregueˆs prefere salada
• M: fregueˆs e´ mulher
• B: fregueˆs prefere carne
Calcular:
(a) P (H), P (A|H), P (B|M);
(b) P (A ∩H), P (A ∪H);
(c) P (M |A).
6. Considere o quadrado Q com ve´rtices (0, 0), (1, 0), (0, 1) e (1, 1). Suponha que
a probabilidade de uma regia˜o (ou evento) A contida nesse quadrao corresponda a
sua a´rea (veja figura abaixo).
(a) Represente graficamente o evento A correspondente ao conjunto dos pontos
cuja distaˆncia em relac¸a˜o a` origem seja menor ou igual a 1.
(b) Calcule P (A).
(c) Calcule a probabilidade do evento B = {(x, y) ∈ Q : x ≥ 0, 25 ou y ≥ 0, 25}.
(d) Calcule P (Bc), onde o evento B e´ aquele definido no item (c) deste problema.
7. Considere uma urna contendo treˆs bolas pretas e cinco bolas vermelhas. Retire duas
bolas da urna, sem reposic¸a˜o.
(a) Obtenha os resultados possı´veis e as respectivas probabilidades.
36 CAPI´TULO 1. INTRODUC¸A˜O A` PROBABILIDADE
(b) Mesmo problema, para extrac¸o˜es com reposic¸a˜o.
8. No problema anterior, calcule as probabilidades dos eventos:
(a) Bola preta na primeira e segunda extrac¸o˜es.
(b) Bola preta na segunda extrac¸a˜o.
(c) Bola vermelha na primeira extrac¸a˜o.
9. Uma companhia produz circuitos em treˆs fa´bricas, I, II e III. A fa´brica I produz 40%
dos circuitos, enquanto a II e a III produzem 30% cada uma. As probabilidades
de que um circuito integrado produzido por essas fa´bricas na˜o funcione sa˜o 0,01,
0,04 e 0,03, respectivamente. Escolhido um circuito da produc¸a˜o conjunta das treˆs
fa´bricas, qual a probabilidade de o mesmo na˜o funcionar?
10. Considere a situac¸a˜o do problema anterior, mas suponha agora que um circuito
escolhido ao acaso seja defeituoso. Determine qual a probabilidade de ele ter sido
fabricado por I.
11. Suponha que 5% dos homens e 0,25% das mulhers numa populac¸a˜o sejam daltoˆnicos.
Uma pessoa daltoˆnica e´ enta˜o escolhida ao acaso. Qual e´ a probabilidade de que
essa pessoa seja um homem? (Assuma que essa populac¸a˜o contenha o mesmo
nu´mero de homens e de mulheres).
12. As lojasA,B e C teˆm 50, 75 e 100 empregados, respectivamente. Na lojaA, 50% e´
mulher, na loja B, 60% e´ mulher e, finalmente, temos que 70% dos funciona´rios da
lojaC sa˜o mulheres. Demisso˜es volunta´rias sa˜o igualmente prova´veis entre homens
e mulheres. Um empregado do sexo feminino se demite. Qual e´ a probabilidade de
que ela trabalhe na loja C?
13. (a) Um apostador tem em seu bolso um moeda na˜o viciada e uma moeda cujos
ambos os lados e´ ‘coroa’. Ele seleciona uma acaso e a lanc¸a. Suponha que resulte
em ‘coroa’. Qual e´ a probabilidade de que ele tenha escolhido (ao acaso) a moeda
na˜o-viciada? (b) Suponha que ele lance exatamente a mesma moeda uma segunda
vez e resulte em ‘coroa’ novamente, qual e´ a probabilidade agora de que a moeda
seja na˜o-viciada? (c) Suponha que ele lance a mesma moeda uma terceira vez e
resulte em ‘cara’. Qual e´ a probabilidade agora de que ela seja na˜o-viciada?
14. Uma caixa conte´m 3 moedas. Uma delas tem as duas faces com ‘cara’, uma outra
e´ uma moeda tı´pica na˜o-viciada e a u´ltima moeda e´ viciada de modo que ‘cara’
aparece 75% das vezes. Uma moeda e´ selecionada ao acaso da caixa e lanc¸ada em
seguida. Dado que o resultado tenha sido ‘cara’, qual e´ a probabilidade de que a
moeda escolhida seja aquela com ‘cara’ em ambos os seus lados?
Capı´tulo 2
Ana´lise Combinato´ria
2.1 O Princı´pio da Induc¸a˜o
Antes de iniciarmos o assunto objeto da ana´lise combinato´ria, conve´m nos familiarizar-
mos com um me´todo para a demonstrac¸a˜o de afirmac¸o˜es baseadas nos nu´meros naturais
(ou em certos subconjuntos dos nu´meros naturais). Em termos gerais, o princı´pio da
induc¸a˜o matema´tica, normalmente apresentado como um axioma (Peano) dos nu´meros
naturais, garante que se uma afirmac¸a˜o e´ verdadeira para n = 1 e se a sua veracidade para
um valor qualquer de n implica necessariamente na sua veracidade para n+ 1, enta˜o essa
afirmac¸a˜o deve ser verdadeira para qualquer nu´mero natural.
Princı´pio da Induc¸a˜o Matema´tica. Para cada n ∈ N seja A(n) uma afirmac¸a˜o es-
pecı´fica e dependente de n. Se
(I1) A(1) e´ verdadeira;
(I2) para qualquer n (escolhido arbitrariamente) a implicac¸a˜o a seguir vale:
A(n) verdadeira ⇒ A(n+ 1) verdadeira,
enta˜o a afirmac¸a˜o A(n) e´ verdadeira para todo n ∈ N.
Exemplo 2.1.1. A afirmac¸a˜o (A(n)):
1 + 2 + · · ·+ n = n(n+ 1)
2
e´ verdadeira para todo n ∈ N.
37
38 CAPI´TULO 2. ANA´LISE COMBINATO´RIA
Verifiquemos isso pelo princı´pio da induc¸a˜o matema´tica. Se n = 1, enta˜o
n(n+ 1)
2
=
1 · 2
2
= 1,
como esperado. Suponha agora que a afirmac¸a˜o seja verdadeira para um valor n qual-
quer e verifiquemos que ela tambe´m vale para n+ 1:
(n+ 1)(n+ 2)
2
=
(n+ 1)n
2
+
(n+ 1)2
2
= (1 + 2 + · · ·+ n) + (n+ 1),
e, portanto, pelo princı´pio da induc¸a˜o, esta´ demonstrada a tese.
Exercı´cio 2.1.1. Mostre que 1 + 3 + 5 + · · ·+ (2n− 1) = n2, para todo n ∈ N.
Observac¸a˜o 2.1.1. Ate´ aqui consideramos inı´cio da induc¸a˜o em n = 1, pore´m essa na˜o e´
uma regra obrigato´ria. Se nosso objetivo e´ demonstrar que A(n) e´ verdadeira para todo
n ≥ n0, onde n0 e´ um nu´mero natural qualquer, enta˜o podemos aplicar normalmente o
princı´pio da induc¸a˜o matema´tica simplesmente modificando o passo (I1) por
(I1) A(n0) e´ verdadeira;
e mantendo (I2) como antes.
Exemplo 2.1.2. Mostre A(n): se n ≥ 3, enta˜o n2 ≥ 3n.
Se n = 3, enta˜o n2 = 9 ≥ 9 = 3n, de modo que (I1) esta´ demonstrado com n0 = 3.
Para aplicarmos o princı´pio da induc¸a˜o basta verificar (I2) (com n ≥ 3): suponha que,
para certo n ≥ 3, vale n2 ≥ 3n. Enta˜o,
(n+ 1)2 = n2 + 2n+ 1 ≥ 3n+ 2n+ 1 ≥ 3n+ 2 + 1 = 3(n+ 1).
Logo, pelo princı´pio da induc¸a˜o, A(n) e´ verdadeira para todo n ≥ 3.
Observac¸a˜o 2.1.2. Numa variante do princı´pio da induc¸a˜o, a condic¸a˜o (I2) e´ substituı´da
por
(I2) dado qualquer n vale:
A(1), ..., A(n) verdadeiras ⇒ A(n+ 1) verdadeira,
2.2. ELEMENTOS BA´SICOS 39
mantendo-se (I1) e a conclusa˜o exatamente como antes.
Exemplo 2.1.3. Sejam A1, ..., An eventos contidos num espac¸o amostral S. Enta˜o, e´
verdadeira a identidade (
n⋃
i=1
Ai
)C
=
n⋂
i=1
ACi . (2.1)
Para verificar isso, comecemos com n = 1 notando simplesmente que
(⋃1
i=1 Ai
)C
=
AC1 =
⋂1
i=1 A
C
i , o que demonstra (I1). Para checar (I2), suponha a afirmac¸a˜o verdadeira
para todos naturais menores ou iguais a n e observe que(
n+1⋃
i=1
Ai
)C
=
(
n⋃
i=1
Ai ∪ An+1
)C
=
(
n⋃
i=1
Ai
)C
∩ ACn+1 =
n⋂
i=1
ACi
∩ ACn+1 =
n+1⋂
i=1
ACi ,
como querı´amos demonstrar. Logo, pelo princı´pio da induc¸a˜o, a expressa˜o (2.2) vale
para todo n ∈ N.
Exercı´cio 2.1.2. Se A1, ..., An sa˜o eventos de num espac¸o amostral S, mostre que(
n⋂
i=1
Ai
)C
=
n⋃
i=1
ACi , (2.2)
para todo n ∈ N.
2.2 Elementos Ba´sicos
Considere os lanc¸amentos simultaˆneos de um dado e uma moeda, e descreva os possı´veis
resultados. Quantas possibilidades diferentes existem? No lanc¸amento de um dado, po-
demos observar 6 possı´veis diferentes resultados: 1, 2, 3, 4, 5 e 6, ao passo que no
lanc¸amento de uma moeda podemos observar 2 possı´veis resultados: ‘Cara’ e ‘Coroa’.
Para cada resultado obtido com o dado, podemos juntar a ele o resultado ‘Cara’ ou o
resultado ‘Coroa’, a depender do que a moeda revelar. Ou seja, para cada resultado do
dado, ha´ duas possibilidades distintas que podem acontecer no experimento composto do
seu lanc¸amento e o da moeda. Logo, podemos concluir que ha´ 12 possı´veis resultados.
De fato, o conjunto de todas as possibilidades e´ dado por
{(H, 1), (H, 2), (H, 3),(H, 4), (H, 5), (H, 6),
(T, 1), (T, 2), (T, 3),(T, 4), (T, 5), (T, 6)},
40 CAPI´TULO 2. ANA´LISE COMBINATO´RIA
onde H representa ‘Cara’ e T , ‘Coroa’. Chamemos os lanc¸amentos individuais do dado
e da moeda de experimentos individuais e a composic¸a˜o de ambos de experimento com-
posto (isso e´, nesse caso, o experimento composto e´ constituı´do de dois experimentos
individuais). De modo geral, podemos dizer que dado um experimento composto cons-
tituı´do de n experimentos individuais, cada um deles podendo resultar em uma de Mk
(k = 1, ..., n) possibilidades, o nu´mero total de possibilidades no experimento composto
e´ M1 · · · · ·Mn. Esse resultado e´ chamado de princı´pio ba´sico da contagem.
Exemplo 2.2.1. Uma placa de automo´vel e´ composta de 3 letras e 4 nu´meros. Assumindo
o alfabeto com 26 caracteres, pergunta-se quantas placas distintas podem existir? Pelo
princı´pio estabelecido acima, podemos conceber
26 · 26 · 26 · 10 · 10 · 10 · 10 = 175.760.000.
Exemplo 2.2.2. (Amostragem com reposic¸a˜o) Numa populac¸a˜o com N indivı´duos sa˜o
selecionados k indivı´duos com reposic¸a˜o. Ou seja, sa˜o realizados k sorteios onde em
cada um deles e´ selecionado uma pessoa da populac¸a˜o de interesse. Note que cada
indivı´duo dessa populac¸a˜o pode ser indicado mais de uma vez. Pergunta-se: quantas
diferentes amostras ordenadas podemos montar procedendo dessa forma? Posto de outra
maneira, deseja-se saber quantos conjuntos ordenados (x1, ..., xk), onde x1, ..., xk repre-
sentam indivı´duos (possivelmente iguais) da populac¸a˜o de interesse, podemos montar. A
resposta segue imediatamente do princı´pio ba´sico da contagem, sendo esse nu´mero igual
a nk.
Consideremos agora um outro cena´rio: numa sala de aula com 10 crianc¸as e que dese-
jemos coloca´-las em fila. Quantas configurac¸o˜es diferentes de filas poderı´amos conceber?
Para visualizar isso, marquemos as posic¸o˜es na fila com nu´meros de 1 a 10 e suponhamos
que escolhamos inicialmente uma crianc¸a para a posic¸a˜o 1, depois outra para a posic¸a˜o
2 e assim sucessivamente. Antes de preencher a posic¸a˜o 1, temos a nossa disposic¸a˜o 10
crianc¸as, i.e. 10 possibilidades. Apo´s feita a escolha, restam disponı´veis para a segunda
posic¸a˜o 9 crianc¸as. Feita a nova escolha, restam para a terceira posic¸a˜o 8 possibilidades e
assim por diante ate´ que, ao chegarmos na de´cima posic¸a˜o, apenas 1 crianc¸a tera´ restado:
10 alunos 09 alunos · · · 02 alunos 01 alunos
Sendo assim, podemos concluir que, no total, ha´
10 · 9 · 8 · 7 · 6 · 5 · 4 · 3 · 2 · 1
diferentes possı´veis configurac¸o˜es de filas. Um modo mais econoˆmico de representar esse
produto e´ usando a notac¸a˜o fatorial: dado um nu´mero natural n, definimos seu fatorial
por
n! = n · (n− 1) · (n− 2) · · · 2 · 1.
2.2. ELEMENTOS BA´SICOS 41
Logo, no caso das possı´veis diferentes filas de 10 crianc¸as, temos que o total delas e´ dado
por 10! = 3.628.800.
Observe, ainda no exemplo das crianc¸as, que independemente da configurac¸a˜o esco-
lhida, as crianc¸as sa˜o sempre a mesmas e que a u´nica coisa que muda de uma configurac¸a˜o
para outra e´ simplesmente a posic¸a˜o na fila em que elas se encontram. Em outras palavras,
o que temos sa˜o permutac¸o˜es de uma determinada configurac¸a˜o.
Definic¸a˜o 2.2.1. Uma permutac¸a˜o de uma sequeˆncia de elementos (a1, ..., an) e´ qualquer
reordenamento de seus elementos (sem a inclusa˜o de nenhum novo elemento ou a ex-
clusa˜o de um dos componentes originais). Formalmente, uma permutac¸a˜o de (a1, ..., an)
e´ qualquer sequeˆncia da forma (pi(a1), ..., pi(an)), onde
pi : {a1, ..., an} → {a1, ..., an},
e´ uma func¸a˜o bijetora.
Teorema 2.2.1. O total de possı´veis permutac¸o˜es de (a1, ..., an) e´ n!.
Prova. O argumento utilizado no exemplo da fila de crianc¸as ilustra bem esse resultado.
No entanto, uma demonstrac¸a˜o mais formal pode ser obtida utilizando-se o princı´pio da
induc¸a˜o. Para isso, suponha inicialmente que n = 1, de modo que a sequeˆncia de in-
teresse, (a1), contenha apenas um elemento. Evidentemente, so´ existe uma permutac¸a˜o
possı´vel, que consiste em manter a sequeˆncia inalterada. Assuma, agora, que o resul-
tado e´ verdadeiro para n − 1 e verifiquemos que ele tambe´m vale para n. Sendo assim,
considere a subsequeˆncia de (a1, ..., an) composta pelos n − 1 primeiros elementos, i.e.
(a1, ..., an−1). Pelo princı´pio da induc¸a˜o, ha´ (n − 1)! diferentes formas de rearranja´-la.
Agora, para cada possı´vel configurac¸a˜o, podemos criar n diferentes sequeˆncias com a
inclusa˜o de an em diferentes posic¸o˜es:
Inclusa˜o na posic¸a˜o 1: (an, api(1), api(2), ..., api(n−1))
Inclusa˜o na posic¸a˜o 2: (api(1), an, api(2), ..., api(n−1))
Inclusa˜o na posic¸a˜o 3: (api(1), api(2), an, ..., api(n−1))
...
Inclusa˜o na posic¸a˜o n: (api(1), api(2), ..., api(n−1), an),
de modo que, repetindo esse procedimento para cada uma das (n − 1)! permutac¸o˜es,
obtemos n(n− 1)! = n! permutac¸o˜es. �
Exemplo 2.2.3. Num treino, de quantas formas distintas podemos ordenar os jogadores
titulares de um time de futebol para bater um penaˆlti?
Os titulares de um time de futebol sa˜o em nu´mero de 11, logo ha´ 11!=39.916.800
formas distintas de ordena´-los.
42 CAPI´TULO 2. ANA´LISE COMBINATO´RIA
Exercı´cio 2.2.1. Um aluno tem 12 livros que deseja guardar numa estante. De quantas
formas diferentes eles podem ser arranjados?
Exercı´cio 2.2.2. Suponha agora que desses livros, 4 sejam de matema´tica, 5 de economia
e 3 de filosofia. Suponha ainda que o aluno deseje que os livros sejam agrupados por
assunto. Com base nisso calcule de quantas formas diferentes esses livros podem ser
armazenados na estante.
2.3 Arranjos e Combinac¸o˜es
2.3.1 Arranjos ou k-Permutac¸o˜es
Imagine um conjunto de bolas de bilhar enumeradas de um 1 a 7. Vimos que ha´ 7! = 5040
diferentes modos de ordena´-las:
1 2 3 4 5 6 7
2 1 3 4 5 6 7
2 3 1 4 5 6 7
2 3 4 1 5 6 7
...
Suponha agora que escolha que recolhamos da caixa em que esta˜o guardadas apenas
3 bolas e as coloquemos numa determinada ordem (na˜o necessariamente crescente em
relac¸a˜o aos seus ro´tulos). Chamando cada um desses conjuntos de 3 bolas de arranjo,
pergunta-se quantos possı´veis arranjos podemos formar? Observe que cada arranjo e´ da
forma
A =? B =? C =?,
onde A, B e C representam uma possı´vel bola retirada da caixa. Note ainda que ao es-
colher a bola que ocupara´ a posic¸a˜o A temos a` nossa disposic¸a˜o 7 possibilidades. No
entanto, uma vez escolhida essa bola, digamos a de nu´mero 5, restam apenas 6 possibili-
dades para a posic¸a˜o B:
5 B =? C =?,
Repetindo o argumento, uma vez escolhida a segunda bola, digamos a de nu´mero 2,
restam-nos 5 possibilidades para a posic¸a˜o C:
5 2 C =?.
Fica claro, portanto, que temos 7 · 6 · 5 = 210 possı´veis arranjos. Observe
ainda que
7 · 6 · 5 = 7 · 6 · 5 · 4 · 3 · 2 · 1
4 · 3 · 2 · 1 =
7!
4!
.
2.3. ARRANJOS E COMBINAC¸O˜ES 43
De modo geral, dados n e k ≤ n, diremos que um arranjo de ordem k (ou k-
permutac¸a˜o) de {A1, ..., An} e´ qualquer sequeˆncia da forma (Api(1), ..., Api(k)), onde a
sequeˆncia (pi(1), ..., pi(n)) e´ uma permutac¸a˜o de (1, ..., n). Note que, neste caso, a ordem
e´ relevante, i.e. se n = 5 e k = 3, enta˜o
(A2, A4, A1) e (A1, A4, A2)
representam dois arranjos de ordem 3 diferentes de A1, ..., A5. Com essa definic¸a˜o, temos
o seguinte resultado:
Teorema 2.3.1. A quantidade total de possı´veis arranjos de ordem k (1 ≤ k ≤ n) de
{A1, ..., An} e´ dada por
An,k = n!
(n− k)! .
Prova. O resultado e´ uma evidente generalizac¸a˜o do exemplo das bolas de bilhar. No
entanto, se quisermos uma demonstrac¸a˜o mais formal, podemos utilizar o princı´pio da
induc¸a˜o. Considere, portanto, o caso em que n = 1, de modo que a sequeˆncia de interesse,
(A1), contenha apenas um elemento. Evidentemente, k = 1 e o u´nico possı´vel arranjo
e´ a pro´pria sequeˆncia (A1). Assuma, agora, que o resultado e´ verdadeiro para qualquer
sequeˆncia de n − 1 elementos e verifiquemos que ele tambe´m vale para sequeˆncias de
tamanho n. Sendo assim, tome k um nu´mero natural entre 1 e n. Se k = n, enta˜o estamos
falando do total de permutac¸o˜es de A1, ..., An, o qual sabemos e´ igual a
n! =
n!
0!
=
n!
(n− n)! = An,n.
Suponhamos agora que k < n. Considere a subsequeˆncia de (A1, ..., An) composta pelos
seus n−1 primeiros elementos, i.e. (A1, ..., An−1). Pelo princı´pio da induc¸a˜o, ha´An−1,k−1
diferentes arranjos de ordem k−1 dela. Agora, esse argumento pode ser repetido n vezes,
retirando-se a cada vez, um dos elementos originais. Logo, o total de arranjos de ordem
k de A1, ..., An deve ser igual a n vezes An−1,k−1, i.e.
An,k = nAn−1,k−1 = n (n− 1)!
(n− 1− (k − 1))! =
n!
(n− k)! .
�
Exemplo 2.3.1. De volta ao time de futebol, suponha agora que o te´cnico deve escolher 5
jogadores entre os titulares para bater penaˆltis na decisa˜o de um jogo de futebol. Quantas
listas distintas ele pode montar?
Trata-se obviamente de um arranjo de ordem 5 dos 11 jogadores. Logo, o te´cnico
pode montar
A11,5 = 11!
6!
= 55.440
44 CAPI´TULO 2. ANA´LISE COMBINATO´RIA
listas diferentes. Note que aqui a ordem na qual os jogadores cobrara˜o o penaˆlti e´ rele-
vante.
Exercı´cio 2.3.1. Suponha que uma equipe de Fo´rmula X tenha a sua disposic¸a˜o cinco
carros de corrida. Durante os treinos todos os carros sa˜o testados e os dois melhores sa˜o
escolhidos para a corrida. Quantas diferentes possibilidades para o primeiro e segundo
carro a equipe tem a` sua disposic¸a˜o?
Exemplo 2.3.2. (Amostragem aleato´ria sem reposic¸a˜o) Suponha que numa populac¸a˜o
comN indivı´duos, selecionemos k indivı´duos sem reposic¸a˜o. Ou seja, um indivı´duo e´ ini-
cialmente retirado ao acaso de entre todos N elementos e, enta˜o, retirado da populac¸a˜o.
Na sequeˆncia, um segundo indivı´duo e´ selecionado de entre os N − 1 elementos restantes
e subsequentemente tambe´m retirado da populac¸a˜o. O procedimento e´ repetido ate´ que
o k-e´simo elemento tenha sido retirado da populac¸a˜o remanescente contendo N − k + 1
elementos. Pergunta-se: quantas diferentes amostras ordenadas podemos montar proce-
dendo dessa forma?
Analisando a regra de amostragem, notamos que a pergunta e´ quantos elementos da
forma (x1, ..., xk), onde x1, ..., xk representam indivı´duos distintos da populac¸a˜o anali-
sada, podemos montar? Em outras, palavras pergunta-se pelo nu´mero total de arranjos
de ordem k numa populac¸a˜o com n indivı´duos. Logo a resposta e´
An,k = n!
(n− k)! .
2.3.2 Combinac¸o˜es
Voltemos ao exemplo das bolas de bilhar, no qual 3 bolas sa˜o retiradas da caixa que
as conte´m. No entanto, suponha agora que na˜o estejamos mais preocupados na ordem
em que elas se apresentam, ou seja, na˜o faremos, por exemplo, mais distinc¸a˜o entre as
sequeˆncias (A1, A2, A3) e (A2, A3, A1). Para no´s, ambas as sequeˆncias representam ape-
nas instaˆncias de uma mesma combinac¸a˜o, i.e. a combinac¸a˜o formada pelos elementos
A1, A2 e A3. A pergunta que fazemos agora e´: quantas possı´veis combinac¸o˜es podemos
fazer retirando 3 bolas das caixa (que conte´m 7 bolas ao todo). Lembremos ja´ termos
visto que somos capazes de arranjar essas 3 bolas de
7!
4!
= 210
modos diferentes. O ponto aqui e´ que na˜o fazemos mais distinc¸a˜o entre arranjos com-
postos dos mesmos elementos. Em outras palavras, para cada arranjo de 3 bolas, conta-
bilizamos para cada uma das suas 3! = 6 possı´veis permutac¸o˜es uma u´nica combinac¸a˜o.
2.3. ARRANJOS E COMBINAC¸O˜ES 45
Logo, do total de 210 arranjos, concluı´mos haver 210/6 = 35 possı´veis combinac¸o˜es. Em
particular, conve´m observar que esse nu´mero pode ser representado na forma
35 =
210
6
=
7!
4!3!
=
7!
4!3!
=
7!
4!(7− 4)! =
(
7
4
)
.
Uma outra forma de pensar no exemplo acima e´ supor que retiramos agora 3 bolas de uma
caixa na qual as bolas la´ contidas na˜o podem mais ser discriminadas como numa situac¸a˜o
em que, ao inve´s de 7 bolas distintas e numeradas, tive´ssemos 7 bolas exatamente iguais
(digamos, uma caixa com 7 bolas brancas e sem nenhuma numerac¸a˜o). Numa situac¸a˜o
como essa na˜o poderı´amos fazer distinc¸a˜o entre diferentes arranjos. Agora, assim como
nos casos anterioes das permutac¸o˜es e arranjos, podemos generalizar esse exemplo.
Um subconjunto {Api(1), ..., Api(k)} de {A1, ..., An}, onde 1 ≤ k ≤ n e (pi(1), ..., pi(n))
e´ uma permutac¸a˜o qualquer de (1, ..., n), e´ uma combinac¸a˜o de ordem k de A1, ..., An.
Note que, por ser um subconjunto, a ordem na qual os elementos de {Api(1), ..., Api(k)} se
apresentam e´ irrelevante. Novamente, a pergunta que nos fazemos e´ quantas possı´veis
combinac¸o˜es de ordem k de {Api(1), ..., Api(k)} podemos fazer?
Teorema 2.3.2. A quantidade total de possı´veis combinac¸o˜es de ordem k (1 ≤ k ≤ n) de
{A1, ..., An} e´ dada por
Cn,k = n!
(n− k)!k! =
(
n
k
)
.
Prova. Mais uma vez, o resultado e´ uma evidente generalizac¸a˜o do exemplo dado, mas
faremos uso do princı´pio da induc¸a˜o para formalizar o argumento. Como de praxe, con-
sidere o caso em que n = 1, de modo que nosso conjunto de interesse seja simplesmente
{A1}. Evidentemente, k deve ser igual a 1 e a u´nica possı´vel combinac¸a˜o e´ o subconjunto
{A1}, de modo que
1 = C1,1 =
(
1
1
)
.
Suponha, agora, que o teorema e´ va´lido para qualquer conjunto de tamanho n − 1 e
verifiquemos que ele tambe´m deve ser va´lido para aqueles de tamanho n. Logo, seja
{A1, ..., An} e tome k um nu´mero natural entre 1 e n. Se k = n, enta˜o so´ pode haver uma
u´nica combinac¸a˜o, a saber, o pro´prio conjunto {A1, ..., An}, de modo que
1 = Cn,n =
(
n
n
)
,
como querı´amos. Suponha agora que k < n e considere um subconjunto qualquer de
tamanho n− 1, digamos {A1, ..., An−1}. Pelo princı´pio da induc¸a˜o, ha´ Cn−1,k−1 diferen-
tes combinac¸o˜es de ordem k − 1 associadas a esse subconjunto. Ale´m disso, para cada
46 CAPI´TULO 2. ANA´LISE COMBINATO´RIA
possı´vel combinac¸a˜o {Ai1 , ..., Aik−1}, note que {Ai1 , ..., Aik−1 , An} e´ uma combinac¸a˜o
de ordem k dos elementos originais {A1, ..., An}. Agora, ale´m de An, podemos repetir
esse argumento para cada um dos elementos de {A1, ..., An}, pore´m observando que cada
combinac¸a˜o ira´ se repetir k vezes. De fato, a combinac¸a˜o {Ai1 , ..., Aik−1 , An} aparecera´
em cada uma das formas
{Ai1 , ..., Aik−1 , An}
{Ai1 , ..., An, Aik−1}
...
{Ai1 , An, ..., Aik−1}
{An, Ai1 , ..., Aik−1}
Logo, o total de combinac¸o˜es de ordem k para {A1, ..., An} deve ser igual nCn−1,k−1/k,
i.e.
Cn,k = nCn−1,k−1 = n (n− 1)!
k(k − 1)!(n− 1− (k − 1))! =
n!
k!(n− k)! =
(
n
k
)
.
�
Exemplo 2.3.3. O centro acadeˆmico do curso de Estatı´stica

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?

Outros materiais