Buscar

Apostila Cálculo de Probabilidades

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 3, do total de 153 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 6, do total de 153 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 9, do total de 153 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Prévia do material em texto

Cálculo de Probabilidades
Antonio Fernando Beraldo
Departamento de Estatística
ICE — UFJF
Versão Final Compacta — 2014
Coordenação, criação do ambiente gráfico e do repositório de arquivos, e
programação em LATEX:
Raphael de Freitas Saldanha
Revisão e digitação:
Ana Darc da Silva
Bruno Alves Simões
Diego Augusto
Elisa Lancini Nogueira
Letícia Vale de Lima
Lucas Silva Novais
Marcelle Souza Pinto
Mirela Rigolon Valinote
Natália Ferreira de Azevedo
Paula Bottoni
Ramon Goulart
Rosiany Grosman
Stéfani Ferreira
Vanessa Castro Abreu
Victor Lopes Costa Serra
Willian Costa
Apresentação
Esta Apostila é o segundo volume de um conjunto de textos preparados para os alunos
dos cursos de Graduação e Pós-Graduação que possuem disciplinas de Estatística em
sua grade curricular. Os textos abordam os seguintes temas:
Apostila Conteúdo
I Estatística Descritiva
II Cálculo de Probabilidades
III Teoria da Amostragem, Inferência e Testes Estatísticos
Em cada capítulo das Apostilas procuramos sintetizar os conteúdos, em textos breves
de exposição dos conceitos, seguidos de exemplos de aplicações das fórmulas.
Outros materiais didáticos, referenciados no corpo das Apostilas, estão disponí-
veis no site do Professor:
http://www.ufjf.br/antonio_beraldo
A. F. Beraldo iii
Agradecimentos
Este é um trabalho que reflete a experiência - e aprendizagem - do ensino de
Estatística e a valiosíssima contribuição dos alunos nestes 23 anos de atividades na
Universidade Federal de Juiz de Fora, como também a prática da aplicação da Estatística
em dezenas de dissertações e teses de mestrandos e doutorandos de diversas IES do País.
Sem esta contribuição, este trabalho não existiria.
Em destaque, agradeço ao estímulo do amigo e parceiro professor Lourival Batista de
Olivrira Jr., da Faculdade de Economia da UFJF. Este trabalho também deve, e muito,
aos alunos monitores, pela sua paciência meticulosa, e pelo trabalho cuidadoso.
A todos os alunos que, com suas críticas e sugestões, me ensinaram o como, o quando
e o quê.
Esta segunda Apostila é dedicada, in memoriam, a
Gabi
(1994 - 2006)
Et, des pieds jusques à la tête,
Un air subtil, un dangereux parfum
Nagent autour de son corps brun.
— Charles Baudelaire, Les Fleurs du Mal.
A. F. Beraldo v
Sumário
Sumário vi
1 Introdução ao Cálculo de Probabilidades 1
1.1 Conceitos e definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Características de um Experimento Aleatório . . . . . . . . . . . . 3
1.1.2 Eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.3 Espaço amostral . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Probabilidade: definições . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Definição Clássica de Probabilidades . . . . . . . . . . . . . . . . 10
1.2.2 Definição Frequencista de Probabilidade . . . . . . . . . . . . . . 12
1.2.3 Definição Axiomática de Probabilidade . . . . . . . . . . . . . . . 17
1.3 A Lei da Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.4 A Lei da Multiplicação . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.5 Probabilidade Condicional: o Teorema de Bayes . . . . . . . . . . . . . . 24
2 Distribuições de Probabilidades de Variáveis Aleatórias Discretas 29
2.1 Variáveis Aleatórias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2 Distribuição de Probabilidades . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.1 Função de Densidade Acumulada . . . . . . . . . . . . . . . . . . 41
2.3 Esperança Matemática E(X) . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3.1 Propriedades da Esperança . . . . . . . . . . . . . . . . . . . . . . 45
2.4 Variância de Variáveis Aleatórias . . . . . . . . . . . . . . . . . . . . . . 45
2.4.1 Propriedades da variância . . . . . . . . . . . . . . . . . . . . . . 48
2.5 Assimetria e Curtose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.5.1 Assimetria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.5.2 Curtose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.6 Pensando Probabilisticamente: os Modelos de Probabilidades . . . . . . . 55
2.7 As Provas de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.8 Distribuição Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.9 Distribuição Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.10 Distribuição Binomial Negativa (ou de Pascal) . . . . . . . . . . . . . . . 76
2.11 Distribuição Hipergeométrica . . . . . . . . . . . . . . . . . . . . . . . . 77
2.12 Distribuição Multinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
2.13 Distribuição de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
vi A. F. Beraldo
SUMÁRIO
3 Modelos de Variáveis Aleatórias Contínuas 89
3.1 Variáveis Aleatórias Contínuas . . . . . . . . . . . . . . . . . . . . . . . . 89
3.2 Parâmetros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.2.1 Esperança Matemática . . . . . . . . . . . . . . . . . . . . . . . . 93
3.2.2 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.3 Distribuição Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.4 Distribuição Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.5 Distribuição Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.5.1 Aproximação entre as Distribuições Binomial e Normal . . . . . . 121
3.6 Distribuição t de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
3.7 Distribuição do Qui-quadrado . . . . . . . . . . . . . . . . . . . . . . . . 126
4 Formulários e tabelas 131
4.1 Lista de somatórios e séries . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.2 Tábua de Derivadas e Integrais . . . . . . . . . . . . . . . . . . . . . . . 133
4.2.1 Derivadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
4.2.2 Integrais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.3 Tabelas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.3.1 Coeficiente do Binômio de Newton. Combinação de N objetos,
tomados k a k:
(
N
k
)
. . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.3.2 Fatorial de N −N ! . . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.3.3 Valores de e−λ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
4.3.4 Logaritmos naturais ln x . . . . . . . . . . . . . . . . . . . . . . . 139
4.3.5 Áreas sob a Curva Normal Padronizada, entre 0 e z . . . . . . . . 140
4.3.6 Valores dos percentis da Distribuição t de Student . . . . . . . . . 141
4.3.7 Distribuição do Qui-Quadrado para Testes de Hipótese (Teste de
Unilaterais) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
A. F. Beraldo vii
1 Introdução ao Cálculo de Probabilidades
“No fundo, a Teoria das Probabilidades é
apenas o bom senso, expresso em números.”
Laplace1
Nesta Apostila estudaremos as primeiras noções do Cálculo de Probabilidades, de
importância fundamental na Estatística. Aquilo que hoje é uma ferramenta básica nas
Ciências e nos Sistemas de Apoio às Decisões, entre outros usos, começou como uma
curiosidade entre matemáticos franceses do século 17, a partir da preocupação de um
nobre da corte, viciado em jogos de azar - a moda da época.
Conta a História que, por volta de 1650, o Chevalier de Méré2 (1607-1684), um nobre
francês, encontrou-se com o matemático Blaise Pascal, em uma viagem. Começaram
a conversar para fazer passar o tempo, e de Méré pediu a Pascal uma solução para
um problema que intrigava os jogadores havia muito tempo: se um jogo tivesse que ser
interrompido, por um motivo qualquer, como seriam determinadas as perdas e os ganhosde cada jogador? E mais: será que não haveria, por trás dos resultados dos jogos de
azar, alguma regra, ou algum cálculo que nos permitisse prever estes resultados? Pascal
achou o problema interessante, e começou a pensar sobre o assunto. Era uma época em
que a intensa matematização das Ciências Naturais comportava anseios deste tipo: uma
explicação matemática para um fenômeno aparentemente aleatório...
Durante alguns anos, Pascal manteve correspondência com outros estudiosos de
matemática da sua época, principalmente Pierre de Fermat. Alguns matemáticos,
como Cardano - um século antes -, já tinham estudado problemas ligados aos jogos de
azar, mas estes trabalhos foram esquecidos. Pascal e Fermat tiveram que praticamente
recomeçar do nada3.
1Pierre Simon de Laplace
2Antoine Gombaud, chevalier de Méré (1607-1684)
3Interessante notar que esta invenção (o Cálculo das Probabilidades), em seu começo, ficou restrita
unicamente à correspondência entre Pascal e Fermat. Apenas um pequeno trabalho, de Cristiaan
Huygens (1629-1695), em 1657, abordou este assunto. Já nesta época, Pascal tinha abandonado a
matemática e se dedicado à Teologia. Fermat morreu em 1665, e o Cálculo de Probabilidades só foi
retomado em 1671, por Jan de Witt (1629-1672), em um estudo sobre expectativa de vida e apólices
de seguro.
A. F. Beraldo 1
1. Introdução ao Cálculo de Probabilidades
E começaram fixando alguns conceitos, que formam a base do Cálculo de Probabi-
lidades. Este sistema que será a nossa maneira de raciocinar, daqui para frente. E “é
curioso notar que uma ciência que começou a partir de considerações sobre jogos de azar
tornar-se-ia o mais importante objeto do conhecimento humano” 4.
Mas, afinal, o que quer dizer esta palavra, “probabilidade”? Se você recorrer ao
dicionário, encontrará algumas definições genéricas ou tautológicas, como “qualidade
daquilo que é provável”. Isto não nos serve, em termos de Estatística. O Cálculo das
Probabilidades, assim como as outras Matemáticas, como a Geometria ou a Álgebra,
parte de algumas definições básicas, de alguns conceitos iniciais, sobre os quais se
desenvolve a teoria e a prática. Este capítulo trata disso.
1.1 Conceitos e definições
Existem dois tipos de fenômenos: os determinísticos e os não-determinísticos.
Os fenômenos determinísticos são aqueles estudados, por exemplo, na Física e na
Química do ensino médio. Quando fazemos uma experiência no laboratório, todas as
condições do experimento são controladas: a temperatura, a umidade, a luz ambiente.
Quando passamos uma corrente elétrica por uma resistência, já sabemos exatamente
o que irá ocorrer - os fenômenos de transformação de energia, de geração de calor,
de mudança de coloração, etc. Se, no laboratório de Química, reagirmos um ácido
com uma base, serão produzidos sal e água. A reação NaOH + HCl sempre produziu
NaCl + H2O, e irá produzir o mesmo resultado sempre que repetirmos a experiência.
Se um corpo parte do repouso, em movimento retilíneo com velocidade uniforme v, o
espaço x percorrido ao fim de um tempo t será dado por x = x0 + vt. Um corpo em
queda livre, no vácuo, segue as condições conforme a figura 1.1, a seguir.
4Laplace, Pierre Simon, Théorie Analytique des Probabilités, 1812
2 A. F. Beraldo
1.1 Conceitos e definições
Figura 1.1: Corpo em
queda livre
Neste tipo de experimento, de causa e efeito,
procuramos controlar e variar as causas, medindo
seu efeito (ou seus efeitos). Quando um corpo cai
em queda livre, e o faz sob a ação da gravidade,
podemos considerar ou não a resistência do
ar, podemos imprimir uma aceleração inicial,
podemos retardar sua queda ou modificar sua
trajetória alterando sua forma, enfim, podemos
controlar a experiência a fim de medir os
resultados provocados pela variação das condições.
Resumindo, fenômenos determinísticos ocorrem
sempre da mesma maneira e as mesmas causas
produzirão os mesmos efeitos.
No caso do fenômeno, ou do experimento não-determinístico, acontece o oposto.
Veja as características de um fenômeno não-determinístico, ou aleatório ε # .
1.1.1 Características de um Experimento Aleatório
As características de um Experimento Aleatório não-determinístico são:
1. Antes de realizarmos o experimento, sabemos todos os possíveis resultados que
podem acontecer;
2. No entanto, não sabemos qual resultado, em particular, irá efetivamente ocorrer;
3. Todo e qualquer resultado que efetivamente ocorra, será unicamente devido ao
acaso;
4. O Experimento Aleatório pode ser repetido infinitas vezes, sob as mesmas
condições.
Nota: Rigorosamente falando, estas características são de um fenômeno aleatório
puro. Isto é apenas um ponto de partida, útil para o estudo das probabilidades, embora
saibamos que estas características aplicam-se, para fins de exemplos, apenas a jogos de
azar – não-enviesados (honestos).
Na vida prática, iremos lidar com fenômenos “não tão aleatórios”, ou seja, fenômenos
em que há fatores associados5 às ocorrências.
5Note que não podemos falar em causalidade, e sim, em associação – que pode ser forte ou fraca,
com suas gradações. A associação de fatores ligados à ocorrência de um fenômeno é estudada na
Apostila V – Análise Estatística de Dados. Lembre-se: causalidade é uma característica de eventos
determinísticos, apenas.
A. F. Beraldo 3
1. Introdução ao Cálculo de Probabilidades
Figura 1.2: Dados de jogar
Leia de novo o texto da página anterior. Não faz
lembrar as características de um jogo de azar? Pois
é isso mesmo (lembre-se do começo histórico do
Cálculo de Probabilidades, a conversa entre Pascal
e de Méré). Quando você rola um dado, você sabe
que irá ocorrer (“sair”) uma das seis faces do dado:
Face 1, Face 2, Face 3, Face 4, Face 5 ou Face 6.
Apenas uma face irá ocorrer, mas você não sabe
qual delas irá “sair”. Se seu dado é honestoa (e
você também), você não “força” nenhum resultado,
e aquilo que acontecer será obra do acaso (ou da
sorte, ou do azar, ou do destino, ou das forças do
Bem, como queira ...). E você pode rolar o dado
quantas vezes quiser, que ele continua com as mesmas
seis faces, do mesmo tamanho, com o mesmo peso,
etc. E na próxima vez que você jogar, você está de
frente com as mesmas situações: sei quais os possíveis
resultados, não sei qual irá ocorrer, tudo depende do
acaso, etc.
a“Honesto”, em Estatística, é a qualidade de um objeto ser
perfeitamente homogêneo e simétrico, em suas características
físicas e geométricas.
A palavra acaso, em Estatística, significa que o experimentador não intervém no
processo, não monitora o experimento nem “força” (enviesa) algum resultado.
Acaso pode ser também a “medida da nossa ignorância” sobre as associações de
fatores a um determinado resultado. Quando não sabemos o que pode influir em um
resultado de um experimento (aleatório), falamos que é “devido ao acaso”.
Em experimentos determinísticos, variamos as causas e as condições do experimento
para medir seus reflexos nos efeitos. No caso do experimento aleatório, ao contrário, por
não sabermos qual será o resultado a ocorrer, nos interessa medir a probabilidade de
ocorrência dos diversos resultados possíveis. Nos interessa saber se um resultado
é mais, ou menos, provável do que outro. De uma certa forma, estamos “jogando” com
resultados.
4 A. F. Beraldo
1.1 Conceitos e definições
Exemplo 1.1. Coloque D (determinístico) ou A (aleatório), conforme o caso, nos
seguintes fenômenos:
� Um ônibus espacial deve entrar na atmosfera da Terra segundo um ângulo e uma
velocidade específicas. Caso haja algum erro nessas medidas, ou haja falha no
material de revestimento, a nave irá se incendiar.
� João gosta de apostar no jogo do bicho, todos os dias, e aposta sempre no elefante
(12). Segundo suas contas, já apostou 2.350 vezes, e acertou mais de 200 vezes, e
diz que seu método é infalível, pois, a cada 25 dias, sempre haverá um dia que vai
“dar” elefante.� José se prepara para o vestibular, e é o primeiro lugar no cursinho onde estuda – além
de ter sido sempre um dos melhores alunos nas escolas por onde passou. Assim,
não há dúvida de que seu lugar na universidade está garantido.
� Meu time vai ganhar o campeonato, sem dúvida! Li no jornal que toda vez que um
time perde no primeiro jogo, em noite de lua nova, com 3 jogadores cujos nomes
começam com a letra “C”, termina invariavelmente em primeiro lugar?
Respostas comentadas
D Um ônibus espacial deve entrar na atmosfera da Terra segundo um ângulo e uma
velocidade específicas. Caso haja algum erro nessas medidas, ou haja falha no
material de revestimento, a nave irá se incendiar.
Este é um típico evento determinístico, ou seja, sob as mesmas condições, provocará
sempre os mesmos resultados. O ônibus espacial entra na atmosfera terrestre a
uma razão de descida de 10 mil metros por minuto. “O ângulo com que o ônibus
espacial entra na atmosfera é crítico. Caso seja excessivo, o ‘planador’ poderá
saltar sobre o topo da atmosfera assim como uma pedra plana salta sobre a água
ou estolar à medida em que a crescente densidade do ar representar uma maior
resistência. A recuperação de qualquer um desses eventos é bem improvável. Um
ângulo de ataque muito pequeno resultaria em velocidade excessiva e aquecimento
por atrito capaz de danificar os bordos de ataque das asas.” 6
6Ver “Colunas aeronáuticas”, em http://www.airandinas.com/shuttle.html
A. F. Beraldo 5
1. Introdução ao Cálculo de Probabilidades
A João gosta de apostar no jogo do bicho, todos os dias, e aposta sempre no elefante
(12). Segundo suas contas, já apostou 2.350 vezes, e acertou mais de 200 vezes, e
diz que seu método é infalível, pois, a cada 25 dias, sempre haverá um dia que vai
“dar” elefante.
Há um tendência natural das pessoas em tentar achar “leis” que predeterminam
resultados de um jogo – além das famosas “interpretações de sonhos”, nada
freudianas. O raciocínio de João está parcialmente correto, ou seja, a esperança7
deste palpite é que “dê” elefante em um dia, a cada 25 dias (são 25 bichos no jogo).
Mas isto não é “infalível”, assim como pode acontecer de ‘dar” elefante em 10 dias
seguidos! Porém, a chance disto acontecer é 0,00000000000001, ou seja, nenhuma.
A José se prepara para o vestibular, e é o primeiro lugar no cursinho onde estuda
– além de ter sido sempre um dos melhores alunos nas escolas por onde passou.
Assim, não há dúvida de que seu lugar na universidade está garantido.
Não, infelizmente, “garantido” não está, uma vez que existem vários fatores que
afetam o desempenho de um candidato (para melhor ou para pior). Dizendo de
outra forma, podem ocorrer mudanças nas condições em que ocorre o fenômeno.
A Meu time vai ganhar o campeonato, sem dúvida! Li no jornal que toda vez que um
time perde no primeiro jogo, em noite de lua nova, com 3 jogadores cujos nomes
começam com a letra “C”, termina invariavelmente em primeiro lugar?
Isto é pura conversa fiada de jornal .. para vender jornal. Embora sorte (e azar)
estejam quase sempre presentes no esporte – e isso faz parte do seu encanto, assim
como a superstição e todo o folclore que não para de crescer, não se pode tratar uma
competição esportiva nem como um fenômeno determinístico nem como aleatório.
E, também, não se pode considerar “palpites”, mesmo vindo de especialistas,
como algo matematicamente tratável. No entanto, há um campo no Cálculo de
Probabilidades que tem se desenvolvido muito – o que se convencionou chamar
de “probabilidade epistêmica” ou subjetivista8. Procura-se, através de “modelos”
elaborados por pessoas conhecedoras do esporte, diminuir o nível de aleatoriedade
das previsões. Mas, muitas vezes aparece um “azarão” para complicar?
7Esperança é um termo técnico do Cálculo de Probabilidades. É um conceito que será estudado
no capítulo 2.
8A este propósito, ver
http://www.ilea.ufrgs.br/episteme/portal/pdf/numero18/episteme18_artigo_portugal1.pdf
6 A. F. Beraldo
1.1 Conceitos e definições
1.1.2 Eventos
Um resultado possível do Experimento Aleatório, ou um conjunto de resultados
possíveis, é chamado evento. Por exemplo, as faces do dado são cada uma delas um
evento, chamado evento unitário (aquele que não pode ser decomposto). Os eventos
de um experimento podem ser tratados como conjuntos. Assim, temos:
Figura 1.3: Conjunto interseção Figura 1.4: Conjunto vazio
Na Figura 1.3, temos dois conjuntos, A e B (ou dois eventos, A e B) que possuem
um conjunto interseção (leia-se “A e B”). Na Figura 1.4, os eventos A e B não possuem
elementos em comum, logo o conjunto interseção é vazio.
Figura 1.5: Conjunto união
A ∪B (leia-se “A ou B”)
A. F. Beraldo 7
1. Introdução ao Cálculo de Probabilidades
1.1.3 Espaço amostral
Espaço amostral é o conjunto de todos os eventos de um experimento aleatório.
Todos os resultados possíveis do experimento são agrupados neste conjunto, que identi-
ficamos pela letra Ω.
Figura 1.6: Espaço amostral
Os espaços amostrais são, tecnicamente, os resultados (valores) que uma variável
pode apresentar. Então, podemos ter espaços amostrais com eventos qualitativos ou
quantitativos. Os eventos qualitativos podem ser dicotômicos ou politômicos, e os
eventos quantitativos podem ser discretos ou contínuos – veja apostila Estatística I.
Exemplo 1.2. Descreva o Espaço Amostral Ω para os seguintes experimentos aleatórios
ε # .
1. lançamento de um dado;
2. sexo de um recém-nascido;
3. retirada de uma carta de um baralho;
4. estado de um equipamento;
5. resultado de um jogo de futebol;
6. resultado de um campeonato de futebol com 10 times;
7. resultado de um investimento em ações na bolsa de valores, ao fim de um período;
8. cotação do dólar ao final do ano.
8 A. F. Beraldo
1.1 Conceitos e definições
1. Lançamento de um dado
Este é um experimento aleatório clássico. Os eventos unitários são 6 (seis) – o
dado é um sólido regular com 6 lados iguais (um cubo, ou hexaedro), ou 6 faces
iguais. Podemos, então, descrever o espaço amostral como composto de 6 eventos
unitários:
Ω = {F1, F2, F3, F4, F5, F6}
2. Sexo de um recém-nascido
Supondo que o sexo de uma criança recém-nascida seja um evento aleatório, e
sendo que existem 2 sexos (masculino e feminino), dizemos que o espaço amostral
como composto de 2 eventos unitários:
Ω = {M,F}
Ou, melhor
Ω = {M,M}
Leia-se “masculino e não-masculino”.
3. Retirada de uma carta de um baralho
Um baralho tem 52 cartas, agrupadas em 4 naipes. O espaço amostral como
composto de 52 eventos unitários:
Ω = {A♥, 2♥, 3♥, 4♥, · · · , K♥, A♦, 2♦, 3♦, K♦, · · · , A♣, · · · , K♣}
4. Estado de um equipamento
Seja, por exemplo, um aparelho de TV. Podemos adotar, para simplificar, dois
estados: funcionando (F ), e não funcionando (F )
5. Resultado de um jogo de futebol
Seja o jogo entre os times A e B. Os eventos são os seguintes: (V)itória do time
A, (E)mpate entre A e B, e (D)errota de A. Então, temos
Ω = {V,E,D}
A. F. Beraldo 9
1. Introdução ao Cálculo de Probabilidades
6. Resultado de um campeonato de futebol com 10 times
Supondo que haja critérios de desempate na classificação final, temos:
Ω = {1o, 2o, 3o, · · · , 9o, 10o}
7. Resultado de um investimento em ações na bolsa de valores, ao fim de
um período
Podemos descrever este resultado utilizando um espaço amostral com os resul-
tados “lucro”, “prejuízo” e “empate”. Contudo, e mais rico em informações,
podemos supor que o resultado seja uma evolução descrita pela razão R =
Valor carteira final
Valor carteira início, e que esta razão R possa, teoricamente, variar entre 0 (zero)
e +∞. Então, o espaço amostral será Ω = {x|x ∈ Q+} (Q+: conjunto dos números
racionais positivos).
8. Cotação do dólar ao final do ano
Idem ao exemplo anterior, Ω = {x|x ∈ Q+}, sendo x a cotação do dólar.
1.2 Probabilidade: definições
As definiçõese os conceitos dados na seção anterior devem estar bem entendidos para
que você prossiga no estudo das Probabilidades. Nesta seção, vamos entrar, finalmente,
na parte básica da teoria: as definições de Probabilidades. Aqui vamos estudar duas
definições: a clássica e a frequencista. Uma outra definição, a axiomática, será
apresentada um pouco mais adiante.
1.2.1 Definição Clássica de Probabilidades
Esta definição é amplamente utilizada na teoria dos jogos e em exercícios e demons-
trações de teoremas. Consiste no seguinte: se um experimento aleatório gera um espaço
amostral Ω composto de n eventos unitários9 Ei, de forma que seja:
Ω = {E1, E2, E3, · · · , En}
A probabilidade de ocorrência de um evento qualquer P (E) é dada pela relação:
P (E) = nEΩ (1.1)
9Evento unitário é aquele que não pode ser decomposto. Por exemplo, “Face 4” é um evento unitário,
“Face 4 ou 5” é um evento composto.
10 A. F. Beraldo
1.2 Probabilidade: definições
na qual P(E) é a probabilidade de ocorrência de um evento, nE é o número de
maneiras com que E pode ocorrer e Ω é o tamanho do conjunto espaço amostral.
Por exemplo, se em uma urna colocamos 10 bolas, sendo 3 vermelhas, 2 azuis e 5
bolas pretas, ao sortearmos uma bola desta urna, as chances são:
• P(bola vermelha) = 3/10 , pois temos 3 bolas vermelhas possíveis de serem
sorteadas, num total de dez bolas;
• P(bola azul) = 2/10 , pois temos 2 bolas azuis possíveis de serem sorteadas, num
total de dez bolas;
• P(bola preta) = 5/10 , pois temos 5 bolas pretas possíveis de serem sorteadas,
num total de dez bolas.
Figura 1.7: Urna
Note que, ao determinarmos estas probabilidades, admitimos
que todas as bolas dentro da urna possuem a mesma
probabilidade de serem sorteadas. Em outras palavras,
nenhuma bola tem mais chances de ser sorteada do que
qualquer outra. Este espaço amostral é composto de eventos
unitários equiprováveis.
Note também que as bolas só possuem uma cor, cada, ou seja, não existem bolas
com duas cores.
Voltando ao exemplo anterior, qual a probabilidade da bola sorteada ser azul ou
preta? Aplicando a fórmula, vemos que existem 7 “maneiras” de uma bola ser azul
ou preta: 2 “maneiras” (2 bolas) azuis e 5 “maneiras” (5 bolas) pretas. Daí que a
probabilidade da bola sorteada ser azul ou preta.
P (A ou P ) = 2 + 510 =
7
10
Observação: A probabilidade de ser azul ou preta é expressa da seguinte forma:
P (A ∪ P )
Outro exemplo: ao lançarmos um dado, o espaço amostral gerado por este experi-
mento é dado por
Ω = {F1, F2, F3, F4, F5, F6}
A. F. Beraldo 11
1. Introdução ao Cálculo de Probabilidades
Assumindo que uma face do dado tem a mesma probabilidade de “sair” como
qualquer outra face, temos outro espaço amostral equiprovável10, e que, por exemplo,
a probabilidade de “sair” face 4, P (F4) é dada por
P (F4) = 16
pois o dado possui 6 faces distintas, equiprováveis, e apenas uma face é a face 4.
1.2.2 Definição Frequencista de Probabilidade
Até agora, estudamos casos em que o espaço amostral possui seus eventos unitários
equiprováveis. Porém, existem casos em que os eventos unitários constantes do espaço
amostral possuem probabilidades de ocorrência indeterminadas. Neste caso, temos que
repetir o experimento inúmeras vezes para determinar de que modo os eventos ocorrem
ou, em outras palavras, a frequência com que os eventos ocorrem. Por exemplo, seja
a frequência de nascimentos de crianças em uma maternidade, segundo o atributo sexo,
em alguns meses do ano:
10Esta característica de alguns espaços amostrais serem constituídos de eventos equiprováveis é aceita
intuitivamente, mas não é demonstrável. Admite-se, simplesmente, que uma face de um dado possui
a mesma probabilidade de ocorrer do que qualquer outra - uma vez que não há razões para supor que
isto não seja verdade.
12 A. F. Beraldo
1.2 Probabilidade: definições
Tabela 1.1: Frequência de nascimentos na Maternidade XYZ, ao mês.
Mês Masculino Feminino Total % Masculino % Feminino
1 34 30 64 53 47
2 29 32 61 48 52
3 37 35 72 51 49
4 24 20 44 55 45
5 24 29 53 45 55
6 30 28 58 52 48
7 34 36 70 49 51
8 27 35 62 44 56
Total 239 245 484 49 51
Note que os percentuais de nascimentos de crianças do sexo feminino e do masculino
variam bastante no decorrer dos meses. No entanto, quando se analisam os totais, ao fim
dos 8 meses, descobrimos um “percentual médio” de 49% de crianças do sexo masculino
e de 51% de crianças do sexo feminino. Veja a tabela seguinte:
Tabela 1.2: Frequência Acumulada de nascimentos na Maternidade XYZ, ao mês.
Mês Masc.
Acum.
Fem.
Acum.
Total
Acum.
% Masculino % Feminino
1 34 30 64 53 47
2 63 62 125 50 50
3 100 97 197 51 49
4 124 117 241 51 49
5 148 146 294 50 50
6 178 174 352 51 49
7 212 210 422 50 50
8 239 245 484 49 51
Veja que os percentuais sobre as frequências acumuladas parece que vão se concen-
trando em torno da relação 50%/50%, no atributo sexo. Embora o nosso número de
observações ainda seja pequeno (484 nascimentos , em 8 meses), podemos “prever” que,
no próximo mês a ser pesquisado, os nascimentos se distribuirão, em termos do atributo
sexo, com 49% para os nascimentos de crianças do sexo masculino, e 51% de crianças
do sexo feminino. Repare que esta “previsão” é feita com uma certa “margem de erro”:
se, ao invés de 484 nascimentos, a nossa amostra fosse de 4.000 nascimentos, nossa
segurança seria muito maior (nossa “margem de erro” seria bem menor). O gráfico a
seguir ilustra bem este comportamento:
A. F. Beraldo 13
1. Introdução ao Cálculo de Probabilidades
Figura 1.8: Percentual Acumulado de nascimentos por sexo
Observe o gráfico a seguir, relativo a 5.000 nascimentos, em 72 meses:
Linha preta: Masculino. Linha cinza: Feminino.
Figura 1.9: Distribuição percentual acumulada
14 A. F. Beraldo
1.2 Probabilidade: definições
Note que, a medida em que o tempo passa, e vão nascendo cada vez mais crianças, a
frequência acumulada de nascimentos também vai aumentando. A proporção de crianças
do sexo masculino “tende” a ser igual à proporção de crianças do sexo feminino - ambos
os números convergem para 50%.
O percentual médio, para esta amostra, foi de 49,4% para nascimentos de crianças
do sexo masculino e de 50,6% de crianças do sexo feminino. Isto nos permite dizer que
a próxima criança a nascer terá uma probabilidade em torno de 49% de ser do
sexo masculino e de 51% de ser do sexo feminino11.
A probabilidade, então, é calculada a partir de um histórico dos casos, observados ao
longo de muito tempo, e com amostras bastante grandes. Admite-se que, se os eventos
são gerados a partir de um experimento aleatório, a probabilidade de ocorrência do
evento, na próxima repetição do experimento aleatório, será a frequência relativa
de ocorrência do evento nas últimas n repetições do experimento.
Definindo de outra maneira, a probabilidade frequencista de um evento E é dada
por:
P (E) = lim
n→∞ fr(E) (1.2)
Ou seja, a probabilidade de um evento E ocorrer, na próxima repetição do experi-
mento, é calculada como o limite da frequência relativa do evento, quando o número n
de repetições anteriores do experimento é muito grande (n→∞).
Comentários:
1. Esta definição de probabilidades pressupõe que temos um número suficiente-
mente grande de observações sobre o experimento para que possamos prever
quais as chances do evento ocorrer na próxima repetição do experimento. Este
“número suficientemente grande” varia conforme o caso que estamos estudando;
2. Outro pressuposto básico é que as condições em que realizamos o experimento
aleatório não mudaram. Nem sempre isto é possível. Mas, como na Física
11Este é um valor que se aproxima muito da probabilidade do sexo da criança, se esta fosse calculada
de maneira clássica: existem dois sexos “possíveis” no nascimento de uma criança, ou seja, o tamanho do
espaço amostral é 2, e seus eventossão supostos distintos e equiprováveis. Daí que a P (masculino) = 1/2,
ou 50%, que é um número bastante aproximado de 49% (percentual observado). Este confronto entre
as duas formas de calcular uma probabilidade, clássica ou frequencista, será muito utilizado na parte
de Testes Estatísticos (Apostila Estatística III).
A. F. Beraldo 15
1. Introdução ao Cálculo de Probabilidades
ou na Química, podemos lidar com situações ideais, ou teóricas: gases perfeitos,
despreza-se a resistência do ar, experimentos no vácuo, etc.
3. Note que a probabilidade clássica é uma probabilidade “a priori”, isto é, antes
de realizarmos o experimento, já podemos determinar as probabilidades de cada
evento. No caso da probabilidade frequencista, esta é uma probabilidade “a
posteriori”, isto é, só podemos calcular as probabilidades após termos feito um
grande número de repetições do experimento. Há que se ter muito cuidado com
as probabilidades frequencistas, porque as condições de realização do experimento
podem ter mudado, entre uma e outra realização.
4. A definição frequencista é utilizada quando a definição clássica não pode ser
aplicada, ou quando perde o seu “significado” real. Por exemplo, seja prever
o resultado de um jogo de futebol entre o Flamengo F.R. e o Bacuri F.C. Se
fossemos aplicar a definição clássica de probabilidades, os eventos possíveis (vitória,
empate ou derrota do Bacuri F.C.) teriam probabilidade de 1/3 cada. Por mais
briosa e aguerrida que seja a simpática equipe do Bacuri, não se pode admitir
que o time tenha 33% de chances de ganhar do Flamengo. Este número, é óbvio,
não corresponde à realidade. Daí que, para sabermos as chances de vitória do
Bacuri teríamos que ter o retrospecto das últimas partidas entre as duas equipes.
Quantomais informações tivermos sobre as duas equipes, mais precisa será nossa
previsão. Podemos prever, então, mais acertadamente, que as probabilidades de
vitória do Bacuri F.C. estariam em torno de 1%, nesta simulação.
5. Ainda em relação ao Bacuri F.C.: mesmo que o Bacuri ganhasse do Flamengo, isto
não invalida o nosso raciocínio. A probabilidade frequencista é aplicada a partir
de um histórico de centenas ou milhares de repetições do experimento. Então,
devemos dizer que, em cem jogos entre o Flamengo e o Bacuri, este ganharia um
jogo (1% de chances).
16 A. F. Beraldo
1.2 Probabilidade: definições
1.2.3 Definição Axiomática de Probabilidade
Como você deve estar lembrado do curso médio, axioma é uma afirmação verdadeira,
que não precisa ser demonstrada (tal como o ponto e a reta, na Geometria). Se temos
um espaço amostral Ω, constituído de uma série de eventos Ei, sendo que existe um
número P (Ei) tal que 0 ≤ P (Ei) ≤ 1, para todo i, e que ΣP (Ei) = 1, definimos este
número como probabilidade do evento Ei. Veja a figura abaixo:
Figura 1.10: Probabilidade axiomática
Esta definição é muito útil para o estudo das variáveis aleatórias (Capítulo 2), quando
não irá importar muito qual a “origem” do número chamado probabilidade - se foi
calculado a partir da definição clássica ou da frequencista.
Resumindo o que foi dito, procure lembrar-se que
1. Um experimento aleatório ε # é repetido muitas vezes, sob as mesmas condições;
2. este experimento aleatório resulta num conjunto de eventos, chamado Espaço
Amostral Ω;
3. a cada evento E do espaço amostral atribuímos um número, chamado probabili-
dade, que exprime a chance deste resultado ocorrer numa próxima repetição do
experimento P (E);
4. esta probabilidade pode ser calculada:
a) a priori quando se conhece perfeitamente o espaço amostral e seus eventos
unitários e pode-se assumir que os eventos unitários são equiprováveis;
b) a posteriori, quando se conhece o histórico dos resultados das repetições
anteriores do experimento.
5. este número, probabilidade, assume valores entre 0 e 1. Escreve-se 0 ≤ P (E) ≤ 1;
A. F. Beraldo 17
1. Introdução ao Cálculo de Probabilidades
6. Ao somarmos as probabilidades de todos os eventos do espaço amostral, o resultado
será 1, ou 100%. Escreve-se
n∑
1
P (Ei) = 1
Exemplo 1.3. Suponha que o fenômeno “nascimento de uma criança” seja equivalente,
em termos da variável “sexo”, ao sorteio (retirada, com reposição) de bolas de uma urna,
que contém duas bolas: uma vermelha e uma azul. Faça uma comparação entre os dois
experimentos, utilizando as definições de probabilidade estudadas e os gráficos (figuras
1.8 e 1.9).
Figura 1.11: Criança
Figura 1.12: Bolas
Resposta comentada
Imagino que você deve ter utilizado a definição clássica para o caso da retirada de
bolas de uma urna, e a definição frequencista para o sexo das crianças. Assim, você deve
ter formulado a seguinte relação (sendo “p” a proporção de crianças do sexo masculino):
P (A) = p = nAΩ =⇒ limN→∞ p = 0, 5
onde “A” pode ser “bola vermelha” ou “bola azul”, nA = 1, Ω = 2 . Para que esta
resposta esteja completa, você deve ter escrito sobre:
Diferenças da estimação da probabilidade “a priori” e “a posteriori”;
Espaço amostral definido;
Convergência entre os valores das probabilidades a medida que n aumenta;
Confirmação da aleatoriedade do sexo da criança, a partir de p = 0,5.
18 A. F. Beraldo
1.3 A Lei da Soma
1.3 A Lei da Soma
Sejam dois eventos quaisquer, A e B, do espaço amostral gerado por um experimento
aleatório. A probabilidade de ocorrer A ou B é dada por
P (A ∪B) = P (A) + P (B)− P (A ∩B) (1.3)
ou seja: a probabilidade de ocorrência do evento A ou do evento B é calculada como
a soma das probabilidades, em separado, de A e de B, menos a probabilidade de um
evento que seja, ao mesmo tempo, A e B.
Figura 1.13: Espaço amostral
Exemplificando: ao lançarmos um dado, a probabilidade de sair Face 1 ou Face 4 é
dada pela soma das probabilidades isoladas de Face 1 e Face 4, menos a probabilidade
de ocorrência de uma face que seja, ao mesmo tempo, Face 1 e Face 4. Veja a ilustração
abaixo:
Figura 1.14: Faces de um dado
São seis faces possíveis, portanto a probabilidade de sair F1, isoladamente, é igual a
1/6; a de sair F4, isoladamente, é também de 1/6; não existe nenhuma face que seja, ao
mesmo tempo, F1 e F4. Daí,
A. F. Beraldo 19
1. Introdução ao Cálculo de Probabilidades
P (F1 ∪ F4) =P (F1) + P (F4)− P (F1 ∩ F4)
P (F1 ∪ F4) =16 +
1
6 − 0
Note que P (F1 ∩ F4) = 0. Quando isto ocorre, isto é, quando A ∩ B = ∅, diz-se
que A e B são eventos mutuamente excludentes. Neste caso, A e B são conjuntos
disjuntos, não existindo a interseção entre eles. Veja a figura a seguir:
Figura 1.15: Espaço amostral, eventos mutualmente excludentes
Outro exemplo: Um baralho12 possui 52 cartas, divididas em quatro naipes (ouros,
copas, paus e espadas). As cartas de cada naipe são: ás, cartas numeradas de 2 a 10, e
três cartas figuradas: valete (J), dama (Q), rei (K). Veja a ilustração a seguir:
12Jogos de azar são excelentes exemplos do “jogo” das probabilidades. No caso do baralho, pela
grande quantidade de cartas (eventos unitários), pelo número infinito de jogos e seqüências (espaço
amostral), a riqueza é inesgotável. O baralho tem origem oriental, sendo derivado do tarô - que é algo
muito mais sério. Na época em que se começou a formular as bases teóricas do Cálculo de Probabilidades,
o jogo de cartas era o divertimento preferido da realeza e, de certa forma, reflete o jogo do poder. A
sociedade da época continua sendo representada, até hoje, pelos naipes “copas” (clero), “paus” (o povo),
“espadas” (a nobreza) e “ouros” (a burguesia); continuamos tendo, no baralho, reis (Kings), rainhas
(Queens), Ases (Aces) e Valetes (Jokers).
20 A. F. Beraldo
1.3 A Lei da Soma
Figura 1.16: Baralho de cartas
Pergunta-se: qual é a probabilidade de, retirando-se aleatoriamente uma carta do
baralho, ela seja um ás ou seja do naipe de copas? Existem quatro ases no baralho,
sendo um deles do naipe de copas. E existem 13 cartasdo naipe de copas, sendo uma
delas um ás. Veja a ilustração a seguir:
Figura 1.17: Ases do baralho e as cartas de copas.
A. F. Beraldo 21
1. Introdução ao Cálculo de Probabilidades
A probabilidade deste evento pode ser escrita P (às∪copas). Pela Lei da Soma, temos
que P (às∪copas) = P (às)+P (copas)−P (às∩copas) e P (às∩copas) > 0, pois o evento
(às ∩ copas) é o próprio ás de copas. Daí,
P (às ∪ copas) = P (às) + P (copas)− P (às ∩ copas) = 452 +
13
52 −
1
52 =
16
52
É interessante fazer os cálculos utilizando frações, pois desta forma pode-se ter uma
idéia mais definida do quantitativo do espaço amostral e do numerador da probabilidade
clássica.
O exemplo acima ilustra o porquê da existência da terceira parcela da fórmula da
Lei da Soma. Quando efetuamos a contagem dos ases, contamos todos os quatro, e um
deles era o ás de copas. Quando efetuamos a contagem das cartas do naipe de copas,
contamos novamente o ás de copas. Daí que houve uma contagem em duplicidade (o
ás de copas foi contado duas vezes). Para remediar este problema é que foi introduzida
a terceira parcela, subtrativa, na fórmula.
Como foi dito, quando P (A ∩ B) = 0 a expressão para a Lei da Soma reduz-se a
P (A ∪B) = P (A) + P (B).
1.4 A Lei da Multiplicação
Sejam dois eventos quaisquer, A e B, do espaço amostral gerado por um experimento
aleatório. A probabilidade de ocorrer A e B é dada por:
P (A ∩B) = P (A)P (B|A) (1.4)
Ou seja: a probabilidade de ocorrência do evento A e do evento B é calculada como o
produto da probabilidade de ocorrência de A, (P (A)), pela probabilidade de ocorrência
de B , depois de A ter ocorrido (P (B|A)).
Seja, por exemplo, a retirada de duas cartas do baralho, uma após a outra. Qual a
probabilidade de ambas serem ases? Pela Lei da Multiplicação, temos que:
P (A1 ∩ A2) = P (A1)× P (A2|A1)
Leia-se “a probabilidade de obtermos ‘ás’ na primeira carta, e ‘ás’ na segunda carta,
é igual ao produto da probabilidade de ‘ás’ na primeira carta, pela probabilidade de ‘ás’
na segunda carta, desde que tenha saído ‘ás’ na primeira carta”. Então,
22 A. F. Beraldo
1.4 A Lei da Multiplicação
P (A1 ∩ A2) = P (A1)× P (A2|A1) =
( 4
52
)( 4
52
)
= 162704 = 0, 006 = 0, 6%
Correto? Nem tanto. Ao realizarmos o cálculo acima, partimos da suposição de que
a primeira carta retirada voltou ao baralho, isto é, que foi um experimento feito com
reposição. Se, ao contrário, a primeira carta não fosse reposta, o resultado correto
seria:
P (A1 ∩ A2) = P (A1)× P (A2|A1) =
( 4
52
)( 3
51
)
= 122652 = 0, 0045 = 0, 45%
Note que tanto o numerador quanto o denominador da segunda parcela da multipli-
cação foram alterados. Isto ocorre porque, devido a um ás ter saído na primeira carta,
e esta não tendo sido reposta, o número de ases no baralho caiu de 4 para 3, assim
como o número de cartas no baralho caiu de 52 para 51.
A segunda repetição do experimento depende do que aconteceu na primeira. Os dois
eventos são ditos dependentes. Assim:
Dois eventos, A e B, são ditos independentes quando P (B|A) = P (B)
Dois eventos, A e B, são ditos dependentes quando P (B|A) 6= P (B)
Comentários
1. É preciso prestar atenção nesta classificação quando estivermos simulando expe-
rimentos. Alguns experimentos aleatórios são evidentemente dependentes, outros
claramente independentes. De qualquer forma, já na descrição do espaço amostral,
ou dos próprios procedimentos da simulação, encontramos indícios do tipo de
evento a se considerar.
2. Em geral, a probabilidade resultante da combinação de eventos dependentes resulta
menor do que a de eventos independentes, mas isso não pode ser tomado como
regra.
A. F. Beraldo 23
1. Introdução ao Cálculo de Probabilidades
1.5 Probabilidade Condicional: o Teorema de
Bayes
Imagine duas urnas, U1 e U2, contendo bolas brancas e bolas vermelhas. Na urna
U1 foram colocadas 25 bolas brancas e 45 vermelhas. Na urna U2, são 20 bolas brancas
e 50 vermelhas. Supõe-se que não haja nenhuma “preferência” por qualquer das duas
urnas. Sorteada uma bola, verificou-se ser da cor branca. Qual é a probabilidade de ter
saído da urna U2? Considere a Figura 1.18.
Figura 1.18: Urnas e bolas
Supondo que não haja nenhum motivo para que seja sorteada qualquer uma das
urnas, temos P(U1) = P(U2) = 12 ; a probabilidade de extração de bolas brancas é
P(B |U1) = 2570 , e P(B |U2) =
20
70 . Leia P(B |U1) como “probabilidade de sortearmos
bola branca na urna U1”, e P(B |U2) como “probabilidade de sortearmos bola branca na
urna U2”. Considerando as duas urnas, temos que a “probabilidade de extração de bolas
brancas” é dada por P(U1) P(B |U1) + P(U2) P(B |U2) = 12 ×
25
70 +
1
2 ×
20
70 =
45
140 ,
como pode ser observado na figura 1.16. A probabilidade que procuramos é P(U2 | B),
“probabilidade de que a bola tenha saído da urna U2, dado que seja branca”. Então,
pela definição clássica, temos:
P (U2|B) =
1
2 ×
20
70
1
2 ×
25
70 +
1
2 ×
20
70
=
20
140
45
140
= 2045 = 0, 44
Esta é uma aplicação do chamado “Teorema de Bayes”, ou da “probabilidade das
causas”. É uma decorrência da Lei da Multiplicação, sendo largamente utilizado nas
áreas da Saúde e da Teoria da Informação. Foi apresentado (postumamente) pelo Rev.
Thomas Bayes (1701-1761), de onde vem o seu nome. Sua formulação é muito simples:
24 A. F. Beraldo
1.5 Probabilidade Condicional: o Teorema de Bayes
Sejam dois conjuntos A e B, representados a seguir:
Figura 1.19: Interseção dos conjuntos
Pela Lei da Multiplicação, temos que
P (A ∩B) = P (A)× P (B|A)
P (B ∩ A) = P (B)× P (A|B)
Se considerarmos P (A ∩B) = P (B ∩ A), temos
P (A)× P (B|A) = P (B)× P (A|B)
e, portanto
P (A|B) = P (A)× P (B|A)
P (B) (1.5)
que é o enunciado mais simples do Teorema.
O enunciado geral do Teorema de Bayes é o seguinte:
Seja um espaço amostral Ω com n eventos mutuamente excludentes
(A1, A2, A3, · · · , An), e seja B um outro evento deste espaço amostral. São conhecidas
todas as probabilidades condicionais P (B|Ai).
A. F. Beraldo 25
1. Introdução ao Cálculo de Probabilidades
Temos que, para determinado evento Ai
P (Ai|B) = P (Ai)P (B|Ai)
P (A1)P (B|A1) + P (A2)P (B|A2) + P (A3)P (B|A3) + · · ·+ P (An)P (B|An) (1.6)
ou
P (Ai|B) = P (Ai)× P (B|Ai)∑n
1 P (Ai)× P (B|Ai)
(1.7)
Explicando melhor: Imagine o seguinte espaço amostral Ω
Figura 1.20: Espaço amostral
Note que todos os eventos Ai são mutuamente excludentes, representados neste
diagrama por conjuntos disjuntos, ou seja, a interseção Ai ∩ Aj = �, para qualquer
i, j.
Superpomos a este espaço amostral um outro subconjunto B ⊂ Ω:
Figura 1.21: Espaço amostral
26 A. F. Beraldo
1.5 Probabilidade Condicional: o Teorema de Bayes
O conjunto B pode ser descrito como B = (A1∩B)∪ (A2∩B)∪ (A3∩B)∪ (A4∩B).
Veja a ilustração abaixo:
Figura 1.22: Espaço amostral
A partir da figura acima, você pode compor as seguintes expressões (aplicando as
leis da Soma e da Multiplicação):
P (Ai|B) = P (Ai)P (B|Ai)
P (A1)P (B|A1) + P (A2)P (B|A2) + P (A3)P (B|A3) + · · ·+ P (An)P (B|An)
e
P (Ai|B) = P (Ai)× P (B|Ai)∑n
1 P (Ai)× P (B|Ai)
A. F. Beraldo 27
1. Introdução ao Cálculo de Probabilidades
Além deste Capítulo, pratique:
Faça agora os exercícios da Lista 2.1 - Introdução ao
cálculo de probabilidades.
Faça agora uma simulação destas medidas nos templates TP02
- Introdução ao cálculo de probabilidades e TP03 -
Introdução ao cálculo de probabilidades.
Assita ao audiovisual AV08 - Introdução ao cálculo de
probabilidades.
Faça o Estudo Dirigido ED08 - Introdução ao cálculo de
probabilidades.
28 A. F. Beraldo
2 Distribuições de Probabilidades de
Variáveis Aleatórias Discretas
2.1 Variáveis Aleatórias
Imagine o seguinte experimento aleatório: dois globos, destes de sorteio de loterias,contém, cada um, 10 bolinhas numeradas de 1 a 10. Os globos são postos a girar e, de
cada um, fazemos com que saia uma bolinha. Em seguida, somamos os números das
bolinhas sorteadas:
Figura 2.1: Sorteio de números em loterias
Os possíveis resultados da soma dos números das duas bolinhas estão no quadro
abaixo. No cabeçalho do quadro, estão os números possíveis de sair na bolinha 1:
1, 2, 3, 4, · · · , 8, 9, 10. Na primeira coluna da esquerda, os números possíveis de sair na
bolinha 2: 1, 2, 3, · · · , 8, 9, 10. No corpo do quadro estão as possíveis somas dos números:
A. F. Beraldo 29
2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas
Figura 2.2: Possíveis somas
A menor soma possível é 2 (quando ocorrem os eventos “número 1” na bolinha 1,
e “número 1” na bolinha 2), e a maior, 20 (quando ocorrem os eventos “número 10”
na bolinha 1, e “número 10” na bolinha 2). São 100 “somas” possíveis e estes eventos
ocorrem apenas uma vez, cada. Portanto, podemos escrever:
P (soma = 2) = 1/100 ou 1%
P (soma = 20) = 1/100 ou 1%
Chamando as diversas somas possíveis de “S”, ou melhor, de variável aleatória
S, calculamos (utilizando o conceito da probabilidade clássica) as probabilidades de S
assumir seus valores, de 2 a 20. Para S = 3, isto ocorre 2 vezes em 100, ou seja,
P (S = 3) = 2/100. Para S = 4, a ocorrência é de 3 eventos em 100, ou P (S = 4) =
3/100. E assim por diante.
Note que a probabilidade é sempre crescente, à medida que a variável aleatória S
vai assumindo valores cada vez maiores: P (S = 8) = 7/100, P (S = 9) = 8/100 ...
P (S = 11) = 10/100. A partir de S = 11, os valores das probabilidades começam a cair:
P (S = 12) = 9/100, P (S = 13) = 8/100 ... até P (S = 20) = 1/100.
Outra coisa: veja que esta distribuição de probabilidades é simétrica, em torno
de P (S = 11), que é o seu valor máximo. E que P (S = 2) = P (S = 20),
P (S = 3) = P (S = 19), P (S = 4) = P (S = 18), etc. Isto ocorre devido à simetria da
distribuição. Na tabela seguinte estão dispostas as probabilidades dos diversos eventos
possíveis ou, em outras palavras, está descrito o espaço amostral da variável aleatória S:
30 A. F. Beraldo
2.1 Variáveis Aleatórias
Tabela 2.1: Probabilidades para S
Soma S P(S)
2 1/100
3 2/100
4 3/100
5 4/100
6 5/100
7 6/100
8 7/100
9 8/100
10 9/100
11 10/100
12 9/100
13 8/100
14 7/100
15 6/100
16 5/100
17 4/100
18 3/100
19 2/100
20 1/100∑ 100/100 = 1, 00
A soma das probabilidades para todos os possíveis valores de S é igual a 100/100, ou
1, ou 100% (se estivermos lidando com percentuais). Isto ocorre em todas as distribuições
de probabilidades, e é uma característica muito importante. Podemos escrever
19∑
1
P (Si) = 1
ou, genericamente,
n∑
1
P (xi) = 1 (2.1)
ou seja, se a variável aleatória X pode assumir n valores, de 1 a n, o somatório
das probabilidades de todos os valores que X pode assumir é igual a 1 (ou 100%).
A. F. Beraldo 31
2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas
Podemos fazer um gráfico da distribuição de probabilidades de S, a partir da
tabela 2.1.
Figura 2.3: Distribuição de probabilidades de S
Note o formato gráfico: parece um triângulo - daí que esta é chamada, também, uma
distribuição triangular de probabilidades. Se você somar as áreas dos retângulos1,
encontrará o valor 100%, ou 1.
Podemos estar interessados em outros aspectos do experimento aleatório. Se este
fosse um jogo, poderíamos apostar, por exemplo, em eventos como “a soma dos números
das bolinhas será menor que determinado valor”, ou que “a que a soma dos números das
bolinhas estará entre tal e qual valor”. Uma informação importante é a probabilidade
de que S assuma um valor igual ou menor que determinado valor k. Por exemplo, a
probabilidade de que S assuma um valor menor ou igual a 6 está ilustrada a seguir:
1Lembrando que a área de um retângulo, no gráfico considerado, é igual ao produto da base por
sua altura. Todos os retângulos possuem bases de largura igual, que consideramos unitária. Assim, a
área do primeiro retângulo à esquerda é igual a 1 x 1% , a área do segundo retângulo é igual a 1 x 2%,
e assim por diante. Então, a soma das áreas dos retângulos será igual a (1 × 1%) + (1 × 2%) + (1 +
3%) + · · ·+ (1× 3%) + (1× 2%) + (1× 1%) = 100%
32 A. F. Beraldo
2.1 Variáveis Aleatórias
Figura 2.4: Somas possíveis, S ≤ 6
A área mais escura contém 15 somas possíveis, ou seja, a P (S ≤ 6) = 15/100, ou
15%. Podemos fazer este cálculo para todos os valores possíveis de S, e construir a
tabela abaixo:
Tabela 2.2: Probabilidades Acumuladas de S
k P (S = K) P (S ≤ k)
2 1% 1%
3 2% 3%
4 3% 6%
5 4% 10%
6 5% 15%
7 6% 21%
8 7% 28%
9 8% 36%
10 9% 45%
11 10% 55%
12 9% 64%
13 8% 72%
14 7% 79%
15 6% 85%
16 5% 90%
17 4% 94%
18 3% 97%
19 2% 99%
20 1% 100%
A terceira coluna da tabela é chamadaDistribuição Acumulada de Probabilida-
des, ou Distribuição de Probabilidade Acumulada, e contém os valores de P (S ≤ k), ou
A. F. Beraldo 33
2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas
seja, a probabilidade da variável aleatória S assumir um valor igual ou menor
que um valor k.
Os valores desta coluna podem ser colocados em um gráfico, como a seguir:
Figura 2.5: Distribuição de probabilidade acumulada
Este é um gráfico de pontos, uma vez que, na prática, S só assume valores inteiros,
entre 2 e 20. No entanto, podemos unir estes pontos por uma linha suave, obtendo um
gráfico de melhor visualização e leitura – embora não seja rigorosamente correto, para
variáveis aleatórias discretas.
Figura 2.6: Distribuição da Função Acumulada de Probabilidades
A partir deste gráfico, pode-se determinar, teoricamente, as probabilidades de
P (S ≤ k) mesmo que k seja um número fracionário. Por exemplo, P (S ≤ 10, 5),
34 A. F. Beraldo
2.1 Variáveis Aleatórias
que é aproximadamente igual a 48% (verifique você mesmo). É claro que esta é uma
probabilidade teórica.
A probabilidade de S estar entre dois valores, que é uma informação também muito
importante, pode ser visualizada neste exemplo: queremos saber a probabilidade de S
estar entre 8 e 14, inclusive, ou, escrevendo de outra forma P (8 ≤ S ≤ 14). Para
determinar esta probabilidade, podemos utilizar a ilustração abaixo:
Figura 2.7: Somas possíveis entre 8 e 14
Contando o número de somas entre 8 e 14, temos 58 somas possíveis, em 100, ou
58%2. Veja a ilustração desta probabilidade no gráfico a seguir:
Figura 2.8: Distribuição de probabilidades para S
2Notar que as somas que não pertencem a este intervalo (8 ≤ S ≤ 14) são em número de 42. Isto
atende ao critério de um modelo de probabilidades em que P (A ∪ B) = 1, se A ∪ B = Ω, o que é o
presente caso. Se considerarmos A = (8 ≤ S ≤ 14), e B = (S < 8 ∪ S > 14), temos P (A) = 58% e
P (B) = 42%, e P (A) + P (B) = 100%.
A. F. Beraldo 35
2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas
As colunas mais escuras somam a área de probabilidades entre 8 e 14, ou P (8 ≤ S ≤
14). Ao somarmos a área destas colunas encontraremos o valor de 58%, correspondente
ao que havíamos determinado anteriormente.
Podemos também utilizar a tabela de distribuição de probabilidades e somar as
probabilidades das somas 8, 9, 10, · · · , 14:
Figura 2.9: Probabilidade acumulada de S
Outra maneira, ainda utilizando a tabela de distribuição de probabilidades acumu-
ladas, seria calcular P (S ≤ 14)− P (S ≤ 7) = 79%− 21% = 58%.
Figura 2.10: Probabilidade acumulada de S
36 A. F. Beraldo
2.1 Variáveis Aleatórias
Este exemplo ilustra algumas das características das variáveis aleatórias. Vamos
agora definir melhor alguns destes conceitos:
Variável Aleatória: Seja um experimento aleatório e que gera uma série de eventos
e1, e2, e3, ...en. O conjunto destes eventos é chamado, como vimos, espaço amostral (Ω).
Se a cada um destes eventospudermos atribuir um número (ou se já forem resultados
numéricos, per si), esta coleção de números é chamada de valores de uma variável
aleatória. A soma S das bolinhas sorteadas, conforme mostrado anteriormente, é uma
variável aleatória que pode assumir os valores 2, 3, 4, ..., 20.
Figura 2.11: Variável aleatória
Outros exemplos de variável aleatória seriam
• As faces de um dado;
• a soma das faces de dois dados lançados;
• a temperatura média dos dias de março a agosto de determinado ano;
• o número de lâmpadas queimadas após 4.000 horas de uso;
• a durabilidade de um componente eletrônico de um microcomputador;
• o volume de tráfego em um cruzamento de ruas da cidade, medido de hora em
hora, durante 100 dias;
• o número de crianças vacinadas em determinado bairro da cidade.
Variáveis aleatórias podem ser discretas ou contínuas. Um Variável Aleatória
Discreta (VAD) é aquela que assume valores pertencentes ao conjunto dos Naturais,
mais o zero: 0, 1, 2, 3, ... Ou seja: x ∈ N
A. F. Beraldo 37
2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas
Exemplos de Variável Aleatória Discreta:
• número de filhos de um casal (filhos do sexo masculino);
• número de acertos em questões de múltipla escolha, numa prova de 50 questões;
• número de fregueses de uma lanchonete, em determinada hora do dia;
• número de vitórias do seu time, num campeonato com 10 jogos (para cada time);
• número de candidatos em um concurso vestibular.
Variáveis Aleatórias Contínuas são estudas no Capítulo 3.
2.2 Distribuição de Probabilidades
O conjunto formado pelos valores das variáveis aleatórias e as probabilidades destas
variáveis é chamado Distribuição de Probabilidades. Pode ser apresentado numa
tabela ou sob a forma de função, tal como
P (X = x) = f(x) (2.2)
Para que uma função qualquer seja uma função de probabilidade de Variável Alea-
tória Discreta (VAD), são necessárias duas condições:
1. 0 ≤ f(x) ≤ 1 , ou 0 ≤ P (X = x) ≤ 1 para todo x ∈ N (2.3)
2.
n∑
1
P (xi) = 1 (2.4)
38 A. F. Beraldo
2.2 Distribuição de Probabilidades
Considere os seguintes exemplos de distribuição de probabilidades:
Exemplo 2.1. Em uma urna são colocadas 20 bolas coloridas, sendo 10 bolas verdes,
5 azuis, 3 pretas e 2 brancas. O experimento consiste em retirarmos 4 bolas, com
reposição. Qual é a distribuição de probabilidades para o número de bolas verdes?
O número de bolas verdes varia de 0 a 4, ou seja, podemos ter de “nenhuma bola
verde” a “todas as bolas verdes”. Se dermos o nome de X à variável aleatória discreta
que representa o “número de bolas verdes”, dizemos que X varia de 0 a 4.
A probabilidade de obtermos “bola verde” em qualquer das bolas retiradas é
P (V ) = 1020 =
10 bolas verdes
20 bolas na urna
ou seja, 0,5 (o experimento é feito com reposição, os eventos são independentes). A
distribuição de probabilidades é a seguinte:
Número de bolas verdes x P (X = x)
0 0,0625
1 0,2500
2 0,3250
3 0,2500
4 0,0625
Σ 1,0000
Tabela 2.3: Distribuição de probabilidades
Não se preocupe, agora, em saber como foram calculadas estas probabilidades
(embora você já saiba como calcular P (X = 0) e P (X = 4). Isto será visto no tópico
Distribuição Binomial de Probabilidades, a seguir. O que você deve notar é que esta
distribuição cumpre os requisitos:
1. 0 ≤ f(x) ≤ 1 , ou 0 ≤ P (X = x) ≤ 1 para todo x ∈ N
2.
n∑
1
P (xi) = 1
A. F. Beraldo 39
2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas
As distribuições de probabilidade podem ser representadas em gráficos. Para o caso
de variáveis aleatórias discretas, é usual representarmos as probabilidades por pontos,
ou por colunas ou ligarmos os pontos por segmentos de reta:
Figura 2.12: Distribuição de probabilidade
40 A. F. Beraldo
2.2 Distribuição de Probabilidades
2.2.1 Função de Densidade Acumulada
Função de Densidade Acumulada, ou Função de Distribuição de Probabilidades
Acumuladas, ou, mais simplesmente, Função de Distribuição, é definida como
P (X ≤ xk) = F (xk) =
k∑
1
f(xi) (2.5)
para o caso de VAD. Veja o exemplo a seguir:
Exemplo 2.2. Seja a distribuição de probabilidades dada por x, p(x) cujos valores estão
na tabela a seguir:
x p(x)
0 0,0313
1 0,1563
2 0,3125
3 0,3125
4 0,1563
5 0,0313
Tabela 2.4: Distribuição de probabilidades
O espaço amostral é formado pelos elementos do conjunto {0, 1, 2, 3, 4, 5}. Os valores
das probabilidades p(x) foram calculados pela distribuição binomial.
x p(x) P (x)
0 0,0313 0,0313
1 0,1563 0,1875
2 0,3125 0,5000
3 0,3125 0,8125
4 0,1563 0,9668
5 0,0313 1,0000
Tabela 2.5: Distribuição de probabilidades
Os valores da coluna p(x) foram calculados da seguinte maneira:
• Para x = 0, P (x) = p(x), ou seja, repetimos o valor de p(x);
• para x = 1, P (x) = p(x = 0) + p(x = 1);
A. F. Beraldo 41
2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas
• para x = 2, P (x) = p(x = 0) + p(x = 1) + p(x = 2);
E assim por diante.
Figura 2.13: Função Distribuição (ou Distribuição de Probabilidade Acumulada)
42 A. F. Beraldo
2.3 Esperança Matemática E(X)
2.3 Esperança Matemática E(X)
A Esperança Matemática, Expectância ou Valor Esperado de uma variável aleatória,
que simbolizamos por E(x), é dada pela expressão
E(X) =
n∑
1
xip(xi) (2.6)
A Esperança Matemática pode ser definida como o valor mais provável de um
experimento, uma espécie de “medida de tendência central” de uma distribuição de
probabilidades. Alguns autores definem a esperança Matemática como o “centro”, ou
“baricentro”, centro de gravidade da distribuição. Outros utilizam o conceito de média,
por analogia com a Esperança Matemática e pela similaridade das fórmulas3.
Seja o exemplo 1.1, das bolinhas sorteadas. O espaço amostral é o seguinte:
Figura 2.14: Espaço amostral
O valor mais provável é a soma 11, como se pode ver na ilustração acima (diagonal
sombreada). A soma 11 ocorre 10 vezes em 100 resultados possíveis. A tabela a seguir
é a distribuição de probabilidades deste caso:
3Realmente, se compararmos as fórmulas da média de uma distribuição de Frequência (utilizando as
Frequências relativas) e a da Esperança Matemática para as variáveis aleatórias discretas, existe muita
semelhança. Veja:
Σxi × fri (onde xi é o ponto médio da classe e fri é a Frequência relativa da classe) e
E(x) =
∑
i xi × p(xi), e se, segundo a definição frequencista de probabilidade, podemos dizer que
fr ∼= p(x), as expressões se equivalem.
A. F. Beraldo 43
2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas
Tabela 2.6: Distribuição de probabilidades de S
Soma S P(S)
2 1/100
3 2/100
4 3/100
5 4/100
6 5/100
7 6/100
8 7/100
9 8/100
10 9/100
11 10/100
12 9/100
13 8/100
14 7/100
15 6/100
16 5/100
17 4/100
18 3/100
19 2/100
20 1/100∑
100/100 = 1, 00
Utilizando uma terceira coluna para os produtos Si × p(Si), temos:
Tabela 2.7: Distribuição de probabilidades de S
Soma S P(S) Si.p(Si)
2 1/100 0,02
3 2/100 0,06
4 3/100 0,12
5 4/100 0,20
6 5/100 0,30
7 6/100 0,42
8 7/100 0,56
9 8/100 0,72
10 9/100 0,90
11 10/100 1,10
12 9/100 1,08
13 8/100 1,04
14 7/100 0,98
15 6/100 0,90
16 5/100 0,80
17 4/100 0,68
18 3/100 0,54
19 2/100 0,38
20 1/100 0,20∑
11,00
44 A. F. Beraldo
2.4 Variância de Variáveis Aleatórias
A soma dos produtos Si × p(Si) é igual a 11,0. Portanto:
E(S) =
n∑
1
Si × p(Si) = 11
2.3.1 Propriedades da Esperança
Seja uma distribuição de probabilidades, com esperança E(X):
1. E(X + k) = E(X) + k onde k é uma constante
2. E(k ×X) = k × E(X) onde k é uma constante
3. E(X + Y ) = E(X) +E(Y ) onde Y é uma variável aleatória com esperança E(Y )
4. E(X × Y ) = E(X)× E(Y ) onde X e Y são variáveis aleatórias independentes.
2.4 Variância de Variáveis Aleatórias
Na seção anterior, foi feita uma analogia entre aEsperança Matemática, E(X), e a
estatística média X pela semelhança entre suas fórmulas de cálculo. Esta analogia não
para ali. Por exemplo, se dizemos que a durabilidade média de um cabeçote de leitura de
um CD player é de 4.000 horas, ou, melhor definindo, a E(X) = 4.000 (x é uma variável
aleatória contínua, durabilidade em horas), pode ter acontecido que este parâmetro veio
de uma distribuição de probabilidades como abaixo:
Tabela 2.8: Durabilidade
Durabilidade, x (horas) P (X)
2,000 0,20
3,000 0,30
5,000 0,30
6,000 0,20
O que diz esta tabela? Temos que a metade dos cabeçotes tem durabilidade inferior
a 4.000 horas, sendo que 20% dos cabeçotes são de qualidade bem inferior, durando
até 2.000 horas. Por outro lado, a outra metade dos cabeçotes dura acima de 4.000
horas, com 20% de qualidade muito superior, chegando a durar 6.000 horas. Existe
uma dispersão muito grande para a variável aleatória e pode ser que a Esperança E(X)
seja “enganosa”. Precisamos de uma medida estatística para avaliar a esperança. Uma
A. F. Beraldo 45
2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas
destas medidas é a variância, aqui notada por Var(x), ou σ2 e definida, para variáveis
discretas, como:
Var(x) =
n∑
1
(xi − E(x))2p(xi) (2.7)
A raiz quadrada da variância é definida como desvio padrão da distribuição de
probabilidades de x, aqui notado pela letra grega σ , ou σ(x) - podemos também fazer
s(x) significar o desvio padrão:
σ(x) = s(x) =
√
Var(x) (2.8)
Uma outra fórmula para o cálculo da variância é a seguinte:
Var(X) = E(X2)− (E(X))2 (2.9)
46 A. F. Beraldo
2.4 Variância de Variáveis Aleatórias
Exemplo 2.3. Seja calcular a variância da distribuição de probabilidades, conforme
Tabela 2.9.
Tabela 2.9: Distribuição de probabilidades de S
Soma S P(S) Si.p(Si)
2 1/100 0,02
3 2/100 0,06
4 3/100 0,12
5 4/100 0,20
6 5/100 0,30
7 6/100 0,42
8 7/100 0,56
9 8/100 0,72
10 9/100 0,90
11 10/100 1,10
12 9/100 1,08
13 8/100 1,04
14 7/100 0,98
15 6/100 0,90
16 5/100 0,80
17 4/100 0,68
18 3/100 0,54
19 2/100 0,38
20 1/100 0,20∑
11,00
Notar que a esperança E(S) já está calculada (E(S) = 11, 0).
A expressão de cálculo da variância Var(s) é Var(X) = ∑(x − E(X))2 × P (x).
Montamos o cálculo da variância Var(S) passo a passo, com as colunas (S − E(s)),
(S − E(s))2 e (S − E(s))2 × P (s).
A. F. Beraldo 47
2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas
Tabela 2.10: Variância da distribuição de probabilidades
Soma S P(S) S.P (S) S − E(S) (S − E(S))2 (S − E(S))2p(s)
2 0,01 0,02 −9 81 0,81
3 0,02 0,06 −8 64 1,28
4 0,03 0,12 −7 49 1,47
5 0,04 0,20 −6 36 1,44
6 0,05 0,30 −5 25 1,25
7 0,06 0,42 −4 16 0,96
8 0,07 0,56 −3 9 0,63
9 0,08 0,72 −2 4 0,32
10 0,09 0,90 −1 1 0,09
11 0,10 1,10 0 0 0,00
12 0,09 1,08 1 1 0,09
13 0,08 1,04 2 4 0,32
14 0,07 0,98 3 9 0,63
15 0,06 0,90 4 16 0,96
16 0,05 0,80 5 25 1,25
17 0,04 0,68 6 36 1,44
18 0,03 0,54 7 49 1,47
19 0,02 0,38 8 64 1,28
20 0,01 0,20 9 81 0,81∑
1,00 11,00 16,50
Portanto, a variância, dada por Var(X) = ∑(x − E(X))2P (x), é igual a 16,50. O
desvio-padrão será σ(x) =
√
Var(x) =
√
16, 50 = 4, 06.
Comentários
Ainda dessa vez, não se preocupe muito com o significado desta estatística (vari-
ância). Preocupe-se com o significado do desvio padrão, que é uma das medidas mais
importantes de um processo. Para o estudo das variáveis aleatórias, podem ser feitas as
mesmas considerações do Capítulo 3 da Apostila de Estatística Descritiva.
2.4.1 Propriedades da variância
Seja uma distribuição de probabilidades, com esperança E(X) e variância Var(X).
1. Var(kX) = k2Var(X) onde k é uma constante.
2. Se X e Y são variáveis aleatórias independentes
a) Var(X + Y ) = Var(X) + Var(Y )
b) Var(X − Y ) = Var(X) + Var(Y )
3. Var(X + k) = Var(X)
48 A. F. Beraldo
2.5 Assimetria e Curtose
2.5 Assimetria e Curtose
Os conceitos de Assimetria e Curtose, em conjuntos de dados numéricos, já foram
estudados na Apostila I – Estatística Descritiva. Adaptamos estes conceitos para
distribuições de probabilidade:
2.5.1 Assimetria
Uma distribuição de variável aleatória é assimétrica (positiva ou negativa) quando
as maiores densidades de probabilidades ocorrem nos valores inferiores ou superiores do
domínio da variável. Veja os gráficos a seguir:
Figura 2.15: Assimetria positiva
Numa distribuição assimétrica positiva, as maiores probabilidades estão para os
valores de x = 1 e x = 2.
A. F. Beraldo 49
2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas
Figura 2.16: Assimetria negativa
Numa distribuição assimétrica negativa, as maiores probabilidades estão para os
valores de x = 4 e x = 5.
Figura 2.17: Simetria
Numa distribuição simétrica, as maiores probabilidades estão concentradas em torno
da esperança E(x).
50 A. F. Beraldo
2.5 Assimetria e Curtose
A medida da assimetria, em distribuições de probabilidades de variável discreta, é
dada por:
α3 =
∑(x− E(x))3p(x)
s(x)3 =
∑
d3p(x)
s3
, fazendo d = x− E(x) (2.10)
O α3 (alfa-três) pode ser negativo, positivo ou nulo, conforme a distribuição tenha
assimetria negativa, positiva, ou seja simétrica.
2.5.2 Curtose
Curtose é a característica (visual) de achatamento, maior ou menor, de uma dis-
tribuição de probabilidades. Em termos de concentração de probabilidades, quanto
mais concentradas as probabilidades em uma região do domínio da variável aleatória,
menos “achatado” nos parece o gráfico da função densidade. Assim, as distribuições
das variáveis aleatórias podem ser platicúrticas (muito achatadas) ou leptocúrticas
(pontiagudas), ou mesocúrticas (uma categoria intermediária). Observe a seguir:
Figura 2.18: Distribuição leptocúrtica
Neste tipo de distribuição, obtemos valores de desvios padrões muito pequenos, e
uma forte concentração (maior densidade) em torno da esperança.
No caso de uma distribuição mesocúrtica, os picos dos valores de p(x) não são tão
acentuados.
A. F. Beraldo 51
2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas
Figura 2.19: Distribuição mesocúrtica
Figura 2.20: Distribuição platicúrtica
Uma distribuição platicúrtica é mais achatada, mais “espalhada”, com altos desvios
padrões.
Amedida da curtose, em distribuições de probabilidades de variável discreta, é dada
por:
52 A. F. Beraldo
2.5 Assimetria e Curtose
α4 =
∑(x− E(x))4p(x)
s(x)3 − 3 =
∑
d4p(x)
s4
− 3, fazendo d = x− E(x) (2.11)
• Quando α4 > 0 dizemos que a distribuição é leptocúrtica;
• quando α4 = 0 dizemos que a distribuição é mesocúrtica;
• quando α4 < 0 dizemos que a distribuição é platicúrtica.
A curtose, medida pelo α4, é uma estatística de comparação. Compara-se o valor da
expressão:
α4 =
∑
d4p(x)
s4
com o valor do α4 da curva normal4 que é igual a 3, e mesocúrtica. Assim, temos o
α4 da expressão acima.
4Ver Capítulo 3.
A. F. Beraldo 53
2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas
Exemplos:
Tabela 2.11: Distribuição leptocúrtica
x p(x) x.p(x) d d2 d2p(x) d3 d3p(x) d4 d4p(x)
0 0,01 0 −3 9 0,09 −27 −0, 27 81 0,81
1 0,05 0,05 −2 4 0,2 −8 −0, 4 16 0,8
2 0,14 0,28 −1 1 0,14 −1 −0, 14 1 0,14
3 0,6 1,8 0 0 0 0 0 0 0
4 0,14 0,56 1 1 0,14 1 0,14 1 0,14
5 0,05 0,25 2 4 0,2 8 0,4 16 0,8
6 0,01 0,06 3 9 0,09 27 0,27 81 0,81
1 3 Var(x) 0,86 soma 0 196 3,5
s(x) 0,927362 alfa-3 0 4,732288
CV 0,31 alfa-4 1,7
s3 0,797531
s4 0,7396
Tabela 2.12: Distribuição mesocúrtica
x p(x) x.p(x) d d2 d2p(x) d3 d3p(x) d4 d4p(x)
0 0,01 0 −3 9 0,09 −27 −0, 27 81 0,81
1 0,08 0,08 −2 4 0,32 −8 −0, 64 16 1,28
2 0,21 0,42 −1 1 0,21 −1 −0, 21 1 0,21
3 0,4 1,2 0 0 0 0 0 0 0
4 0,21 0,84 1 1 0,21 1 0,21 1 0,21
5 0,08 0,4 2 4 0,32 8 0,64 16 1,28
6 0,01 0,06 3 9 0,09 27 0,27 81 0,81
1 3 Var(x) 1,24 soma 0 196 4,6
s(x) 1,113553 alfa-3 0 2,991675CV 0,37 alfa-4 0,0
s3 1,380806
s4 1,5376
Tabela 2.13: Distribuição platicúrtica
x p(x) x.p(x) d d2 d2p(x) d3 d3p(x) d4 d4p(x)
0 0,1 0 −3 9 0,9 −27 −2, 7 81 8,1
1 0,12 0,12 −2 4 0,48 −8 −0, 96 16 1,92
2 0,18 0,36 −1 1 0,18 −1 −0, 18 1 0,18
3 0,2 0,6 0 0 0 0 0 0 0
4 0,18 0,72 1 1 0,18 1 0,18 1 0,18
5 0,12 0,6 2 4 0,48 8 0,96 16 1,92
6 0,1 0,6 3 9 0,9 27 2,7 81 8,1
1 3 Var(x) 3,12 soma 0 196 20,4
s(x) 1,766352 alfa-3 0 2,095661
CV 0,59 alfa-4 −0, 90
s3 5,511019
s4 9,7344
54 A. F. Beraldo
2.6 Pensando Probabilisticamente: os Modelos de Probabilidades
2.6 Pensando Probabilisticamente: os Modelos de
Probabilidades
Nas páginas anteriores, estudamos a formação da “maneira de pensar” da Estatística.
O sistema teórico que tem por base as variáveis aleatórias e seu comportamento é o que
vai direcionar, daqui por diante, o estudo do método estatístico. Recordando:
• Um fenômeno determinístico ocorre sempre da mesma maneira, sob as mesmas
condições. Se variarmos as causas, quantitativa e qualitativamente, a ocorrên-
cia do fenômeno determinístico se modificará diretamente relacionado com estas
alterações.
• Um fenômeno aleatório (não determinístico) pode produzir uma série de resul-
tados diferentes, mesmo sob as mesmas condições. O conjunto destes resultados
possíveis é chamado Espaço Amostral. A cada evento (resultado possível) deste
fenômeno, associamos um número, chamado probabilidade, que é uma estimativa
numérica da ocorrência deste evento na próxima vez que o fenômeno se repetir.
• Esta probabilidade pode ser calculada de diversas formas, sendo as mais usuais:
a) O cálculo a priori, quando se conhece perfeitamente o espaço amostral, e
considera-se os eventos unitários equiprováveis.
b) O cálculo a posteriori, quando possui-se uma coleção de informações re-
trospectivas de ocorrência dos eventos e pode-se imaginar que, sob as
mesmas condições, os próximos resultados do fenômeno repetirão, aproxi-
madamente, o já ocorrido.
• O conjunto de eventos, agora chamados variáveis aleatórias, e suas probabilida-
des de ocorrência, constituem um modelo descritivo do fenômeno. Este modelo
consiste de uma função de distribuição de probabilidades e de parâmetros
avaliadores. Os parâmetros mais importantes são a esperança matemática, a
variância e o desvio padrão.
• A Esperança Matemática indica o evento, ou os eventos, demaior probabilidade
de ocorrência nas próximas repetições do fenômeno. A variância e o desvio padrão
indicam as oscilações possíveis em torno da esperança do modelo.
A partir destes critérios, temos condição de modelar uma vasta quantidade de fenô-
menos, naturais ou não. As ciências utilizam a Estatística Probabilística para estudar os
fenômenos de suas áreas: as ciências econômicas estudam o comportamento das relações
entre as entidades econômicas, ora determinístico, ora apenas previsível; as ciências
A. F. Beraldo 55
2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas
biológicas utilizam modelos probabilísticos na descrição dos hábitos dos espécimes e sua
evolução; a Química e a Física modelam probabilisticamente o infinitamente pequeno e
o infinitamente grande, e assim por diante. Modelos de Probabilidade “explicam”
desde a migração das aves até as estratégias de marketing do comércio, desde o trânsito
caótico das grandes cidades até a incerteza da posição de elétrons no átomo, desde a
proliferação de doenças até os testes dos medicamentos inventados para combatê-las.
Depois que aprendermos a lidar com modelos de variáveis aleatórias, o aluno, muitas
vezes, incorre numa distorção do entendimento do que seja probabilidade: se, num lance
de dois dados, a esperança da variável “soma” é que “dê soma 7”, com probabilidade
1/6, há uma tendência a se imaginar que, forçosamente, sairá “soma 7”. Não é assim.
Um modelo é estabelecido, seja “a priori” ou “a posteriori”, para que, nas muitas
outras vezes em que o experimento for repetido, sob as mesmas condições,
as ocorrências dos eventos se aproximem do previsto no modelo5. Se isto
acontecer, o modelo está correto; se não acontecer, é indicação de que ou o modelo está
incorreto ou que as condições do experimento já não são mais as mesmas.
Outro engano, também muito comum, é de se imaginar que, uma vez tendo o
modelo se afirmado como satisfatório, esta seja uma verdade eterna, cristalizada, sobre a
realidade. Há que se testar continuamente a aplicação do modelo, verificar as condições,
aperfeiçoar e aprofundar o conhecimento sobre o comportamento das variáveis.
Estas duas atitudes, a consciência de que um fenômeno só se aproxima de
seu modelo probabilístico teórico após um grande número de repetições e
a convicção de que a realidade é dinâmica, mutável e, muitas vezes, surpreendente,
é que caracterizam o “pensar probabilisticamente”.
Nas próximas páginas iremos estudar os modelos de probabilidade mais aplicados na
prática, como o Modelo Binomial, para variáveis discretas, e o Modelo Normal, para
variáveis contínuas. Existem muitos outros modelos, que são, algumas vezes, específicos
de uma área de conhecimento, e não constam desta Apostila. Caso o aluno esteja
interessado, encontrará, na bibliografia disponibilizada no site 6, bons livros sobre este
tema, além de sites na Internet que aprofundam as técnicas de modelagem probabilística.
2.7 As Provas de Bernoulli
O matemático suíço Jacob (Jacques) Bernoulli (1654-1705) estabeleceu condições
para o estudo dos modelos teóricos de probabilidades partindo dos modelos mais simples
para os mais complexos. São as chamadas Provas de Bernoulli, que possuem as
seguintes características:
5Esta frase é especialmente importante. Leia várias vezes cada palavra, pense, e compreenda.
6 Em http://www.ufjf.br/antonio_beraldo/ensino/
56 A. F. Beraldo
2.7 As Provas de Bernoulli
1. Seja um experimento aleatório que gera um espaço amostral Ω;
2. o espaço amostral é dicotômico, isto é, constituído de apenas dois eventos
mutuamente excludentes e complementares, chamados de E (sucesso) e E (não-sucesso);
Relações:
E ∪ E = Ω
E ∩ E = ∅
Figura 2.21: Espaço amostral das provas de Bernouli
3. aos eventos associamos suas probabilidades de ocorrência, sendo P (E) = p e
P (E) = q . Então, temos que:
Figura 2.22: Espaço amostral das provas de Bernouli
P (E) + P (E) = 1 ou p+ q = 1, donde q = 1− p (2.12)
4. O experimento é repetido N vezes. Durante as N repetições, as probabilidades p e
q não se alteram (experimento com reposição) e as diversas repetições do experimento
são independentes entre si – a ocorrência de determinado resultado em uma das
repetições não altera os resultados das próximas repetições e nem é influenciado pelos
resultados anteriores.
A. F. Beraldo 57
2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas
Diz-se que as provas de Bernoulli “não tem memória”. Então, temos que
P (E|E) = P (E) (2.13)
A seguir, estudamos alguns dos principais modelos de Variável Aleatória Discreta.
Começamos com três modelos baseados nas Provas de Bernoulli: o Modelo Geométrico,
o Modelo Binomial e o Modelo de Pascal.
58 A. F. Beraldo
2.8 Distribuição Geométrica
2.8 Distribuição Geométrica
Descrição Consiste numa série de repetições de provas de Bernoulli, que é
interrompida quando ocorre o primeiro sucesso. Pesquisa-se a
probabilidade de termos que repetir N provas de Bernoulli até que
ocorra o primeiro sucesso.
Modelo
P (X = N) = qN−1p (2.14)
Esperança
E(x) = 1
p
(2.15)
Variância
σ2 = Var(x) = q
p2
(2.16)
Assimetria
α3 =
2− p√
q
(2.17)
Curtose
α4 = 6 +
p2
q
(2.18)
Exemplo 2.4. Um jogador lança um dado N vezes, até que saia a Face 6 . Qual é a
probabilidade de a Face 6 só saia no décimo lançamento?
O dado tem seis faces, das quais apenas uma é Face 6. Portanto, P(Face 6) = 1/6.
O “sucesso” pesquisado (F6) tem probabilidade p = 1/6; o evento

Outros materiais