Logo Passei Direto
Buscar
Material
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

Paulo 
Melo 
Rosa 
Andrade 
- , FDIt JES sI~A BO 
Visite a Sílabo na rede: 
www.silabo.pt 
Probabilidades, Variáveis Aleatórias 
Distribuições Teóricas 
Elizabeth Reis 
Paulo Me10 
Rosa Andrade 
Teresa Calapez 
~TDIÇÃO - REVISTA 
E expressamente proibido reproduzir, no todo ou em parte, sob qualquer meio 
ou forma, NOMEADAMENTE FOTOCÓPIA, esta obra. As transgressões serão 
passíveis das penalidades previstas na legislação em vigor. 
Editor: Manuel Robalo 
Título: Estatística Aplicada - Volume 1 
Autores: Elizabeth Reis, Paulo Melo, Rosa Andrade, Teresa Calapez 
O Edições Sílabo, Lda. 
4Wdição - 2Weimpressão 
Capa: Paul Klee (1 879-1 940), Clair de /une à St. Germain, 191 5. 
Lisboa, 2003 
Impressão e acabamentos: Gráfica Manuel A. Pacheco, Lda. 
Depósito Legal: 160052f01 
ISBN: 972-61 8-245-X 
EDIÇÕES S~LABO, LDA. 
R. Cidade de Manchester, 2 
11 70-1 00 LISBOA 
Telf.: 2181 30345 
Fax: 218166719 
e-mail: silaboQsilabo.pt 
www.silabo.pt 
Capítulo I . Introdução 
1 . DUAS RAZÕES PARA SE ESTUDAR ESTAT~STICA . . . . . . . . 17 
2 . A NECESSIDADE DA ESTAT~STICA NAS CIÊNCIAS 
ECONÓMICAS E DE GESTÃO . . . . . . . . . . . . . . . . . . . 17 
3 . MÉTODO ESTAT~STICO DE RESOLUÇÃO DE UM PROBLEMA . . 19 
4 . ESTAT~STICA DESCRITIVA E INFERÊNCIA ESTAT~STICA . . . . . 20 
. 5 ESCALAS DE MEDIDA DOS DADOS ESTAT~STICOS . . . . . . . 22 
5.1. Escala nominal . . . . . . . . . . . . . . . . . . . . . . . . . . 23 
5.2. Escala ordinal . . . . . . . . . . . . . . . . . . . . . . . . . . 24 
5.3. Escala por intervalos . . . . . . . . . . . . . . . . . . . . . . . 24 
5.4. Escala de rácios . . . . . . . . . . . . . . . . . . . . . . . . . 25 
. 6 ALGUMAS CONSIDERAÇÕES FINAIS . . . . . . . . . . . . . . . 25 
. 7 UTILIZAÇÃO DO COMPUTADOR . . . . . . . . . . . . . . . . . . 26 
Capítulo I1 . Teoria das probabilidades 
. 1 RESUMO HIST~RICO . . . . . . . . . . . . . . . . . . . . . . . . 29 
2 . CONCEITOS DA TEORIA DAS PROBABILIDADES . . . . . . . . . 32 
2.1. Experiência aleatória . . . . . . . . . . . . . . . . . . . . . . . 32 
2.2. Espaço de resultados . . . . . . . . . . . . . . . . . . . . . . 33 
2.3. Acontecimentos . . . . . . . . . . . . . . . . . . . . . . . . . 35 
3 . ÁLGEBRA DOS ACONTECIMENTOS . . . . . . . . . . . . . . . . 39 
3.1. União de acontecimentos . . . . . . . . . . . . . . . . . . . . 39 
3.2. Intersecção de acontecimentos . . . . . . . . . . . . . . . . . 40 
. . . . . . . . . . . . . . . . . . 3.3. Diferença de acontecimentos 
. . . . . . . . . . . . . . . . . . 3.4. Propriedades das operações 
. . . . . . . . . . . . . . . . . 4 . CONCEITOS DE PROBABILIDADE 
. . . . . . . . . . 4.1. Conceito clássico de probabilidade (a priori) 
. . . . . 4.2. Conceito frequencista de probabilidade (a posteriori) 
. . . . . 4.3. Conceito subjectivo ou personalista de probabilidade 
. . . . . . . . . 5 . AXIOMAS DA TEORIA DAS PROBABILIDADES 
. . . . . . . . . . . . . . . 6 . PROBABILIDADES CONDICIONADAS 
6.1. Axiomática e teoremas da teoria das probabilidades 
. . . . . . . . . . . . . . . . . na probabilidade condicionada 
7 . PROBABILIDADE DE INTERSECÇÃO DE ACONTECIMENTOS . 
. . . . . . . . . . . . . . ACONTECIMENTOS INDEPENDENTES 
. . . . . . . . 7.1. Probabilidade de intersecção de acontecimentos 
. . . . . . . . . . . . . . . . . 7.2. Acontecimentos independentes 
7.3. Acontecimentos independentes versus acontecimentos 
. . . . . . . . . . . . incompatíveis ou mutuamente exclusivos 
8 . TEOREMA DA PROBABILIDADE TOTAL E FÓRMULA DE BAYES 
. . . . . . . . . . . . . . . . . 8.1. Teorema da probabilidade total 
. . . . . . . . . . . . . . . . . . . . . . . . 8.2. Fórmula de Bayes 
. . . . . . . . . . . . . . . . . . . . . . EXERC~CIOS PROPOSTOS 
Capítulo 111 . Variáveis aleatórias 
. . . . . . . . . . . . . . . . . . . 1 . 1. Enquadramento e exemplos 
. . . 1.2. Cálculo de probabilidades através de variáveis aleatórias 
. . . . . 1.3. Variáveis aleatórias unidimensionais e bidimensionais 
2 . FUNÇOES DE PROBABILIDADE E DE DISTRIBUIÇÃO 
. . . . . . . . . DE VARIÁVEIS ALEATÓRIAS UNIDIMENSIONAIS 
. . . . . . . . . . . . . . . . . . 2.1. Variáveis aleatórias discretas 
. . . . . . . . . . . . . . . . . . 2.1 . 1. Função de probabilidade 
. . . . . . . . . . . . . . . . . . . . 2.1.2. Função de distribuição 
. . . . . . . . . . . . . . . . . . 2.2. Variáveis aleatórias contínuas 
3 . FUNÇOES DE PROBABILIDADE E DE DISTRIBUIÇAO 
DE VARIÁVEIS ALEAT~RIAS BIDIMENSIONAIS . . . . . . . . . . 115 
3.1. Variáveis aleatórias discretas . . . . . . . . . . . . . . . . . . 115 
3.1 . 1. Função de probabilidade conjunta . . . . . . . . . . . . . 115 
3.1.2. Função de distribuição conjunta . . . . . . . . . . . . . . . 117 
3.1.3. Função de probabilidade marginal . . . . . . . . . . . . . 119 
3.1.4. Independência de variáveis aleatórias . . . . . . . . . . . 120 
3.2. Variáveis aleatórias contínuas . . . . . . . . . . . . . . . . . . 121 
3.2.1. Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 
3.2.2. Cálculo de probabilidades . . . . . . . . . . . . . . . . . . 123 
. . . . 3.2.3. Funções de densidade de probabilidade marginais 125 
3.2.4. Independência . . . . . . . . . . . . . . . . . . . . . . . . 126 
4 . PARÂMETROS DE VARIÁVEIS ALEATÓRIAS: VALOR ESPERADO 
E VARIÂNCIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 
4.1. Média ou valor esperado . . . . . . . . . . . . . . . . . . . . 127 
4.1.1. Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 
4.1.2. Propriedades do valor esperado . . . . . . . . . . . . . . 129 
. . . . . . . 4.1.3. Valor esperado de função de variável aleatória 131 
4.1.4. Valor esperado monetário (V.E.M.) . . . . . . . . . . . . . 133 
. . . . . . . . . . . . . . . . . . . . 4.2. Variância e desvio-padrão 137 
. . . . . . . . . . . . . . . . . . 4.2.1. Propriedades da variância 139 
. . . . . . . . . 4.3. Covariância e coeficiente de correlação linear 140 
5 . MOMENTOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 
. . . . . . . . . . . . . . . . . 5.1. Função geradora de momentos 147 
6 . DESIGUALDADES DE MARKOV E CHEBISHEV . . . . . . . . . . 148 
EXERC~CIOS PROPOSTOS . . . . . . . . . . . . . . . . . . . . . . 154 
Capitulo /V . Distribuipões teóricas mais importantes 
1 . DISTRIBUIÇÓES DISCRETAS . . . . . . . . . . . . . . . . . . . . 161 
. . . . . . . . . . . . . . . . . . . . . . 1 . 1. A distribuição uniforme 161 
. . . . . . . . . . . . . . . . . . . . . . . . 1.2. Prova de Bernoulli 166 
. . . . . . . . . . . . . . . . . . . . 1.3. A distribuição de Bernoulli 169 
. . . . . . . . . . . . . . . . . . . . . . 1.4. A distribuição binomial 171 
. . . . . . . . . . . 1.4.1. A função de probabilidade da binomial 172 
1.4.2. Aspecto gráfico da função de probabilidade da binomial . . 177 
. . . . . . . . . . . . . 1.4.3. Parâmetros da distribuição binomial 181 
. . . . . . . . . . 1.4.4. A aditividade nas distribuições binomiais 
. . . . . . . . . 1.4.5. Outras aplicações da distribuição binomial 
. . . . . . . . . . . . . . . . . . . . 1.5. A distribuição multinomial 
. . . . . . . . 1.5.1. Parâmetros mais importantes da multinomial 
. . . . . . . . . . . . . . . . . 1.6. A distribuição binomial negativa 
. . . . . . 1.6.1. Relação entre a binorr.ial e a binomial negativa 
1.6.2. Parâmetros mais importantes da binomial negativa . . . . 
. . . . . . . . . . . . . 1.7. A distribuição geométrica ou de Pascal 
1.7.1. Parâmetros mais importantes da distribuição geométrica . 
. . . . . . . . . . . . . . . . . . 1.8. A distribuição hipergeométrica 200 
1.8.1. Parâmetros mais importantes da distribuição 
. . . . . . . . . . . . . . . . . . . . . . . hipergeométrica 203 
. . . . . .. 1.8.2. Generalização da distribuição hipergeométrica 204 
. . . . . . . . . . . . . . . . . . . . 1.9. A distribuição de Poisson 206 
. . . . . . . . . . . . . . . . . . . 1.9.1. O processo de Poisson 206 
1.9.2. Parâmetros mais importantes da distribuição de Poisson . 209 
. . . . . . . . . 1.9.3. A aditividade nas distribuições de Poisson 212 
. . . . . . 1.9.4. Aproximação da distribuição binomial a Poisson 214 
. . . . . . . . . . . . . . . . . . . 2 . DISTRIBUIÇ~ES CONT~NUAS 219 
. . . . . . . . . . . . . . . . . . . . . . 2.1. A distribuição uniforme 219 
. . . . . . . . . . . . . . . . . . . . . . 2.2. A distribuição normal 222 
. . . . . . . . . . . 2.2.1. Características da distribuição normal 223 
. . . . . 2.2.2. Cálculo de probabilidades na distribuição normal 225 
. . . . . . . . . . . . . 2.2.3. A aditividadada distribuição normal 232 
2.2.4. A distribuição normal como uma aproximação 
. . . . . . . . . . . . . . . . . . . da distribuição binomial 234 
2.2.5. A distribuição normal como aproximação 
. . . . . . . . . . . . . . . . . . da distribuição de Poisson 235 
. . . . . . . . . . . . . . . . . . . . 2.3. A distribuição exponencial 237 
. . . . . . . . . . . . . . . . . . . . . . . 2.4. A distribuição Gama 240 
. . . . . . . . . . . . . . . . . . . . . . EXERC~CIOS PROPOSTOS 244 
Apêndice . Tabelas de distribuição 
. . . . . . . . . . . . . . . . . . . . . . . . . Distribuição binomial 251 
. . . . . . . . . . . . . . . . . . . . . . . . Distribuição de Poisson 256 
. . . . . . . . . . . . . . . . . . . . . . Distribuição normal padrão 263 
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . BIBLIOGRAFIA 265 
Nota a segunda edição 
Esta nova ediçao de tstatistica Aplicada, para além de constituir uma nova 
versão revista e actualizada, apresenta-se agora dividida em dois volumes, 
para, tanto quanto possível, responder as solicitações de muitos dos nossos 
leitores, docentes e alunos, cujos programas de Estatística assim se encontram 
estruturados. 
O primeiro volume, para além do capítulo introdutório, inclui um segundo 
capítulo sobre Teoria das Probabilidades, um terceiro sobre Variáveis Aleató- 
rias, sendo o quarto e último sobre as Distribuições Teóricas mais Importantes. 
Os restantes cinco capítulos da primeira edição fazem agora parte do 
segundo volume. Embora maioritariamente dedicado aos métodos de Inferên- 
cia Estatística (capítulos Vil, VI11 e IX, Estimação de Parâmetros, Ensaios de 
Hipóteses e Testes não-Paramétricos), depois de uma breve introdução aos 
Processos de Amostragem (quinto capítulo), é também feita a apresentação 
das Distribuições Amostrais (capítulo VI). 
Acreditamos que esta solução dará também resposta as preferências de 
muitos outros leitores que, pelo carinho e interesse com que acompanharam 
a primeira edição, pelas sugestões e indicações de gralhas e erros, decidida- 
mente contribuíram para a produção desta nova edição. A todos, os nossos 
agradecimentos. 
Conscientes de que é possível fazer melhor, esperamos que esta nova 
edição vos desperte tanta atenção como a anterior, deixando aqui a promessa 
de nos mantermos empenhados no seu aperfeiçoamento. 
0 s autores 
Lisboa, Setembro de 1997 
Prefácio 
Este livro de Estatística Aplicada destina-se a profissionais licenciados ou 
não e a estudantes universitários que, na vida prática ou no processo de 
aprendizagem, têm necessidade de saber Estatística e de a aplicar aos pro- 
blemas mais variados do dia-a-dia. Como objectivos finais, este livro pretende 
tornar compreensíveis a linguagem e notação estatísticas, bem como exempli- 
ficar as suas potenciais utilizações, sem descurar os pressupostos subjacentes 
e o rigor teórico necessário. 
Deverá referir-se que a escolha do título não foi pacífica. De entre os vários 
alternativos - Probabilidades e Estatística, Inferência Estatística, etc. - a 
preferência por Estatística Aplicada justifica-se pela abordagem diferenciada 
de outras obras já publicadas sobre Inferência Estatística, e que resumidamen- 
te pode ser assim descrita: mais do que <<ensinar,,, pretende-se com este livro, 
a) despertar e estimular o interesse dos leitores pelo método estatístico de 
resolução dos problemas; b) utilizando uma linguagem simples e acessível, 
apresentar os conceitos e métodos de análise estatística de modo mais intuitivo 
e informal; c) acompanhar a apetência teórica com exemplos apropriados a 
cada situação. 
O livro encontra-se dividido em nove capítulos. No capítulo I (Introdução) 
são explicitadas várias razões para que um profissional, técnico, estudante ou 
mero cidadão adquira um nível mínimo de conhecimentos em Estatística. 
A Teoria das Probabilidades é objecto de estudo do capítulo II. Nele são 
apresentados os diferentes conceitos de probabilidade e a sua axiomática, 
dando especial relevo aos teoremas da probabilidade total e de Bayes. 
0 s terceiro e quarto capítulos, tal como o segundo, são essenciais para a 
compreensão dos seguintes, relativos a Inferência Estatística. O capítulo III 
respeita as Variáveis Aleatórias, sua definição, características e propriedades. 
No quarto capítulo estudam-se em pormenor as distribuições de algumas 
variáveis aleatórias de importância maior nas áreas de aplicação das ciências 
sócio-económicas como sejam as distribuições de Bernoulli, binomial, Poisson, 
binomial negativa, hipergeométrica, multinomial, uniforme e normal. 
O capítulo V é dedicado ao estudo dos processos de amostragem, incluindo 
os diferentes métodos de recolha de uma amostra, enquanto que no capítulo 
VI se apresentam as distribuições amostrais mais importantes. 
Os três últimos capítulos são dedicados a Inferência Estatística propriamen- 
te dita. No capítulo VI1 apresentam-se métodos de estimação de parâmetros, 
com ênfase especial para o método de máxima verosimilhança. Inclui-se ainda 
a estimação por intervalos. Os capítulos VIII e IX destinam-se a apresentação, 
respectivamente, dos ensaios de hipóteses paramétricos e não-paramétricos. 
Com excepção do primeiro, todos os restantes capítulos são finalizados com 
um conjunto de exercícios não resolvidos, acompanhados geralmente das 
respectivas soluções. 
No Apêndice estão incluídas as Tabelas (das distribuições) necessárias a 
compreensão do texto e a resolução dos exemplos e dos exercícios propostos. 
Este livro é o resultado de alguns anos de experiência docente dos seus 
autores na equipa de Estatística do ISCTE e da tentativa de responder as 
necessidades sentidas por muitos - alunos e docentes de variadas licencia- 
turas, docentes do ensino secundário, profissionais e técnicos de diferentes 
áreas científicas (gestão, economia, sociologia, psicologia, medicina, enferma- 
gem, engenharia, informática, etc.) - que, no decorrer destes anos, e na falta 
de uma obra que os ajudasse a encontrar as soluções estatísticas apropriadas 
aos seus problemas, procuraram ajuda junto dos autores. 
Sem dúvida que a responsabilidade desta obra é assumida pelos seus 
autores, mas a sua concretização só se tornou possível com a ajuda, apoio e 
disponibilidade de muitos. Por isso, não deixando de agradecer a todos os que, 
directa ou indirectamente, contribuíram para a sua realização, gostaríamos de, 
nominalmente, dar uma palavra especial de agradecimento aos seguintes 
docentes de Estatística do ISCTE: Ana Cristina Ferreira, Ana Paula Marques, 
António Robalo, Fátima Ferrão, Fátima Salgueiro, Graça Trindade, Helena 
Carvalho, Helena Pestana, João Figueira, J.C. Castro Pinto, J.J. Dias Curto, 
Margarida Perestrelo e Paula Vicente. 
Finalmente, uma palavra de apreço a todos os alunos, quer das licenciatu- 
ras do ISCTE, quer dos mestrados do INDEGIISCTE, cujas sugestões, dúvidas 
e problemas certamente contribuíram para enriquecer este livro. 
Os autores 
I. Duasrazões para se estudar estatística 
Existem duas boas razões para se saber Estatística. Primeiro, qualquer 
cidadão está diariamente exposto a um enorme conjunto de informações 
resultantes de estudos sociológicos e de mercado ou económicos, de sonda- 
gens políticas ou mesmo de pesquisa científica. Muitos destes resultados 
baseiam-se em inquéritos por amostragem. Alguns deles utilizam, para o efeito, 
uma amostra representativa de dimensão adequada e recolhida por um pro- 
cesso aleatório. Outros não. Para estes, a validade dos resultados não 
ultrapassa a amostra que os originou. A afirmação de que é fácil mentir com 
Estatística é quase um lugar comum. Qualquer manual que se preze apresenta 
nas primeiras páginas a famosa citação atribuída a Benjamin Disraeli: <<There 
is three kinds of lies: lies, damned lies and statistics),. E o pior é que, de certa 
forma, esta citação é verdadeira: é fácil distorcer e manipular resultados e 
conclusões e enganar alguém não-(in)formado. Mas saber Estatística permite 
que se avaliem os métodos de recolha, os próprios resultados, se detectem e 
rejeitem falsas conclusões. 
Se, para muitos, a necessidade de saber Estatística advém do facto de 
serem cidadãos do mundo, para alguns essa necessidade é acrescida por uma 
actividade profissional que requer a utilização de métodos estatísticos de 
recolha, análise e interpretação de dados. E esta é a segunda razão para se 
estudar Estatística. A utilização da Estatística nas ciências sociais, políticas, 
económicas, biológicas, físicas, médicas, de engenharia, etc, é por demais 
conhecida: os métodos de amostragem e de inferência estatística tornaram-se 
um dos principais instrumentos do método científico. Para todos os que traba- 
lham nestas áreas, é vital um conhecimento básico dos conceitos, 
possibilidades e limitações desses métodos. 
2. A necessidade da estatística nas ciências 
económicas e de gestão 
Nas áreas económicas e de gestão de empresas, a Estatística pode ser 
utilizada com três objectivos: (1) descrever e compreender relações entre 
diferentes características de uma população, (2) tomar decisões mais correctas 
e (3) fazer face a mudança. 
ESTA J/.SJICA APLICADA 
A quantidade de informação recolhida, processada e finalmente apresenta- 
da a um comum mortal cresce tão rapidamente que um processo de selecção 
e identificação das relações mais importantes se torna imprescindível. É aqui 
que a Estatística poderá dar o seu primeiro contributo, quer através de métodos 
meramente descritivos, quer utilizando métodos mais sofisticados de genera- 
lização dos resultados de uma amostra a toda a população. 
Uma vez identificadas as relações, estas poderão constituir uma ajuda 
preciosa a tomada de decisões correctas em situações de incerteza. Veja-se 
o seguinte exemplo. 
Através de métodos estatísticos adequados, determinada instituição bancá- 
ria identificou as características sócio-económicas daqueles que considera 
serem bons clientes. Esta identificação permite-lhe, no futuro, rejeitar pedidos 
de crédito por parte de potenciais clientes, cujas características mais se afas- 
tam das anteriores. 
Planear significa determinar antecipadamente as acções a empreender no 
futuro. Para fazer face a mudança, é necessário que as decisões e o planea- 
mento se apoiem numa análise cuidada da situação presente e numa previsão 
realista do que acontecerá no futuro. 
Os métodos estatísticos de previsão não permitem adivinhar com uma 
precisão absoluta os acontecimentos futuros, mas permitem medir as variações 
actuais e estabelecer os cenários futuros mais prováveis, diminuindo, de algum 
modo, a incerteza inerente a esses acontecimentos futuros. 
Na gestão das empresas, a tomada de decisão é crucial e faz parte do 
dia-a-dia de qualquer gestor. As consequências dessas decisões são dema- 
siado importantes para que possam basear-se apenas na intuição ou feeling 
momentâneos. 
Os gestores são responsáveis pelas decisões mesmo quando estas se 
baseiam em informações incompletas ou incertas. É precisamente porque a 
informação disponível está associado um elevado grau de incerteza que a 
Estatística se tornou tão importante no processo de tomada de decisões: a 
Estatística permite a extracção de conclusões válidas a partir de informação 
incompleta. 
O ambiente de formação de uma decisão varia de um extremo em que 
muita, pouca, ou nenhuma informação está disponível, ao extremo oposto em 
que o decisor detém toda ou quase toda a informação sobre a situação. Este 
último extremo significa que o decisor conhece a situação de todos os elemen- 
tos da população. A informação disponível a partir dos recenseamentos do INE, 
realizados de 10 em 10 anos, é um exemplo. Mas a situação mais comum 
para os gestores é aquela em que quase nenhuma informação se encontra 
disponível. Veja-se o exemplo do lançamento de um novo produto utilizando 
tecnologia de ponta praticamente desconhecida dos consumidores. Como irão 
estes reagir ao lançamento do novo produto? A partida, pouca ou nenhuma 
informação existe para que o gestor possa responder a esta pergunta. 
A Estatística fornece aos gestores instrumentos para que possam responder 
a estas questões e tomar decisões com alguma confiança, mesmo quando a 
quantidade de informação disponível é pequena e as situações futuras são de 
elevada incerteza. 
3. Método estatístico de resoluçáo 
de um problema 
Para que se obtenham resultados válidos, o investigador deve seguir todos 
os passos que definem o método estatístico de resolução de problemas: 
1. Identificar correctamente o problema em análise. Mesmo em estudos 
exploratórios cujo objectivo é identificar possíveis relações entre as caracterís- 
ticas dos indivíduos sem que, a partida, se defina um modelo regulador dessas 
relações, é necessário identificar o problema para o qual se pretendem encon- 
trar respostas. 
2. Recolher a informação necessária, relevante para o problema em estudo, 
em tempo útil e tão completa quanto possível. Esta informação poderá consistir 
em dados primários, recolhidos através de um questionário, ou dados secun- 
dários, recolhidos e publicados através de outra fonte de informação. 
3. Classificar e organizar os dados, por exemplo, através da codificação e 
criação de uma base de dados em suporte informático. Uma vez ultrapassada 
esta fase, é já possível reduzir a quantidade de informação, fazendo desapa- 
recer os pormenores menos importantes através de medidas de estatística 
descritiva (medidas de tendência central, dispersão, concentração, etc ), qua- 
dros e gráficos. 
4. Análise dos dados e apresentação dos resultados: identificar relações, 
testar hipóteses, definir modelos com a ajuda de métodos estatísticos apro- 
priados. 
ESTAT~STICA APLICADA 
5. Tomar a decisão mais adequada, ponderando as possíveis opções face 
aos objectivos inicialmente propostos. A qualidade da informação recolhida e 
as capacidades do investigador determinam, em grande parte, a adequabilida- 
de das opções propostas. 
Esta tis tica descritiva e in ferêncía estatística 
Embora a classificação e organização dos dados a que se faz referência 
no terceiro passo seja ainda um capítulo importante da Estatística - a Esta- 
tística Descritiva - um segundo capítulo torna-se muito mais importante, 
quando os dados recolhidos respeitam apenas a um subconjunto da população 
em estudo e não a toda a população - a Inferência Estatística. Só quando o 
grupo sobre o qual se pretende obter informação é de dimensão reduzida, se 
torna viável recolher essa informação para todos os elementos desse grupo. 
O recenseamento de uma população envolve custos e tempos demasiado 
elevados para serem suportados por organizações não vocacionadas para o 
efeito. Por essa razão, se tornaram populares e se generalizaram a todos os 
domínios científicos as técnicas de amostragem.Contrariamente a um recenseamento, onde se recolhe informação sobre as 
características de toda uma população, uma amostra fornece informação sobre 
um subconjunto dessa população. 
Os métodos de Inferência Estatística permitem (1) estimar as características 
desconhecidas de uma população (por exemplo, a proporção de consumidores 
que preferem uma dada marca de detergentes) e (2) testar se determinadas 
hipóteses sobre essas características desconhecidas são plausíveis (por 
exemplo, se a afirmação de um vendedor de que os resultados de lavagem 
da marca que vende são superiores aos de outras marcas concorrentes). 
Nos exemplos anteriores, as características das populações (proporção de 
consumidores e resultados médios da aplicação do produto) são os parâme- 
tros. Quando respeitam a uma amostra, estes indicadores estatísticos passam 
a chamar-se estatísticas. 
0 s métodos de Inferência Estatística envolvem o cálculo de estatísticas, a 
partir das quais se infere sobre os parâmetros da população, isto é, permitem, 
com determinado grau de probabilidade, generalizar a população certas con- 
clusões, por comparação com os resultados amostrais. 
Exemplos de parâmetros são a média de uma população (p), a variância 
(o2) ou o desvio-padrão (o). Como exemplos de estatísticas: a média (X), a 
variância (s2) OU O desvio-padrão ( s ) amostrais. 
A distinção entre parâmetro e estatística torna-se extremamente importante 
na Inferência Estatística. Muitas vezes pretende-se estimar o valor de um 
parâmetro ou fazer um teste de hipóteses sobre o seu valor. No entanto, o 
cálculo dos parâmetros é, geralmente, impossível ou impraticável, devido aos 
requisitos de tempo e dinheiro a que obriga. Nestes casos, a escolha de uma 
amostra aleatória permite que se obtenha uma estimativa para o parâmetro. A 
base da Inferência Estatística consiste, assim, na possibilidade de se tomarem 
decisões sobre os parâmetros de uma população, sem que seja necessário 
proceder a um recenseamento de toda a população. 
%+-?+%.o. **.. 
Exemplo 
Um industrial de máquinas de lavar quer determinar qual o número médio de 
lavagens de determinado tipo de máquina (lavar e secar), até que necessitem de 
reparação. O parâmetro que pretende conhecer é o número médio de lavagens 
das máquinas até serem reparadas. O técnico da sua fábrica selecciona aleato- 
riamente algumas máquinas da sua produção mensal, e verifica as lavagens 
efectuadas até ocorrer uma avaria, calculando, em seguida, para as máquinas da 
amostra, o número médio de lavagens, isto é, a média amostral. 
A figura seguinte demonstra o processo seguido. 
Amostra aleatória 
Amostra 
Estatísticas (conhecidas) 
Parâmetros (desconhecidos) / 
Inferência Estatística 
ESTAT~STICA APLICADA 
O processo de generalizar a população os resultados recolhidos na amostra 
é feito num ambiente de incerteza. A não ser que o valor dos parâmetros seja 
calculado a partir de todos os elementos da população, nunca se saberá com 
certeza se as estimativas ou inferências feitas são verdadeiras ou não. Num 
esforço para medir o grau de confiança ou de certeza associado aos resultados 
do processo de inferência, a Estatística utiliza a teoria das probabilidades. Por 
essa razão se dedica um capítulo deste livro ao estudo das probabilidades. 
5. Escalas de medida dos dados estatístícos 
Os exemplos de dados que diariamente se podem recolher são dos mais 
variados. Vejamos alguns: a temperatura máxima na cidade de Lisboa; a cota- 
ção do escudo e das restantes moedas do Sistema Monetário Europeu; as 
taxas de inflação dos países da União Europeia; as exportações de material 
electrónico dos países da Ásia Oriental; a distribuição etária da população do 
concelho de Lisboa; a distribuição por sexos dessa mesma população; as 
profissões da população da Marinha Grande; a distribuição dos emigrantes 
portugueses por países de acolhimento; as preferências da população portu- 
guesa no que respeita as suas viagens de férias; as preferências dos portu- 
gueses em relação aos quatro canais de televisão nacional; as quotas de 
mercado das diferentes marcas de automóveis utilitários. 
Estes exemplos de dados estatísticos diferenciam-se, não só por se referi- 
rem a características de diferentes populações, mas também por estarem 
definidos em diferentes escalas de medida e, portanto, por necessitarem de 
diferentes métodos estatísticos para os descreverem e analisarem. São quatro 
os tipos de escalas de medida: nominal, ordinal, por intervalos e por rácios. 
Nem sempre é evidente a distinção entre estas escalas, sobretudo entre as 
duas últimas. A classificaqão que se descreverá em seguida é a adoptada pelos 
autores deste livro, embora se reconheça não existir unanimidade neste domí- 
nio. 
Resumo histórico 
Não é possível fazer a história da Estatística sem falar em probabilidades. 
Estas tiveram a sua origem no estudo dos jogos de azar, já conhecidos dos 
Egípcios 3500 anos A.C. Mas só no século xvi se assiste a primeira tentativa 
de desenvolver uma teoria das probabilidades. 
Cardano foi um dos primeiros a tentar descrever um método de cálculo 
das probabilidades bem como as suas leis básicas. Cardano pode ser consi- 
derado como um verdadeiro cientista da Época Renascentista: escreveu sobre 
todas as áreas de estudo da época incluindo a matemática, a teologia, a 
cosmologia e a medicina. Com o seu livro intitulado The book on games of 
chance, Cardano não só explica as leis da probabilidade como analisa os jogos 
de azar e ensina a jogar e a detectar os abatoteiros)). A sua experiência como 
jogador inveterado ajuda-o a analisar correctamente os jogos de dados e a 
compreender, também de modo correcto, o cálculo de probabilidades para os 
casos simétricos ou igualmente prováveis. Nestes casos, a probabilidade de 
um acontecimento é o quociente entre o número de resultados que permitem 
a realização desse acontecimento e o número total de resultados possíveis. 
Por exemplo, a probabilidade de que saia uma face par no lançamento de um 
dado é 3/í, uma vez que há seis resultados possíveis (1, 2, 3, 4, 5, 6) e três 
deles são números pares (2,4,6). Uma importante lei probabilística descoberta 
por Cardano foi a lei do produto de acontecimentos independentes. A proba- 
bilidade de sair «Face,> quando se lança uma moeda é 1/2. A probabilidade de 
sair <(Face 2,) quando se lança um dado é 1/6. A probabilidade de estes dois 
acontecimentos ocorrerem quando se lança uma moeda e um dado é o produto 
das duas: ( 1 4 . ('/E) = 1/12. 
Cinco décadas mais tarde, Galileu respondeu aos jogadores sobre uma 
questão que, aparentemente, os preocupava: quando se lançam três dados, o 
total de 10 pontos ocorre mais vezes que um total de 9, o que Ihes parecia 
contraditório uma vez que é igual o número de combinações (6) que somam 
9 (621, 531, 522, 441, 432, 333) e 10 pontos (631, 622, 541, 532, 442, 433). 
Mas Galileu mostrou que só é possível que os resultados tenham diferente 
probabilidade se a ordem for também tomada em consideração e, nesse caso, 
ESTAT~STICA APLICADA 
o número de resultados com soma igual a 9 é de 25, e com soma igual a 10, 
de 27, resultando em probabilidades de 25/21s e 27/216, respectivamente. O 
que muitos autores se admiram é que os jogadores se tenham apercebido 
desta diferença tão diminuta! 
O estudo sistemático das leis das probabilidades teve um contributo impor- 
tante com Pascal e Fermat e a correspondência trocada entre ambos. Tudo 
começou quando Chevalier de Méré, conhecido escritor e ardente jogador da 
corte de Luís xiv, consultou Fermat sobre problemas de divisão de apostas e 
interrupções antes de se completar um jogo. 
Blaise Pascal (1 623 - 1662) era uma criança prodígio que aos dezasseis 
anos já tinha escrito um livro e aos dezoito inventado uma máquina calcula- 
dora. Pierre de Fermat (1601- 1665) era um jurista de Toulouse que nos 
tempos livres se dedicava ao estudo da matemática, tendo já sido considerado 
como o maior matemático puro de todos os tempos. 
Se de Cardano se pode afirmar que marcou o fim da pré-história da Teoria 
das Probabilidades, Fermat e Pascal deram o passo decisivo no desenvolvi- 
mento desta teoria e na fundamentação teórica da Inferência Estatística. No 
final do século xvii, Leibniz publicou duas obras, uma sobre problemas com- 
binatórios, e outra sobre a aplicação das probabilidades as questões 
financeiras. Foi sob o seu conselho que Jacques Bernoulli estudou o assunto 
de tal modo que o cálculo das probabilidades adquire finalmente o estatuto de 
ciência. O teorema de Bernoulli apresenta pela primeira vez a correspondência 
entre frequências e probabilidades, dando origem a um novo conceito de 
probabilidade. O conceito de probabilidade inversa é definido por Thomas 
Bayes ainda no século xviii. A importância dos resultados de Bayes só vem a 
ser reconhecida quase dois séculos depois, quando se forma, dentro da Esta- 
tística, uma nova corrente: a escola Bayesiana. 
Durante o século xix o desenvolvimento do cálculo das probabilidades 
deveu-se ao contributo de três astrónomos: Laplace, Gauss e Quetelet. 
Muitos dos desenvolvimentos posteriores, nomeadamente da escola russa 
(Chebyshev, Markov e Lyapunov), baseiam-se na análise e desenvolvimento 
da obra de Laplace. Gauss explanou uma teoria sobre a análise de observação 
aplicável a qualquer ramo da ciência, contribuindo, assim, para alargar o 
campo de aplicação do cálculo das probabilidades. Quetelet iniciou a sua 
aplicação aos fenómenos sociais. A ele se deve a introdução do conceito de 
<<homem médio. e a chamada de atenção para a consistência dos fenómenos 
sociais. 
TEORIA DAS PROBABILIDADES 
A distinção entre Estatística e Probabilidades parece já ser impossível. 
Desde o final do século xix que muitos contribuíram para o desenvolvimento 
da Estatística com valiosas antecipações que só mais tarde puderam ser 
plenamente compreendidas. De entre estes talvez se possam destacar Karl 
Pearson, William Gosset que escreveu sob o pseudónimo de ((Studentn e 
Ronald Fisher, pelo vigoroso impulso dado a Estatística. Pearson, que se 
dedicou ao estudo da correlação, cuja descoberta é atribuída a Galton, foi um 
entusiasta do evolucionismo de Darwin, desenvolveu extraordinariamente os 
métodos de tratamento de dados, para além de se interessar pelo cálculo das 
probabilidades. Em 1894, depois de analisar um elevado número de resultados 
das roletas num casino, chegou a conclusão de que estas estavam viciadas e 
que não serviam como laboratório para análise das probabilidades; em suma, 
a razão de ser dos casinos não era, de modo nenhum, científica. Mas estas 
experiências no início da sua carreira não deixaram de ser úteis na aplicação 
que fez da teoria das probabilidades a evolução biológica e a importantes 
descobertas estatísticas como o teste do qui-quadrado, utilizado para testar se 
uma dada distribuição de frequência segue determinada distribuição probabi- 
Iística. Gosset, ou seja, «Student>), trabalhava para uma empresa produtora de 
cervejas - a Guiness - e começou uma nova fase nos estudos estatísticos 
com os métodos de tratamento de pequenas amostras. Fisher deu, talvez, a 
mais importante contribuição a Estatística Matemática e a sua divulgação. O 
livro que publicou em 1925, Statiscal Methods for Research Workers, permitiu 
aos investigadores a familiarização necessária com os métodos estatísticos e 
a sua aplicação a problemas práticos. 
Muitos outros nomes poderiam ser referidos neste percurso de quase quatro 
séculos. Todos contribuíram para que, quando Fisher publicou o seu livro, há 
muito se tivesse deixado de definir Estatística como (<o estudo dos assuntos 
de Estado,,, associando-a a teoria das probabilidades. Com o século xx, a 
Estatística tornou-se um instrumento de análise poderoso aplicado em todas 
as áreas do saber e a que o desenvolvimento informático veio dar novo fôlego. 
Conceitos da teoria 
de probabilidades 
Se lhe perguntassem o significado da seguinte frase - (<Se lançar uma 
moeda ao ar, a probabilidade de sair (<Face>> é )> - a sua resposta talvez 
fosse: <<Só há dois resultados possíveis com iguais hipóteses de ocorrerem>>. 
Mas suponha que lhe perguntavam também: (<Qual a probabilidade de um carro 
avariar ao atravessar a ponte 25 de Abril?),. Também aqui existem apenas dois 
resultados possíveis: ao atravessar a ponte ou o carro avaria ou não avaria. 
Mas já será impossível responder que essa probabilidade é l/2. A simetria ou 
equiprobabilidade existente na primeira experiência (lançamento de uma moe- 
da ao ar) já não se verifica na segunda. Esta é a situação mais comum, a de 
experiências cujos resultados são influenciados pelo acaso e aos quais estão 
associadas diferentes probabilidades. 
2.1. Experiência aleatória 
São objecto de estudo na teoria das probabilidades os fenómenos aleató- 
rios, ou seja, acontecimentos influenciados pelo acaso. Na base desta teoria 
está o conceito de experiência aleatória, isto é, o processo de observação ou 
de acção cujos resultados, embora podendo ser descritos no seu conjunto, não 
são determináveis a priori, antes de realizada a experiência. 
Uma experiência aleatória tem como características (Murteira, 1979: 16): 
- A possibilidade de repetição da experiência em condições similares; 
- Não se poder dizer a partida qual o resultado (fenómeno aleatório) da 
experiência a realizar, mas poder descrever-se o conjunto de todos os 
resultados possíveis; 
- A existência de regularidade quando a experiência é repetida muitas 
vezes. 
TEORIA DAS PROBABILIDADES 
É com base nesta última característica que se desenvolve toda uma teoria 
e um conjunto de modelos probabilísticos tendentes a explicar os fenómenos 
aleatórios e a dar uma indicação da maior ou menor probabilidade da sua 
ocorrência. A experiência aleatória contrapõe-se a experiência não aleatória ou 
determinística, aquela cujo resultado pode ser conhecido antes da sua reali- 
zação. Por exemplo, o valor da velocidade de propagação do som (340 mls) 
é conhecido mesmo antes de realizada a experiência, o mesmo acontecendo 
com a medição da temperatura de entrada em ebulição da água, cujo resultado 
(lOoO C) é conhecido a priori. Já o mesmo não sucede quando lançamos ao 
ar um dado ou extraímos uma carta dum baralho, quando medimos a duração 
de vida de uma Iâmpada ou observamos o resultado do exame de um estu- 
dante escolhido ao acaso. Embora se possa dizer, no caso do exame, que o 
estudante irá obter uma classificação entre O e 20 valores, não podemos 
afirmar qual a classificação exacta que o estudante obterá, se por exemplo 10, 
14 ou 18 valores. Essa classificação só será conhecida depois de realizado o 
exame. O mesmo acontece com a duração de vida de uma Iâmpada; talvez 
se possa afirmar que ela durará entre O e 100 horas, mas o valor exacto da 
sua duração não é conhecido senão depois de a Iâmpada se ter fundido. 
Quando lançamos ao ar um dado e observamos o número inscrito na face 
voltada para cima, podemos descrever o conjunto de todos os resultados que 
poderão ocorrer (1, 2, 3, 4, 5 e 6), mas já é impossível, antes de efectuarmos 
o lançamento, afirmar qual a face que irá sair. Depois de efectuado o lança- 
mento, certamente que alguma face terá ocorrido, por exemplo a face 3. 
Dizemos então que <<3), é o resultado desta experiência aleatória. 
2.2. Espaço de resultados 
Numa determinada experiência aleatória, o conjunto de todos os resultados 
possíveis designa-se por espaço de resultados, e representa-se pela letra 
grega C&. 
No exemplo do lançamento do dado, L2 = { 1, 2, 3, 4, 5, 6 } . 
A maior parte das vezes não se descrevem em detalhe as condições e as 
circunstâncias que caracterizam umaexperiência aleatória. É esta de resto a 
dificuldade de fundo do cálculo das probabilidades: descrição das condições 
uniformes em que um acontecimento aleatório se verifica ou não. 
ESTAT~STICA APLICADA 
Se o número de elementos do espaço de resultados for finito ou infinito 
numerável trata-se de um espaço de resultados discreto; havendo um número 
infinito não numerável de elementos dispõe-se de um espaço de resultados 
contínuo. Um espaço de resultados pode ser ainda quantitativo ou qualitativo, 
conforme a natureza dos elementos que o compõem. A indicação dos elemen- 
tos do espaço de resultados pode fazer-se, quer pela enumeração de todos 
os elementos que o compõem (quando são em número finito, evidentemente) 
- definição por extensão - quer pela descrição abreviada desses elementos 
- definição por compreensão. 
Uma loja abre as 9 horas e encerra as 19. Um cliente, tomado ao acaso, entra 
na loja no momento X e sai no momento Y (tanto X como Y são expressos em 
horas com origem nas 9). Pretende observar-se os momentos de entrada e saída 
do cliente. 
Como a chegada e saída de um cliente se processa ao acaso, logicamente 
que poderá ocorrer em qualquer momento no tempo, entre as 9 e as 19 horas, 
pelo que X e Y são variáveis contínuas com X < Y. Portanto, o espaço de 
resultados R é infinito não numerável, podendo descrever-se da forma seguinte: 
(definição de R por compreensão). 
- * - .-> -. -. . - . 
Exemplo 2 
Considere-se a experiência aleatória que consiste no lançamento de um dado 
e observação do número inscrito na face voltada para cima. 
O espaço de resultados é 
R = {1,2,3,4,5,6) 
(definição de R por extensão). 
TEORIA DAS PROBABILIDADES 
2.3. A con tecimentos 
Retome-se o exemplo da experiência aleatória que consiste no lançamento 
de um dado e cujo espaço de resultados é L2 = {1,2,3,4,5,6 ) . 
Sendo o espaço de resultados um conjunto, é possível formar subconjuntos 
dos seus elementos, como, por exemplo: 
cujo significado é, respectivamente: 
A: saída de face 2 
B: saída de face ímpar 
C: saída de face divisível por 3. 
A, B e C, sendo subconjuntos de Q, são simultaneamente conjuntos de 
resultados possíveis da experiência aleatória. Designam-se por acontecimentos. 
Um acontecimento é, pois, um conjunto de resultados possíveis de uma 
experiência aleatória ou, de modo equivalente, qualquer subconjunto do espa- 
ço de resultados é um acontecimento definido em i2 (eventualmente o próprio 
Q ou o conjunto vazio 0). 
Um acontecimento A relativo a um determinado espaço de resultados Q e 
associado a uma experiência aleatória é simplesmente um conjunto de resul- 
tados possíveis. Diz-se que A se realizou, se o resultado da experiência 
aleatória, w, é um elemento de A, isto é, se o, E A. 
Não se deverá confundir acontecimento com resultado. Enquanto que o 
primeiro significa algo que a experiência aleatória pode produzir, mas não se 
realiza necessariamente, um resultado indica algo que a experiência aleatória 
produziu. Ou seja, o conceito de resultado só tem sentido depois de realizada 
a experiência, enquanto que o conceito de acontecimento tem pleno sentido 
mesmo antes da experiência aleatória se realizar. 
Um acontecimento, A, diz-se acontecimento elementar se a sua realização 
depender da ocorrência de somente um resultado específico da experiência 
aleatória. 
ESTAT~STICA APLICADA 
Por oposição poder-se-á definir um acontecimento complexo ou composto 
aquele cuja realização implica a ocorrência de um resultado da experiência 
aleatória, qualquer um de entre os vários possíveis para aquele acontecimento. 
",-." , , _*.. . . _. .l . ' * , , '"- ." ..-. < < . I.",..IIV *.^ - . < >. ..,..- "- 1 - - 
Exemplo 3 
Admita-se a seguinte experiência aleatória: contagem do número de peças 
produzidas por uma máquina até ao aparecimento de uma peça defeituosa. 
A experiência consiste, portanto, em contar as peças produzidas pela máqui- 
na, interrompendo-se essa contagem no momento em que surgir uma defeituosa. 
Como se poderá verificar, qualquer número inteiro pode ser um resultado da 
experiência: 
- pode ser 0, se a primeira peça retirada for defeituosa; 
- pode ser 1, se a primeira peça for boa e a segunda defeituosa; 
- pode ser 2, se as duas primeiras forem boas e a terceira defeituosa; 
- e assim por diante. Em geral, poderá ser n se as primeiras n peças forem 
boas e a n + 1 defeituosa. 
O espaço de resultados associado a esta esperiência aleatória é o conjunto 
dos números inteiros 
Serão acontecimentos, por exemplo, os seguintes subconjuntos de Q: 
ou 
A: contam-se seis peças até sair uma defeituosa. 
B: conta-se um número par de peças até sair uma defeituosa. 
Para que A se realize terá que ocorrer um, e sómente um, dos possíveis 
resultados da experiência aleatória (6); diz-se então que A é um acontecimento 
elementar. Pelo contrário, para que B se realize, basta que ocorra um, mas 
qualquer um, de entre os vários resultados possíveis, e que são todos os que 
correspondem a contagens pares (2, 4, 6, 8 ...). Trata-se, portanto, de um acon- 
tecimento complexo. 
Torna-se ainda mais nítida a diferença entre acontecimento e resultado 
quando se trata de acontecimentos complexos: enquanto que o primeiro prevê 
a possibilidade de ocorrência de vários resultados, depois de realizada a 
experiência aleatória apenas ocorrerá um desses resultados possíveis. 
Na Teoria das Probabilidades, um acontecimento não é, nem um conceito 
referente ao passado, nem um conceito com ocorrência assegurada no futuro. 
É apenas uma eventualidade (acontecimento elementar) ou um conjunto de 
eventualidades (acontecimento complexo) cuja ocorrência depende do acaso. 
Os acontecimentos podem ainda ser classificados em certos, possíveis e 
impossíveis. 
Considere-se a experiência aleatória que consiste em medir o tempo neces- 
sário para que um aluno com o 12Qno obtenha uma licenciatura em gestão de 
empresas. Admitindo-se que nenhum destes alunos poderá levar mais de 20 anos 
para tal e considerando que em algumas instituições universitárias a duração 
mínima da licenciatura é de quatro anos, o espaço de resultados desta experiên- 
cia aleatória será: 
Sejam os seguintes acontecimentos 
A: o tempo necessário para obtenção da licenciatura é de 5 anos 
6: o tempo necessário é igual ou superior a 4 anos mas não superior a 20 
anos. 
C o tempo necessário é de 2 anos. 
Poder-se-á dizer que A é um acontecimento possível, B é um acontecimento 
certo e C é um acontecimento impossível. 
6 é um acontecimento certo porque ocorre sempre, sendo o conjunto que o 
define 
6 = [4,20] 
exactamente coincidente com o próprio espaço de resultados. Já o acontecimento 
C não ocorre, qualquer que seja o resultado da experiência aleatória e, como não 
existe qualquer resultado que torne viável a sua realização, o conjunto que define 
C é o vazio: 
c = 0 
ESTAT~STICA APLICADA 
O acontecimento A situa-se, relativamente a B e C, numa situação intenédia 
quanto ao grau de possibilidade de se realizar. A é apenas possível, podendo 
ocorrer ou não depois de realizada a experiência aleatória. 
Considere-se um novo acontecimento 
D: o tempo necessário para obtenção da licenciatura é superior a 4 e inferior 
a 6 anos 
OU 
D = ]4,6[. 
Verifica-se que quando A se realizar, D também se realiza, uma vez que A é 
um subconjunto de D. 
Então, A é um sub-acontecimento de D, A c D, pois a realização de A implica 
a realização de D. 
d~gebra dos acontecimentos Q 
Definiu-se acontecimento como um conjunto de resultados possíveis de 
uma experiência aleatória. Esta definição sugere'que se poderá utilizar todos 
os instrumentos da teoria dos conjuntos para representar os acontecimentos 
e as operações que se definem sobre estes. Por exemplo, o diagrama de Venn 
revela-se de extrema utilidadena representação de acontecimentos: o conjunto 
universal é identificado como o espaço de resultados L2 da experiência alea- 
tória e cada acontecimento A por uma região interior a Q. 
De modo idêntico, o diagrama de Venn pode ser utilizado para representar, 
de forma simplificada e sugestiva, as operações que se definem sobre acon- 
tecimentos: união ou soma lógica, intersecção ou produto lógico e diferença. 
3.1. União de acontecimentos 
ESTAT~TICA APLICADA 
A união de acontecimentos implica, pois, a ideia de disjunção, de alternativa, 
traduzida por ou; para que se realize o acontecimento união basta que ocorra 
pelo menos um dos acontecimentos: ou A, ou B ou ambos. 
Diagramaticamente, a união de A com B pode representar-se da seguinte 
forma: 
A operação união de acontecimentos pode ser generalizada a mais de dois 
acontecimentos. 
Dada uma sucessão infinita de acontecimentos Al, A2, ..., A,, ... , define- 
m 
se a sua união Ai como sendo o acontecimento que ocorrerá se e 
i= 1 
somente se ocorrer pelo menos um dos acontecimentos Ai. 
3.2. Intersecção de acontecimentos 
Contrariamente a união, a intersecção implica a ideia de conjunção, simul- 
taneidade ou sequência, a ideia de e: o acontecimento A B só se realiza 
TEORIA DAS PROBABILIDADES 
quando se realizarem os acontecimentos A e 9. Diagramaticamente, a inter- 
secção de A e B pode ser representada da seguinte forma: 
Também esta operação pode ser generalizada a um conjunto, finito ou 
infinito, de acontecimentos. 
Há certos acontecimentos que não podem ocorrer simultaneamente, logo 
a sua intersecção é o acontecimento impossível, isto é, corresponde a um 
conjunto vazio. Acontecimentos nestas condições, em que a ocorrência de um 
exclui a ocorrência dos restantes, dizem-se mutuamente exclusivos ou incom- 
pa tíveis. 
No diagrama de Venn anterior representam-se três acontecimentos mutua- 
mente exclusivos. 
. - . 
Exemplo 5 
Seja a experiência aleatória que consiste no lançamento de um dado e os 
dois acontecimentos a ela associados: 
A : saída de face par; A = { 2 , 4 , 6 ) 
B : saída de face ímpar; B = { 1,3,5 ) 
A e B são mutuamente exclusivos ou incompatíveis, uma vez que não podem 
ocorrer simultaneamente: se ocorre A, isto é, sai face par, não pode ocorrer B e 
vice-versa. 
3.3. Diferença de acontecimentos 
Diagramaticamente 
TEORIA DAS PROBABILIDADES 
Seja a experiência aleatória que consiste em medir o consumo médio per 
capita de cerveja em Portugal (em litros) e A e B os seguintes acontecimentos: 
A: o consumo médio per capita é superior ou igual a 30 litros mas inferior a 
50 litros. 
B: o consumo médio per capita é igual ou superior a 40 litros mas inferior a 
75 litros. 
A - B é o acontecimento «o consumo médio per capita é igual ou superior a 
30 litros mas inferior a 40 litros» dado que 
ESTAT~STICA APLICADA 
3.4. Propriedades das operações 
Em seguida apresentam-se as propriedades mais importantes das opera- 
ções de união e intersecção de acontecimentos. 
PROPRIEDADES 
1 . Comutativa 
/ 3. Distributiva I A u ( B n C ) = / A n < B u C ) = I 
UNIÁO 
2. Associativa 
INTERSECÇÁO 
A U B = B U A A n B = B n A 
A u ( B u C ) = ( A u B ) u C 
4. Idempotência 
A n < B n c > = < A n B ) n c 
5. Lei do complemento 
6. Leis de De Morgan 
A u A = A 
7. Elemento neutro 
A n A = A 
A 2 = Q 
- 
A = 2 ij 
8. Elemento absorvente 
A ~ Ã = D 
A ~ B = Ã u B 
A u 0 = A A n Q = A 
A = Q A n 0 = 0 
Conceitos de probabilidade a 
Quais as hipóteses de que o rio Douro venha a ter um caudal abaixo do 
normal no próximo Verão? Qual a probabilidade de que a procura de automó- 
veis movidos a energia eléctrica venha a aumentar no próximo ano? Qual a 
probabilidade de que os trabalhadores do Metropolitano de Lisboa entrem em 
greve na próxima sexta-feira? As respostas a estas perguntas são dadas em 
termos da probabilidade ou verosimilhança de que cada um destes aconteci- 
mentos ocorra, sendo esta identificada como uma medida da certeza da 
ocorrência de cada acontecimento. 
Nas áreas económica e de gestão, os diferentes conceitos de probabilidade 
são largamente utilizados. Por exemplo, quando o primeiro-ministro afirma que 
a inflação no corrente ano não ultrapassará 4% ou quando um industrial prevê 
que as matérias-primas importadas para a sua produção não sofrerão um 
aumento de preços no curto prazo. As probabilidades fornecem aos gestores 
e economistas as bases para a tomada de decisão, quando existe incerteza 
sobre a evolução futura e sobre os efeitos práticos das suas decisões, isto é, 
quando a partir do passado não é possível prever deterministicamente o futuro, 
devido a influência do acaso, sendo no entanto possível prever as linhas de 
evolução futura e as possibilidades de estas se concretizarem. 
De acordo com a definição e o método de cálculo, podem definir-se três 
conceitos de probabilidade: clássica, empírica ou frequencista e subjectiva. As 
probabilidades que se baseiam nas características intrínsecas dos aconteci- 
mentos são definidas segundo o conceito clássico. Aquelas que se baseiam 
numa quantidade razoável de evidência objectiva são empíricas ou frequen- 
cistas, enquanto que as probabilidades definidas com base em crenças ou 
opiniões individuais se denominam subjectivas. 
ESTAT~STICA APLICADA 
4 I Conceito clássico de probabilidade (a priori) 
Se a uma experiência aleatória se podem associar N resultados possíveis, 
mutuamente exclusivos e igualmente prováveis, e se nA desses resultados 
nA tiverem o atributo A, então a probabilidade de A é a fracção -, N 
onde: 
nA - número de resultados favoráveis a A 
N - número de resultados possíveis 
Repare-se que, para o conceito clássico de probabilidade, os resultados 
possíveis são todos igualmente prováveis, isto é, têm todos igual probabilidade 
de se realizarem. É este o conceito subjacente aos chamados jogos de azar, 
cuja prévia apresentação sistemática foi feita por Cardano. Este define como 
probabilidade de um acontecimento o rácio entre o número de resultados que 
fazem com que o acontecimento se realize e o número total de resultados. Por 
exemplo, a probabilidade de sair um número par quando se lança um dado é 
de 3/6 porque existem seis resultados possíveis e três deles são números 
pares. 
Galileu, meio século mais tarde, utilizou o mesmo conceito de probabilidade 
para responder a uma dúvida dos jogadores que notaram, no lançamento de 
três dados, saírem mais vezes faces que somam um total de 10 pontos do 
que 9 pontos. Tal como Cardano, Galileu sabia que era necessário ter em 
consideração a ordem dos resultados para que se possam associar probabi- 
lidades diferentes aos resultados. Assim, de 6 x 6 x 6 = 21 6 resultados 
possíveis, 25 somam 9 pontos e 27 somam um total de 10 pontos, de onde 
resultam, respectivamente, probabilidades de 25/216 e 27/216 . Este último 
exemplo ilustra bem a necessidade de recorrer a análise combinatória como 
método auxiliar para a contagem do número de casos favoráveis e do número 
de casos possíveis. 
TEORIA DAS PROBABILIDADES 
Na experiência aleatória que consiste no lançamento de um dado e observa- 
ção do número inscrito na face voltada para cima, seja A o acontecimento: saída 
da face 3. O espaço de resultados é definido pelos seguintes elementos 
R = { 1, 2, 3, 4, 5, 6 }. A probabilidade de se realizar o acontecimento A é: 
com: 
n~ - número de resultados favoráveis ao acontecimento A 
N - número de resultados possíveis. 
Consideremos a experiência aleatória que consiste no lançamento de uma 
moeda equilibrada ao ar. Seja A o acontecimento: saída de face. O espaço de 
resultados será constituído por R = { Face, Coroa ). A probabilidade de A será: 
Um investigador mostra a um indivíduo 12 corese pede-lhe que escreva 4 
que sejam suas favoritas. 
a) Quantos resultados possíveis existem? 
b) Se uma das cores do lote das 12 for azul, quantos resultados possíveis irão 
conter essa cor? 
pois o azul é sempre escolhido e portanto só 3 cores das restantes 11 
podem ser escolhidas. 
ESTAT~STICA APLICADA 
c) Qual a probabilidade de escolher a cor azul como uma das suas preferidas? 
4.2. Conceito frequencista 
de probabilidade (a posteriori) 
Se em N realizações de uma experiência, o acontecimento A se verificou 
n vezes, diz-se que a frequência relativa de A nas N realizações é 
sendo fA a frequência relativa do acontecimento A. 
Noutras N realizações da mesma experiência, desde que N seja suficien- 
temente elevado, a frequência relativa com que se realiza o acontecimento A 
é em geral diferente mas próxima da anterior. A medida que o número de 
provas aumenta, verifica-se uma regularidade das frequências relativas, de tal 
modo que a irregularidade dos resultados individuais se opõe uma certa regu- 
laridade estatística ao fim de uma longa série de provas, isto é, f A = VN tende 
a estabilizar. É esta característica das experiências aleatórias que permite 
definir o conceito frequencista de probabilidade. 
Ao número para que tende a frequência relativa f A , quando se aumenta o 
número de provas, chama-se probabilidade do acontecimento A: 
P I A ] = lim fA 
N-s m 
Isto equivale a aceitar que numa sucessão numerosa de experiências é 
praticamente certo que a frequência relativa de A seja aproximadamente igual 
a P [A I. Esta regra está na base da definição frequencista de probabilidade. 
TEORIA DAS PROBABILIDADES 
O valor da frequência relativa é uma indicação do valor da probabilidade na 
experiência aleatória considerada, quando se repete essa experiência um 
número suficientemente grande de vezes. 
---- . "?*- w8".,,~% *-- ",, .- , . .- . . , , - .- ,~ -- . . . %.. . 
Exemplo 10 
A experiência aleatória que consiste na observação do sexo de um recém- 
-nascido pode considerar-se o exemplo típico para aplicação do conceito frequen- 
cista de probabilidade. Porque esta experiência já se realizou inúmeras vezes e 
existem registos do seu resultado, sabe-se que a probabilidade do sexo do 
recém-nascido ser masculino é de aproximadamente 0,52 e de ser feminino é de 
cerca de 0,48. 
A utilização do conceito clássico de probabilidade teria conduzido ao valor de 
0,5 para cada uma das referidas probabilidades, o que constituiria um erro. Este 
seria proveniente do facto de se considerarem equiprováveis os elementos do 
espaço de resultados S2 = { Masculino, Feminino }, quando estes o não são. 
4.3. Conceito subjectivo ou personalista 
de probabilidade 
Utilizando este conceito, a probabilidade de um acontecimento é dada pelo 
grau de credibilidade ou de confiança que cada pessoa dá a realização de um 
acontecimento. Baseia-se na informação quantitativa (ex: frequência de ocor- 
rência de um acontecimento) eiou qualitativa (ex: informação sobre experiência 
passada em situações semelhantes) que o decisor possui sobre o aconteci- 
mento em causa. Diferentes decisores podem atribuir diferentes probabilidades 
ao mesmo acontecimento decorrentes da experiência, atitudes, valores, etc, 
que possuem. 
Esta noção de probabilidade pode ser aplicada a experiências que, embora 
de resultado sujeito ao acaso, não se podem efectuar várias vezes nas mes- 
mas condições, casos em que os conceitos frequencista e clássico não se 
podem aplicar. 
ESTATíSTICA APLICADA 
* e?+ w,",*-- 2 - ".-- . W" . . . , . , . - 
Exemplo I 1 
Se o Primeiro Ministro afirmasse aa inflação para o próximo ano será de 3% 
com uma probabilidade de 0,9>> estaria a aplicar o conceito subjectivo ou perso- 
nalista de probabilidade. Uma outra figura política, da Oposição, diria certamente 
que tal meta seria difícil de atingir, e sendo instada a quantificar o que para ela 
era <<difícil» poderia mesmo afirmar: «Tal nível de inflação só será atingido com 
uma probabilidade de 0,25>>. Também esta figura política estará, deste modo, a 
aplicar o conceito personalista de probabilidade. 
II 
ESTAT~STICA APLICADA 
ou seja, 
P [ 0 ] = P [ Q ] - P [ a ] 
O acontecimento impossível tem probabilidade nula mas a recíproca não é 
verdadeira. A raridade dum acontecimento pode levar a que a sua probabili- 
dade seja zero sem que, no entanto, este seja impossível. É o caso em que, 
no lançamento duma moeda ao ar, esta fica em pé sem cair para nenhum dos 
lados. 
Sejam dois acontecimentos A e B quaisquer. Atendendo as propriedades 
das operações sobre acontecimentos, facilmente se demonstra o seguinte 
B = B ~ ( A ~ A ) 
B = ( B n A ) u í ~ n à > 
Os acontecimentos ( B r\ A ) e ( B n à ) são mutuamente exclusivos e 
( B n à ) é o acontecimento que se realiza quando se realiza B mas não se 
realiza A, logo 
B n à = { w : w E B A w E A } = B - A 
TEORIA DAS PROBABILIDADES 
Pelo axioma 3, teremos então 
P [ B ] = P [ B n A ] + P [ B n à ] 
ou 
logo 
Na produção de uma empresa de artigos de vestuário, 10% dos artigos 
produzidos têm defeitos de material (tecido), 5% têm defeitos de acabamento e 
2% defeitos de ambos os tipos. Qual a probabilidade de uma peça de vestuário 
retirada ao acaso ter apenas defeitos de tecido? 
Considerando os acontecimentos 
A: o artigo tem defeito de matéria prima (tecido) 
B: o artigo tem defeito de acabamento 
e o acontecimento 
A - B : o artigo tem apenas defeito de matéria prima 
a sua probabilidade será 
P [ A - B ] = P [ A ] - P [ A n B ] . 
De acordo com os dados disponíveis 
então 
P [ A - 51 = 0,10 - 0,02 = 0,08 
isto é, a probabilidade de uma peça de vestuário ter apenas defeitos de tecido é 
de 0,08. 
ESTAT~STICA APLICADA 
Considerem-se dois acontecimentos A e B quaisquer, mutuamente exclusi- 
vos ou não. Então, pelo teorema anterior e pelas propriedades das operações, 
A y B = ( A y B ) n s z = 
Aplicando probabilidades 
P[A y B ] = P [ A y ( 6 - A ) ] 
Mas, porque A e ( B - A ) são mutuamente exclusivos, 
P [ A y B ] = P [ A ] + P[B - A ] 
e utilizando o teorema anterior sobre a probabilidade da diferença de dois 
acontecimentos 
. " - , . " - . ~ P - ~ , - ~ r r ,><...i.I,T r-:-. ..r..?,.murw-,.w W v p . ~ " ' ..- r.*-.- -. . . ., -*.-. .--, "-*rq 
Exemplo 14 
Seja a experiência aleatória que consiste em retirar uma carta de um baralho 
de 52 cartas e considerem-se os acontecimentos: 
A: sai rei 
B: sai paus 
cujas probabilidades são, respectivamente, 4/52 e 13/52. 
A probabilidade do acontecimento união 
A y B : sai rei ou paus 
16 é P[A y B ] = -, uma vez que existem 16 resultados favoráveis (13 de 52 
saírem paus mais 3 de saírem reis que não são de paus) em 52 resultados 
possíveis. Esta probabilidade é diferente de 
pois ao somamos P[A] com P[B], conta-se duas vezes a probabilidade do 
acontecimento asai rei de paus» (acontecimento A n B ) comum aos aconteci- 
mentos A e B. É necessário, portanto, deduzir a probabilidade deste último 
acontecimento: 
P[A y B ] = P [A ] + P[B] - P[A n 51 = 
..- r-r r- olwl -rr, I-", %C<- rB r .r* 1 r - r * rr" -- ... ", *. -. r.r<. ,, .' - 
Exemplo 15 
Em determinada cidade, 30% da população de leitores de jomais diários 
compra o jornal aDiário>>, 40% o jornal «Público» e 10% compra os dois jomais. 
Se desta população escolhermos um leitor ao acaso, qual a probabilidade de ele 
comprar pelo menos um destes jomais, isto é, de ler o <<Diário>>, ou o <<Público» ou 
ambos? 
Considerando os acontecimentos: 
A: o leitor compra o diário» 
B: o leitor compra o <<Público» 
ESTAT~STICA APLICADA 
e sabendo que 
P [ A ] = 0,30 
P [ B ] = 0,40 
P [ A n B ] = 0,lO 
o que se pretende conhecer é P [ A y B ] . 
P [A y B ] = P [ A ] + P [ B ] - P [ A n B ] = 
= 0,30 + 0,40 - 0,lO = 
= 0,60 
isto é, 60% dos leitores compra pelo menos um destes jornais. 
TEORIA DAS PROBABILIDADES 
Para n = 3 
Para n = 4 
Exemplo 16 
A mesma população de leitores do exemplo anterior foi inquirida sobre as suas 
preferências relativamente a três revistas mensais A, B e C. Os resultados obtidos 
foram os seguintes: 
Qual a probabilidade de, um leitor escolhido ao acaso, ser leitor de 
a) Somente A e C? 
b) Pelo menos uma revista? 
Revista 
A 
B 
C 
A e B 
A e C 
B e C 
A e B e C 
As respostas a estas duas questões são imediatas se se atender ao teorema 
3 e a generalização do teorema 4: 
a) A probabilidade pedida é 
Leitores (Oh) 
9 8 
22,9 
12,l 
51 
3,7 
6,O 
2,4 
b) A probabilidade pedida é 
WoRIA DAS PROBABILIDADES 
Este problema poderia também ser resolvido com o auxilio de um diagrama 
de Venn. 
Probabilidades 
condicionadas 
A partir do momento em que se conhece a probabilidade de o acontecimen- 
to B (do espaço de resultados Q) ocorrer, é possível calcular a probabilidade de 
qualquer outro acontecimento A se realizar condicionado pelo acontecimento B. 
Um jogador da loteria compra três bilhetes para a extracção do Natal com os 
números 01011, 15555 e 22444, realizando-se o sorteio entre um total de 40000 
números, de 00000 a 39999. O acontecimento: 
A: o jogador obtém o primeiro prémio 
comporta três resultados favoráveis 
A = {01011, 15555, 22444) 
num total de 40000 resultados possíveis 
TEORIA DAS PROBABILIDADES 
Aplicando o conceito clássico de probabilidade facilmente se obtém a proba- 
bilidade de o jogador obter o primeiro prémio: 
Admita-se agora que, no dia da extracção, o jogador soube acidentalmente 
que o número premiado em primeiro lugar era um número par, embora não tivesse 
ainda conhecimento do número premiado. Qual será agora a probabilidade do 
jogador obter o primeiro prémio considerando a informação adicional de que, 
entretanto, tomou conhecimento? Isto é, qual a probabilidade de o jogador obter 
o primeiro prémio dado que o número premiado é par? 
O número de resultados favoráveis é agora apenas de 1, uma vez que o 
jogador apenas possui um bilhete com número par, enquanto que os resultados 
possíveis passaram a ser de 20000 (o total de números pares nos 40000): 
sendo 
B: o primeiro prémio saiu a um número par. 
A probabilidade anterior não representa a probabilidade absoluta ou total de 
A se realizar (igual a 3/40 000 como se viu anteriormente),. mas a probabilidade 
de A condicionada pela ocorrência de B, ou probabilidade de A dado B. 
O facto de ser dado B opera uma redução no espaço de resultados, que passa 
de R, constituído por 40 000 resultados possíveis, para o próprio B, formado por 
apenas 20 000 resultados. A probabilidade de A será então 
Dividindo ambos os termos da fracção por 40000 obtém-se 
1 
ficando 
i ) no denominador o número de resultados favoráveis a 5 sobre o número total 
de resultados possíveis, isto é, a probabilidade de B; 
ii) no numerador o quociente entre o número de resultados favoráveis a ocor- 
rência de A e B em simultâneo (A n B) e o número total de resultados 
possíveis, ou seja, P [A n B 1. 
ESTAT~STICA APLICADA 
Concluindo, a probabilidade de A dado B é igual a 
Suponha-se agora a situação inversa. No dia da extracção o jogador é infor- 
mado de que lhe saíu o primeiro prémio. Qual a probabilidade de que o número 
premiado seja par? 
O que se pretende conhecer é P [E I A 1. Aplicando a definição de probabili- 
dade condicionada: 
ou, porque a intersecção de acontecimentos é comutativa, 
Considere-se que a partir duma amostra efectuada sobre vários recém-nasci- 
dos se obteve o seguinte quadro de probabilidade conjunta: 
onde: 
Al - um recém-nascido escolhido ao acaso é do sexo masculino; 
AP - um recém-nascido escolhido ao acaso é do sexo feminino; 
Bl - um recém-nascido escolhido ao acaso tem olhos castanhos; 
B2 - um recém-nascido escolhido ao acaso não tem olhos castanhos. 
TEORIA DAS PROBABILIDADES 
A partir deste quadro podem-se definir: 
- probabilidades conjuntas como, por exemplo, a probabilidade do recém- 
-nascido ser do sexo masculino e não ter olhos castanhos: 
- probabilidades marginais (referentes a um único acontecimento) como, por 
exemplo, a probabilidade de um recém-nascido ser do sexo masculino 
independentemente da cor dos olhos: 
- probabilidades condicionadas, por exemplo, de um recém-nascido não ter 
olhos castanhos dado que é do sexo masculino: 
P [B2 I AI ] é a probabilidade de B tendo em conta que o acontecimento 
AI se realiza, ou seja, AI passa a ser o acontecimento certo, com proba- 
bilidade 1 (PIA1 I AI ] = 1 ) e B2 só pode ocorrer quando ocorre simulta- 
neamente AI. Logo a probabilidade de B2 n AI passa a ser redimensio- 
nada tendo em conta a probabilidade unitária do acontecimento AI no novo 
espaço de resultados R ' = AI. 
u 
6.1. Axiomática e teoremas da teoria 
das probabilidades 
na probabilidade condicionada 
O conceito de probabilidade condicionada satisfaz todos os axiomas da 
teoria das probabilidades introduzidos anteriormente. Assim, sendo B um acon- 
tecimento tal que P [B ] > 0 : 
ESTAT~TICA APLICADA 
I ) P [ A I B ] 2 O 
Demonstração: 
mas P [ A ri B ] 2 O 
e P [ B ] > O 
logo P [ A I B ] 2 O 
por definição 
pelo Axioma 1 
por hipótese 
c.q.d. 
Demonstração: 
corque Q é o elemento neutro da intersecção de acontecimentos. 
3) Se Al e A2 são mutuamente exclusivos (isto é, Al n A2 = 0 ), então: 
P[(Ai A*) I B ] = P[A1 I B ] + P[A2 I B ] 
TEORIA DAS PROBABILIDADES 
Demonstração: 
pela propriedade distributiva 
porque (Al n B ) e (A2 n B) são mutuamente exclusivos, por A, e A2 O 
serem, donde 
= P[A1 I B ] + PIA2 I B ] . 
Ao obedecer a axiomática da Teoria das Probabilidades, o conceito de 
probabilidade condicionada satisfaz também todos os seus teoremas. 
Probabilidade da intersec~ão 
de acontecimentos. 
Acontecimentos independentes 
7.1. Probabilidade da intersecção de acontecimentos 
A probabilidade de intersecção de dois acontecimentos, A e 9, decorre da 
probabilidade condicionada. De acordo com o ponto anterior, da definição de 
probabilidade condicionada resulta que 
Assim, das duas igualdades anteriores retira-se que 
TEORIA DAS PROBABILIDADES 
Exemplo 17 (continuaqáo) 
Retomando o exemplo do jogador que compra três bilhetes de loteria a sortear 
na extracção do Natal, a probabilidade da intersecção de 6 com A, ou de o 
jogador receber o primeiro prémio e de este ser um número par (1/40000), tanto 
pode obter-se tomando 6 como condicionante 
como inversamente, tomando A como condicionante 
A probabilidade de intersecção de dois acontecimentos pode ser facilmente 
generalizada a mais de dois acontecimentos se atendermos a associatividade 
da intersecção. 
Generalização a três acontecimentos: 
P[A n B n C ] = P[(A n B ) n C ] = 
= P [ C J ( A n B ) ] . P[A n B ] = 
= p [ C l ( A n 811 . P [ B I A l . P [ A l , 
para A, B e Ctais que P [ A ] + O e P [ A n B ] # O 
Generalização a quatro acontecimentos: 
P [ A n B n C n D ] = P [ ( A n B r, C ) n D ] = 
= P [ D ( ( A n B n C ) ] . P [ A ,q B C ] = 
= P [ D I ( A n B n C ) ] . P [ C I ( A n B ) ] . P [ B I A ] . P [ A ] . 
pa raA ,B ,CeDta i squeP [A ] ,P [A n B ] , P [ A n B n C ] nãonulas. 
7.2. Acontecimentos independentes 
Relacionado com o conceito de probabilidade condicionada está o conceito 
de acontecimentos independentes. 
TEORIA DAS PROBABILIDADES 
Estas relações, de per si intuitivas, derivam da definição formal de aconte- 
cimentos independentes: 
Para dois acontecimentos independentes,podem enunciar-se os seguintes 
teoremas: 
Demonstre-se o primeiro: 
A = A ~ Q = [ A ~ ( B ~ E ) ~ = ( A ~ B ) y ( A ~ E ) 
logo 
P [ A ] = P[(A n B ) (A n i)] = P [ A n a] + P [ A n ã ] 
porque (A ri B ) e (A n 8) são mutuamente exciusivos 
P [A ] = P [A ] . P [B ] + P [A n E ] porque A e B são independentes 
ESTAT~STICA APLICADA 
logo 
P [ A n E ] = P [ A ] - P [ A ] . P [ B ] = 
= P [ A ] . (1 - P [ B ] ) = 
= P [ A ] . P $ ] porque P [ E I = 1 - P [ B ] 
Então, dado que se demonstrou que 
conclui-se que, nestas condições, A e são acontecimentos independentes, 
c.q.d. 
De modo idêntico se poderiam demonstrar os dois últimos teoremas. 
Os acontecimentos Ai, A2, ..., An dir-se-ão independentes dois a dois se 
verificarem apenas a primeira condição. Convém também referir que a última 
condição é necessária mas não suficiente para que AI, A2, ..., An sejam 
independentes. 
TEORIA DAS PROBABILIDADES 
Suponha-se R formado por 4 acontecimentos elementares de igual probabili- 
dade: 
Q = {OI, w2, w3, w4 1 com P[ ai] = V4, i = 1, 2, 3, 4. 
Considerem-se os acontecimentos 
A = { a i , a 2 1 B = {WI, 0 3 1 C = {WI, w4} 
Pretende-se verificar se os acontecimentos A, B e C são independentes. 
1 P [ A n B] = P[wl ] = - 4 
As condições anteriores garantem que os acontecimentos são independentes 
dois a dois. Contudo, 
Assim, os acontecimentos não são independentes entre si, embora o sejam 
dois a dois. 
M 
ESTAT~STICA APLICADA 
Seja a experiência aleatória que consiste no lançamento de dois dados regu- 
lares e distinguíveis, cujo espaço de resultados é o conjunto 
e os acontecimentos 
A - a soma dos pontos dos 2 dados é par 
B - a soma dos pontos dos 2 dados é múltipla de 3 
C - a soma dos pontos dos 2 dados é maior que 9 
Com probabilidades 
Como se pode verificar P [A n B n C] = P [ A ] . P [ B ] . P [C]. No en- 
tanto, apenas os acontecimentos A e B são independentes, sendo A e C, e B e 
C dependentes entre si, pois 
TEORIA DAS PROBABILIDADES 
Em experiências aleatórias ligadas a jogos de azar é, em geral, fácil verificar 
a existência ou não de independência dos acontecimentos. Noutros casos, 
porém, só depois do exame rigoroso de todas as condições se poderá concluir 
acerca da independência dos acontecimentos. 
Uma caixa contém 100 peças sendo 10 defeituosas. Considere-se a expe- 
riência aleatória que consiste em extrair sucessivamente duas peças da caixa. 
Pretende saber-se a probabilidade do acontecimento: 
A: a primeira peça é não-defeituosa e a segunda é defeituosa. 
Para calcular esta probabilidade é necessário atender as duas situações 
possíveis: aquela em que a extracção da segunda se efectua sem que a primeira 
seja reposta na caixa (extracção sem reposição) e quando a extracção da segun- 
da peça só se efectua depois da primeira ter sido reposta na caixa (extracção 
com reposição). 
- Extracção sem reposição. 
Sejam os acontecimentos: Dl: a primeira peça é defeituosa 
D2: a segunda peça é defeituosa 
então 
A = Dl n D2. 
Por se tratar de uma extracção sem reposição, os dois acontecimentos são 
dependentes, logo 
P [A ] = f [ D 1 n D2] = 
- Extracção com reposição. 
Agora os acontecimentos elementares D1 e D2 são independentes, pois a 
primeira peça extraída é reposta e a probabilidade de 4 não se altera pelo facto 
de D1 ter ocorrido. Após a primeira extracção, a caixa volta a ter 100 peças, das 
ESTAT~STICA APLICADA 
quais 10 são defeituosas, isto é 
Então 
P I A ] = p[D1 n D2] = 
7.3. Acontecimentos independentes versus 
acontecimentos incompatíveis 
ou mutuamente exclusivos 
Sejam A e B dois acontecimentos tais que 
- no caso dos acontecimentos serem incompatíveis (mutuamente exclusi- 
vos) tem-se, por definição, (A n B ) = 0 e, consequentemente, 
P [ A n B ] = O. Os acontecimentos não podem ser independentes 
pois, para tal, e por definição de independência, seria 
P [A n B ] = P [A ] . P [ B ] > 0, pois ambos os acontecimentos têm 
probabilidades não nulas. 
- no caso dos acontecimentos serem independentes não podem ser mu- 
tuamente exclusivos, pois se são independentes então, 
P [A ri B ] = P [A ] . P [ B ] é maior que zero; para serem simultanea- 
TEORIA DAS PROBABILIDADES 
mente mutuamente exclusivos esta probabilidade teria de ser nula, facto 
impossível a não ser que algum dos acontecimentos tivesse proba- 
bilidade nula, o que não é o caso. 
Assim, em geral, dois acontecimentos não podem ser simultaneamente 
independentes e mutuamente exclusivos. Existe, no entanto, um caso particular 
em que tal pode ocorrer: é o caso em que um dos acontecimentos é impossível, 
porque este é sempre independente e mutuamente exclusivo de todo e qual- 
quer outro acontecimento possível. 
Teorema da probabilidade 
total e fórmula de Bayes 
O conceito de probabilidade condicionada revela-se muito importante e de 
larga utilização quando se conhecem probabilidades condicionadas nas quais 
os acontecimentos condicionantes definem uma partição em R. 
8.1. Teorema da probabilidade total 
Demonstração 
n 
= V (B n Ai). 
i = 1 
Dado que os Ai são mutuamente exclusivos, então os acontecimentos 
(B n Ai), i = 1, 4 ..., n, também O são; logo 
ESTAT~STICA APLICADA 
Diagramaticamente com n = 5 
I 
P [ B ] vem igual a soma das probabilidades dos acontecimentos sombrea- 
dos no diagrama, isto é, dos acontecimentos (Ai n B), com i = 1, 2, 3 ,4 , 5. 
8.2. Fórmula de Bayes 
Demonstração 
TEORIA DAS PROBABILIDADES 
por definição de probabilidade de intersecção de dois acontecimentos (no 
numerador) e pelo teorema da probabilidade total (no denominador). 
c.q.d. 
Uma fábrica de cachimbos utiliza 3 máquinas de acabamento com volume 
diário de produção, respectivamente, de 500, 1000 e 2000 unidades. De acordo 
com a experiência anterior sabe-se que a percentagem de cachimbos defeituosos 
originados por cada máquina é, respectivamente, de 0,005, 0,008 e 0,Ol. 
Sabendo que um cachimbo foi encontrado defeituoso pretende apurar-se qual 
a máquina que, com maior probabilidade, lhe terá dado origem e qual a que tem 
menor probabilidade de o ter gerado. 
Para resolver o problema devemos em primeiro lugar definir todos os aconte- 
cimentos. 
Ai - Um cachimbo escolhido ao acaso da produção diária foi produzido pela 
mgquina 1 
A2 - Um cachimbo escolhido ao acaso da produção diária foi produzido pela 
máquina 2 
AS - Um cachimbo escolhido ao acaso da produção diária foi produzido pela 
máquina 3 
B - Um cachimbo escolhido ao acaso da produção diária é defeituoso 
Pretendemos calcular as P [Ai I B ] ( i = 1, 2, 3) e ordená-las por ordem de- 
crescente. 
Ai, A2, A3 definem uma partição em i2 visto que 
3 
i ) Apenas as máquinas 1, 2 e 3 produzem cachimbos, isto é, y Ai = R. 
i= 1 
ii) Um cachimbo que é produzido numa máquina não é produzido noutra, 
A i r , A i = 0, i # j i, j = 1,2,3. 
iii) Qualquer uma das máquinas produz cachimbos, P [Ai ] > O, i = 1,2,3. 
As informações fornecidas no enunciado vão permitir utilizar a fórmula de 
Bayes, para o cálculo das probabilidades pretendidas. 
ESTAT~STICA APLICADA 
Sabe-se pelo enunciado que a probabilidade de cada cachimbo ter sido 
produzido por cada uma das máquinas é: 
Conhecem-se também as probabilidades de um cachimbo ser defeituoso, 
dado que foi produzido numa determinada máquina: 
P [B I AI ] = 0,005 
Construindo um quadro: 
0,008 0,0023 
0,Ol O 0,0057 0,66 
P [ B ] = 0,0087 1 
Note-se que P [B] foi calculada recorrendo ao teorema da probabilidade total. 
Do quadro anterior retira-se que a probabilidade de um cachimbo ter sido 
produzido pela máquina 3, sabendo que é defeituoso, é de 0,66; a mesma 
probabilidade para a máquina 2 éde 0,26 e para a máquina 1 de 0,08. 
Com base nestes resultados, a ordem de inspecção das máquinas deverá ser: 
em 1"ugar a máquina 3, 
em 2Vugar a máquina 2, 
em 3"ugar a máquina 1. 
Exercícios propostos 
1. Sejam os acontecimentos AI, A2 e A3 com probabilidades de ocorrência di- 
ferentes de zero. Sabe-se que: 
( i ) P I A l ] = 0,12, P [ A 2 ] = 0,10 e P [ A 2 n A,] = 0,05 
( i i ) AI é mutuamente exclusivo quer com A2 quer com A3 
( í i i ) Dois dos acontecimentos referidos são independentes. 
Calcule: P [ AI y A2 (J A3 1 . 
2. Num grupo de 100 estudantes de línguas, 20 escolheram Francês, 60 Inglês 
e 10 escolheram ambas as Iínguas. Se for escolhido um estudante ao acaso, qual 
a probabilidade de: 
a) ter escolhido ambas as Iínguas? 
b) ter escolhido Francês ou Inglês? 
c) não ter escolhido nenhuma das duas Iínguas? 
d) ter escolhido Inglês mas não Francês? 
R: a) 0,10 b) 0,70 c) 0,30 d) 0,50 
3. Os 400 clientes diários de uma cantina self-service, de entre os vários pratos 
disponíveis, apresentam as seguintes preferências: 120 pedem hamburgers, 80 
preferem pratos de galinha e 50 encomendam pizza. Sabe-se ainda que 20 
clientes encomendam hamburger e pizza na mesma refeição e os que encomen- 
dam qualquer um dos restantes pratos, não fazem outra encomenda em 
simultâneo. Qual a probabilidade de um cliente escolhido ao acaso encomendar: 
a) apenas hamburger ou galinha? 
b) apenas pizza? 
c) pelo menos um dos três pratos? 
d) qualquer um dos restantes pratos disponíveis na cantina? 
R: a) I801400 b) 301400 c) 2301400 d) 1701400. 
4. De um grupo de peças, 3 são defeituosas e 7 são boas. Se escolher 3 ao 
acaso, qual a probabilidade de elas serem todas boas? 
EsTAT~STICA APUCADA 
5. Suponha que: P [A ] = 0,4 P [ B ] = 0,3 
P [ C ] = 0,7 P [ Ã n B ] = 0,l P [ A n B n c ] = 0,l 
Calcule P [ A n ( A ] 
R: 0,5 
6. Considere os seguintes acontecimentos definidos em a: Ai, A2 e B em que 
1 2 P[Ai 1 B ] = 4 e P[A2 I B ] = 3. 
Comente as seguintes afirmações: 
a) «A1 e A2 são acontecimentos mutuamente exclusivos~~. 
b) <<Al e B são acontecimentos mutuamente exclusivos~~. 
R: a) Nada se pode concluir com a informação disponível; 
b) AI e B não podem ser mutuamente exclusivos, logo a afirmação é falsa. 
7. Uma companhia transportadora aérea afirma que 95% dos seus voos chegam 
a hora marcada. 
Se forem escolhidos três voos e admitindo que o atraso de um voo em nada afecta. 
a hora de chegada dos restantes, qual a probabilidade .dos três voos chegarem 
a horas? 
R: 0,857375 
8. Três caçadores atiram a um pato de forma independente sendo de 1/2, l/3 e 
1/4 respectivamente a probabilidade de acertar no alvo. 
Qual a probabilidade de que: 
a) o pato seja atingido? 
b) o pato seja atingido por pelo menos 2 caçadores? 
9. Numa sala de reuniões estão 4 gestores cada um deles identificado com o 
nome colocado num dístico sobre a mesa. A hora de almoço a empregada da 
limpeza abriu inadvertidamente uma janela fazendo voar os dísticos, que se mistura- 
ram com mais outros seis que se encontravam noutra mesa com nomes diferentes. 
a) Qual a probabilidade de a empregada acertar nos nomes dos quatro ges- 
tores quando voltar a colocar os dísticos em cima da mesa? 
b) Sabendo que a empregada acertou nos quatro nomes, qual a probabilidade 
de os colocar nos lugares certos? 
R: a) 2415040; b) 1/24 
TEORIA DAS PROBABILIDADES 
10. Considere A l , A2, A3, acontecimentos que constituem uma partição do eç- 
paço dos resultados. 
Sendo as probabilidades de A1, A2 e A3 respectivamente iguais a 0,5; 0,3 e 
0,2 e sendo B um outro acontecimento pertencente ao mesmo espaço de resul- 
tados, diga justificando se é possível ter: 
11. Dos três fornecedores de certo produto para uma loja (em partes de 30%, 
50% e 20% respectivamente), todos fornecem produtos com deficiências, sendo 
a percentagem de produtos defeituosos sobre o total fornecido por cada um deles 
de 7%, 5% e 4% respectivamente. 
a) Tendo comprado um produto nessa loja e verificado que apresentava defi- 
ciências, qual o seu fornecedor mais provável? 
b) Qual a probabilidade de um determinado produto escolhido ao acaso ter 
vindo do 1Yornecedor e apresentar deficiências? 
12. As famílias da cidade A escolhem uma das três alternativas para fazer férias: 
praia, campo ou ficar em casa. 
Durante a última década, verificou-se que escolhiam aquelas alternativas 
respectivamente 50%, 30% e 20% das famílias da referida cidade. 
A probabilidade de descansar durante as férias está ligada a alternativa 
escolhida: 0,4; 0,6 e 0,5 conforme se tenha ido para a praia, para o campo ou 
ficado em casa. 
a) Qual a probabilidade de uma família da cidade A descansar durante as 
férias? 
b) Sabendo que determinada família descansou durante as férias, qual a 
alternativa mais provável de ter sido escolhida por esta família? 
R: a) 0,48; b) a alternativa mais provável e a praia. 
13. Considere duas caixas A e B. 
A caixa A tem duas bolas verdes e uma branca e a B tem duas bolas verdes 
e duas brancas. Uma destas caixas é seleccionada ao acaso. Duas bolas foram 
retiradas também aleatoriamente e verificou-se que a primeira era branca e a 
segunda também, tendo-se reposto a primeira bola depois de se verificar a sua 
cor. 
Calcule a probabilidade de ter sido seleccionada a caixa A. 
14. Um estudante efectuou um teste de resposta múltipla. Para as questões 
colocadas no teste, o estudante ou conhece a resposta e nesse caso dá a 
resposta correcta ou não conhece a resposta e nesse caso tenta adivinhar na 
esperança de acertar na resposta certa. 
Considere ainda que existem 5 alternativas de resposta que são igualmente 
plausíveis. 
Coloque-se no lugar do professor. 
Sabendo que o estudante acertou na resposta correcta, qual a probabilidade 
de que o estudante conhecesse de facto a resposta certa? 
15. O mercado de serviço telemóvel está dividido entre duas empresas, CELUM 
e CELDOIS, com quotas, respectivamente, de 60% e 40%. O organismo regulador 
encomendou um estudo de opinião do mercado do qual conclui que: 
- 70% dos utilizadores do serviço telemóvel estão satisfeitos, 
- dos clientes de CELUM, 80% estão satisfeitos. 
a) Qual a percentagem de clientes de CELDOIS que estão satisfeitos? 
b) Qual a divisão do mercado, dentro dos clientes satisfeitos? 
c) Qual a probabilidade de encontrar um cliente que tenha contrato com a 
CELUM e se sinta insatisfeito? 
16. A empresa Omega produz bens de equipamento. A sua produção destina-se 
a dois mercados externos: Estados Unidos da América (25%) e França (15%). A 
restante produção é vendida internamente. 
Estudos efectuados permitiram concluir que 20% dos bens produzidos para 
França sofrem de pequenas anomalias, enquanto que 30% dos bens com ano- 
malias se destinam ao mercado norte americano. Sabe-se ainda que a 
percentagem de bens com anomalias destinada ao mercado interno é metade da 
que se destina ao mercado norte americano. 
a) A empresa confrontada com esta situação defende que no máximo só 4% 
da sua produção apresenta anomalias. Comente esta afirmação. 
b) Se se constatar que determinado bem apresenta anomalias, qual a proba- 
bilidade de ser consumido internamente? 
R: a) Incorrecta (é de 5,45%); b) 0,15 
Definição 
I . I . Enquadramento e exemplos 
Se bem que muitas experiências aleatórias tenham resultados quantitativos, 
isto é, dêem origem a um espaço de resultados Q cujos elementos são 
conjuntos de números reais, outras há em que tal não acontece. Vejamos três 
exemplos da primeira situação. 
Exemplo 1 
Seja a experiência aleatória que consiste na observação do tempo que decorre 
entre a chegada de duas chamadas telefónicas consecutivas a uma determinada 
central telefónica. Então, 52 virá: 
52 = { t : t > O) 
111 
Exemplo 2Seja a experiência aleatória que consiste na observação do volume de vendas 
diário de três pontos de venda de uma empresa. Então, 52 será 
Exemplo 3 
Seja a experiência aleatória que consiste na observação do último dígito do 
índice da Bolsa de Valores de Lisboa. Então, 52 virá 
52 = {O, 1, 2, ..., 9) 
ai 
ESTAT~STICA APLICADA 
E, agora, três exemplos da segunda situação. 
Exemplo 4 
Seja a experiência aleatória que consiste no controlo de qualidade de compo- 
nentes electrónicos: num lote grande de componentes escolhem-se três ao acaso 
e analisam-se. Então, se designarmos por 
D - o componente é defeituoso 
N - o componente não é defeituoso, 
virá, 
Q = {(N, N, N ) ; ( N , N, D ) ; (N, D, N ) ; (D, N, N ) ; (N, D, D ) ; 
(D, N, D ) ; (D, D, N ) ; (D, D, D ) } . 
- * 
Exemplo 5 
Seja a experiência aleatória que consiste no registo da percepção que um 
cliente, escolhido ao acaso, tem acerca da qualidade do serviço pós-venda da 
empresa Sx Lda. Então, por exemplo, virá 
Q = { Boa, Média, Má ] 
Seja a experiência aleatória que consiste na escolha casual de uma das quatro 
empresas que controlavam o mercado de serviços de telecomunicações em 
Portugal: 
Q = { Telecom Portugal, CPRM, TLP, Telecel) 
Bl 
Em qualquer das situações podemos estar interessados (e é essa, aliás, a 
questão que nos preocupa nesta abordagem) em determinar as probabilidades 
da ocorrência de um acontecimento ou conjunto de acontecimentos, definidos 
no âmbito de uma dada experiência aleatória. Ora, esse objectívo e a conse- 
quente aplicação de métodos estatísticos passam, normalmente, pela 
quantificação dos resultados dessas experiências. Isto é: o cálculo de pro- 
babilidades é muito mais expedito quando, a cada acontecimento ou conjunto 
de acontecimentos da experiência aleatória corresponde um número (real). 
É justamente no estabelecimento de uma tal correspondência que reside o 
cerne da questão. Assim, podemos definir o conceito de variável aleatória do 
modo que se segue. 
Diagramaticamente: 
Q, 
onde o, E i2 e x designa o valor que a variável aleatória X(.) assume. 
Veja-se a aplicação deste conceito aos exemplos dados atrás. Para abreviar, 
omite-se aqui a descrição da experiência aleatória subjacente. Passar-se-á, 
também, a usar as expressões V.A. X ou X para abreviar a referência à variável 
aleatória X (.) 3. 
Para o caso de variáveis aleatórias unidimensionais. Para as variáveis multidimensionais, ver ponto 
1.3. 
Fala-se ainda de variáveis aleatórias mistas quando resultam de uma combinação de várias 
variáveis aleatórias, umas discretas e outras contínuas. 
Está subjacente a cada valor assumido por Xum acontecimento (ou conjunto de acontecimentos) 
probabilizável. Mesmo quando a V.A. for apresentada sem referência a uma determinada expe- 
riência aleatória, não deve esquecer-se a sua <<génese),. 
ESTATÍSTICA APLICADA 
- *, - e *." 
Exemplo I (continuaqão) 
n = { t : t > O) 
X - tempo entre duas chamadas telefónicas que chegam a uma mesma central 
telefónica. 
x(n) = {xixi: xi > o) 
4 . V u r r B u w i . T r r i x g -^r r. v - . . - --* >g- -- - u. - - --, - 
Exemplo 2 (continuaqão) 
C2 = {(VI, v2, v3) :v i 2 0, i= 1 , 2 , 3 ) 
X - soma das vendas diárias dos três pontos de venda de uma empresa. 
OU 
Y - máximo das vendas diárias ... 
Y(Q) = {v i : = max {VI, ~ 2 , v311 
OU 
Z - amplitude das vendas diárias.. . 
Z(R) = {q : 4 = max {v l , v2, v3) - min {v l , v2, v3}) 
~ x e m ~ l o 3 (continuação) 
n = {0,1,2 ,..., 9) 
X - valor do dlgito observado. 
x(n) = {xi: xi = o, I , 2, ..., 9) 
Q = { ( N , N , N ) 9 ( N , N , D ) , ( N , D , N ) , ( D , N , N ) , ( N , D , D ) , 
( D , N , D ) , ( D , D , N ) , í D , D , D ) } 
X- número de peças defeituosas em cada amostra aleatória de três peças. 
X(Q) = {O, 1, 2, 3) pois 
{mi 1 * {q: 3 = X ( o i ) = O, 1,2,3) 
SZ - {Boa, Média, Má ) X - Classificação da empresa 
Considerando 
1 - Má 
2 - Média 
3 - Boa 
ESTAT~STICA APLICADA 
Exemplo 6 (continuação) 
Q = { T.P., CPRM, TLP, T ) 
X - volume de vendas, em 1993, de cada uma das empresas (em 10' escudos) 
X(Q) = {20,60, 100) sendo X(T.P.) = 100 
X(CPRM) = 60 
X(TLP) = 60 
X(T) = 20 
Y - número de empregados, em 1993, de cada uma das empresas (em 1 o3 
unidades) 
Y(Q) = {2,3,4, 61, sendo Y(T.P.) = 6 
Y(CPRM) = 3 
Y (TLP) = 4 
Y (T) = 2 
1.2. Cálculo de probabilidades através 
de variáveis aleatórias 
Como foi visto no ponto anterior, a cada acontecimento de C2 é possível 
fazer corresponder um número real x - é o princípio subjacente a génese de 
uma variável aleatória. 
Então, o objectivo que se pretende agora atingir é calcular probabilidades, 
não com base nos próprios acontecimentos, mas sim nas suas imagens - 
valores assumidos pela variável aleatória. Ou seja, pretende-se saber como 
<<transferir)) a probabilidade de ocorrência de um determinado acontecimento 
A, P [A ] , para a probabilidade de X ( A ) assumir o correspondente valor 
x, P[X = x ] . 
No exemplo 4 deste capítulo, analisavam-se lotes de 3 componentes elec- 
trónicos, verificando se estes eram defeituosos ( D ) ou não defeituosos ( N ) . 
Construindo a variável aleatória X- número de componentes defeituosos, 
em 3, e definindo o acontecimento A como 
A = {(N, N, D 1, (D, N, N ) , (D, N, N) ) , 
é obvio que P [ X = 11 = P [A] . 
3 3 Então, como P [A ] = -, será P [X = 11 = -. 8 8 
No exemplo 6, onde se escolhia aleatoriamente 1 das 4 empresas de 
telecomunicações, e considerando a variável aleatória Y - volume de vendas, 
em 1993, ter-se-á 
P [X = 60 ] = P [escolher uma empresa cujo volume de vendas em 1993 
seja igual a 60 milhões de contos.] 
= P (escolher CPRM ou escolher TLP) 
Para o caso de variáveis aleatórias discretas, podemos afirmar que a 
probabilidade de uma variável aleatória X assumir um valor concreto x é igual 
a probabilidade de realização do acontecimento A cuja imagem dada por X (.) 
é x. Temos assim a seguinte definição: 
Diagramaticamente 
onde 
P ( X = xl) = P(wi V C O j ) 
P ( x = x2) = P(wk) 
ESTAT~STICA APLICADA 
1.3. Variáveis aleatórias unidimensionais 
e bidimensionais 
Até aqui tem-se vindo a falar, implicitamente, em variáveis aleatórias unidi- 
mensionais, já que a correspondência se faz de C2 para IR, isto é, x E IR. Mas 
se se estiver interessado em conhecer duas ou mais características de uma 
população simultaneamente, a correspondência será entre i2 e IR " (onde n é 
o número de características que se deseja conhecer simultaneamente). Surge 
assim a seguinte definição: 
for uma 
.o de IR' 
Considere-se o seguinte exemplo: 
Seja o universo o conjunto de alunos, candidatos ao curso de Gestão, e 
que tiveram de efectuar provas específicas de Matemática e de Economia. 
A experiência aleatória consiste em tomar ao acaso um destes indivíduos 
(e anotar as notas obtidas nas referidas disciplinas). 
É possível então fazer corresponder a cada indivíduo um par de valores 
(x, Y onde 
x - nota da prova específica de Matemática 
y - nota da prova específica de Economia 
com O I x, y I 100. 
Define-se assim a variável aleatória 
W = (X, Y) - nota da prova específica de Matemática e nota da prova específica 
- 
de Economia, com W(C2) = {(x, y ) : x, y = 0, 1, 2, ..., 100). 
W é uma variável aleatória bidimensional: não interessa conhecer, para - 
cada aluno, uma das notas, mas sim as duas, simultaneamente. 
Em resumo definem-se duas variáveis aleatórias unidimensionais 
X - nota da prova específica de Matemática 
Y - nota da prova específica de Economia 
sobre o mesmo espaço de resultados consideradas simultaneamente 
w = (X, Y ) . 
- 
Veja-se outro exemplo de variável aleatória bidimensional: 
Exemplo 7Considere-se a experiência aleatória que consiste no lançamento de duas 
moedas e no registo do resultado que se observa: F (face) ou C (coroa), da 
primeira e da segunda moedas, e cujo espaço de resultados é 
Q = I(F, C ) , (C, F ) , (F, F ) , (C, C ) ) 
Definindo 
X - número de faces na primeira moeda 
Y - número de faces na segunda moeda, 
facilmente se conclui que x = 0, 1 e y = 0, 1 . 
Passando agora ao campo bidimensional, podemos definir a variável aleatória 
(bidimensional) 2 = (X, Y ) como 
Z- número de faces na primeira moeda e número de faces na segunda 
- 
moeda. 
Então, 
Z(Q) = { ( I , 01, (0, 11, (1, 11, (0,O)) 
e pode revelar-se a correspondência íntima entre cada elemento de Q e um 
vector _Z de IR* 
. 
c2 * - z= (X, Y ) 
ESTA T&T/CA APLICADA 
Em termos gerais, e diagramaticamente, tem-se a correspondência entre 
cada elemento do espaço dos resultados e um par de números reais. 
A aplicação, a uma variável bidimensional discreta, do cálculo de proba- 
bilidades é análoga a descrita anteriormente: 
O estudo das variáveis aleatórias multi-dimensionais será retomado mais 
adiante. O ponto seguinte debruçar-se-á novamente sobre o caso unidimen- 
sional. 
Funções de probabilidade 
e de distribuição 
de variáveis aleatórias 
unidimensionais 
2'1. Variáveis aleafórias discrefas 
2.1.1. Funqáo de probabilidade 
Já foi visto que a cada elemento x E IR (de uma variável aleatória X) é 
possível associar uma dada probabilidade. Introduz-se agora um conceito atra- 
vés do exemplo que se segue: o conceito de função de probabilidade. 
Seja a experiência aleatória que, com o objectivo de controlar a qualidade dos 
iogurtes até cinco dias após a data de validade, consiste em analisar 4 retirados 
aleatoriamente. Se se designar por B - iogurte está em bom estado e por E - 
iogurte está estragado, a árvore seguinte descreve os resultados possíveis: 
1" 2" 3" 4" Sequência 
donde se retira que o espaço de resultados desta experiência aleatória é 
= {(E, 6 , 6, E ) , (B, E, E, E ) , ..., (E, E, E, E ) ) . 
Definindo a variável aleatbria X como 
X - número de iogurtes estragados, numa amostra de 4, 
tem-se que X pode assumir o valor 0, 1, 2, 3 ou 4 
e é possível então calcular a probabilidade de que X assuma cada um destes 
valores. Por exemplo, admitindo que E e E são equiprováveis: 
P [ X = O ] = P[(E, E, E, E ) ] = '- 16 
P [ X = l ] = P [ ( E , B, B, E ) OU ( E , B , E, B) OU (E, E, E, 8 ) 
4 
OU (E, B, E, E ) ] = - . 16 
VARIÁ VEIS ALEATÓRIAS 
Defina-se agora uma função de x, de IR em IR, da forma 
f ( x ) = P [ X = x ] 
de domínio IR e conjunto de chegada [O, I] c IR, que se designa por função de 
probabilidade de X. Para o exemplo acima, será 
A sua representação gráfica será 
A função introduzida no exemplo anterior designa-se por função de proba- 
bilidade, e pode ser definida para qualquer variável aleatória discreta X: 
ESTAT~STICA APLICADA 
É, assim, uma função que associa a cada valor xj da V.A. a probabilidade 
que lhe corresponde (e que é a probabilidade do acontecimento X- ' (xj), 
imagem inversa de xj em C2 ) e o valor zero a todos os outros valores de X. 
Como f(x) corresponde a uma probabilidade, facilmente se verifica que ela 
assume sempre valores não negativos e que a soma de todos os valores que 
ela pode assumir, correspondente a probabilidade de acontecimentos que 
esgotam o espaço de resultados, é igual a unidade. 
Aliás, todas as funções de IR em IR que verificam estas propriedades 
podem ser consideradas como função de probabilidade de alguma V.A., abs- 
traíndo da referência a experiência aleatória: 
Exemplo 9 
Considere a seguinte experiência aleatória: 
- Observação do número de telefonemas recebidos no ponto de atendimento 
de uma empresa de telemarketing até aparecer um comprador seguro do 
produto. 
O espaço de resultados será S2 = {1,2, ..., n, ...I 
Defina-se agora a variável aleatória 
X - número de telefonemas recebidos no ponto de atendimento de uma 
empresa de telemarketing até aparecer um comprador seguro do produto 
Este é um conjunto infinito numerável, sendo portanto X uma V.A. discreta. É 
possível, então, calcular a probabilidade desta variável assumir um determinado 
valor X = x 
P [X = x ] = P [ ter de observar x telefonemas até aparecer 
um comprador seguro] 
Está-se perante uma sequência do tipo 
N N N ... N ... S 
u 
x telefonemas 
onde, 
N - telefonema de não comprador 
S - telefonema de comprador 
Pressupondo que p é a probabilidade de chegar um telefonema de comprador 
seguro (S) e, obviamente, 1 - p a probabilidade de o telefonema ser de não 
comprador (N ), pode-se escrever: 
Seja, por hipótese, p = 0,2, isto é, estima-se em 20% a percentagem de 
telefonemas de compradores seguros. Então: 
ESTAT~STICA APLICADA 
Graficamente esta situação será: 
2.1.2. Funqão de distribuipão 
Com a função de probabilidade pode-se calcular, para cada ponto x, a 
probabilidade da sua ocorrência. 
No entanto muitas vezes importa conhecer, de forma expedita, a probabili- 
dade de X assumir um conjunto de valores. Por exemplo, se interessasse 
conhecer a probabilidade de que houvesse no máximo um iogurte estragado 
em cada amostra recolhida (exemplo 8), calcular-se-ia 
Ou, no exemplo 9, como o dimensionamento da capacidade de atendimento 
depende do número de chamadas que é necessário receber até fazer um 
negócio, pode ser necessário calcular a probabilidade de que esse valor seja, 
pelo menos, igual a 3. Então, 
Estes exemplos ilustram a génese de uma função que, de forma bem 
definida, (<acumule)) probabilidades, isto é, valores de f ( x ) e a que se chama 
função de distribuição de uma variável aleatória. 
Tem-se então a seguinte definição: 
Esta definição é válida também para uma variável aleatória contínua. 
Veja-se, com auxílio do exemplo 8, como se pode construir e representar 
graficamente uma função de distribuição de uma V.A. discreta. 
Sendo X- número de iogurtes estragados numa amostra de 4 
a sua função de distribuição toma os seguintes valores: 
' Mais correctamente, F(.) é uma função de conjunto. que faz corresponder a cada intervalo 
] - -, x [ a probabilidade da sua ocorrência. 
ESTAT~STICA APLICADA 
e, para x > 4, 
Note que, por exemplo, 
Então virá, 
O gráfico típico de uma função de distribuição de uma variável aleatória 
discreta é <cem escada)). 
É agora imediata a resposta a questão colocada no início deste ponto. A 
probabilidade de haver no máximo um iogurte estragado é dada por 
2.2. Variáveis aleatórias contínuas 
Para abordar o caso das variáveis aleatórias contínuas, é conveniente 
introduzir alguns exemplos: 
X - consumo anual de energia eléctrica para fins domésticos, numa determi- 
nada região (em 10' KW). 
Y - tempo de espera, em minutos, numa paragem de autocarro, até aparecer 
um autocarro. 
rn 
ESTAT~STICA APLICADA 
Exemplo 12 
Z - duração, em horas, de certo tipo de lâmpadas. 
H 
Sendo X uma variável aleatória contínua, toma valores num conjunto con- 
tínuo. A aplicação do conceito de função de probabilidade a uma infinidade não 
numerável de valores leva a que P [X = x ] = 0, para qualquer x, isto é a 
probabilidade pontual é sempre nula, o que não implica que o acontecimento 
seja impossível - quer tão só traduzir que é nula a probabilidade de <<acertar)> 
exactamente no valor X = x ... (os valores de X são <(tantos)> - um número 
infinito não numerável - que a <<divisão da unidade,) - probabilidade do 
universo - por todos eles leva ao resultado indicado). 
Note-se, no entanto, que não são nulas as probabilidades definidas sobre 
intervalos. 
Para as calcular, recorre-se ao conceito de função de distribuição introdu- 
zido em 2.1.2. 
Note-seque, em geral, a função de distribuição de uma variável aleatória 
contínua é uma função absolutamente contínua. Tal característica permite 
verificar facilmente o facto da probabilidade pontual ser nula. Como 
virá 
P[X = X ] 5 F ( x ) - F ( x - 6). 
Sendo F ( x ) contínua, 
P [ X = x ] = lim [ F ( x ) - F ( x - 6 ) ] = 0. 
8-30 
Considere-se agora o intervalo [x, x + Ax]. Pelas propriedades de F ( x ) , 
e tomando em consideração o facto de P [X = x ] = 0, 
A variação média da probabilidade no intervalo referido é então 
P [ X r x r x + ~ x ] - F(X + A X ) - F ( X ) 
- ( x + Ax) - X AX 
A variação instantânea será o limite desta razão quando Ax + O, ou seja a 
derivada de F (.) no poiito x : 
P [ x s X i x + A x ] = lim lim F(x + Ax) - F ( x ) Ax = F' ( x ) &+O ( x + A x ) - x Ax+ o 
Se F ( x ) representa a probabilidade acumulada, F' ( x ) = d F ( x ) dx 
representa a taxa a que essa probabilidade está a aumentar. 
Esta derivada designa-se por função densidade de probabilidade1 de X, 
f ( x > . 
Do exposto, deduz-se que, dado qualquer intervalo ] x l , x2 1, a proba- 
bilidade de X estar nesse intervalo é dada por 
Por vezes, utiliza-se a abreviatura f.d.p. 
ESTAT~STICA APLICADA 
Considere-se o exemplo 10. O consumo médio anual de energia eléctrica 
para fins domésticos tem sido, nos últimos anos, de 20 x 10' KW. Pelo menos 
de um ponto de vista teórico, pode admitir-se que esse consumo pode ser, no 
mínimo, nulo e, no máximo, tenderá para ((infinito,). Então, é fácil aceitar-se 
que a figura seguinte ilustre a função densidade de probabilidade de X. 
Esta função cumpre as propriedades referidas: 
- é sempre não negativa; 
- jtw f ( x ) dx = 1, o que significa que a probabilidade do valor do con- 
- m 
sumo se situar entre - e + é igual a 1, i.e., é certo que ocorre 
tal situação. 
Também se representa, a sombreado, a título ilustrativo, a probabilidade de 
se registar um consumo anual entre 10 e 20 x 10' KW: 
ou seja 
VARIÁ VEIS ALEATÓRIAs 
O desenho seguinte ilustra o gráfico típico de uma função distribuição 
F ( x ) e da sua relação com a respectiva função densidade de probabilidade, 
f (x ) . 
Algumas situações típicas do cálculo de probabilidades relativas a variáveis 
aleatórias contínuas são agora indicadas. A sua demonstração requer apenas 
conhecimentos elementares de cálculo integral, ficando a cargo do leitor. 
ESTAT~STICA APLICADA 
O ccplafond)> atribuído a um certo tipo de cartão de crédito pressupõe que o 
respectivo titular apresente um saldo médio da sua conta bancária de 1000 
contos. Verifica-se, porém, que o saldo efectivo, que é uma variável aleatória, 
varia entre 800 e 1500. Esta variável aleatória (X) tem a seguinte f.d.p. 
800 1 x c 1500 f ( x ) = 700 ' 
O , outros valores I- 
A representação gráfica desta função é a seguinte 
Deduza-se agora a função de distribuição F ( x ) . 
Como 
F ( x ) = P [ X c x ] = j X f ( u ) du, 
- m 
virá: 
X 
- para x < 800 F ( x ) = j O d u = O 
- m 
- para 800 I x I 1500 F ( x ) = lX f ( u ) du = 
- m 
X 
- para x > 1500 F ( x ) = j f ( u ) du = 
- m 
isto é, 
x < 800 
= - 8001 800 I x 1 1500 
x > 1500 
e graficamente 
ESTAT~STICA APLICADA 
Exemplo 14 
Considere-se a variável Y- tempo de espera, em minutos, numa paragem de 
autocarro, até aparecer um autocarro. 
A f.d.p. desta variável aleatória depende de um parâmetro L e é dada por 
L . e-'y y 2 O 
Y < O 
A função de distribuição de Y será 
Y o Y 
F ( y ) = J f ( u ) d u = J Odu + L . e-"du = 
- - - - o 
isto é: 
para y E [O, + m ] 
1 - e-'y y r O 
Y < O 
Então, por exemplo, a probabilidade de ter de esperar entre 6 a 12 minutos 
pelo próximo autocarro é dada por 
Funções de probabilidade 
e de distribuição 
de variáveis aleatórias 
bidimensionais 
3.1. Variáveis aleatórias discretas 
3.1.1. Função de probabilidade conjunta 
As noções de função de probabilidade e de função de distribuição introdu- 
zidas no ponto anterior podem ser estendidas as variáveis aleatórias multi- 
-dimensionais, definindo-se então função de probabilidade conjunta e função 
de distribuição conjunta. Ir-se-á abordar em particular o caso bidimensional, 
sendo geralmente óbvia a sua extensão ao caso multi-dimensional. 
I Se alguma das variáveis assumir um número infinito numerável de valores, ter-se-á de garantir a 
convergência de série para 1. 
ESTAT~STICA APLICADA 
O exemplo que se introduz de seguida, e que será acompanhado ao longo 
deste ponto, ajudará a compreender esta definição. 
Num determinado bairro de Lisboa, verificou-se que 40% das famílias vivem 
num T2, 35% num T3 e 25% num T4. Constatou-se, ainda, que 40% dessas 
famílias têm um filho e as restantes dois filhos. Definamos a variável aleatória X 
do seguinte modo: 
X = 2, para uma família que vive num T2, 
X = 3, para uma família que vive num T3, 
X = 4, para uma família que vive num T4, 
e a variável aleatória Y deste outro modo 
Y = 1 , para uma família com um filho, 
Y = 2, para uma família com dois filhos. 
É fácil verificar que a função de probabilidade de X é 
0,40 para x = 2 
f ( x ) = P [ X = x ] = 0,35 para x = 3 
0,25 para x = 4 
equeade Y é 
0,4 para y = 1 f ( y ) = P [ Y = y ] = 0,6 para y = 2 
Interessa, porém, trabalhar com a variável aleatória bidimensional (X, Y ) que 
descreve a ocorrência simultânea do tipo de habitação e do número de filhos da 
família. Os pares de valores que (X, Y ) pode assumir são todos os pares orde- 
nados possíveis de construir com os valores de X e os de Y. Por exemplo, 
- (2, 1) corresponde a uma família que habita num T2 e tem um filho, 
- (4, 2) corresponde a uma família que habita num T4 e tem dois filhos. 
É possível, então, calcular probabilidades de ocorrência simultânea de X= x 
e Y = y 
P [ X = 2 , Y = l ] ou P [ X = 4 , Y = 2 ] . 
Suponha-se o seguinte quadro de probabilidades conjuntas: 
A leitura deste quadro é, por exemplo: 
f (2, 1) = 0,25 - é de 0,25 a probabilidade de uma família habitar num T2 e 
ter um filho. 
f (3, 2) = 0,30 - 30% das famílias vivem num T3 e têm dois filhos. 
rn 
3.1.2. Funqão de distribuipão conjunta 
Se, para o exemplo que tem sido seguido, interessasse conhecer a proba- 
bilidade de uma família ter um filho e habitar num T2 ou num T3 ou, ainda, de 
uma família habitar num T3 ou num T4 seja qual for o número de filhos, ou 
uma qualquer outra probabilidade semelhante, dever-se-ia somar, ou seja, 
acumular probabilidades. 
ESTAT~STICA APLICADA 
Está aqui subjacente a noção de função de distribuição conjunta. 
Perante a definição introduzida, é fácil deduzir a função de distribuição 
F(x , Y ). 
Pode verificar-se que F(x, y), tal como está definida neste quadro, cumpre 
as condições indicadas. 
As questões colocadas no início deste ponto têm agora resposta imediata: 
3.1.3. Função de probabilidade marginal 
Prosseguindo com o estudo das leituras possíveis de fazer a partir de uma 
função de probabilidade conjunta f (x, y), defina-se agora a fun~ão de proba- 
bilidade marginal de X (ou de Y) que se obtém fazendo o colapso da variável 
Y (ou X), isto é, não impondo restrições sobre a outra variável. 
Esta função é útil se, por exemplo, interessar saber a probabilidade de uma 
família habitar num T3 (X = 3), seja qual for o número de filhos dessa família 
( Y = 1 ou Y = 2). 
ESTATÍSTICA APLICADA 
As funções de probabilidade marginal de uma V.A. bidimensional são fun- 
ções de probabilidade de variáveis aleatórias unidimensionais. 
Para o exemplo 15 será, como se pode verificar: 
3.1.4. Independência de variáveis aleatórias 
O comportamento conjunto das variáveis X e Y pode fornecer uma indica- 
ção importante sobrea independência entre elas. 
Uma consequência imediata desta definição é que basta que a igualdade 
não se verifique para um par de valores (x, y) para que X e Y não sejam 
independentes. 
Vejamos se as variáveis aleatórias X e Y do exemplo 15 são indepen- 
dentes. 
Para tal, e por exemplo, 
pelo que se pode, desde já, concluir que X e Y não são independentes. 
3.2. Variáveis aleatórias contínuas 
3.2.1. Definição 
Assim como acontece no caso unidimensional em que a função densidade 
de probabilidade é a derivada da função de distribuição, no caso de uma 
variável aleatória contínua bidimensional a função densidade de probabilidade 
conjunta resulta da diferenciação da função de distribuição conjunta em ordem 
as variáveis que a compõem: 
ESTATISTICA APLICADA 
njunta. 
A f.d.p. conjunta goza das seguintes propriedades: 
Exemplo 16 ' 
Considere-se que a função de densidade de probabilidade conjunta do preço, 
p, de um certo bem (em lo3 escudos) e das correspondentes quantidades ven- 
didas, v (em lo3 unidades), é dada por 
para 0,20 < p < 0,40, v > O 
para outros valores 
Adaptado de Mathematical Statisticç, J. FREUND. 
Verifica-se que esta função goza das propriedades referidas: 
1. 5 p . O , jáque p > O e e - P V > 0, V p , v 
3.2.2. Cálculo de probabilidades 
O cálculo de probabilidades referentes a (X, Y), pode ser feito (tal como 
no caso das variáveis aleatórias unidimensionais) através da função de distri- 
buição. 
A função de distribuição conjunta de (X, Y) será 
x Y 
P [ X < x , Y s y ] = I I f ( u , v ) d v d u = F(x, y ) . 
- m - m 
O conjunto de valores sobre os quais estamos a calcular probabilidades 
pode ser representada, no plano (X, Y), da forma seguinte: 
ESTAT~STICA APLICADA 
Se se pretende calcular 
P[x, I X I x2, y1 5 Y I y2], 
o domínio de integração será representado graficamente por 
e portanto 
= lX2 lY2 I(u,v) dvdo = 
x1 Yl 
= F (x2, y2) - F (x*, yl) - F(x1, ~ 2 ) + F(XI 3 YI) 
como se pode verificar com o auxílio do gráfico anterior. 
A função de distribui~ão conjunta F (x, y) goza também das propriedades 
referidas em 3.1.2. 
Voltando ao exemplo 16, se se quiser saber a probabilidade de ter vendas 
superiores a 2000 unidades com um preço entre 200 e 300 escudos, far-se-á 
3.2.3. Funções de densidade de probabilidade marginais 
De forma análoga ao caso discreto, pode-se definir, para uma variável 
aleatória bivariada (X, Y) contínua, duas funções densidade de probabilidade 
marginais. 
Retomando o exemplo 16, as f.d.p. marginais serão: 
+- +- 
fp ( p ) = I f (p, V ) dv = I 5p eWPv dv = 5, para 0,2 < p c 0,4; 
-00 O 
- - 
- ""I"' [eo7'v(0,4 - J-)] para v > O . 
ESTAT~STICA APLICADA 
3.2.4. Independência 
Parâmetros de variáveis 
alea itórias: 
Valor esperado e variância 
Pode caracterizar-se uma variável aleatória através de algumas medidas 
que, de forma sintética, dão informação relevante sobre o seu comportamento. 
As medidas (ou parâmetros) usualmente utilizados são o valor esperado (ou 
média) e a variância. Para a análise da relação entre duas variáveis aleatórias 
são de destacar a covariância e o coeficiente de correlação linear. 
4.1. Média ou valor esperado 
4.1. I . Definipão 
A definição dada para E [X] consubstancia a noção intuitiva de que, assu- 
mindo X um conjunto de valores, a <<média,, correspondente se obtém 
somando (ou integrando) todos esses valores, ponderados pela respectiva 
probabilidade pontual (ou densidade de probabilidade no ponto). Como tal, o 
valor obtido pode não pertencer ao conjunto de valores efectivamente assumi- 
dos por X (notório no caso de uma variável aleatória discreta). 
Exemplo 17 
Uma empresa de aluguer de aviões para executivos estima que a procura 
diária tem um comportamento aleatório, que pode ser descrito pela variável X 
<<número de aviões procurados por dia*, com a seguinte função de probabilidade: 
Se se pretendesse saber quantos aviões são procurados por dia, em média, 
usando o conceito de valor esperado, calcular-se-ia: 
E ( X ) = X x i f ( x i ) = O + 1 x 0,35+ 2 x 0,30 + 3 x 0,10 = 
i 
= 1,25 aviões. 
O número médio de aviões procurados por dia é 1,25, o que, tal como 
assinalado acima, não é um valor efectivamente assumido por X. 
rn 
Exemplo 18 
De acordo com a especificação técnica do pneu RODAVIVA, a sua duração (em 
milhares de quilómetros) é uma variável aleatória ( X ) com f.d.p. dada por 
X 
(Le-" , para x z O f ( x ) = 60 
I O , para x <: O 
Neste caso, espera-se que, em média, o pneu RODAVIVA dure 
= 60 mil Km. 
kl 
4.1.2. Propriedades do valor esperado 
Para ilustrar a propriedade iii), suponha que, no caso do exemplo 17, a mesma 
empresa tem também aviões de aluguer para transporte de correio rápido, cuja 
procura tem um comportamento aleatório descrito por uma outra variável Y e é 
independente da procura de aviões para executivos, X: 
É imediato verificar que E [ Y ] = O + 0,5 + 0,6 = 1,l aviões. 
Se X e Y não forem independentes, virá 
E [ X Y ] = E [ X ] E [ Y ] + cov (X, Y ) (cf. ponto 4.3.). 
EsTAT~STICA APLICADA 
Então, definindo Z = X + Y como a variável aleatória que representa o 
número total de aviões desta empresa que podem ser procurados, sejam de 
correio ou de passageiros, virá 
De facto 
Será: 
obviamente igual a 1,25 + 1,l = E ( X ) + E ( Y ) . 
4.1.3. Valor esperado de funqão de variável aleatória 
Evidentemente que, se g (x ) = x, então E [g (X) ] = E (X). 
As propriedades do valor esperado são ainda válidas para g (X). Sendo X 
uma V.A., g (x ) uma função real e k uma constante real, tem-se 
i ) S e g ( x ) = k então E [ g ( x ) ] = k 
iv) Se X e Y são variáveis aleatórias independentes, então 
E[g1 (x) . g2 (y ) I = E[g1 ( x ) l . E [g2 (y ) I 
Exemplo 17 (continuação) 
Defina-se C (x) - custo diário de operação e manutenção de x aviões de 
aluguer para executivos (em 1 o3 um.) da seguinte forma: 
ESTAT~STICA APLICADA 
Então, sabendo que, em média, são alugados E(X) = 1,25 aviões, é agora 
imediato calcular o custo médio diário de operação e manutenção que esta 
empresa deve enfrentar com este tipo de aviões. 
O valor E [C (X) ] obtém-se ponderando os vários valores que C (x) pode 
assumir (ver quadro) pela respectiva probabilidade de ocorrência. Ora, e este é o 
ponto fulcral do raciocínio, esta probabilidade é a mesma do correspondente valor 
de X, isto é: 
P [X = 0 ] = 0,25, então P [C (x) = 50 ] = 0,25 
. . . 
P [ X = 3 ] = 0 , 1 0 , então P [ C ( x ) = 2 3 0 ] = 0 , 1 0 
donde 
e assim 
E[C(X) ] = C(xi) . f(xi) = 12,5 + 35 + 52,5 + 23 = 
i 
= 123 (lo3 u.m.) . 
Suponhamos que o departamento de Marketing da empresa que comercializa 
os pneus RODAVIVA propôs O seguinte programa de incentivos a venda: 
- Se o pneu durar menos de 40.000 Km, substituir por um pneu novo (no 
valor de 20.000$); 
- Se durar entre 40 e 80 mil quilómetros, restituir metade daquele valor; 
- Se ficar inutilizado só acima de 80.000 Km, não restituir nada. 
Desta forma, espera-se que a empresa gaste, por cada pneu vendido durante 
esta campanha, 12.230$. Para deduzir este valor, defina-se g(x) - gasto promo- 
cional, em 18 escudos (função da duração). 
VARIÁ VEIS ALEATÓRIAs 
Então virá 
donde 
= 12,230 contos. 
4.1.4. Valor esperado monetário (KE.M.) 
Um dos campos de aplicação mais interessantes do conceito de valor 
esperado é a análise dos problemas em que está em jogo escolher, de entre 
várias alternativas, a que maximiza (minimiza) uma determinada grandeza, 
estabelecida como critério de decisão - positiva, como o lucro, ou negativa 
como a perda, o gasto, etc. 
Retomando o exemplo 18, que foi utilizado no ponto anterior, ilustra-se o 
critério do KE.M. - Valor EsperadoMonetário. 
0 s incentivos do programa definido pelo departamento de Marketing (desi- 
gnemo-lo por (<Programa A,,) eram então, em 103 escudos: 
20, para O 5 x <: 40 
10, para 40 5 x < 80 
0, para x < O ou x 2 80 
Mas este programa vai ser agora objecto de comparação com um outro 
alternativo - (<Programa 9)) - cujos valores chave são: 
I 20, para O 5 x < 50 15, para 50 I x < 75 5, para 75 I x < 90 0, para x .: O ou x 2 90 
Deverá ser tomada uma decisão sobre a escolha do programa; para tal, 
admite-se que, de momento, interessa minimizar os gastos acima previstos. 
Há, assim, alternativas em jogo, entendendo-se por alternativa uma sequên- 
cia de decisões em que alguns elementos estão sob controlo do decisor (i.e., 
em que ele tem de optar, segundo os critérios optimizantes) enquanto que 
outros são de natureza aleatória ou estocástica (não sendo assim possível, ao 
agente decisor, determinar o que de facto acontecerá). 
Diagramaticamente, podem listar-se essas alternativas através do que se 
designa por árvore de decisão. 
Programa A 4 0 1 x < 8 0 
A 
x<O ou x 2 8 0 
A 
onde: 
designa <(nó de decisão)), donde emanam as decisões que estão sob o 
controlo do agente decisor, 
0 designa <<nó de acontecimento)), ao qual estão associados acontecimentos 
aleatórios, cujas probabilidadesdevem somar a unidade, 
A designa fim de sequência (alternativa). 
Há, agora, que avaliar as diferentes sequências, começando da direita para 
a esquerda no diagrama acima. 
Para tal: 
a) escrever, nos respectivos ramos da árvore, as probabilidades associa- 
das a cada acontecimento. 
b) escrever o resultado final (em termos de valor) de cada sequência na 
posição A 
Por exemplo, pode verificar que é: 
... 
Programa A P [ 4 0 ~ x < 8 0 ] = 0 , 2 5 
A R,= 10 
P [ x<O OU x280]=0,26 A R,= O 
cuja leitura indica, por exemplo, que o gasto de 20 x lo3 u.m. ocorre com uma 
probabilidade de 0,49 e o de 10 x lo3 u.m. com uma probabilidade de 0,25. 
Do mesmo modo se constrói a informação relativa ao Programa B: 
P [O 5 X < 501 = 0,57 
A R,=20 
Programa B A & = I 5 
P [ 7 5 5 x < 90]=0,06 
A Re=5 
O passo seguinte é (<avaliar,, cada nó de acontecimentos, calculando o valor 
esperado monetário associado: cada valor associado a um A é ponderado pela 
probabilidade correspondente, que está inscrita no ramo adjacente; e a soma 
destas operações é colocada no círculo do nó de acontecimentos. 
Assim, 
E [gasto com o programa A ] = 20 x 0,49 + 10 x 0,25 + O x 0,26 = 
ESTAT~STICA APLICADA 
E [ gasto com o programa B ] = 20 x 0,57 + 15 x 0,15 i- 5 x 0,06 + O x 0,22 = 
o que, diagramaticamente é: 
Programa A 
Programa B '-.--a= 
Continuando, da direita para a esquerda, encontra-se uma indicação O, de 
nó de decisão: é nele que se inscreve o melhor valor de entre os vários ramos 
que dele partem. Quer isto dizer que, no exemplo, face a um Programa A cujo 
gasto esperado é de 12,3 e a um Programa B cujo gasto esperado é de 13,95, 
o decisor (no nível R ) vai optar pelo A. 
Então: 
-, cortam-se os ramos não escolhidos, para assinalar que aquele caminho 
não foi seleccionado; 
+ inscreve-se o melhor valor no O 
Viria, então, finalmente: 
Programa A 
A gestão, se tiver em conta apenas o V.E.M., vai decidir escolher o Progra- 
ma A, pois é este que optimiza o seu critério de decisão (gastos mínimos). 
O critério do V.E.M. pode ser aplicado em várias iterações, isto é, com 
sequências mais complexas de nós de acontecimentos e de nós de decisão, 
mas a metodologia mantém-se, recomendando-se apenas o respeito da se- 
quência dos passos atrás indicados e iniciando o processo sempre da direita 
para a esquerda. 
4.2. Varíância e desvio-padrão 
Vejamos, agora, um outro parâmetro importante para caracterizar uma 
variável aleatória: a variância. 
A definição apresentada evidencia que a variância é a média dos quadrados 
dos desvios dos diversos valores de X em relação a sua média. É, assim, uma 
medida de dispersão em relação a média, e é sempre positiva. Quanto mais 
frequentes forem os valores pouco afastados da média, menor dispersão (em 
relação a média) apresentará a variável aleatória. 
ESTAT~STICA APLICADA 
Designa-se por desvio-padrão a raiz quadrada positiva da variância: 
o, = o = + Y ' V A R ( X ) 
O seu interesse deriva de vir expresso nas mesmas unidades de medida 
que a variável aleatória X. 
Pode calcular-se, para o exemplo 17, a variância da procura de aviões para 
executivos: 
= (O - 1,251~ 0,25 t (1 - 1,251~ 0,35 + (2 - 1,251~ 0,30 + 
t(3-1,25)~0.10 = 
= 0,8875 aviões2 
e 
o, = + 4- = 0,94 aviões 
Do mesmo modo, para a variável aleatória do exemplo 18, viria 
o, = + = 60 (1 o3 Km) 
4.2.1. Propriedades da Variância 
A expressão apresentada em 4) constitui uma fórmula expedita de cálculo 
de variância. Para a utilizar, basta recordar que 
E (x2 ) = xi2 . f (xi), se X é uma variável aleatória discreta 
i 
+= 
E (x2 ) = x2 . f (x) dx, se X é uma variável aleatória continua. 
- ca 
ESTATISTICA APLICADA 
4.3. Covaríâncía e coeficiente de correlaçáo linear 
Para estudar as relações entre duas variáveis aleatórias X e Y pode-se 
analisar a covariância e o coeficiente de correlação linear. 
A covariância é pois uma medida da distribuição conjunta dos valores de 
X e Y, em termos dos desvios em relação as respectivas médias. A 
Cov (X, Y ) descreve, assim, a relação linear ou ligação entre duas variáveis 
e a sua mútua dependência. 
Pode também deduzir-se uma fórmula mais expedita para o cálculo da 
covariância. 
De facto: 
Cov(X, Y ) = E[(X - p x ) ( Y - py) l = 
Note-se que 
E[X Y ] = xi yif (xi, v), Se (X, Y) for variável aleatória discreta 
i j 
+ - + - 
E [ X Y l = I I x.Y f (x, Y dx dy7 se ( X Y) for variável aleatória 
-ca - m 
contínua. 
Se X e Y são independentes, então 
Assim, como 
COV(X, Y) = E [ X Y ] - E(X) . E ( Y ) 
tem-se 
~ x e r n ~ l o 19 (continuação) 
Calcule-se a covariância entre a procura de aviões para executivos, X, e a 
procura de aviões para transporte de correio rápido, Y. 
Sabe-se que f (x, y) é dada por 
ESTAT~TICA APLICADA 
Então, dado que 
sendo 
E[XY] = x i ~ f ( x ~ , ~ ) = 1,375 
i j 
e 
E[X] = 1,25 
virá 
COV(X, Y) = 1,375 - 1,25. 1,1 = O 
o que seria de esperar, já que X e Y eram independentes. 
m 
O recíproco deste teorema pode não ser verdadeiro: 
O facto de Cov (X, Y) = O não implica que haja independência, pois pode 
haver uma ligação não linear entre as variáveis. 
A covariância está expressa nas unidades de X e nas de Y, simulta- 
neamente, o que introduz algumas dificuldades quando se pretendem fazer 
comparações. Para ultrapassar esta situação, pode calcular-se o coeficiente de 
correlação linear. 
Quando 
pv = - 1, há correlação linear negativa perfeita entre X e Y 
pv = 1, a correlação linear é positiva e perfeita 
pw = O, não há correlação linear' entre X e Y. 
Quando - 1 < pw < O diz-se que existe correlação linear negativa menos 
forte do que quando pxY = - 1. De igual forma, quando 1 > pxY > 0, diz-se 
que a correlação linear positiva é menos forte do que quando pw = 1. 
Analise-se a correlação entre as variáveis X (apartamentos) e Y (número de 
filhos da família): 
pois 
virá então: 
Cov (X , Y ) - 
- 
0,09 
Pxy = = 0,232 
o, . oy 0,79 x 0,49 
Tal como referido para Cov (X, Y), este resultado pode significar que existe independência entre 
X e Y, ou ainda que, existindo dependência, o padrão desta é não linear. 
ESTAT~STICA APLICADA 
pois 
O, = + .\I VAR ( x ) = + = 0,79 
Há, pois, indicação de uma correlação linear positiva entre X e Y que pode 
ser interpretada do seguinte modo: há uma variação no mesmo sentido do número 
de assoalhadas dosapartamentos e do número de filhos das famílias que nelas 
habitam (ou seja, quanto maior é a família, mais assoalhadas tem a habitação). 
Momentos 
Os parâmetros estudados no ponto anterior - valor esperado, variância, 
covariância - são casos particulares de um conceito mais geral: o conceito 
de momento. 
- Se X for uma variável aleatória discreta, 
a) os momentos ordinários de ordem K serão 
b) os momentos centrados de ordem K serão 
CLI( = E[ (X - plk1 = E ( x i - p lk f (x i ) 
i 
- Se X for uma variável contínua, 
a) os momentos ordinários de ordem K serão 
+- 
~i = E [xk ] = I x k f ( x ) dx 
- m 
EÇTAT~STICA APLICADA 
b) os momentos centrados de ordem K serão 
Vejam-se alguns casos particulares de momentos ordinários e centrados. 
1 ) K = O 
O momento ordinário de ordem O é 
pó = E[x'] = E[1] = 1 
e o momento centrado de ordem O é 
po = E[(X - p)'] = E[ l ] = 1. 
2 ) K = l 
O momento ordinário de ordem 1 é o valor esperado de X 
p; = E[x'] = E[X] = px 
e o momento centrado de ordem 1 é 
1 p1 = E[(X- p) ] = E[X- P ] = E(X) - p = O. 
3 ) K = 2 
O momento ordinário de 29rdem é 
p; = E [ x ~ ] 
e o momento centrado de 2" ordem é a variância de X 
p2 = E[(X - p)* ] = VAR(X) 
Assim, os momentos englobam quer medidas de localiza@ío, quer medidas 
de dispersão. 
Pode demonstrar-se que os momentos centrados se podem obter através 
dos ordinários e vice-versa. 
5.1. Funqáo geradora de momentos 
Qualquer momento pode ser obtido a partir de uma função: a função 
geradora de momentos. 
A função geradora de momentos, como o nome indica, permite gerar mo- 
mentos (ordinários) de qualquer ordem, para uma variável aleatória X, 
mostrando-se que 
lim d k [ m ( t ) ] 
dt 
= clk 
1-10 
Desigualdades de Markov 
e Chebishev 
Para finalizar este capítulo sobre variáveis aleatórias introduzem-se alguns 
resultados particularmente úteis quando se pretendem calcular probabilidades 
de variáveis aleatórias com função (densidade) de probabilidade desconhecida. 
Destes resultados destacam-se as desigualdades de Markov e Chebishev. 
Para a demonstração do teorema anterior vai-se supor que X é uma variável 
aleatória contínua'. O domínio de integração pode ser partido em dois subcon- 
juntos, A e B: o dos valores de X cuja imagem por h (.) é inferior a C, (A ), e 
o dos restantes valores de X, (B ) . Assim, teremos: 
A = { x : h ( x ) < C ) e B = { x : h ( x ) 2 C ) 
Então, sendo f ( x ) a função densidade de probabilidade de X, 
Pode demonstrar-se para o caso de X ser uma variável aleatória discreta, com f (x) como sua 
função de probabilidade. 
Como h (x) 2 0, por hipótese, então 
e portanto, 
E [ h ( X ) ] 2 l h ( x ) f ( x ) dx 
B 
Mas, pela definição de 9, tf x E B, h (x 2 C, 
donde 
E [ h ( X ) ] 2 I ~ f ( x ) dn = ~ I f ( x ) d x = C P [ h ( X ) 2 C ] . 
B B 
c.q.d. 
Deste teorema podem deduzir-se os seguintes corolários: 
ESTAT~STICA APLICADA 
Fazendo h ( x ) = ( x - p )2, E ( X ) = p e VAR ( X ) = 02, 
temos que 
E [ h ( X ) ] = E [ ( X - y ) 2 ] = o 2 
Aplicando o teorema, 
e fazendo C = K 2 02, vem 
o 2 P [ ( X - p ) 2 2 K 2 0 2 ] 5 - 
K 2 o2 
Como 
( X - 2 K 2 0 2 w I X - p 1 2 Ko 
pois K > O e o > O, a desigualdade desejada é equivalente a 
o que demonstra a desigualdade ( i ) . 
Para obter ( i), basta notar que 
p [ I X - p1 2 K o ] + P [ I X - P I < K o l = 1 
VARIÁVEIS ALEAT~RIAS 
donde 
P [ I X - p l < Ko] = 1 - P [ I X - p I 2 K o ] 
e, finalmente, 
Se se atentar nas expressões ( i ) e (ii), verifica-se que a primeira dá o limite 
máximo da P [ I X - p I 2 Ko] e a segunda o limite mínimo da 
P [ I X - p I ] < K o ] . 
Estas desigualdades dão uma ideia da (<importância)) de o como medida 
de dispersão (veja o significado de I X - p I). 
Se se fizer, por exemplo, K = 2, virá, 
o que significa que, para uma qualquer variável aleatória X, com variância 
3 finita, pelo menos - da massa de X cai no intervalo de dois desvios-padrão 4 
para a esquerda e para a direita da média. 
- . -vV. . '-h4-.P. -r. , - - < -yq,^rr... . rr i ta4 . . - . . - " -.. .- 
Exemplo 20 
A distribuição dos salários mensais dos operários de uma empresa tem média 
11 0 (1 o3 escudos) e desvio-padrão 8 (1 o3 escudos). Quantos, dos 500 operários, 
têm salário igual ou superior a 120 contos mensais? 
Se designarmos por X - salário mensal de um operário (em lo3 escudos) 
será 
px = 110 e o, = 8 
Aplicando a desigualdade de Markov, teremos 
ESTAT~STICA APLICADA 
No máximo, 91,7% dos operários (i.e. 418 operários) terão salário igual ou 
superior a 120 contos. 
Se se admitir a hipótese de que a distribuição dos salários é simétrica, e 
conhecendo o desvio-padrão da distribuição de X, pode-se precisar melhor a 
estimativa da P [X 2 120 1, através da desigualdade de Chebishev. 
Será 
P[X 2 1201 = P [X -p 2 120 - 1101 = 
Então, como 
1 o P [ I X - pl 2 101 = P I X - pl 2 - . 8 1 6 1 8 
1 o isto é, K = - 8 
virá P [X 2 120 ] I 0,32, isto é, no máximo 160 operários têm salário igual ou 
superior a 120 contos mensais. 
H 
O estudo estatístico do número de doentes que chegam por hora ao banco 
de urgência de um hospital revela que, em média, chegam 9, e que o desvio-pa- 
drão é igual a 3. 
Quantas macas deverá haver, no mínimo, para que seja no mínimo de 0,95 a 
probabilidade de um doente chegado ao hospital ter maca? 
(Suponha que a distribuição do número de doentes que chegam ao hospital é 
simétrica). 
Seja X - o número de doentes que chegam por hora ao banco: 
h = 9 e o x = 3 . 
Quer-se P [ X < M ] 5 0,95 B P [ X - p < M - p ] 2 0,95 
Sabe-se que, de acordo com a admitida suposição, 
1 P [ X - p < M - p ] = y P [ I X - p I < M - p ] 
Logo, para que P [X - p < M - p ] 1 0,95, é necessário ter 
1 
- P [ I X - p l < M - p ] 1 0 , 9 5 ~ P [ I X - p I < M - ~ 1 2 0 , 4 7 5 2 
Assim, utilizando as desigualdades de Chebichev, temos que 
P [ I X - 9 1 < M - 9 1 1 1 - - I = 0,475 
k 
Portanto, 
M - 9 = Ko = 1,38 x 3 = 4,14 
e consequentemente, 
M = 9 + 4,14 = 13,14. 
Como M representa o número de macas (e deve ser um valor inteiro) para 
que a desigualdade seja verificada, é necessário que M seja pelo menos 14 (o 
primeiro inteiro a seguir a 13,14). 
m 
Exercicios propostos 
1. A procura diária de uma determinada peça X é uma variável aleatória com a 
seguinte distribuição de probabilidade: 
a) Determine K. 
b) Qual a procura média diária? 
c) Suponha que cada peça é vendida por 5 u.m. O fabricante produz diaria- 
mente 3 peças. Qualquer peça que não tenha sido vendida ao fim do dia, 
deve ser inutilizada provocando um prejuízo de 3 u.m.. 
Quanto espera o fabricante ganhar em cada dia? 
2. Seja x uma variável aleatória contínua com função de densidade de probabi- 
lidade f(x) = h . e-" com x 2 0. 
Calcule o valor esperado de x. 
3. Determinada agência responsabilizada pela organização de um espectáculo 
ao ar livre debate-se com a tomada de certa decisão para a qual reuniu as 
seguintes informações: 
- As receitas do espectáculo serão de 20.000 u.m. no caso de o tempo estar 
aceitável e apenas de 2.000 u.m. se estiver a chover. 
- Pelo custo de 5.000 u.m. a agência poderá garantir junto de uma compa- 
nhia seguradora uma indemnização no valor de 20.000 u.m. 
a) Qual o valor de p (probabilidade de chover) que torna indiferentes as 
alternativas em questão? (construa a árvore de decisão e utilize o critério 
do valor esperado monetário) 
b) De acordo com o mesmo critério, indique qual a melhor decisão a tomar 
no caso de p ser igual a 0,3? 
R: a) p = 0,25; b) Fazer o seguro pois o valor esperado da receita é de 
15.600 u.m. contra 14.600 u.m. se não fizerseguro. 
4. Sejam X e Y duas variáveis aleatórias tais que: 
E [ X ] = 2 E [ Y ] = 100 C O V ( X , Y ) = 10 
VAR [ X ] = 4 VAR [ Y ] = 100. 
Seja ainda W uma variável aleatória tal que: W = 4 X + Y. 
Calcule E [ W ] e VAR [ W ] 
R: E [ W ] = 108 e VAR [ W ] = 244. 
5. Sendo X e Y duas variáveis aleatórias quaisquer, demonstre que: 
COV (X - Y, X + Y ) = VAR [ X ] - VAR [ Y ] 
6. Considere a função de densidade conjunta dada por: 
4 x y O < x < l - K 
f ( x , Y ) = O < y < l 
outros valores 
Determine o valor de K. 
7. Seja a seguinte função de distribuição da variável aleatória bidimensional 
( 4 9 x2 1: 
a) Determine P [X, I 2; X2 5 31 
b) Determine P[1 < Xl < 2; 1 < X2 < 31 
c) Determine a função de densidade de probabilidade conjunta f ( x l , x2). 
R: a) 0,822; b) 0,074; c) f ( x l , x2) = e-('' + ' z ) com x l , x2 > 0. 
8. Seja a variável aleatória contínua (X1, X2, X3) cuja função de densidade 
conjunta e dada por: 
10 outros valores 
a) Determine f (xl , x3) e f ( x2) 
b) Determine F ( ~ 2 ) . 
9. Seja a função de densidade de probabilidade conjunta seguinte 
y ( x l + 2x2) o < Xl < 1 , o < x2 < 1 
f (x1, x2) = I o2 outrosvalores 
Determine Cov (X1, X2) e O coeficiente de correlação linear px,, ,,. 
10. Considere a seguinte função de densidade de probabilidade conjunta: 
K x y + y O < x < l ; O < y < l 
f ( X , Y ) = 
outros valores 
a) Determine K. 
b) Verifique se as variáveis são independentes. 
9 R: a) K = 2; b) X e Y são independentes; 
c) 32 
11. Explique, cuidadosamente, qual a diferença entre variáveis aleatórias inde- 
pendentes e variáveis não correlacionadas linearmente. 
12. A duração, em horas, de certo componente de um aparelho tem uma distri- 
buição desconhecida. Sabe-se no entanto que a média é de 2.000 horas e que o 
desvio-padrão é de 250 horas. 
Certo técnico da empresa afirma que a probabilidade de um componente durar 
entre 1.500 e 2.500 horas é de 0,5. 
Comente justificadamente a afirmação do técnico. 
R: A afirmação é falsa pois P [I500 < X < 25001 é maior que 0,75. 
13. O tempo de espera, em minutos no aeroporto de Lisboa até ao embarque é 
uma variável aleatória com distribuição simétrica com valor esperado 60 minutos 
e variância 100 minutos2. 
Comente a afirmação dada pelo funcionário: <<Só 10% dos passageiros espe- 
ram mais de 90 minutos pelo embarque)). 
R: A afirmação é falsa, pois P[X > 901 é no máximo, de aproximadamente 
0,055. 
Distribui~ões teóricas 
mais importantes 
Distribuições discretas 
No âmbito da Estatística Descritiva, fala-se muitas vezes em distribuições 
de frequências ou distribuições empíricas de variáveis discretas e contínuas. 
As distribuições teóricas que se irão abordar representam, afinal, os modelos 
matemáticos (expressão genérica) daquelas distribuições empíricas. 
A incidência num conjunto limitado de distribuições (as mais importantes) 
resulta do facto de tais modelos probabilísticos se ajustarem bem a explicação 
do comportamento de uma vasta gama de fenómenos aleatórios que frequen- 
temente ocorrem no nosso quotidiano. 
No presente capítulo, consideram-se em primeiro lugar as distribuições 
teóricas de variáveis aleatórias discretas e posteriormente as de variáveis 
aleatórias contínuas. 
1.1. A distrfbuiçáo uniforme 
Nalgumas situações assume-se que os valores que uma variável aleatória 
discreta X pode assumir ocorrem com igual probabilidade. Diz-se então que X 
tem distribuição uniforme. 
Exemplo I 
Considere-se a experiência aleatória que consiste no lançamento de um dado 
perfeito. 
Seja a variável aleatória X- número inscrito na face voltada para cima. 
A variável aleatória X tem distribuição uniforme pois, 
( O outros valores 
Ou seja, X pode assumir os valores inteiros x = 1, 2, 3, 4, 5 e 6 com igual 
probabilidade. 
rn 
A variável aleatória X assume um conjunto finito de valores, estando 
1 
associado a cada um uma probabilidade constante K = -. N 
O parâmetro caracterizador desta distribuição é N, um valor inteiro positivo 
qualquer e que, em geral, corresponde ao valor mais elevado assumido pela 
variável X. 
Quando aqui se diz que N é o parâmetro caracterizador da distribuição 
uniforme quer-se apenas referir que o N é um valor que pertence a uma 
expressão analítica e que toma valores definidos a priori. 
Para cada valor de N, obtém-se uma distribuição uniforme individualizada, 
pertencente a família da distribuição uniforme. 
O termo parâmetro é portanto aqui usado num sentido diferente daquele 
que até aqui foi utilizado. 
Quando anteriormente se apresentaram as distribuições de variáveis alea- 
tórias falou-se frequentemente em parâmetros como a média ou valor 
esperado, a variância e outros momentos de uma variável aleatória, que 
permitem conhecer melhor as características de determinada distribuição - 
tais parâmetros como que resumiam as características de uma distribuição. 
DIsTRIBuIÇOES TEÓRIcAs MAIS IMPORTANTES 
Demonstração: 
Para a média ou valor esperado: 
N N N 
1 
- 
1 E [X] = p x = E xi . f (xi) = E xj . - - - N N ' C x j= 
xj = 1 xj = 1 xi = 1 
tendo em consideração que o Último somatório indicado é o dos termos de 
uma progressão aritmética de razão 1. 
Para a variância: 
ESTAT~STI~A APLICADA 
já que 
A função de distribuição F ( x ) duma uniforme facilmente se obtém recor- 
rendo ao conceito de função de distribuição anteriormente estudado: 
Apresentam-se a seguir os gráficos da função de probabilidade f ( x ) e da 
função de distribuição F (x ) . 
DISTRIBUIÇOES TEÓRICAS MAIS IMPORTANTES 
%v@* a s ~ ~ m - - - m w m m a * e . - . . 4t-v - s ~ u u r a n r r t s *-,- ~ ~ = w r v ~ ~ ~ w x + * <-*=-r 
Exemplo 2 
Uma empresa produtora de energia eléctrica pretende construir no próximo 
ano uma nova central térmica. 
Ao planear a sua estratégia de produção, conclui que é igualmente provável 
que a procura seja de 100000, 11 0000, 120000 ou 130000 kilowatts. 
A distribuição de probabilidade da procura de energia eléctrica em kilowatts, 
X, pode ser descrita da seguinte forma: 
P[X= x ] = f(x) = 0,25 x = 100000; 110000; 120000; 130000 
O outros valores 
Trata-se duma distribuição uniforme em que N = 4; a representação gráfica 
da função de probabilidade f (x) é a seguinte: 
w%----.s>w" .-L^".%w<r ara-.". uu'$puvprrr. "m~n.tnra a , * * 
Exemplo 3 
Uma empresa importadora de cafés estudou o lançamento de um novo lote 
de café de qualidade superior, e está disposta a comercializá-lo em 5 composi- 
ções diferentes, A, B, C, D e E, se as preferências dos consumidores se revelarem 
diferenciadas. 
ESTAT~STICA APLICADA 
A recolha de uma amostra aleatória de 1 .O00 consumidores potenciais a quem 
foram oferecidas 5 chávenas de café -sem identificar a composição -forneceu 
os seguintes resultados: 
Considera que esta distribuição empírica tem algo a ver com a distribuição 
unifonne? 
De facto, os resultados apresentados evidenciam que as preferências dos 
consumidores são diferenciadas - cada quinta parte dos potenciais consumido- 
res prefere uma composição diferente. 
Considerando a variável aleatória X - composição preferida por um certo 
consumidor, poder-se-ia dizer que X tem a seguinte distribuição de probabilidade: 
Composiçtio 
preferida 
A 
B 
C 
D 
E 
I x = l , 2 , 3 , 4 , 5 - f ( x ) = 5 o o. v. 
Número de 
consumidores 
200 
200 
200 
200 
200 
onde x = 1,2, 3, 4,5 corresponde respectivamente as composições A, B, C, D e 
1.2. Prova de Bernoulli 
As distribuições que a seguir serão estudadas assentam no conceito de 
provas de Bernoulli. 
Mas o que é uma prova de Bernoulli? 
DISTRIBUIÇÕES TEÓRICAS MAIS IMPORTANTES 
&.I --a * L " - v ..-,,.+--"e, -- **Y"----"r"- - x . >f<,,rqrr.->+,r.- --Y 
Considere-se uma experiência aleatória que tem apenas dois resulta- 
dos possíveis: A que se designa por sucesso e à designado por insucesso. 
Suponha que, com o objectivo de medir a audiência de determinado programa 
de televisão, se pergunta a um potencial telespectador se viu ou não aquele 
programa. 
Trata-se de uma prova de Bernoulli? Sim, se: 
- Se admitir que só há dois resultados possíveis, isto é, que o telespectador 
só pode responder «sim>> ou «não>> tem-se que : 
Q = {sim, não). 
- Se conhecer a probabilidade com que o telespectador iria dizer asimn ou 
<<não>>. 
a 
ESTAT~STICA APLICADA 
Existem muitas situações reais, quer no âmbito das ciências sociais, quer 
na área de gestão empresarial, que respeitam, embora muitas vezes de forma 
aproximada, as hipóteses subjacentes a um processo de Bernoulli. 
Uma sequência de provas de Bernoulli é um exemplo dos chamados pro- 
cessos aleatórios ou processos estocásticos. 
Exemplo 5 
Imagine que determinada empresa pretende efectuar uma campanha publici- 
tária na televisão. Para tal, tenciona patrocinar certo programa. No entanto, a dita 
campanha só é vantajosa para a empresa se esse programa tiver uma audiência 
de pelo menos 40% dos telespectadores. 
Para se decidir, a empresa pode levar a cabo uma experiência aleatória, que 
consistirá em inquirir um certo número de telespectadores, perguntando-lhes se 
viram ou não aquele programa. 
Em que condições se estará perante um processo de Bernoulli? 
Poderá eventualmente haver maior número de resultados mas estes são passíveis de se 
resumirem a apenas dois. 
DISTRIBUIÇOES TEÓRICAS MAIS IMPORTANTES 
As hipóteses subjacentes a um processo de Bernoulli estão satisfeitas neste 
exemplo se se admitir que: 
Em cada entrevista (prova) a realizar, o entrevistado s6 poderá dar uma das 
duas respostas possíveis: vi o programa ou não vi o programa. 
As probabilidades associadas aqueles resultados são respectivamente p e 
(1 - p) e mantêm-se fixas de entrevista para entrevista. 
Também é plausível que as entrevistas sejam independentes ... isto é, os 
entrevistados não estão «combinados» ... 
II 
1.3. A distribuição de Bernoulli 
Considere-se uma prova de Bernoulli e uma variável aleatória X que só 
assume dois valores: o valor O quando o resultado da prova é insucesso e o 
valor 1 quando o resultado da prova é sucesso. Ao sucesso está associado a 
probabilidade p e ao insucesso a probabilidade (1 - p) = q, fixas. 
Recorrendo ao conceito de função de distribuição F ( x ) , facilmente se 
deduz que a função de distribuição duma Bernoulli é dada por: 
Demonstração: 
1 
E [ X ] = C x . f ( x ) = 
x= O 
por definição 
Var[X] = E [ x2 ] - ( E [ X ] ) 2 = por definição 
DISTRIBUIÇOES TEORICAS MAIS IMPORTANTES 
Nestas condições, a variável aleatória X com distribuição de Bernoulli pode 
definir-se em termos genéricos como: 
X - número de sucessos numa prova de Bernoulli. 
I " r ( g P l . t * " . v,-. rr*.r n a - r - w m r r - a > . p u m ~ - " . - > " - - - L " " 
Exemplo 6 
Alguns exemplos de variáveis aleatórias com distribuição de Bernoulli: 
Xl - número de clientes, em 1, interessados no desconto de pronto pagamen- 
to. 
X2 - número de donas de casa, em 1, que usam o detergente A. 
X3 - número de crianças, em 1, que são canhotas. 
m 
1.4. A distribuição binomial 
A distribuição binominal assenta também no conceito de provas de Bernoulli 
e é sem dúvida uma das distribuições de probabilidade duma variável aleatória 
discreta mais largamente utilizada como modelo teórico adequado a uma 
grande variedade de situações observáveis na prática. Esta distribuição de- 
sempenha, ainda, um papel importante na teoria da amostragem. 
Em termos genéricos, esta distribuição é um esquema probabilístico que se 
adapta a situações em que se pretende analisar um conjunto finito (ou amostra) 
de indivíduos/objectos que possuem determinado atributo com probabilidade p ou 
que não o possuem com uma probabilidade (1 - p ) = q. 
Considere-se uma sucessão de 5 provas de Bernoulli, isto é, uma sucessão 
de 5 experiências aleatórias independentes, em cada uma das quais pode 
ocorrer ou não determinado acontecimento A. 
- 
O acontecimento A, denominado sucesso, ocorre com probabilidade p e 
A, o insucesso, com probabilidade (1 - p ) = q. 
ESTATÍSTICA APLICADA 
O espaço de resultados associado aquelas 5 provas de Bernoulli é dado por: 
em que # R = Z5 pois o número de provas é 5 e só há 2 resultados possíveis: 
A e Ã. 
Seja o acontecimento A - o recém-nascido é do sexo feminino e suponha 
que se pretende, por exemplo, saber: 
- Qual a probabilidade de, em 5 recém-nascidos, 
Todos serem do sexo feminino? 
Apenas três serem do sexo feminino? 
Nenhum ser do sexo feminino? 
É a distribuição binomial que permitirá responder a estas questões. 
1.4.1. A função de probabilidade da binomial 
A distribuição binomial aparece associada a seguinte questão genérica: 
pretende-se saber qual a probabilidade de, em n provas de Bernoulli, serem 
obtidos x sucessos (a realização de certo acontecimento A) e portanto 
(n - x ) insucessos (a não realização de A). 
Suponha a seguinte sequência de n provas de Bernoulli: 
n provas 
X (n - x ) 
sucessos insucessos 
Note-se que há 2" sequências diferentes possíveis, mas a todas elas 
corresponde a mesma probabilidade: 
p X ( l - p)" - 
DISTRIBUlÇ6ES TEÓRICAS MAIS IMPORTANTES 
No entanto, existem maneiras diferentes de se obterem x sucessos (e (E) 
portanto ( n - x ) insucessos). 
Definindo X - número de sucessos em n provas de Bernoulli, tem-se 
P [ X = X ] = f ( x ) = n - x 
Deduz-se assim a função de probabilidade duma variável aleatória X com 
distribuição binomial. 
O parâmetro n corresponde ao número de provas de Bernoulli a efectuar, 
sendo n qualquer inteiro positivo. O parâmetro p corresponde a probabilidade 
associada ao sucesso, com O 5 p I 1 . 
A respectiva função de distribuição, F(x), é dada por: 
Os parâmetros n e p são suficientes para a especificação duma distribui- 
ção binomial, isto é,. a valores diferentes de n e p correspondem diferentes 
distribuições desta família. 
-e -r"" - ci *.-. ai-,.... I-nr mrrr a q P . . - f f p r * " T 1 2 x i - " T I w ~ - - * "tp" ~ W ~ w P - = - 7 
Exemplo 7 
Seja o acontecimento A - o recém-nascido é do sexo feminino. 
A este acontecimento está associada uma probabilidade p. 
Pretende-se saber qual a probabilidade de, em 5 recém-nascidos, apenas um 
ser do sexo feminino. 
Seja X - número de recém-nascidos, em 5, que são do sexo feminino. 
Então, a probabilidade pretendida é 
P [ X = 11 = f ( 1 ) = 
O termo 
indica o número de sequências diferentes em que pode ocorrer um sucesso (e 
portanto quatro insucessos) e que são: 
DISTRIBUIÇ~ES TEÓRICAS MAIS IMPORTANTES 
Um técnico dos serviços de Prevenção e Segurança Rodoviária afirma que 1 
em 10 acidentes rodoviários é devido a cansaço. 
Determine a probabilidade de que em 5 acidentes haja 0, 1,2, 3,4 e 5 devidos 
a cansaço. 
Seja X- número de acidentes, em 5, devidos a cansaGo 
X n b ( x ; n = 5; p = 0,l) 
P [ X = O] = (O, 1)' (0,915 = 0,5905 (0) 
P [ X = 1 ] = ( f ] (O, 1) (0,9)' = 0,3280 
P [ X = 2 ] = (O, 112 (O, 913 = 0,0729 (: 1 
Como se ilustra no exemplo anterior, a utilização da fórmula da binomial 
origina cálculos trabalhosos e monótonos. Felizmente estão disponíveis tabelas 
onde consta a função de probabilidade da binomial (ver tabela em apêndice), 
que simplificam esta tarefa. 
@aarpy--*-aur-c. r - -- 
Exemplo 9 
Apresenta-se, em seguida, um exemplo de utilização da tabela da distribuição 
binomial. 
A tabela disponível em apêndice permite obter, para cada n (n 2 20 ) e para 
cada p (para valores de p entre 0,05 e0,5, em múltiplos de 0,05), as proba- 
bilidades associadas a x sucessos. 
Com n = 10 e p = 0,2 vem por exemplo: 
Se se pretende saber a probabilidade de obter exactamente 3 sucessos em 
10 provas de Bemoulli (com p = 0,2) virá: 
Se pretendermos a probabilidade de obter pelo menos 3 sucessos: 
P [ X 2 3 ] = 1 - P [ X < 3 ] = 1 - P [ X 2 2 ] = 
DISTRIBUIÇOES TEÓRICAS MAIS IMPORTANTES 
1.4.2, Aspecto gráfico da funqáo de probabilidade da binomial 
A cada uma das distribui~ões da família binomial representadas na figura 
seguinte corresponde um valor de p e portanto de (1 - p ) = q diferentes. O 
número de provas de Bernoulli é de n = 5 para qualquer das distribuições 
apresentadas. 
ESTATíSTICA APLICADA 
Uma análise da figura anterior evidencia algumas características relevantes 
na forma gráfica da distribuição binomial. 
1. Quando p = 0,5, a distribuição binomial é simétrica, e isto é válido para 
qualquer valor de n. 
2. Para valores de p < 0,5 (veja-se o caso de p = 0,1 e q = 0,9 ou 
p = 0,3 e q = 0,7), a distribuição é assimétrica positiva ou enviesada 
a esquerda. 
3. Para valores de p > 0,5, a distribuição binomial é assimétrica negativa 
ou enviesada a direita (veja-se o caso de p = 0,7 e q = 0,3 ou 
p = 0,9 e q = 0,l). 
4. Quanto mais afastado estiver p de 0,5 mais enviesada é a distribuição. 
Uma propriedade importante da distribuição binomial, referida, é que, quan- 
do p = 0,5, a distribuição é simétrica. 
Um outro aspecto relevante é que a proximidade a uma distribuição simé- 
trica também pode ocorrer mesmo quando p é diferente de 0,5 - quanto 
maior for n mais próxima da simetria estará a distribuição. 
É esta característica que se pretende ilustrar nas figuras seguintes onde se 
apresentam as funções de probabilidade de três distribuições binomiais de 
parâmetros p = 0,4 e n = 5, 10 e 30 respectivamente. 
DISTRIBUIÇÕES TEÓRICAS MAIS IMPORTANTES 
Exemplo 10 
Um fabricante de tira-nódoas garante que determinado produto tira nódoas em 
80% dos casos. Para verificar tal garantia, uma associação de defesa de consu- 
midores decidiu recolher uma amostra de 10 elementos, aceitando essa garantia 
se o número de casos em que o referido produto foi eficaz for de pelo menos 7. 
Qual a probabilidade de a garantia do fabricante ser rejeitada, supondo que a 
eficácia é de 80% ? 
Seja X - número de vezes, em 10, que certo tira-nódoas remove a nódoa ... 
X b (10; 0,8) 
Pretende-se a probabilidade de rejeitar a garantia do fabricante, isto é: 
P [ X c 71 = P [ X 5 61. 
No entanto, a distribuição binomial não se encontra tabelada para p > 0,5. 
Pretende-se a probabilidade de obter no máximo 6 sucessos o que equivale a 
obter no mínimo 4 insucessos ... 
Pode-se então redefinir o sucesso e criar uma nova variável X': 
X' - número de vezes, em 10, que certo tira-nódoas não remove a nódoa. 
X' n b (10; 0,2) 
onde x' = n - x 
A relação entre x e x' é a seguinte: 
Pretende-se 
P [ X 5 61 = P [ X f 2 41 = 
que corresponde a probabilidade de a garantia do fabricante ser rejeitada. 
No exemplo anterior, utilizou-se uma propriedade importante da distribuição 
binomial que pode ser descrita pela identidade: 
Aliás, este facto aparece patente nas figuras anteriores: comparem-se as 
distribuições de probabilidade para os casos em que p = 0,1 com q = 0,9 
e p = 0,9 com q = 0,1 (o mesmo ocorre quando p = 0,3 com q = 0,7 
e p = 0,7 com q = 0,3). 
DISTRIBUIÇÜES TEÓRICAS MAIS IMPORTANTES 
1.4.3. Parâmetros da distribuição binomial 
A média ou valor esperado, E [X] , a variância de X, Var [X], e ainda outros 
momentos que eventualmente nos possam interessar na distribuição binomial, 
podem ser obtidos através da função geradora de momentos, (f.g.m.), mx(t). 
mx ( t ) = ~ [ e & ] (por definição) 
A função geradora de momentos da distribuição binomial obtém-se da 
seguinte forma: 
n 
mx (t) = ~ [ e ' ~ ] = e " . f ( x ) 
x= o 
onde f ( x ) é a função de probabilidade da binomial. 
O penúltimo passo da demonstração justifica-se pela consideração dos 
sucessivos termos de desenvolvimento do binómio de Newton. Aliás, julga-se 
que o nome da distribuição binomial advém do facto de os ~alores duma 
ESTAT~STICA APLICADA 
binomial b (x ; n ; p ) para x = 0, 1 , 2, . . n serem sucessivos termos do de- 
senvolvimento binomial de 
Demonstração: 
Sabe-se que: 
E[X1 = m ; ( f ) 1 , = O , isto é, a média ou valor esperado duma variável 
aleatória X corresponde ao chamado primeiro momento ordinário e é o valor 
da primeira derivada da função geradora de momentos no ponto t = O. 
Como 
m, ( t) = (p . e + q)" é a f.g.m. da binomial, então a sua derivada é 
m; ( t ) = n . p e f ( p . e f + q)"- ' 
e o valor esperado 
E [ X ] = m; ( t ) I f Z o = n . p (p + q)"- ' = n . p 
Considerando agora o caso da variância, 
Var[X] = E [ x 2 ] - ( E [ x ] ) ~ 
Sabe-se que E [ x2 ] = m; ( t ) I = O isto é, O segundo momento ordi- 
nário corresponde ao valor da segunda derivada da f.g.m. no ponto t = O. 
DISTRIBUIÇÕES TEÓRICAS MAIS IMPORTANTES 
Como 
m;(t ) = n ( n - l ) ( p . e f ) 2 ( p . e' + q ) n - 2 + n . p . e t ( p . 
2 m ; ( t ) I , = , = m ; ( O ) = n ( n - 1 ) p + n . p . 
Logo 
Var[X] = E [ x 2 ] - E 2 [ X ] = 
2 2 
= n ( n - 1 ) p + n p - ( n p ) = 
= n 2 p 2 - n p 2 + n p - n 2 p 2 = 
= np(1 - p ) = n . p . q . 
Em conclusão 
E [ X ] = n . p 
Var[X] = n . p . q = n . p . (1 - p) . c.q.d. 
Com base em sondagens efectuadas, estima-se que, do total da população 
duma região, 60% considera que a integraçáo europeia vai ter reflexos positivos, 
25% que terá reflexos negativos e as restantes não têm opinião definida. 
1 . Calcule a probabilidade de, em 15 pessoas dessa região, 5 considerarem 
que a integração vai ter reflexos positivos. 
2. Se forem inquiridas 100 pessoas, quantas se espera considerarem que a 
integração vai ter reflexos positivos. 
1. Seja X - número de pessoas, em 15, que consideram que a integrapão vai ter 
reflexos positivos 
x n b (15; 0,6) 
Pretende-se conhecer P [ X = 51. Como para p = 0,6 a binomial não vem 
tabelada a solução será encontrada através da transformação de X. 
X' - número de pessoas, em 15, que consideram que a integração vai ter 
reflexos negativos ou que não têm opinião definida. 
ESTA T~STICA APLICADA 
2. Pretende-se E [ X ] . Será E [ X ] = n . p = 100 x 0,6 = 60 isto é, em média, 
60 das 100 pessoas inquiridas consideram que a integração vai ter reflexos 
positivos. 
H 
1.4.4. A aditividade nas distribuiqões binomiais 
As distribuições binomiais possuem a propriedade de serem aditivas, o que 
significa que a soma de duas ou mais variáveis aleatórias independentes com 
distribuição binomial de parâmetro p é ainda uma variável aleatória com 
distribuição binomial e com o mesmo parâmetro p. 
A aplicação deste teorema conduz a um resultado importante na teoria da 
amostragem quando se analisam o número de sucessos numa amostra de 
tamanho n. 
Sejam n variáveis aleatórias Xi ( i = 1, 2,. . ., n ) independentes (os ele- 
mentos da amostra de tamanho n) com distribuição de Bernoulli, isto é, 
Xi n b (1; p ) ( i = 1,2, ..., n ) 
DISTRIBUIÇÓES TEÓRICAS MAIS IMPORTANTES 
Então 
n 
S, = Xl + X2 + ... + Xn = C Xi n b (n; p) . 
i = 1 
n 
Conclui-se assim que a variável Xi, que corresponde ao número-$3 
i = 1 
sucessos numa amostra de tamanho n, tem distribuição binomial de parâme- 
tros n e p. 
1.4.5, Outras aplicações da distribuição binomial 
A distribuição binomial é frequentemente utilizada em problemas de amos- 
tragem relacionados com o controlo de qualidade. Nestas aplicações, é usual 
referir-se a distribuição da amostra em vez de se falar em número de provas 
de Bernoulli.Exemplo 12 
Suponha que um industrial afirma que, em cada lote de 500 peças que fabrica, 
25 têm defeito. Então a proporção de peças defeituosas em cada lote será: 251500. 
O valor p = 251500 corresponde à proporção de peças defeituosas na popu- 
lação, que neste caso é um lote de 500 peças. 
Suponha agora que um retalhista lhe compra 10 peças - ou seja uma 
amostra de dimensão n = 10 retirada dum lote de 500 peças. 
A probabilidade de a primeira peça que se retira das 500 ser defeituosa é de 
251500, isto é, 0,05. 
No lote ficarão apenas 499 peças; no entanto, se a primeira peça retirada tiver 
sido defeituosa, a probabilidade de a segunda ser defeituosa (dado que a primeira 
o foi) será dada por 241499 que é diferente de 251500 . . . 
rn 
Assim, no exemplo anterior, as hipóteses de independência e de p ser 
constante de prova para prova (condições subjacentes a um processo de 
Bernoulli) não se verificam. 
ESTA T~STICA APLICADA 
Deverá então concluir-se que a distribuição binomial não serve para mode- 
lizar esta situação? 
A resposta é negativa, embora com certas restrições. A distribuição binomial 
dá neste caso uma resposta satisfatória porque a dimensão da amostra (n = 10) 
é pequena quando comparada com a dimensão da população (N = 500). Como 
regra, pode dizer-se que a distribuição binomial pode ser usada em problemas 
de amostragem deste tipo (mesmo quando os requisitos acima referidos não 
são respeitados), desde que a dimensão da amostra seja inferior ou igual a 
5% da dimensão da população, isto é, n I 0,05 N. 
Exemplo 13 
Um armazenista controla a qualidade dos produtos que compra em lotes, 
inspeccionando em cada lote 10 peças e classificando-as em defeituosas ou 
perfeitas. 
O armazenista tem por regra o seguinte: rejeita o lote e devolve-o ao fabricante 
se encontra mais de duas peças defeituosas na amostra que retira de cada lote. 
1. Suponha que 5% das peças dum lote são defeituosas. Qual a probabilidade 
de o armazenista aceitar aquele lote? 
2. Se num lote 25% das peças forem defeituosas, qual a probabilidade de o 
armazenista aceitar o lote? 
1. Seja X1 - número de peças, dum lote de 10, que são defeituosas 
P [aceitar o lote ] = P [Xl I 2 ] = 0,5987 + 0,3151 + 0,0746 = 
= 0,9884. 
2. Seja X2 - número de peças, num lote de 10, que são defeituosas 
X2 n b (I O; 0,25) 
P [aceitar o lote ] = P [X2 I 2 ] = 0,0563 + 0,1877 + 0,2816 
= 0,5256. 
O exemplo anterior pretende ilustrar um procedimento largamente utilizado 
na área do controlo de qualidade. Este procedimento, que designaremos por 
aceitaçáo por amostragem, é um exemplo de uma regra de decisão estatística. 
A este procedimento aparecem associados dois valores: 
n - dimensão da amostra 
a - o valor de aceitação que é o número máximo de peças defeituosas 
permitido na amostra. 
Como em todas as regras de decisão baseadas em amostras, a sua 
aplicação envolve riscos: 
- O risco do <<consumidor,> (ou <<comprador>, do lote) que é a probabilidade 
de este aceitar um lote de baixa qualidade; 
- o risco do (<produtor>, que é a probabilidade de um <<consumidor>> rejeitar 
um lote de elevada qualidade. 
Voltando ao Exemplo 13, suponha que com p = 0,05 se considera que o lote 
é de elevada qualidade. Com n = 10 e a = 2 vem: 
Risco produtor = P [rejeitar um lote de elevada qualidade ] = 
= 1 - P [aceitar um lote de elevada qualidade ] = 
Poderá então dizer-se que cerca de 1% dos lotes de elevada qualidade são 
rejeitados pelo consumidor^> ou <<comprador>>. 
m 
Exemplo 14 
Uma empresa considera que um lote é de elevada qualidade se tiver apenas 
1 % de peças defeituosas. 
A empresa tem um sistema de aceitação por amostragem com n = 20 e 
pretende-se que a probabilidade de aceitar um lote daquela qualidade seja de 
0,999. 
Qual deverá ser o número máximo de peças defeituosas que a empresa 
admite na sua amostra? 
Seja X - número de peças, em 20, que são defeituosas 
Pretende-se que: 
P [aceitar lote ] = P [X l a ] = 0,999 
Note-se que P [X I 21 = 0,999, logo a - número máximo de peças defeituo- 
sas admitidas - é 2. 
.E 
,,,~ ,",, . . -.....e., ,, . . .?" ", , ," . ., ,. >, ..r.-. . . .. , . ..... i. ...r. .--.> > ,,".<ni ."" >,r-. .. .r." 
Exemplo 15 
Um industrial garante que no máximo 5% dos seus produtos são defeituosos. 
Um cliente decidiu inspeccionar uma amostra de 20 unidades, aceitando a garan- 
tia dada pelo industrial se, entre as 20 unidades inspeccionadas, no máximo uma 
for defeituosa. 
Qual a probabilidade de aceitar a garantia do industrial, ainda que a verdadeira 
proporção de defeituosas seja de 15%? 
Seja X - número de peças defeituosas, em 20 
Regra de decisão: rejeitar a garantia do industrial se houver mais de uma 
peça defeituosa em 20. 
P [aceitar a garantia ] = P [X I 11 = 
DISTRIBUIÇÕES TE~RICAS MAIS IMPORTANTES 
1.5. A distribuição multinomial 
A distribuição multinomial representa uma generalização da distribuição 
binomial para a situação em que existem mais de dois resultados possíveis em 
cada experiência aleatória. 
As hipóteses subjacentes a distribuição multinomial são perfeitamente aná- 
logas as da binomial: 
Considerem-se n provas (experiências aleatórias) em que: 
1. Em cada experiência aleatória, existem k resultados possíveis, 
Ai ( i = 1 , ..., k) , mutuamente exclusivos. 
= {Al,A2,...,Ak) 
2. As probabilidades associadas a cada um dos Ai ( i = 1, 2, . . ., k ) são 
designadas por pj (i = 1,2, ..., k) e permanecem constantes de prova 
para prova, sendo 
k 
C P i = 1 
i= 1 
3. As n experiências aleatórias são independentes. 
Sob estas hipóteses, seja 
Xi - número de vezes, em n, em que ocorre Ai ( i = 1, 2, . . ., k). 
A probabilidade de que ocorram xl elementos de A l , x2 de A2, ..., xk de 
A k , nas n provas, é dada por: 
sendoxj 2 O com x, + x2 i- ... + x k = n e p1 + p2 + ... + p k = 1 
Note-se que a k-ésima variável é definida à custa das restantes, isto é: 
ESTAT~STICA APLICADA 
Da mesma forma: 
k - 1 
Pk = 1 - C Pi 
i = 1 
isto é, xk e pk são dependentes. 
Note-se, por analogia, que na distribuição binomial a probabilidade de 
ocorrerem x sucessos em n provas é dado por: 
n ! f ( x ; n ; p ) = p X ( 1 - P ) " - ~ 
x ! (n - x ) ! 
A distribuição binomial pode assim ser encarada como um caso particular 
da distribuição multinomial - se nesta última se tomar k = 2. 
DISTRIBUIÇÕES TEÓRICAS MAIS IMPORTANTES 
1.5.1. Parâmetros mais importantes da multinomial 
O nome de multinomial tem origem no facto de as probabilidades dadas 
pela função de probabilidade conjunta f (xl , x*, . . . , xk ) serem obtidas através 
do desenvolvimento do multinómio: 
(P1 + P2 + . . . + pkIn. 
Uma caixa contém N bolas das quais N1 são brancas, N2 pretas e N3 verme- 
lhas. 
Extraem-se n bolas com reposição. 
Qual a probabilidade de, entre as n bolas extraídas, haver xi brancas, x2 pretas 
e x3 vermelhas? 
Seja: 
Xl - número de bolas brancas, em n, que são extraídas da caixa. 
X2 - número de bolas pretas, em n, que são extraídas da caixa. 
X3 - número de bolas vermelhas, em n, que são extraídas da caixa. 
Ni p/ = - 
N com i = 1, 2, 3. 
Pretende-se: 
Note-se que: 
x3 = n - xl - x2 
ESTAT~STICA APLICADA 
.>. < . < "WW_ " - -- 
Exemplo 17 
O responsável de uma empresa discográfica estima que 90% dos seus clien- 
tes preferem comprar discos de música ligeira (60% estrangeira e 30% 
portuguesa) e os restantes preferem comprar música clássica. 
Em 10 clientes, qual a probabilidade de haver um interessado em música 
clássica e pelo menos sete em música ligeira estrangeira? 
Seja: 
Xl - número de clientes, em 10, interessados em música ligeira estrangeira. 
X2 - número de clientes, em 10, interessados em música ligeira nacional. 
X3 - número de clientes,em 10, interessados em música clássica. 
Pretende-se: 
Exemplo 18- 
A probabilidade de que certo tipo de bateria dure menos de 100 horas é 0,5, 
sendo 0,4 a probabilidade de que dure entre 100 a 120 horas. 
1. Qual a probabilidade de que, em 5 baterias deste tipo, haja uma que dure 
menos de 100 horas e duas que durem mais de 120 horas? 
2. Deduza a função de probabilidade conjunta das três variáveis. 
DIsTRIBUIÇÕES TEÓRICAS MAIS IMPORTANTES 
1. Seja: 
Xl - número de baterias, em 5, que duram menos de 100 horas. 
X2 - número de baterias, em 5, que duram entre 100 e 120 horas. 
X3 - número de baterias, em 5, que duram mais de 120 horas. 
Pretende-se: 
5! P [X , = 1 , x2 = 2 , x3 = 21 = - I ! 2! 2! (0,5)' ( 0 , 4 ) ~ (0,112 = 
= 0,024. 
2. A distribuição de probabilidade conjunta das três variáveis é uma dis- 
tribuição de probabilidade bidimensional, uma vez que o valor de X3 é 
inteiramente determinado por: 
x3 = 5 - x1 - x2, 
sendo f i = 1 - 0,9 = 0, l . 
No quadro seguinte apresentam-se as probabilidades da distribuição multino- 
mia1 neste caso. 
P[X, = x l ] = f (x1) e P[X2 = x2] = f (x2) são as distribuições marginais, 
neste caso distribuições binomiais com os seguintes parâmetros: 
XI n b (5; 0,s) 
x2 n b (5; 0,4). 
Exemplo 79 
O responsável de crédito duma instituição financeira, ao analisar os relatórios 
dos vários departamentos regionais, verificou que dos 12 novos clientes em 
Aveiro, 2 não tinham satisfeito os seus compromissos e 4 tinham pedido a 
renegociação das condições de crédito. 
Pela experiência, sabe que, relativamente aos novos clientes, a não satisfação 
dos compromissos e o pedido de renegociação das condições de crédito ocorrem 
respectivamente em 1% e 5% dos casos. 
Acha que o responsável de crédito da instituição tem razões para estranhar a 
informação do departamento regional de Aveiro? Justifique. 
Seja 
X1 - número de novos clientes, em 12, que não tinham satisfeito os seus 
compromissos. 
X2 - número de novos clientes, em 12, que pediram a renegociação das 
condições de crédito. 
X3 - número de novos clientes, em 12, que estão em .<outras* condições. 
Sim, o resultado obtido é muito pouco provável. 
rn 
Apresentam-se em seguida duas distribuições discretas que se baseiam 
numa sucessão de provas de Bernoulli: a distribuição binomial negativa e a 
distribuição geométrica. 
Estas duas distribuições são frequentemente designadas por distribuições 
discretas do tempo de espera até se obterem k sucessos em n provas de 
Bernoulli. 
A designação <<distribuições discretas do tempo de espera,, serve para frisar 
o facto de aqui <<o tempo de espera,, ser tratado como variável discreta, 
contrariamente ao tratamento mais familiar, como variável contínua. 
1.6. A distribuição binomial negativa 
Considere-se uma sucessão de provas de Bernoulli. Seja a variável aleató- 
ria X - número de provas a realizar, até se obterem k sucessos. 
Imagine-se que se realizam x provas em que ocorrem ksucessos e portanto 
(x - k ) insucessos; a x-ésima prova - a última - é sempre um sucesso: o 
k-ésimo sucesso pretendido, isto é, designando o sucesso por A e o insucesso 
por à , 
(x - 1) provas 
(k - 1) sucessos 
O esquema pretende ilustrar o seguinte: 
Nas primeiras (x- 1) provas ocorrem (k - 1) sucessos; na x-ésima prova 
ocorre sempre o último sucesso pretendido: o k-ésimo. 
O esquema ilustra apenas uma das maneiras de ocorrerem (k- 1) sucessos 
em (x - 1) provas. 
O número de maneiras diferentes de ocorrerem (k - 1) sucessos em 
(x - 1) provas é dado pelo termo: 
(x - l ) ! [* 1 j = (k - I ) ! (x - k ) ! * 
As probabilidades associadas ao sucesso e ao insucesso são, respectivamente, 
ESTAT/STICA APLICADA 
Exemplo 20 
Deduza a função de probabilidade do número de vezes que é necessário 
lançar um dado equilibrado até que apareça a sena pela segunda vez. 
A função de probabilidade pretendida é dada por: 
com x = 2, 3, ..., 
Por exemplo, a probabilidade de em dois lançamentos ocorrerem duas senas 
é dada por : 
7.6.7. Relaqão entre a binomial e a binomial negativa 
Na distribuição binomial, a variável aleatória X corresponde ao número de 
sucessos em n provas de Bernoulli e o número de provas de Bernoulli é fixado 
a partida. 
Na distribuição binomial negativa é o número de sucessos pretendidos, k, 
que é fixado a partida e o número de provas a realizar constitui a variável 
aleatória. 
Por outro lado, existe uma relação entre estas distribuições: 
Se X n bn ( k ; p ) e Y n b ( n ; p ) , então 
Esta identidade facilita o cálculo de probabilidades na binomial negativa. Por 
exemplo, sendo X n bn (5; 0,25 ) e Y n b ( 10; 0,25 ) 
5 P [ X = 101 = - P [ Y = 5 ] 10 
Note-se que o valor 0,0584 é o valor tabelado da binomial de parâmetros 
n = 10 e p = 0,25 para x = 5. 
DIsTRIBUIÇÕES TEÓRICAS MAIS IMPORTANTES 
1.6.2. Parâmetros mais importantes da binomial negativa 
A função geradora de momentos desta distribuição é 
- , - \ a 
Exemplo 21 
Determinou-se estatisticamente que, em cada cinco licenciados a procura do 
primeiro emprego, só um tem experiência em microcomputadores na óptica do 
utilizador. 
Uma empresa pôs anúncios nos jornais, a que responderam elevado número 
de licenciados. 
Deduza a função de probabilidade para o número de candidatos a entrevistar 
até se encontrarem cinco com aquela característica. 
Seja X - número de candidatos a entrevistar até se encontrarem cinco candi- 
datos que tenham experiência em microcomputadores 
ESTAT~STICA APLICADA 
1.7. A distribuipáo geométrica ou de Pascal 
Considere uma sucessão de provas de Bernoulli e uma variável aleatória 
X - número de provas a realizar, até se obter um sucesso. 
Conforme se ilustra no esquema seguinte, realizam-se x provas em que o 
único sucesso pretendido só ocorre na última prova. Nas restantes (x - 1 ) provas 
só ocorrem insucessos e por este facto não faz sentido falar em número de 
maneiras diferentes de ocorrerem (x - 1 ) insucessos em (x - 1 ) provas ... 
(x - 1 ) provas 
--e - 
A A A . . . A I A 
u 
x provas 
A probabilidade associada ao sucesso é P [ A ] = p e a do insucesso é 
- 
P [ A ] = 1 - p = q 
A distribuição geométrica pode ser encarada como um caso particular da 
distribuição binomial negativa, quando k = 1 . 
De facto, a função de probabilidade da distribuição geométrica pode ser 
obtida através da função de probabilidade da binomial negativa com k = 1 : 
x n bn(1; P ) = P . (1 - P ) x - 1 
x = 1 , 2, . . . 
Uma outra característica da distribuição geométrica (que pode demonstrar- 
-se) é que esta distribuição não tem memória - isto é, qualquer que seja o 
tempo de espera já decorrido, o tempo de espera adicional por um sucesso 
não se altera. 
DISTRIBUIÇÕES TEÓRICAS MAIS IMPORTANTES 
Suponha que é de 0,6 a probabilidade de determinado ensaio dar reacção 
<(positiva>>. 
Qual a probabilidade de que sejam necessários 6 ensaios (com reacção 
«negativa>>) antes que ocorra a primeira reacção «positiva>>? 
Seja X- número de ensaios a realizar até que ocorra a primeira reacção 
«positiva». 
Pretende-se: P [X = 6 ] = (0,6) (0,415 = 
= 0,006144. 
1.7.1. Parâmetros mais importantes da clistribuipáo geométrica 
A função geradora de momentos desta distribuição é 
ESTATíSTICA APLICADA 
Um cientista inocula vários ratos, um por dia, com o germe de uma doença 
cujos sintomas se revelam num período máximo de 24 horas. 
O cientista termina a sua investigação quando um rato contrair a doença. 
1 Se a probabilidade de um rato contrair a doença for de -, qual a probabi- 6 
lidade de ser necessário inocular 8 ratos? 
Seja X - número de ratos a inocular até que um deles contraia a doença ... 
Pretende-se: P [ X = 81 = 
lm 
1.8. A distribuiçãohipergeométrica 
Suponha que, de um lote de 20 peças das quais duas são defeituosas, se 
extrai uma amostra de 5 peças sem reposição. 
Qual a probabilidade de, nas 5 peças extraídas, nenhuma ser defeituosa? 
Se se definir a variável aleatória X- número de peças defeituosas extraídas 
sem reposição duma amostra de 5 pegas, a probabilidade pretendida será 
dada por: 
O denominador (5), corresponde ao número de casos possíveis, isto é, 
. . 
ao número de maneiras diferentes de extrair 5 peças dum lotal de 20 peças 
que constituem o lote. 
O termo f) corresponde ao número de maneiras diferentes de seleccionar 
O peças defeituosas num total de duas defeituosas e o termo 
DISTRIBUIÇÕES TEÓRICAS MAIS IMPORTANTES 
de maneiras diferentes de seleccionar 5 peças não defeituosas dum total de 
18 peças também não defeituosas. 
Pela regra da multiplicação, o número de casos favoráveis será: 0 . r), que corresponde ao número de maneiras diferentes de seleccionar 
5 peças não defeituosas dum lote de 20 das quais 2 são defeituosas e 18 o 
não são. 
Como as (<extracções)) são feitas sem reposição (o que aliás sucede geral- 
mente nos problemas de amostragem), as 5 sucessivas ((extracções), não são 
provas de Bernoulli. 
A probabilidade de ocorrer uma peça defeituosa não é constante de ((ex- 
tracção)) para ((extracção)) e daí que as sucessivas <(extracções)) não possam 
ser consideradas independentes. 
Aliás, o problema anterior pode ser resolvido em termos de probabilidades 
condicionadas: 
17 
onde, por exemplo, o termo - corresponde a probabilidade de não ser 19 
extraída uma peça defeituosa na segunda extracção dado que na primeira 
extracção a peça extraída também não foi defeituosa. 
EsTAT~STICA APLICADA 
A distribuição hipergeométrica é muitas vezes denominada binomial sem 
reposição. 
De facto, no esquema probabilístico da binomial, admite-se que a probabi- 
lidade de o sucesso se mantém constante de <(extracção,) para ((extracção)) 
- condição inerente a um processo de Bernoulli. 
2 Se p = - = 0,1 do exemplo se mantivesse constante de <<extracção)) 20 
para <<extracção. é porque havia reposição e a probabilidade de nas 5 peças 
extraídas nenhuma ser defeituosa seria dada por: 
Note-se que este resultado é apenas ligeiramente diferente do que se 
obteve com a aplicação da distribuição hipergeométrica (0,5526). 
Quando M é grande comparado com n, a diferença entre (<extracções~~ com 
e sem reposiçáo é insignificante e tanto mais insignificante quanto maior for 
M. 
Pode demonstrar-se que, com n e p fixos, se tem: 
isto é, quando M 4 w, a distribuição hipergeométrica tende para a distribuição 
binomial. 
Como se disse anteriormente, quando n <: 0,05 M, a distribuição binomial 
oferece uma boa aproximação da distribuição hipergeométrica. Daí que, nestes 
casos e por facilidades de cálculo, se aplique a distribuição binomial. 
DISTRIBUIÇÕES TE~RICAS MAIS IMPORTANTES 
1.8.1. Parâmetros mais importantes 
da distribui~ão hipergeométrica 
Note-se que a média desta distribuição é igual a média da binomial, en- 
quanto que a variância da primeira é inferior a da segunda, visto que 
M - n Quando M 4 w, 4 1 e a variância da hipergeométrica conver- M - 1 
ge para a da binomial. 
Exemplo 24 
Suponha que, de 120 candidatos a um emprego numa empresa de telecomu- 
nicações, só 80 têm as qualificações pretendidas. 
Pretende-se a probabilidade de que apenas 2 tenham as qualificações pre- 
tendidas num grupo de 5 seleccionados para uma entrevista piloto. 
Seja X- número de seleccionados, em 5, com as qualificações pretendidas 
(sem reposição). 
Pretende-se: 
Neste caso, não faz sentido seleccionar 5 candidatos com reposição. No 
entanto a aplicação da distribuição binomial conduziria a um resultado muito 
semelhante: 
Viu-se que a distribuição multinomial representava uma generalização da 
distribuição binomial na situação em que existiam mais de dois resultados 
possíveis em cada experiência aleatória. 
A distribuição hipergeométrica também pode ser generalizada (embora o 
nome de distribuição hipergeométrica permaneça o mesmo). 
1.8.2. Generalização da distribuição hipergeométrica 
Suponha uma população com M elementos dos quais X1 são do tipo 1, 
X2 do tipo 2, ..., XK do tipo K. 
E retirada uma amostra de n elementos sem reposição: a probabilidade de 
se obterem xl elementos do tipo 1, x2 do tipo 2, ..., XK do tipo K é dada pela 
distribuição hipergeométrica: 
onde xi = 0, 1, 2 ,..., n 
Esta distribuição é designada por hipergeométrica generalizada. 
Quando M + C=, o esquema da hipergeométrica generalizada tende para 
a distribuição multinomial. 
Isto é, a distribuição multinomial pode oferecer, em certas circunstâncias 
(idênticas as referidas na relação hipergeométrica/binomial) uma boa aproxi- 
mação para a distribuição hipergeométrica generalizada. 
Como resultado da crise do Golfo, a produção de petróleo de um dos países 
da OPEP apresentou quebras da ordem dos 30%, o que não lhe permitiu satis- 
fazer integralmente os compromissos anteriormente assumidos: o abastecimento 
de três navios tanques japoneses, dois americanos e cinco europeus. 
Sabendo que 70% da sua produção lhe permitiam abastecer apenas seis dos 
navios tanques, decidiu seleccionar aleatoriamente os navios tanques a abaste- 
cer. 
Qual a probabilidade de serem seleccionados três navios tanques europeus, 
dois japoneses e apenas um americano? 
Pretende-se: 
sendo: 
Xl - número de navios tanques europeus. 
X2 - número de navios tanques japoneses. 
X3 - número de navios tanques americanos. 
ESTAT~STICA APLICADA 
1.9. A distribuição de Poisson 
A distribuição de Poisson, cujo nome se deve ao físico francês Simon 
Poisson (1781 - 1840), permite descrever uma grande variedade de situações 
com aplicações em muitas áreas do conhecimento. 
Por outro lado, como será visto, a distribuição de Poisson é muitas vezes 
utilizada como distribuição limite ou aproximada da distribuição binomial. 
Exemplos de situações que se adequam a uma distribuição de Poisson 
1. Número de chamadas telefónicas que chegam, em certo período de 
tempo, a uma central telefónica ... 
2. Número de doentes que chegam a determinado hospital central, por 
unidade de tempo ... 
3. Número de avarias que ocorrem numa máquina, num certo intervalo 
de tempo ... 
4. Número de microorganismos em determinada quadrícula ... 
5. Número de partículas defeituosas num certo volume de líquido ... 
6. Número de deficiências num dado comprimento dum fio produzido 
por uma máquina têxtil ... 
Todos os exemplos mencionados, embora bastante diferenciados, têm uma 
característica comum: podem ser descritos através de uma variável aleatória 
discreta que toma valores inteiros não negativos: 0, 1, 2, ..., n, ... . 
Mas esta característica não é a única exigível ... Existem outras caracterís- 
ticas que devem estar presentes para que determinado fenómeno possa ser 
descrito através da distribuição de Poisson - são as chamadas características 
inerentes ao vulgarmente designado Processo de Poisson. 
1.9.1. O Processo de Poisson 
Suponha que se observa a ocorrência de certo acontecimento num deter- 
minado intervalo de tempo1: 
Ou num determinado volume, área, comprimento, região, isto é, num espaço contínuo. 
Se se verificarem as seguintes condi~ões: 
1) 0 número de ocorrências em intervalos não sobrepostos são variáveis 
aleatórias independentes. 
2) A probabilidade de um certo número de ocorrências se verificar é a 
mesma para intervalos da mesma dimensão; isto é, aquela probabilidade 
depende apenas da amplitude do intervalo e não da posição em que se 
situa esse intervalo. Tudo se passa como se o número de ocorrências 
tivesse sempre a mesma densidade média. 
3) A probabilidade de se verificarem duas ou mais ocorrênciasnum período 
muito pequeno é negligenciável, quando comparada com a probabilidade 
de se verificar apenas uma ocorrência. 
Se estas condições (hipóteses) se verificarem para determinado fenómeno, 
então pode-se dizer que tal fenómeno se adequa a uma distribuição de Poisson 
e poderá ser descrito através desta distribuição. 
Uma empresa têxtil produz certo tipo de fio com a seguinte taxa média de 
defeitos por intervalo de comprimento: dois defeitos por cada cem metros de fio. 
Poder-se-á afirmar que a variável aleatória X - número de defeitos que 
ocorrem em cada 100 metros de fio produzido, se adequa a uma distribuição de 
Poisson? 
A variável aleatória X toma de facto valores inteiros não negativos: 
0 , 1 , 2 ,..., n... 
Será que as características inerentes ao Processo de Poisson são satisfeitas? 
Considere-se que cada centena de metros é dividida em n sub-intervalos 
iguais, de comprimento tão pequeno quanto possível, de tal forma que: 
1) A probabilidade de que exactamente um defeito ocorra num daqueles sub- 
intervalos é muita pequena e é constante para cada um dos sub-intervalos. 
Esta hipótese é plausível. 
2) A probabilidade de que dois ou mais defeitos ocorram num daqueles sub- 
intervalos é tão pequena que é possível atribuir uma probabilidade zero a 
tais acontecimentos. Significa esta hipótese que ao longo dos metros de fio 
produzido a frequência de defeitos não é mais elevada em certos c<perío- 
ESTAT~STICA APLICADA 
dos» que noutros ou seja, existe uma certa <<regularidade>> na ocorrência 
daqueles defeitos. Esta hipótese é também plausível, desde que se admita 
que as máquinas que produzem aquele fio não apresentam avarias signi- 
ficativas. .. 
3) 0 número de defeitos que ocorrem em cada um daqueles sub-intervalos 
não depende da <<localização~> desse sub-intervalo e é independente do 
número de defeitos que ocorram noutro sub-intervalo não sobreposto. Esta 
hipótese é também plausível no caso do exemplo em questão, muito em- 
bora em muitos fenómenos aleatórios possa ser violada ... 
A hipótese de uma .repartição» aleatória do número de ocorrências de 
certo fenómeno nem sempre é plausível. 
Podem existir certos fenómenos de agregação e contágio, susceptíveis de 
gerar uma maior densidade de ocorrências em certos períodos, áreas, volu- 
mes, etc. 
Pense-se por exemplo nos seguintes fenómenos: 
i ) Número de chegadas de doentes a um hospital central por hora, 
quando ocorreu uma grande catástrofe. 
ii) Número de carros que param numa bomba de gasolina entre as 23 e 
24 horas, após os jornais vespertinos informarem de um aumento de 
preços nos combustíveis. 
Nestes dois casos, a distribuição de Poisson não é adequada - viola a 
hipótese da independência referida em 3. Existem as chamadas distribuições 
*agregativaso ou <tcontagiosas>> que podem ser utilizadas nestes casos. 
DISTRIBUIÇÕES TEÓRICAS MAIS IMPORTANTES 
1.9.2. Parâmetros mais importantes 
da distribui~ão de Poisson 
Se a variável aleatória X tem distribuição de Poisson, com parâmetro 
h > 0, então prova-se que: 
ou seja: h corresponde ao número médio de ocorrências por intervalo de tempo 
e na distribuição de Poisson a média e a variância são iguais. 
Demonstração: 
m 
A f.g.m. da Poisson é Mx (t) = E [ e t x ] = E e" . f ( x ) = 
Logo 
Mx ( t ) = e h (et- i) 
Sabe-seque E [ X ] = M; ( t ) I t = 
Poroutrolado, E [ x 2 ] = ~ i ( t ) I t = 
= h + h2. 
Com Var [X ] = E [ x * ] - ( E [ x ] ) ~ 
tem-se que: 
V a r [ x ] = I. + k2 - h2 = h. 
R"\ * " *. . 'm a?r.A?ahn-i*l>- + r w M - s x < < v r s i i u a < ~ a - , ~ ~ . r r w . ~ ~ ~ : * , ,c u4yraa .. u r: r uv,'-s e . 8 .*i - . ?,, I 
Exemplo 27 
Admita que o numero de camiões TIR que, por hora, atravessam a ponte 25 
de Abril segue uma distribuição de Poisson com variância igual a 8. 
i) Qual a probabilidade de que, numa hora, exactamente 4 camiões TIR 
atravessem a ponte? 
ii) Qual a probabilidade de que, numa hora, pelo menos 6 camiões TIR atra- 
vessem a ponte? 
Seja X- número de camiões TIR que, por hora, atravessam a ponte 25 de 
Abril 
X n p (h = 8) pois Var[ X] = E [ X ] = 8. 
DISTRIBUIÇÕES TEÓRICAS MAIS IMPORTANTES 
A função de probabilidade é a seguinte: 
i ) Pretende-se: P [ X = 4 ] = ' 84 = 0,0573 4 ! 
ii) Pretende-se: P [ X 2 61 = 1 - P [ X 1 51 = 
Como se ilustra no exemplo anterior, a utilização da fórmula da função de 
probabilidade da Poisson origina cálculos algo morosos, cuja tarefa é simplifi- 
cada pela utilização das tabelas disponíveis (ver tabela em apêndice). 
A tabela referida permite obter, para cada valor de h entre 0,1 e 20 (em 
múltiplos de 0,1), as probabilidades associadas a cada x. 
Por exemplo, para h = 2, tem-se: 
O gráfico representa a função de probabilidade f (x; h = 2). 
21 1 
x - 
O 
1 
2 
3 
4 
5 
6 
7 
8 
9 
10 
::'- f ( x ) 
0,1353 
0,2707 
0,2707 
0,1804 
0,0902 
0,0361 
0,0120 
0,0034 
0,0009 
0,0002 
0,0000 
ESTATÍSTICA APLICADA 
Note-se que, neste caso, a distribuição é bimodal; x = 1 e x = 2 corres- 
pondem aos valores da variável que ocorrem com maior probabilidade: 
P [ X = 1 ] = P [ X = 21 = 0,2707. 
1.9.3. A aditividade nas distribui~ões de Poisson 
As distribuições de Poisson são aditivas, o que significa que a soma de 
duas ou mais variáveis independentes com distribuição de Poisson (de parâ- 
metro h) é ainda uma variável aleatória com distribuição de Poisson. 
A aplicação deste teorema conduz a resultados importantes nas aplicações, 
como se verá. 
Por outro lado, o teorema anterior permite concluir que, se o número de 
ocorrências de determinado atributo por intervalo de tempo tl é um processo 
de Poisson com parâmetro hl, então o número de ocorrências no intervalo de 
tempo t2 = K tl segue distribuição de Poisson com parâmetro h2 = K hl. 
* < < <I<,<YY,< . > . < ,. . < I I < . ,., ,. ,. .. ". .. . ,.,. , .. ,, ...* . ,"W -4 IIV»q<:<Y>i"<: I*(I",N**.\L,"I.< > 3 F - * U P I e 
Exemplo 28 
O número diário de doentes com complicações cardiovasculares que chegam a 
determinada unidade de cuidados intensivos segue uma lei de Poisson de média 4. 
A unidade de cuidados intensivos pode atender 6 doentes por dia. Caso o 
número de doentes exceda aquele valor, os doentes são transferidos para outra 
unidade. 
a) Qual a probabilidade de, em certo dia, não ser necessário transferir doentes 
para outra unidade? 
b) Qual o número mais provável de doentes a chegarem por dia aquela 
unidade? 
c) Qual a probabilidade de, em certo dia, chegarem aquela unidade 5 doentes, 
sabendo que no dia anterior chegaram apenas dois doentes? 
d) Qual a probabilidade de que, em 5 dias, cheguem aquela unidade pelo 
menos 15 doentes? 
e) De quanto deverão ser aumentadas as instalações da unidade de cuidados 
intensivos por forma a assegurar o atendimento dos doentes em 97% dos 
dias? 
Seja X - número de doentes com complicações cardiovasculares que, por dia, 
chegam a determinada unidade de cuidados intensivos. 
a) Pretende-se: 
P [ X I 61 = P [ X = O] + P [ X = 1 ] + ... + P [ X = 61 = 
b) O número mais provável de doentes a chegarem por dia aquela unidade é 
de 3 ou 4 doentes (distribuição bimodal). 
c) Pretende-se: P [ X = 5 ] = 0,1563 pois o número de doentes que, em 
certo dia, chegam aquela unidade é independente do número de doentes 
que aí chegaram no dia anterior - veja-se as condições do Processo de 
Poisson. 
d) Seja X' - número de doentes com complicações cardiovasculares que em 
5 dias chegam aquela unidade ... 
X' n p (h = 20) isto é, se, por dia, o número médio de doentes é 
h = 4, em 5 dias será de h = 20, pela aditividade da Poisson. 
e) Seja K - capacidade mínima instalar (total) por forma a assegurar o aten- 
dimento pretendido. 
Pretende-se que P [ X I K ] 2 0,97.A consulta das tabelas (h = 4) permite concluir que K = 8, pois 
P [ X 1 81 = 0,9787. 
Como as instalações actuais atendem 6 doentes por dia, as novas instalações 
deverão ser alargadas para mais 2 doentes. 
1.9.4. Aproxima950 da distribui950 
binomial a Poisson 
Teorema: 
A distribuição binomial converge para a distribuição de Poisson, quan- 
do n 4 w e p + O , mantendo-se h = n . p constante. 
Demonstraqão: 
h Fazendo h = n p ou seja p = - , constante por hipótese, a distribuição 
n 
binomial escreve-se: 
- 
- n n - ( n - X + I ) a " ( I - - ;r - - n X ' x ! 
DISTRIBUIÇÕES TEÓRICAS MAIS IMPORTANTES 
Quando n -+ - vem: 
hX lim b ( n ; p ) = - . e - ' = e- ' . hx 
x ! x ! 
pois 
n 
lim (1 - +) = e-' 
n - f - 
hX ?Lx 
- lim - - - 
n,m X ! X ! 
e todos os restantes termos tendem para a unidade. 
Isto é: 
lim b ( n ; p ) = p(h = n p ) . 
n - f m 
O teorema anterior mostra que, se X for uma variável aleatória com distri- 
buição binomial, pode obter-se uma aproximação das probabilidades binomiais 
através da distribuição de Poisson, desde que n seja grande e p pequeno. 
A aproximação será tanto melhor quanto maior for n e menor for p. No 
entanto a aproximação é já satisfatória desde que n 2 20 e p r 0,05. 
Em termos práticos e dado que a distribuição binomial só aparece tabela- 
da para valores de n r 20, utilizar-se-á a aproximação a Poisson quando 
n > 20 desde que p r 0,05. 
No quadro seguinte apresentam-se a título de exemplo, as probabilidades 
de X para algumas binomiais em que n . p = 1 e a sua confrontação com os 
valores das probabilidades de X na Poisson com A = n . p = 1. 
De facto, a medida que n cresce e p decresce, os valores das probabilidades 
de X aproximam-se daqueles mesmos valores para a distribuição de Poisson. 
Uma companhia de seguros possui 10 000 apólices no ramo vida referente a 
acidentes de trabalho. Sabe-se que, por ano, a probabilidade de determinado 
indivíduo morrer de acidente de trabalho é de 0,0001. 
Qual a probabilidade de a companhia ter de pagar por ano a pelo menos 4 
dos seus segurados? 
Seja X - número de apólices, em 10 000, que são pagas anualmente pela 
seguradora. 
X n b (n = 10000; p = 0,0001) 
POISSON 
h= 1 
0,3679 
0,3679 
0,1839 
0,0613 
0,0153 
0,0031 
0,0005 
0,0001 
0,0000 
x 
O 
1 
2 
3 
4 
5 
6 
7 
8 
Como n = 10000 n e p = 0,0001 existem condições para fazer a aproxima- 
ção a distribuição de Poisson. 
x p (A = n p = I). 
Pretende-se: P [ X 2 41 = 1 - P [ X 5 3 1 = 
DISTRIBUIÇÓES BINOMIAIS 
N = 10 
p='/i0 
0,3487 
0,3874 
0,1937 
0,0574 
0,0112 
0,001 5 
0,0001 
0,0000 
0,0000 
N=50 
p='/50 
0,3642 
0,371 6 
0,1858 
0,0607 
0,0145 
0,0027 
0,0004 
0,0001 
0,0000 
N=20 
p='/20 
0,3585 
0,3774 
0,1887 
0,0596 
0,0133 
0,0022 
0,0003 
0,0000 
0,0000 
N=100 
p='/i00 
0,3660 
0,3697 
0,1849 
0,061 O 
0,0149 
0,0029 
0,0005 
0,0001 
0,0000 
* " . " 4 & . < . 
Exemplo 30 
Uma empresa de aluguer de automóveis dispõe de 5 veículos numa das suas 
filiais localizadas no norte do país. 
Sabe-se que a procura semanal de automóveis numa filial segue uma distri- 
buição de Poisson de média igual a 4. 
a) Qual a probabilidade de que, em certa semana, um dos automóveis não 
seja alugado? 
b) Qual o valor esperado do número de clientes que, em certa semana, não 
podem ser atendidos, por já estarem alugados todos os automóveis? 
c) Admita que a frota era acrescida de um veículo. Calcule a probabilidade de, 
em certo mês (considere 1 mês igual a 4 semanas), a procura ser suficiente 
para que este veículo adicional seja alugado pelo menos 1 vez. 
Seja X - número de automóveis que, por semana, sáo procurados 
x n P ( A = 4) 
b) Seja X' - número de clientes que em certa semana não podem ser aten- 
didos.. . 
As variáveis X e X' estão relacionadas da seguinte forma: 
ESTAT~STICA APLICADA 
Pretende-se: 
E [ X ' ] = (O. P [ X 251) + (1. P [ X = 61) +... + (9. P [ X = 1 4 ] ) + ... 
E I X 1 ] = ( O . 0,7852) + (1 . 0,1042) + ... + ... + ( 9 . 0,0001) + ... 
= 0,41. 
c) Seja Y - número de semanas, em 4, em que o veículo adicional é alugado. 
Y n b ( n = 4; p = ?) 
Para que o veículo adicional seja alugado, é necessário que a procura seja 
de, pelo menos, 6 automóveis. Assim, 
Pretende-se: 
P [ Y 2 1 ] = 1 - P [ Y = O] = 1 - 0,4096 = 0,5904. 
Distribui~ões contínuas 
2.1. A distribuiçáo uniforme 
Se os valores de certa variável aleatória podem ocorrer dentro dum intervalo 
limitado [a, b ] , e se quaisquer dois sub-intervalos de igual amplitude têm a 
mesma probabilidade, então estamos perante uma variável aleatória com dis- 
tribuição uniforme ou rectangular. 
Facilmente se deduz que a função de distribuição F (x) é dada por: 
Na figura seguinte representam-se graficamente a f.d.p. da distribuição 
uniforme e a respectiva função de distribuição. 
ESTAT~TICA APLICADA 
Demonstração: 
b b 1 De facto, E [ X ] = I x . f ( x ) dx = I x . - dx = 
a a b - a 
1 b2 - a2 - 
- b - a 2 ( b - a ) 
DISTRIBUIÇÕES TEÓRICAS MAIS IMPORTANTES 
Quanto a variância: var [ X ] = E [ x2 ] - (E [ X ] )2 
b 1 E [ x * ] = x 2 . - dx = 
a b - a 
- - - - 
b - a [C]:- 
Var [ X ] = 
3 ( b - a ) 
A função geradora de momentos Mx ( t ) é dada por: 
b 1 M x ( t ) = ~ [ e " ] = I e t x . - dx = 
a b - a 
ESTATíSTICA APLICADA 
. - - - " . . 
Exemplo 31 
O verdadeiro conteúdo de pacotes de leite de certa marca é uma variável 
aleatória com distribuição uniforme entre 0,85 litros e 1 ,O5 litros. 
a) Indique a f.d.p. correspondente. 
b) Qual a probabilidade de um pacote de leite ter um volume inferior a 1 litro? 
Seja X - verdadeiro volume (em litros) de certa marca de pacotes de leite. 
0,85 < x < 1 ,O5 . 
outros valores 
' 1 b) Pretende-se: P [ X < 1 ] = I - 3 dx = - 
0.85 4 
A probabilidade pretendida é proporcional a amplitude do respectivo intervalo: 
2.2. A distribuição normal 
A distribuição normal é sem dúvida uma das distribuições mais utilizadas 
na estatística. São inúmeras as variáveis aleatórias que descrevem fenóme- 
nos, processos físicos ou características humanas (peso, altura, etc.) e que 
seguem distribuição normal. 
Noutros casos, as variáveis aleatórias não seguem distribuição normal mas 
aproximam-se muito desta distribuição. 
Por outro lado, a distribuição normal desempenha, como será visto, um 
papel crucial na inferência estatística (em particular, é utilizada em muitas 
aplicações da amostragem). 
DISTRIBUIÇÓES TEÓRICAS MAIS IMPORTANTES 
Os parâmetros p e o representam respectivamente a média ou valor espe- 
rado e o desvio-padrão daquela distribuição. 
2.2.1. Características da distribuiqão normal 
A função densidade de probabilidade de uma variável aleatória com distri- 
buição normal tem a forma de sino, é simétrica em relação ao eixo x = p e 
tem pontos de inflexão em x = p f o. 
A função densidade de probabilidade genérica da distribuição normal repre- 
senta uma família de distribuições em que cada membro específico dessa 
família é representado por determinados valores dos parâmetros p e o. Ou 
seja, qualquer distribuição normal é definida por duas medidas: a média p que 
localiza o centro da distribuição e o desvio-padrão o que mede a variabilidade 
de X em torno da média. 
ESTAT~STICA APLICADA 
Na figura seguinte representam-se graficamente três distribuições normais 
que têm a mesma média p, mas diferentes desvios-padrão 01 ( i = 1, 2, 3) 
em que o1 > 02 > 03. 
Em seguida representam-se três distribuições normais com médias diferen- 
tes pj ( i = 1, 2, 3) com p1 > p2 > p3 e O mesmo desvio-padrão o. 
O exemplo seguinte representa trêsdistribuições normais com médias p/ 
diferentes (p3 < 11.2 < p1) e desvios-padrão oi também diferentes (o1 > 02 > 03). 
DIsTRIBUIÇÓES TEÓRICAS MAIS IMPORTANTES 
2.2.2. Cálculo de probabilidades na distribuição normal 
Dado que p e o podem tomar uma infinidade não numerável de valores 
(- m < p < + m e a > 0) então existe também uma infinidade não nume- 
rável de diferentes distribuições normais. 
Daí que, para o cálculo de probabilidades, qualquer distribuição normal é 
transformada na chamada normal-padrão, ou normal estandartizada. 
Esta transformação, que consiste numa mudança de origem (subtracção 
por p) e mudança de escala (divisão por o) é chamada estandartização. 
Isto é, se a variável aleatória X tem distribuição normal de parâmetros p e 
o, então Z = - - é a chamada normal estandartizada ou reduzida ou 
o 
ainda normal-padrão. 
Sabendo que, se X n n (p, o), se tem: 
E [ X l = P 
 ar[ XI = 02 
facilmente se deduzem os parâmetros da normal-padrão Z: 
ESTAT~STICA APLICADA 
Note-se que p e 0 são parâmetros que, embora possam ser desconhe- 
cidos, são constantes. 
Conclui-se então que: 
A função de densidade de probabilidade da normal-padrão Z é dada por: 
2 
z 
1 -- 
r p ( z ) = J i n . e -00 < z < += 
A respectiva função de distribuição, 0 (z), permite calcular probabilidades 
em determinados intervalos: 
@ ( z ) = P [ Z I z ] . 
A consulta da tabela (em apêndice) permite concluir, a título de exemplo, 
que: 
P [ Z I O] = @ (O) = 0,5 
DISTRIBUIÇOES TEÓRICAS MAIS IMPORTANTES 
Dado que <p (z) é simétrica, tem-se que: 
@ ( - z ) = 1 - @ ( z ) 
como se ilustra na figura seguinte. 
Nas figuras seguintes ilustram-se os seguintes factos: 
P [ p - O < X < p + c J ] = P 8 - 0 - P < x - r i < I i + o - r i = 
[ O 0 (5 I 
ESTAT~STICA APLICADA 
Utilizando a tabela da normal-padrão determine: 
a) PIO < Z < 1,321 = 
= sl (1,32) - sl (O) = 
DIsTRIBUIÇÕES TE~RICAS MAIS IMPORTANTES 
b) P[-0,75 < Z < O] = 
= @ (O) - @ (-0,75) = 
= 0,50 - [ 1 - @ (0,75) ] = 
= 0,50 - 0,2266 = 0,2734. 0 -0,75 O Z 
Note-se que, como a distribuição é simétrica, 
@ (-0,75) = 1 - @ (0,75). 
O tempo em horas que um grupo de operários leva a executar determinada 
tarefa tem distribuição nonnal com média 1000 horas e desvio-padrão 200 horas. 
Qual a probabilidade de os operários terminarem a tarefa em menos de 1200 
horas e mais de 800 horas? 
Seja X - tempo (medido em horas ) que determinado grupo de operários leva 
a executar determinada tarefa 
Uma máquina de bebidas está-regulada de modo a servir uma média de 150 
ml por copo. Se a quantidade servida por copo seguir uma distribuição normal 
com desvio-padrão de 20 ml, determine: 
a) Qual a percentagem de copos que conterão mais do que 175 ml; 
b) Quantos copos se espera venham a transbordar em 1000 bebidas contro- 
ladas, se forem usados copos de 170 ml; 
c) Abaixo de que valor serão consideradas as 25% bebidas mais curtas. 
Seja X - quantidade (em m/) que uma máquina de bebidas serve por copo. 
X n n (150; 20) 
175 - 150 
a) Pretende-se: P [ X > 175 ] = P Z > [ 20 ] = 
DISTRIBUIÇÓES TE~RICAS MAIS IMPORTANTES 
Cerca de 10,6% dos copos conterão mais de 175 ml. 
Logo, espera-se que nas 1000 bebidas controladas transbordem 159 copos 
(0,1587 x 1000 = 158,7). 
c ) P [ X < a ] = 0,25 
curtas 
Então as 25% bebidas mais curtas terão no máximo 136,5 ml. 
rn 
ESTA J~SJICA APLICADA 
2.2.3. A aditividade da distribuigão normal 
Como resultado do teorema anterior, pode-se concluir: 
Corolário 3 
n 
- - 
C Xi 
Se Xi n (p; o) então X n n p; - i = 1 [ :;), onde X = - 
n 
Exemplo 35 
O serviço de expedição e entrega de certa unidade fabril verificou que o 
volume das encomendas (em m3) entregues aos clientes eram essencialmente 
de 2 tipos: 
a) Tipo A : com distribuição normal, com média y = 50 e o' = 100. 
b) Tipo B : com distribuição normal, com média y = 15 e o2 = 25. 
O volume de entregas semanais é de 20 encomendas do tipo A e 100 
encomendas do tipo B. O responsável do serviço de expedição e entrega nego- 
ciou com uma empresa transportadora o transporte máximo de 3000 m3 
semanais. 
Comente tal decisão. 
Seja: 
XAi - volume da i-ésima encomenda do tipo A entregue ao cliente (em m 3). 
XBj - volume da j-ésima encomenda do tipo B entregue ao cliente (em m 3). 
XAi n n(50 ; lO ) ( i = 1 , 2 , ..., 20) 
Pelo teorema da aditividade da normal (e pressupondo que as variáveis são 
independentes) virá: 
Então, 
A decisão tomada pelo responsável foi acertada: a probabilidade de o volume 
de encomendas a entregar por semana ser superior ao contratado com a empresa 
transportadora é muito pequena, quase nula! 
2.2.4. A distribuiqão normal como uma aproximaqão 
da distribuiqão binomial 
Em que situações se pode utilizar a distribuição normal como distribuição 
aproximada duma variável aleatória cuja verdadeira distribuição é uma bino- 
mial? 
Quando foi apresentada a distribuição binomial constatou-se que, quando 
p = 0,5, a distribuição era simétrica, qualquer que fosse o valor de n (número 
de provas de Bernoulli). 
Acontecia também que, mesmo que p não fosse 0,5 e desde que n fosse 
grande, a distribuição binomial seria quase simétrica. 
Assim, quanto mais próximo p estiver de 0,5 e quanto maior o valor de n, 
mais próxima (aproximada) estará a distribuição binomial duma distribuição 
normal, ou seja, melhor será a aproximação. 
Daí que a aproximação da binomial a normal seja feita nas seguintes 
condições: 
DISTRIBUIÇÕES TEÓRICAS MAIS IMPORTANTES 
2.2.5. A distribuipão normal como aproximapão 
da distribuipão de Poisson 
A distribuição normal é utilizada como distribuição aproximada da distribui- 
ção de Poisson sempre que X > 20, embora a aproximação seja tanto melhor 
quanto maior for h. 
Importa ainda salientar o seguinte aspecto: quando se utiliza a distribuição 
normal como aproximação a uma variável aleatória discreta, como são os 
casos das duas aproximações atrás referidas, é necessário fazer a chamada 
correcção de continuidade. 
A correcção de continuidade consiste em considerar, para o cálculo duma 
probabilidade, uma pequena vizinhança a esquerda do extremo inferior do 
intervalo e a direita do extremo superior do intervalo. 
ESTATiSTICA APLICADA 
Ver-se-á em capítulos posteriores que a distribuição normal é utilizada como 
descrição aproximada de muitas outras distribuições quando n cresce, sendo 
n a dimensão duma amostra. 
Esta tendência para a normalidade, se assim se lhe pode chamar, desem- 
penha um papel muito importante na inferência estatística. 
.,. ,.,., ." ' . .- , ,. .p *nin,.xl.m ..-- #".*,.r.--,? r-<-> -.rs8s--aw..?"~m","': ,,'"''~'=~V,'(~nn*>nn*>'nn*>nn*>nn*>nn*>nn*>- 
Exemplo 36 
Um processo de fabrico produz parafusos, dos quais 2% são defeituosos. Se 
retirarmos uma amostra de 2000 parafusos para inspecção, qual a probabilidade 
de que pelo menos 15 parafusos e não mais de 25 sejam defeituosos? 
Seja X - número de parafusos, em 2000 que são defeituosos 
X f7 b ( x ; n = 2000; p = 0,02) 
Pretende-se: P [ 15 < X 5 251 = ? 
o 
Como n é grande e p pequeno, temos X n p ( x ; h = 40 ) . 
Neste caso, dado que h > 2 0 , pode fazer-se a aproximação a normal 
X A n ( p = 4 0 ; o = m ) . 
Com a correcção de continuidade vem: 
que é a probabilidade pretendida. 
, ".-., > w . . .- . % * , " . . " ...,.,. , ," r , r v ,i,,nl-;- r <.'*> , ,. "W -a- i r am. . :uyyu A 
Exemplo 37 
O número de avarias que uma máquina tem por dia é uma variável aleatória 
com distribuição de Poisson de média 0,2. 
Calcule a probabilidade de a referida máquina ter durante um ano (365 dias) 
exactamente 75 avarias. 
DISTRIBUIÇÓES TEORICAS MAIS IMPORTANTES 
Seja X- número de avariasque uma máquina tem por dia 
X n p (x, h = 0,2). 
Seja Y - número de avarias que uma máquina tem por ano 
Y n p (y; h = 0,2 x 365 = 73) (aditividade da Poisson). 
Pretende-se: P [ Y = 75 ] = ? 
Como h é grande ( h = 73) faz-se aproximação a distribuição normal: 
x A n (1.1 = 73; o = e). 
Com correcção de continuidade vem: 
2.3. A distribuição exponencial 
A distribuição exponencial está intimamente relacionada com o processo de 
Poisson (vd 1.9. deste capítulo). De facto, demonstra-se que, num processo de 
Poisson, o "tempo" de espera até ao primeiro sucesso (ou entre dois sucessos 
consecutivos) segue uma certa distribuição exponencial. 
Esta distribuição é também usualmente utilizada na descrição do tempo de 
vida (de componentes, organismos, etc.). 
Facilmente se deduz quer a função distribuição, F ( x ) , quer a função gera- 
dora de momentos, m ~ (t), de uma exponencial: 
Sendo X n exp ( h ), a sua função de distribuição é dada por: 
F ( X ) = 1 - e-ax, x > O. 
A respectiva função geradora de momentos é: 
+ - 
a ~ h [ e ( t - ~ ) x ] ~ w mx( t ) = ~ [ e ' ~ ] = I e h . h . e- dx = - 
o t - h 
e assumindo que t c A (o que não é problemático, visto considerar-se t + O), 
h 
m x ( t ) = -. h - t 
E [ X ] = lim h - h - 1 - - - - 
t + o ( h - t ) * h2 h 
Para a variância, note-se que Var ( X ) = E [ x2 ] - [ X ] , 
e como 
d2 m x ( t ) 
- 
2 . h 
dt2 (h - t )3 
DIsTRIBUIÇÓES TEÓRIcAS MAIS IMPORTANTES 
2 
vem que Var( X ) = - - 1 
h* 
Considere agora a situação do exemplo 27, em que se pretende contar o 
número de camiões TIR que passam, por hora, na ponte 25 de Abril. É aí 
assumido que X, definida como 
X - número de camiões TIR que passam, por hora, na ponte 25 de Abril 
segue distribuição de Poisson de parâmetro 8, isto é, X n p (x; 8). 
Defina-se agora uma outra variável aleatória Y: 
Y - tempo de espera até a passagem do primeiro camião TIR. 
O que é esperar pelo menos y tempo até a passagem do primeiro camião 
TIR? É assumir que no intervalo (0, y ) não passa qualquer camião. 
Sabe-se que, se em uma hora passam em média 8 camiões, então no 
intervalo referido passam em média 8 (y - 0) = 8y camióes. 
Assim, tem-se que, definindo XY - ng de camióes TIR em (O, y), 
Então, P [ Y > y ] = P [XY = O] = e-8y ( 8 ~ ) ' - - e-8y O! 
sendo, portanto, fy(y) = 8 . e-8y, ou seja, Y n exp (8) 
ESTAT~STICA APLICADA 
2=4. A distribuição Gama 
A distribuição Gama é uma distribuição muito genérica que engloba, entre 
outras distribuições conhecidas, a distribuição exponencial. 
O caso particular em que a = 1 dá origem a distribuição exponencial (note- 
-se que r (1) = 1). 
A função geradora de momentos de uma Gama é dada por: 
e assumindo que t < h 
h" X a - ~ - ( h - t ) x 
e (h - i)" dx = [&I. 
pois o integral é o integral em todo o seu domínio de uma função densidade 
de uma Gama de parâmetros h - t e a (valendo, portanto, 1). 
DISTRIBUIÇOES TEÓRICAS MAIS IMPORTANTES 
Tomando a função geradora de momentos de X, tem-se que 
dmx ( t E [ X ] = lim dt 
t + O 
sendo que E [ x2 ] = lirn d2 m x ( t ) 
t + O dt2 
Como 
d 2 m x ( t ) a . ha . (a + 1) . (h - tia 
- 
dt2 (h - t12a+2 
vem que 
logo 
ESTAT~STICA APLICADA 
Enunciam-se de seguida (sem demonstração) dois teoremas muito impor- 
tantes sobre a distribuição Gama. 
Seja 
EntE 
DISTRIBUIÇÕES TEÓRICAS MAIS IMPORTANTES 
O funcionamento de uma máquina depende do tempo de vida de certa compo- 
nente nela integrada. A máquina inclui um mecanismo de substituição automática 
de tal componente, por forma a que, quando esta se avaria, é imediatamente 
substituída por uma de reserva, sem que haja necessidade de interromper o 
processo produtivo. Porém, para além da componente em funcionamento, existem 
apenas mais três peças no sistema automático de substituição. 
Admitindo que o tempo de vida, em horas, de cada componente segue uma 
distribuição exponencial de parâmetro 0,2, quanto tempo, em média, está a 
máquina a funcionar ininterruptamente? 
Seja 
Xi - tempo de vida da i-ésima componente, 4 n exp (0,2) 
e Y - tempo de funcionamento ininterrupto da máquina. 
Tem-se que 
4 
y = C xi n .I (4; o,?), 
i= 1 
pela aditividade da Gama. 
Então, o valor esperado procurado é 
a 4 E [ Y] = - = - = 20 horas. h 0,2 
Exercícios propostos 
1. Um vendedor anda de porta em porta a vender gravatas. Durante uma manhã 
ele consegue falar com 16 pessoas. Em cada casa, onde lhe abrem a porta, a 
probabilidade de vender uma gravata é 0,l. Qual a probabilidade de ele vender 
pelo menos uma gravata numa manhã? 
2. De um grupo de 10 peças, 3 delas são defeituosas. Se escolher 3 ao acaso, 
qual a probabilidade de nenhuma delas ser defeituosa? 
3. Retome-se o exemplo 10, em que um fabricante de tira-nódoas garante que 
determinado produto tira nódoas de chocolate em 80% dos casos. 
Para verificar tal garantia, uma associação de consumidores decidiu efectuar 
um estudo sobre uma amostra de 100 elementos, aceitando essa garantia se o 
número de casos em que o referido produto foi eficaz for de pelo menos 75. 
Qual a probabilidade de a garantia ser rejeitada supondo que a eficácia é de 
facto 80%? 
4. Num teste de resposta múltipla com 4 alternativas, sobre 20 questões, qual a 
probabilidade de um estudante obter nota superior ou igual a 7 valores, se 
responder ao acaso e as perguntas forem igualmente pontuadas com 1 valor? 
5. A central telefónica de certa empresa recebe em média 360 chamadas por 
hora, mas a sua capacidade de atendimento é de 10 ligações por minuto. 
a) Após ter sido recebida uma chamada, qual a probabilidade de ter de se 
esperar mais 6 segundos até receber nova chamada? 
DISTRIBUIÇÕES TEÓRICAS MAIS IMPORTANTES 
b) Esta empresa dispõe de 100 centrais instaladas nas várias dependências 
que funcionam todas sujeitas as mesmas condições. Qual a probabilidade 
de, em dado minuto, haver mais de 10 e menos de 20 centrais que não 
conseguem atender todas as chamadas que recebem? 
6. Determinado produto é empacotado automaticamente. Suponha que o peso 
do pacote é normalmente distribuído com média 450 gramas e desvio-padrão de 
30 gramas. 
a) Qual a probabilidade de um pacote escolhido ao acaso ter peso superior a 
500 gramas? 
b) Em dez pacotes escolhidos ao acaso: 
bl ) Qual a probabilidade de haver pelo menos 5 pacotes com peso superior 
a 500 gramas? 
b2) Qual a probabilidade de haver 3 pacotes com peso superior a 500 gramas 
e 3 pacotes com peso inferior a 400 gramas? 
R: a) 0,0475; 
7. O número de pessoas que semanalmente apresenta um pedido de emprego 
no centro de emprego de determinada área, apresenta uma distribuição de Pois- 
son com média 9. 
Cerca de 80% das pessoas pretendem trabalhar no sector dos serviços. 
a) Qual a probabilidade de em determinada semana, não aparecerem mais 
de quatro pedidos naquele centro de emprego? 
b) Qual a probabilidade de no ano passado, aquele centro de emprego ter 
recebido pelo menos 500 pedidos de emprego? 
c) Tendo seleccionado 12 dos pedidos recepcionados, qual a probabilidade de 
não se encontrarem mais de 7 dirigidos a sectores que não o dos serviços? 
8. Numa via de acesso a Lisboa, se a probabilidade de um painel ser visto por 
um automobilista for de 0,6, quantos painéis, no mínimo, deverão ser colocados 
nessa via para ser superior a 0,9 a probabilidade de certo automobilista ver pelo 
menos 1 dos painéis? 
R: 3 painéis. 
ESTATISTICA APLICADA 
9. A uma prova de admissão a uma escola universitária, apresentaram-se 3500 
candidatos. As pontuações obtidas por aqueles seguem uma distribuição aproxi- 
madamente normal com média 55 pontos e variância 25 pontos2. 
a) Uma vez que a referida escola, apenas admite 700 candidatos,indique a 
nota do último candidato admitido. 
b) Quantos candidatos obtiveram pontuação superior a 65 pontos? 
c) Indique as pontuações extremas do grupo médio constituído por 50% dos 
candidatos. 
R: a) 59,2; b) - 80; c) P [ 51,625 < X < 58,375 ] = 0,5. 
10. A duração de vida (em horas) de dois dispositivos electrónicos D I e 02 
tem distribuição normal com médias 43 e 45 e desvios-padrão 6 e 3 respectiva- 
mente. Se o dispositivo tiver que ser usado por um período de 48 horas qual dos 
dois deve ser preterido? 
R: O segundo. 
11. O serviço de mailing de uma empresa está encarregado de manter e de- 
senvolver uma extensa lista de moradas de clientes. O serviço afirma que a 
probabilidade de qualquer dado da sua lista se encontrar desactualizado, dando 
assim origem a extravio é de 0,05. 
a) Calcule o risco de mais de 3 cartas se extraviarem, ou menos de 10 
chegarem aos clientes, caso sejam expedidas 15 cartas. 
b) Se forem expedidas 100 cartas, qual a probabilidade de no máximo 10 se 
extraviarem? 
c) Qual a probabilidade do responsável do serviço ter de investigar 5 registos 
da lista para encontrar 3 desactualizados? 
R: a) 0,0055; b) 0,9864; c) 0,0007. 
12. Um certo barco pode transportar dois tipos de contentores: o tipo A, mais 
pequeno e o tipo B, maior. 
Depois de cheios, estes dois tipos de contentores têm peso que podemos 
considerar normalmente distribuído. Um contentor do primeiro tipo pesa em média 
15 toneladas, com um desvio-padrão de 3 toneladas, enquanto que para um 
contentor do segundo tipo esses valores são 20 e 4 toneladas, respectivamente. 
Por razões técnicas, aconselha-se que o total da carga não exceda as 1750 
toneladas. 
DISTRIBUIÇOES TEÓRICAS MAIS IMPORTANTES 
a) Suponha que foram carregados nesse barco 60 contentores do tipo A e 40 
do tipo B. Qual a probabilidade da carga total do barco exceder o limite 
aconselhado? 
b) Tendo que carregar 40 contentores do tipo B, quantos contentores do tipo 
A devem ser carregados, se não se pretender correr um risco superior a 
5% de ultrapassar o limite de carga aconselhado? 
13. O Sr. Ramos decidiu jogar semanalmente no totoloto com duas apostas 
simples (70$00) até obter o 1 "rémio. Considere a variável aleatória 
X - n-e semanas em que o Sr. Ramos perde, até obter o 1" prémio. 
A probabilidade de o Sr. Ramos obter o 1"rémio em cada semana é p. 
a) Verifique que está perante uma sequência de provas de Bernoulli. 
b) Deduza a função de probabilidade da v.a. X. 
14. Nas companhias de teatro de uma cidade A trabalham 5000 artistas. 
O seu salário supõe-se seguir uma distribuição normal. Sabendo que metade 
deles ganham menos de 200 u.m. e que 5% ultrapassam 250 u.m., calcule: 
a) O melhor salário no grupo dos 2000 artistas pior pagos. 
b) O pior salário no grupo dos 1000 artistas melhor pagos. 
c) A probabilidade de em 10 artistas seleccionados ao acaso, encontrar 5 que 
ganham mais de 250 u.m. 
d) Sabendo que numa outra cidade ( B ) trabalham 2000 artistas e que o seu 
salário segue também distribuição normal com média 150 u.m. e desvio- 
padrão de 40 u.m., calcule a probabilidade de um artista escolhido ao acaso 
auferir um salário superior ao de um outro que trabalha na cidade A? 
Apêndice 
Tabelas de distribuipão 
DISTRIBUIÇÃO BINOMIAL 
VALORES DA FUNÇÃO DE PROBABILIDADE 
ESTAT~STICA APLICADA 
ESTAT~STICA APLICADA 
DISTRIBUICÃO BINOMIAL 
ESTAT~STICA APLICADA 
DISTRIBUIÇÃO DE POISSON 
VALORES DA FUNÇÁO DE PROBABILIDADE 
DI~TRIB~ICÃO DE POISSON 
ESTATISTICA APLICADA 
DISTRIBUICÃO DE POISSON 
ESTATISTICA APLICADA 
DISTRIBUIÇÁO NORMAL PADRÃO 
VALORES DA FUNÇÃO DE DISTRIBUIÇÃO 
Bibliografia 
BAILEY, K. D., Methods of Social Research, 3rd ed., The Free Press, 1987. 
BASSET, E. E.; J. M. BREMNER; I. T. JOLLIFFE; B. JONES; B. J. T MORGAN e P. M. NORTON, 
Statistics Problems and Solutions, Edward Arnold, 1986. 
BECHTOLD, B.; R. JOHNSON, Statistics for Business and Economics, PWS - Kent Publis- 
hing Company, 1989. 
BLACK, K., Business Statistics. An Introductory Course, West Publishing Company, 1992. 
BLALOCK, H., Social Statistics, revised 2" ed., McGraw-Hill, 1981. 
BRYMAN, A.; D. CRAMER, Análise de dados em Ciências Sociais. Introdução as técnicas 
utilizando o SPSS, Celta Editora, 1992. 
CONOVER, W. J., Practical Nonparametric Statistics, 2" ed., John Wiley & Sons, 1980. 
DAGNELIS, P., Estatística - Teoria e Métodos, Vol I e II, Publicações Europa-América. 
DOWNIE, N. M.; R. W. HEATH, Basic Statistical Methods, 5th ed., Harpa International 
Editions, 1983. 
EVERITT, B. S., The Analysis of Contingency Tables, Chapman & Hall, 1977. 
FERREIRA, Ana C., «Análise da Variância Simples: Similitude com o teste para a diferen- 
ça de médias,,, GIESTNISCTE, Temas em Métodos Quantitativos para Gestão, nQ 
4, 1991. 
Flsz, M., Probability Theory and Mathematical Statistics, 3rd ed., John Wiley & Sons, 
1963. 
FREUND, J., Mathematical Statistics, 2" ed., Prentice-Hall, 1972. 
HAMBURG, M., Statistical Analysis for Decision Making, 3rd ed., HBJ, 1 983. 
HENKEL, R. E., Tests of Significance, Sage University Papers, n V , 1976. 
HOGG, R. V.; A. T. CRAIG, Introduction to Mathematical Statistics, 2" ed., Collier MacMil- 
lan International Editions, 1978. 
IVERSEN, G. R.; H. NORPOTH, Analysis of Variance, Sage University Papers, n", 1976. 
KANJI, G. K., 100 Statistical Tests, Sage Publications, 1993. 
KARMEL and POLASEK, Applied Statistics for Economists, Pitman, 1975. 
KAZMIER, L, Estatística Aplicada a Economia e Administração, McGraw-Hill, 1982. 
KLOCKARS and SAX, Multiple Comparisons, Sage University Papers, n-1, 1987. 
LARROUSE, C., Probabilidades, R&-Editora (s/ data). 
ESTAT~STICA APLICADA 
LARSON, H. J., Introduction to Probability Theory and Statistical Inference, 2nd ed., John Wiley 
& Sons, 1974. 
MEYER, T. i?, Probabiliddes, Aplicações à Estatística, ed., Livros Técnicos e Científicos. 
MOOD, Graybill and BOES, Introduction to the Theory of Statistics, 3rd ed., McGraw-Hill, 1974. 
MURTEIRA, Bento, Probabilidades e Estatística, Vol l e ll, 2%d., McGraw-Hill, 1990. 
PEARSON, E. S. (editor), The History of Statistics in the 1 f h and 1 dh Centuries, Charles Griffin 
& Co. Ltd., 1978. 
PESTANA, M. H., «A Análise da Variância e a Inferência de Relações Causais}}, Revista de 
Gestão, 1-111, Junho, pág 39-48, 1988. 
REIS, E.; R. MOREIRA, Pesquisa de Mercados, Sílabo, 1993. 
ROBALO, A,, Estatística - Exercícios, Vol I e 11, 5%d., Sílabo, 1994. 
SANDERS, D. H.; A. F. MURPH ; R. J. Eng., Les Statistiques: une Approche Nouvelle, McGraw- 
Hill, 1984. 
SANDERS, D. H., Statistics. A Fresh Approach, 4th ed., McGraw-Hill, 1990. 
SCHEFFÉ, The Analysis of Variance, John Wiley & Sons, 1959. 
SIEGEL, S.; CASTELLAN, N. J., Nonparametric Statisticsfor the Behavioral Sciences, McGraw- 
Hill, 1988. 
SlMON DA FONSECA, J.; G. de A. MARTINS; G. L. TOLEDO, Estatística Aplicada, 2"d., Atlas, 
1985. 
SKHAK, B.; A. VERCASSON, Méthodes Statistiques pour Ia Géstion, Les Editions d'organisation, 
1989. 
SMELL, J. L., Introduction to Probability, McGraw-Hill, 1989. 
TIAGO DE OLIVEIRA, J., Probabilidades e Estatística. Conceitos, Métodos e Aplicações, Vol. I 
e ll, McGraw-Hill, 1990. 
VIEIRA, S., Introdução a Bioestatística, 6"d., Campus, 1989. 
WAMPOLD, B. E.; C. J. DREW, Theory and Applications of Statistics, McGraw-Hill, 1990. 
ALAPU licenciou-se em 
1986, pela Faculdade de 
no ISCTE e na Faculdade Lisboa. Concluiu o mestrado em Estatística e 
de Economia da Universidade Nova de Lisboa, bem como Operacional em 1991 pela mesma Faculdade 
em cursos de pós-graduação promovidos pelo INDEGI no ISCTE onde lecciona .e coordena as 
IISCTE. Em 1985 concluiu o mestrado em Economia, 
área de Economia das Teleccmll~icações, pela Faculd 
de Economia da UNL. 
Colaborou com a Direq& -. 
Fonsecas & Burnay e com i 
TMN. Nos C T - Telecon rmação em SPSS, e investigadora da UNIDU 
áreas de Política T--;4A"o a ~ d e de lnl~fistigação em Ciências Empresariais. 
, * . 
ROSA ANDF : lic DU-se em Econ 
ISCTE, em 1977. Em 19 ompletou a parte esc1 
mestrado em Métodos Mi iáticos Aplicados a Ecc 
e Gestão de Empresas do ISEG. Leccionou cor 
assistente em diversas cadeiras na área dos Métod 
Quantitativos de Gestão no ISCTE, tendo iniciado, a pa 
de 1986, uma carreira profissional na área do Marketinc 
do Planeamento e Controlo. Actualmente é professc 
auxiliar convidada no ISCTE onde lecciona a disciplina 
Estatística da licenciatura de Gestão de Empresas e a 
responsável pela Divisão de Estudos da área liberalizada 
Instituto das Comunicações de Portugal (ICP). 
ELIZABETH REIS iicenciou-se em Economia (1 979) pela 
Faculdade de Economia da Universidade do Porto. Fez o 
primeiro curso de pós-graduação em Economia Europeia 
(1981) na Universidade Católica Portuguesa. Em 1984 
concluiu o M.Sc. em Social Statistics na Universidade de 
Southampton,(U.K.) e, em 1987, o Ph. D. na mesma área 
de estudo. E doutora em Métodos Quantitativos para 
Gestão pela Universidade Técnica de Lisboa. Actualmente 
é professora associada com agregação do ISCTE onde 
lecciona as disciplinas de Estatística, Pesquisa de 
Mercados e Estatística Multivariada na licenciatura e 
mestrados em Gestão de Empresas (INDEGIISCTE). E 
membro fundador e da direcção do GIESTNISCTE e 
investigadora da UNIDEIISCTE, Unidade de Investigação 
Ciências Empresarir:-,.W 6 =~~pm;lw~t h $R#*%$ &q6@ 
$qe&~<?6?$1@'~~+ji 
t & 4, 
*$&5*2do.% í * " .% ' 
a síntese do tra~alno aesenvoiviao pc 
dns de todos aaueles aue, na vid 
olaprendizagem, têm necessida ie saber atística ou 2 nais 
" luagem simpies e acessivei, p~ 
ticos de resolução de problem 
tatística modo intuitivo e informal e 
as várias sit - 
Alunos, docentes do ensino securA"- 
(gestão, economia, sociologia, psicol 
disoôr de um manual a aue poderão sc

Mais conteúdos dessa disciplina