Buscar

probabilidade_e_estatistica_aplicada_a_engenharia_color

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 156 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 156 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 156 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

CÉSAR AUGUSTO COSTA
Probabilidade e Estatística 
Aplicada à Engenharia
1ª edição
Universidade Braz Cubas - UBC
Mogi das Cruzes
2015
Reitor: Prof. Maurício Chermann
DIRETORIA DE UNIDADES EDUCACIONAIS
Coordenação Geral Acadêmica - EaD: Prof.ª Dra. Mara Yáskara Paiva Cardoso
Assessoria Administrativa: Adriane Aparecida Carvalho
Coordenação de Produção: Diego de Castro Alvim
Revisão de Textos: Adrielly Rodrigues, Taciana da Paz
Edição de Arte: Michelle Carrete
Diagramação: Amanda Holanda, Vanessa Lopes
Ilustração: Noel Oliveira Gonçalves, Everton Arcanjo
Impressão: Grupo VLS / Jet Cópias / MogiPress
Banco de Imagens: Fotolia
Av. Francisco Rodrigues Filho, 1233 - Mogilar 
CEP 08773-380 - Mogi das Cruzes - SP
1ª edição 2015 
 
O autor dos textos presentes neste material didático assume total 
responsabilidade sobre os conteúdos e originalidade. 
Proibida a reprodução total e/ou parcial. 
© Copyright UBC 2015
César Augusto Costa1*
* César Augusto Costa possui graduação em Matemática pela Universidade do Planalto Catarinense (1999), mes-
trado (2002) e doutorado em Astrofísica pelo Instituto Nacional de Pesquisas Espaciais (2005). Tem experiência nas 
áreas de Física e Matemática, com ênfase em Modelagem Matemática, Análise e Aquisição de Dados e Estatística 
Aplicada. Realizou Pós-Doutoramento no LIGO (Laser Interferometric Gravitational Observatory) e na LSU (Loui-
siana State University) em Baton Rouge, LA, EUA, trabalhando na caracterização instrumental e análise de dados.
5
Su
m
ár
io
SUMÁRIO
APRESENTAÇÃO 9
INTRODUÇÃO 11
UNIDADE 1
1FREQUÊNCIA E PROBABILIDADE 13
1.1 INTRODUÇÃO À ESTATÍSTICA APLICADA À ENGENHARIA 14
1.1.1 CONCEITOS BÁSICOS 16
1.1.2 MAU USO DA ESTATÍSTICA 19
1.2 FREQUÊNCIA E PROBABILIDADE 20
1.2.1 MEDIDAS DE POSIÇÃO 21
1.2.1.1 MÉDIA 21
1.2.1.2 MEDIANA 22
1.2.1.3 MODA 23
1.2.2 MEDIDAS DE VARIABILIDADE 23
1.2.2.1 AMPLITUDE 23
1.2.2.2 VARIÂNCIA 24
1.2.2.3 DESVIO PADRÃO 24
1.2.3 ESPAÇO AMOSTRAL E EVENTOS 25
1.2.4 FREQUÊNCIA E PROBABILIDADE 26
1.2.5 PROPRIEDADES DA PROBABILIDADE 27
1.3 PROBABILIDADE CONDICIONAL E INDEPENDÊNCIA 30
1.3.1 PROBABILIDADE CONDICIONAL 30
1.3.2 INDEPENDÊNCIA 33
1.3.3 LEI DA PROBABILIDADE TOTAL 34
1.3.4 TEOREMA DE BAYES 35
6
Sum
ário
1.4 VARIÁVEIS ALEATÓRIAS 37
1.4.1 DISTRIBUIÇÃO DE PROBABILIDADE 38
1.4.2 DISTRIBUIÇÃO DE PROBABILIDADE CUMULATIVA 40
1.5 CONSIDERAÇÕES DA UNIDADE I 42
UNIDADE 2
2DISTRIBUIÇÃO DE PROBABILIDADE 47
2.1 DISTRIBUIÇÕES DE PROBABILIDADE DISCRETAS 48
2.1.1 VALOR ESPERADO 48
2.1.2 DISTRIBUIÇÃO BINOMIAL 51
2.1.3 DISTRIBUIÇÃO HIPERGEOMÉTRICA 56
2.1.4 DISTRIBUIÇÃO BINOMIAL NEGATIVA 60
2.1.5 DISTRIBUIÇÃO DE POISSON 62
2.2 DISTRIBUIÇÕES CONTÍNUAS DE PROBABILIDADE 65
2.2.1 DISTRIBUIÇÃO UNIFORME 67
2.2.2 DISTRIBUIÇÃO NORMAL 69
2.2.3 DISTRIBUIÇÃO EXPONENCIAL 72
2.2.4 DISTRIBUIÇÃO GAMMA 75
2.2.5 DISTRIBUIÇÃO DE WEIBULL 76
2.3 DISTRIBUIÇÕES DE PROBABILIDADES CONJUNTAS 79
2.4 CONSIDERAÇÕES DA UNIDADE II 84
UNIDADE 3
3INFERÊNCIA ESTATÍSTICA E APLICAÇÕES DE 
PROBABILIDADES 87
3.1 INFERÊNCIA ESTATÍSTICA 88
3.1.1 CONSTRUINDO HISTOGRAMAS DOS DADOS 91
3.1.2 ESTIMATIVA DE PARÂMETROS 92
7
Su
m
ár
io
3.1.2.1 ESTIMADORES SEM VIÉS 93
3.1.2.2 MÉTODO DOS MOMENTOS 94
3.1.2.3 MÉTODO DA MÁXIMA VEROSSIMILHANÇA 96
3.1.3 INTERVALOS DE CONFIANÇA 98
3.1.4 INTERVALO DE PREDIÇÃO E TOLERÂNCIA 104
3.2 TESTES DE HIPÓTESES 106
3.2.1 USO DO VALOR-P 109
3.2.2 RAZÃO DE VEROSSIMILHANÇA 112
3.2.3 CRITÉRIOS DE ESCOLHA 115
3.3 CONSIDERAÇÕES DA UNIDADE III 117
UNIDADE 4
4ANÁLISE DE VARIÂNCIA E REGRESSÃO LINEAR 121
4.1 ANÁLISE DE VARIÂNCIA (ANOVA) 122
4.1.1 TABELA ANOVA 126
4.2 REGRESSÃO LINEAR 134
4.2.1 REGRESSÃO LINEAR SIMPLES 134
4.2.2 AVALIAÇÃO DA REGRESSÃO LINEAR 139
4.2.3 AVALIAÇÃO DOS COEFICIENTES ANGULAR E LINEAR 141
4.2.4 REGRESSÃO LINEAR MÚLTIPLA 144
4.3 CONSIDERAÇÕES DA UNIDADE IV 148
REFERÊNCIAS 153
9
A
pr
es
en
ta
çã
o
APRESENTAÇÃO 
Prezado aluno,
A Estatística está se tornando uma ferramenta indispensável na 
análise de muitas tarefas contemporâneas em engenharia.
A Estatística trabalha com a coleta, processamento, conden-
sação, análise e interpretação de dados. Por sua vez, a Engenharia 
trabalha com a solução de problemas de produção, uso efetivo de ma-
teriais e mão de obra, desenvolvimento de novos produtos, melhora na 
qualidade e confiabilidade de produtos e em pesquisa básica. 
A partir da década de 1980, um grande esforço foi aplicado para 
se elevar a qualidade da indústria americana. Mas, já nos meados do 
século XX, muito se ouvia falar do milagre industrial japonês. Muito 
do sucesso japonês no desenvolvimento de técnicas e procedimentos 
industriais, veio da aplicação de métodos estatísticos e da implantação 
de um pensamento estatístico junto aos responsáveis pela gestão, pla-
nejamento e supervisão nas indústrias japonesas. 
Poucas áreas sentiram tanto o impacto do crescimento da esta-
tística moderna quanto a engenharia e a gestão industrial. Na realidade 
é difícil estimar a contribuição que a aplicação da estatística tem na 
resolução de problemas de produção, uso efetivo de matéria-prima e 
trabalho, e no desenvolvimento de novos produtos. As respostas obtidas 
pela abordagem estatísticas pode fornecer base para a tomada de uma 
decisão e escolha de uma ação, que, em geral, levam a otimização do 
trabalho do engenheiro.
Neste livro didático iremos introduzir conceitos e aplicações da 
Estatística que serão úteis no desenvolvimento das atividades cotidianas 
10
A
presentação
de um engenheiro. Com os exemplos da aplicação desses conceitos, 
conduziremos você a refletir como estender tais exemplos e aplicá-los à 
solução de outros problemas similares.
Que tal começarmos?
Bons estudos!
11
In
tr
od
uç
ão
INTRODUÇÃO
Neste livro didático, vamos abordar a estatística de forma a auxiliar 
na solução de problemas cotidianos de um engenheiro. Eventualmente, 
iremos utilizar também outras áreas do conhecimento, a fim de fornecer 
uma visão mais geral das aplicações da Estatística.
Não é nossa intenção aqui demonstrar teoremas e ser muito 
rigoroso com os conceitos ligados à Estatística e Probabilidade, mas 
sim, fornecer a você um ponto de início para a utilização da estatística 
como uma ferramenta fundamental no desempenho das atividades de 
engenharia.
Na Unidade I, veremos alguns conceitos básicos relacionados à 
Estatística e Probabilidade. Iniciaremos com uma visão geral do método 
estatístico e partiremos para as noções de frequência e probabilidade, 
que dão nome à unidade.
No decorrer da Unidade 2, descreveremos as principais funções 
de densidade de probabilidade e como aplicá-las em problemas cotidia-
nos da engenharia.
Na Unidade 3 apresentaremos a metodologia de inferência esta-
tística. Apreenderemos como utilizar a probabilidade para inferir e che-
gar a conclusões sobre determinadas características de uma população, 
o que auxiliará na tomada de decisões e a solução de problemas de 
engenharia.
Por fim, na Unidade 4, veremos como relacionar conjuntos dis-
tintos de dados através da regressão linear e do estudo de correlações. 
Boa leitura!
un
id
ad
e
1
13
U
ni
d.
 1
 -
 F
re
qu
ên
ci
a 
e 
Pr
ob
ab
ili
da
de
 
OBJETIVOS DA UNIDADE
• Elencar conceitos básicos de Estatística e Probabilidade;
• Fornecer uma visão geral de Estatística Descritiva;
• Introduzir a noção de distribuição de probabilidades para 
variáveis aleatórias. 
HABILIDADES E COMPETÊNCIAS
• Compreensão dos fundamentos da Estatística e 
Probabilidade;
• Determinação de parâmetros de localização e variabilidade 
de eventos;
• Cálculo de frequência de ocorrência de eventos;
• Relação entre frequência e probabilidade;
• Entendimento da Distribuição de Probabilidade. 
1Frequência e Probabilidade
14
U
nid. 1 - Frequência e Probabilidade
1.1 INTRODUÇÃO À ESTATÍSTICA APLICADA À 
ENGENHARIA
A necessidade da estatística vem da variabilidade dos resultadosobservados em fenômenos ou objetos em estudo pela engenharia. Ela 
ajuda a entender os fenômenos sujeitos a variabilidade e como efetiva-
mente predizer e controlar tal variabilidade.
As leis de probabilidade interferem em todos os fenômenos 
naturais, sociais, econômicos e pessoais, sendo algumas vezes superior 
às componentes determinísticas. Por componentes determinísticas, 
você pode entender as leis físicas que regem um processo. Por exemplo, 
no jogar de moedas ou dados, a Física que domina o fenômeno é bem 
conhecida, como torque, gravidade, forças de atrito, momento de inér-
cia, etc. Mas, o fenômeno em si é tão suscetível a pequenas variações 
dos parâmetros físicos que o regem, como a força aplicada pelos dedos 
do jogador, o atrito entre o objeto e as rugas da pele, imperfeições da 
simetria do objeto (moeda ou dado), condições iniciais do lançamento, 
rugosidade da superfície onde a moeda ou dado aterrissa, etc., que se 
torna impossível prever o resultado. No entanto, o conhecimento das 
leis de probabilidade pode nos fornecer indícios sobre as chances de 
cada um determinado resultado acontecer.
Não existe estatística com uma única observação. Então, 
para se realizar um estudo estatístico precisamos coletar dados ou infor-
mações sobre o fenômeno em estudo. Não existe algo como “dados 
suficientes”, que é uma frase comum entre os estatísticos. O impor-
tante é saber utilizar bem os dados disponíveis. Toda a informação 
ajuda o estudo estatístico. Assim, um estudo estatístico deve basear-se 
em quatro passos básicos, que são: 
15
U
ni
d.
 1
 -
 F
re
qu
ên
ci
a 
e 
Pr
ob
ab
ili
da
de
(1) Definir claramente os objetivos da investigação;
(2) Planejar quais dados serão coletados e como coletá-los;
(3) Aplicar o método estatístico apropriado para extrair as infor-
mações dos dados;
(4) Interpretar os resultados e traçar conclusões.
O uso da estatística como uma ferramenta para solucionar os 
problemas de engenharia pode ser mais bem entendido se pensarmos 
em exemplos práticos.
Imagine que as autoridades de saneamento de uma determinada 
cidade desejam saber se os níveis de um determinado metal pesado (por 
exemplo, chumbo) no suprimento de água estão dentro dos limites reco-
mendados pela Organização Mundial de Saúde. Como nem toda a água 
da cidade pode ser checada, a tomada de decisão sobre o tratamento, ou 
mesmo interrupção do fornecimento, pode ser baseada em uma análise 
parcial de certas quantidades de água retidas de certos locais.
Considere agora uma situação em que um engenheiro tem que 
determinar se certa liga metálica será capaz de suportar os geradores de 
uma usina de energia. Estudando vários pedaços diferentes de diferen-
tes materiais, ele obtém valores que poderão indicar qual liga e mesmo 
qual fornecedor é capaz de suprir as especificações do seu projeto, no 
que diz respeito às possibilidades de falha, por exemplo.
Para saber como fazer e responder às perguntas, encontrar a 
resposta correta e interpretar corretamente essas respostas, é preciso 
que conheçamos certos conceitos básicos.
16
U
nid. 1 - Frequência e Probabilidade
1.1.1 CONCEITOS BÁSICOS
É fácil observar pelas situações descritas que certas etapas devem 
ser cumpridas para se obter respostas que servirão de solução ao pro-
blema proposto. O trabalho de se traçar um estudo estatístico baseia-se 
em quatro passos. Podemos aplicar esses passos a um estudo estatístico 
seguindo o roteiro representado na Figura 1.1. 
Figura 1.1 Passo para a realização de um estudo estatístico.
 
Fonte: Elaborada pelo autor. 
O método estatístico tenta descrever a característica de uma 
população por meio da coleta de dados. Por dado você pode entender 
como sendo a informação sobre a característica de interesse, pode ser 
uma medida (ou quantidade) ou uma qualidade que provém da popula-
ção. À tomada de dados chamaremos de experimento.
População é, então, o conjunto de todas as possibilidades, su-
jeitos ou objetos com certa característica de interesse, a qual apresenta 
variabilidade intrínseca. Para se determinar a propriedade global de 
uma característica de uma população é preciso avaliá-la em todos os 
membros da população.
Censo é a coleção de todos os dados característicos de todos os 
membros de uma determinada população. Nem sempre é possível cole-
tar todos os dados de uma dada população. Muitas vezes, a população é 
hipotética ou conceitual, como quando vamos analisar as propriedades 
de resistência de uma peça que ainda será produzida. 
17
U
ni
d.
 1
 -
 F
re
qu
ên
ci
a 
e 
Pr
ob
ab
ili
da
de
Como mencionamos anteriormente, nem sempre é possível co-
letar dados de toda a população, e essa situação é a mais comum. Na 
verdade, não é necessário coletar a informação sobre a característica de 
interesse para descrever uma população, basta uma amostra da mesma. 
Amostra é um subconjunto (parcela com tamanho n de uma população 
de tamanho N) da população selecionada para ser representativa, ou 
seja, que apresente, pelo menos aproximadamente, as mesmas caracte-
rísticas globais da população.
Com os dados obtidos por meio da amostragem da população 
podemos descrever características da amostra, usando a Estatística 
Descritiva. Com ela podemos estimar parâmetros que caracterizem a 
amostra, como média, dispersão, etc. Juntamente com a utilização de 
gráficos podemos descrever as características dos dados da amostra e 
traçar um modelo de probabilidade. E finalmente, por meio desse mo-
delo de probabilidade, podemos fazer inferências estatísticas sobre a 
população e esboçar conclusões sobre suas características globais.
Os dados coletados sobre a característica de interesse serão armaze-
nados em uma entidade matemática para que possamos analisá-los global-
mente, chamaremos essa entidade de variável. Variável é um atributo ou 
medida numérica que descreve certa característica de interesse. A variável 
representa o resultado do experimento. Por exemplo, se o experimento é 
medir o diâmetro de um vergalhão que será utilizado na armação de uma 
viga de concreto, nossa variável representará os valores medidos.
Normalmente, representamos esta variável por uma letra, i.e. x. 
Os dados são então armazenados na variável e ordenados segundo a 
amostragem, ou seja, cada amostra será representada por uma letra e 
um número, i.e x1, que representa a primeira amostra; x2, que representa 
a segunda amostra e assim por diante. De forma geral, podemos repre-
sentar o conjunto ou série de amostras como: 
 x = {x1, x2, x3, …, xn} (1.1)
18
U
nid. 1 - Frequência e Probabilidade
A Figura 1.2 mostra que as variáveis podem ser classificadas se-
gundo suas propriedades. As variáveis que transportam informação não 
numérica são chamadas qualitativas. Podemos citar como exemplos 
de variáveis qualitativas: cor do cabelo ou olhos, raça, religião, sexo, etc. 
Figura 1.2 Propriedades das variáveis.
Fonte: Elaborada pelo autor.
Características às quais possam ser atribuídos valores numéricos 
serão chamadas variáveis quantitativas. Estas por sua vez podem ser 
classificadas como discretas, se o valor numérico atribuído for constituí-
do de números inteiros; ou contínuas, se o valor numérico atribuído 
for constituído de números reais. Como exemplo de variáveis discretas, 
podemos citar: a soma do resultado de dois dados (jogo), o número 
de pessoas em uma sala, número de peças que correspondem a uma 
especificação, etc. Já as variáveis contínuas podem assumir qualquer 
valor real, ou qualquer valor em um intervalo real, por exemplo: a altura 
de jovens de 18 anos, o diâmetro de um furo em uma peça, o tempo de 
funcionamento de uma linha de produção, etc.
Quando analisamos a relação entre mais de uma variável, essas 
variáveis poderão apresentar algum tipo de relação, por exemplo, linear 
(x = ay + b). Quando tal relação é observada dizemos que as variáveis 
são dependentes. Ou, as variáveis podemser completamente despro-
vidas de qualquer tipo de relação, neste caso, diremos que elas são 
independentes. Esses são conceitos importantes para as aplicações em 
engenharia e olharemos com mais detalhes à frente.
19
U
ni
d.
 1
 -
 F
re
qu
ên
ci
a 
e 
Pr
ob
ab
ili
da
de
Mas, conhecer bem tais conceitos, não garante a boa aplicação e 
interpretação de resultados estatísticos.
1.1.2 MAU USO DA ESTATÍSTICA
Muitas vezes, a falta de conhecimento faz com que os resultados 
obtidos de um estudo estatístico sejam mal interpretados, ou mesmo, 
mal utilizados. É muito comum vermos a manipulação e o uso indevido 
de resultados estatísticos na TV, como em comerciais, jornais e campa-
nhas políticas. 
Entre os exemplos mais comuns de mau uso podemos citar:
• Pequenas amostras;
• Descarte de dados desfavoráveis;
• Amostragem com viés;
• Supergeneralização; 
• Perguntas tendenciosas;
• Uso errado de estimativas de erro;
• Causalidade falsa;
• Significância estatística mal interpretada;
• Manipulação de dados. 
20
U
nid. 1 - Frequência e Probabilidade
 
 
DICA DE LEITURA
Há uma infinidade de artigos e livros disponíveis na internet 
mencionando como a estatística é manipulada em campanhas 
políticas, comerciais de TV, apresentação de relatórios, etc. 
Vale a pena pesquisar! Uma boa leitura sobre o assunto 
é: HUFF, Darrel. Como mentir com estatísticas. Rio de 
Janeiro: Editoras Financeiras S.A., 1968. 
1.2 FREQUÊNCIA E PROBABILIDADE
Muito do estudo da estatística se baseia na teoria de conjuntos. 
É fácil imaginar que quando estamos analisando uma característica po-
demos classificá-la e arranjá-la em conjuntos. Assim, um conjunto será 
uma coleção de objetos únicos com características similares. Os objetos 
podem ser coisas concretas (alunos em uma sala de aula, peças em uma 
esteira) ou abstratas (cores, números). 
Podemos definir conjuntos na forma A= {3, 5, 8, 31} ou B= {maçã, 
laranjas, peras}. A ordem com que os elementos aparecem dentro do 
conjunto não importa, ou seja, {8, 3, 31, 5} = {3, 5, 8, 31}. Quando 
um dado elemento x encontra-se em um conjunto A, dizemos que x 
pertence a A, ou x ∈ A. Caso contrário, dizemos que x não pertence a 
A, ou x ∉ A. Um conjunto com nenhum elemento é chamado vazio, ou 
representado como ∅ ={}.
Nossos conjuntos podem representar uma infinidade de coisas, 
como características propriamente ditas ou mesmo intervalos de valores 
numéricos. Da mesma forma, os valores dos elementos de um determi-
nado conjunto podem estar localizados ou posicionados em torno de 
um determinado valor do intervalo, e ainda estarem “espalhados” em 
torno desse valor.
21
U
ni
d.
 1
 -
 F
re
qu
ên
ci
a 
e 
Pr
ob
ab
ili
da
de
1.2.1 MEDIDAS DE POSIÇÃO
Este valor, em torno do qual os demais valores de um conjunto 
estão em torno, pode caracterizar uma população ou amostra. Todos os 
estudantes estão acostumados com pelo menos uma dessas medidas 
de posição.
1.2.1.1 MÉDIA
O professor avalia seus alunos com vários testes e trabalhos, 
no final do semestre as notas referentes a cada um deles é somada e 
dividida pelo número de avaliações, a média das notas. Ao fazer isto, 
o professor está caracterizando uma amostra (notas do aluno) para 
sumarizar seu desempenho.
A média é um parâmetro que descreve uma população ou amos-
tra quanto a sua localização. E é definida como:
População Amostra
Observe que os valores da média da população μ e a média da 
amostra , podem ter valores diferentes, o que é normalmente o caso. Da 
mesma forma que duas amostras diferentes de uma mesma população 
poderão ter valores diferentes para a média. Mas, ambas aproximam-se 
quando o tamanho da amostra é grande ou comparável à população.
A média é um bom caracterizador de uma população, contudo ela 
é bastante suscetível a valores extremos dentro do conjunto de dados. 
Em outras palavras, se a amostra contiver um valor muito alto, ou muito 
22
U
nid. 1 - Frequência e Probabilidade
pequeno, o cálculo da média é bastante afetado. Assim, como quando 
o aluno obtém uma nota muito alta, ou muito baixa, com relação às 
demais, isto tem bastante efeito sobre a média de forma geral.
Exemplos:
- A média da amostra {1, 2, 3, 2, 2} é .
- A média da amostra {1, 2, 3, 2, 10} é .
1.2.1.2 MEDIANA
A mediana é um parâmetro descritivo populacional ou amostral 
menos suscetível a valores extremos. Para obter o valor da mediana, 
ordenamos os elementos de um conjunto. A mediana é o valor do meio 
do conjunto, se o número de elementos for ímpar, e é o valor médio 
entre os dois elementos do meio se o número de elementos for par.
Exemplos: 
- A mediana da amostra {1, 2, 3, 2, 2} é 2, pois ordenando a 
amostra temos {1, 2, 2, 2, 3}. E dois encontra-se no meio do conjunto.
- A mediana da amostra {1, 2, 3, 2, 10} é ainda 2, pois ordenando 
a amostra temos {1, 2, 2, 2, 10}. E dois encontra-se no meio do conjunto.
23
U
ni
d.
 1
 -
 F
re
qu
ên
ci
a 
e 
Pr
ob
ab
ili
da
de
1.2.1.3 MODA
Outra medida de posição bastante útil na estatística descritiva é a 
moda. A moda é o valor que mais aparece dentro de um conjunto de dados. 
Exemplo:
- A moda da amostra {1, 2, 3, 2, 2} é 2, pois ela aparece 3 vezes 
na amostra.
1.2.2 MEDIDAS DE VARIABILIDADE
Uma vez determinados o ponto em torno do qual os elementos 
de um conjunto amostral se encontram, é necessário quantificar o “es-
palhamento” ou dispersão desses elementos em torno de tal ponto. Isso 
nos dará uma medida de variabilidade do conjunto.
1.2.2.1 AMPLITUDE
A amplitude é dada pela diferença entre o maior e o menor valor 
dos elementos de um conjunto. É a medida mais simples de variabilidade 
e dá ideia da extensão.
Exemplo:
- A amplitude da amostra {1, 2, 3, 2, 2} é 2, pois é a diferença 
entre o maior e o menor valor, 3 - 1 = 2.
24
U
nid. 1 - Frequência e Probabilidade
1.2.2.2 VARIÂNCIA
Outra medida de dispersão envolve medir os desvios com relação 
à média. A variância é uma medida quadrática desses desvios. Assim, 
conhecida a média populacional ou a média amostral definimos a va-
riância como:
População Amostra
Observe o denominador n - 1, no caso da variância amos-
tral. Apesar de existirem n elementos na amostra, existirão apenas 
n - 1 graus de liberdade. O cálculo de s2 baseia-se em n quantidades 
, cuja soma é sempre zero. Isto quer dizer que 
n - 1 quantidades determinam a quantidade restante.
Exemplo:
- A variância da amostra {1, 2, 3, 2, 2}, uma vez conhecida sua média, 
é .
1.2.2.3 DESVIO PADRÃO
A variância é uma quantidade quadrática e, portanto, para manter 
a unidade de medida original da quantidade amostrada é comum repre-
sentar sua variabilidade pela raiz quadrada da variância, tal quantidade 
é conhecida como desvio padrão.
25
U
ni
d.
 1
 -
 F
re
qu
ên
ci
a 
e 
Pr
ob
ab
ili
da
de
População Amostra
O desvio padrão fornece uma ideia sobre o raio em torno da 
média em que se encontra a maior parte dos valores. 
Exemplo:
- Sendo variância da amostra {1, 2, 3, 2, 2}, , o desvio 
padrão da amostra será .
É comum descrever uma população ou amostra por uma medida 
de localização seguida de uma medida de variabilidade. Por exemplo, 
podemos descrever a amostra {1, 2, 3, 2, 2} por +s, ou seja, .
Tais medidas de posição e variabilidade descrevem parâmetros 
que caracterizam uma população ou amostra, e auxiliam na construção 
de um modelo de probabilidade para as mesmas, tornando indispensá-
veis para a inferência estatística.
1.2.3 ESPAÇO AMOSTRAL E EVENTOS
Um espaço amostral representa o conjunto de todos os valores 
possíveis em um dado experimento. Denotaremos o espaço amostral 
por Ω. Assim, se o experimento é lançar uma moeda, definiremos o 
espaço amostral Ω = {H, T}, sendo H=CARA e T=COROA, das palavras 
do inglês head e tail. Já se lançarmos um dado, o espaço amostral será 
Ω = {1, 2, 3, 4, 5, 6}.
Um espaço amostral pode também representar um intervalo de 
valores possíveis e ter infinitosvalores, por exemplo, Ω = {x ∈ R , 0 ≤ x ≤ 1}, 
ou seja x pertencente aos reais tal que x está entre 0 e 1, inclusive.
26
U
nid. 1 - Frequência e Probabilidade
Chamaremos de evento X um subconjunto do espaço amostral 
Ω de um experimento. Em outras palavras, é um ou mais elementos do 
espaço amostral sobre o qual se deposita o interesse de nosso estudo 
estatístico.
Por exemplo, ao rolarmos dois dados, os resultados possíveis 
para a soma dos resultados representam o espaço amostral Ω = {2, 3, 4, 
…, 10, 11, 12}. Podemos estar interessados num único elemento deste 
espaço amostral, por exemplo, quando a soma dá 2 (ambos os dados 
mostram 1). Neste caso, o evento será representado por X = 2. 
1.2.4 FREQUÊNCIA E PROBABILIDADE
Observe que existe uma única possibilidade para que a soma 
dos dados seja 2, que ambos apresentem a face com o número 1. No 
entanto, existem várias possibilidades de se obter a soma igual a 4, as 
faces dos dados podem apresentar os números, 1-3, 2-2 e 3-1. Assim, 
o número de ocorrências (frequência absoluta) de um dado evento 
dentro de um espaço amostral pode variar.
Chamaremos de frequência relativa o número de vezes (nx) 
que um evento (X) dentro de um espaço amostral ocorre dividido pelo 
número de vezes que o experimento é repetido (N), ou seja, 
 (1.2)
Suponha que nossa amostra seja composta por 200 observações 
da variável x, que representa o número de disciplinas em que o aluno 
da universidade está matriculado em um semestre. Se 70 desses valores 
de x é igual a 3, então a frequência absoluta de x é 70, e a frequência 
relativa é .
27
U
ni
d.
 1
 -
 F
re
qu
ên
ci
a 
e 
Pr
ob
ab
ili
da
de
Quando o número de repetições é grande, a frequência relativa 
fornece uma medida satisfatória da probabilidade de ocorrência de 
um evento específico, P(X). Isso é conhecido como Lei dos Grandes 
Números da Teoria da Probabilidade. É fácil perceber, pelo exemplo do 
lançamento dos dados, que a frequência e a probabilidade diferem para 
pequenos números de repetições do experimento. Podemos lançar os 
dados algumas dezenas de vezes e não termos nenhuma ocorrência de 
ambos os dados mostrarem 1, F (X = 2) = 0. No entanto, é fácil mostrar 
que a probabilidade de se obter a soma igual a 2 com o lançamento de 
dois dados é de 1/36, ou seja, P (X = 2) = 1/36.
O conceito de probabilidade é abstrato e ocorre no limite quando 
o número de repetições do experimento tende ao infinito. Em termos 
matemáticos, 
 (1.3)
A Equação 1.3 nos indica que se o número de repetições de um 
experimento for grande, a frequência de um dado evento fornecerá 
informações sobre sua probabilidade de ocorrência.
As probabilidades têm valores relacionados a resultados elemen-
tares dentro do espaço amostral. A probabilidade de um evento pode ser 
encontrada pela adição dos resultados simples que foram o evento. Por 
exemplo, a probabilidade de se obter um número par em uma rolagem 
de um dado é 3/6 (1/6+1/6+1/6), que é a soma das probabilidades de se 
obter um 2, um 4 ou um 6.
1.2.5 PROPRIEDADES DA PROBABILIDADE
Os seguintes axiomas se aplicam aos números que chamamos 
probabilidade:
28
U
nid. 1 - Frequência e Probabilidade
1. P(A) ≥ 0.
2. P(Ω) = 1.
3. Se A1, A2, A3,… é uma coleção infinita de eventos disjuntos, 
então P(A1 A2 A3 …) = ∑ P(Ai).
Antes de falarmos das propriedades vamos relembrar algumas 
propriedades das operações de conjuntos, utilizando diagramas de Venn. 
A Figura 1.3 mostra algumas operações básicas entre conjuntos A e B, 
que podem ser considerados como eventos, em um espaço amostral Ω. 
Figura 1.3 Operações básicas entre conjuntos.
(a)
A ΩB
(b)
A ΩB
(c)
A’ Ω
A (d)
A ΩB
Fonte: Elaborada pelo autor.
A Figura 1.3a representa a união (A B), que pode ser entendida 
como A “ou” B ocorreram. A Figura 1.3b mostra a intersecção (A∩B), 
que pode ser entendida como A “e” B ocorreram. A Figura 1.3c mostra 
o complementar de A, AC, também chamado de não A. E a Figura 1.3d 
mostra eventos disjuntos (ou mutuamente exclusivos), ou seja, A∩B=Ø. 
Isso pode ser entendido como “ou” A “ou” B ocorreram, ou seja, apenas 
um dos dois ocorreu, não os dois simultaneamente. 
As propriedades 1 e 2 nos dizem que o valor da probabilidade 
de um evento A é um número entre 0 e 1. Da propriedade 2, podemos 
29
U
ni
d.
 1
 -
 F
re
qu
ên
ci
a 
e 
Pr
ob
ab
ili
da
de
deduzir que P(A) + P(Ac ) = 1, ou seja, a probabilidade do evento A 
adicionada à probabilidade dos eventos complementares de A é igual a 
1. Isso leva à regra do complementar para probabilidades 
 P(A) = 1-P (Ac) (1.4)
Para dois eventos A e B dentro de um espaço amostral Ω, temos que: 
 P(A B) = P(A) + P(B) - P(A∩B) (1.5)
Esta Equação (1.4) é conhecida como regra da adição.
Observe que pela Equação 1.4, se dois eventos são mutuamente 
exclusivos, ou que não ocorrem simultaneamente, P(A∩B) = 0, logo 
P(A B) = P(A) + P(B), o que recai sobre o axioma 3. Isso previne que even-
tos que não sejam mutuamente exclusivos sejam contados duplamente.
Veja o exemplo:
Em um bairro, 60% dos residentes utilizam o serviço de internet 
de uma dada operadora, 80% dos residentes utilizam o serviço de TV 
a cabo dessa mesma operadora, e 50% utilizam ambos os serviços da 
operadora. Se escolher um morador daquele bairro a esmo, qual a pro-
babilidade de que ele utilize pelo menos um dos dois serviços?
Resposta: 
Sendo P(A) = 0,6 {tem serviço de internet}, P(B) = 0,8 {tem serviço 
de TV} e P(A∩B) = 0,5 {tem ambos os serviços}, a probabilidade do mo-
rador ter pelo menos um dos serviços será:
P(A B) = P(A) + P(B) - P(A∩B)
P(A B)= 0,6 + 0,8 - 0,5 = 0,9
30
U
nid. 1 - Frequência e Probabilidade
Ou seja, se você falar com um morador daquele bairro há 90% de 
chances que ele possua pelo menos um dos dois serviços.
Se dois eventos distintos têm a mesma probabilidade de ocor-
rência dentro de um espaço amostral, ou seja, P(A) = P(B), dizemos 
que eles são igualmente prováveis. Por exemplo, a probabilidade de ter 
cara ou coroa é igualmente provável no lançamento de uma moeda não 
viciada, P(H) = P(T) = 1/2.
1.3 PROBABILIDADE CONDICIONAL E 
INDEPENDÊNCIA
Em geral, quando um evento tem uma probabilidade não nula de 
ocorrer dentro de um espaço amostral, tal probabilidade é dependente 
das condições com que o experimento foi conduzido. Qualquer infor-
mação adicional sobre o experimento pode fazer com que venhamos a 
reconsiderar a probabilidade de ocorrência de um evento.
1.3.1 PROBABILIDADE CONDICIONAL
É interessante avaliar como a ocorrência de um evento B pode 
afetar a probabilidade de ocorrência de outro evento A. 
A probabilidade condicional de um evento B é a probabilidade 
de que o evento irá ocorrer dado o conhecimento de que o evento A já 
ocorreu. Denotamos tal probabilidade com P(B|A), e lê-se probabilidade 
de B dado A, e é dada pela regra da multiplicação 
 P(A∩B)=P(A)P(B│A) (1.6a)
31
U
ni
d.
 1
 -
 F
re
qu
ên
ci
a 
e 
Pr
ob
ab
ili
da
de
ou
 (1.6b)
Veja o exemplo:
Um professor realizou dois testes em sua disciplina. Vinte e cinco 
por cento dos alunos passaram em ambos os testes e 42% passaram 
no primeiro teste. Qual a porcentagem dos alunos que passaram no 
primeiro teste e também passaram no segundo teste?
Resposta:
Considere os eventos PRIMEIRO= {passou no primeiro teste} e 
SEGUNDO= {passou no segundo teste}. Temos que:
Portanto, 60% dos alunos que passaram no segundo teste, pas-
saram também no primeiro.
Para calcular a probabilidade de intersecção de mais de dois 
eventos, a probabilidade condicional de todos os eventos precedentes 
deve ser considerada. No caso de três eventos, A,B e C, a probabilidade 
de intersecção é:
 P(A∩B∩ C) = P(A)P(B|A)P(C|A∩B) (1.7)
Essa equação é conhecida como regra dacadeia para as proba-
bilidades.
Veja o exemplo:
32
U
nid. 1 - Frequência e Probabilidade
Considere um candidato à universidade que têm 0.8 de probabi-
lidade de ser aceito, porém apenas 60% dos estudantes aprovados irão 
ter vagas no dormitório universitário. Oitenta por cento dos estudantes 
no dormitório dividem o quarto com pelo menos outro estudante. A 
probabilidade de o candidato ser aprovado, conseguir uma vaga no 
dormitório e ficar sozinho no quarto é calculada por:
P(Aprovado∩Dormitório∩Sozinho)=
= P(Aprovado)P(Dormitório│Aprovado)P(Sozinho│Dormitório∩ Aprovado)
= (0.80)*(0.60)*(0.20) = 0.096.
Ou seja, o candidato tem 9,6% de chances de ficar sozinho em 
um quarto do dormitório universitário, caso seja aprovado.
Devemos então identificar se o evento B é dependente da ocor-
rência do evento A. No problema da probabilidade condicional se a 
ocorrência do evento A reduz o espaço amostral de B, dizemos que B é 
dependente de A, como mostra a Figura 1.4.
Figura 1.4 Redução do espaço amostra de B dada a ocorrência de um evento A. 
B ΩA
A
∩
B
Fonte: Elaborada pelo autor.
Veja o exemplo:
Retirando duas cartas de um baralho (52 cartas) para determinar 
a probabilidade de a primeira carta ser um ás (A) e da segunda carta ser 
33
U
ni
d.
 1
 -
 F
re
qu
ên
ci
a 
e 
Pr
ob
ab
ili
da
de
um rei (K), precisamos considerar duas situações: com ou sem reposição 
da primeira carta.
Tabela 1.1 Probabilidades de se retirar um A e um K de um baralho em sequência, com e 
sem reposição da primeira carta. 
Carta Com reposição Sem reposição
1ª
P(A) = 4/52
P(K) = 4/52
P(A) = 4/52
P(K) = 4/52
2ª P(K|A)=4/52 P(K|A)=4/51
1ª e 2ª P(K∩A) = 4/52 * 4/52 = 0,0059 P(K∩A) = 4/52 * 4/51 = 0,006
Fonte: Elaborada pelo autor.
Observe que a forma como experimento é conduzido tem impli-
cações na probabilidade de ocorrência dos eventos.
1.3.2 INDEPENDÊNCIA
No caso da reposição da primeira carta, a probabilidade de 
P(B∩A) = P(B) * P(A), então dizemos que os eventos são estatistica-
mente independentes, ou simplesmente independentes.
Outra forma de determinarmos se dois eventos são independen-
tes é calcularmos a probabilidade condicional. Quando a probabilidade 
de P(B│A) = P(B), isto quer dizer que a ocorrência do evento A não têm 
nenhuma influência no evento B e, portanto, A e B são independentes, 
como no caso da reposição das cartas. Por simetria P(A│B) = P(A), uma 
vez que P(A∩B) = P(B∩A). Já se P(B│A) ≠ P(B), a ocorrência de A afeta 
a probabilidade de B e os eventos são dependentes, como no caso da 
não reposição das cartas. 
34
U
nid. 1 - Frequência e Probabilidade
Se dois eventos são disjuntos (correspondendo a eventos mutua-
mente exclusivos), P(B∩A) = P(Ø) = 0 e, portanto, P(B|A) = 0, apesar 
da probabilidade de A e de B serem não nulas. Isso parece um pouco 
contraintuitivo, mas na verdade está ligado ao próprio conceito de mu-
tuamente exclusivo, se A ocorre, B não pode ocorrer e vice-versa. Note 
que os conceitos de independência e mútua exclusividade são distintos.
1.3.3 LEI DA PROBABILIDADE TOTAL
Imagine agora que nosso espaço amostral permite-se “ser par-
tido” em eventos disjuntos B1, B2, B3,…, Bk, como mostra a Figura 1.5. 
Figura 1.5. Partição do espaço amostral.
Ω
A
B1
B2
B6
B3
B7
B8
B5B4
Fonte: Elaborada pelo autor.
Que tal forma que A = (A∩B1) (A∩B2 ) … (A∩Bk). E, portanto, 
pela regra da adição temos que: 
 P(A) = P(A∩B1) + P(A∩B2 ) + ... + P(A∩Bk) (1.8a)
Recordando-se da regra da multiplicação, podemos dizer que: 
P(A) = P(A|B1)P(B1) + P(A|B2)P(B2) + ... + P(A|Bk) P(Bk) (1.8b)
35
U
ni
d.
 1
 -
 F
re
qu
ên
ci
a 
e 
Pr
ob
ab
ili
da
de
A Equação 1.8b é conhecida como Lei da Probabilidade Total 
e relaciona a probabilidade de A com as probabilidades condicionais, 
dado a ocorrência de cada partição Bj do espaço amostral. 
Por exemplo, imagine um maço de cartas bem embaralhadas 
e que duas cartas são retiradas. Considere os eventos A1 = {Primeira 
carta é um ás} e, portanto, A = {Primeira carta não é um ás}. Qual é a 
probabilidade P(A2) de a segunda carta ser um ás?
Considerando a situação temos:
1.3.4 TEOREMA DE BAYES
Note que em geral P(A│B) ≠ P(B|A), e eles só serão iguais se P(A) 
= P(B). Ambas as quantidades se relacionam pelo chamado Teorema de 
Bayes. O teorema de Bayes (pronuncia-se “beis”, do reverendo inglês 
Thomas Bayes) não é mais que uma generalização dos conceitos de pro-
babilidade condicional e a lei da probabilidade total. Ele é normalmente 
representado por:
 (1.9a)
ou na forma mais geral,
 (1.9b)
Agora, se usarmos a Lei da Probabilidade Total no denominador 
chegamos a
36
U
nid. 1 - Frequência e Probabilidade
 (1.10)
Observe que P(Bj) representa a priori a melhor estimativa da 
probabilidade que estamos procurando P(Bj|A), por isso ela é chamada 
probabilidade a priori. Logo, P(Bj|A) é chamada de probabilidade 
posterior. Dessa forma, o teorema de Bayes nos ajuda a entender como 
uma probabilidade é afetada pela presença de uma nova evidência ou 
informação.
Veja o exemplo:
Considere um sistema que testa se componentes de um compu-
tador estão funcionando ou estão defeituosos, baseado na temperatura 
em que eles rodam quando estão funcionando. Suponha, por exemplo, 
que 99,5% dos componentes falham quando estão acima de 50º C. 
Agora, se você pegar um componente a esmo e testá-lo, e se a tempe-
ratura for 53º C, quão provável é que este componente esteja falhando?
O que queremos saber é a probabilidade de um componente fa-
lhar, dado que está rodando muito quente, ou seja, P(FALHA|QUENTE). 
Mas, o que sabemos é a probabilidade do componente estar quente, 
dado que ele falhou, ou seja, P(QUENTE|FALHA). As duas probabilida-
des relacionam-se pelo teorema de Bayes, assim teremos: 
Suponha que a priori que 1% dos componentes falha rodando 
quente ou frio, P(FALHA) = 0,01, e que 5% dos componentes rodam 
quente, falhando ou não, P(QUENTE) = 0,05. Isto nos dá:
Então de fato, sob tais circunstâncias, se um componente é testa-
do com base em sua temperatura, a probabilidade de ele estar falhando 
37
U
ni
d.
 1
 -
 F
re
qu
ên
ci
a 
e 
Pr
ob
ab
ili
da
de
é de somente 20% e não 99,5%, como seria de se imaginar. Isso pode 
ter profundas consequências se você estiver utilizando este teste para 
determinar quais componentes vender e quais descartar.
1.4 VARIÁVEIS ALEATÓRIAS
Vimos até agora em nossos experimentos, que retirávamos cartas 
a esmo e escolhíamos peças sem nenhum procedimento específico. 
Esses resultados eram então armazenados em variáveis aleatórias. A 
palavra aleatória significa que é impossível conhecer o valor da variável 
previamente, somente após a medida ser realizada.
O resultado de um experimento não precisa necessariamente ser 
um número, como no lançamento de uma moeda, em que os resultados 
podem ser cara (H) ou coroa (T). Mas, o valor de uma variável aleatória 
varia de experimento para experimento, por exemplo, o número de 
caras que se tira em uma sequência de lançamentos.
Uma variável aleatória é então uma característica numérica de 
cada evento em um espaço amostral, ou equivalentemente de cada 
indivíduo de uma população. Como exemplos podemos citar o número 
de caras em quatro lançamentos consecutivos de uma moeda, ou a 
altura de indivíduos em um grande população.
As variáveis aleatórias podem ser discretas ou contínuas, depen-
dendo se suas características (veja seção 1.1). As variáveis aleatórias 
discretas são contagens de valores distintos. Por exemplo, o número de 
caras em quatro lançamentos de uma moeda (com resultados possíveis: 
0, 1, 2, 3, 4), ou o número de aulas em que você faltou na semana 
passada (com resultados possíveis: 0, 1, 2, 3, 4, até um número máxi-
mo). Já para as variáveis aleatórias contínuas, os valores pertencem a 
38
U
nid. 1 - Frequência e Probabilidade
intervalos de números reais,com a altura de indivíduos ou o tempo para 
terminar uma prova. Na prática, não medimos com tanta precisão para 
monitorarmos todos os valores reais possíveis para uma variável aleatória 
contínua, e costumamos arredondar valores. Por exemplo, se alguém se 
exercita 2,14543... horas por semana, provavelmente arredondaremos 
para 2,1, ou mesmo, 2, mas o tempo de exercício continua sendo uma 
variável aleatória contínua. 
Embora seja impossível determinar o valor de uma variável 
aleatória antes de realizar a medida, podemos caracterizar as variáveis 
aleatórias pelo seu conjunto de valores possíveis através de suas pro-
babilidades de ocorrências. Quando conhecemos todos os possíveis 
valores de uma variável aleatória com suas respectivas probabilidades de 
ocorrência, temos uma distribuição de probabilidades.
1.4.1 DISTRIBUIÇÃO DE PROBABILIDADE
Para uma dada variável aleatória, sua distribuição de probabilida-
de (também chamada de função de distribuição de probabilidade) é 
qualquer tabela, gráfico ou fórmula que dê a probabilidade associada a 
um determinado valor da variável aleatória.
Por exemplo, vamos analisar o espaço amostral de 4 lançamentos 
consecutivos de uma moeda, como mostra a Tabela 1.1. As cores mais 
escuras representam maior número de caras no resultado X= {0, 1, 2, 3, 4}.
39
U
ni
d.
 1
 -
 F
re
qu
ên
ci
a 
e 
Pr
ob
ab
ili
da
de
Tabela 1.1. Possíveis resultados de 4 lançamentos consecutivos de uma moeda. 
Lembre-se da notação: H=cara e T=coroa.
HHHH HHHT HHTH HHTT
THHH HTHT THHT HTTT
HTHH HTTH THTH THTT
TTHH TTTH TTHT TTTT
Fonte: Elaborada pelo autor.
Podemos, então, construir uma tabela com a distribuição de 
probabilidades para o número de caras obtidas em 4 lançamentos de 
uma moeda, representada na Tabela 1.2. Por exemplo, o número de re-
sultados com nenhuma cara é 1 de um todas de 16 resultados possíveis, 
portanto, P(0) = 1/16. E assim por diante.
Tabela 1.2. Distribuição de probabilidades para o número de caras obtidas em 4 lançamen-
tos de uma moeda.
Nº de caras 0 1 2 3 4
Probabilidade 1/16 4/16 6/16 4/16 1/16
Probabilidade Cumulativa 1/16 5/16 11/16 15/16 1
Fonte: Elaborada pelo autor.
Note que a soma de todas as probabilidade ao longo da distribui-
ção deve ser 1, e que o valor das probabilidades individuais deve estar 
entre 0 e 1. 
Comumente, desejaremos saber qual a probabilidade de que a 
variável seja menor ou igual a um valor, isto é chamado de probabili-
dade cumulativa.
40
U
nid. 1 - Frequência e Probabilidade
1.4.2 DISTRIBUIÇÃO DE PROBABILIDADE CUMULATIVA
Suponha que desejamos saber qual é a probabilidade de que o 
número de cara obtido em quatro lançamentos consecutivos de uma 
moeda seja 1 ou menos. Assim,
P(X ≤ 1) = P(X = 0) + P(X = 1) = (1/16) + (4/16) = 5/16 .
A distribuição de probabilidades cumulativa é uma listagem 
de todos os valores possíveis da probabilidade cumulativa, para cada um 
dos valores da variável, como mostrado na Tabela 1.1.
Outra forma de representar a função de distribuição de probabili-
dades é através de um gráfico. O gráfico mais comum para essa represen-
tação é um histograma. Um histograma nada mais é do que um gráfico 
contendo barras, onde a altura dessas barras representa a ocorrência de 
valores em um determinado intervalo representado pela largura. Esses 
intervalos são chamados de classes. Por exemplo, podemos representar 
a tabela 1.1 na forma de um histograma, como mostra a Figura 1.6.
Figura 1.6. Histograma das probabilidades de se obter X caras em quatro lançamentos de 
uma moeda.
Fonte: Elaborada pelo autor.
41
U
ni
d.
 1
 -
 F
re
qu
ên
ci
a 
e 
Pr
ob
ab
ili
da
de
O uso de gráficos como um histograma para representar funções 
de distribuição de probabilidades no leva a intuir que certas variáveis 
possuirão funções analíticas que descrevem seu comportamento 
probabilístico, evidenciado pelo formato da função de distribuição de 
probabilidades. 
No caso de variáveis aleatórias contínuas, que possuem infinitos 
possíveis valores, não podemos atribuir uma probabilidade associada 
a um único valor específico. Se o fizermos a probabilidade total seria 
infinita, ao invés de 1, como ele deve ser.
Para descrever probabilidade para uma variável aleatória contí-
nua, usamos a função de densidade de probabilidade. A função de 
densidade de probabilidade é uma função p(x), cuja área sob a curva 
dentro de um intervalo de valores é a probabilidade do valor da variável 
dentro do intervalo centrado. 
A Figura 1.7 mostra uma função de densidade de probabilidade 
da velocidade dos carros em um determinado ponto de uma estrada. 
Figura 1.7. Função de densidade de probabilidade da velocidade dos carros em um 
determinado ponto de uma estrada.
Fonte: Elaborada pelo autor.
42
U
nid. 1 - Frequência e Probabilidade
Se desejarmos saber, por exemplo, a probabilidade de um carro 
passar por aquele ponto da estrada, com uma velocidade entre 67 e 
70 km/h, devemos integrar a curva sobre o intervalo (representado em 
vermelho) para determinar a área, portanto, .
As funções de densidade de probabilidade têm unidades iguais ao 
inverso da unidade de medida da variável, por exemplo, se a medida da 
variável é metro (m), a unidade de densidade de probabilidade será m-1.
Essas funções de densidade de probabilidades são normalmente 
parametrizadas por quantidades relacionadas à posição e/ou à variabili-
dade das variáveis, normalmente a média e a variância.
1.5 CONSIDERAÇÕES DA UNIDADE I
Nesta unidade introduzimos alguns conceitos básicos em Esta-
tística e Probabilidade. Tratamos basicamente de uma parte conhecida 
como Estatística Descritiva. Os conceitos e nomenclaturas ajudarão a 
organizar os problemas de forma a encontrar a melhor metodologia 
para sua solução.
Vimos que as variáveis podem ser representadas segundo parâ-
metros que denotam sua localização e variabilidade. Vimos também que 
podemos contar a frequência com que um dado evento ocorre dentro 
de um espaço amostral. Assim, o entendimento da frequência levou aos 
conceitos de probabilidade e distribuição de probabilidades. 
As funções de densidade de probabilidade são uma ferramenta 
importantíssima para se traçar um modelo probabilístico sobre uma 
população e suas características.
43
U
ni
d.
 1
 -
 F
re
qu
ên
ci
a 
e 
Pr
ob
ab
ili
da
de
É importante lembrar que os conceitos vistos nesta unidade estão 
resumidos e que você deve continuar sua pesquisa para aprofundar ain-
da mais seu conhecimento. Lembre-se de acessar a plataforma e assistir 
à teleaula, de resolver as atividades propostas e de participar dos fóruns 
de discussão e dúvidas.
Na próxima unidade veremos como os modelos probabilísticos 
para distribuições discretas e contínuas serão aplicáveis á vários fenôme-
nos observados no cotidiano de um engenheiro.
44
U
nid. 1 - Frequência e Probabilidade
 
TESTE SEU CONHECIMENTO
 1. Um dado experimento apresentou o espaço amostral com 
as respectivas probabilidades representado na figura. Qual a 
probabilidade de B dado que A ocorreu?
B ΩA
0,4 0,3 0,2
0,1
a) 0,43
b) 0,50.
c) 0,71.
d) 0,90.
e) 0,0.
2. Um programa de controle de qualidade, em uma linha de 
produção de motores elétrico, constatou um ruído excessivo nos 
motores produzidos. Após alguma investigação, considerou-se 
que a culpa seria de eixos de rotação fora das especificações. 
Uma amostra das medidas do eixo de motores elétricos, em mm, 
é apresenta na tabela. Qual seria a média e desvio padrão que 
melhor representa essa amostra?
amostra 1 2 3 4 5 6 7 8 9 10
medida 20,24 20,38 20,3 20,48 20,4 20,2 20,36 20,7 20,44 20,08
a) 22,62±21,66 mm.
b) 20,36±0,57 mm.
c) 22,62±0,17 mm.
d) 20,36±0,17 mm.
e) 22,62±0,57 mm.
45
U
ni
d.
 1
 -
 F
re
qu
ên
ci
a 
e 
Pr
ob
ab
ili
da
de
3. Em uma caixa de 12 lâmpadas, há 3 itens com defeito. Um inspetor 
seleciona 3 lâmpadas aleatoriamente e sem reposição. Qual a 
probabilidade de haverexatamente 3 lâmpadas defeituosas em 
sua amostra?
a) 0,0791.
b) 0,0045.
c) 0,026.
d) 0,7.
e) 0,122.
un
id
ad
e
2
47
U
ni
d.
 2
 -
 D
is
tr
ib
ui
çã
o 
de
 P
ro
ba
bi
lid
ad
e
OBJETIVOS DA UNIDADE
• Introduzir o conceito de distribuição de probabilidades 
para variáveis aleatórias discretas e contínuas;
• Elencar algumas das principais distribuições de probabili-
dades para variáveis aleatórias discretas e contínuas;
• Fornecer a noção de vida útil e falha em equipamentos; 
• Iniciar o estudo de distribuições de probabilidades conjuntas. 
HABILIDADES E COMPETÊNCIAS
• Modelagem probabilística de processos aleatórios;
• Determinação de probabilidades de ocorrência;
• Cálculo de vida útil. 
2Distribuição de Probabilidade
48
U
nid. 2 - D
istribuição de Probabilidade
2.1 DISTRIBUIÇÕES DE PROBABILIDADE DISCRETAS
Vimos que em um experimento envolvendo eventos aleatórios 
é impossível prever o resultado. Podemos tentar várias vezes repetir o 
mesmo experimento, mas, geralmente, esperamos uma observação 
de diferentes resultados. Por exemplo, no experimento de lançar uma 
moeda quatro vezes, cada vez que o repetimos teremos um resultado 
diferente, assim como cada uma das células da Tabela 1.1 apresenta um 
resultado possível e com uma probabilidade associada. 
Obviamente, esperamos que esses valores observados em diferen-
tes resultados apresentem certo nível de concentração em torno de um 
valor central (a menos que os resultados sejam igualmente prováveis). 
Um valor central de importância fundamental é o valor esperado.
2.1.1 VALOR ESPERADO
O valor esperado ou esperança de uma variável aleatória X é a 
média ponderada dos possíveis valores de X, ponderada pelas probabi-
lidades correspondentes. É o valor de X que se espera após observações 
repetidas de experimentos aleatórios e é representada por:
 (2.1)
onde N é o número de valores possíveis de X.
Não confunda o valor esperado com a média dos valores de um 
conjunto de observações, elas são duas quantidades diferentes, apesar 
de estarem relacionadas. A média, como definida na subunidade 1.2.1, 
é a média ordinária de um conjunto de valores de X. Agora, o valor 
esperado leva em consideração a distribuição desses valores através de 
49
U
ni
d.
 2
 -
 D
is
tr
ib
ui
çã
o 
de
 P
ro
ba
bi
lid
ad
e
suas probabilidades, dando pesos diferentes (probabilidade) para cada 
valor. Certos valores terão pesos maiores se são mais prováveis que 
outros. O valor esperado aproxima-se em muitos casos da média da 
população, enquanto a média ordinária refere-se à média da amostra.
Veja um exemplo
A distribuição de probabilidade do número de carros vermelhos () 
que João encontra a caminho do trabalho é dada por:
X 0 1 2 3 4
P(X) 0,41 0,37 0,16 0,05 0,01
Quantos carros vermelhos João deve encontrar cada manhã a 
caminho do trabalho?
Resposta:
A questão está nos perguntando sobre o número esperado de 
carros vermelhos que João deve encontrar a caminho do trabalho. Isso 
difere da média ordinária, pois o número de carros vermelhos observados 
têm probabilidades diferentes, como mostradas na tabela. Assim, temos:
E(X) = 0 * (0,41) + 1 * (0,37) + 2 * (0,16) + 3 * (0,05) + 4 * (0,01)
E(X)=0,88
É claro que 0,88 não é sequer um carro, isto indica que em 
média, João deve encontrar menos de um carro vermelho no caminho 
para o trabalho. Observe que isto representa apenas um valor médio, 
obviamente ele não encontrará 88% de um carro, apenas indica que na 
média ele encontrará menos de um carro. 
Outra quantidade importante relacionada a uma dada variável 
aleatória é sua variância. Vimos anteriormente, que a variância é uma 
50
U
nid. 2 - D
istribuição de Probabilidade
descrição numérica do espalhamento de uma variável em torno de um 
valor central. Isto é, a variância de uma variável aleatória X é uma medida 
de quão espalhados os valores de X estão, uma vez que sabemos quão 
prováveis eles são de serem observados em um experimento aleatório. 
Conhecidas as probabilidades dos valores de uma variável discreta 
X, definimos sua variância como:
 (2.2)
sendo N o número de valores possível para X.
E consequentemente, o desvio padrão é a raiz quadrada da variância: 
 (2.3)
Observe que a variância de uma distribuição é sempre um valor po-
sitivo. E que como o valor esperado, a variância é uma média ponderada 
de valores observados e calculados, sendo o valor esperado da diferença 
quadrática entre os valores de X e o valor esperado de X. Ou seja, 
 (2.4)
Se o número de repetições for grande o valor esperado tende 
para a média da população. Essa é uma afirmação importante sobre a 
qual veremos as implicações mais adiante.
Observe que o conhecimento da distribuição de probabilidade da va-
riável é importante para se determinar o valor esperado de um experimento. 
Na prática as funções de distribuição de probabilidades podem ter qualquer 
forma de função. Normalmente, essas funções são regidas por parâmetros 
que são relacionados às Medidas de Posição e Variabilidade. 
Quando se trata de variáveis discretas existem algumas funções 
de distribuição de probabilidades muito úteis para representar variáveis 
aleatórias.
51
U
ni
d.
 2
 -
 D
is
tr
ib
ui
çã
o 
de
 P
ro
ba
bi
lid
ad
e
2.1.2 DISTRIBUIÇÃO BINOMIAL
A Distribuição de Probabilidades Binomial modela algumas 
variáveis discretas aleatórias. Tipicamente, uma variável aleatória que 
apresenta uma distribuição binomial refere-se a experimentos que 
possuem apenas dois resultados possíveis: SUCESSO e FALHA. Esse 
tipo de experimento é conhecido por Experimento de Bernoulli. Por 
exemplo, o número de “caras” ocorridas (SUCESSO) quando lançamos 
uma moeda 50 vezes segue uma distribuição Binomial.
A distribuição Binomial é apropriada para sumarizar um grupo 
de observações independentes que apresenta um dos dois resultados 
possíveis. Em outras palavras, a distribuição binomial representa a dis-
tribuição de probabilidade de uma série de experimentos de Bernoulli.
Dizemos que uma variável aleatória discreta segue uma distribui-
ção Binomial com parâmetros n e p, simbolizada por X~B(x|n,p), se ela 
tem distribuição de probabilidade dada por: 
 (2.5)
Onde: 
n = 1, 2, 3, … é o número de observações;
x = 0, 1, 2, 3, …, n é o número de sucessos;
0 < p < 1 é a probabilidade de sucesso;
 é a combinação de n observações agrupadas 
em sucessos. Esse fator é conhecido como coeficiente Binomial. Ele 
representa o número de formas possíveis de se combinar x sucessos em 
n observações.
52
U
nid. 2 - D
istribuição de Probabilidade
n! representa o fatorial de n, ou seja, n! = n. (n-1).(n-2). ... .3.2.1. 
Por exemplo, 5! = 5.4.3.2.1 = 120. 
 
 
OUTRAS MÍDIAS
Há vários vídeos na internet sobre fatoriais, por exemplo: 
https://www.youtube.com/watch?v=D0OF22xbs0Q. Vale a 
pena ver para entender um pouco mais sobre como calculá-lo.
 
DICA DE LEITURA
Para entender um pouco mais sobre a relação entre análise 
combinatória e probabilidades, sugiro a leitura de “Análise 
Combinatória e Probabilidade”, Augusto C. O. Morgado et. 
al., 9.ed, Editora SBM.
Para se aplicar uma distribuição Binomial, é preciso que os se-
guintes requisitos sejam cumpridos:
1. O número total de observações n deve ser fixado primeira-
mente (isto garante 0 < p < 1);
2. Somente dois resultados devem ser possíveis em cada obser-
vação: SUCESSO e FALHA (portanto, cada observação será ou 
SUCESSO ou FALHA); 
3. Os resultados devem ser estatisticamente independentes (uma 
observação não afeta a observação seguinte); 
4. Todas as observações tem a mesma probabilidade de SUCESSO. 
53
U
ni
d.
 2
 -
 D
is
tr
ib
ui
çã
o 
de
 P
ro
ba
bi
lid
ad
e
Veja o exemplo:
Uma moeda viciada é lançada 6 vezes. Se a probabilidade de 
obter CARA em um lançamento é 0,3, qual a probabilidade de se obter 
2 CARAS nos 6 lançamentos?
Solução:
Se chamarmos CARA de SUCESSO, entãoX =número de caras, segue 
uma distribuição Binomial com n = 6 e p = 0,3, ou seja, X~B(x|6,0.3). Assim, 
Ou seja, a probabilidade de se tirar 2 CARAS com esta moeda 
viciada é de 32,4%. 
De forma geral, poderíamos sumarizar os resultados pela Tabela 
2.1. A tabela representa a probabilidade P(X) de se obter X em 6 lan-
çamentos desta moeda viciada. Esses valores seguem uma distribuição 
Binomial, como mostrada na Equação 2.5. A tabela também mostra a 
função de probabilidade cumulativa F(X). 
Tabela 2.1 Probabilidades de se obter X ={ nº de CARAS} em seis lançamentos de uma 
moeda viciada .
X 0 1 2 3 4 5 6
P(X) 0.1176 0.3025 0.3241 0.1852 0.0595 0.0102 0.0007
F(X) 0.1176 0.4201 0.7443 0.9295 0.9891 0.9993 1
Fonte: Elaborada pelo autor.
54
U
nid. 2 - D
istribuição de Probabilidade
A distribuição Binomial também é muito útil quando se deseja 
checar se um produto de uma linha de produção está defeituoso (FA-
LHA) ou não (SUCESSO).
Veja o exemplo:
Um engenheiro de controle de qualidade está encarregado de 
testar se 90% dos tocadores de DVD, produzidos pela sua fábrica, estão 
dentro das especificações. Para fazer isso, o engenheiro seleciona 12 
tocadores de DVD da linha de montagem a cada dia. Na produção diá-
ria, é preciso que não mais que 1 tocador de DVD falhe no teste, caso 
contrário toda a produção do dia todo deve ser testada. Qual a proba-
bilidade de que o engenheiro aprove incorretamente a produção do dia, 
se apenas 80% dos tocadores de DVD estão dentro das especificações?
Solução:
Vamos tomar X como sendo o número de tocadores de DVD que 
falham no teste. Então, o engenheiro realizará n = 12 testes (observa-
ções), com probabilidade de falha de p = 0,2 (20% dos tocadores de 
DVD estão fora de especificação). Assim, temos que: 
 
Ou seja, o engenheiro terá 27,5% de chance de aprovar erro-
neamente uma produção diária onde 20% dos tocadores de DVD estão 
defeituosos.
A Figura 2.1 mostra a função de distribuição de probabilidades 
para esse problema. 
55
U
ni
d.
 2
 -
 D
is
tr
ib
ui
çã
o 
de
 P
ro
ba
bi
lid
ad
e
Figura 2.1 - Função de distribuição de probabilidades para o problema dos tocadores de 
DVD defeituosos.
Fonte: Elaborada pelo autor.
Observe pela Figura 2.1 que as probabilidades são diferentes para 
cada número de tocadores de DVD defeituosos. Então, existe um valor 
central que define o número de DVDs defeituosos que serão encontra-
dos no teste, o valor esperado.
A distribuição Binomial tem valor esperado E(X) = np e variância 
VAR(X) = np (1 - p). Assim, o valor esperado para o problema dos toca-
dores de DVD é E(X )= 12.0,2 = 2,4 e a variância VAR(X)= 12.0,2(1-0,2)= 
1,92, ou seja, desvio padrão . Portanto, no caso 
de 20% da produção diária estar defeituosa, 2,4 ± 1,38 tocadores de 
DVD serão encontrados no teste usado pelo engenheiro. 
A distribuição Binomial funciona bem quando os eventos tem 
a mesma probabilidade de ocorrência em todas as repetições do ex-
perimento (requisito 4). Como quando queremos saber quantas vezes 
podemos obter o número 2 em lançamentos consecutivos de um dado. 
A probabilidade de se obter um 2 é sempre 1/6, para cada lançamento. 
Mas, ela não funciona bem se a probabilidade não é a mesma em cada 
repetição. Como quando tiramos uma carta de um baralho, mas não a 
56
U
nid. 2 - D
istribuição de Probabilidade
repomos, a probabilidade de se tirar um rei, por exemplo, será diferente 
para cada carta retirada do baralho. 
Nos casos em que o requisito 4 não é satisfeito, deveremos utilizar 
outra distribuição de probabilidades.
2.1.3 DISTRIBUIÇÃO HIPERGEOMÉTRICA
Analogamente à distribuição Binomial, a distribuição Hiper-
geométrica modela experimentos que têm somente dois resultados 
possíveis: SUCESSO ou FALHA (experimentos de Bernoulli). A diferença 
encontra-se nos requisitos 3 e, consequentemente, no 4 da distribuição 
Binomial. Uma distribuição Hipergeométrica se aplicará aos experimen-
tos de Bernoulli em que a probabilidade de ocorrência dos eventos é 
estatisticamente dependente, ou seja, a ocorrência de SUCESSO ou 
FALHA em um experimento afetará a probabilidade de SUCESSO ou 
FALHA no experimento subsequente.
Por exemplo, imagine que você está retirando uma carta do 
baralho e quer saber a probabilidade de se tirar um rei (K), que será de 
4/52, num primeiro experimento. Se a carta retirada não for reposta, em 
um segundo experimento com o mesmo baralho, a probabilidade será 
de 3/51 se houver SUCESSO no primeiro, e 4/51 se houver FALHA, no 
primeiro, e assim por diante. A ocorrência do primeiro evento altera a 
probabilidade do segundo.
A distribuição Hipergeométrica descreve a probabilidade de x 
SUCESSOS em n observações, sem reposição, de uma população finita 
de tamanho N que contém exatamente k SUCESSOS. Então, X tem 
distribuição hipergeométrica, ou X~Hi (x|N,k,n), sendo:
57
U
ni
d.
 2
 -
 D
is
tr
ib
ui
çã
o 
de
 P
ro
ba
bi
lid
ad
e
 (2.6)
Onde: 
n = 1,2,3,…, N é o número de observações (tamanho da amostra);
x = 0, 1, 2, 3, … , n é o número de sucessos (na amostra);
0 ≤ k ≤ N é o número de sucessos na população;
N é o tamanho da população.
São características de uma distribuição Hipergeométrica:
1. A população tem tamanho finito N;
2. Uma amostra n < N é aleatoriamente selecionada;
3. Os resultados admitem apenas SUCESSO ou FALHA (experi-
mentos de Bernoulli); 
4. Haverá 0 ≤ k ≤ N, SUCESSOS na população, e portanto N -k 
FALHAS.
Veja o exemplo
Qual é a probabilidade de se tirar 3 ases (A) em uma mão de 13 
cartas, tiradas de um baralho de 52 cartas?
Solução:
Temos para este problema que: 
N = 52, pois há 52 cartas no baralho (população);
58
U
nid. 2 - D
istribuição de Probabilidade
N = 13, correspondendo às 13 cartas da mão;
k = 4, número de ases no baralho (sucessos na população);
x = 3, número de sucessos para os quais queremos obter a pro-
babilidade.
Assim,
Ou seja, a probabilidade de se tirar 3 ases em uma mão de 13 
cartas é de um pouco mais de 4 em cada 100.
O valor esperado para uma variável aleatória X que segue 
uma distribuição Hipergeométrica é e a variância é 
. Observe que no limite de , 
portanto a distribuição Hipergeométrica tende para a distribuição Binomial 
quando a população é grande.
A distribuição Hipergeométrica é muito utilizada na engenharia 
em testes de controle de qualidade. 
Veja o exemplo 
Suponha que uma indústria compra 500 parafusos de um fornece-
dor. O engenheiro, responsável pela linha de montagem, deve decidir se 
aceita ou não o carregamento que acaba de chegar. Para isso ele deve de-
terminar se os mesmos estão dentro das especificações. Ele aleatoriamente 
seleciona 12 parafusos. Se nenhum dos parafusos selecionados é classifi-
cado como defeituoso, ele conclui que o carregamento deve ser aceito. 
Se 10% dos parafusos entregues são defeituosos, qual a probabilidade 
de que 12 parafusos selecionados aleatoriamente não sejam defeituosos?
59
U
ni
d.
 2
 -
 D
is
tr
ib
ui
çã
o 
de
 P
ro
ba
bi
lid
ad
e
Solução:
Podemos modelar este problema com uma distribuição Hiper-
geométrica, onde N = 500 parafusos, N = 12 parafusos amostrados e 
k = 50 (10% de parafusos defeituosos na população). E, o número de 
parafusos defeituosos na amostra poderá ser x = 0, 1, 2, 3, ... ,12, e 
estamos interessados em (nenhum parafuso defeituoso).
Logo, há menos de 30% de chances de se obter uma amostra 
de 12 parafusos de 500, onde 10% deles são defeituosos, e não retirar 
nenhum parafuso defeituoso. A Figura 2.2 mostra a distribuição de 
probabilidades Hipergeométrica para esse exemplo. Note que a proba-
bilidade de se obter pelo menos 4 parafusos defeituosos é de cerca de 
99,6%, ou seja, P(X ≤ 4) = P(X=0)+P(X=1)+ ... +P(X=4) = 0,9962.
Figura 2.2 Função de distribuição de probabilidades para o problema dos parafusos 
defeituosos em um carregamento.
Fonte: Elaborada pelo autor.
60
U
nid. 2 - D
istribuição de ProbabilidadeObserve (deixo o cálculo para você) também que o valor esperado 
é E(X) = 1,2 e σX = 1,02, então não obter nenhum parafuso defeituoso 
mesmo que 10% deles sejam defeituosos é bastante provável.
2.1.4 DISTRIBUIÇÃO BINOMIAL NEGATIVA
Algumas vezes estamos interessados em saber a probabilidade de 
se obter certo número r de SUCESSOS após x repetições de um expe-
rimento de Bernoulli. Diferentemente da distribuição Binomial em que 
conhecíamos o número de observações previamente, agora, o número 
de observações para obter r SUCESSOS é a variável aleatória X.
Neste caso, teríamos uma distribuição Binomial Negativa, 
também conhecida como distribuição de Pascal (em homenagem ao 
físico e matemático francês Blaise Pascal). Uma variável aleatória discreta 
segue uma distribuição Binomial Negativa se X~NBi(x|p,r), sendo
 (2.7)
Onde: 
x é o número de repetições necessário para obter sucessos;
r é o número de sucessos requerido;
p é a probabilidade de se obter um sucesso individual.
Veja o exemplo
Oscar é um jogador de basquete com 70% de aproveitamento no 
lançamento livre de bolas ao cesto. Durante um jogo, qual a probabili-
dade de Oscar fazer sua terceira cesta em seu quinto arremesso?
61
U
ni
d.
 2
 -
 D
is
tr
ib
ui
çã
o 
de
 P
ro
ba
bi
lid
ad
e
Solução:
Neste exemplo temos a probabilidade de sucesso p = 0,7, o núme-
ro de observações x = 5, e o número de sucessos r = 3. Assim, aplicando 
a distribuição binomial Negativa tem-se: 
Logo, a probabilidade de Oscar fazer sua terceira cesta no quinto 
arremesso é 0,185.
A distribuição Binomial Negativa é usada complementarmente à 
distribuição Binomial. 
O valor esperado para uma variável que segue uma distribuição 
Binomial Negativa é e a variância é . 
Veja outro exemplo:
Uma companhia petrolífera conduziu um estudo geológico de 
uma região e foi constatado que a probabilidade de haver petróleo 
seria de 20%. Qual a probabilidade de se encontrar petróleo após 3 
perfurações?
Solução:
Observe que nesse problema a variável é o número de repetições, 
portanto, podemos modelar o problema por uma distribuição Binomial 
Negativa, onde r = 1 é o número de sucessos, p = 0,2 é a probabilidade de 
sucesso em cada perfuração e x = 3 é o número de repetições. Assim, temos:
Logo, há cerca de 13% de chance de se encontrar petróleo na ter-
ceira perfuração. O valor esperado será perfurações.
62
U
nid. 2 - D
istribuição de Probabilidade
Um caso especial da distribuição Binomial Negativa é quando se 
deseja a probabilidade de se ter r = 1 sucesso em x observações. Nesse 
caso, temos uma distribuição Geométrica, dada por:
 Geom(x|p) = p(1-p)x-1 (2.8)
O exemplo anterior é um caso de distribuição Geométrica. Tente 
refazer as contas usando a Equação 2.8. Em geral, a distribuição Bino-
mial Negativa é aplicada também em controle de qualidade quando 
os “planos de amostragem são inversos” aos de uma distribuição Bi-
nomial, ou seja, a amostragem continua até que r itens defeituosos 
sejam encontrados e o lote seja rejeitado, ou até que r itens dentro das 
especificações sejam encontrados e o lote aceito. Lembre-se de que na 
distribuição Binomial o número de amostras era fixo.
2.1.5 DISTRIBUIÇÃO DE POISSON
Comumente, um engenheiro se depara com problemas em que 
a informação de interesse está relacionada com a taxa de ocorrência de 
um evento em um intervalo de tempo ou intervalo espacial. Por exem-
plo, o número de chamadas recebidas pelo Serviço de Atendimento ao 
Consumidor (SAC) da empresa em um dia, ou a ocorrência de defeitos 
em uma viga de concreto em um determinado comprimento. Nesse caso 
utilizaremos uma distribuição de Poisson (em homenagem ao mate-
mático francês Simèon Denis Poisson) para modelar a variável aleatória. 
Considere uma taxa de ocorrência de eventos λ > 0 (número de 
eventos por unidade de tempo ou unidade de espaço) como sendo 
constante. Assim, uma variável aleatória discreta que segue uma distri-
buição de Poisson (pronuncia-se “pôasson” com o “a” bem breve), ou 
seja, X~Poiss(x|λ), tem probabilidade de ocorrência dada por:
63
U
ni
d.
 2
 -
 D
is
tr
ib
ui
çã
o 
de
 P
ro
ba
bi
lid
ad
e
 (2.9)
onde x = 0,1,2, ... é o número de ocorrências do evento.
Uma distribuição de Poisson apresentará as seguintes caracterís-
ticas:
a) O intervalo de tempo ou dimensão observado é fixo, e.g. 5 min 
ou 1 km;
b) A taxa de ocorrência é constante;
c) O número de eventos que ocorre em intervalos disjuntos é 
estatisticamente independente. Por exemplo, o número de 
carros que passa em um posto policial em um dado minuto, 
independe do número de carros que passaram nos minutos 
subsequentes.
A distribuição de Poisson tem valor esperado E(X) = λ e a variância 
VAR(X) = λ. O fato de que μ = σ é uma característica fundamental da 
distribuição de Poisson.
Veja o exemplo
O SAC de uma empresa recebe certo número de chamadas te-
lefônicas a cada 5 minutos, cujo valor esperado (médio) é 2 chamadas. 
Qual a probabilidade de pelo menos 3 chamadas serem recebidas nos 
próximos 5 minutos?
Solução:
Nesse caso, teríamos λ = 2, e a probabilidade de serem recebidas 
pelo menos 3 chamadas é: 
64
U
nid. 2 - D
istribuição de Probabilidade
Ou seja, a probabilidade de se receber 3 chamadas em 5 minutos 
é de 0,857. E o valor esperado é E(X) = 2. Isso pode ajudar a calcular 
quantos atendentes contratar, por exemplo. A Figura 2.3 mostra a dis-
tribuição de probabilidades para esse exemplo.
Figura 2.3 Função de distribuição de probabilidades para o problema dos telefonemas 
recebidos pelo SAC de uma empresa.
Fonte: Elaborada pelo autor.
A distribuição de Poisson pode ser usada algumas vezes para 
aproximar a distribuição Binomial. Quando o número de observações é 
grande e a probabilidade de sucesso é pequena Bi(x|n,p) → Poiss(x|λ), 
sendo E(X )= λ = np. Isso pode ser bastante útil em alguns casos, pois 
facilita em muito o cálculo das probabilidades.
A distribuição de Poisson cobre uma infinidade de aplicações, 
incluindo a contagem de partículas em Física (por exemplo, o número de 
65
U
ni
d.
 2
 -
 D
is
tr
ib
ui
çã
o 
de
 P
ro
ba
bi
lid
ad
e
fótons absorvidos por um fotodetector), a distribuição espacial de plan-
tas e de animais na agricultura e em ecologia, a contagem de células/
bactérias em biologia, contagem de vítimas fatais de uma determinada 
doença na medicina e a demanda de produtos no gerenciamento de 
negócios.
É também de muito interesse na confiabilidade de sistemas em 
engenharia, cujos componentes tendem a falhar com certa taxa. A 
distribuição de Poisson modela o número de componentes que falham 
por período de tempo e podem ajudar a prever a compra de peças de 
reposição, determinar a necessidade de um recall, etc. Quando a alea-
toriedade das falhas não é comprovada, é bom considerar uma outra 
alternativa, como a distribuição Binomial Negativa.
A ocorrência de eventos com uma taxa constante pode ser mo-
delada através da distribuição de Poisson. Em certas ocasiões as próprias 
taxas de ocorrência podem ser modeladas por outras distribuições.
2.2 DISTRIBUIÇÕES CONTÍNUAS DE PROBABILIDADE
Várias das quantidades medidas no dia a dia de um engenheiro 
ou cientista admitem um intervalo contínuo de valores. Tais valores 
podem ser representados por variáveis aleatórias contínuas com valores 
x que podem ocorrer dentro de um espaço amostral contínuo Ω. Essas 
variáveis podem representar, por exemplo, o tempo até a falha de um 
equipamento, o custo de um projeto com relação aos propósitos e 
complexidade, a pressão dentro de um tubo em relação à resistência do 
material do mesmo, etc.
A incerteza na ocorrência de um determinado valor de pode ser 
medida pela probabilidade. Vimos na subunidade 1.4.1 que para variá-
66
U
nid. 2 - D
istribuição de Probabilidade
veis aleatórias contínuas as probabilidades são modeladas por funções 
de densidade de probabilidadep(x), de tal forma que: 
 (2.11)
A probabilidade de se ter um valor X ≤ x0, é dada pela distribuição 
cumulativa F(x), tal que: 
 (2.12)
Da mesma forma, para se calcular a probabilidade de um valor 
estar no intervalo x1 ≤ x ≤ x2, temos que integrar a função de distribuição 
de probabilidades no intervalo, ou seja: 
 (2.13)
Analogamente às variáveis contínuas, o valor esperado de uma 
variável aleatória contínua será dado por: 
 (2.14)
E a variância será: 
 (2.15)
As funções de densidade de probabilidade são, então, indexadas 
por um conjunto de parâmetros θ. Esses parâmetros determinam loca-
lização, escala e formato dessas funções. Tais parâmetros comumente 
estão relacionados à média, variância, ou mesmo ao intervalo de valores 
possíveis para a variável aleatória.
Em engenharia, a análise de distribuições contínuas é utilizada 
em uma variedade imensa de aplicações. Por exemplo, num conjunto de 
dados é possível estimar a probabilidade de uma medida (temperatura, 
pressão, taxa de escoamento) cair dentro de um determinado intervalo 
67
U
ni
d.
 2
 -
 D
is
tr
ib
ui
çã
o 
de
 P
ro
ba
bi
lid
ad
e
de valores, e consequentemente determinar a confiabilidade de um 
instrumento ou componente de um equipamento. Também, calibrar um 
instrumento (e.g. sensor de temperatura) de um fornecedor e usar uma 
função de distribuição de probabilidades para determinar o comporta-
mento dele ao longo do tempo. 
2.2.1 DISTRIBUIÇÃO UNIFORME
Se os valores de uma variável são igualmente distribuídos (todos 
os valores são equiprováveis) dentro de um determinado intervalo [a,b]
dizemos que ela segue uma distribuição Uniforme. 
Por exemplo, se um trem chega à estação de metrô a cada 5 
minutos e você chega à mesma estação em um instante de tempo 
aleatório, o tempo que você irá aguardar pelo próximo trem pode ser 
descrito por uma distribuição Uniforme sobre o intervalo de 0 a 5 min.
Uma variável aleatória contínua é dita seguir uma distribuição 
Uniforme, dentro de um intervalo [a,b], se X~Un(x|a,b), ou seja
 (2.16)
onde a é um parâmetro de localização (diz onde os valores se 
encontram no espaço amostral) e b - a é um parâmetro de escala (diz 
quão larga a distribuição de valores é). Note que a e b são as bordas do 
espaço amostral de x.
Uma distribuição uniforme tem valor esperado e 
variância . Note que o valor esperado é o ponto médio 
do intervalo.
68
U
nid. 2 - D
istribuição de Probabilidade
No exemplo da espera pelo trem, a variável X representa o 
tempo de espera, para a qual teríamos que o valor esperado seria 
 e o desvio padrão seria σX = 0,72 min. Então seria 
razoável você esperar 2,5 ± 0,72 min pelo trem. 
Figura 2.4 Função de densidade de probabilidades para o problema da espera pelo trem.
Fonte: Elaborada pelo autor.
Observe pela Figura 2.4 que a função de densidade de proba-
bilidade é constante, e pela Equação 2.13 p(x) = 0,2. Assim, podemos 
determinar qual a probabilidade de espera integrando p(x) dentro do 
intervalo desejado. Por exemplo, se você deseja saber qual a probabili-
dade de esperar entre 3 e 5 minutos pelo trem, teríamos:
Ou seja, você teria 40% de chance de esperar de 3 a 5 minutos 
pelo trem.
A distribuição Uniforme é de extrema importância quando dese-
jamos gerar números aleatórios, em simulações de processos aleatórios. 
Por exemplo, para simular eventos que seguem uma distribuição de 
Poisson, basta espalhá-los uniformemente no intervalo de interesse 
(temporal ou espacial). O número de eventos por unidade de tempo ou 
69
U
ni
d.
 2
 -
 D
is
tr
ib
ui
çã
o 
de
 P
ro
ba
bi
lid
ad
e
espaço seguirá uma distribuição de Poisson. A determinação do valor 
médio das taxas de eventos seguirá outra distribuição muito importante.
2.2.2 DISTRIBUIÇÃO NORMAL
Talvez a mais importante e mais utilizada no dia a dia de um 
engenheiro ou cientista é a distribuição Normal, também conhecida 
como distribuição Gaussiana (em homenagem ao matemático alemão 
Carl Friedrich Gauss). A distribuição Normal tem um papel central na 
estatística, pois muito do que se conhece da ciência dos processos pro-
babilísticos foi desenvolvido em torno dessa distribuição.
A importância dessa distribuição vem do Teorema do Limite Cen-
tral. Tal teorema diz que uma amostra aleatória de tamanho n, extraída 
de uma população que apresenta média μ e a variância σ2 finitas, tem 
média amostral normalmente distribuída com média μ e a variância 
σ2/n. Ou seja, as estimativas de obtidas em diferentes amostras retira-
das da mesma população seguem uma distribuição Normal de média μ e 
a variância σ2/n. Em outras palavras, o valor esperado E( ) = μ. 
Dizemos que uma variável aleatória com média μ e variância σ2 
segue uma distribuição Normal, ou seja, X~N(x|μ,σ), se a função de 
densidade de probabilidades é dada por:
 (2.14)
Uma variável aleatória normalmente distribuída tem valor espera-
do E(X) = μ e a variância é VAR(X) = σ2.
É comum utilizar a forma reduzida (ou forma padrão) da função 
de densidade de probabilidades. Normalmente, para tanto se define 
uma variável reduzida z = (x-μ)/σ, isto quer dizer que, x = μ+zσ. Tal va-
70
U
nid. 2 - D
istribuição de Probabilidade
riável é normalmente distribuída com média μ = 0 e variância σ2 = 1, ou 
seja, Z~N(z|0,1). Assim,
 (2.15)
 Esta transformação é importante para entendermos as proprieda-
des da distribuição normal. A Figura 2.5 mostra a função de densidade 
de probabilidades de z. 
Figura 2.5 Função de densidade de probabilidades de .
Fonte: Elaborada pelo autor.
Observe na Figura 2.5, a concentração de valores entre -1 e 1. 
Isso quer dizer que a maior parte dos valores de estão nesse intervalo. 
Lembre-se de que z = 1, corresponde a x = μ + σ. Portanto, a maior 
parte dos valores concentra-se no intervalo [μ-σ, μ+σ]. Para calcular essa 
probabilidade, temos que:
A solução dessa integral envolve a função erro erf(z), cujo cálculo 
não é trivial. Portanto, para se calcular a probabilidade de um valor de 
estar em um intervalo, podemos utilizar Tabelas de Valores para z. Ela 
pode ser encontrada na maior parte dos livros de estatística, na internet 
71
U
ni
d.
 2
 -
 D
is
tr
ib
ui
çã
o 
de
 P
ro
ba
bi
lid
ad
e
(por exemplo, http://www.stat.ufl.edu/~athienit/Tables/Ztable.pdf) ou 
mesmo em algumas calculadoras científicas. Tais tabelas contêm valores 
para a distribuição cumulativa de z. Assim, teríamos: 
P(-1≤Z≤1) = P(Z≤1) - P(Z≤-1) = 0,8413 - 0,1587 = 0,6826
Ou seja, a probabilidade de -1≤ Z ≤ é 0,6826. Em outras palavras, 
68,26% dos valores de x estão localizados entre a média e o desvio 
padrão. Estendendo a análise, teríamos que:
P(μ-2σ≤X≤μ+2σ) = P(-2≤Z≤2) = P(Z≤2)-P(Z≤-2) = 0,9544
P(μ-3σ≤X≤μ+3σ) = P(-3≤Z≤3) = P(Z≤3)-P(Z≤-3) = 0,9974
Veremos detalhes sobre a importância desses intervalos mais a 
frente, quando falarmos de intervalo de confiança.
Veja o exemplo
Uma amostra de 17 eixos usinados foi retirada aleatoriamente de 
uma linha de produção. O diâmetro foi medido (em mm) e os resultados 
foram:
12,065 11,992 11,992 11,921 11,945 12,029 11,885 11,997
12,109 11,966 12,081 11,846 12,007 12,011 11,982
A distribuição de valores segue uma distribuição Normal com 
média =12,0 mm e desvio padrão σX = 0,070 mm. Qual a probabilidade 
de se ter um eixo com diâmetro maior que 12,2 mm?
Solução:
Nesse caso, teríamos:
72
U
nid. 2 - D
istribuição de Probabilidade
ou seja, esse valor está a cerca de 2,857σX à direita da média. 
Logo,
P(12,2<X<∞) = P(Z<∞)-P(Z≤2,86) = 1-0,9979 = 0,0021
Há duas aplicações principais da distribuição Normal. Uma de-
las lida com a análise de itens que falham devido ao uso, tais como 
equipamentos mecânicos. Usualmente, as falhas devido ao uso seguem 
suficientemente bem uma distribuição Normal que ela pode ser utilizada 
para prever ou fazer considerações sobre a confiabilidade de equipa-
mentos e processos.
Outra aplicação é

Outros materiais