Buscar

ESTATÍSTICA E PROBABILIDADE (49)

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 195 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 195 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 195 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Notas de aula 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
M501 
Probabilidade, Estatística 
e Processos Estocásticos 
 
 
Dayan Adionel Guimarães 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Novembro de 2007 
 2 
 
 
 
Agradecimento 
 
 
 
Aos professores: 
 
Dr. José Marcos Câmara Brito 
Dr. Carlos Alberto Ynoguti 
M.Sc. Estevan Marcelo Lopes 
 
 
 
agradeço muito por terem gentilmente disponibilizado suas notas de aula, apostilas e slides sobre 
Probabilidade, Estatística e Processos Estocásticos, a partir dos quais estas notas de aula foram 
elaboradas. 
 
 3 
 
Aula nº Data Tema Teoria de conjuntos 
Conteúdo Introdução. Teoria de conjuntos: Lei de De Morgan. Princípio da Dualidade. Definições para probabilidade: por freqüência relativa, axiomática e clássica. 
Objetivos 
Ao final da aula os alunos deverão ser capazes de: 1) definir corretamente os 
conceitos de experimento, resultado, evento e espaço amostral; 2) realizar operações 
com conjuntos. 3) conceituar probabilidade. 4) realizar cálculos simples 
relacionando probabilidade com a teoria de conjuntos. 
 
 
Definição de experimento, resultado, evento e espaço amostral. 
 
Seja o EXPERIMENTO correspondente ao lance de uma moeda, para o qual são esperados, 
obviamente, os RESULTADOS cara e coroa. Vamos definir o EVENTO correspondente à ocorrência 
de cara nos dois primeiros lances da moeda, num total de 3 lances. Então teremos o ESPAÇO 
AMOSTRAL: 
 
CCC 
CCK 
CKC 
CKK 
KCC 
KCK 
KKC 
KKK 
 
Onde C = cara e K = coroa. O número de possíveis resultados é 23 = 8. 
Quantas vezes o evento definido ocorre? Resposta: duas vezes. 
Perceba que posso me referir ao resultado correspondente aos possíveis eventos e, neste caso, teremos 
os 8 possíveis resultados listados acima, que compõem o espaço amostral. 
 
 
Conjuntos 
 
Seja o lance de um dado e o evento correspondente à observação de um número de pontos menor que 4. 
 
 
 
Na figura, S é o espaço amostral e A é o conjunto referente ao evento definido. 
 
Seja um outro evento referente à observação de um número de pontos maior que 1: 
 
 4 
 
 
Aqui A + B = 1, 2, 3, 4, 5 e 6, que corresponde ao espaço amostral, neste caso, por coincidência. AB é 
o conjunto com os elementos 2 e 3. 
 
Lei de de-Morgan 
 
Vamos aplicar a lei de de-Morgan na igualdade abaixo: 
 
( )A B C AB AC+ = + 
 
 
Ao aplicarmos a forma genérica de de-Morgan, devemos ter cuidado com a interpretação. Aplicando 
esta forma, nós simplesmente MANTEMOS A IGUALDADE ENTRE OS TERMOS. Isto não 
significa que, ao aplicarmos a regra genérica, mantemos a igualdade com a expressão original. 
Portanto, se não quisermos modificar o resultado da expressão original, temos que fazer como acima, 
ou seja, aplicar a forma específica do de-Morgan. 
 
 O que é mais importante? Reposta: as relações 
c
c
i i
i i
A A  =
  
∩ ∪ e 
c
c
i i
i i
A A  =
  
∪ ∩ . 
 
 
Teoremas com conjuntos. 
 
Exemplo: vamos mostrar a validade de 
 
 5 
 
 
 
Exercício: mostrar a validade dos demais teoremas referentes a conjuntos. 
 
 
Definição de probabilidade por freqüência relativa 
 
Exemplo: suponha que você tenha a tarefa de determinar se uma moeda é justa ou não. Se efetuarmos 
um número bastante grande de lances da moeda, registrando um dos resultados (por exemplo, a 
ocorrência de cara) no final do experimento vamos obter o número de resultados favoráveis, nA e o 
número de lances, n. Dividindo nA por n obteremos uma estimativa da probabilidade de ocorrência de 
cara. Se este valor estiver convergindo para 0,5 à medida que aumentamos n, podemos afirmar que a 
moeda é justa. Caso contrário podemos afirmar que ela não justa. Perceba que nossa inferência 
estatística (opinião a partir do resultado) será tão mais precisa quanto maior o valor de n. 
 
Exercício: uma aplicação direta deste conceito em telecomunicações é na determinação da 
probabilidade de erro de bit em um sistema qualquer. Esta probabilidade de erro é normalmente 
denominada na prática de BER (bit error rate) ou taxa de erro de bit. Descreva um procedimento que 
lhe permita estimar a BER em um sistema real, utilizando o conceito de freqüência relativa. 
 
 
Definição clássica de probabilidade 
 
Seja novamente o EXPERIMENTO correspondente ao lance de uma moeda, para o qual são esperados 
os RESULTADOS cara e coroa. Vamos definir o EVENTO correspondente à ocorrência duas caras 
num total de 3 lances. Então teremos o ESPAÇO AMOSTRAL: 
 
CCC 
CCK 
CKC 
CKK 
KCC 
KCK 
KKC 
KKK 
No espaço amostral podemos notar a ocorrência de 3 eventos favoráveis, contra 8 possíveis. Portanto, a 
probabilidade de ocorrência de 2 caras é de 3/8. 
 
 
 6 
Exemplo: Uma célula em um sistema de comunicações móveis possui 5 canais, que podem estar livres 
(L) ou ocupados (O). Tem-se que: 
a) O espaço amostral consiste de 32 combinações de 5 canais com as possíveis opções L e O em cada 
um dos canais, o que leva a 32 pontos. 
 
Seja 0 � canal livre e 1 � canal ocupado. Então teremos os possíveis resultados: 
 
 
 
 
b) Admitindo que os pontos do espaço amostral são EQUIPROVÁVEIS, ou seja, têm a mesma 
probabilidade de ocorrência, a probabilidade de uma chamada do tipo conferência, que precisa de 3 
canais livres para ser completada, ser bloqueada por falta de canal livre é de: 
 
Podemos observar no espaço amostral que temos 16 ocorrências favoráveis ao evento definido (3 ou 
mais canais ocupados, o que levará ao bloqueio da chamada) em 32 situações possíveis. Portanto, a 
probabilidade de bloqueio é de 16/32 = 0,5. 
 
 
FIM DA AULA 
 
 
 
 7 
 
Aula nº Data Tema Teorema de Bayes 
Conteúdo Probabilidade conjunta. Probabilidade condicional e a Regra de Bayes. Eventos Independentes. 
Objetivos 
Ao final da aula os alunos deverão ser capazes de: 1) Definir corretamente os 
conceitos de probabilidade conjunta e condicional. 2) Saber escrever a expressão do 
Teorema de Bayes e utilizá-la. 3) Conceituar eventos independentes. 
 
 
Probabilidade conjunta 
Como o nome sugere, esta probabilidade refere-se à ocorrência conjunta de dois ou mais eventos. 
 
Exemplo 
Num jogo de dados, vamos analisar a probabilidade conjunta referente a dois lances do dado. Os 
possíveis números de pontos observados são: 
 
S 
1,1 1,2 1,3 1,4 1,5 1,6 
2,1 2,2 2,3 2,4 2,5 2,6 
3,1 3,2 3,3 3,4 3,5 3,6 
4,1 4,2 4,3 4,4 4,5 4,6 
5,1 5,2 5,3 5,4 5,5 5,6 
6,1 6,2 6,3 6,4 6,5 6,6 
 
A partir dessas possibilidades e do conceito clássico de probabilidade, podemos realizar cálculos. Por 
exemplo, vamos determinar a probabilidade de um número ímpar de pontos no primeiro lance e um 
número 3 no segundo lance. 
 
 
 
Então a probabilidade procurada P[ímpar, 3] = 3/36. 
 
 
Probabilidades marginais 
Utilizando o conceito de probabilidades marginais é possível obter, a partir do conhecimento de 
probabilidades conjuntas, probabilidades simples (ou marginais). Por exemplo, dada uma probabilidade 
conjunta P[A,B], podemos obter P[A] ou P[B]. Obtemos P[A] somando todas as probabilidades 
conjuntas em que A é fixo e B é qualquer. Assim, obtemos P[B] somando as probabilidades conjuntas 
em que B é fixo e A é qualquer dos possíveis valores. 
 8 
No exemplo anterior, podemos, a partir de P[ímpar, 3], obter a probabilidade de o segundo lance 
apresentar o número 3 somando todas as probabilidades correspondentes a 3 no segundo lance e 
qualquer valor no primeiro, ou seja: 
 
 
 
 
Probabilidade condicional 
É uma probabilidade de ocorrência de um evento, obtida tendo-se o conhecimento de que um outro 
evento ocorreu. Emoutras palavras, é a probabilidade obtida sobre um evento, com uma informação 
adicional sobre a ocorrência de outro. Representa-se a probabilidade de ocorrência de um evento A, 
dado que um evento B ocorreu por P[A | B] => lê-se “probabilidade de A dado B”. A probabilidade 
condicional relaciona-se com a probabilidade conjunta por meio da importante relação: 
 
 
 
Verificando: 
 
 
 
Exemplo: Em uma caixa há 100 resistores cujas resistências e tolerâncias são mostradas na tabela a 
seguir. Um resistor é selecionado da caixa ao acaso. Calcule a probabilidade do resistor ser de 47 ohms 
dado que ele tem tolerância de 5% e calcule a probabilidade dele ter tolerância de 5% dado que a 
resistência é de 100 ohms. 
 
 
 
Perceba que neste exemplo temos uma sutil diferença em ralação ao cálculo da probabilidade conjunta. 
O cálculo de P[47 , 5%] corresponde ao seguinte experimento: se retirarmos da caixa um resistor 
qualquer, a probabilidade dele ser de 47 ohms E ter tolerância 5% é P[47 , 5%] = 28/100. Já o cálculo 
 9 
de P[47 | 5%] significa que retiramos um resistor da caixa, constatamos que sua tolerância é de 5% e 
queremos, DADA esta informação adicional, calcular a probabilidade do resistor ter valor 47 ohms. 
 
P[47 | 5%] = P[47 , 5%]/ P[5%] = (28/100)/(62/100) = 28/62. 
 
Exercício 
Determinar a probabilidade do resultado da jogada de um dado ser um número menor do que 4 nas 
seguintes situações: a) se não temos nenhuma informação. b) se sabemos que o resultado foi ímpar. 
 
Os possíveis resultados são: 1 2 3 4 5 e 6. 
a) queremos calcular P[D < 4] = 3/6 
b) agora queremos calcular P[D < 4 | D ímpar] = P[D < 4 , D ímpar]/P[D ímpar] = (2/6)/(3/6) = 2/3. 
 
Desafio 
A partir do entendimento da lógica do experimento computacional Prob_Conjunta.vsm, implementado 
no VisSim/Comm, implemente um experimento capaz de estimar as probabilidades calculadas no 
exercício 1. 
 
Exercício para casa 
Utilizando a teoria de conjuntos e a relação entre probabilidade condicional e conjunta, mostre a 
validade da expressão: 
 
 
 
 
 
Teorema de Bayes 
Este importante teorema permite que calculemos a probabilidade condicional P[A|B] a partir do 
conhecimento de P[B|A]: 
 
 
 
Exemplo 
Um transmissor envia um bit zero (evento A0) ou um bit 1 (evento A1) através de um um canal de 
comunicação binário simétrico. O canal ocasionalmente causa erro, de modo que um zero transmitido 
pode ser recebido como 1 e um 1 transmitido pode ser recebido como 0. A probabilidade de erro é p = 
0.1, independente do bit transmitido. A probabilidade de um bit 0 ser transmitido é 0.6. Sejam B0 e B1 
os eventos: um bit 0 foi recebido e um bit 1 foi recebido, respectivamente. Calcule as seguintes 
probabilidades: P(B0), P(B1), P(B1|A0), P(A0|B0), P(A0|B1), P(A1|B0), P(A1|B1). Este canal tem a 
representação abaixo: 
 
 10 
 
 
P[B0] é a probabilidade de receber 0. 
P[B1|A0] é a probabilidade de receber 1, tendo transmitido 0 = p. 
P[A1|B0] é a probabilidade de ter transmitido 1, tendo recebido 0, e assim por diante... 
 
 
 
Eventos independentes 
Dois eventos são ditos independentes se ocorrência de um deles não tem influência na ocorrência dos 
demais. Em outras palavras, o dado sobre a ocorrência de um determinado evento não adiciona 
nenhuma informação à determinação da probabilidade de ocorrência de outro evento, ou seja: P[A | B] 
= P[A]. Substituindo este resultado na expressão que relaciona probabilidade conjunta com condicional 
obtemos: 
 
P[A,B] = P[A|B]P[B] = P[A]P[B] 
 
O que significa que, para eventos independentes, a probabilidade de ocorrência conjunta dos eventos é 
o produto das probabilidades de cada evento. 
 
Exemplo 
O lance de duas moedas corresponde a eventos independentes (não há nenhuma influência do resultado 
de um lance no resultado do outro lance). Sendo assim, a probabilidade de ocorrência de cara no 
primeiro lance e de cara no segundo é de 0,5x0,5 = 0,25. Perceba que já havíamos calculado este 
mesmo valor a partir da definição clássica de probabilidade: 1 ocorrência sobre 4 possíveis = ¼ = 0,25. 
 
 
FIM DA AULA 
 11 
 
Aula nº Data Tema Métodos de contagem - 1 
Conteúdo Métodos de contagem: amostragem com e sem reposição, com e sem ordenação. 
Objetivos Ao final da aula os alunos deverão ser capazes de utilizar a teoria dos métodos de 
contagem para resolver problemas sobre probabilidade. 
 
 
Definição de amostragem 
A amostragem se refere à escolha aleatória de um número k de objetos dentro de uma população com n 
objetos. 
 
 
Definição de reposição 
Realizamos uma reposição quando retornamos um objeto selecionado à população sob análise, antes 
que um próximo objeto seja selecionado. 
 
Seja, por exemplo, o processo de seleção de 2 bolas de um conjunto de 5 bolas numeradas. 
Suponhamos que a primeira bola retirada tenha o número 3. Se o experimento é COM reposição, 
significa que a próxima bola a ser retirada poderá ser, inclusive, a própria bola de número 3. Se não 
houver reposição, a bola 3 (neste exemplo) estará fora das opções de escolha da segunda bola. 
 
 
Definição de ordenação 
 
Dizemos que um experimento é COM ordenação, quando a ordem dos objetos é relevante, ou seja, 
diferentes ordenações de um mesmo conjunto de objetos geram diferentes resultados para o 
experimento. 
 
Como exemplo, se retirarmos na primeira tentativa a bola de número 3 e na segunda a bola de número 
5 num experimento COM ordenação, significa que retirar a bola 5 e depois a bola 3 corresponde a um 
outro resultado possível. Se não nos preocupamos com a ordenação, os resultados (3,5) e (5,3) são 
idênticos. 
 
 
Princípio fundamental da contagem 
 
Definição geral: Seja um experimento E, composto de sub-experimentos E1, E2, ..., Ek, com os números 
de possibilidades n1, n2, ..., nk. O número de possibilidades do experimento E é dado por i
i
n∏ . 
Por exemplo, seja uma prova com 4 questões (4 sub-experimentos), onde o número de possíveis 
respostas para as questões é 3, 2, 4 e 6, respectivamente. Então, o número de possíveis formas distintas 
(experimento) de se resolver tal prova é de 3 x 2 x 4 x 6 = 144. 
 
 
Exemplo 1.28 Yates: Seja um experimento correspondente ao lance de uma moeda. Obviamente este 
experimento tem duas possibilidades (cara e coroa). Seja um outro experimento, correspondente ao 
lance de um dado. Este experimento possui 6 possibilidades. O experimento combinado “lançar a 
moeda e lançar o dado” terá então 2 x 6 = 12 possibilidades: (cara, 1), (cara, 2), (cara, 3), (cara, 4), 
(cara, 5), (cara, 6), (coroa, 1), (coroa, 2), (coroa, 3), (coroa, 4), (coroa, 5) e (coroa, 6). 
 12 
 
 
Amostragem COM reposição e COM ordenação 
 
Teorema 1.14 do Yates: Dado um conjunto com n objetos distintos, há nk maneiras diferentes de 
selecionar k objetos, com reposição e levando-se em conta a ordenação. 
 
Exemplo 1.34 Yates: de quantas formas possíveis podemos gerar seqüências binárias com 10 bits? 
Resposta: n = 2 (temos um “conjunto” com dois bits: 0 e 1) e queremos selecionar, com reposição, 10 
bits. Então teremos 210 = 1.024 possíveis formas diferentes de selecionar estes 10 bits. 
 
Exemplo 1.35 Yates: Quantas “palavras” de 4 letras podem ser produzidas a partir do alfabeto (A – Z)? 
Resposta: o conjunto tem 26 letras = n. Estamos selecionando palavras de 4 letras e, portanto, k = 4. 
Então teremos 264 = 456.976 palavras. 
 
Dos dois exemplos anteriores podemos extrair uma regra interessante: para sabermos quantas 
palavras existem em um alfabeto de tamanho n, simplesmente elevamos n ao tamanho da palavra. 
 
Exemplo slide 31: Num conjunto de 5 bolas numeradas temos 52 = 25 possibilidades de seleção de 2 
bolas com reposição e considerando a ordenação, como podemos verificas abaixo:Amostragem SEM reposição e COM ordenação (permutação) 
 
Exemplo slide 32: Como exemplo, seja determinar o número de possibilidades de retirada de 2 bolas de 
um conjunto de 5, sem reposição e levando em conta a ordenação. Teremos os resultados: 
 
 
 
A este tipo de contagem denominamos PERMUTAÇÃO de 2 objetos distintos em 5. Genericamente 
seu valor é dado por 
 
n(n – 1)(n – 2)...(n – k +1) 
 
Para o exemplo acima teremos: 5x4 = 20 possíveis permutações dos números de 2 bolas retiradas em 5. 
 
Exemplo slide 33: Vamos ver o que acontece se em n objetos selecionarmos sem reposição e com 
ordenação os n objetos. Basta fazer k = n na expressão anterior, o que leva a n!. Assim, com 5 bolas 
temos 5! = 120 possíveis formas de selecionar 5 bolas, considerando a ordem e sem reposição. 
 13 
 
Multiplicando o numerador e o denominador da expressão anterior por (n – k)! obtemos uma forma 
alternativa de cálculo na amostragem sem reposição e com ordenação: 
 
( )! !( 1)( 2)...( 1) ( 1)( 2)...( 1) ( )! ( )!
n k n
n n n n k n n n n k
n k n k
−
− − − + = − − − + =
− −
 
 
Exemplo 1.30 Yates: Quantas possibilidades existem na seleção de três cartas de um baralho, sem 
reposição? Resposta: neste caso n = 52 e k = 3, num processo de amostragem sem reposição e com 
ordenação. Então teremos n(n – 1)(n – 2)...(n – k +1) = 52x51x50 = 132.600 possibilidades. 
 
Fórmula de Stirling: certas calculadoras e até softwares de matemática têm sua limitação no cálculo 
fatorial. Quando o argumento for muito elevado, a fórmula de Stirling apresenta-se como uma ótima 
aproximação. Ela é dada por: 
 
1
2! 2 n nn n epi + −≅ 
 
 
Amostragem SEM reposição e SEM ordenação (combinação) 
 
Exemplo slide 35: no exemplo das 5 bolas retirando-se 2, suponha que não nos importamos com a 
ordenação, ou seja, os resultados (2,3) e (3,2), por exemplo, são idênticos. Desta forma teremos as 
possibilidades: 
 
 
 
O cálculo destas possibilidades é chamado de COMBINAÇÃO e é realizado por meio do chamado 
coeficiente binomial: 
!
!( )!
n n
k k n k
 
= 
− 
 
 
Dizemos que estamos interessados no número de combinações de k elementos em n elementos. Para o 
exemplo logo acima teremos: 5!/(2!3!) = 120/12 = 10. 
 
Exemplo 1.31 Yates: Qual é o número de diferentes “mãos” de 5 cartas num jogo de poker? Resposta: 
52!/(5!47!) = 2.598.960. 
 
Na próxima aula veremos mais um exemplo de utilização da amostragem sem reposição e sem 
ordenação no jogo da Mega-Sena. Em seguida finalizaremos o assunto referente aos métodos de 
contagem e faremos alguns exercícios de fixação. 
 
FIM DA AULA 
 
 14 
 
Aula nº Data Tema Métodos de contagem - 2 
Conteúdo Continuação do estudo dos métodos de contagem referentes a amostragem com e 
sem reposição, com e sem ordenação. 
Objetivos Ao final da aula os alunos deverão ser capazes de: utilizar a teoria dos métodos de 
contagem para resolver problemas sobre probabilidade. 
 
 
Exemplo: SenaM501 e Mega-Sena: 
 
Suponha que você esteja criando seu próprio jogo da SENA. Ele contém N números e os sorteios são 
de K números. Um jogador pode tentar a sorte apostando em J números. Numa primeira versão do 
jogo, à qual você denominou SENA-M501, foi estipulado que N = 6, K = 2 e J = 2 ou 3. Pede-se então: 
 
a) Calcule C, o número possível de combinações de dois números na SENA-M501. Liste as possíveis 
combinações. 
 
6
15
2
N
C
K
   
= = =   
   
 
 
(1,2) (1,3) (1,4) (1,5) (1,6) 
(2,3) (2,4) (2,5) (2,6) 
(3,4) (3,5) (3,6) 
(4,5) (4,6) 
(5,6) 
 
b) Calcule P2 , a probabilidade de um jogador ganhar na SENA-M501 apostando em dois números. 
 
Se apostarmos em qualquer par de números, poderemos observar que haverá um evento favorável 
contra 15 eventos possíveis e, portanto, P2 = 1/15. 
 
c) Calcule P3 , a probabilidade de um jogador ganhar na SENA-M501 apostando em três números. 
 
Observamos abaixo que, por exemplo, se o jogador apostar nos números 2, 3 e 5 ele terá 3 eventos 
favoráveis à sua premiação. Portanto P3 = 3/15 = 1/5. 
 
 
 
Observando os números apostados e as possibilidades de acertar no sorteio, percebemos que as três 
possibilidades marcadas acima nada mais são do que o número de combinações de 2 elementos em 3, 
ou seja 
 15 
3 3! 3
2 2!(3 2)!
 
= = 
− 
 
 
d) A partir dos resultados dos itens b e c determine a expressão de cálculo de PJ , a probabilidade de 
um jogador ganhar em uma versão genérica da SENA-M501 que contenha N números, sorteios de K 
números e apostas de J números. 
 
Observando os resultados b e c, percebemos que na definição clássica de probabilidade o numerador, 
correspondente ao número de eventos favoráveis, será 
J
K
 
 
 
 e o denominador, correspondente ao 
número total de possibilidades, será 
N
K
 
 
 
. Então, a probabilidade procurada será: J
J
K
P
N
K
 
 
 
=
 
 
 
 
 
 
e) Mostrar que n k n j nj k j k k
−       
=       
−       
. 
 
 
 
f) Sabendo que a MEGA-SENA real possui 60 números e sorteios de 6 números, calcule P6, P7, P8, P9 
e P10, as probabilidades de um jogador ganhar apostando em 6, 7, 8, 9 e 10 números. Para facilitar a 
interpretação dos resultados, faça um gráfico com os valores encontrados. 
 
 16 
6 7
8 9 10
6 7
6 61.997E-8 , 1.398E-7
60 60
6 6
8 9 10
6 6 65.593E-7 , 1.678E-6 , 4.195E-660 60 60
6 6 6
J
J
K
P P P
N
K
P P P
     
     
     
= ⇒ = = = =
     
     
     
     
     
     
= = = = = =
     
     
     
 
 
 
 
No gráfico ao lado a escala logarítmica 
no eixo das probabilidades torna mais 
fácil a leitura dos valores envolvidos. 
Isto acontece em situações em que os 
valores de probabilidade não seguem 
um comportamento linear, caso em que 
uma escala linear seria mais adequada. 
 
Com o objetivo de se acostumar a este 
tipo de representação logarítmica, muito 
utilizado em telecomunicações, faça 
como exercício a leitura dos valores de 
probabilidade da forma mais precisa 
que puder. Compare sua leitura com os 
valores exatos obtidos anteriormente. 
 
 
 
Amostragem COM reposição e SEM ordenação 
 
O número de modos diferentes de escolher k objetos de um conjunto de n objetos distintos com 
reposição e sem ordenação é dado por: 
 
 
 
Exemplo slide 35, porém com reposição: no exemplo das 5 bolas numeradas, suponha que retiramos 
uma bola da caixa aleatoriamente e, após recolocá-la de volta, selecionamos a segunda bola. Qual o 
número de possibilidades de escolha das duas bolas, sem nos preocuparmos com a ordem em que elas 
são escolhidas? 
 
As possibilidades serão: 
 
 17 
 
 
De onde concluímos que, de fato há 
 
1 5 1 2 6 6! 720 15 possibilidades
2 2 2!(6 2)! 48
n k
k
− + − +     
= = = = =     
−     
 
 
Podemos resolver também assim: 
 
1 ( 1 )! 6! 15 possibilidades
!( 1 )! 2!4!
n k n k
k k n k k
− +  − +
= = = 
− + − 
 
 
 
Experimentos seqüenciais e diagrama de árvore 
 
Como complemento estude o item 1.8 da apostila, p. 16-19, objetivando entender como se aplica o 
diagrama em árvore na solução de problemas com experimentos seqüenciais. Refaça os exemplos 1.13 
a 1.16 para certificar-se de que entendeu o que estudou. 
 
O diagrama de árvore pode ser considerado como uma ferramenta para a solução de problemas 
probabilísticos em que o experimento sob análise consiste de uma seqüência de sub-experimentos. 
Nesta seqüência, um sub-experimento depende do resultado de sub-experimentos anteriores. A 
utilização dessaferramenta em M501 não é obrigatória, podendo ser vista apenas como uma forma 
adicional que os alunos poderão utilizar para resolver exercícios ou questões de provas. 
 
 
FIM DA AULA 
 
 18 
 
Aula nº Data Tema Exercícios de fixação 
Conteúdo Exercícios de fixação sobre probabilidade. 
Objetivos Permitir que os alunos revisitem os conceitos teóricos e conheçam exemplos de 
aplicação destes conceitos na solução de problemas. 
 
 
1) Estabelecer a relação entre a PERMUTAÇÃO de k objetos em k, a COMBINAÇÃO de k objetos em 
n e o número de POSSÍVEIS k-uplas ORDENADAS DISTINTAS em n. 
 
Como exemplo, seja os n elementos, n = 4: 1, 2, 3 e 4, com k = 2. 
As possíveis combinações são n
k
 
 
 
 = 
4
2
 
 
 
 = 6: 
1,2 1, 3, 1,4 
2,3 2,4 
3,4 
 
Os possíveis pares ordenados distintos são n(n – 1)(n – 2)...(n – k + 1) = 4x3 = 12: 
 
1,2 1,3, 1,4 
2,1 2,3 2,4 
3,1 3,2 3,4 
4,1 4,2 4,3 
 
O número de permutações possíveis com cada combinação é k! = 2! = 2. 
 
Por analogia verificamos então que: n(n – 1)(n – 2)...(n – k + 1) = n
k
 
 
 
k! 
 
 
2) Mostre que se P(A) = P(B) = 1, então P(A∩B) = 1. 
 
 
 
Percebemos que se P[A] = P[B] = 1, a única possibilidade de fazer com que P(A∩B) seja um resultado 
válido em termos de probabilidade é ter P(A∪B) = 1. Neste caso, então P(A∩B) = 1. 
 
3) Mostre que P[Ac] = 1 – P[A]. 
 
 
 19 
 
 
4) Usando diagramas de Venn, faça um exemplo que mostre que P(A∪B) = P(A) + P(B) − P(A∩B). 
 
Seja o exemplo abaixo, onde S = {0, 1, 2, 3, 4, 5, 6, 7}, A = {1, 2, 3}, B = {3, 4, 5, 6}, A∩B = {3} e 
A∪B = {1, 2, 3, 4, 5, 6}. Percebemos que P(A∪B) é a probabilidade de ocorrência dos elementos {1, 2, 
3, 4, 5, 6}. Nas probabilidades de ocorrência dos elementos e A e dos elementos de B, o número 3 
aparece duas vezes e, portanto, precisa ser “eliminado” da dupla contagem retirando-se a interseção 
entre A e B. 
 
 
 
Vejamos os valores numéricos: P[A] = 3/8, P[B] = 4/8, P[A∪B] = 6/8, P(A∩B) = 1/8. 
De fato P(A∪B) = P(A) + P(B) − P(A∩B): 6/8 = 3/8 + 4/8 – 1/8. 
 
5) Usando diagramas de Venn, faça um exemplo que mostre que P(A∪B) ≤ P(A) + P(B). 
 
Utilizando os resultados do exercício anterior concluímos que P(A∪B) = P(A) + P(B) se não houver 
interseção entre os eventos A e B. Por outro lado, P(A∪B) < P(A) + P(B) se existir alguma interseção. 
Portanto, com estas únicas possibilidades mostramos o que o exercício pede, ou seja P(A∪B) ≤ P(A) + 
P(B). 
 
6) Mostre que para eventos A, B e C quaisquer: 
P[A∪B∪C] = P[A] + P[B] + P[C] – P[A∩B] – P[A∩C] – P[B∩C] + P[A∩B∩C]. 
 
 
 
OBS: repita o exercício utilizando diagramas de Venn. 
 
 
7) Um sistema de comunicação de microondas conecta os equipamentos de edição de uma emissora de 
rádio ao sistema de transmissão por meio de três links, conforme ilustrado a seguir. Tais links podem 
falhar de forma independente com probabilidades P1, P2 e P3. Qual a probabilidade de falha no sistema 
de comunicação como um todo? 
 
 20 
 
Solução por 1 – P[sistema não falhar] 
 
 
 
Solução pela união dos eventos individuais de falha 
 
A probabilidade de falha em um sistema serial como este é a probabilidade da UNIÃO dos eventos de 
falha. Vejamos: P[falha] = P[falha link1 ∪ falha link 2 ∪ falha link 3] = P1 + P2 + P3 – P1P2 – P2P3 – 
P1P3 + P1P2P3. 
 
8) Repita o exercício 7 considerando que os links estão em paralelo. Da solução deste exercício você 
tirará uma conclusão muito útil à solução de problemas deste tipo. 
 
Agora o sistema falhará se todos os links falharem ao mesmo tempo. Portanto estamos interessados na 
probabilidade conjunta de falha dos links. Como os eventos de falha são independentes, 
P[falha] = P[falha link 1 ∩ falha link 2 ∩ falha link 3] = P[falha link1, falha link 2, falha link 3] = 
P1×P2×P3. 
 
Assim, concluímos: sistemas em paralelo têm probabilidade de falha igual à INTERSEÇÃO dos 
eventos de falha (probabilidade conjunta). Sistemas e série têm probabilidade de falha igual à UNIÃO 
dos eventos de falha. Sistemas combinados têm probabilidades de falha calculadas pela combinação 
destes eventos de falha. 
 
 
Outros exercícios para casa 
 
9) Se retirarmos, de uma única vez, 3 bolas de uma caixa com 10 bolas numeradas, qual a 
probabilidade de retirarmos o conjunto de bolas (1, 2, 3), nesta ordem? 
 
10) Se retirarmos, de uma única vez, 3 bolas de uma caixa com 10 bolas numeradas, qual a 
probabilidade de retirarmos o conjunto de bolas (1, 2, 3), em qualquer ordem? 
 
11) Num sorteio, 60 bolas numeradas de 1 a 60 são misturadas em uma gaiola rotativa e depois, uma a 
uma, são retiradas. Qual a probabilidade de se retirar os números 1, 33, 27, 45, 46 e 59 nas primeiras 6 
retiradas? 
 
12) Num sorteio, 60 bolas numeradas de 1 a 60 são misturadas em uma gaiola rotativa e depois, uma a 
uma, são retiradas. Qual a probabilidade de se acertar 6 números em 6 retiradas, apostando 7 números? 
 21 
 
 
13) Associar a coluna da esquerda à coluna da direita, apresentando os cálculos pertinentes aos três 
casos listados na coluna da direita. 
 
(A) 720 
(B) 56 
(C) 7.776 
(D) 3.628.800 
(E) 120 
(F) 10 
(G) 30 
(H) 40.320 
 
( ) é o número de possíveis resultados de uma corrida com 10 competidores, 
listando-se apenas as três primeiras posições (pódio de 3 lugares). 
 
( ) é o número de diferentes palavras de 8 bits que pode ser formado a partir 
de 5 uns e 3 zeros. 
 
( ) é o número de resultados diferentes que podem ser obtidos lançando-se 5 
dados de uma vez e observando a soma do número de pontos de cada lance. 
 
 
FIM DA AULA 
 
 22 
 
Aula nº Data Tema Variáveis aleatórias - 1 
Conteúdo Introdução às variáveis aleatórias. 
Objetivos 
Ao final da aula os alunos deverão ser capazes de: 1) definir corretamente o 
conceito de variável aleatória (v.a.). 2) realizar cálculos de probabilidade por 
meio da Função de Distribuição Cumulativa (FDC). 
 
 
Variável aleatória – definição simplificada 
 
Uma variável aleatória (v.a.) nada mais é do que o mapeamento dos resultados aleatórios de um 
experimento em números que vão ser, por conseqüência, aleatórios. Como exemplo, seja o experimento 
de se lançar uma moeda 2 vezes consecutivas e seja o evento correspondente à contagem do número de 
caras observado. Podemos então definir uma variável aleatória X que corresponda a este evento. A 
variável aleatória X terá aqui os seguintes valores {0, 1 e 2}. 
 
 
Eventos equivalentes 
 
Quando calculamos probabilidades a partir de representações com diagramas de Venn obtemos 
resultados idênticos àqueles obtidos por meio das variáveis aleatórias correspondentes. Por exemplo, o 
conjunto referente à ocorrência de cara em dois lances consecutivos no exemplo anterior tem 
associação equivalente à ocorrência do valor 2 da variável aleatória X definida. 
 
 
Função de Distribuição Cumulativa (FDC) 
 
Num primeiro momento, vamos nos contentar apenas com a definição matemática da FDC, que é: 
 
 
 
onde a letra F (sempre maiúscula) indica que estamos nos referindo a uma FDC; o sobrescrito X 
(sempre maiúsculo) está associado à variável aleatória a que a FDC se refere; x (sempre minúsculo) 
significa um valor específico para a variável aleatória e P[X ≤ x] é a probabilidade da variável aleatória 
X assumir um valor menor ou igual a x. 
 
Exemplo: Vamos determinar a FDC da v.a. X, sendo X o número de caras (C) em três arremessos de 
uma moeda ideal, ou seja, X assume apenas os valores 0, 1, 2 e 3. Para uma moeda justa, as 
probabilidades para cada resultado são 1/8, 3/8, 3/8 e 1/8, respectivamente, valores estes obtidos por 
meio da definição clássica de probabilidade, seja operando no espaço amostral de caras e coroas oucom os valores da variável aleatória. Por exemplo, 3/8 é a probabilidade de ocorrência de duas caras: 
este valor pode ser obtido dividindo-se o número de eventos favoráveis à aparição de duas caras (3) 
pelo número total de possibilidades (8) ou dividindo-se o número de eventos favoráveis à aparição do 
valor 2 da v.a. (3) pelo número total de possibilidades (8). 
 
 
 
 
 23 
 
FX(x) é simplesmente a soma das probabilidades de ocorrência dos resultados que são menores ou 
iguais a x, ou seja: P[X ≤ 0] = 1/8, P[X ≤ 1] = 1/8 + 3/8 = 1/2, P[X ≤ 2] = 1/8 + 3/8 + 3/8 = 7/8 e P[X ≤ 
3] = 1/8 + 3/8 + 3/8 + 1/8 = 1. Como resultado temos a FDC ilustrada a seguir: 
 
 
 
 
Propriedades da FDC 
 
 1)(0 ≤≤ xFX
 
Estes são os possíveis valores para a FDC 
 
 0)(lim =
−∞→
xFX
x
 
A FDC começa sempre em zero, não importa o quanto à “esquerda” do gráfico. 
 
 1)(lim =
∞→
xFX
x
 
A FDC termina sempre em um, não importa o quanto à “direita” do gráfico. 
 
A FDC é uma função não decrescente de x, isto é, se a < b, então FX(a) ≤ FX(b). Em outras palavras, se 
a < b o valor da FDC no ponto a será sempre menor ou igual ao valor da FDC no ponto b. 
 
[ ] ( ) ( )X XP a X b F b F a< ≤ = − 
 
Podemos utilizar esta propriedade para calcular probabilidades. Por exemplo, na FDC abaixo seja 
calcular a probabilidade da v.a. X assumir os valores entre 2 e 3, ou seja, queremos calcular P[2 ≤ X ≤ 
3] = FX(3) – FX(2) = 0,9 – 0,5 = 0,4. 
 
 
 
 24 
Se a FDC é contínua em um ponto b, então o evento {X = b} tem probabilidade nula. Isto significa que 
a probabilidade de ocorrência de um valor específico de uma v.a. que tem FDC contínua é nula. No 
exemplo logo acima, se fizermos o ponto da esquerda, a, se aproximar cada vez mais do ponto 3, 
teremos FX(3) – FX(a) cada vez menor. No limite, quando estivermos a um valor infinitesimal distante 
do ponto 3, FX(3) – FX(a) será P[X = 3] = 0. 
 
[ ] ( ) ( )X XP a X b F b F a−≤ ≤ = − 
 
Esta propriedade, de aplicação bastante útil, diz que a probabilidade da v.a. X assumir valores entre a e 
b é determinada pela subtração do valor da FDC no ponto b do valor da FDC imediatamente à esquerda 
de a. 
 
Para o exemplo anterior, P[2 ≤ X ≤ 3] = FX(3) – FX(2−) = 0,9 – 0,5 = 0,4. No caso do jogo das 
moedas, suponha que quiséssemos a probabilidade de X assumir o valor 2. Então teríamos: P[X = 2] = 
P[2] – P[2−] = 7/8 – 1/2 = 3/8. 
 
Se a FDC é contínua, [ ] [ ] [ ] [ ]P a X b P a X b P a X b P a X b< < = ≤ < = < ≤ = ≤ ≤ . Isto significa que incluir ou não 
os valores específicos de a e b no cálculo de probabilidades não altera o resultado. Podemos também 
interpretar esta propriedade lembrando que a probabilidade de ocorrência de um valor específico de 
uma v.a. cuja FDC é contínua é nula e, portanto, incluir ou não este “valor nulo” no cálculo torna-se 
indiferente. 
 
 
Exercício para casa 
 
Para a FDC abaixo, pede-se: 
a) Recalcular [| 1 | 1/ 2] 1 [1/ 2 3/ 2] 1 [ (3/ 2) (1/ 2)] 7 /16X XP x P X F F− > = − ≤ ≤ = − − = . 
b) Calcular P[X = 1,5]. 
 
 
 
 
Tipos de variáveis aleatórias 
 
Os tipos de v.a. estão associados às possibilidades para os valores da v.a.. Por exemplo, numa 
transmissão de dados, a variável aleatória pode ser a ocorrência dos bits zeros e uns. Portanto, e 
obviamente, os valores desta v.a. são discretos e iguais a 0 ou 1. Por conseqüência, a correspondente 
FDC será também discreta: 
 25 
 
 
 
Uma variável aleatória contínua pode assumir quaisquer valores dentre os números reais na faixa em 
que tal v.a. existe. Por exemplo, suponha que a vazão máxima no cano da COPASA que alimenta sua 
residência com água seja de 1 m3/hora e a mínima seja de 0. Em um determinado momento, a vazão 
poderá ter qualquer valor real entre 0 e 1 m3/hora, como ilustrado pela FDC da v.a. em questão: 
 
 
 
Uma variável aleatória mista, como o nomesugere, pode assumir valores discretos e contínuos. Sua 
FDC é, portanto, composta de partes discretas e de partes contínuas, conforme ilustração a seguir: 
 
 
 
Na próxima aula iniciaremos com o estudo da função densidade de probabilidade (FDP), a qual possui 
associação direta com a FDC. Em seguida estudaremos vários tipos de variáveis aleatórias discretas e 
contínuas. 
 
FIM DA AULA 
 
 26 
 
Aula nº Data Tema Variáveis aleatórias - 2 
Conteúdo Função densidade de probabilidade para v.a. contínuas e discretas. Densidades 
condicionais. 
Objetivos Continuação do estudo de variáveis aleatórias: Função densidade de probabilidade para variáveis aleatórias discretas e contínuas. Densidades condicionais. Histograma. 
 
 
Função massa de probabilidade (FMP) 
 
A função massa de probabilidade simplesmente representa em um gráfico as probabilidades de 
ocorrência de cada um dos valores de uma v.a. discreta. Como exemplo, seja uma v.a. que pode 
assumir os valores {0, 1, 2, 3} com probabilidades 0.3, 0.2, 0.4 e 0.1, respectivamente. Teremos a 
seguinte FMP e correspondente FDC: 
 
 
 
Matematicamente: p
X
(xk) = P[X = xk] 
 
 
Função densidade de probabilidade (FDP) 
 
Para entendermos o conceito de FDP, vamos analisar um exemplo: suponha que coletamos a estatura 
de 100 alunos do Inatel, obtendo os mais variados valores. Suponha que, dentro da faixa de valores 
encontrados, criamos 7 sub-faixas (ou classes) e contamos quantos alunos têm estatura dentro daquela 
sub-faixa. Um possível resultado seria: 
 
 
 
 27 
 
Com este exemplo acabamos aprendendo o conceito de HISTOGRAMA, ou seja, a figura acima é o 
histograma que mostra a distribuição da estatura dos alunos consultados. 
 
Se, no limite, fizermos cada sub-faixa ter uma largura tendendo a zero, teremos como resultado uma 
função contínua que mostrará, mais uma vez, como as estaturas dos alunos consultados se distribui. A 
esta função contínua damos o nome de função densidade de probabilidade. Para o exemplo, teremos: 
 
1.3 1.4 1.5 1.6 1.7 1.8 1.90
1
2
3
4
Valores de X
Fr
e
qü
ên
c
ia
 
re
la
tiv
a
 
 
A relação entra uma função densidade de probabilidade e uma função de distribuição cumulativa é 
dada por: 
 
( )( ) XX
dF xf x
dx
=
 
 
ou seja, determinamos a FDP de uma v.a. por meio da derivada da função de distribuição cumulativa. 
Portanto, a FDC é determinada pela integral da FDP. 
 
 
 
 
Função densidade de probabilidade (FDP) para v.a. discretas 
 
A FDP de uma v.a. discreta é determinada simplesmente substituindo os traços da FMP por funções 
impulso, conforme ilustrado a seguir. O uso de representações diferentes de um impulso, na figura, não 
corresponde a um erro. 
 
 
 
Matematicamente, ( ) ( ) ( )X X k k
k
p x p x x xδ= −∑
 
 28 
 
 
Função densidade de probabilidade (FDP) para v.a. contínuas 
 
Aproveitando a definição de FDP dada anteriormente, definimos a FDP de uma variável aleatória 
contínua por meio de uma função contínua de área unitária. A FDP representa a “densidade” de 
probabilidade no ponto x no seguinte sentido: é a probabilidade de X estar em um intervalo pequeno na 
vizinhança de x: 
 
 
 
Na definição de histograma, vimos um exemplo referente à estatura de um grupo de alunos do Inatel. 
Vimos, naquele exemplo, que fazendo as sub-faixas tenderem a zero teríamos como resultado uma 
função contínua. Se normalizarmos esta função resultante de forma que tenha área unitária, o resultado 
será uma forma aproximada da FDP da estatura dos alunos do Inatel. 
 
 
Propriedades de uma PDF 
 
Para v.a. contínuas temos as seguintes propriedades: 
 
 
 
� A primeira propriedade diz que uma FDP não pode ter valores negativos, o que implicaria em 
valores negativos de probabilidade. 
 
� A segunda propriedadepermite que calculemos probabilidades a partir de uma FDP. Por exemplo, a 
probabilidade da v.a. X estar entre os valores a e b, denotada por [ ]P a X b≤ ≤ , é calculada pela 
integral da FDP entre os pontos a e b. 
 
� A terceira propriedade apenas repete o que já estudamos, ou seja, a FDC é a integral da FDP e a 
FDP é a derivada da FDC. 
 
 29 
� A última propriedade é uma condição para que possamos calcular probabilidades a partir do cálculo 
de área sob a FDP. Como exemplo, suponha que uma v.a. X tenha valores somente entre 1,4 e 2. 
Portanto, a probabilidade de X estar entre 1,4 e 2 será a área da FDP correspondente entre os pontos 
1,4 e 2. Este valor dever ser, obviamente, igual a 1. 
 
Para v.a. discretas temos as seguintes propriedades: 
 
 
 
� A primeira propriedade diz que uma FDP não pode ter valores negativos, o que implicaria em 
valores negativos de probabilidade. 
 
� A segunda propriedade permite que calculemos probabilidades a partir de uma FDP. Por exemplo, a 
probabilidade da v.a. X assumir os valores 1, 2 e 7 é dada pela soma das probabilidades de 
ocorrência dos valores 1, 2 e 7, lidas diretamente no eixo vertical da FDP. 
 
� A terceira propriedade apenas repete o que já estudamos, ou seja, a FDC é a integral da FDP, agora 
na versão discreta em que a integral se torna um somatório. Assim, para determinarmos a FDC a 
partir da FDP, basta ir acumulando os valores de probabilidade a cada valor da v.a. discreta. Para 
determinarmos a FDP a partir da FDC, basta plotar no eixo horizontal, em cada valor da v.a., um 
impulso cuja amplitude é igual ao correspondente “salto” da FDC. 
 
� A última propriedade é uma condição para que possamos calcular probabilidades a partir do cálculo 
de área sob a FDP. Como exemplo, suponha que uma v.a. X tenha valores somente entre 1,4 e 2. 
Portanto, a probabilidade de X estar entre 1,4 e 2 será a área da FDP correspondente entre os pontos 
1,4 e 2. Este valor dever ser, obviamente, igual a 1. 
 
 
Densidades condicionais 
 
Densidades condicionais são aquelas que nos permitem obter informações probabilísticas sobre uma 
v.a. com um conhecimento adicional sobre o experimento correspondente. Por exemplo, ao fazermos 
apostas em um hipódromo, se sabemos que um determinado cavalo está machucado ou doente, mesmo 
sendo um campeão, diminuímos nossa confiança em apostar nele. 
 
A função de distribuição condicional de uma v.a. X, dado o conhecimento do evento B é definida por: 
 
[ , ]( | ) [ | ] [ ]X
P X x BF x B P X x B
P B
≤
= ≤ = 
 
 30 
Determina-se a função densidade de probabilidade de uma v.a. contínua da mesma forma que 
definimos anteriormente, ou seja, pela derivada da FDC: 
 
( | ) ( | )X Xdf x B F x Bdx= 
 
Para uma v.a. discreta, a FMP condicional é dada por: 
 
[ , ]( | ) [ | ] [ ]
k
X k k
P X x Bp x B P X x B
P B
=
= = = 
 
Exemplo: o tempo de vida X de uma máquina tem distribuição exponencial. Vamos determinar a FDC 
e a FDP condicionadas ao evento A = {X > t}, ou seja, a máquina ainda se encontra em funcionamento 
no instante t: 
 
[ ]{ } { }( | ) [ | ] [ ]X
P X x X t
F x X t P X x X t
P X t
≤ ∩ >
> = ≤ > =
>
 
 
Por meio da figura a seguir percebemos que os eventos no numerador acima não têm interseção quando 
x ≤ t e têm interseção quando x > t em t < X ≤ x. 
 
 
 
Então teremos a FDC condicional: 
 
0,
( | ) ( ) ( )
,
1 ( )
X X X
X
x t
F x X t F x F t
x t
F t
≤

> = − >
−
 
 
Diferenciando a FDC em relação a x obtemos a FDP condicional: 
 
( )( | ) ,
1 ( )
X
X
X
f xf x X t x t
F t
> = ≥
−
 
 
Exercício para casa: usando o resultado do exemplo anterior, determine a estimativa do tempo de vida 
da máquina estar entre 2,5 a 3 unidades de tempo, conhecendo-se ou não conhecendo-se o dado 
adicional: a máquina está em funcionamento em t = 2. 
 
 
Conceito de histograma – estudo dirigido 
 
Faça uma pesquisa sobre o conceito de HISTOGRAMA em livros e/ou páginas da Internet sobre 
estatística. Como sugestão, tente resolver a questão por meio da enciclopédia Wikipedia: 
http://en.wikipedia.org/wiki/Histogram. Faça um resumo sobre o assunto, contendo ao menos um 
 31 
exemplo da utilização de histogramas em análises estatísticas. Estabeleça a relação entre um 
histograma e uma função densidade de probabilidade em termos de seu formato e da sua normalização 
para probabilidade total unitária (área unitária). 
 
 
Histograma ×××× FDP 
 
Suponha que temos um conjunto de 100 valores de uma variável aleatória discreta e queremos, a partir 
deste conjunto, determinar a FMP da v.a. em questão. Contando o número de ocorrências de cada valor 
e construindo o correspondente histograma obtivemos o resultado: 
 
0 1 2 3 4 5 6 7 8 9 100
20
40
60
Valores de X
Fr
eq
üê
n
ci
a 
de
 
o
co
rr
ên
ci
a
 
 
Utilizando o conceito de probabilidade por freqüência relativa, podemos calcular a probabilidade de 
ocorrência de cada valor dividindo o número de ocorrências de um valor pelo número total de valores, 
o que nos levaria a: 
 
0 1 2 3 4 5 6 7 8 9 100
0.2
0.4
0.6
Valores de X
Pr
o
ba
bi
lid
ad
e
 
Entretanto, pelo fato de termos utilizado um número muito pequeno de amostras, as probabilidades 
estimadas podem ter valores bastante incorretos. Vejamos o que acontece se aumentarmos o número de 
valores disponíveis para 10.000. Com este valor as estimativas de probabilidade por freqüência relativa 
se tornarão bastante precisas e, por conseqüência, a FMP estimada será também bastante precisa, 
conforme ilustrado a seguir: 
 
0 1 2 3 4 5 6 7 8 9 100
2000
4000
6000
Valores de X
Fr
eq
üê
n
ci
a 
de
 
o
co
rr
ên
ci
a
 
 
 32 
0 1 2 3 4 5 6 7 8 9 100
0.2
0.4
0.6
Valores de X
Pr
o
ba
bi
lid
ad
e
 
 
Para uma variável aleatória contínua, a regra que pode ser extraída do exemplo anterior também é 
válida: quanto maior o número de valores da v.a. considerados na construção do histograma, mais este 
histograma se assemelhará à FDP da v.a. em questão. Não devemos nos esquecer, no entanto, que a 
aproximação do histograma da FDP se dará com as medidas adicionais: largura das sub-faixas (ou 
classes) tão pequenas quanto possível e normalização do histograma para que tenha área unitária. 
 
A seguir temos o histograma de uma v.a. contínua, construído a partir de 100 amostras desta v.a.. 
 
35 40 45 50 55 60 650
5
10
15
20
25
Valores de X
Fr
eq
üê
n
ci
a 
de
 
o
co
rr
ên
ci
a
 
Veja agora o histograma construído com 10.000 amostras da v.a. contínua, normalizado para área 
unitária e com classes bem estreitas. Observe a grande semelhança com a FDP real da v.a. em questão. 
 
 
 
 
FIM DA AULA 
 
 33 
 
Aula nº Data Tema Variáveis aleatórias - 3 
Conteúdo Continuação do estudo de variáveis aleatórias: Variáveis aleatórias discretas mais 
comuns; Variáveis aleatórias contínuas mais comuns. 
Objetivos Ao final da aula os alunos deverão ser capazes de: 1) realizar cálculos de probabilidade envolvendo as variáveis aleatórias discretas e contínuas estudadas. 
 
 
Variável aleatória discreta de Bernoulli 
 
É utilizada para modelar qualquer fenômeno aleatório que possa ser descrito como tendo dois estados. 
Por exemplo: ligado/desligado, aceso/apagado, cara/coroa, bit0/bit1, etc... Adicionalmente, uma v.a. de 
Bernoulli pode modelar qualquer fenômeno aleatório ao qual se possa associar a um evento de interesse 
A uma probabilidade de ocorrência p = P[A], a partir de uma função indicadora IA que assume o valor 1 
sempre que o evento de interesse ocorrer e 0 quando não ocorrer. Por exemplo,suponha que 
associamos o valor 1 à ocorrência de uma descarga elétrica dentro do Campus do Inatel e 0 fora do 
Campus. Se p é a probabilidade de um raio atingir o Campus, o evento em questão pode ser modelado 
por uma v.a. de Bernoulli com probabilidade de sucesso p. 
 
Abaixo temos a FMP para esta variável. 
 
 
 
 
Variável aleatória discreta Binomial 
 
Esta variável está associada ao número de sucessos em n testes de Bernoulli. Por exemplo, suponha que 
a probabilidade de uma lâmpada queimar é p. Portanto, para este experimento, sucesso significa a 
lâmpada queimar. Num conjunto de n lâmpadas, a probabilidade de x lâmpadas queimarem é dada pela 
distribuição Binomial. 
 
A FMP para uma v.a. Binomial é dada a seguir. 
 
 
 
 34 
Num outro exemplo, suponha que queremos calcular a probabilidade de termos mais de 5 bits errados 
em um bloco de n bits, num sistema de comunicação em que o canal causa erros de bit com uma 
probabilidade p. Neste caso, o sucesso no teste de Bernoulli corresponde a um erro de bit. Então, a 
probabilidade de termos 5 ou mais erros em n bits será calculada por: 
 
P[X ≥ 5] = 1 – P[X < 5] = 
4
0
1 (1 )x n x
x
n
p p
x
−
=
 
− − 
 
∑ . 
 
 
Variável aleatória discreta de Poisson 
 
Uma v.a. de Poisson modela fenômenos aleatórios em um intervalo de observação. Por exemplo, a taxa 
de solicitações de chamadas telefônicas encaminhadas a uma central de comutação é de λ solicitações 
por segundo. Em um determinado intervalo de observação T, o número de solicitações segue uma 
distribuição de Poisson. Nesta distribuição α = λT é o número médio de ocorrências do evento no 
intervalo considerado. 
 
 
 
Num outro exemplo, o número de clientes que chegam a uma fila de espera em um Banco durante um 
determinado intervalo de observação T segue uma distribuição de Poisson, onde α = λT é o número 
médio de clientes que chegam ao banco neste intervalo e λ é a taxa de chegada dos clientes 
(clientes/segundo). 
 
 
Aproximação de Poisson para a distribuição Binomial 
 
Quando n é grande os cálculos envolvendo a distribuição Binomial apresentam um complicador que é o 
cálculo fatorial presente no coeficiente binomial. Nestes casos, adicionalmente quando p tem valor 
pequeno, a distribuição de Poisson aproxima-se da distribuição Binomial, ou seja: 
 
( )( ) 1 ,
!
x
n xx
X
n
p x p p e np
x x
αα α
−
−
 
= − ≅ = 
 
 
 
Como exemplo, suponha que queremos calcular a probabilidade de um bloco de 1.000 bits ter 5 ou 
mais bits em erro, num sistema de comunicação em que a probabilidade de erro de bit é de 1×10−3. 
Neste exemplo o “sucesso” no teste de Bernoulli, que corresponde à probabilidade p = 1×10−3 está 
associado ao erro em um bit. Aqui, se tentarmos aplicar diretamente a distribuição Binomial, que 
modela eventos como o descrito, teremos problema para calcular o valor do coeficiente binomial por 
causa do valor de n = 1.000. Como p tem valor pequeno,podemos usar a aproximação de Binomial para 
Poisson, com α = np = 1.000×10-3. 
 
 35 
 
Variável aleatória discreta Geométrica 
 
Usamos esta distribuição sempre que queremos modelar um experimento no qual estamos interessados 
em contar o número de insucessos antes que o primeiro sucesso ocorra. Por exemplo, suponha que 
queremos determinar X, o número necessário de lances de um dado antes que o número 3 (3 pontos) 
aparece pela primeira vez. A variável aleatória X tem distribuição Geométrica. 
 
 
 
Esta variável é dita SEM MEMÓRIA. Para ilustrar este conceito, no exemplo do dado se ainda não 
ocorreu um sucesso após lançar-se o dado um determinado número de vezes, o número de insucessos 
adicionais até a ocorrência do primeiro sucesso continua tendo uma distribuição Geométrica. Por 
exemplo, se após lançarmos o dado 5 vezes não observamos a ocorrência de um sucesso (3 pontos, para 
o caso), a probabilidade de aparecer 3 pontos após mais 3 lances continua sendo calculada por pX(x) 
para x = 3. 
 
 
Variável aleatória contínua Uniforme 
 
Uma v.a. contínua tem distribuição Uniforme quando as probabilidades de ocorrência da v.a estão 
uniformemente distribuídas dentro da faixa de valores onde ela existe. Por exemplo, na FDP abaixo, se 
calcularmos a probabilidade da v.a. assumir valores entre a e a + ∆, encontraremos o mesmo valor que 
entre b e b – ∆. 
 
 
Como exemplo, quando amostras de um sinal de áudio são quantizadas, gera-se um erro entre a 
amostra quantizada e o valor real da amostra do sinal. Este erro tem distribuição Uniforme de –q/2 a 
+q/2, onde q é o passo de quantização (distância entre um nível de quantização e seus vizinhos mais 
próximos). 
 
Num outro exemplo, quando transmitimos um sinal num canal de comunicação móvel sem fio, como 
acontece em sistemas celulares, a fase do sinal recebido é aleatória com distribuição Uniforme entre –pi 
 36 
e pi, ou seja, o sinal recebido pode assumir qualquer valor de fase dentro destes limites, com a mesma 
probabilidade. 
 
 
Variável aleatória contínua Exponencial 
 
Utilizamos uma distribuição Exponencial para modelar eventos que, com o passar do tempo, têm 
menor probabilidade de ocorrência. Por exemplo, a duração de uma chamada telefônica é uma v.a. com 
distribuição exponencial, pois a probabilidade de uma chamada durar menos tempo é maior que a 
probabilidade de durar mais tempo. 
 
A v.a. exponencial é também utilizada para modelar o tempo de vida de algumas máquinas e 
equipamentos. Neste caso, quanto mais o tempo passar, menor a probabilidade de ocorrência de falha. 
Assim, um automóvel, por exemplo, tem mais chance de apresentar defeito nos primeiros dois meses 
de uso do que nos dois meses seguintes ao primeiro ano de uso. Obviamente este modelo se aplica ao 
intervalo de tempo antes que falhas começam a aparecer por envelhecimento ou desgaste de peças. 
 
Como vimos anteriormente, o número de chegadas de clientes em uma fila tem distribuição de Poisson. 
Neste caso, o intervalo entre as chegadas tem distribuição Exponencial, ou seja, é mais provável que os 
intervalos entre chegadas consecutivas sejam menores; intervalos elevados entre chegadas consecutivas 
são mais raros. 
 
A seguir tem-se a FDP para a variável aleatória Exponencial. 
 
 
 
Variável aleatória contínua Gaussiana 
 
A distribuição Gaussiana tem uso muito freqüente em várias áreas do conhecimento. Por exemplo, ela 
caracteriza grande parte dos fenômenos aleatórios naturais e o ruído térmico em sistemas de 
telecomunicações. Adicionalmente, sob uma grande faixa de condições a variável aleatória Gaussiana 
pode ser usada para aproximar a distribuição da soma de um grande número de variáveis aleatórias 
independentes com distribuição qualquer. 
 
A seguir tem-se a FDP para a variável aleatória Gaussiana, onde podemos notar a presença dos 
parâmetros µ (média) e σ (desvio padrão). A média, ou valor mais provável, corresponde à posição 
central da PDF. O desvio padrão está associado à dispersão da FDP, ou seja, quanto maior o valor de σ, 
mais dispersos os valores da v.a. em questão estarão em relação à sua média. 
 
 37 
 
 
 
Cálculo numérico de área de uma Gaussiana via função erfc(x) ou Q(x) 
 
Quando os problemas sobre probabilidade envolvendo uma v.a. Gaussiana demandam cálculos de área 
da FDP, nos deparamos com um obstáculo: o cálculo da área sob a cauda de uma Gaussiana não tem 
solução analítica exata. Nestes casos utilizamos as funções erfc(x) e Q(x) cujo objetivo é permitir um 
cálculo numérico dessa área. Tais funções são definidas por meio das expressões: 
 
22( ) exp
x
erfc x u du
pi
∞
 = − ∫ 
21( ) exp
22 x
uQ x du
pi
∞  
= − 
 
∫ 
 
Estas funções se relacionam por meio de: 
 
( )( ) 2 2erfc x Q x=1( ) 2 2xQ x erfc  =    . 
 
Muitos softwares de cálculo e até calculadoras mais modernas contêm ao menos uma dessas funções 
embutidas. Ainda assim, muitas referências contêm tabelas de valores destas funções para uma grande 
faixa de argumentos. Como alternativa, a expressão a seguir corresponde à expansão da função erfc(x) 
em uma série. Para 50 ou mais termos no somatório, o valor obtido com a série se aproxima bastante do 
valor exato da função. Verifique esta afirmação como exercício. 
 
 
 
A função Q(x) possui algumas aproximações, conforme ilustrado na figura a seguir, onde se pode 
identificar claramente em que faixa de valores do argumento tais aproximações são mais ou menos 
precisas. 
 
 38 
 
 
Na apostila define-se ainda a função 
 
21( ) exp
22
x
u
x du
pi
−∞
 Φ = − 
 
∫ , 
 
para a qual se apresenta uma tabela de valores no Apêndice F desta apostila. 
 
Portanto, observando a definição da função Q(x) dada anteriormente, facilmente chegamos à relação: 
 
( ) 1 ( )x Q xΦ = −
 
 
Então, para uma v.a. Gaussiana de média µ e desvio padrão σ, a FDC pode ser calculada por meio de: 
 
( ) 1X
x xF x Qµ µ
σ σ
− −   
= Φ = −   
   
 
 
 
FIM DA AULA 
 
 39 
 
Aula nº Data Tema Variáveis aleatórias - 4 
Conteúdo Variáveis aleatórias múltiplas. Funções e transformações de variáveis aleatórias. 
Objetivos 
Ao final da aula os alunos deverão ser capazes de: 1) realizar cálculos de 
probabilidade envolvendo variáveis aleatórias múltiplas, funções de variáveis 
aleatórias e transformações de variáveis aleatórias. 
 
 
Variáveis aleatórias múltiplas 
 
Variáveis aleatórias múltiplas surgem em problemas nos quais estamos interessados no evento 
combinado de dois ou mais experimentos ou no evento combinado referente à repetição de um mesmo 
experimento. 
 
Como exemplo, quando analisamos o lance de um dado definimos uma única variável aleatória. Se 
lançarmos dois dados ou repetirmos o lance de um único dado, criaremos duas variáveis aleatórias 
sobre as quais poderemos extrair informações probabilísticas. 
 
A função de distribuição cumulativa conjunta para duas v.a. contínuas é definida por: 
 
 
 
Através desta função conseguimos obter probabilidades associadas à ocorrência conjunta das variáveis 
em questão. 
 
 
Independência de variáveis aleatórias 
 
Se as variáveis aleatórias em questão são independentes, encontramos a FDC ou a FDP conjuntas pela 
multiplicação das FDCs ou FDPs de cada uma das v.a. envolvidas, ou seja: 
 
 
 
 
Como exemplo, sejam duas variáveis aleatórias Gaussianas X e Y, independentes e de mesmo desvio 
padrão. A FDP conjunta será dada pelo produto das correspondentes FDPs. O resultado será: 
 
2 2
2 2
2 2
2 2
( , ) ( ) ( )
1 ( ) 1 ( )
exp exp
2 22 2
1 ( ) ( )
exp
2 2
XY X Y
X Y
X Y
f x y f x f y
x y
x y
µ µ
σ σpiσ piσ
µ µ
piσ σ
=
   − −
= − × −   
   
 − + −
= − 
 
 
 40 
 
Se esboçarmos esta função teremos como resultado a curva a seguir: 
 
 
 
Assim como qualquer FDP, a integral em todas as variáveis deve ter valor unitário: 
 
 
 
 
Obtendo densidades marginais a partir de densidades conjuntas 
 
A partir do conhecimento de densidades conjuntas, podemos determinar a FDC ou a FDP de cada uma 
das v.a. envolvidas. Nestes casos as FDPs ou FDCs obtidas são denominadas de densidades marginais. 
Para v.a. contínuas, encontramos a FDP de uma das variáveis integrando a FDP conjunta na outra 
variável: 
 
 
 
Para variáveis aleatórias discretas, encontramos a FMP (ou FDP) de uma das variáveis somando todas 
as probabilidades referentes à outra variável, ou seja: 
 
( ) ( , )X i XY i j
j
f x f x y
∞
=−∞
= ∑ ( ) ( , )Y i XY i j
i
f y f x y
∞
=−∞
= ∑ 
 
 
Transformação de FPDs 
 
A transformação de FDPs é uma ferramenta bastante útil para que tenhamos condições de conhecer a 
FDP simples (unidimensional) ou conjunta (multidimensional) de variáveis aleatórias que foram 
geradas pela modificação de outras variáveis aleatórias. 
 
Embora haja ferramentas que permitem a transformação de FDPs conjuntas com qualquer número de 
variáveis aleatórias, veremos apenas os casos particulares nos quais: a) um valor de uma das variáveis 
 41 
corresponde a um único valor da outra e b) um par de valores de uma das variáveis conjuntas 
corresponde a um único par de valores da outra. 
 
 
Transformação de FPDs de primeira ordem 
 
Sejam X e Y duas v.a. relacionadas por meio de Y = g(X), onde g(X) é qualquer função que mapeia um 
valor da v.a. X em um único valor da v.a. Y. Encontramos a FDP de Y utilizando a expressão: 
 
 
 
onde |g’(X)| é o módulo da derivada de g(X) e g−1(y) é a função inversa de y, ou seja, é simplesmente a 
função g(X) reescrita de tal forma que a variável x fique isolada. Por exemplo, se y = g(x) = ax + b, 
g−1(y) = x = (y – b)/a. 
 
 
Transformação de FDPs de segunda ordem 
 
Quando o problema de transformação envolve duas variáveis aleatórias, respeitada a condição acima, 
ou seja, um par de valores das variáveis U e V têm somente um par de valores correspondentes das 
variáveis X e Y, e vice-versa, utilizamos as expressões a seguir: 
 
 
 
onde J( . ) é denominado Jacobiano da transformação e é dado pelo determinante: 
 
 
 
Apenas para relembrar, o determinante de uma matriz 2 × 2 é calculado da seguinte maneira: 
 
a b
ad bc
c d
= −
 
 
 
FIM DA AULA 
 
 42 
 
Aula nº Data Tema Exercícios de fixação 
Conteúdo Exercícios de fixação sobre variáveis aleatórias. 
Objetivos Permitir que os alunos revisitem os conceitos teóricos e conheçam exemplos de 
aplicação destes conceitos na solução de problemas. 
 
 
1) O tempo de espera, X, para transmissão em um sistema de comunicação varia segundo um 
comportamento exponencial parametrizado por λ, isto é P[X > x] = e-λx , x > 0. Encontre a FDC de X. 
Encontre P[T < X ≤ 2T] para T = 1/λ. 
 
Solução no slide 14 
 
2) O tempo de espera X de um usuário em um sistema de filas é zero se ele encontra o sistema livre e é 
exponencialmente distribuído se ele encontra o sistema ocupado. As probabilidades de ele encontrar o 
sistema livre ou ocupado são p e (1 – p), respectivamente. Encontre a FDC de X. 
 
Solução no Slide 16 
 
3) Um sistema de comunicação transmite informação binária através de um canal que introduz erros 
aleatoriamente distribuídos com probabilidade e = 10−3. O transmissor transmite cada bit de informação 
três vezes (código de repetição) e o receptor decide sobre o bit transmitido com base em uma lógica 
majoritária. Qual seria a probabilidade do receptor errar a decisão? 
 
Solução no Slide 24 
 
4) As solicitações de chamadas em ligações telefônicas chegam à central de comutação numa taxa de 
λ solicitações por segundo. Sabendo que o número de solicitações em um determinado intervalo é uma 
variável de Poisson, encontre a probabilidade de não haver solicitações de chamadas em um intervalo 
de t segundos. Encontre também a probabilidade de haver n ou mais solicitações nesse intervalo. 
 
Solução no Slide 27 
 
5) O número de acessos a uma página da Internet em qualquer intervalo de observação é uma v.a. de 
Poisson. Suponha que a página do Inatel recebe em média 2 acessos por segundo. Pede-se: a) Qual a 
probabilidade de não haver nenhum acesso no intervalo de 0,25 segundos? b) Qual a probabilidade de 
haver não mais que 2 acessos no intervalo de 1 segundo? 
 
Solução a 
Seja N(T) o número de acessos em T segundos. 
Para T = 0,25 s , α = λT = 2 acessos/segundo × 0,25 segundo = 0,5 acessos. 
P[N(0,25) = 0] = 
0
0,50,5(0) 0,607
0!X
p e−= =Solução b 
Para T = 1 s , α = λT = 2 acessos/segundo × 1 segundo = 2 acessos. 
P[N(1) ≤ 2] = 
0 1 22
2 2 2
0
2 2 2( ) 0,677
0! 1! 2!Xx
p x e e e− − −
=
= + + =∑ 
 43 
 
 
6) Usando a aproximação da distribuição Binomial com a distribuição de Poisson, resolva: a 
probabilidade de erro de bit em um sistema de comunicação é de 10−3. Encontre a probabilidade de um 
bloco de 1.000 bits ter 5 ou mais bits em erro. 
 
Solução 
 
Neste caso temos um típico exemplo onde a distribuição Binomial parece ser aplicável, pois queremos 
encontrar a probabilidade de ocorrência de um determinado número de sucessos (erros de bit), x, em 
um número n de eventos de Bernoulli. Entretanto, no cálculo com a distribuição Binomial há o 
coeficiente binomial que requer que n! seja determinado. Neste exercício, como n = 1.000, o cálculo 
exato seria impraticável. Em situações como esta podemos aproximar a distribuição Binomial pela 
distribuição de Poisson, quando, adicionalmente, p tem valor pequeno. 
 
Para calcularmos P[X ≥ 5] torna-se mais fácil calcular 1 – P[X < 5]: 
 
 
 
O parâmetro α é, neste caso, o número médio de bits em erro em um bloco de 1.000 bits. Portanto, α = 
np = 1.000×10−3 = 1. Então, 
 
 
 
7) O tempo de vida X de uma máquina tem distribuição exponencial. Determine a FDC e a FDP 
condicionadas ao evento A = {X > t}, ou seja, a máquina ainda se encontra em funcionamento no 
instante t. 
 
Solução parcial no Slide 44. Dica para encontrar o intervalo de interseção: ver notas da aula 17. 
Para a solução deste problema precisamos lembrar, do Capítulo 1, que: P[A|B] = P[A,B]/P[B] = 
P[A∩B]/P[B]. Assim podemos escrever: 
 
[ ] [ ]{ },{ } { } { }( | ) [ | ] [ ] [ ]X
P X x X t P X x X t
F x X t P X x X t
P X t P X t
≤ > ≤ ∩ >
> = ≤ > = =
> >
 
 
Para determinarmos a interseção contida na expressão acima vamos utilizar a figura a seguir, de onde 
percebemos que não haverá interseção enquanto x ≤ t. Então, [ ]{ } { }P X x X t≤ ∩ > = 0 para x ≤ t. Para 
x > t temos que calcular P[t < X < x] = FX(x) – FX(t). Então teremos: 
 
0,
( | ) ( ) ( )
,
1 ( )
X X X
X
x t
F x X t F x F t
x t
F t
≤

> = − >
−
 
 44 
 
 
 
Finalmente, derivando a FDC encontraremos a FDP de X: 
 
( )1 ( )( ) ( ) ( ) ( )
1 ( ) 1 ( )
X
X X X X
X X
d d f xf x F x F x F t
dx F t dx F t
= = − =
− −
 para x > t e fX(x) = 0 em caso contrário. 
 
 
8) Usando o resultado do exercício anterior, estime de forma aproximada a probabilidade de o tempo 
de vida da máquina estar entre 2,5 a 3 unidades de tempo, conhecendo ou não se conhecendo o dado 
adicional: a máquina está em funcionamento em t = 2. 
 
Solução 
 
A seguir temos as FDPs e FDCs referentes ao problema. Ambas foram plotadas de acordo com a 
distribuição exponencial em sua versão original e em sua versão condicionada, de acordo com o 
exercício anterior. Podemos calcular P[2,5 ≤ X ≤ 3] pela área sob as FDPs ou por meio da subtração 
dos valores das FDCs nos pontos 3 e 2,5, como ilustrado nas figuras. 
 
 
Curiosamente P[2,5 ≤ X ≤ 3 | X > 2] é maior que P[2,5 ≤ X ≤ 3]. Este resultado nos diz que o fato de 
conhecermos a situação de funcionamento da máquina no instante t = 2 eleva a expectativa de que a 
máquina esteja funcionando entre 2,5 e 3 unidades de tempo. 
 
Por outro lado, se estivéssemos interessados na probabilidade da máquina estar funcionando num 
intervalo de 0,5 unidades de tempo após o instante 0 e após o instante 2, tendo notado que a máquina 
ainda não apresentou falha até o instante 2, chegaríamos aos mesmos resultados. 
 
 45 
Estes exemplos nos mostram que uma v.a. com distribuição Exponencial não tem memória sobre as 
ocorrências do passado, ou seja, enquanto o evento de interesse não ocorrer, a probabilidade de 
ocorrência futura deste evento é a mesma que aquela que seria calculada considerando-se o instante 0 
como referência. Por esta razão a v.a. com distribuição Exponencial é dita sem memória. Perceba que 
temos a mesma denominação dada á variável com distribuição Geométrica, o que faz sentido, pois 
podemos dizer que a Geométrica é a versão discreta da Exponencial. 
 
Outros exercícios para casa 
 
1) Estude o Exemplo 1.12 na página 15 da apostila e, por indução, a partir dos resultados P[k = 0], P[k 
= 1], P[k = 2] e P[k = 3], comprove a validade da expressão para a função densidade de probabilidade 
da distribuição Binomial apresentada no slide 23 do Capítulo 2. 
 
2) Sabendo que a estatura dos alunos do Inatel segue uma distribuição Gaussiana de média 1,65 m e 
desvio padrão de 0,1 m, determine a probabilidade de um estudante escolhido aleatoriamente ter 
estatura maior ou igual a 1,90 m. 
 
3) Esboce, utilizando uma FDP Gaussiana fX(x), os significados dos cálculos realizados pelas funções 
erfc(u), Φ(u) e Q(u) em termos de área sob fX(x). 
 
 
 
4) Dada a FDP conjunta abaixo, onde X e Y são v.a. contínuas independentes, determine fX(x). Dica: 
para resolver a integral que faz parte da solução do problema, reescreva-a utilizando a última diretiva 
do Apêndice A.5 da apostila, página 236. 
 
2 2
2 2
1 ( ) ( )( , ) exp
2 2
X Y
XY
x yf x y µ µ
piσ σ
 − + −
= − 
 
 
 
5) Duas linhas de produção fabricam certo tipo de peça. A capacidade de produção em qualquer dia é 
de 5 peças na linha I e de 3 peças na linha II. O número de peças realmente produzido em cada dia 
pelas duas linhas é uma v.a., onde (X,Y) representa o número de peças produzidas pela linha I e pela 
linha II, conjuntamente. A tabela a seguir fornece a distribuição de probabilidades conjunta de (X,Y). 
Calcule as probabilidades marginais e esboce as correspondentes FMPs. 
 
 
 
A título de curiosidade, veja como ficaria a FMP conjunta para o problema em questão: 
 
 46 
 
 
6) As v.a. X e Y têm FDP conjunta dada pela expressão a seguir. Pede-se: a) determine as FDPs 
marginais de X e de Y. b) com base nos resultados obtidos, responda: as v.a. em questão são 
independentes? Justifique. Dica: utilize como auxílio a 4ª diretiva de integrais indefinidas do Apêndice 
A.4 da apostila, página 235. 
 
( )
, 0, 0( , )
0, caso contrário
x y
XY
e x yf x y
λ µλµ − + ≥ ≥
= 

 
 
7) Seja X uma v.a Gaussiana com FDP dada pela expressão abaixo. Pede-se: a) determine a FDP de Y = 
aX + b. b) a partir do resultado obtido, determine µY e σY por comparação com a expressão de fX(x). 
 
2
2
1 ( )( ) exp
22
X
X
XX
xf x µ
σpiσ
 −
= − 
 
 
 
8) As variáveis aleatórias R e Θ têm a FDP conjunta dada a seguir. Utilizando as relações entre as 
variáveis X, Y, R e Θ também dadas abaixo, determine a FDP conjunta de X e Y, pede-se: a) determine 
as FDPs marginais de X e de Y. b) responda: X e Y são ou não são v.a. independentes? Justifique. 
 
2
2 2( , ) exp2 2R
r rf r θ
piσ σΘ
 
= − 
 
 ( )2 2 arctan / cosR X Y Y X X R= + Θ = = Θ 
 
9) Seja X uma v.a. Gaussiana com FDP dada pela expressão abaixo e seja Y = (X – µ)/σ. Mostre que 
fY(y) é uma v.a. Gaussiana de média 0 e desvio padrão 1. 
 
2
22
1 ( )( ) exp
22
X
xf x µ
σpiσ
 −
= − 
 
 
 
10) Para melhor fixar os conceitos, refaça os exemplos da apostila e dos slides, referentes aos assuntos 
estudados no Capítulo 2. 
 
FIM DA AULA 
 
 47 
 
Aula nº Data Tema Médias estatísticas - 1 
Conteúdo 
Médias Estatísticas de Variáveis Aleatórias: média de variáveis aleatórias 
discretas e contínuas, média de funções de variáveis aleatórias, média da soma e 
do produto de variáveis aleatórias, momentos. 
Objetivos 
Ao final da aula os alunos deverão ser capazes de: 1) conceituar o significado de 
média de uma v.a. discreta ou contínua. 2) calcular a média para v.a. discretasou 
contínuas. 3) calcular a média da soma e do produto de v.a. discretas ou contínuas. 
4) calcular os momentos de ordem n de uma v.a. discreta ou contínua. 5) 
interpretar os momentos de 1ª e 2ª ordens para v.a. de tensão ou de corrente. 6) 
aplicar os conceitos acima em cálculos de probabilidade. 
 
 
Conceito de média de uma variável aleatória 
 
A importância deste conceito reside no fato de que um determinado experimento aleatório não permite 
que conheçamos um resultado futuro qualquer, mas, se conhecemos algum comportamento de 
tendência média referente a este experimento é melhor que não conhecer nada. Em outras palavras, 
fenômenos aleatórios não permitem que tenhamos conhecimento preciso sobre um valor futuro, mas, 
felizmente, permite que tenhamos um conhecimento sobre seu comportamento médio. 
 
Seja uma v.a. X que pode assumir K valores x1, ..., xK. Suponha que o experimento foi repetido N vezes, 
sendo m1, ..., mK o número de tentativas favoráveis aos resultados x1, ..., xK, respectivamente. Então o 
valor médio de X é dado por: 
 
( ) 1 21 1 2 2 1 21 KK K Km m mX m x m x m x x x xN N N N= + + + = + + +⋯ ⋯ 
 
No limite, quando N → ∞, mi
 
/N tende à probabilidade de ocorrer xi. Portanto tem-se: 
 
1
( )
K
i X i
i
X x p x
=
= ∑ 
 
O valor médio de uma v.a. é muitas vezes denominado de valor esperado e é representado pelo 
operador E[X], onde se lê: média de X, valor esperado de X, ou ainda esperança de X. A letra grega 
µµµµ (mu) também é muito utilizada para identificar a média de uma variável aleatória. A média indica, em 
grande parte dos casos, a região da FDP ou da FMP com valores mais prováveis para a v.a. em questão. 
Excluem-se desta interpretação as variáveis aleatórias com distribuição uniforme e outras cuja 
densidade ou a função massa de probabilidade não sejam maiores em torno da média. 
 
Exemplo – Usando o histograma a seguir, estime o valor médio da v.a. Binomial X com parâmetros n = 
10 e p = 0,2. Compare com o cálculo exato de E[X], lembrando que a FMP Binomial é dada por: 
 
( ) (1 )x n xX
n
p x p p
x
−
 
= − 
 
 
 
 48 
 
 
Realizando o cálculo aproximado teremos: 
 
0 11.000 1 27.000 2 31.000 3 20.0001[ ]
4 8.000 5 2.500 6 200 0 0 0 0100.000
[ ] 1,947
E X
E X
× + × + × + × 
≅  + × + × + × + + + + 
≅
 
 
Realizando o cálculo exato a partir da FMP Binominal teremos: 
 
10 10
10
0 0
10[ ] ( ) 0,2 0,8 2x x
x x
E X xp x x
x
−
= =
 
= = = 
 
∑ ∑ 
 
Como conclusão, observamos que o cálculo por meio do histograma se aproximou muito do 
cálculo exato da média da v.a. Binomial em questão. 
 
 
Exemplo – Sendo x1 correspondente ao valor 1 da v.a. Binomial, ou seja x1 = 1, calcule a probabilidade 
P[X = x1] e compare com o valor m1/N estimado a partir do histograma do exemplo anterior. 
 
Realizando o cálculo aproximado pela definição de probabilidade por freqüência relativa, 
teremos: 
 
27.000[ 1] 0,27
100.000
P X = ≅ = . 
 
Realizando o cálculo exato a partir da FMP Binomial teremos: 
 
1 10 110[ 1] 0,2 0,8 0,268
1
P X − = = = 
 
 
 
Mais uma vez observamos a similaridade entre os resultados obtidos por meio do cálculo 
aproximado e do cálculo teórico. 
 
 
 
 49 
Média de uma variável aleatória discreta e de uma função de uma v.a. discreta 
 
Os exemplos anteriores são, nitidamente, exemplos associados a v.a. discretas. Então podemos 
formalizar os resultados obtidos afirmando que a média de uma v.a. discreta qualquer pode ser 
calculada por: 
 
1
[ ] ( )
K
i X i
i
X E X x p x
=
= = ∑ 
 
Se a variável em questão é função de uma outra variável, ou seja, se Y = g(X), á média é calculada por 
meio de: 
 
 
Média de uma variável aleatória contínua e de uma função de uma v.a. contínua 
 
 
 
 
[ ] ( )XX E X x f x
∞
−∞
= = ∫ 
 
Se a variável em questão é função de uma outra variável, ou seja, se Y = g(X), á média é calculada por 
meio de: 
 
x 
 
 
Exemplo – Calcular a média de uma v.a. contínua com distribuição Uniforme entre –q/2+µ e +q/2+µ. 
 
 
 
 
 
 
Média da soma de variáveis aleatórias 
 
A média da soma de variáveis aleatórias é igual à soma das médias individuais. Para duas v.a. teremos: 
 
 50 
[ ] [ ] [ ]E X Y E X E Y+ = +
 
 
Exemplo – Sejam dois conjuntos de blocos de madeira. A altura dos blocos do primeiro conjunto é uma 
v.a. X e a altura dos blocos do segundo conjunto é uma v.a. Y, cujas médias são E[X] e E[Y]. Suponha 
agora que colocamos, um a um, os blocos do segundo conjunto sobre os blocos do primeiro. A altura 
dos blocos compostos será uma v.a. Z = X + Y, cuja média será, obviamente, E[Z] = E[X + Y] = E[X] + 
E[Y]. 
 
 
Média do produto de variáveis aleatórias independentes 
 
Se as v.a. são independentes, a média do produto destas variáveis é igual ao produto das médias 
individuais. Para duas variáveis teremos: 
 
[ ] [ ] [ ]E XY E X E Y=
 
 
Exemplo – Suponha que o seguinte jogo seja inventado: lança-se uma moeda 3 vezes por rodada, 
definindo-se a v.a. X como sendo o número de caras obtido a cada rodada. Os possíveis valores desta 
v.a. serão xi = 0, 1, 2 e 3. Faz-se a mesma coisa com outra moeda, agora associada à v.a. Y. Ganha o 
jogo quem acertar o número de caras do evento combinado W = XY. Para aumentar suas chances de 
ganhar você poderia apostar no valor E[XY]. Então vejamos: calcule este valor para: a) moedas justas e 
b) moedas com probabilidade de cara p = 0,4. c) interprete os resultados e a influência da probabilidade 
de cara ou coroa de cada moeda na sua aposta. 
 
Nitidamente as v.a. em questão são independentes, pois o lance de uma moeda não influencia o 
lance da outra. Então, E[XY] = E[X]E[Y]. Adicionalmente, percebemos que cada v.a. conta o 
número de sucessos (caras) em n = 3 experimentos de Bernoulli. Portanto, X e Y são v.a. 
Binomiais. Assim teremos: 
 
a) 
 
 
Obviamente E[Y] terá o mesmo valor. Então E[W] = E[X]E[Y] = 2,25 
 
 
b) 
 
 
Para este caso, [W] = E[X]E[Y] = 1,44 
 
 51 
c) Observe que os valores das médias individuais e da média de W não são números inteiros, ou 
seja, neste caso as médias não representam os valores mais prováveis, dado que não é possível 
que o número de caras seja 1.5, 2.25, 1.2 ou 1.44. 
 
Para uma análise mais aprofundada, em sendo independentes os eventos em questão, a 
densidade de probabilidade conjunta é o produto das densidades individuais. Para o problema 
teremos o produto de duas Binomiais com n = 3 e p = 0,5 para o item “a” e n = 3 e p = 0,4 para 
o item “b”. A seguir têm-se as distribuições de probabilidade pXY(x,y), para x = 0, 1, 2 e 3 e y = 
0, 1, 2 e 3. Observe que para p = 0,5 os valores mais prováveis são 1 e 2, tanto para X quanto 
para Y. Portanto, apostar nos resultados 1, 2 ou 4 para o produto você teria a mesma chance de 
ganhar. Observe agora que para p = 0,4 os valores mais prováveis são 1 para X e para Y. 
Portanto, apostar no resultado 1 para o produto aumentará sua chance de ganhar. 
 
 
 
p = 0,5 p = 0,4 
 
 
 
Como complemento, veja as correspondentes FMPs. As barras de maior amplitude (em 
vermelho) indicam os valores mais prováveis para o experimento. 
 
p = 0,5 p = 0,4 
 
 
 
Momentos para uma variável aleatória 
 
A média de uma v.a. não tem somente o significado estudado até aqui. Se modificarmos uma v.a., por 
exemplo elevando-a a um expoente inteiro, definimos um outro tipo de média cujo significado físico 
dependerá da natureza da v.a. em questão. Médias calculadas desta maneira são genericamente 
 52 
denominadas de momentos. Mais adiante veremos alguns significados físicos de interesse para o nosso

Outros materiais