Buscar

PROBABILIDADE E ESTATÍSTICA 2015

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 34 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 34 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 34 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

21
1 NOÇÕES DE PROBABILIDADE E ESTATÍSTICA 2
1.1 TEOREMAS DA PROBABILIDADE............................................................................................6
1.1.1 PROBABILIDADE DE OCORRÊNCIA DE DOIS EVENTOS SUCESSIVOS............................6
1.1.2 PROBABILIDADE DE OCORRÊNCIA OU DO EVENTO OU DO EVENTO.............................7
1.2 MEDIDAS E ERROS....................................................................................................................8
1.3 MÉTODOS DE CONTAGEM......................................................................................................11
1.4 O PASSEIO ALEATÓRIO: DISTRIBUIÇÃO BINOMIAL...........................................................13
1.4.1 VALOR MÉDIO DE..................................................................................................................15
1.4.2 DESVIO MÉDIO DE................................................................................................................15
1.5 DISTRIBUIÇÃO NORMAL OU GAUSSIANA............................................................................16
1.5.1 APROXIMAÇÃO NORMAL DA DISTRIBUIÇÃO BINOMIAL...................................................20
1.6 DISTRIBUIÇÃO DE POISSON..................................................................................................21
1.7 DISTRIBUIÇÕES DISCRETAS E CONTÍNUAS........................................................................23
1.8 EXERCÍCIOS RESOLVIDOS.....................................................................................................23
SUMÁRIOSUMÁRIO
21
1 NOÇÕES DE PROBABILIDADE E ESTATÍSTICA
A estatística tem muitas aplicações em física pois a descrição da natureza pode ser expressa
em termos de probabilidades. Na mecânica quântica pode ser empregada para resolver um sistema
simples, como por exemplo, o átomo de hidrogênio. Neste caso, o princípio da incerteza de
Heinsenberg não permite que se conheça com precisão absoluta a posição e o momentum do elétron.
A solução da equação de Schrödinger permite descobrir regiões em que a probabilidade do elétron
se encontrar é mais alta, o que corresponde aos orbitais semiclássicos. Mas a probabilidade de o
elétron encontrar-se nas regiões inter-orbitais e no núcleo não é nula! O conceito de probabilidade é
intrínseco da mecânica quântica e não pode ser eliminado com o uso de ferramentas computacionais
mais potentes ou aparatos experimentais mais precisos. 
A teoria das probabilidades também se faz necessária para trabalhar com sistemas que
contenham um grande número de partículas, que é o caso da mecânica estatística. Usa-se conceito
de probabilidade porque busca-se estudar um número muito grande de partículas que interagem por
meio de forças que costumam ser descritas por um grande número de equações diferenciais
acopladas. Soma-se a isso o fato de a determinação das condições iniciais a que estão sujeitas as
equações estarem limitadas à precisão experimental e chega-se a um problema formidável que não
pode ser resolvido do ponto de vista prático, nem com o computador mais potente que o ser humano
tenha inventado. O conceito de probabilidade é usado por uma razão puramente prática, pois, do
ponto de vista da mecânica clássica, as interações inter-partículas são completamente
determinísticas. 
Observe-se, nos dois parágrafos acima, a natureza diferente do conceito de probabilidade
nessas duas áreas da física. Neste capítulo, vamos discutir algumas ideias básicas sobre
probabilidade.
Se num experimento há resultados distintos igualmente prováveis (ou seja, não há razão pra
esperar que um resultado ocorra em detrimento a outro), mutuamente excludentes (ou seja, a
ocorrência de um resultado exclui a ocorrência de outro) e coletivamente exaustivos (ou seja, todos
os resultados devem ser considerados); então a probabilidade de ocorrência de um evento é dada
pela relação:
. 
em que, Ni é o número de vezes que se observa o evento i dentre N ensaios.
 A frequência relativa do evento Ni é escrita como 
21
, (1.1) 
Em mecânica estatística o universo amostral compreende uma quantidade de partículas, da
ordem do número de Avogrado. Assim, sem perda de generalização, pode-se fazer a aproximação
em que o N ≈ 1023 ≈ ∞, de maneira que frequência relativa e probabilidade podem ser tomados
como sinônimos.
Uma vez que ocorre necessariamente um qualquer evento i, então, a soma de vezes que cada
evento i ocorre, é igual ao número total de ensaios:
NN
n
i
i =∑
=1
, (1.2)
Por outro lado, o resultado de qualquer ensaio, deve ser um evento i, de maneira que a soma
das probabilidades de cada um dos eventos deve ser igual à unidade. Esta é a condição de
normalização da probabilidade:
11
111
=== ∑∑∑
===
N
i
i
N
i
i
N
i
i NNN
Np . (1.3)
Nota-se que o valor da probabilidade encontra-se definida no intervalo [0, 1]. Ela também
pode ser normalizada a 100, ficando definida no intervalo [0, 100%]. 
Define-se um ensemble (do francês: conjunto) por um conjunto de sistemas idênticos entre si
e que apresentam o mesmo tipo de comportamento. Historicamente, optou-se por não se traduzir
esta palavra para que não fosse confundida com a definição dada pela teoria de conjuntos.
Frequentemente, é conveniente listar todos os resultados que podem ser obtidos de um
experimento. Todos os possíveis resultados distintos e mutuamente excludentes de ocorrência de um
evento constituem o chamado espaço amostral. 
Exemplo 1.1a: 
Um dado possui seis faces e seu espaço amostral de um dado é {1 2 3 4 5 6}. O ensemble
correspondente consiste em seis dados, cada um com uma face voltada para cima. Supondo que o
dado seja honesto, a probabilidade de que, em um lançamento de um dado, ocorra uma determinada
face para cima é 
6
1
==
N
Np ii . 
Exemplo 1.1b:
O jogo de general é um jogo de azar e necessita de cinco dados hexaédricos, que vamos
21
supor serem todos honestos. Uma jogada consiste em arremessar sobre a mesa, normalmente a
partir de um copo, os cinco dados e observar suas faces superiores. Cada combinação de resultados
tem um determinado valor e vence o jogo quem somar o maior número de pontos. Vamos utilizar a
teoria das probabilidades sobre o jogo.
O arremesso pode ser feito de forma simultânea, que é a mais comum, ou um dado de cada
vez. O conjunto dos 5 valores das faces superiores do dado constituem uma mão. As diferentes
combinações possíveis para uma mão, são:
(1 1 1 1 1), (1 1 1 1 2), (1 1 1 1 3), (1 1 1 1 4), (1 1 1 1 5), (1 1 1 1 6),
(1 1 1 2 1), (1 1 1 2 2), (1 1 1 2 3), (1 1 1 2 4), (1 1 1 2 5), (1 1 1 2 6),
(1 1 1 3 1), (1 1 1 3 2), (1 1 1 3 3), (1 1 1 3 4), (1 1 1 3 5), (1 1 1 3 6),
...
(6 6 6 6 1), (6 6 6 6 2), (6 6 6 6 3), (6 6 6 6 4), (6 6 6 6 5), (6 6 6 6 6).
O conjunto de todas as configurações acima é o ensemble do jogo de general. Uma mão
deve necessariamente apresentar uma destas configurações. Como são 5 dados em 6 posições
distintas, pode-se verificar que o número de mãos possíveis é igual a 6 x 6 x 6 x 6 x 6 = 65 = 7776.
A probabilidade que cada uma dessas configurações seja obtida em um lance é de
410286,1
7776
1
−×===
N
Np ii .
Neste jogo, a mão que vale mais pontos consiste nas cinco faces superiores dos dados
apresentarem o mesmo número de pintas, chamada de general. Existem seis possibilidades:
(1 1 1 1 1), (2 2 2 2 2), (3 3 3 3 3), (4 4 4 4 4), (5 5 5 5 5), (6 6 6 6 6 ).
A probabilidadede que em um arremesso uma dessas configurações seja obtida é
410716,7
7776
6
−×===
N
Np ii . 
A segunda jogada mais valiosa é aquela em que quatro faces apresentam um mesmo número
de pintas enquanto a quinta face apresenta outro número, chamada de pôquer. Existem 30
possibilidades:
(1 1 1 1 2), (1 1 1 1 3), (1 1 1 1 4), (1 1 1 1 5), (1 1 1 1 6),
(2 2 2 2 1), (2 2 2 2 3), (2 2 2 2 4), (2 2 2 2 5), (2 2 2 2 6),
(3 3 3 3 1), (3 3 3 3 2), (3 3 3 3 4), (3 3 3 3 5), (3 3 3 3 6), 
(4 4 4 4 1), (4 4 4 4 2), (4 4 4 4 3), (4 4 4 4 5), (4 4 4 4 6), 
(5 5 5 5 1), (5 5 5 5 2), (5 5 5 5 3), (5 5 5 5 4), (5 5 5 5 6),
(6 6 6 6 1), (6 6 6 6 2), (6 6 6 6 3), (6 6 6 6 4), (6 6 6 6 5).
21
A probabilidade de que em um arremesso uma dessas configurações seja obtida é
310858,3
7776
30
−×===
N
Np ii . Como esta jogada tem uma probabilidade maior de ocorrência, ela
termina por valer um número menor de pontos do que quando todas as faces superiores são iguais.
Raciocínio semelhante pode ser estendido para as outras possibilidades de combinações de cada
mão.
Os dados considerados no exemplo anterior foram supostos serem honestos, ou seja, cada
uma das faces tem a mesma probabilidade de ocorrência, a saber, 1/6. Esta suposição é razoável
quando não se conhece o dado, ou seja, sua geometria e distribuição de densidade são
indeterminadas para o jogador. Poderia acontecer de, após um grande número de jogadas, verificar-
se que uma das faces tem uma probabilidade maior ou menor de ocorrência. Isso mostra que o
centro de gravidade do dado deve estar deslocado de seu centro geométrico. Define-se por
probabilidade a priori aquela que é assumida frente ao desconhecimento das probabilidades reais de
cada um dos eventos do sistema. Após serem feitas medidas sobre o sistema e estabelecer-se o
conjunto das reais probabilidades de ocorrência de cada evento tem-se o que se chama de
probabilidade a posteriori.
Define-se como variável aleatória como uma grandeza física que pode assumir um
valor qualquer durante uma observação experimental. Pode-se também empregar o termo
estocástico para definir um processo que é baseado em variáveis aleatórias. 
Uma variável aleatória pode ser discreta (como o número de pintas para cima exibido pelo
dado após o lançamento) ou contínua (como a velocidade de uma molécula de ar na atmosfera).
Exemplo 1.2:
Consideremos uma reunião social em que estejam presentes 16 pessoas, representadas na figura
abaixo. Meninos e meninas vestem roupas de cores diferentes. O ensemble desse sistema é
composto pelo conjunto de variáveis (sexo, cor de roupa) do grupo nas suas mais variadas
combinações.
21
Figura 1.1: Espaço amostral de um grupo de pessoas
A probabilidade de que se escolha ao acaso uma pessoa do ensemble e que seja um menino,
qualquer que seja a cor de roupa que estiver vestindo, é dada por 
16
8)( =meninop .
Se considerarmos o evento de sortearmos uma pessoa de cor verde, independentemente do
sexo, a probabilidade de ocorrência é: 
16
3) verderoupa( =p .
Por outro lado, a probabilidade de escolhermos uma pessoa vestindo roupa amarela é:
0
16
0)amarela roupa( ==p , pois ninguém está usando esta cor.
Assim, podemos definir os casos limites de probabilidade:
* Se 0=iN → 0
0
==
N
pi → Nenhum membro possui a propriedade.
* Se NNi = → 1== N
Npi → Todos os membros têm a mesma propriedade.
1.1 TEOREMAS DA PROBABILIDADE
1.1.1 PROBABILIDADE DE OCORRÊNCIA DE DOIS EVENTOS SUCESSIVOS
Vamos considerar dois eventos que ocorram sucessivamente, i e j. Sejam: pi a probabilidade
de i acontecer, pij a probabilidade dos dois eventos acontecerem e pji a probabilidade de ocorrência
do evento j tendo ocorrido o evento i , então
. (eventos não independentes) (1.4)
Mas se a ocorrência dos eventos i e j são independentes,
. (eventos independentes) (1.5)
21
Exemplo 1.3: 
Uma caixa contém 7 bolas azuis e 4 bolas amarelas.
Qual é a probabilidade de que a primeira bola retirada seja azul e a segunda amarela, sem
devolver a primeira bola à caixa?
Qual a probabilidade de que a primeira bola retirada seja azul e a segunda amarela,
devolvendo a primeira bola à caixa?
1.1.2 PROBABILIDADE DE OCORRÊNCIA OU DO EVENTO i OU DO EVENTO j
A Figura 1.2, chamado de diagrama de Venn, apresenta o conjunto de valores possíveis para
os eventos i e j. A região de intersecção ij corresponde aos acontecimentos i e j. Analisando a Figura
1.2, podemos observar que a probabilidade de que j ou j dada por:
. (eventos não mutuamente excludentes)
(1.6)
O termo pij foi subtraído da probabilidade, para não ser contado duas vezes na soma.
Figura 1.2: Diagrama para espaço amostral.
Figura 1.3: Diagrama para espaço amostral.
Se o diagrama de espaço amostral é do tipo da Figura 1.3, dizemos que os eventos i e j são
mutuamente excludentes e
21
. (eventos mutuamente excludentes) (1.7)
Esta expressão matemática também pode ser utilizada como a definição de dois eventos que
são independentes do ponto de vista estatístico.
Exemplo 1.4:
Uma carta é extraída de um baralho comum de 52 cartas, ou seja, quatro naipes de treze
cartas cada.
Qual a probabilidade de a carta ser um 5 de ouro ou um 4 de copas?
Eventos mutuamente excludentes : 
Qual a probabilidade de a carta ser um 5 ou uma carta de paus?
Eventos não mutuamente excludentes: 
 
1.2 MEDIDAS E ERROS
Quando realizamos uma medida precisamos estabelecer a confiança que o valor encontrado
para a medida representa. Por mais cuidadosa que seja a medição e por mais preciso e acurado que
seja o instrumento, não é possível realizar uma medida direta perfeita; sempre existe uma incerteza
ou desvio ao se comparar uma quantidade de uma dada grandeza física com sua unidade. Podemos
ter erros sistemáticos que ocorrem quando há falhas no método empregado, defeito dos
instrumentos, etc... e erros acidentais que ocorrem quando há imperícia do operador, erro de leitura
em uma escala, erro que se comete na avaliação da menor divisão da escala utilizada, etc... Sempre
que uma grandeza medida experimentalmente for apresentada, deve-se adotar um valor que melhor
represente a grandeza e uma margem de erro dentro da qual deve estar compreendido o valor
verdadeiro. 
O erro experimental (ou incerteza, ou desvio) é a diferença entre o valor medido e o valor
verdadeiro (convencional) de uma grandeza física. Então, o erro ou desvio absoluto de uma medida
é dado por
. (1.8)
21
Portanto, o valor medido mais provável será: .
Podemos ainda calcular o erro ou desvio relativo:
 ou . (1.9)
Quando é realizada uma única medida, o desvio é considerado a menor divisão da escala do
instrumento, no caso de um instrumento que não permita avaliar (ou o fabricante do mesmo não
informar) o valor da incerteza. Por exemplo, num cronômetro de relógio de pulso, pode-se assumir
o erro como sendo 0,01 s. Já no caso de uma possível avaliação do algarismo duvidoso, a incerteza
estimada será adotada como a metade da menor divisão da escala do instrumento de medida. No
caso de uma régua milimetrada, por exemplo, esse desvio é 0,05 cm. Uma única medida seria
representada como: d = 3,82 ± 0,05 cm. 
Define-se precisão como a capacidade de um instrumento de medida de, numa série de
medidas idênticas, repetir os valores apresentados dentro de uma determinada faixa. Portanto,
quando o conjunto de medidas realizadas se afasta muito da média, a medida é pouco precisae o
conjunto de valores medidos tem alta dispersão. Quando as medidas estão mais concentradas em
torno da média diz-se que a precisão da medida é alta, e os valores medidos têm uma distribuição de
baixa dispersão. A acurácia está associada à ausência de erros sistemáticos, mantendo as medidas
em torno do valor real. 
Supondo que um equipamento de medida não possua vícios ou erros de calibração, podemos
assumir que os erros tendam a desviar aleatoriamente as medidas feitas. Se forem realizadas muitas
medições, uma boa estimativa para o valor correto da grandeza será a média aritmética dos valores
medidos. Para uma variável discreta, a média (ou valor esperado) é definida por:
. (1.10)
Mas, o valor médio de uma grandeza também pode ser calculado levando-se em
consideração a probabilidade de cada valor medido. Usando-se a definição de probabilidade,
definida na seção 1 para uma variável aleatória x, podemos definir seu valor médio como:
∑
=
=
N
i
ii xpx
1
. (1.11)
Pode-se determinar a probabilidade de um determinado evento através de dois modos
distintos, que, para efeitos de clareza, serão definidos a partir de exemplos em jogos de azar. Mais
tarde, relacionaremos a eles a hipótese ergódica.
Média temporal: um mesmo dado é lançado N vezes em condições similares e determina-se
a cada lançamento o número de pintas mostradas na face superior.
21
Média de ensemble: são considerados N dados idênticos lançados simultaneamente em
condições similares e, após o lançamento, determina-se o número de pintas mostradas na face
superior de cada um dos dados.
Ao serem realizadas várias medições da mesma grandeza nas mesmas condições, a
incidência de erros aleatórios faz com que os valores medidos estejam distribuídos em torno da
média. O valor médio do afastamento dos valores medidos com relação à média é dado pelo desvio
médio que é nulo:
,
sendo , e .
Isto acontece devido aos afastamentos positivos e negativos. Por outro lado, esta medida do
afastamento dos valores medidos com relação à média pode ser dado pelo desvio quadrático médio
ou variância, definido por
. (1.12)
 
A dispersão do conjunto de medidas realizadas também pode ser caracterizada através do
desvio padrão, definido como
. (1.13)
Conjuntos de medidas com desvio padrão baixo são mais precisas do que quando o desvio
padrão é alto.
Exemplo 1.5:
Qual é o valor médio dos possíveis resultados de um dado ideal e o seu desvio padrão?
ou
21
1.3 MÉTODOS DE CONTAGEM
Princípio fundamental da contagem: Se uma coisa pode ser feita de N1 maneiras, e, depois,
uma segunda coisa pode ser feita de N2 maneiras, as duas coisas podem ser feitas em sucessão nesta
ordem em N1N2 maneiras. Isto pode ser estendido ao ato de fazer qualquer número de coisas uma
após a outra, a primeira de N1 maneiras, a segunda de N2 maneiras, a terceira de N3 maneiras, etc.
Então o número total de maneiras de fazer uma sucessão de atos é o produto N1N2N3 … .
Agora vamos considerar um conjunto de n coisas alinhadas. 
De quantos modos distintos podemos arranjá-las (permutá-las)?
Este resultado é chamado de número de permutações de n em n coisas ao mesmo tempo, e é
denotado por P(n,n).
Vamos supor que temos n pessoas enfileiras para vestir n uniformes. Nós podemos colocar
qualquer uniforme na primeira pessoa, ou seja, temos n possibilidades de vestir a primeira pessoa.
Uma vez que já selecionamos um uniforme para a primeira pessoa, sobraram (n - 1) possibilidades
de escolha do uniforme para a segunda pessoa; (n - 2) escolhas para a terceira pessoa, e assim
sucessivamente. 
número de modos distintos de vestir a primeira pessoa
número de modos distintos de vestir a segunda pessoa
número de modos distintos de vestir a terceira pessoa
. .
. .
. .
número de modos de vestir a última pessoa
Então, pelo princípio fundamental da contagem, há modos de
arranjar n uniformes em n pessoas. O número de permutações de n em n coisas ao mesmo tempo, é 
. (1.14)
Vamos agora supor que há n uniformes, mas somente r < n pessoas e queremos saber
quantas maneiras podemos selecionar grupos de r uniformes e, então, vesti-los em r pessoas. O
resultado é chamado de número de permutações de n em r coisas ao mesmo tempo, e é denotado
por P(n,r).
número de modos distintos de vestir a primeira pessoa
número de modos distintos de vestir a segunda pessoa
número de modos distintos de vestir a terceira pessoa
. .
21
. .
. .
número de modos de vestir a última pessoa
Então, o número de permutações de n em r coisas ao mesmo tempo, é 
. (1.15)
Até então, falamos de arranjar as coisas em uma ordem definida. Vamos supor, agora, que
queremos selecionar r uniformes que podem ser escolhidos de um grupo de n uniformes ( ). A
ordem dos uniformes escolhidos não importa, e chamamos os r uniformes que podem ser escolhidos
de um grupo de n uniformes como número de combinações ou seleções de n em r coisas ao mesmo
tempo, e denotamos por C(n,r). Podemos pensar no problema anterior da seleção n uniformes, para
r pessoas, pensando que podemos selecionar os r uniformes de C(n,r) maneiras, e, depois, distribuí-
los (arranjá-los) para as r pessoas de P(r,r) maneiras. Então,
,
, (1.16)
O número de combinações igual é ao coeficiente binomial .
Exemplo 1.6:
Em um determinado curso de graduação estudam 30 alunos. A direção da faculdade quer
formar um grupo de cinco alunos para realizar um intercâmbio no exterior. Quantos possíveis
grupos podem ser formados?
Pretende-se escolher um aluno para ir aos Estados Unidos, um para Portugal, um para Espanha, um
para Itália e um para a Austrália. De quantas maneiras o grupo de alunos pode ser escolhido?
1.4 O PASSEIO ALEATÓRIO: DISTRIBUIÇÃO BINOMIAL
O passeio ou caminho aleatório consiste num modelo estatístico para uma sucessão de
passos aleatórios, como por exemplo, o estudo da difusão de moléculas em um fluido, ou as quedas
e altas nas bolsas de ações do mercado financeiro. No modelo mais simples, construímos um
21
caminho a partir de um determinado ponto e consideramos passos constantes até o ponto final,
sendo igualmente prováveis todas as direções aleatoriamente tomadas ao longo do caminho.
Para demonstrar sua formulação matemática, vamos considerar o problema do caminho
aleatório em uma dimensão. Vamos considerar um indivíduo que se desloca para a direita ou para a
esquerda a partir da origem. Todos os passos terão igual comprimento, l, onde por simplicidade,
começaremos a considerar o comprimento do passo igual à unidade (l = 1). A probabilidade de o
indivíduo dar um passo para a direita será p, e para a esquerda, q = 1 - p. Queremos saber qual a
probabilidade de o indivíduo, após ter dado N passos, ter um deslocamento líquido m, ou seja, estar
na posição x = nl = m.
Figura 1.4: Passeio aleatório unidimensional partindo da origem, com passos de comprimento .
Considerando que sejam dados N1 passos para a direita e N2 = N – N1 passos para a esquerda,
a probabilidade de uma determinada sequência de passos será dada por
,
e o número de sequências desse tipo é dado pelo fator combinatório (ver equação 1.16)
.
Lembrando que o fator combinatório representa um coeficiente binomial, a probabilidade de
serem dados N1 passos para a direita e N2 passos para a esquerda, num total de N passos, será dada
pela distribuição binomial
, (1.17)
Nesta equaçãovalem as relações p + q = 1 e N1 + N2 = N. Esta probabilidade já está
devidamente normalizada, pois
.
A probabilidade também pode ser escrita em termos do deslocamento líquido a partir da
origem m = N1 – N2 ,e será dada por
, (1.18)
21
Figura 1.5: Gráfico da distribuição binomial, feito no ambiente de programação Matlab®.
1.4.1 VALOR MÉDIO DE n
Com base na equação 1.11, calcularemos o valor médio de n, sendo n = N1 na equação 1.17.
,
 
,
, (1.18)
1.4.2 DESVIO MÉDIO DE n
Da equação 1.12, temos que
21
 
,
 , (1.19)
 , (1.20)
A largura relativa da distribuição pode ser calculada pela equação do desvio relativo (1.9):
. 
Para um número muito grande de passos (eventos) podemos tomar o limite:
. (1.21)
Esta é conhecida como lei dos grandes números. Ela significa que para um número muito
grande de medidas, o erro estatístico tende a zero.
1.5 DISTRIBUIÇÃO NORMAL OU GAUSSIANA
Funções do tipo f (n )={ p
n
n!≈( ne )
n} são muito sensíveis a n . Como consequência, um
desenvolvimento em série de potências de n−n̄ converge apenas numa região muito estreita. No
entanto, o intervalo de convergência pode ser substancialmente aumentado se, desenvolvermos
ln f (n ) em vez de f (n ) . Isso porque ln f (n ) varia mais lentamente com n do que a função
f (n ) .
Expandindo a função f (n ) em série de Taylor, temos
21
f (n )=f ( n̄)+f' ( n̄)( n− n̄)+ 1
2
f ''( n̄)( n− n̄)2+. .. ,
Como uma boa aproximação, a série pode ser interrompida no termo linear.
Se substituirmos f (n )=pn=elnp
n
=enlnp na expansão acima, ficamos com
f (n ) p≃ n̄+ ∂
∂ n̄
[e n̄ ln p ](n−n̄ )=pn̄ [1+( n− n̄ )ln p ] .
Para n=n+1 , fazemos a comparação do valor exato com a aproximação:
f ( n̄+1 )=p n̄+1={ p n̄ p (exato)p n̄ [1+ln p ] (aproximado )} .
Em particular, se p= 1: f ( n̄+1 )={ pn̄ . 1 (exato)p n̄ [1+0 ] (aproximado )} coincidem.
Mas, e se p <<1 ?
Fazendo ln f (n )=ln pn=n ln p , e expandindo em série, temos
ln f (n )= n̄ ln p+ ∂
∂ n̄
[ n̄ ln p ]( n− n̄)+. . .
ln f (n )≃ n̄ ln p+ ln p (n− n̄ )=n̄ ln p+n ln p−n̄ ln p
ln f (n )=n ln p .
Isto mostra que quando uma função f (n ) varia fortemente com n e faz sentido
desenvolver o logaritmo da função em vez de desenvolver a própria função.
No caso em que consideramos a distribuição binomial,
W N ( n)=
N!
n!( N−n )!
pn q N−n ,
utilizamos a aproximação de Stirling:
 ln n!=n ln n−n . (1.22)
ln W N ( n)=ln(N!n! (N−n)! pn qN−n)=N ln N−N−n ln n+n−(N−n )ln (N−n)+(N−n)
+n ln p+(N−n) ln q .
Podemos substiuir a expressão acima na expansão em série do logaritmo natural:
ln W N (n)=ln W N (n)+[ ddn ln W N (n)]n(n−n)
1
2! [ d
2
dn2
lnW N (n)]
n
(n−n)2+ 1
3! [ d
3
dn3
ln W N (n)]
n
(n−n)3 ...
.
As derivadas da expansão resultam em
d
dn
lnW N (n )=−ln n+ ln(N−n )+ ln p−ln q ,
21
[ ddn ln W N (n)]n=n=−ln n+ ln(N−n)+ln p−ln q
=
n=Np
− ln Np+ln(N−Np)+ln p−ln q
=−ln N−ln p+ln [N (1−p)]+ ln p−ln q
=
q=1−p
−ln N +ln N + ln q−ln q=0
Com este resultado, vemos que existe um ponto estacionário para n=n .
[ d 2dn2 ln W N (n)]n=n= ddn [−ln n+ ln(N−n)+ln p−ln q]n
= [−1n− 1N−n ]n=−1n− 1N−n=− 1Np− 1N (1−p)=− 1Np− 1Nq
=− p+q
Npq
= −1
Npq
=− 1
Δn2
<0
Como a derivada segunda é negativa, vemos que existe um máximo que ocorre em n=n .
O termo de derivada terceira pode ser desprezado, pois envolve potências mais elevadas das
probabilidades p e q, que consideramos como sendo números muito pequenos.
Então,
ln W N ( n)≈ln W N ( n̄)+0+
1
2 [− 1Npq ]( n− n̄ )2=ln W N ( n̄ )−( n−n̄ )
2
2( Δn)2 ,
W N ( n)=W N ( n̄ )exp[−( n− n̄ )22( Δn)2 ]
 DETERMINAÇÃO DO FATOR PRÉ-EXPONENCIAL W N ( n̄) :
No domínio relevante em que n ~ n̄ , a variação relativa de W N ( n) , entre n e n±1 , é
pequena. Então, podemos substituir a soma sobre n por uma integral e, como qualquer distribuição
de probabilidades deve ser normalizada a 1, temos:
1=∑
n= 0
N
W N ( n)≈∫
0
N
dx W N ( x )≈∫
−∞
∞
dxW N ( x ) ,
1=W N ( n̄ )∫
−∞
∞
dxexp [−(n−n̄ )22(Δn )2 ]=W N ( n̄ )Δn√2π .
Então,
21
W N ( n̄)=
1
Δn√2π
. (1.23)
Logo
W N ( n)=
1
Δn√2π
exp[−(n−n̄ )22(Δn)2 ] . (1.24)
Vamos, agora, voltar ao caso do passeio aleatório unidimensional. Após n passos de mesmo
comprimento l , a posição atingida é: x . Matematicamente,
x=nl .
Da mesma forma, temos para a média:
x̄= n̄ l
O desvio padrão da distância percorrida é equivalente a
σ≡Δx=Δnl
Se considerarmos que os passos tem tamanho muito pequeno, então, a distância percorrida
passa a ser uma variável contínua. Assim, definimos densidade de probabilidade P (x ) , tal que,
P (x )dx=probabilidade de encontrar a grandeza aleatória x entre xe x+dx
A transformação da variável x de discreta para contínua equivale a considerar que o
intervalo dx seja muito maior que l , dx >> l , ou seja, dxx
>>1 . A comparação entre elas é
mostrada na Figura 1.6.
Figura 1.6: Comparação entre os tamanhos de dx e l .
Assim, temos:
P (x )dx= ∑
n ' em dx
W N (n ' )=
dx
l
W N (n)
= dx
l
1
Δn √2π
exp[−(n−n̄ )22 (Δn)2 ] .
No caso contínuo, ficamos com a chamada distribuição gaussiana ou normal:
p ( x )= 1
σ √2π
exp [−( x− x̄ )22σ2 ] . (1.25)
21
A distribuição gaussiana está adequadamente normalizada:
∫
−∞
∞
p( x )dx=1 . (1.26)
Figura 1.7: Gráfico que mostra a distribuição normal sendo uma gaussiana. 
1.5.1 APROXIMAÇÃO NORMAL DA DISTRIBUIÇÃO BINOMIAL
No passeio aleatório, x
 
é restrito aos valores discretos x=nl , enquanto que a distribuição
gaussiana é contínua. Na figura 1.8 mostramos sobrepostas as duas distribuições. É fácil observar
que para um número muito grande de passos, as duas distribuições coincidem.
Figura 1.8: Aproximação normal para a distribuição binomial. Gráfico feito no software Matlab
21
1.6 DISTRIBUIÇÃO DE POISSON
Consideremos distribuição binomial,
W N ( n)=
N!
n!( N−n )!
pn q N−n ,
em que
n= número de vezes que ocorre determinado evento
N= número total de tentativas
p= probabilidade de ocorrência do evento (de sucesso )
1− p= probabilidade de não ocorrência do evento
Na situação em que N for grande, p for pequeno e que n << N a distribuição distribuição
binomial é aproximada por uma expressão simples chamada distribuição de Poisson. Consideremos
o fator associado às possíveis permutações na definição da distribuição binomial:
N!
(N−n) !
=
N (N−1)(N−2 )(N−3 ). ..( N−n ) !
(N−n )!
,
Como é N grande, todos os termos (N – 1), (N – 2), ... são, aproximadamente iguais a N.
Então,
N!
(N−n) !
N≃ n .
O fator contendo as probabilidades pode ser escrito na seguinte forma:
(1− p)N−n=(1− p )N (1− p )−n .
Do teorema binomial temos que
(1−x )±n=1∓ nx
1!
+
n (n−1) x2
2 !
∓. . . .
Portanto,
(1− p)N=1−Np+ N ( N−1) p
2
2
−. . . e (1− p)−n=1 +np+ n( n−1 ) p
2
2
+. .. .
Como, n << N , p <<1 , em primeira aproximação, chegamos a
(1− p)N≃1−Np ,
(1− p)−n≃1 +np≃1 ,
(1− p)N−n=(1− p )N (1− p )−n≃(1−Np)⋅1=1−Np .
A expansão em série de potências para uma exponencial é
e−ax=1−ax+ (ax )
2
2 !
−
(ax )3
3 !
+. . . ,
que, em aproximação de primeira ordem, fica e−ax≃1−ax .
21
Aplicando parao nosso caso,
e−Np≃1−Np .
Por fim, podemos chegar a uma forma aproximada da distribuição:
W N ( n)=
N!
n!
pn (1−Np )= N!
n!
pn e−Np .
Definimos λ≡n=Np , que pode ser pensado como a frequência de ocorrências de um
determinado evento. Portanto,
N= λ
p
⇒N n=( λp )
n
,
Chegamos na distribuição de Poisson:
W N ( n)=
λn
n!
e−λ . (1.27)
1. 7 EXERCÍCIOS RESOLVIDOS
Exercício 1.1: 
Uma carta é extraída de um baralho comum de 52 cartas. Qual a probabilidade de a carta ser
a) um ás?
p (A)=p(A ouro )+p( A espada )+p( A copas)+p(A paus )= 1
52
+ 1
52
+ 1
52
+ 1
52
= 4
52
= 1
13
b) um valete de copas?
p ( J copas )= 1
52
c) um 3 de paus ou um 6 de ouro (mutuamente excludentes)?
p (3 paus ou 6 ouro)= 1
52
+ 1
52
= 1
26
d) uma carta de copas?
21
p (copas )=1
4
e) qualquer naipe exceto copas?
p' (copas )=1− p(copas )=1- 1
4
=3
4
f) um 10 ou uma carta de espadas (não são mutuamente excludentes)?
p (10 ou espadas)=p(10 )+p (espadas)− p(10espadas)= 1
13
+ 1
4
− 1
52
=4
3
g) não ser um 4 ou uma carta de paus?
p' ( 4 paus )=1− p( 4 paus )=1- [ p (4 )+p (paus ) -p( 4paus )]=1−[ 113 + 14− 152 ]= 913
Exercício 1.2: 
Uma moeda é lançada várias vezes para cima, a fim de se analisar a face que cai virada para
cima.
a) Qual a probabilidade de que, em 3 lançamentos de uma moeda, todas sejam “cara”?
p= 1
2
⋅1
2
⋅1
2
=( 12 )
3
=1
8
b) Qual a probabilidade de que resulte “cara” em 10 lançamentos?
p= 1
2
⋅1
2
⋅.. .⋅1
2
=( 12 )
10
c) Qual a probabilidade de, ao menos, uma “coroa” em 10 lançamentos?
p= 1
2
−( 12 )
10
≃0,999 . .. .
 
Figura 1.9: Resultados possíveis para 10 lançamentos de uma moda.
Exercício 1.3: 
21
Para o problema do caminha aleatório, supõe que p=q= 1
2
 e N=3 . As possibilidades de
serem dados passos para a direita são n1=3, 2, 1, 0 , para os correspondentes deslocamentos
m=3, 1 ,−1,−3 . Calcula as probabilidades associadas a cada deslocamento.
De acordo com a equação 1.18, temos
W N (m)=
N!
( N+m2 )! ( N−m2 )!
p
N+m
2 q
N−m
2 .
Substituindo os valores fornecidos,
W 3(m=3)=
3 !
( 3+32 )!( 3−32 )!
( 12 )
3
( 12 )
0
=1
8
=0,125 ou 12,5% ,
W 3(m=1 )=
3 !
( 3+12 )!( 3−12 )!
(12 )
2
( 12 )
1
=3
8
=0,375 ou 37,5% ,
W 3(m=−1 )=
3 !
( 3+(−1)2 )! ( 3−(−1 )2 )!
( 12 )
1
( 12 )
2
= 3
8
=0,375 ou 37,5% ,
W 3(m=−3 )=
3 !
( 3+(−3 )2 )!( 3−(−3)2 )!
( 12 )
0
( 12 )
3
=1
8
=0,125 ou 12,5% .
Exercício 1.4: 
Encontra a probabilidade de se obter entre 3 e 6 caras, inclusive, em 10 lançamentos de uma
moeda honesta, usando 
a) a distribuição normal;
b) a aproximação normal para a distribuição binomial.
a) A equação binomial é dada por W N ( n)=
N!
n!( N−n )!
pn q N−n . 
Resolvendo para cada caso do lançamento da moeda:
W 10( 3)=
10 !
3! 7 ! ( 12 )
3
( 12 )
7
=60
512
W 10( 4 )=
10 !
4 !6 ! ( 12 )
4
( 12 )
6
=105
512
W 10(5 )=
10 !
5! 5! ( 12 )
5
( 12 )
5
=126
512
21
W 10(6 )=
10 !
6 ! 4 ! ( 12 )
6
( 12 )
4
=105
512
p=W 10(3 )+W 10(4 )+W 10(5 )+W 10(6)=
60+150+126+105
512
=396
512
=0,7734375
b) A aproximação normal p ( x )= 1
σ √2π
exp [−( x− x̄ )22σ2 ] fica 
p (2,5≤ x≤6,5)=∫
2,5
6,5
1
σ √2π
exp [−( x− x̄ )22σ2 ]dx
sendo σ=Δnl; Δn=√Npq ; l=1⇒σ=√Npq=√10⋅12⋅12=1,58 , e x̄ =Np=10⋅12=5 , então
p (2,5≤ x≤6,5)= 1
1,58√2π ∫2,5
6,5
exp[−( x−5)22⋅2,5 ]dx= 0,771686
Exercício 1.5: 
O número de partículas emitidas a cada minuto por uma fonte radioativa é registrado por um
período de 10 horas; um total de 3000 contagens são registradas. Encontra a probabilidade de se
obterem 3 contagens por minuto.
Para sabermos quantas contagens são registradas por minuto, ou seja, a frequência de
contagens, fazemos uma regra de três,
600min=10 h→3000 contagens
1min→ λ
, 
ou seja, obtemos uma frequência de 5contagens /min . Como o total é de 3000 contagens, ou seja,
N é grande, podemos utilizar a distribuição de Poisson (equação 1.27) para resolver este
problema.
W N ( n)=
λn
n!
e−λ
W 3000(3 )=
53
3!
e−5≃0,14=14
Exercício 1.6: 
Uma central telefônica recebe uma média de 5 chamadas por minuto. Qual a probabilidade
de ela não receber nenhuma chamada durante um intervalo de 1 minuto?
W N ( n)=
λn
n!
e−λ
W 3000(3 )=
50
0 !
e−5=0,0067=0,67
21
Exercício 1.7: 
Uma grande empresa faz uso de milhares de lâmpadas elétricas que permanecem acessas
continuamente. A vida de uma lâmpada pode ser considerada como uma variável aleatória normal
com vida média de 50 dias e desvio-padrão de 15 dias. Se no dia 1° de agosto foram instaladas 8000
lâmpadas novas, aproximadamente quantas deverão ser substituídas no dia 1° de setembro?
f ( x )=∫ 1σ √2π exp [−( x− x̄ )
2
2σ2 ] dx 
f (0<x<31)=∫
0
31
1
15√2π
exp[−( x−50 )22⋅152 ]dx= 0,102208=10 ,22
0,102208×8000=817 lâmpadas
Exercício 1.8: 
Um sistema de segurança consiste em 4 alarmes (idênticos) de alta pressão, com
probabilidade de sucesso p= 0,8 (cada um). 
a) Qual a probabilidade de se ter exatamente 3 alarmes soando quando a pressão atingir o valor
limite?
b) Qual a probabilidade de se ter pelo menos 3 alarmes soando?
a) W N ( n)=
N!
n!( N−n )!
pn q N−n
W 4(3)=
4!
3 !1 !
0,830,21=0,4096
b) p (n≥3)=W 4(3 )+W 4(4 )
W 4(4 )=
4 !
4 ! 0!
0,84 0,20=0,4096
p (n≥3)=0,4096+0,4096=0,8192
Exercício 1.9: 
Qual a probabilidade de fazer pelo menos seis pontos numa jogada de três dados? 
Há 10 resultados em que a soma é menor que 6.
Número de combinações: 63=216
Resultados favoráveis: 216−10=206
 
p= 206
216
=0,9537=95 ,37
DADOS
SOMA 1 2 3
3 1 1 1
4 1 2 1
4 1 1 2
4 2 1 1
5 1 2 2
5 2 1 2
5 2 2 1
5 3 1 1
5 1 3 1
5 1 1 3
21
Exercício 1.10: 
Para um baralho de cartas embaralhado aleatoriamente, quais são as probabilidades:
a) de tirar um sete;
b) de tirar uma carta do naipe de copas;
c) de tirar um sete de copas;
a) p= 1
52
+ 1
52
+ 1
52
+ 1
52
= 4
52
= 1
13
 
b) p= 1
52
⋅13= 1
4
 
c) p= 1
52
Exercício 1.11: 
Quinze rapazes vão fazer trilha nas montanhas. Cinco deles se perdem, oito ficam queima-
dos do sol, e seis retornam para casa sem nenhum problema. Qual é a probabilidade de que um ra-
paz queimado pelo sol se perca?
p (perder )= 5
15
p (sol)= 8
15
p (casa)= 6
15
p (perder,sol )= 5
15
⋅ 8
15
= 8
45
Exercício 1.12: 
Uma urna contém 7 bolas vermelhas, 4 bolas brancas e 5 bolas azuis. Se três bolas são reti-
radas sucessivamente (cada uma sendo posta para dentro novamente antes da próxima ser retirada).
Qual é a probabilidade de a primeira bola ser vermelha, a segunda branca e a terceira azul? 
p (vermelha )= 7
16
p (branca )= 4
16
21
p (azul)= 5
16
p= 7
16
⋅ 4
16
⋅ 5
16
=0,034
Exercício 1.13: 
Três moedas indistinguíveis são lançadas. Encontre a probabilidade de termos:
a) nenhuma “cara”;
b) ao menos uma “cara”.
a) p (coroa)=1
2
⋅1
2
⋅1
2
=1
8
b) p (coroa)=1−1
8
=7
8
 
Figura 1.11: Resultados possívei para o lançamento de três moedas.
Exercício 1.15: 
Dois dados não viciados, um preto e outro branco, são jogados aleatoriamente. Represente-
mos o resultado das jogadas por (p, b), onde p é o número do dado preto (na face para cima, após
imobilizado o dado) e b, o número do dado branco. Calcula as probabilidades de dar:
a) p ≤ 2 e b ≥ 5;
b) p + b = 7;
c) p = b.
a) p ( p≤2 )⇒ p ( p=1 ) ou p ( p= 2 )=16
+ 1
6
=2
6
p (b≥5 )⇒ p (b=5 ) ou p( b=6 )=1
6
+ 1
6
=2
6
p= 2
6
⋅2
6
=1
9
b) p+b= 7
p b
1 6 1/6 1/6
2 5 1/6 1/6
3 4 1/6 1/6
4 3 1/6 1/6
5 2 1/6 1/6
6 1 1/6 1/6
p= 6⋅( 16 )
2
=1
6
21
c) p=b
p b
1 1 1/6 1/6
2 2 1/6 1/6
3 3 1/6 1/6
4 4 1/6 1/6
5 5 1/6 1/6
6 6 1/6 1/6
p= 6⋅( 16 )
2
=1
6
Exercício 1.16: 
As faces de um dado viciado apresentam a seguinte distribuição de probabilidades em cada
lançamento: p1=
1
12
, p2=
2
12
, p3=
2
12
, p4=
2
12
, p5=
2
12
, p6=
3
12
. Calcula a probabilidade
de, em dois lançamentos, a soma das faces dar 7. 
1 2
1 6 p=1/12 3/12
2 5 p=2/12 2/12
3 4 p=2/12 2/12
4 3 p=2/12 2/12
5 2 p=2/12 2/12
6 1 p=3/12 1/12
p=( 3122 + 4122 + 4122 + 4122 + 4122 + 3122 )=1172
Exercício 1.17: 
Se 1000 pessoas selecionam um número entre 1 e 500, qual é a probabilidade de 3 pessoas
selecionarem o número 29?
W N ( n)=
N!
n!( N−n ) !
pnq N−n
W 1000(3 )=
1000 !
3! 997! ( 1500 )
3
(499500 )
997
≃0,18
ou
W N ( n)=
λn
n!
e−λ
 
n= 3, λ=Np= 1000⋅ 1
500
=2
W 1000(3 )=
23
3!
e−2≃0,18
Exercício 1.17: 
21
Dois bêbados começam a caminhar sobre uma linha reta, a partir da origem, dando passos de
mesmo comprimento para a direita ou para a esquerda, com a mesma probabilidade. Supõe que os
passos dos dois sejam simultâneos. Acha a probabilidade de que eles se encontrem novamente de-
pois de dar N passos. 
W N (m)=
N!
( N+m2 )!( N−m2 )!
p
N+m
2 q
N−m
2
W 2N(m)=
(2N )!
(2N +m2 )!(2N−m2 )!
p
2N +m
2 q
2N−m
2
Se p=q= 1
2
, m=0 ,
Então,
W 2N(0 )=
( 2N) !
(2N +m2 )!(2N2 )!
p
2N
2 q
2N
2 =
(2N ) !
N!N! ( 12 )
N
( 12 )
N
=
( 2N )!
(N! )2 ( 12 )
2N
.
Exercício 1.18: 
Um metal é evaporado em vácuo a partir de um filamento aquecido. Os átomos de metal re-
sultantes incidem sobre uma placa de quartzo que se encontra a alguma distância e formam um
filme metálico fino. Esta placa de quartzo é mantida a baixa temperatura de modo que qualquer áto-
mo de metal incidente sobre ela cola-se no lugar do impacto sem migração adicional. Pode-se supor
que os átomos de metal têm a mesma probabilidade de atingir qualquer elemento de área da placa.
Quando se considera um elemento de área do substrato de tamanho b2 (onde b é o diâmetro do áto-
mo de metal), o número de átomos de metal empilhados nesta área deve distribuir-se de acordo com
uma distribuição de Poisson. Supõe que a quantidade de metal evaporada é suficiente para formar
um filme de espessura média correspondente a 6 camadas atômicas. Que fração da área do substrato
não é coberta por nenhum átomo? Que fração é coberta, respectivamente, por camadas metálicas de
três átomos de espessura e de 6 átomos de espessura?
W N ( n)=
λn
n!
e−λ
 
λ=Np= 6
 
é o número médio de camadas atômicas
Fração de metal não coberta por nenhuma camada atômica:
W N (0 )=
60
0 !
e−6=0,0025
Fração de metal não coberta por 3 camadas atômicas:
21
W N (3 )=
63
3!
e−6=0,089
Fração de metal não coberta por 6 camadas atômicas:
W N (6 )=
66
6 !
e−6=0,161
Exercício 1.19: 
A probabilidade de um arqueiro acertar o alvo é 1/3. Se ele lança a flecha 5 vezes, qual é a
probabilidade de ele acertar o alvo pelo menos 3 vezes?
W 5( x≥3)=W 5(3)+W 5( 4 )+W 5(5 )
W N ( n)=
N!
n!( N−n ) !
pnq N−n
W 5(3)=
5 !
3 ! 2 ! ( 13 )
3
( 23 )
2
=0,165
W 5(4 )=
5!
4! 1! ( 13 )
4
( 23 )
1
=0,041
W 5(5)=
5 !
5 !0 ! ( 13 )
5
( 23 )
0
=0,004
W 5( x≥3)=0,165+0,041+0,004=0,21
Exercício 1.20: 
A probabilidade de uma pessoa ser atingida por uma descarga atmosférica é de aproximada-
mente 2 x 10-6. Utilizando a distribuição de Poisson, calcula a probabilidade de que, em uma cidade
com população de 1 milhão de habitantes,
a) nenhuma pessoa seja atingida por um raio;
b) uma pessoa seja atingida por um raio;
c) duas pessoas sejam atingidas por um raio;
d) três pessoas sejam atingidas por um raio;
e) dez pessoas sejam atingidas por um raio.
W N ( n)=
λn
n!
e−λ
 
λ=Np= 1×106×2×10−6=2
a) W N (0 )=
20
0 !
e−2=0,14
b) W N (1)=
21
1 !
e−2=0,27
21
c) W N (2 )=
22
2 !
e−2=0,27
d) W N (3 )=
23
3!
e−2=0,18
e) W N (10 )=
210
10 !
e−2=3,82×10−5
Exercício 1.21: 
Dada a seguinte função de densidade de probabilidade, denominada distribuição Gaussiana
ou normal:
f ( x )= 1
σ √2π
exp [− x22σ2 ] , −∞<x<∞ ,
calcula o valor médio de x e a variância.
x̄=
∫
−∞
∞
xf ( x )dx
∫
−∞
∞
f ( x )dx
∫
−∞
∞
f ( x )dx=∫
−∞
∞ 1
σ √2π
exp [− x22σ2 ] dx= 1σ √2π⋅2⋅∫0
∞ 1
σ √2π
exp [− x22σ2 ] dx= 1σ √2π⋅2⋅12⋅√ π12σ2
∫
−∞
∞
f ( x )dx=1
x̄=
∫
−∞
∞
xf ( x )dx
1 =∫−∞
∞
xf ( x )dx=∫
−∞
∞
x 1
σ √2π
exp [− x22σ2 ]dx=−
σ exp [− x22σ2 ]
√2π
∣−∞
∞ =0
σ2=x2− x2
σ2=x2−0=
∫
−∞
∞
x 2 1
σ √2π
exp[− x22σ2 ]dx
∫
−∞
∞
f ( x )dx
=
∫
−∞
∞
x2 1
σ √2π
exp [− x22σ2 ] dx
1 =
∫
−∞
∞
x2 1
σ √2π
exp[− x22σ2 ]dx= 2σ √2π∫0
∞
x2exp [− x22σ2 ]dx=
∫
−∞
∞
x2 1
σ √2π
exp[− x22σ2 ]dx= 2σ √2π∫0
∞
x2exp [− x22σ2 ]dx=
Exercício 1.22: 
As moléculas de um gás perfeito em equilíbrio apresentam distribuição de probabilidade
21
conjunta f (v x ,v y ,vz ) proporcional a exp [−m vx2+v y2+vz22 k BT ] . Normaliza a distribuição em questão.
Para trocar o termo proporcional pelo termo igual, usamos uma constante A, que deverá ser
determinada: f (v x , v y , vz)=A exp[−m v x2+v y2+v z22k B T ] .
A distribuição deve ser normalizada, portanto, ∫
−∞
∞
f ( v x ,v y ,v z )d v x dv y dv z=1
1=∫
−∞
∞
∫
−∞
∞
∫
−∞
∞
Aexp [−m v x2+v y2+v z22 k B T ]dv x dv y dv z
1
A
=∫
−∞
∞
e
−
m
2kB T
vx2
dvx∫
−∞
∞
e
−
m
2kB T
v y2
dv y∫
−∞
∞
e
−
m
2kB T
vz2
dv z
1
A
=∫
−∞
∞
dvx e
−
mv x
2
2kB T ∫
−∞
∞
dv y e
−
mv y
2
2kB T ∫
−∞
∞
dv z e
−
mv z
2
2kB T
1
A
=[2∫
0
∞
e
− m2kB T
v2
dv ]
3
=8[ 12 √ π2k B Tm ]
3
=[ 2π k B Tm ]
3
2
A=[ m2π k BT ]
3
2
f (v x , v y , vz)=[ m2π k BT ]
3
2 exp [−m v x2+v y2+v z22 k B T ]
Exercício 1.23: 
Um bêbado começa a caminhar a partir de um poste localizado no meio de um quarteirão,
dando passos de mesmo comprimento para direita ou para esquerda com igual probabilidade. Qual é
a probabilidade de que o bêbado esteja exatamente na posição do poste após dar um número N de
passos se...
a) N for par?
b) N for ímpar?
a) W N (m)=
N!
( N+m2 )! ( N−m2 )!
p
N+m
2 q
N−m
2
p=q= 1
2
, m=0 , já que o bêbado voltará à posição inicial.
21
W N (0 )=
N!
( N2 )! ( N2 )!
(12 )
N
2 ( 12 )
N
2 = N!
(( N2 )! )
2 (12 )
N
b) Se N for ímpar, é impossível ter 0=m , já que Nnm −= 2 .
Exercício 1.24: 
Assume que um datilógrafo cometa erros de maneira aleatória, dados pela distribuição de
Poisson. Supõe que um livro contenha 600 páginas e 600 erros tipográficos no total. 
Usa a distribuição de Poisson para calcular a probabilidade de que:
a) uma página não contenha erros tipográficos.
b) uma página contenha pelo menos 3 erros tipográficos.
W N ( n)=
λn
n!
e−λ
 
λ=Np= 600⋅ 1
600
=1
 
é o número médio de erros por página.
a) W N (0 )=
10
0 !
e−1=0,37
b) p= 1−W N (0 )−W N (1)−W N (2 )
W N (1)=
11
1 !
e−1=0,37
W N (2 )=
12
2 !
e−1=0,18
p= 1−0,37−0,37−0,18=0,08
Exercício 1.25: 
Uma moeda é jogada 400 vezes, num jogo de cara e coroa. Encontra a probabilidade de obter
215 caras através da aproximação gaussiana.
W (n )= 1
σ √2π
exp[−(n−n̄ )22σ2 ] , n̄=Np=400⋅12=200 , σ=Δn=√Npq=√400⋅12⋅12=10W (215)= 1
10√2π
exp [−(215−200 )22⋅102 ]=0,0129=1,29
Exercício 1.26: 
Considera as partículas α emitidas por uma fonte radioativa durante um intervalo de tempo
t . Podemos imaginar que esse intervalo de tempo possa ser dividido em vários intervalinhos de
duração δt . Como as partículas α são emitidas em instantes aleatórios, a probabilidade de uma
desintegração radioativa ocorrer no intervalinho δt é completamente independente de quaisquer
21
desintegrações ocorridas nos outros instantes.
Além disso, imagine, que δt seja escolhido de forma que seja curto o suficiente para que a
probabilidade de mais de uma desintegração ocorrer no tempo δt seja insignificante. Isso significa
que existe uma probabilidade p de que uma desintegração ocorra durante o intervalinho δt 
(com p <<1 , desde que δt seja escolhido pequeno o suficiente), e que existe uma probabilidade (
1− p ) de não ocorrer desintegração neste intervalo de tempo. Cada um dos intervalinhos δt pode
ser tomado como uma tentativa independente de decaimento durante o tempo t . A
probabilidade W (n ) de que n desintegrações ocorram no tempo t é dada por uma distribuição
de Poisson.
Supõe que uma fonte radiativa seja tão intensa que o número médio de decaimentos é tal que
ocorrem em média 24 decaimentos por minuto. Qual é a probabilidade de obtermos n contagens
num intervalo de 10 segundos? Obtém valores numéricos para todos os valores inteiros de n de 0 a
4.
W N ( n)=
λn
n!
e−λ
 
24 decaimentos → 1min = 60 s
λ→ 10 s 
λ= 4 decaimentos /s
W N (0 )=
40
0 !
e−4=0,0183=1,83
W N (1)=
41
1 !
e−4=0,0733=7,33
W N (2 )=
42
2 !
e−4=0,1465=14 ,65
W N (3 )=
43
3!
e−4=0,1954=19 ,54
W N ( 4)=
44
4 !
e−4=0,1954=19 ,54
	1 NOÇÕES DE PROBABILIDADE E ESTATÍSTICA
	1.1 TEOREMAS DA PROBABILIDADE
	1.1.1 PROBABILIDADE DE OCORRÊNCIA DE DOIS EVENTOS SUCESSIVOS
	1.1.2 PROBABILIDADE DE OCORRÊNCIA OU DO EVENTO i OU DO EVENTO j
	1.2 MEDIDAS E ERROS
	1.3 MÉTODOS DE CONTAGEM
	1.4 O PASSEIO ALEATÓRIO: DISTRIBUIÇÃO BINOMIAL
	1.4.1 VALOR MÉDIO DE n
	1.4.2 DESVIO MÉDIO DE n
	1.5 DISTRIBUIÇÃO NORMAL OU GAUSSIANA
	1.5.1 APROXIMAÇÃO NORMAL DA DISTRIBUIÇÃO BINOMIAL
	1.6 DISTRIBUIÇÃO DE POISSON
	1.7 EXERCÍCIOS RESOLVIDOS

Continue navegando