Buscar

Capitulo2

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 3, do total de 12 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 6, do total de 12 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 9, do total de 12 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Prévia do material em texto

Cap´ıtulo 2
Probabilidades
2.1 Nosso senso comum
Vamos comec¸ar explorando a noc¸a˜o cotidiana para o conceito de probabilidade. Em primeiro lugar, a
necessidade de empregar esse conceito vem da impossibilidade de prever o resultado de um determinado
experimento. Por experimento entende-se uma enorme variedade de situac¸o˜es, por exemplo podemos estar
interessados em saber se uma jogada de moeda vai ter como resultado cara ou coroa, ou se vai chover ou
na˜o no dia seguinte. O que ha´ de comum nesses exemplos? A quantidade de varia´veis necessa´rias para uma
previsa˜o exata do resultado. Tomemos o caso da moeda, em princ´ıpio podemos verificar a posic¸a˜o exata do
centro de massa dela, e calcular as forc¸as que atuara˜o sobre ela quando for jogada, assim como durante seu
movimento no ar. Se realmente pude´ssemos fazer todos esses ca´lculos, para cada jogada de cada moeda,
poder´ıamos conhecer exatamente o seu movimento, e portanto prever se o resultado seria cara ou coroa. E´
claro que isso na˜o e´ via´vel, e nem deseja´vel. Em vez disso, preferimos construir um modelo que nos permita
calcular a probabilidade de cada resultado poss´ıvel. Nesse modelo certamente entrara˜o considerac¸o˜es sobre
a distribuic¸a˜o de massa da moeda, sobre a forma com que e´ jogada e sobre o nu´mero de resultados poss´ıveis,
ou seja, devemos considerar a possibilidade da moeda cair em pe´? A esse u´ltimo passo chamamos de definir
o espac¸o de amostragem, e e´ uma etapa fundamental no ca´lculo de probabilidades. Para a moeda, em geral,
supomos dois resultados poss´ıveis e igualmente prova´veis, ja´ que cair em pe´ e´ um evento muito raro, e, em
geral, na˜o ha´ raza˜o para se supor que uma face tenha prioridade sobre a outra. Note que estamos usando
a qualificac¸a˜o evento raro de forma bastante qualitativa. Chamando de P (?) a` probabilidade do evento ?
ocorrer, obtemos enta˜o
P (cara) = P (coroa) =
1
2
. (2.1)
Como podemos comprovar experimentalmente esse modelo? Jogando a moeda. Na verdade poder´ıamos
ter determinado P (cara) e P (coroa) jogando a moeda, e aqui entra em cena outro elemento importante, o
nu´mero de vezes, N , que jogamos a moeda. Aplicando a previsa˜o do modelo sem muito cuidado, podemos
dizer que ao jogar a moeda N vezes teremos que o nu´mero de resultados cara (Ncara) seria
Ncara = P (cara)N =
N
2
= Ncoroa. (2.2)
E´ claro que se N for pequeno muitas vezes teremos resultados bem diferentes desse. A` medida que formos
aumentando o nu´mero de jogadas chegaremos cada vez mais perto de ter Ncara = Ncoroa = N/2. Se foˆssemos
determinar as probabilidades experimentalmente ter´ıamos que ter o cuidado de repetir a experieˆncia (jogar
a moeda, no caso) um grande nu´mero de vezes, e assim ter´ıamos uma definic¸a˜o experimental
P (cara) = lim
N→∞
Ncara
N
. (2.3)
Mas, quanto grande N deve ser? O maior poss´ıvel. Veremos mais tarde que a pergunta correta e´ : Que erro
estamos cometendo ao usar a definic¸a˜o (2.3) com N finito? Ou melhor, quanto o valor observado para Ncara
e´ diferente de N/2? E e´ claro, as respostas estara˜o relacionada com a precisa˜o com que estamos medindo.
24
CAPI´TULO 2. PROBABILIDADES 25
i X Y
1 cara coroa
2 cara cara
3 coroa cara
4 coroa coroa
Tabela 2.1: Resultados posss´ıveis quando duas pessoas, X e Y , jogam moedas.
Continuando com a moeda, passamos para um problema um pouquinho mais complicado. Temos duas
pessoas (X e Y ), cada uma com uma moeda. As moedas sa˜o ideˆnticas e queremos saber, por exemplo,
qual a probabilidade de que as duas pessoas obtenham cara. Nosso modelo vai precisar de mais hipo´teses.
Ja´ estabelecemos que as moedas sa˜o iguais, precisamos tambe´m dizer que as pessoas jogara˜o as moedas do
mesmo jeito, e de forma independente. Podemos resolver este problema de va´rias maneiras. Vamos primeiro
por contagem. O espac¸o de amostragem neste caso e´: Ω = {cara-cara, cara-coroa, etc. . .}, e tem 22 = 4
elementos. Se tive´ssemos N jogadores, ter´ıamos 2N elementos em Ω. Os elementos de Ω esta˜o listados na
tabela (2.1):
Qual a probabilidade de se obter duas caras? O resultado (ou evento) desejado, duas caras, aparece uma
vez em Ω. Portanto
P (duas caras) =
1
4
. (2.4)
Outra maneira de resolver: X tem probabilidade 1/2 de tirar cara, assim como Y tem probabilidade 1/2 de
tirar cara. Como sa˜o eventos independentes
P (duas caras) = PX(cara)× PY (cara) = 1
2
1
2
=
1
4
. (2.5)
E agora, qual a probabilidade das duas pessoas terem o mesmo resultado? Esse evento ocorre duas vezes,
com duas caras e duas coroas, portanto
P (iguais) =
2
4
=
1
2
, (2.6)
ou,
P (iguais) = P (duas caras) + P (duas coroas) =
1
4
+
1
4
=
1
2
. (2.7)
Uma complicac¸a˜o extra aparece se queremos calcular qual a probabilidade de sairem resultados diferentes
para X e Y . Se na˜o importa quem tira o que, enta˜o ha´ duas possibilidades e
P (diferente) =
2
4
=
1
2
X e Y sa˜o indistingu´ıveis (2.8)
Se especificamos, por exemplo, que os resultados devem ser diferentes, e X deve tirar coroa, enta˜o so´ ha´ uma
possibilidade e
P (diferente) =
1
4
X e Y sa˜o distingu´ıveis (2.9)
2.2 Definic¸o˜es. Probabilidades Conjunta e Eventos Mutuamente
Exclusivos
Usaremos aqui alguns conceitos ba´sicos de teoria de conjuntos. Comec¸amos com duas definic¸o˜es importantes
espac¸o de amostragem de um determinado experimento = o conjunto Ω com elementos tais que
qualquer resultado do experimento corresponde a um ou mais elementos de Ω.
evento = subconjunto do conjunto Ω relativo a um experimento. A probabilidade de um evento A pode
ser encontrada seguindo o seguinte procedimento:
1. Construa o espac¸o de amostragem Ω
CAPI´TULO 2. PROBABILIDADES 26
Figura 2.1: Representac¸a˜o gra´fica de um espac¸o de amostragem Ω, e dos subconjuntos relativos a eventos do
tipo A e B. Em (a) A e B sa˜o eventos mutuamente exclusivos, as regio˜es coloridas de cinza sa˜o proporcionais
a P (A) e a P (B); em (b) a parte cinza corresponde ao subconjunto A ∩B, sendo proporcional a P (A,B) =
P (A ∩B), e em (c) a a´rea cinza e´ proporcional a P (A ∪B).
2. Designe probabilidades para cada elemento de Ω. O caso mais simples e´ aquele em que Ω e´
composto por N elementos todos igualmente prova´veis, neste caso designe a probabilidade 1/N a
cada um.
3. Para obter a probabilidade P (A) de um evento A, some as probabilidades designadas a todos os
elementos do subconjunto de Ω correspondente a A, que chamamos simplesmente de conjunto A.
Fica claro que P (Ω) = 1 e P (∅) = 0.
Exemplo 2.1 Um dado e´ jogado. O resultado sera´ um inteiro de 1 a 6, ou seja Ω = {1, 2, 3, 4, 5, 6}. Cada
elemento de Ω pode ocorrer com igual probabilidade que e´ 1/6. Considere os eventos A, B e C definidos como:
A = o resultado e´ um nu´mero par
B = o resultado e´ um nu´mero maior que 2
C = o resultado e´ um nu´mero mu´ltiplo de 3
O subconjunto correspondente ao evento A e´ A = {2, 4, 6}, portanto P (A) = 3× 1/6 = 1/2. Ja´ B = {3, 4, 5, 6}
e P (B) = 4× 1/6 = 2/3. Finalmente, C = {3, 6} e P (C) = 1/3.
Podemos agora relacionar probabilidades para diferentes eventos.
• P (A ∩ B), ou P (A,B) e´ a probabilidade de que ambos eventos A e B ocorram como resultado de um
experimento. E´ chamada de probabilidade conjunta.
• P (A ∪B) e´ a probabilidade de que eventos A ou B ocorram como resultado de um experimento.
Temos assim que
P (A ∪B) = P (A) + P (B)− P (A ∩B) (2.10)
Se dois eventos sa˜o mutuamente exclusivos enta˜o
P (A ∩B) = 0 (2.11)
P (A ∪B) = P (A) + P (B) eventos mutuamente exclusivos
Exemplo 2.2 Voltando ao exemplo anterior: A ∩B = {4, 6}, portanto P (A ∩ B) = 1/3. P (A ∪ B) =
1/2 + 2/3− 1/3 = 5/6. Esse resultado poderia ser achado diretamente, ja´ que apenas o 1 fica de fora. Se agora
definimos o evento D como sendo tirar um nu´mero ı´mpar, temos que D = {1, 3, 5}, P (D) = 1/2, P (A∩D) = 0
e A e D sa˜o mutuamenteexclusivos, em outras palavras, um nu´mero na˜o pode ser par e ı´mpar ao mesmo tempo.
Se Ω = A1 ∪A2 ∪ . . .∪Am, sendo os eventos Ai mutuamente exclusivos, enta˜o os m eventos formam uma
partic¸a˜o do espac¸o de amostragem Ω em m subconjuntos. Neste caso temos
m∑
i=1
P (Ai) = 1 , (2.12)
CAPI´TULO 2. PROBABILIDADES 27
uma relac¸a˜o que usaremos bastante como condic¸a˜o de normalizac¸a˜o.
Uma das principais questo˜es de todas as ana´lises probabil´ısticas e´ a determinac¸a˜o da independeˆncia de
eventos. Dois eventos A e B sa˜o eventos independentes se e somente se
P (A,B) = P (A ∩B) = P (A)P (B) eventos independentes (2.13)
2.3 Distribuic¸o˜es
Chamamos de varia´vel estoca´stica ou aleato´ria, a varia´vel cujo valor so´ pode ser determinado atrave´s de
uma experieˆncia. Usaremos a partir de agora a seguinte notac¸a˜o: em letras maiu´sculas teremos o nome da
varia´vel (ex: X e´ resultado da jogada da moeda), e em minu´sculas, o seu valor (ex:x = 1 para cara ou x = 0
para coroa). Uma varia´vel estoca´stica X e´ uma func¸a˜o que associa um nu´mero real a cada ponto do espac¸o
de amostragem.
Varia´veis estoca´sticas discretas
Seja X uma varia´vel estoca´stica em Ω que pode tomar um nu´mero conta´vel (finito ou infinito) de valores,
ou seja, X(Ω) = {x1, x2, . . .}. Sabendo a probabilidade para cada valor xi podemos definir a distribuic¸a˜o
de probabilidade, f(xi) = P (xi) satisfazendo as seguintes condic¸o˜es
f(xi) ≥ 0 , (2.14)
e ∑
i
f(xi) = 1 , (2.15)
onde a soma e´ sobre todos os valores poss´ıveis da varia´vel X.
Exemplo 2.3 Voltemos para o exemplo do dado. X e´ o nu´mero tirado, e x1 = 1, . . . , x6 = 6. Todos os valores
tem probabilidade 1/6 de ocorrer, portanto f(xi) = 1/6. Essa distribuic¸a˜o chama-se distribuic¸a˜o uniforme .
A determinac¸a˜o de f(xi) (que em geral na˜o e´ poss´ıvel), permite o conhecimento completo de um sistema.
Em geral podemos apenas determinar alguns momentos da distribuic¸a˜o que sa˜o relacionados com observa´veis
que podem ser medidos. O n-e´simo momento de X e´ definido como
Mn = 〈Xn〉 =
∑
i
xni f(xi) . (2.16)
Alguns momentos tem nomes especiais devido a sua frequ¨ente utilizac¸a˜o
primeiro momento → M1 = 〈X〉 = me´dia ou valor esperado
segundo momento → M2 = 〈X2〉
O segundo momento em geral aparece combinado com o primeiro na forma M2 − M21 = 〈X2〉 − 〈X〉2 =
variaˆncia de X.
Varia´veis estoca´sticas cont´ınuas
Fica sem sentido falar na probabilidade de ter x como resultado se X e´ uma varia´vel cont´ınua. Neste caso
devemos definir um intervalo infinitesimal dx e definir dP (x) ≡ fX(x)dx como a probabilidade de encontrar
o resultado entre x e x + dx. Essa probabilidade depende, em princ´ıpio, de x, mas tambe´m do tamanho de
dx. Quanto maior for o intervalo considerado, maior sera´ o valor nume´rico de P (x)dx para um mesmo x.
Neste caso e´ mais significativa a definic¸a˜o de densidade de probabilidade, da seguinte forma
fX(x) =
dP (x)
dx
, (2.17)
ou seja, a func¸a˜ofX(x) define a distribuic¸a˜o da varia´vel aleato´ria X, e da´ a densidade de probabilidade
de X. Aqui estamos usando a seguinte notac¸a˜o: as letras maiu´sculas denotam as grandezas que queremos
CAPI´TULO 2. PROBABILIDADES 28
Figura 2.2: Esboc¸o de distribuic¸o˜es:(a) distribuic¸a˜o de uma varia´vel discreta e (b) de uma varia´vel cont´ıua.
estudar, e as minu´sculas o valor da grandeza. Por exemplo, X e´ a nota em f´ısica no vestibular, x e´ o valor
da nota.
Se queremos tratar de um intervalo na˜o infinitesimal, por exemplo se queremos saber qual a probabilidade
de ter x entre os valores a e b, temos
P (a ≤ x ≤ b) =
∫ b
a
fX(x)dx =
∫ b
a
dP (x) . (2.18)
A densidade de probabilidade, fX(x), e´ uma func¸a˜o cont´ınua por partes satisfazendo
fX(x) ≥ 0 (2.19)
e ∫
Ω
dP =
∫
Ω
fX(x) dx = 1. (2.20)
Os momentos ficam definidos como
Mn = 〈Xn〉 =
∫
Ω
xnfX(x)dx =
∫
Ω
xndP (x) . (2.21)
Exemplo 2.4 Um a´tomo tem um momento magne´tico ~m definido como um
vetor de comprimento m que aponta numa certa direc¸a˜o definida pelos aˆngulos
θ e φ. Se todas as direc¸o˜es de ~m sa˜o igualmente prova´veis, qual a densidade de
probabilidade associada com a componente z de ~m? Neste problema uma visa˜o
geome´trica ajuda muito. Sejam N a´tomos, se deslocamos todos os vetores ~m
de forma a que comecem todos no mesmo ponto, suas extremidades estara˜o
cobrindo de forma uniforme uma superf´ıcie esfe´rica de raio m. Temos que mz =
m cos θ. A probabilidade de que θ esteja entre θ e θ+dθ e´ igual a` a´rea do anel
de raio m e espessura dθ (= 2pi(m sin θ)mdθ), como na figura ao lado, dividida
pela a´rea total da esfera (4pim2). Ou seja, dP (θ) = f(θ)dθ = (1/2) sin θ dθ.
Mas cos θ = mz/m, logo, sin θ dθ = dmz/m e P (mz)dmz = dmz/2m.
Isso implica, que a densidade de probabilidade de ter a componente mz e´
f(mz) = 1/2m, ou seja, os valores de mz sa˜o uniformente distribuidos no
intervalo −m ≤ mz ≤ m.
Exemplo 2.5 Um sistema e´ constituido por va´rios osciladores harmoˆnicos unidimensionais, cujas posic¸o˜es sa˜o
descritas por x = A cos(ωt+φ), onde a constante de fase φ e´ uma varia´vel estoca´stica uniformemente distribuida
entre 0 e 2pi. Queremos saber qual a probabilidade de encontrar um desses osciladores entre x e x + dx.
Se as fases sa˜o uniformemente distribuidas, enta˜o fΦ(φ) = 1/2pi. No intervalo entre 0 e 2pi ha´ dois valores
de φ que geram o mesmo valor de x, portanto, dP (x) = 2dP (φ). Como dx = A sin(ωt + φ)dφ, temos que
dφ = dx/(A2 − x2)1/2, e finalmente, a probabilidade desejada e´
dP (x) = fXdx = 2dP (φ) = 2fΦdφ = 2
1
2pi
dx
(A2 − x2)1/2 → fX(x) =
1
pi(A2 − x2)1/2
CAPI´TULO 2. PROBABILIDADES 29
Ou seja, e´ mais prova´vel que encontremos os osciladores nas regio˜es pro´ximas aos extremos, onde a velocidade e´
menor.
Relac¸o˜es entre Distribuic¸o˜es
Suponha que conhecemos fX(x) mas queremos achar a densidade de probabilidade de uma outra varia´vel
estoca´stica Y = H(X) onde a func¸a˜o H(X) e´ conhecida. Neste caso temos
fY (y) =
∫
dx δ(y −H(x))fX(x) (2.22)
Exemplo 2.6 Voltamos ao exemplo do momento magne´tico. Com a informac¸a˜o sobre a distribuicao uniforme dos
aˆngulos, obtivemos fθ = sin θ/2. Queremos calcular fmz , sabendo a relac¸a˜o entre mz e θ que e´ mz = m cos θ.
Usamos (2.22):
fmz =
∫ pi
−pi
dθ δ(mz −m cos θ)1
2
sin θ
=
1
2m
∫ 1
−1
du δ(mz − u) = 1
2m
, (2.23)
onde fizemos a troca de varia´vel u = m cos θ.
2.3.1 Distribuic¸a˜o binomial
Voltamos ao problema da moeda. Queremos saber qual a probabilidade, PN (n), de se obter exatamente n
caras em N jogadas da moeda. Vamos considerar que a moeda na˜o e´ sime´trica, chamando de p a probabilidade
de obter cara em uma jogada, e q a de obter coroa. Tirar cara ou coroa sa˜o eventos mutuamente exclusivos,
portanto, p + q = 1. Vamos associar o nu´mero +1 para cara e −1 para coroa. Vamos supor que N = 4
e n = 3. Uma sequ¨eˆncia que corresponde ao evento especificado e´ {+ + −+}. A probabilidade de se
obter essa sequ¨eˆncia em particular e´ ppqp = p3q, onde usamos o fato de que o resultado de cada jogada
e´ independente dos outros, quer dizer, se tiro cara numa jogada, isso na˜o afeta o resultado das pro´ximas.
Existem outras sequ¨eˆncias que igualmente satisfazem ao evento especificado, ao todo sera˜o 4, com o − em
cada uma das quatro posic¸o˜es. Como na˜o importa a ordem das jogadas, posso tirar coroa em qualquer delas,
devemos somar as probabilidades de todas essas sequ¨eˆncias equivalentes, ou seja P4(3) = 4p
3q. Vamos agora
sistematizar esse ca´lculo. A probabilidade de uma dada sequ¨eˆncia e´ pnqN−n. Para contar o nu´mero de
sequ¨eˆncias equivalentes, imaginamos que as moedas esta˜o numeradas. Construimos uma sequ¨eˆncia qualquer
com n caras e N −n coroas. Podemos fazer N ! sequ¨eˆncias de nu´meros diferentes, independente do resultado
cara ou coroa. Designamos agora quais sera˜o carae quais sera˜o coroa (por exemplo as com numerac¸a˜o de 1
a n sera˜o cara), e apagamos os nu´meros. Todas as sequ¨eˆncias que antes eram diferentes apenas pela ordem
nume´rica entre as caras (n! no total) e coroas ((N −n)! no total) sera˜o iguais. O nu´mero final de sequ¨eˆncias
e´ enta˜o N !/n!(N −n)! Assim, a probabilidade de obter n resultados +1, ou cara, na sequ¨eˆncia de N jogadas
e´
PN (n) =
N !
n!(N − n)!p
nqN−n = Ω(N,n)pnqN−n. (2.24)
Ja´ adiantando a nomenclatura que usaremos na descric¸a˜o estat´ıstica de um sistems, dizemos que n
define o macroestado do sistema. O coeficiente do termo pnqN−n e´ chamado de multiplicidade do
macroestado definido por n, ou seja, existem Ω(N,n) microestados para cada macroestado. Os nomes
micro e macroestado indicam que do ponto de vista macrosco´pico na˜o somos capazes de distinguir uma certa
estrutura interna, microsco´pica do sistema, e que todos os estados microsco´picos que levem a um mesmo
estado macrosco´pico ficam equivalentes.
A distribuic¸a˜o binomial pode ser obtida atrave´s da expansa˜o do binoˆmio (p + q)N , basta verificar a
estrutura dos termos que aparecera˜o ao realizar-se o produto. Assim, a condic¸a˜o de normalizac¸a˜o fica
N∑
n=0
PN (n) = (p + q)
N = 1 . (2.25)
CAPI´TULO 2. PROBABILIDADES 30
Figura 2.3: Veja o modo de contar as sequ¨eˆncias equivalentes com 3 moedas. A moeda com cara foi pintada
de cinza. Ao apagar os nu´meros, restam apenas 3 sequ¨eˆncias diferentes das 6 iniciais.
Temos tambe´m que
N∑
n=0
Ω(N,n) = 2N . (2.26)
O valor me´dio de n e a variaˆncia da distribuic¸a˜o podem ser facilmente calculados usando-se as expresso˜es
(2.25) e (2.24),
〈n〉 =
N∑
n=0
nPN (n) = p
d
dp
N∑
n=0
PN (n) = p
d
dp
(p + q)N = pN (2.27)
e
〈n2〉 =
N∑
n=0
n2PN (n) =
(
p
d
dp
)2 N∑
n=0
PN (n) =
(
p
d
dp
)2
(p + q)N = pN + (pN)2 − p2N , (2.28)
levando a
σ2 = 〈n2〉 − 〈n〉2 = pN − p2N = pN − p(1− q)N = Npq . (2.29)
A grandeza realmente importante e´ o desvio relativo σ/N = (qp)1/2N−1/2, que diz que a` medida que
aumentamos N , a distribuic¸a˜o fica mais concentrada em n = 〈n〉.
Para muitos problemas descritos pela distribuic¸a˜o binomial, e´ mais significativo o nu´mero que da´ a
diferenc¸a entre as quantidades de cada tipo. Por exemplo, um movimento erra´tico ao longo de uma reta
pode ser descrito como uma sequ¨eˆncia aleato´ria de passos de tamanho ` para a direita e para a esquerda.
Em geral queremos saber qual a distaˆncia do ponto inicial depois de N passos, e na˜o quantos passos foram
dados para a direita, ou para a esquerda. Outro exemplo e´ o ordenamento magne´tico num cristal muito
anisotro´pico. Podemos considerar que, na auseˆncia de um campo magne´tico externo, o momento magne´tico
atoˆmico tenha duas orientac¸o˜es favora´veis, paralela e anti-paralela a uma determinada direc¸a˜o. Numa dada
temperatura, alguns a´tomos tera˜o um alinhamento e outros o contra´rio, desta forma, o momento magne´tico
total do cristal sera´ dado pela diferenc¸a entre o nu´mero de a´tomos alinhados em cada direc¸a˜o. Vamos enta˜o
reescrever a multiplicidade da distribuic¸a˜o binomial (2.24) como
Ω(N,m) =
N !(
N+m
2
)
!
(
N−m
2
)
!
, (2.30)
onde
m = N+ −N− = n− (N − n) = 2n−N (2.31)
e
N+ = n =
N + m
2
e N− = N − n = N −m
2
, (2.32)
sendo N+(−) o nu´mero de caras(coroas) ou de passos para a direita(esquerda), ou de momentos magne´ticos
na direc¸a˜o +(-). Neste caso, m passa a ser o ro´tulo do macroestado.
CAPI´TULO 2. PROBABILIDADES 31
Figura 2.4: PN (m) para diferentes valores de N . Na linha superior N = 40, e na inferior, N = 20. Na
coluna da esquerda p = q = 0.5, a distribuic¸a˜o e´ sime´trica com relac¸a˜o ao ponto de ma´ximo, que ocorre para
m = 〈m〉 = 0. Na coluna da direita um dos resultados e´ bem mais prova´vel, p = 0.9 e q = 0.1, levando a
uma distribuic¸a˜o assime´trica, cujo ma´ximo ocorre para m = 0.8N . Note que, para N = 40, embora m esteja
definido entre −40 e 40, a distribuic¸a˜o e´ bem concentrada em torno de m = 0.
Exemplo 2.7 Considere o caso N = 4. Podemos montar uma tabela com os 24 = 16 microestados do sistema
e classifica´-los de acordo com os ro´tulos de macroestado n ou m. O resultado e´
i a b c d n m g(4,m)
1 + + + + 4 4 1
2 + + + −
3 + + − +
4 + − + + 3 2 4
5 − + + +
6 + + − −
7 + − + −
8 + − − +
9 − + + − 2 0 6
10 − + − +
11 − − + +
12 − − − +
13 − − + − 3 −2 4
14 − + − −
15 + − − −
16 − − − − 0 −4 1
Usando a expressa˜o (2.30) podemos calcular PN (m) para diferentes valores de N . A figura ?? mostra
o comportamento de PN (m) para N = 20 e 40, para dois casos, sime´trico (p = q = 0.5) e assime´trico
(p = 0.9 e q = 0.1). Em ambos os caso, PN (m) tera´ seu valor ma´ximo quando n = 〈n〉 = Np, ou
m = 2〈n〉 − N = N(2p − 1). No caso sime´trico esse ponto aparece para m = 0, e no assime´trico para
m = 0.8N .
Exemplo 2.8 Considere um ga´s com N mole´culas num volume V0. A probabilidade p de que cada mole´cula,
individualmente, esteja num subvolume v e´ dada por p = v/V0, se supomos que as mole´culas estejam unifor-
CAPI´TULO 2. PROBABILIDADES 32
memente distribuidas. A probabilidade de que exatamente n mole´culas estejam no mesmo subvolume v,( na˜o
interessa quais n), e´ dada diretamente pela distribuic¸a˜o binomial:
PN (n) =
N !
n!(N − n)!
(
v
V0
)n (
V0 − v
V0
)N−n
.
O nu´mero me´dio 〈n〉 em v e´
〈n〉 = Nv
V0
A dispersa˜o relativa R = 〈(n− 〈n〉)2〉/〈n〉2 em v, pode ser enta˜o calculada como
R =
V0 − v
Nv
Se v � V0 R sera´ um nu´mero muito grande, indicando que medic¸o˜es do nu´mero de mole´culas dentro de v tera˜o
bastante flutuac¸a˜o. Por outro lado, se v → V0, R ≈ 0, ou seja, a me´dia sera´ bem definida.
2.3.2 Distribuic¸a˜o Gaussiana
A distribuic¸a˜o Gaussiana pode ser facilmente obtida a partir da distribuic¸a˜o binomial. A` medida que
aumentamos N , PN (n) tem valores aprecia´veis apenas nas vizinhanc¸as de seu ma´ximo, como pode ser visto
na figura 2.4. Vamos trabalhar com o log da distribuic¸a˜o, porque estaremos considerando um regime em que
ha´ grandes variac¸o˜es de probabilidade. Temos assim, a partir de (2.24)
ln PN (n) = ln N !− ln n!− ln(N − n)! + n ln p + (N − n) ln q (2.33)
Estamos sempre interessados em valores de N muito grandes, esse e´ um requisito fundamental para que a
probabilidade de se obter um resultado muito diferente da me´dia seja baixa. Nesse caso podemos usar a
aproximac¸a˜o de Stirling para os fatoriais desses nu´meros,
ln N ! =
1
2
ln 2pi +
(
N +
1
2
)
ln N −N + 1
12n
+O
(
1
n2
)
, N � 1. (2.34)
Na maioria dos casos podemos usar a aproximac¸a˜o de Stirling na forma
ln N ! = N ln N −N +O(ln N) , N � 1. (2.35)
Seja n˜ o valor mais prova´vel de n, ou seja, aquele para o qual PN (n) e´ ma´xima. Podemos escrever esse valor
como n˜ = rN , 0 < r < 1. Se p e q na˜o forem muito diferentes, perto do ma´ximo, tanto n quanto N −n sera˜o
nu´meros da ordem de N . Usamos a aproximac¸a˜o de Stirling para os fatoriais desses nu´meros, ficando com
ln PN = N ln N−N−n ln n+n−(N−n) ln(N−n)+N−n+n ln p+(N−n) ln q+O(ln n, ln(N−n)) . (2.36)
Podemos calcular a posic¸a˜o do ma´ximo para N � 1 extremizando ln PN , com isso obtemos
dln PN
dn
= − ln n˜ + ln(N − n˜) + ln p− ln q = 0 , (2.37)
dando
n˜ = pN = 〈n〉 , (2.38)
onde usamos a expressa˜o (2.27) para 〈n〉. Verificamos a concavidade:
d2ln PN
dn2
= − 1
n
− 1
N − n +O
(
1
n2
,
1
(N − n)2
)
, (2.39)
que quando n = n˜, para N grande, da´
d2ln PN
dn2
∣∣∣∣
n=n˜
= − 1
Npq
= − 1
σ2
< 0 . (2.40)
CAPI´TULO 2. PROBABILIDADES 33
Agora, expandimos a distribuic¸a˜o perto do ma´ximo. Para isso tomamos n = n˜ + �.
ln PN (n) ≈ ln PN (n˜) + � dln PN
dn
∣∣∣∣
n=n˜︸ ︷︷ ︸
0
+
1
2
�2
d2ln PN
dn2
∣∣∣∣
n=n˜︸ ︷︷ ︸
−
1
Npq
+ · · · (2.41)
Exponenciando,teremos
PN (n) = C exp
[
− (n− n˜)
2
2Npq
]
= C exp
[
− (n− 〈n〉)
2
2σ2
]
, (2.42)
onde a expressa˜o (2.29) foi usada na identificac¸a˜o de σ. Normalizamos,∫ +∞
−∞
dn C exp
[
− (n− 〈n〉)
2
2σ2
]
= 1 , (2.43)
para obter a expressa˜o final
P (n) =
1
σ
√
2pi
exp
[
− (n− 〈n〉)
2
2σ2
]
, (2.44)
ou
PN (n) =
1√
2piNpq
exp
[
− (n−Np)
2
2Npq
]
. (2.45)
Para verificar a validade da aproximac¸a˜o devemos ver os efeitos da truncagem da expansa˜o em se´rie.
Calculamos o pro´ximo termo, que envolve a terceira derivada:
d3ln PN
dn3
∣∣∣∣
n=n˜
=
q − p
N2p2q2
.
Para que a aproximac¸a˜o Gaussiana seja boa devemos ter
1
2Npq
|n− n˜|2 � |q − p|
6N2p2q2
|n− n˜|3 ,
ou seja,
|n− n˜| � 3Npq|q − p|
definindo assim a regia˜o em torno do ma´ximo onde a aproximac¸a˜o e´ va´lida. Fora desse intervalo, ou seja,
para |n − n˜| ≥ 3Npq/|q − p|, temos P ∼ exp[−9N 2p2q2/(2Npq|q − p|2)] → 0 para N → ∞, portanto a
aproximac¸a˜o e´ boa para Npq � 1.
2.3.3 Distribuic¸a˜o de Poisson
A distribuic¸a˜o de Poisson corresponde a um outro limite da distribuic¸a˜o binomial, neste caso temos um
processo em que N → ∞, mas p → 0, tal que o produto Np e´ finito, ou seja Np = a � N . Novamente
olhamos para a distribuicao binomial (2.24) na regia˜o de ma´ximo, onde n ≈ Np � N . Novamente usamos
a aproximac¸a˜ode Stirling para os fatoriais dos nu´meros grandes, agora na forma
N ! ≈
√
2piN NN exp
[
−N + 1
12N
+O
(
1
N2
)]
. (2.46)
N !
(N − n)! ≈
√
N√
N − n
(N/e)N
(N − n)/e)N−n ≈ N
n
Para p → 0, (1− p)N−n ≈ (1− p)a/p → e−a, onde usamos ez = limn→∞[1 + (z/n)]n. Combinando tudo,
PN (n) =
ane−a
n!
. (2.47)
CAPI´TULO 2. PROBABILIDADES 34
2.4 O limite N →∞
Os dois resultados abaixo sa˜o especialmente importantes porque lidam com o comportamento de distri-
buic¸o˜es como as que vamos considerar na f´ısica estat´ıstica, e porque nos ensinam como tratar resultados
experimentais, obtidos com um nu´mero finito de realizac¸o˜es. As demonstrac¸o˜es envolvem diversos conceitos
mais avanc¸ados de distribuic¸o˜es, por isso na˜o entraremos nesses detalhes, que podem ser vistos, por exemplo,
em [7].
Teorema do valor central
Quando realizamos uma medida, podemos verificar que, se estamos trabalhando com o instrumento correto,
encontraremos resultados diferentes ao repetir o processo de medic¸a˜o. Logo nos vem a` cabec¸a associar a
me´dia dos resultados encontrados com o valor da medida. Mas, se realizamos um outro conjunto de medidas
equivalente ao primeiro (ou seja, com o mesmo instrumento, mesmo procedimento e mesmo nu´mero de
repetic¸o˜es), encontramos outro valor me´dio. Afinal, qual e´ o valor da medida? O teorema do valor central
vem exatamente resolver essa questa˜o, ele nos diz como essas me´dias esta˜o distribuidas em torno do valor
verdadeiro da medida, que e´ inating´ıvel. Sejam X a grandeza que queremos medir e Y o seu valor me´dio
resultante de N medic¸o˜es.
yN =
x1 + x2 + · · ·+ xN
N
. (2.48)
X e´ uma varia´vel estoca´stica, e consequ¨entemente Y e Y − 〈X〉 tambe´m sa˜o. Note a diferenc¸a entre o valor
verdadeiro, proveniente de infinitas medic¸o˜es, 〈X〉, e a me´dia dos N valores medidos, Y . Seja fX a func¸a˜o
distribuic¸a˜o para X, e σ2X = 〈X2〉 − 〈X〉2. Se fX vai a zero rapidamente quando |x − 〈X〉| → ∞ (na˜o
importando a sua forma), o teorema do limite central diz que a densidade de probabilidade para Y − 〈X〉 e´
fY (yN − 〈X〉) = 1
σY
√(
N
2pi
)
exp
[−(yN − 〈X〉)2
2σ2Y
]
. (2.49)
Vemos assim, que independente da forma de fX(x), fY (yN ) tem a forma gaussiana, e´ centrada em 〈X〉 e tem
largura σY = σX/
√
N . Com isso conclu´ımos que, mesmo sendo imposs´ıvel realizar os infinitos experimentos,
quanto mais vezes realizamos a medic¸a˜o, mais a me´dia resultante se aproximara´ do valor real da grandeza
que estamos medindo.
Lei dos nu´meros grandes
Este tambe´m e´ um resultado que diz respeito a um grande nu´mero de experimentos. A lei pode ser enunciada
como :
Se um evento A tem a probabilidade p de ocorrer, enta˜o a frac¸a˜o de resultados A tende a p quando N →∞.
Bibliografia
[1] H. B. Callen. Thermodynamics and an Introduction to Thermostatistics. John Wiley & Sons, 1985.
[2] H. Moyse´s Nussenzveig. Curso de F´ısica Ba´sica 1 - Mecaˆnica. Edgard Blu¨cher, 1983.
[3] H. Moyse´s Nussenzveig. Curso de F´ısica Ba´sica 2 - Flu´ıdos, Oscilac¸o˜es e Ondas, Calor. Edgard Blu¨cher,
2002.
[4] E. A. Jackson. Perspectives of nonlinear dynamics, volume 1. Cambridge, 1989.
[5] O cientista sueco Svante Arrhenius (1859-1927), ganhou o preˆmio Nobel em 1903 pela teoria da dissociac¸a˜o
dos eletro´litos. Entre outras coisas ele estudou a dependeˆncia da taxa de reac¸a˜o em func¸a˜o da temperatura
e propos a lei fenomenolo´gia que atualmente leva o seu nome. Sua formulac¸a˜o original foi em func¸a˜o da
energia de ativac¸a˜o, ou energia necessa´ria para iniciar um reac¸a˜o qu´ımica.
[6] P. Collet and J. P. Eckmann. Instabilities and Fronts in Extended Systems. Princeton University, 1990.
[7] L. E. Reichl. A Modern Course in Statistical Physics. Univertity of Texas Press, 1980.
35

Outros materiais