Buscar

FE cap1

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 19 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 19 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 19 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

3
1. Teoria das Distribuic¸o˜es da F´ısica Estat´ıstica
Esta introduc¸a˜o visa familiarizar o leitor com conceitos estat´ısticos, dis-
tribuic¸o˜es, probabilidades, etc.. Os exemplos dados podera˜o parecer em primeira
inspec¸a˜o banais, pore´m conte´m os ingredientes matema´ticos necessa´rios para se
compreender as aplicac¸o˜es f´ısicas a serem estudadas ao longo do curso. A ex-
posic¸a˜o sera´ sucinta e desprovida de rigor matema´tico. Para material de apoio
e complemento, algumas refereˆncias padra˜o sa˜o fornecidas ao final do cap´ıtulo.
O objetivo de uma teoria estat´ıstica e´ descrever comportamentos me´dios
de sistemas. Em particular, a teoria sera´ mais eficiente quando tratar de N
sistemas preparados de forma semelhante com N � 1. O tratamento estat´ıstico
e´ bastante usado em va´rios campos do conhecimento, tais como f´ısica, medicina,
sociologia, etc.. Uma teoria aplica´vel em uma variedade ta˜o grande de problemas
na˜o pode ser baseada exclusivamente em caracter´ısticas espec´ıficas dos sistemas
estudados. Veremos que algumas hipo´teses fortes sobre aspectos gene´ricos dos
problemas a serem estudados nos permitem uma grande simplificac¸a˜o e o uso
de um tratamento unificado. Os exemplos a seguir tornara˜o mais clara esta
discussa˜o:
Um problema estat´ıstico simples com o qual nos defrontamos ja´ em cursos de
matema´tica elementar e´: Jogando cara ou coroa com uma moeda N vezes, qual
a probabilidade de que obtenhamos cara n vezes (com n ≤ N )? Este problema
nos e´ familiar e sabemos trata´-lo usando a teoria de probabilidades – a qual
nada mais e´ do que a teoria estat´ıstica.
Um exemplo de um problema de f´ısica e´: Uma part´ıcula em suspensa˜o na
superf´ıcie de um l´ıquido percorre em me´dia uma distaˆncia ` entre coliso˜es com
outras part´ıculas. Apo´s N coliso˜es qual a probabilidade de que a part´ıcula em
questa˜o esteja a uma distaˆncia d do ponto inicial? A teoria estat´ıstica da´ uma
resposta.
A chave para identificarmos a semelhanc¸a entre os exemplos dados esta´ na
“complexidade” da dinaˆmica dos mesmos. De fato, mesmo o primeiro exemplo
poderia ser descrito atrave´s da mecaˆnica cla´ssica. Imagine que conheceˆssemos
as condic¸o˜es iniciais da moeda ao ser lanc¸ada com grande precisa˜o e pude´ssemos
integrar suas equac¸o˜es de movimento. Isto nos propiciaria prever se o resultado
seria cara ou coroa, pois trata-se de um problema determin´ıstico. A pra´tica
nos mostra que tal projeto e´ bastante dif´ıcil de ser executado – caso contra´rio,
algue´m ja´ estaria explorando um cassino com esta ide´ia. Por tra´s disto esta´ a
noc¸a˜o de ergodicidade, a base em que se apoia a teoria estat´ıstica. Quando um
problema e´ muito “complexo” e o resultado final varia drasticamente atrave´s
de alterac¸o˜es mı´nimas das condic¸o˜es iniciais, o problema e´ classificado como
ergo´dico e um tratamento estat´ıstico torna-se adequado. Pense que mesmo
tendo calculado o resultado do lanc¸amento da moeda para um conjunto de
condic¸o˜es iniciais, uma su´bita lufada de vento pode poˆr todo ca´lculo a perder.
O problema ergo´dico na˜o sera´ tratado neste curso, pois o tornaria demasi-
4
�
�
�
�
�
�
�
�
���
���
���
���
���
���
��
��
��
��
��
��
�
�
�
�
�
�
�
�
��
��
��
��
��
��
��
��
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
� �
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
�
��
��
��
��
l
Figure 1: Part´ıcula movendo-se sob a ac¸a˜o de centros espalhadores.
adamente longo. Voltaremos a esta discussa˜o em outras oportunidades mais a`
frente, mas sempre superficialmente. Refereˆncias bibliogra´ficas adequadas sobre
o assunto esta˜o listadas no final do cap´ıtulo. A mensagem que deve ficar e´ que
e´ frequ¨ente encontrarmos sistemas cujo comportamento e´ determin´ıstico, mas
que podem ser considerados como dando eventos completamente aleato´rios e
descorrelacionados.
O roteiro deste cap´ıtulo se inicia com uma apresentac¸a˜o dos elementos ba´sicos
da teoria estat´ıstica. Comec¸amos nossa discussa˜o com varia´veis discretas, dis-
tribuic¸a˜o binomial e o exemplo do passeio aleato´rio. Passamos enta˜o para o
limite cont´ınuo e discutimos a distribuic¸a˜o gaussiana e a distribuic¸a˜o de Pois-
son, ambas de grande relevaˆncia para f´ısica.
1.1. Elementos ba´sicos de estat´ıstica
Tomemos de uma varia´vel u que so´ possa assumir um conjunto conta´vel
(finito ou infinito) de M valores
u1, u2, · · · , uM .
Esta varia´vel e´ chamada de estoca´stica quando seu valor so´ pode ser determinado
apo´s o exame do resultado do experimento, como por exemplo no jogo de cara
ou coroa. Podemos definir P (ui), a probabilidade de um experimento dar ui.
Obviamente a func¸a˜o P (u) deve satisfazer P (u) ≥ 0 e ∑iP (ui) ≤ ∞. O valor
me´dio de u, que sera´ denotado por u, e´ dado por
u =
P (u1)u1 + · · ·+ P (uM)uM
P (u1) + · · ·+ P (uM) ou u =
∑M
i=1 P (ui)ui∑M
i=1 P (ui)
. (1)
Por convenieˆncia, em geral, as distribuic¸o˜es de probabilidade sa˜o normalizadas
u`nidade,
M∑
i=1
P (ui) = 1 . (2)
5
Assim sendo a me´dia passa a ser dada pela forma mais simples
u =
M∑
i=1
P (ui)ui . (3)
Esta definic¸a˜o e´ facilmente estendida a me´dias de func¸o˜es arbitra´rias da varia´vel
u
f(u) =
M∑
i=1
P (ui)f(ui) . (4)
Por vezes desejamos obter apenas algumas informac¸o˜es simples de uma dis-
tribuic¸a˜o, enquanto que conhecer a func¸a˜o exata que ajusta tal distribuic¸a˜o e´
uma informac¸a˜o que na˜o nos interessa. Nestes casos e´ interessante se conhecer
os primeiros momentos de uma distribuic¸a˜o, onde o n-e´simo momento e´ definido
como
un ≡
M∑
i=1
P (ui)uni . (5)
Em primeira inspec¸a˜o, poder´ıamos conjecturar que conhecendo todos os momen-
tos de uma distribuic¸a˜o, te-la-´ıamos caracterizado completamente. Infelizmente
ha´ alguns contra-exemplos que desmentem esta asserciva. Ainda assim, por
vezes o primeiro e segundo momentos de uma distribuic¸a˜o conte´m informac¸a˜o
suficiente para diversas aplicac¸o˜es f´ısicas.
O primeiro momento nada mais e´ do que a me´dia da distribuic¸a˜o, como fica
claro ao compararmos a Eq. (3) com a Eq. (5). Muito u´til tambe´m e´ a variaˆncia,
definida como o segundo momento em torno da me´dia, ou
(∆u)2 ≡ (u− u)2 =
M∑
i=1
P (ui)(ui − u)2 ≡ σ2 , (6)
onde σ e´ chamado de desvio padra˜o. Note que
(u − u)2 = u2 − 2uu+ u2 = u2 − 2uu+ u2 = u2 − u2 ,
como (∆u)2 ≥ 0, enta˜o
u2 ≥ u2 , (7)
garantindo que a variaˆncia e´ sempre positiva ou nula. E´ comum usar-se tambe´m
δu2 para denotar a variaˆncia – no que segue daremos prefereˆncia a esta u´ltima
notac¸a˜o.
A maioria dos problemas f´ısicos a serem considerados neste curso envolvem
varia´veis estoca´sticas cont´ınuas e na˜o as discretas, descritas acima. Para tratar-
mos tais problemas, os conceitos acima apresentados precisam ser estendidos.
Como acima, tambe´m quando trabalhamos com uma varia´vel estoca´stica cont´ınua
x, a quantidade estat´ıstica central de interesse e´ a distribuic¸a˜o P (x). Neste caso,
6
a probabilidade de que o resultado de uma “medida” de x esteja entre os valores
a e b e´ dada por:
P(a ≤ x ≤ b) =
∫ b
a
dxP (x) . (8)
Esta definic¸a˜o e´ tambe´m a justificativa para chamarmos P (x) de densidade de
probabilidade. A igualdade acima e´ va´lida para P (x) normalizados a unidade∫
D
dxP (x) = 1 ,
onde a integrac¸a˜o e´ feita sobre todo o domı´nioD da densidade de probabilidade.
Estas considerac¸o˜es nos levam imediatamente a` generalizac¸a˜o dos momentos de
uma distribuic¸a˜o. A definic¸a˜o agora passa a ser
xn =
∫
D
dxxnP (x) .
Esta relac¸a˜o sera´ muito utilizada nos cap´ıtulos que se seguem.
1.2. Passeio aleato´rio e a distribuic¸a˜o binomialConsideremos o problema de uma part´ıcula restrita a movimentar-se em uma
dimensa˜o sob a influeˆncia de um potencial que age periodicamente. Suponhamos
ainda que o potencial age apo´s cada passo de comprimento ` da part´ıcula e
seu efeito e´ de determinar aleatoriamente em que direc¸a˜o sera´ dado o pro´ximo
passo. Seja p a probabilidade de ir para a direita e q a de ir para a esquerda:
Apo´s N passos, a pergunta natural deste problema e´: Qual a probabilidade de
encontrarmos a part´ıcula na posic¸a˜o m, ao final destes N passos? Ou melhor,
quanto vale PN (m)?
Alternativamente sabendo o nu´mero de passos para a direita, n1; ou o
nu´mero de passos para a esquerda n2, a posic¸a˜o m fica determinada, pois
n1 + n2 = N e n1 − n2 = m . (9)
A probabilidade de uma sequ¨eˆncia de n1 passos para a direita e n2 passos
para a esquerda e´ dada pelo produto
p · · ·p︸ ︷︷ ︸
n1
q · · ·q︸ ︷︷ ︸
n2 vezes
= pn1qn2 . (10)
Ha´, no entanto, para um total de N passos va´rias sequ¨eˆncias distintas compostas
de n1 passos a` direita e n2 passos a` esquerda. O nu´mero total de sequ¨eˆncias
distintas C corresponde ao nu´mero de permutac¸o˜es na ordem em que os passos
sa˜o dados para a direita e para a esquerda. Este nu´mero e´
7
C =
N !
n1!n2!
. (11)
Enta˜o a probabilidade de tomarmos n1 passos a` direita (ou n2 = N − n1 a` es-
querda) em qualquer ordem e´ obtida multiplicando a probabilidade pelo nu´mero
de caminhos poss´ıveis.
WN (n1) =
N !
n1!n2!
pn1qn2 . (12)
Esta e´ a distribuic¸a˜o binomial. 1
Como n1 e N determinam a posic¸a˜o m, pois n1 = (N + m)/2 e n2 =
(N −m)/2, podemos traduzir WN (n1) em PN (m)
PN (m) =
N !(
(N +m)/2
)
!
(
(N −m)/2
)
!
p(N+m)/2(1− p)(N−m)/2 . (13)
Exemplo: Vamos analisar o problema de jogarmos cara ou coroa N = 20
vezes. A probabilidade de obtermos cara e´ p = 1/2 (ana´logo ao ir para a
direita ou esquerda com p = 1/2 no problema do passeio aleato´rio) e coroa tem
probabilidade q = 1− 1/2 = 1/2.
Figura 1.2.
A figura acima traduz muito bem o resultado intuitivo de que jogando
N = 20 vezes, o resultado mais prova´vel e´ que tenhamos 10 eventos cara
(n1 = 10). Para n1 = 10, W20(n1) tem seu ma´ximo e nos da´ o resultado
mais prova´vel. E´ importante notar que resultados muito diferentes de n1 = 10
sa˜o pouco prova´veis, ou seja |n1 − 10| � 1, W20(n1)→ 0.
Voltemos ao problema do passeio aleato´rio para estudarmos o valor me´dio
e a variaˆncia. O nu´mero me´dio de passos a` direita e´ obtido usando as Eqs.(3)
e(12)
n1 =
N∑
n1=0
WN (n1)n1 =
N∑
n1=0
N !
n1!(N − n1)! p
n1qN−n1 n1 . (14)
1Aqui conve´m nos lembrarmos da expansa˜o binomial: (p + q)N =
∑N
n=0
N !/(n!(N −
n)!)pnqN−n.
8
Atrave´s do me´todo da “forc¸a bruta” podemos calcular n1 atrave´s dos seguintes
passos: Primeiro corta-se o fator multiplicativo n1 com o fatorial tomando o
cuidado de alterar o somato´rio
n1 =
N∑
n1=1
N !
(n1 − 1)!(N − n1)! p
n1qN−n1 ,
em seguida, fazendo a mudanc¸a de varia´veis n′ = n1 − 1, obtemos uma “nova”
distribuic¸a˜o binomial em n′
n1 =
N−1∑
n′=0
N !
n′!(N − 1− n′)! p
n′+1qN−1−n
′
= Np
N−1∑
n′=0
(N − 1)!
n′!(N − 1− n′)! p
n′qN−1−n
′
.
A nova somato´ria e´ a expansa˜o binomial de (p+ q)N−1. O resultado final e´
n1 = N p . (15)
Este resultado ja´ era previs´ıvel antes mesmo de fazermos as contas, pois a me´dia
de passos para a esquerda nada mais e´ do que o nu´mero total de passos N vezes
a probabilidade p de ir para a esquerda a cada passo.
Um modo mais elegante de obtermos este resultado e´ observarmos que
n1p
n1 = p
∂
∂p
(pn1) .
Usando esta identidade em (14) escrevemos
n1 = p
∂
∂p
[
N∑
n1=0
WN (n1)
]
= p
∂
∂p
(p+ q)N = pN . (16)
Este truque torna fa´cil a tarefa de calcular o segundo momento n2i (tente o
me´todo direto, e convenc¸a-se de que este e´ bastante trabalhoso!)
n21 ≡
N∑
n1=0
N !
n1!(N − n1)!p
n1qN−n1n21 =
N∑
n1=0
N !
n1!(N − n1)!
(
p
∂
∂p
)2
pn1qN−n1
=
(
p
∂
∂p
)2
(p+ q)N . (17)
Desta equac¸a˜o, operando as derivadas e apo´s algumas manipulac¸o˜es alge´bricas,
obtemos
n21 = (Np)
2 +Npq , (18)
o que nos leva ao resultado final para a variaˆncia
δn21 ≡ (n1 − n1)2 = Npq . (19)
9
A variaˆncia envolve quadrados de n1 e uma boa estimativa da variaˆncia t´ıpica
vem de √
δn21
n1
=
√
Npq
Np
=
√
q
p
1√
N
ou
√
δn21
n1
≈ 1√
N
. (20)
A expressa˜o (20) implica que com N crescente o desvio padra˜o dividido pelo
valor me´dio cai com 1/
√
N . Este quociente e´ um bom paraˆmetro para uma
estimativa do intervalo de confiabilidade (ou “erro”) de um experimento, como
por exemplo N jogos de cara ou coroa.
1.3. A distribuic¸a˜o de Poisson
A distribuic¸a˜o poissoniana e´ um caso particular da distribuic¸a˜o binomial,
quando um evento tem probabilidade muito pequena de ocorrer (p � 1), mas
o nu´mero total de eventos e´ muito grande (N � 1) de modo que Np seja uma
constante finita. Ou seja, n = Np � 1. Neste caso na˜o e´ dif´ıcil mostrar que a
distribuic¸a˜o binomial se reduz a:
WN (n) =
N !
(N − n)!n!p
n(1− p)N−n ≈ n
n
n!
e−n .
Antes de fazermos a demonstrac¸a˜o e´ necessa´rio apresentarmos uma aproximac¸a˜o
para a func¸a˜o fatorial, conhecida como fo´rmula de Stirling 2
n! ≈
√
2pin
(n
e
)n
, (21)
a qual nos permite extender para o cont´ınuo o domı´nio da varia´vel discreta n.
Fac¸amos agora a a´lgebra: usando a fo´rmula de Stirling, vemos que
N !
(N − n)! ≈
√
N√
N − n
(
N
e
)N(
N−n
e
)N−n ≈ Nn .
Empregando esta relac¸a˜o e lembrando que p = n/N , podemos escrever
WN (n) ≈ N
n
n!
pn
(
1− n
N
)N−n
.
Para chegar ao resultado desejado, agora basta apenas lembrar que para a finito,
lim
N→∞
(
1− a
N
)N
= e−a ,
2Precisa˜o da fo´rmula de Stirling: Definindo s(n) =
√
2pin(n/e)n/n!, podemos nos convencer
numericamente da acura´cia da aproximac¸a˜o, notando que
s(1) ≈ 0.90 , s(2) ≈ 0.96 , s(5) ≈ 0.98 , s(10) ≈ 0.99 , etc.
10
e´ uma das definic¸o˜es da func¸a˜o exponencial.
Note que a nova distribuic¸a˜o na˜o depende separadamente de p e N , mas da
combinac¸a˜o a ≡ n = Np. Esta expressa˜o e´ a distribuic¸a˜o de Poisson:
Pa(n) =
an
n!
e−a . (22)
Esta distribuic¸a˜o tem mu´ltiplas aplicac¸o˜es em disversas a´reas da f´ısica. Um
dos exemplos mais simples e´ o do decaimento radiativo nuclear. Imagine uma
amostra de algumas gramas de ummaterial contendo uma concentrac¸a˜o razoa´vel
de nu´cleos que decaem espontaneamente com tempo me´dio de decaimento (tempo
de meia vida) da ordem de semanas. Neste caso dar um tratamento microsco´pico
ao problema e´ virtualmente imposs´ıvel, uma vez que o nu´mero de constituintes
do sistema e´ enorme e a natureza da interac¸a˜o nuclear e´ complexa. Conclui-se
que o tratamente estat´ıstico se faz necessa´rio. Notemos enta˜o que o nu´mero de
nu´cleos e´ grande (N � 1), e que no entanto a probabilidade de que um dado
nu´cleo decaia em um segundo, por exemplo, e´ baixa (p� 1). Destas condic¸o˜es
vemos que a distribuic¸a˜o de Poisson deve ser a mais indicada para descrever o
processo. A ana´lise dos dados mostra que ela o faz com grande sucesso.
1.4. O limite para N � 1 e a distribuic¸a˜o gaussiana
O objetivo desta sessa˜o e´ obter o limite da distribuic¸a˜o binomial para N � 1,
no caso em que n1 = pN � 1 e n2 = qN � 1. Examinando a Fig. 1.2, podemos
esperar que, nestas condic¸o˜es, a distribuic¸a˜o WN (n1) seja centrada em torno
de n1 caindo rapidamente para valores de n1 muito diferentes do valor me´dio.
Mostraremos abaixo que a curva cont´ınua que melhor ajusta o histograma da
Fig. 1.2 e´ uma gaussiana.
Aproximando os fatoriais da distribuic¸a˜o binomial WN (n), Eq. (12) pela
expressa˜o (21), obtemos
WN (n1) ≈
√
2piN
(
N
e
)N
pn1(1− p)N−n1
√
2pin1
(
n1
e
)n1√2pi(N− n1) (N−n1e )N−n1 .
Explicitando a a´lgebra, mesmo correndo o risco de sermos tediosos, WN (n1)
pode ser rearranjado como:
WN (n1) ≈ 1√
2piN
(n1
N
)−n1−1/2(N − n1
N
)n1−N−1/2
pn1(1− p)N−n1
Para as simplificac¸o˜es subsequ¨entes e´ necessa´rio escrever WN (n1) como uma
exponencial
WN (n1) =
1√
2piN
exp
{
− (n1 + 12) ln
(n1
N
)
− (N − n1 + 12) ln
(
N − n1
N
)
+
11
n1 ln p+ (N − n1) ln(1− p)
}
=
1√
2piN
exp
{
f(n1)
}
. (23)
O motivo para fazermos estas manipulac¸o˜es e´ que queremos mostrar que (23)
pode ser muito bem aproximada por uma gaussiana centrada em n1, o que
implica que f(n1) ≈ a+ b(n1 − n1)2, onde a e b sa˜o constantes arbitra´rias com
b < 0. Para determinarmos a e b, e´ conveniente expandir f(n1) em se´rie de
Taylor em torno de um ponto arbitra´rio n′1
f(n1) = f(n′1)+f
′(n′1)(n1−n′1)+
1
2
f ′′(n′1)(n1−n′1)2+
1
6
f ′′′(n′1)(n1−n′1)3+ · · ·
(24)
onde queremos que n′1 satisfac¸a:
d
dn1
WN (n1)
∣∣∣∣∣
n1=n′1
= 0 implica que f ′(n1)
∣∣∣
n1=n′1
= 0 ,
Da´ı fica claro que n′1 ≈ n1, pois
f ′(n1) = − ln n1
N
− 1
2n1
−1+ln N − n1
N
+
1
2(N − n1)+
N
N − n1−
n1
N − n1+ln p−ln(1−p) ,
lembrando que n1 = Np e tomando f ′(n1) em n1, obtemos
f ′(n1)
∣∣∣∣∣
n1=n1
=
p− q
2Npq
≈ 0
para N � 1 (a menos que pq � 1, que e´ o caso do limite de Poisson discutido
no to´pico anterior). E´ fa´cil prosseguir e calcular a segunda e terceira derivadas
da func¸a˜o f(n1)
f ′′(n1) =
d
dn1
f ′(n1) =
d
dn1
{
− ln n1
N
− 1
2n1
+ ln
N − n1
N
+
1
2(N − n1) + lnp− ln(1− p)
}
= − 1
n1
− 1
N − n1 + O(N
−2) (25)
portanto, para n1 = n1
f ′′(n1)
∣∣∣∣∣
n1=n1
≈ − 1
Np
− 1
N −Np = −
1
Npq
. (26)
A derivada terceira e´:
f ′′′(n1) ≈ d
dn1
f ′′(n1) =
d
dn1
(
− 1
n1
− 1
N − n1
)
=
1
n21
− 1
(N − n1)2 ,
12
o que da´
f ′′′(n1)
∣∣∣∣∣
n1=n1
=
1
(Npq)2
(p2 − q2) . (27)
Note que p ≤ 1 e q ≤ 1, portanto |q2 − p2| < 1. Disto decorre que:
|f ′′′(n1)|
∣∣∣∣∣
n1=n1
<
1
N2p2q2
� |f ′′(n1)|
∣∣∣∣∣
n1=n1
, (28)
e por isto para N � 1, derivadas superiores a f ′′ podem ser desprezadas. (A
grosso modo cada derivada a mais ganha um termo da ordem de 1/N o que
garante a qualidade da aproximac¸a˜o para N � 1.)
Precisamos ainda calcular f(n1) (lembrando novamente que n1 = Np)
f(n1) = −(n1 + 12) ln
n1
N
− (N − n1 + 12) ln
N − n1
N
+ n1 ln p+ (N − n1) ln(1− p)
= −Np ln p− 1
2
ln p− (N − Np) ln N − Np
N
− 1
2
ln
N −Np
N
+
Np ln p+ (N − Np) ln(1− p)
= −1
2
ln p− 1
2
ln q . (29)
Reunindo estes resultados ficam determinados a e b, de modo que
WN (n1) ≈ 1√
2piN
exp
{
f(n1) +
1
2
f ′′(n1)(n1 − n1)2
}
obtemos a distribuic¸a˜o aproximada
WN (n1) =
1√
2piσN
exp
{
− (n1 − n1)
2
2σ2N
}
onde σN =
√
Npq . (30)
ilustrada na figura 1.3.
Ainda na˜o chegamos a` distribuic¸a˜o gaussiana propriamente dita, pois falta-
nos tirar o limite para uma distribuic¸a˜o de varia´vel cont´ınua. Antes de fazeˆ-lo,
e´ bom motivar fisicamente o trabalho a ser feito. Como vimos a variaˆncia (a`s
vezes chamada de dispersa˜o) escala como σ ≈ √N e, juntamente com o valor
me´dio, determina o intervalo mais prova´vel de um evento ocorrer (n1±σ). Para
N � 1, ha´ muitos valores de n1 neste intervalo (≈
√
N ).
Dito isto, voltemos ao problema do passeio aleato´rio e ao inve´s de contar o
nu´mero de passos a` direita, digamos que o queˆ nos interessa e´ a posic¸a˜o final:
x = (2n1 − 1−N )` , (31)
onde ` e´ o comprimento de cada passo. A distribuic¸a˜o desejada pode tomar um
nu´mero muito alto de valores com alta probabilidade, pois N � 1. Em geral
`/x � 1, o que nos motiva a simplificar o problema e tomar a varia´vel x como
13
cont´ınua. Resta-nos agora transformar WN (n1) em uma distribuic¸a˜o P (x) com
x cont´ınuo. Para tal observemos que
P (x)dx =WN (n1)
dx
2`
. (32)
Esta relac¸a˜o e´ simples de verificar graficamente (Fig. 1.3)
Figura 1.3
Substituindo (32) em (30) e definindo µ = (p−q)N` e σ = 2√Npq`, obtemos:
P (x) =
1√
2piσ
exp
{
− (x− µ)
2
2σ2
}
, (33)
a distribuic¸a˜o gaussiana.
Examinemos agora propriedades da distribuic¸a˜o gaussiana. Primeiro, sua
normalizac¸a˜o tem de ser verificada∫ ∞
−∞
dxP (x) =
∫ ∞
−∞
dx
1√
2piσ
e−(x−µ)
2/2σ2 =
1√
2pi
∫ ∞
−∞
dy e−y
2/2 = 1 ,
o que e´ um teste de consisteˆncia para as aproximac¸o˜es que fizemos a fim de
obter (33), uma vez que a distribuic¸a˜o binomial, nosso ponto de partida, e´
normalizada.
Usando as relac¸o˜es do apeˆndice A, fica fa´cil de ver que para a distribuic¸a˜o
gaussiana dada por (33), x = µ e que a variaˆncia δx2 = σ2 . De fato, µ e σ
caracterizam completamente a distribuic¸a˜o gaussiana.
1.5. Func¸a˜o caracter´ıstica e o teorema do limite central
E´ comum caracterizarmos uma distribuic¸a˜o por seus momentos. Para isto e´
muito u´til trabalharmos com a func¸a˜o caracter´ıstica da distribuic¸a˜o em questa˜o.
Ela e´ dada pela transformada de Fourier da densidade de probabilidade
φ(k) ≡ eikx =
∫
dx eikxP (x) . (34)
14
Expandindo a func¸a˜o caracter´ıstica em uma se´rie de poteˆncias em k, obtemos o
seguinte resultado
φ(k) =
∫
dxP (x)
(
1 + ikx− 1
2!
k2x2 − i
3!
k3x3 + · · ·
)
= 1 + ikx− k
2
2!
x2 + · · ·+ (ik)
n
n!
xn + · · · =
∞∑
n=0
(ik)nxn
n!
. (35)
Alternativamente a densidade de probabilidade e´ a transformada de Fourier
inversa da func¸a˜o caracter´ıstica. Conhecendo a func¸a˜o caracter´ıstica, podemos
facilmente calcular os momentos de todas as ordens de uma distribuic¸a˜o:
xn =
1
in
dnφ(k)
dkn
∣∣∣∣∣
k=0
.
A utilidade da func¸a˜o caracter´ıstica fica mais patente quando examinamos
um evento que depende de duas ou mais varia´veis aleato´rias. Por simplicidade,
consideremos inicialmente uma varia´vel aleato´ria z que seja func¸a˜o das varia´veis
aleato´rias x e y, com z = G(x, y). A densidade de probabilidade de z e´ definida
como
P3(z) =
∫
dx
∫
dy δ(z −G(x, y))P (x, y) ,
onde P (x, y) e´ a densidade de probabilidade para a combinac¸a˜o de eventos (x, y).
Se estes forem independentes, enta˜o P (x, y) = P1(x)P2(y) e fica fa´cil de ver que
a func¸a˜o caracter´ıstica de P3(z)
φ3(k) ≡
∫
dz eikzP3(z)
e´ expressa por
φ3(k) =
∫
dz eikz
∫
dx
∫
dy δ(z−G(x, y))P1(x)P2(y) =
∫
dx
∫
dy eikG(x,y)P1(x)P2(y) .
Para G(x, y) = x+ y
φ3(k) =
∫
dx
∫
dy eik(x+y)P1(x)P2(y) = φ1(k)φ2(k)
ou seja, a func¸a˜o caracter´ıstica de z e´ o produto das func¸o˜es caracter´ısticas de
x e y.
A aplicac¸a˜o mais direta disto e´: Consideremos uma varia´vel aleato´ria x que
siga a distribuic¸a˜o de probabilidade P (x) com primeiro e segundo momentos
respectivamente x e x2. Enta˜o fac¸amos n “medidas” de x e tomemos a me´dia
a =
1
n
(x1 + x2 + · · ·+ xn) . (36)
15
Qual sera´ a distribuic¸a˜o Q(a) da varia´vel a? O melhor modo de obtermos uma
resposta a esta pergunta e´ calcularmos Φ(k), a func¸a˜o caracter´ıstica de Q(a):
Φ(k) =
∫
da eik(a−x)Q(a− x)
=
∫
dx1 · · ·dxnP (x1) · · ·P (xn) exp
{
ik
n
[
(x1 − x1) + · · ·+ (xn − xn)
]}
=
∫
dx1P (x1) exp
[
ik
n
(x1 − x1)
]
× · · · ×
∫
dxnP (xn) exp
[
ik
n
(xn − xn)
]
=
[
φ
(
k
n
)]n
. (37)
Definindo, por consisteˆncia,
φ(k) =
∫
dxP (x− x)eik(x−x) = 1− 1
2
k2σ2 +O(k3)
(convenc¸a-se disto comparando (35) com a expressa˜o acima), segue que
Φ(k) =
[
1− 1
2
k2σ2
n2
+ O
(
k3
n3
)]n
a qual no limite de n� 1, resulta em
Φ(k) −−−−→
n→∞
e−k
2σ2/2n . (38)
Para obtemos Q(a) basta fazer a transformada de Fourier inversa
Q(a− x) = 1
2pi
∫ ∞
−∞
dk e−ik(a−x)Φ(k) ,
a qual e´ fa´cilmente efetuada, bastando completar quadrados∫ ∞
−∞
dk e−ik(a−x)e−k
2σ2/2n = exp
[
−n
2
(a− n)2
σ2
] ∫ ∞
−∞
dk exp
−(i√n/2
σ
(a− x) + kσ√
2n
)2 .
A integral gaussiana e´ obtida fazendo uma mudanc¸a de varia´veis e consultando
o apeˆndice A. O resultado e´
Q(a− x) =
√
n√
2piσ
exp
[
−n
2
(a− x)2
σ2
]
(39)
o que nos mostra que independente da forma de P (x), a me´dia de um grande
nu´mero de x sera´ uma gaussiana centrada em x e com desvio padra˜o N1/2 vezes
menor do que o desvio padra˜o da densidade de probabilidade P (x). O u´nico
16
requerimento e´ de que P (x) tenha momentos finitos. Este resultado e´ chamado
de teorema do limite central.
To´pico especial: Equac¸a˜o de Difusa˜o
Consideremos novamente o problema do passeio aleato´rio em uma dimensa˜o,
onde uma varia´vel segue a probabilidade condicional T de dar passos de com-
primento ` a cada intervalo de tempo τ . Se conhecermos:
T
(
n1`, (s− 1)τ |n2`, sτ ) a probabilidade condicional de que uma varia´vel estoca´stica
u ter o valor n2 no s-e´simo passo dado que tenha o valor n1
no (s− 1)-e´simo passo, (40)
onde u = 0,±1,±2, · · · da´ o valor absoluto da posic¸a˜o da part´ıcula, podemos
escrever a equac¸a˜o de evoluc¸a˜o temporal para probabilidade de encontrarmos
uma part´ıcula na posic¸a˜o n2` como
P1(n2`, sτ ) =
∑
n1
P1(n1`, (s− 1)τ )T (n1`, (s − 1)τ |n2`, sτ ) . (41)
No caso mais simples, correspondendo ao exemplo do jogo de cara ou coroa, a
probabilidade de ir a` esquerda ou direita e´ igual e, portanto,
T
(
n1`, (s − 1)τ |n2`, sτ
)
=
1
2
δn2,n1+1 +
1
2
δn2,n1−1
de modo que a Eq.(41) se simplifica para:
P1(n`, sτ ) =
1
2
P1((n − 1)`, (s − 1)τ ) + 12P1((n+ 1)`, (s− 1)τ )
Para obtermos uma equac¸a˜o diferencial para a distribuic¸a˜o de probabilidade,
temos que reescrever a equac¸a˜o acima na forma:
P1(n`, sτ )− P1(n`, (s − 1)τ )
τ
=
1
2τ
(
P1((n+1)`, (s−1)τ )−2P1(n`, (s−1)τ )+P1((n−1)`, (s−1)τ )
)
.
Vamos agora escrever x = n` e t = sτ e tomar o limite ` → e τ → 0, de modo
que D = `2/2τ seja finito. Como resultado obtemos a equac¸a˜o de difusa˜o
∂P1(x, t)
∂t
= D
∂2P1(x, t)
∂x2
. (42)
Podemos resolver de forma fa´cil a Eq. (42) para o caso especial em que
inicialmente P1(x, 0) = δ(x), onde δ(x) e´ a func¸a˜o delta de Dirac (veja apeˆndice
A). Para tal e´ conveniente fazer a tranformada de Fourier de P1(x, t)
P˜ (k, t) =
∫ ∞
−∞
dxP1(x, t) eikx .
17
Assim, a Eq. (42) assume a forma
∂P˜ (k, t)
∂t
= −Dk2P˜1(k, t) ,
que podemos imediatamente solucionar, dando
P˜1(k, t) = A e−Dk
2t
onde a constante A e´ determinada pelas condic¸o˜es iniciais do problema. Como
P˜1(k, 0) = 1, temos que A = 1. Fazendo a transformada de Fourier inversa
P1(x, t) =
1
2pi
∫ ∞
−∞
dke−ikxe−Dk
2t
o que nos leva a` resposta final
P1(x, t) =
1√
4piDt
e−x
2/4Dt . (43)
Um dos resultados interessantes que podemos obter sem grande esforc¸o sa˜o
as equac¸o˜es de movimento para os momentos da distribuic¸a˜o P1(x, t). O mo-
mento 〈x(t)〉 ≡ ∫∞−∞ dxxP1(x, t) da´ a posic¸a˜o me´dia da part´ıcula como func¸a˜o
do tempo. Multiplicando a Eq. (42) por x e integrando sobre x, encontramos
d〈x(t)〉
dt
= D
∫ ∞
−∞
dxx
∂2P1(x, t)
∂x2
= 0
o que nos leva a concluir que a posic¸a˜o me´dia da part´ıcula na˜o muda com o
tempo. Podemos fazer algo muito parecido para 〈x2(t)〉. Neste caso multipli-
camos a Eq. (42) por x2 e integramos sobre a posic¸a˜o, encontrando
d〈x2(t)〉
dt
= 2D ou seja 〈x2(t)〉 = 2Dt
o que se constitui numa das caracter´ısticas mais marcantes de um processo
difusivo. O momento 〈x2(t)〉 e´ uma medida da largura de P1(x, t) no instante
t, a qual se alarga com o tempo, conforme ja´ esperado.
Sugesto˜es bibliogra´ficas
Boa parte dos textos de mecaˆnica estat´ıstica partem do pressuposto de que a
teoria de distribuic¸o˜es e´ um pre´-requisito para o curso e da˜o uma eˆnfase diferente
a`s questo˜es matema´ticas tratadas neste cap´ıtulo. Assim, textos tradicionais
costumam ser bastante sinte´ticos, com a nota´vel excessa˜o do livro do Reif [1],
o qual recomendo fortemente como leitura suplementar. Boas refereˆncias para
teoria de distribuic¸o˜es para f´ısicos sa˜o Matthews e Walker [2] e um pouco mais
avanc¸ado Hoel [3]. Estudantes com pendores matema´ticos que queiram ler um
pouco mais sobre teoria ergo´tica devem consultar o texto de Kinchin [4].
18
1. F. Reif, Fundamentals of Statistical and Thermal Physics (McGraw-Hill
Book Co., New York, 1965).
2. J. Matthews e R. L. Walker, Mathematical Methods of Physics (W. A.
Benjamin, Menlo Park, 1973)
3. P. G. Hoel, Introduction to Mathematical Statistics (Wiley, New York,
1966).
4. A. I. Kinchin, Mathematical Foundations of Statistical Mechanics (Dover
Publications, New York, 1949).
Problemas resolvidos
1. Um recipiente macrosco´pico de volume V conte´m N mole´culas de um ga´s
ideal em equil´ıbrio te´rmico.
(a) A probabilidade de que uma dada mole´cula esteja numa pequena
parte de volume v do recipiente e´ p = v/V . Qual a func¸a˜o distribuic¸a˜o
f(n) que da´ a probabilidade de encontrarmos n mole´culas em v?
(b) Calcule o nu´mero me´dio de part´ıculas em v como func¸a˜o de N, v e V
(c) Qual a probabilidade de que na˜o haja mole´cula alguma em v? Se
o ar fosse composto apenas de O2, qual a probabilidade de nossos
pulmo˜es na˜o capturarem mole´cula alguma de O2 em uma aspirac¸a˜o
t´ıpica (v = 10−3m3)?
Resoluc¸a˜o:
(a) Se v � V , enta˜o p = v/V � 1, mas num recipiente macrosco´pico ha´
um nu´mero de mole´culas N � 1. Da´ı a distribuic¸a˜o que nos da´ a
probabilidade de encontrarmos n mole´culas em v e´ a Poisson.
P (n) =
an
n!
e−a com a = pN .
(b) O nu´mero me´dio de part´ıculas e´ n = pN .
(c) Nenhuma mole´cula em v corresponde a n = 0
P (0) = e−a com a =
v
V
N .
Para o caso em questa˜o (veja uma tabela de constantes f´ısicas!)
N/V = 2.4 × 1025 m−3 e v = 10−3m3. Assim, a = 2.4 × 1022.
Portanto P (0) = exp(−2.4× 1022)� 1. O que nos garante que nes-
tas condic¸o˜es e´ bastante improva´vel nos sufocarmos por flutuac¸o˜es
estat´ısticas.
19
2. O modelo de Drude para metais considera que cada a´tomo da rede cristalina
contribui com um certo nu´mero de ele´trons de valeˆncia, os quais se movem
quase livremente dentro do metal. A probabilidade de um ele´tron sofrer
uma colisa˜o em um intervalo de tempo infinitesimal dt e´ dt/τ .
(a) Mostre que um ele´tron escolhido aleatoriamente em um certo instante
tem probabilidade e−t/τ de na˜o ter sofrido colisa˜o alguma nos t se-
gundos anteriores. Mostre tambe´m que a probabilidade de na˜o haver
colisa˜o alguma nos pro´ximos t segundos e´ a mesma.
(b) Mostre que a probabilidade de que o intervalo entre duas coliso˜es
sucessivas esteja compreendido entre t e t+ dt e´ (dt/τ ) e−t/τ .
(c) Mostre que, como consequ¨eˆncia, o tempo me´dio entre coliso˜es suces-
sivas de um ele´tron e´ τ .
Resoluc¸a˜o:
(a) Tomemos um ele´tron aleato´rio no instante t e digamos que a proba-
bilidade de ele na˜o ter sofrido colisa˜o desde t = 0 seja P (t). A prob-
abilidade de que ele continue se propagando livremente ate´ t + dt e´
enta˜o dada por
P (t+ dt) = (1− dt
τ
)P (t) .
Reescrevemos a expressa˜o acima como:
dP ≡ P (t+ dt)− P (t) = −dt
τ
P (t) ou
dP
P
= −dt
τ
.
Integrando a equac¸a˜o acima em ambos os lados e considerando que
P (0) = 1, obtemos o resultado desejado P (t) = e−t/τ . O outro caso
do enunciado e´ deixado para o leitor.
(b) O racioc´ınio e´ muito parecido com o do item anterior. Agora, quer-
emos que o ele´tron que propagou livremente ate´ t (processo com
probabilidade P (t)) sofra colisa˜o entre os intantes t e t+dt (processo
com probabilidade dt/τ ). Isto da´
Pc(t) =
dt
τ
P (t) ou seja Pc(t) =
dt
τ
e−t/τ ,
o que nos define uma probabilidade para a taxa de coliso˜es dPc/dt.
(c) O tempo me´dio de coliso˜es pode serobtido da integral
t =
∫ ∞
0
dt t
dPc
dt
=
∫ ∞
0
dt
t
τ
e−t/τ
cujo resultado e´ t = τ .
20
Problemas propostos
1. Considere a distribuic¸a˜o poissoniana Pa(n) = (an/n!) e−a
(a) Demonstre que a distribuic¸a˜o de Poisson e´ normalizada
(b) Calcule o valor me´dio da distribuic¸a˜o e sua variaˆncia.
2. A varia´vel aleato´ria x obedece a` distribuic¸a˜o de probabilidade
f(x) = e−x (0 < x <∞)
(a) Encontre x
(b) Dois valores x1 e x2 sa˜o escolhidos independentemente. Encontre
x1 + x2 e x1x2
(c) Qual a distribuic¸a˜o de probabilidade P (a) da varia´vel aleato´ria a =
(x1 + x2)/2. Sugesta˜o: Cuidado com os domı´nios de integrac¸a˜o!)
3. Mostre que a func¸a˜o caracter´ıstica para a distribuic¸a˜o gaussiana e´
φ(k) = eikx e−k
2σ2/2
(Veja que o fator gaussiano em φ(k) faz com que apenas valores de k da
ordem de 1/σ sejam importantes, pois φ(k) e´ muito pequeno para k� 1/σ.
Trace analogia com o princ´ıpio da incerteza!)
4. Em 0.30 mg de 238U temos 7.6×1017 a´tomos. A probabilidade de que um
nu´cleo se desintegre por segundo (emitindo uma part´ıcula α) e´ 4.9×10−18.
Enta˜o, para t = 1s, p = 4.9× 10−18. Estamos supondo que o decaimento
de diferentes a´tomos na˜o seja correlacionado.)
(a) Argumente por que a distribuic¸a˜o de Poisson e´ uma boa aproximac¸a˜o
para o decaimento estat´ıstico do 238U , supondo que a distribuic¸a˜o
binomial descreve bem o processo.
(b) Escreva a distribuic¸a˜o de Poisson que da´ a probabilidade de que em
1 s, n nu´cleos decaiam e construa o histograma de Pa(n ≤ 15).
(c) Qual a probabilidade de que em 1 s nenhum a´tomo decaia?
(d) Qual a probabilidade de que em 1 s pelo menos 5 a´tomos decaiam?
5. No caso da distribuic¸a˜o gaussiana o devio padra˜o tem um significado es-
tat´ıstico bem definido. No caso em que
P (x) =
1√
2piσ
exp
{
− (x − µ)
2
2σ2
}
,
(a) Qual a probabilidade de observarmos um evento num intervalo [µ−
σ, µ+ σ]?
21
(b) E em [µ − 3σ, µ + 3σ]? (Observac¸a˜o: O resultado sera´ em termos
da func¸a˜o erro. O valor nume´rico pode ser obtido consultando uma
tabela - recomendo Abramowitz e Stegun, Handbook of Mathemati-
cal Functions (Dover, New York).)
6. A teoria estat´ıstica de reac¸o˜es nucleares de nu´cleo composto, uma secc¸a˜o
de choque t´ıpica e´ dada por
σ(E) =
∣∣∣∣∣∑
i
γi
E − Ei − iΓi2
∣∣∣∣∣
2
onde a soma e´ feita sobre ressoˆnancias isoladas, cada uma delas corre-
spondendo a uma energia Ei, uma largura partial γi e um largura total
Γi. Para o nu´cleo composto existe um regime onde as seguintes hipo´teses
sa˜o va´lidas: (i) todos Γi sa˜o reais e iguais a` constante Γ; (ii) os γi sa˜o
nu´meros reais distribuidos aleatoriamente com
γi = 0 γ2i = α
2 = cte
(iii) os Ei sa˜o igualmente espac¸ados, com espac¸amento D e (iv) D � Γ.
(Caso voceˆ esteja interessado na f´ısica do problema, consulte K. S. Krane,
Introductory Nuclear Physics.)
Usando as aproximac¸o˜es acima calcule σ(E), σ2(E) e σ(E)σ(E + ε) e
mostre que
σ(E)
2
σ2(E)
=
1
2
e
σ(E) − σ(E + ε)
σ2(E)
=
ε2
ε2 + Γ2
.

Outros materiais