Buscar

apostila de apoio p 103

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 165 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 165 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 165 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

N
otas
d
e
A
u
la
—
F
IS
0999
-
T
erm
o
d
in
aˆm
ica
e
F´
ısica
E
stat´ıstica
E
zeq
u
iel
C
.
S
iq
u
eira
2013
Notas de Aula — FIS0999
Termodinaˆmica e F´ısica
Estat´ıstica
Ezequiel C. Siqueira
Departamento de F´ısica e Qu´ımica
Faculdade de Engenharia de Ilha Solteira
U
N
IV
E
R
S
ID
A
D
E
E
S
T
A
D
U
A
L
P
A
U
L
IS
T
A
Sumário
1 Introdução aos Métodos Estatísticos 5
1.1 O problema da caminhada aleatória e a distribuição binomial . . . . . . . . . . . . . . . . . . . . 7
1.1.1 O problema da caminhada aleatória unidimensional . . . . . . . . . . . . . . . . . . . . . 9
1.2 Discussão geral de valores médios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.1 Cálculo dos valores médios para o problema da caminhada aleatória . . . . . . . . . . . . 15
1.3 Distribuição de probabilidades para N grande . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4 Distribuições de probabilidade Gaussianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5 Discussão Geral do problema da caminhada aleatória . . . . . . . . . . . . . . . . . . . . . . . . 29
1.5.1 Distribuições de probabilidades envolvendo várias variáveis . . . . . . . . . . . . . . . . 30
1.5.2 Comentários sobre distribuições de probabilidade contínuas . . . . . . . . . . . . . . . . 32
1.5.3 Cálculo geral dos valores médios para a caminhada aleatória . . . . . . . . . . . . . . . . 38
2 Descrição Estatística de um Sistema de Partículas 47
2.1 Formulação Estatística do Problema Mecânico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.1.1 Especificação dos Estados do Sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.1.2 Ensemble Estatístico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.1.3 Postulados Básicos da Física Estatística . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.1.4 Alcance do estado do equilíbrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.1.5 Cálculos de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.1.6 O comportamento da densidade de estados . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.2 Interação entre Sistemas Macroscópicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.2.1 Interação Térmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.2.2 Interação Mecânica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.2.3 Interação Geral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
1
2 SUMÁRIO
2.3 Processos Quasi-Estáticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.3.1 Trabalho quasi-estático realizado pela pressão . . . . . . . . . . . . . . . . . . . . . . . . 66
2.4 Diferenciais Exatas e Inexatas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3 Termodinâmica Estatística 75
3.1 Irreversibilidade e a aproximação para o equilíbrio . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.1.1 Condições de equilíbrio e restrições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.1.2 Processos Reversíveis e Irreversíveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.2 Interação entre Sistemas Macroscópicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.2.1 Interação térmica entre sistemas macroscópicos . . . . . . . . . . . . . . . . . . . . . . . 77
3.2.2 A aproximação do equilíbrio térmico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.2.3 Temperatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.2.4 Reservatório de Calor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.2.5 Análise de largura da distribuição de probabilidades . . . . . . . . . . . . . . . . . . . . 86
3.3 Interação Geral entre Sistemas Macroscópicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.3.1 Dependência da densidade de estados com os parâmetros externos . . . . . . . . . . . . . 89
3.4 Equilíbrio entre Sistemas Interagentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3.4.1 Processos quasi-estáticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.4.2 Condições de equilíbrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.4.3 Propriedades da Entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.5 Cálculo Estatístico de Quantidades Termodinâmicas . . . . . . . . . . . . . . . . . . . . . . . . . 97
4 Termodinâmica e suas aplicações 99
4.1 Grandezas Extensivas e Intensivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.2 Parâmetros Macroscópicos e suas medidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.2.1 Trabalho e Energia Interna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.2.2 Calor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.2.3 Temperatura Absoluta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.3 Calor Específico e Capacidade Térmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.3.1 Entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.3.2 Conseqüências da definição da entropia absoluta . . . . . . . . . . . . . . . . . . . . . . 106
4.4 Aplicações simples da Termodinâmica macroscópica à um gás ideal . . . . . . . . . . . . . . . . 108
4.4.1 Propriedades dos gases ideais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
SUMÁRIO 3
4.5 Relações gerais para uma substância homogênea . . . . . . . . . . . . . . . . . . . . . . . . . . 115
4.5.1 Variáveis independentes S e V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
4.5.2 Variáveis independentes S e p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
4.5.3 Variáveis Independentes T e V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
4.5.4 Variáveis Independentes T e p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
4.5.5 Relações de Maxwell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
4.6 Capacidades Térmicas (caso geral) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4.7 Manipulando Derivadas Parciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
4.7.1 Jacobianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
4.7.2 Aplicações de Jacobianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
4.8 Entropia e Energia Interna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.9 Expansão livre e o processo de Joule-Thomson . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.9.1 Expansão livre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.9.2 Processo de Joule-Thomson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
4.10 Máquinas Térmicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.10.1 A máquina de Carnot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.10.2 Entropia do ciclo de Carnot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
4.10.3 Eficiência de uma máquina de Carnot . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
4.11 Refrigeradores . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
4.12 Eficiência de Máquinas Térmicas Reais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
4.13 Condições de Equilíbrio e Transições de Fase . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
4.13.1 Sistemas em contato com um reservatório à temperatura constante . . . . . . . . . . . . . 151
4.13.2 Sistema em contato térmico com um reservatório térmico a volume e pressão constantes . 153
4.13.3 Aplicação dos princípios de energia mínima: transições de fase . . . . . . . . . . . . . . . 154
4.13.4 Trocas de fase de uma substância simples . . . . . . . . . . . . . . . . . . . . . . . . . . 159
4.13.5 Cálculo aproximado da pressão de vapor . . . . . . . . . . . . . . . . . . . . . . . . . . 159
4.14 Transformações de fase e a equação de estado . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
4 SUMÁRIO
Capítulo 1
Introdução aos Métodos Estatísticos
A Física Estatística é uma disciplina da física onde são estudados sistemas constituídos por um número gigan-
tesco de partículas. Por um número gigantesco, queremos dizer quantidades maiores ou da ordem do número
de Avogadro (6,02×1023). Desta forma, esta disciplina fornece métodos gerais que podem ser empregados em
todas as áreas da física e mesmo em outras áreas como Química, Biologia, Economia, etc. De fato, todos os
sistemas que apresentam dimensões observáveis com uso da luz no espectro do visível (sistemas e organismos de
nosso cotidiano) são constituídos por um número gigantesco de átomos e moléculas. Neste curso, consideraremos
sistemas como sólidos, líquidos, radiação eletromagnética, etc., e veremos que estes se comportam segundo leis
absolutamente gerais embora seus constituintes tenham caráter completamente distintos microscopicamente. De
fato, atualmente sabemos descrever boa parte dos sistemas do ponto de vista microscópico através da aplicação
dos métodos de Mecânica Quântica, no entanto, quando estamos considerando sistemas de muitas partículas, os
métodos ficam muito complicados de serem implementados. Isso se deve não apenas à questões técnicas como
limitações computacionais na soluções de equações mas também devido ao comportamento coletivo ser comple-
tamente diferente do comportamento individual das moléculas. Um exemplo simples são os organismos vivos
que embora sejam constituídos por átomos e moléculas, cujas interações e características sabemos descrever bem,
não é possível prever as suas capacidades de interagir com o ambiente e de se reproduzir. Estas são capacidades
oriundas de um comportamento coletivo de seus constituintes.
Aqui, faz-se necessário definir alguns termos que serão utilizados de maneira recorrente ao longo do curso.
Quando falamos em sistemas microscópicos nos referimos à sistemas com tamanho da ordem ou menor do que
0,1 nm. Isso implica em sistemas do tamanho de átomos e moléculas. Sistemas macroscópicos, por outro lado,
são sistemas constituídos por um número muito grande de átomos e moléculas cujas dimensões são superiores a
micrometros. A escala intermediária entre o micro e o macro é chamada de escala mesoscópica e não estaremos
5
6 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
interessados nesta escala de tamanho. Este é um regime intermediário onde tanto os efeitos macro e microscópicos
competem em pé de igualdade. Existe uma área ativa de pesquisa nesta escala de comprimento, mais complicada
de ser estudada. Os objetos macroscópicos podem ser descritos através de grandezas como volume, temperatura,
pressão, magnetização, etc., que são parâmetros gerais válidos para o sistema como um todo. Sendo assim, quando
dizemos que a pressão de vapor de um gás encerrado em uma câmara é 1M Pa, estamos dizendo que na média
a pressão em todos os pontos do gás mede este valor. Esta é uma afirmação válida somente quando o gás como
um todo está em um situação de equilíbrio, i.e, a pressão, volume, e demais parâmetros que caracterizam o gás
não variam no tempo. Em todo o curso, estaremos estudando sistemas em equilíbrio, i.e., sistemas cujas variáveis
macroscópicas estão fixas no tempo. Fora do equilíbrio nada podemos afirmar sobre o sistema.
A chamada Termodinâmica é a disciplina onde se estuda as relações entre as variáveis macroscópias que
caracterizam o sistema. Devido ao fato de se tratar de variáveis que descrevem sistemas de muitas partículas, suas
leis básicas (Lei Zero, 1a, 2a e 3a leis da termodinâmica) são completamente gerais e intuitivas. Isto também explica
o fato da termodinâmica ter suas origens no final do século XVIII e início do século XIX. É importante ressaltar
que estas leis são válidas quando os sistemas estão em equilíbrio. Embora a termodinâmica seja extremamente
importante mesmo nos dias de hoje, não é possível fazer progresso no entendimento detalhado dos sistemas sob
consideração devido à sua generalidade. De fato, a virtude de permitir formular leis completamente gerais também
é maior fraqueza desta disciplina pois não permite entender as diferenças observadas entre diversos sistemas. O
progresso científico nesta área se deu quando tentou-se formular os problemas de um ponto de vista microscópico.
O objetivo da Física Estatística é obter leis gerais que descrevem comportamentos de sistemas de muitas partículas
através de uma aproximação microscópica. Neste caso, e isso ficará claro futuramente, conseguimos obter todos
os resultados da termodinâmica mais resultados gerais baseados em aspectos microscópicos. No entanto, ainda
temos a limitação à sistemas em equilíbrio assim como no caso da termodinâmica. Sistemas fora do equilíbrio
são extremamente complicados não permitindo formular leis tão gerais como no caso do estado de equilíbrio.
Atualmente, muito trabalho tem sido desenvolvido em problemas de não-equilíbrio, porém, para entender estas
teorias precisamos aprender a formulação de equilíbrio.
Por fim, notamos que é possível descrever sistemas analisando as interações entre as partículas constituintes
em detalhes e então calcular as variáveis macroscópicas. Esta metodologia é aplicada na chamada teoria cinética
e é válida também para sistemas fora do equilíbrio. No entanto, é o método mais difícil de ser aplicado além de
não permitir a generalidade que é obtida na teoria de física estatística de equilíbrio que estaremos estudando.
1.1. O PROBLEMA DA CAMINHADA ALEATÓRIA E A DISTRIBUIÇÃO BINOMIAL 7
1.1 O problema da caminhada aleatória e a distribuição binomial
Na introdução, discutimos aspectos gerais da física estatística e sua aplicabilidade a sistemas de muitas partículas.
Isso de deve ao caráter estastístico da teoria que iremos considerar agora. O adjetivo “estatística" está relacionado
à aplicação de métodos de teoria de probabilidades na descrição dos sistemas físicos. De fato, como não temos
como calcular todas as quantidades físicas a partir de primeiros princípios, partimos para uma descrição coletiva
do sistema. Com isso, fica subentendido que não estamos preocupados com a descrição detalhada de cada partícula
no sistema.
Quando falamos em probabilidade, estamos considerando a chance de um determinado evento ocorrer quan-
tificando essa chance através de um valor situado entre 0 e 1. Assim, quanto mais próximo de 1, maiores são as
chances do evento ocorrer. Este número só faz sentido quando consideramos um número muito grande de tentati-
vas de maneira que a probabilidade é a fração de eventos que ocorrem dentro do número total de tentativas. Para
ficar mais claro, consideremos um exemplo simples de jogo de cara e coroa. Quando dizemos que a probabilidade
é de 50% de aparacer cara, estamos na verdade afirmando que após um número muito grande de lançamentos da
moeda, em metade dos lançamentos teremos cara como resultadofinal. Isto, é claro, considerando que a moeda
é “honesta" ou seja, que as condições em que a moeda foi lançada são iguais em todos os lançamentos. De ma-
neira equivalente, podemos pensar em um número muito grande de moedas sendo lançadas ao mesmo tempo e
sob as mesmas condições. A teoria da probabilidade nos diz que neste caso, aproximadamente metade das moedas
apresentará cara e a outra metade coroa. O ponto essencial aqui, é o fato de que a descrição estatística só faz
sentido quando consideramos um número N muito grande de sistemas similarmente preparados. Este conjunto de
sistemas é chamado de ensemble estatístico. A probabilidade de ocorrência de um evento é definida com respeito
a este ensemble e então definida pela fração de sistemas no ensemble que são caracterizados pela ocorrência deste
evento particular.
A seguir, vamos desenvolver os conceitos básicos probabilidade em um problema específico cujos resultados
são bastante úteis e recorrentes em várias problemas físicos. Este problema, é chamado de problema da caminhada
aleatória ou do inglês the random-walk problem. Em sua forma mais simples, o problema é formulado da seguinte
forma:
Um homem bêbado se desloca a partir de um poste localizado em x= 0 (Veja Fig. 1.1). Cada passo dado pelo
homem, para direita ou esquerda, tem um comprimento igual a l e é independente do passo precedente. Tudo o
que pode ser dito é que existe uma probabilidade do passo ser dado para a direita é p e q = 1−p é a probabilidade
para um passo à esquerda. No caso mais simples, q = p e as probabilidades são iguais, no entanto, no caso geral
temos p ̸= q. Isto pode ser realizado considerando que a rua tem uma inclinação de maneira que a probabilidade
8 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
poste
Figura 1.1: O problema da caminhada aleatória em 1 dimensão.
de dar um passo para baixo é maior do que para cima.
Desde que cada passo tem um um comprimento fixo e igual a l, então a distância percorrida pelo homem tem
a forma geral x=ml ondem é um número inteiro positivo, negativo ou zero. A questão de interesse é então: após
N passos dado pelo homem, qual é a probabilidade dele estar a um distância x =ml em relação ao poste? Em
termos estatísticos, estamos considerando um ensemble com um número muito grande de homens que deslocam
a partir da origem e a probabilidade a ser determinada corresponde a fração de homens no ensemble que estão
localizados em x=ml após os N passos.
É claro que este problema pode ser generalizado para o caso de duas e três dimensões. Nestes casos, teremos
que adicionar vetores posição de mesmo módulo l e direções aleatórias e no final perguntar qual é a distância
percorrida após a adição de N vetores. Notamos também que a distância entre a extremidade do último vetor e
a origem não é mais um número inteiro, múltiplo de l, mas apresenta um valor qualquer. Porém, fica claro que a
idéia geral permanece a mesma: determinar a posição do homem após N passos considerando-se probabilidades
de se ter um passo em um determinado sentido e direção.
O principal objetivo de se estudar o problema da caminhada aleatória é o fato de que muitos sistemas físicos na
natureza exibem um comportamento similar. Um dos principais exemplos deste tipo são sistemas magnéticos com
spin 1/2. Nestes sistemas, os átomos magnéticos podem apresentar duas orientações (denominadas up e down)
em relação à uma dada direção (em geral determinada por um campo magnético externo). Neste caso, a questão
a ser respondida é qual o momento magnético total de um ensemble de N átomos se conhecemos a probabilidade
das orientações up e down. Outro exemplo muito importante é a difusão de uma molécula em um gás. A colisão
da molécula com as demais torna seu deslocamento aleatório e então o interesse é a determinação do caminho
percorrido pela molécula após sofrer N colisões. As colisões determinam as direções e sentidos dos vetores
a serem somados na caminhada aleatória em três dimensões. Na verdade o movimento difusivo, caracterizado
pelo movimento aleatório das partículas, está presente em vários sistemas físicos diferentes. O movimento dos
elétrons em um metal, por exemplo, é completamente difusivo de maneira similar à de moléculas em um gás.
Quando aplicamos um campo elétrico externo, forçamos os elétrons a se movimentarem em uma dada direção
em superposição ao movimento difusivo. Como resultado, temos uma resistência elétrica devida às colisões sendo
1.1. O PROBLEMA DA CAMINHADA ALEATÓRIA E A DISTRIBUIÇÃO BINOMIAL 9
medida pelo chamado tempo de relaxação, que é calculado através do modelo de caminhada aleatória. Você mesmo
pode experimentar o movimento difusivo quando tenta caminhar no meio de uma multidão em algum lugar lotado.
Neste caso, fica muito difícil caminhar em linha reta e no final, após N passos, a sua posição será determinada de
maneira probabilística, conforme discutido a seguir.
1.1.1 O problema da caminhada aleatória unidimensional
Vamos considerar o problema da caminhada aleatória no caso unidimensional em detalhes. Aqui será conveniente
usar uma nomenclatura mais técnica onde falamos de uma partícula fazendo N deslocamentos ou passos a partir
de uma dada origem. Após um total de N passos, cada um de comprimento l, a partícula estará localizada em
x=ml (1.1)
ondem é um número inteiro dentro do intervalo
−N ≤m≤N. (1.2)
O objetivo é calcular a probabilidade PN (m) de encontrar a partícula na posição x = ml após N passos.
Vamos denotar o número de passos para a direita por n1 e n2 o número de passos para a esquerda. Estes valores
estão relacionados por
n1+n2 =N. (1.3)
O deslocamento líquido (medido para a direita em unidades do comprimento l) é dado por
m= n1−n2. (1.4)
Combinando as Eqs. (1.3) e (1.4) podemos escrever ainda
m= n1−n2 = n1− (N −n1) = 2n1−N
donde vemos que seN é ímpar, os possíveis valores dem também são ímpares. Reciprocamente, seN é par então
os valores dem também devem ser pares.
Aqui consideramos uma hipótese fundamental para que o problema da caminhada aleatória possa ser resolvido.
Consideramos que os passos dados pela partícula são estatisticamente independentes. Neste caso, cada passo é
caracterizado por sua respectiva probabilidade e a probabilidade para um conjunto deN passos pode ser facilmente
calculada através do produto de probabilidades individuais. Abaixo, fazemos as seguintes definições:
p= probabilidade de que o passo seja para a direita
q = 1−p= probabilidade de que o passo seja para a esquerda.
10 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
A probabilidade de uma seqüência de n1 passos para a direita e n2 passos para a esquerda é dado simplesmente
pelo produto das probabilidades de cada passo, i.e.,
p p · · ·p︸ ︷︷ ︸
n1fatores
q q · · ·q︸ ︷︷ ︸
n2fatores
= pn1qn2 . (1.5)
Agora, existem diferentes maneira possíveis de dar n1 passos para a direita e n2 passos para a esquerda de
modo que o número total de passos seja igual N . O número das diferentes possibilidades é dado por
N !
n1!n2!
. (1.6)
A Eq. (1.6) é bem conhecida em problemas de análise combinatória. Para ilustrar este ponto, considere o
seguinte problema: temos N cadeiras e desejamos acomodar N pessoas. De que maneiras diferentes podemos
distribuir estas pessoas nas cadeiras? Para resolver isso, considere que existem N maneiras diferentes de colocar
uma pessoa na primeira cadeira. Após a primeira cadeira ser ocupada, sobram (N − 1) maneiras diferentes de
ocupar a segunda cadeira; em seguida, sobram N −2 maneiras diferentes de ocupar a terceira cadeira e assim por
diante. No final, o número total de modos de ocupar as cadeiras é dado por:
N(N −1)(N −2)(N −3)(N −4)(N −5) · · ·1≡N !
Na equação acima consideramos que todas as pessoas são diferentes. Mas agora considere que dentre as N
pessoas, temosn1 mulheres e n2 homens. Se consideramos apenas o sexo como característica que diferenciam
estas pessoas, então as n1! permutações das mulheres entre elas próprias não levam a um modo diferente de
acomodarN pessoas. Similarmente, as n2! permutações dos homens levam ao mesmo resultado. Assim, o número
total de diferentes modos de acomodarN pessoas é dado porN !/n1!n2!. O mesmo raciocínio é usado para chegar
na Eq. (1.6) em relação ao número de passos para a direita e esquerda no caso da caminhada aleatória.
A probabilidade WN (n1) de tomar n1 passos para a direita e n2 passos para a esquerda, em um total de N
passos e em qualquer ordem, é obtida pelo produto da probabilidade dada pela Eq. (1.5) e os diferentes modos de
dar os passos (Eq. (1.6)). Assim, escrevemos:
WN (n1) =
N !
n1!n2!
pn1qn2 (1.7)
e desde que n1+n2 =N , podemos escrever ainda
WN (n1) =
N !
n1!(N −n1)!p
n1qN−n1 . (1.8)
A Eq. (1.8) é chamada de distribuição binomial. A razão é que a Eq. (1.8) representa um termo típico
encontrado na expansão do binômio (p+ q)N pelo teorema binomial. A expansão binomial é dada pela fórmula:
(p+ q)N =
N∑
n=0
N !
n!(N −n)!p
nqN−n. (1.9)
1.2. DISCUSSÃO GERAL DE VALORES MÉDIOS 11
Já mostramos que se sabemos que a partícula efetuou n1 passos para a direita então podemos determinar o
seu deslocamento m uma vez que conhecemos o número total N de passos. Assim, a probabilidade PN (m) que
a partícula esteja localizada em uma posição m é equivalente à probabilidade WN (n1) de que a partícula deu n1
passos, i.e.,
PN (m) =WN (n1).
Podemos obter PN (m) simplesmente escrevendo WN (n1) em termos de m. Isso é realizado combinando as
Eqs. (1.3) e (1.4):
n1 =
1
2(N +m),
n2 =
1
2(N −m).
Substituindo-se estas relações na Eq. (1.7), podemos escrever finalmente:
PN (m) =
N !
[(N +m)/2]![(N −m)/2]!p
(N+m)/2(1−p)(N−m)/2 (1.10)
onde usamos que q = 1− p conforme mostramos acima. Note que N +m e N −m são inteiros pares pois são
iguais a 2n1 e 2n2.
Como um exemplo ilustrativo, considere que as probabilidades dos passos para a direita e esquerda são iguais,
i.e., p= q = 1/2 e que o número total de passos é N = 20. Substituindo-se estes valores na Eq. (1.10) obtemos o
gráfico mostrado na Fig. 1.2. O resultado é óbvio: a distribuição tem um máximo para m = 0, ou seja, como as
probabilidades são iguais para a direita e esquerda, o deslocamento líquido mais provável é zero. Assim, após N
passos é mais provável que a partícula esteja em torno da origem.
1.2 Discussão geral de valores médios
Agora que temos uma expressão para a probabilidade, precisamos ainda determinar as quantidades físicas relevan-
tes a partir da Eq. (1.10). No exemplo acima, consideramos todos os possíveis valores de m e substituímos estes
valores correspondentes na Eq. (1.10) para obter os valores das probabilidades. Como resultado, obtivemos um
valor máximo em m = 0, coerente com o valor esperado para iguais probabilidades de dar passos à direita ou à
esquerda da origem.
É claro que é possível extrair informações adicionais a partir da distribuição binomial, e nesta seção, vamos
aprender a fazer isso. Para tal, vamos considerar o caso geral de uma variável u que pode assumir M valores
12 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
-20 -15 -10 -5 0 5 10 15 20
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
0.16
0.18
0.20
 
 
P
2
0
(
m
)
m
 P
20
(m)
Figura 1.2: Nesta figura, temos um total N = 20 passos e iguais probabilidades para esquerda e direita. O envelope em
destes valores discretos é uma curva em forma de sino. O significado físico disto é óbvio. Após N passos aleatórios, a
probabilidade da partícula estar a uma distância deN passos da origem é muito pequena enquanto que é mais provável que
a partícula fique localizada em torno da origem param= 0.
discretos
u1, u2, u3, u4, u5, · · · uM
com as respectivas probabilidades
P (u1), P (u2), P (u3), P (u4), P (u5), · · · P (uM ).
O valor médio (ou simplesmente média) de u, denotado por u¯, é definido por:
u¯= P (u1)u1+P (u2)u2+P (u3)u3+ · · ·+P (uM )uM
P (u1)+P (u2)+P (u3)+ · · ·+P (uM ) ,
o que pode ser expresso em uma notação mais compacta:
u¯=
M∑
n=1
P (un)un
M∑
n=1
P (un)
. (1.11)
1.2. DISCUSSÃO GERAL DE VALORES MÉDIOS 13
A Eq. (1.11) já foi usada por você quando calcula médias aritméticas. De fato, se queremos calcular a média
das notas de uma classe, fazemos isso simplesmente somando todas as notas e então dividimos pelo no total de
alunos. Mas isso é exatamente o que está sendo proposto na Eq. (1.11). Para ver isso, precisamos apenas organizar
os dados. Vamos considerar que para uma turma de N alunos, temos n1 alunos com nota u1, n2 alunos com nota
u2, etc.. Isto significa que temos uma probabilidade P (u1) = n1/N de encontrar alunos com nota u1, P (u2) =
n2/N de encontrar alunos com nota u2 e assim sucessivamente. Aqui convém lembrar que a probabilidade é
definida como a razão do número de eventos que ocorrem no ensemble pelo número total de elementos. Assim,
média u¯ das notas da turma pode ser calculada da seguinte forma:
u¯= u1P (u1)+u2P (u2)+ · · ·uNP (uN )
P (u1)+P (u2)+ · · ·P (uN )
e substituindo-se os valores das probabilidades como P (uj) = uj/N obtemos ainda
u¯=
u1
n1
N
+u2
n2
N
+ · · ·uN nN
N
n1
N
+ n2
N
+ · · ·+ nN
N
u¯= u1n1+u2n2+ · · ·uNnN
n1+n2+ · · ·nN =
u1n1+u2n2+ · · ·uNnN
N
e reconhecemos a última fração como a média aritmética das notas dos alunos. Note que a média aritmética
aparece quando a distribuição de probabilidades se reduz à frações do tipo nj/N . No caso geral, a distribuição
de probabilidades pode ser mais complicada e representada por uma função qualquer. No caso do problema da
caminhada aleatória, deduzimos que P (uj) é uma distribuição binomial.
Para uma dada função f(u) qualquer, podemos calcular o seu valor médio da seguinte maneira:
f(u) =
M∑
n=1
P (un)f(un)
M∑
n=1
P (un)
. (1.12)
A expressão dada pelas Eqs. (1.11) e (1.12) podem ser simplificadas considerando que a soma de todas as
probabilidades deve ser igual a 1. Isto equivale a dizer que a probabilidade de se ter qualquer resultado possível,
dentro é claro de todas as possibilidades, é de 100%. Assim, temos:
P (u1)+P (u2)+ · · ·+P (uM ) =
M∑
n=1
P (un) = 1
que é chamada “condição de normalização" satisfeita por toda distribuição de probabilidade. Como resultado, a
Eq. (1.12) se torna:
f(u) =
M∑
n=1
P (un)f(un). (1.13)
14 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
A partir da Eq. (1.13) podemos obter alguns resultados gerais. Se f(u) e g(u) são quaisquer duas funções de
u, então podemos escrever
f(u)+g(u) =
M∑
n=1
P (un)[f(un)+g(u)] =
M∑
n=1
P (un)f(un)+
M∑
n=1
P (un)g(u)
ou seja,
f(u)+g(u) = f(u)+g(u). (1.14)
Além disso, se temos um constante C multiplicando a função f(u), então podemos escrever:
Cf(u) =
M∑
n=1
P (un)Cf(un) = C
M∑
n=1
P (un)f(un)
ou seja,
Cf(u) = Cf(u). (1.15)
Acima calculamos o valor médio das notas de uma turma com N estudantes. O valor médio u¯ meramente nos
mostra o valor central em torno do qual os demais valores ui distribuídos. Isto nos permite determinar uma das
características da distribuição de probabilidade. Para obter informações mais detalhadas acerca da distribuição,
precisamos determinar outras quantidades médias. Neste caso, a próxima quantidade importante é o desvio do
valor médio, definido como:
∆u≡ u− u¯ (1.16)
que nos fornece uma medida quantitativa da distribuição dos valores ui em torno da média. Usando a Eq. (1.14)
podemos calcular o valor médio do desvio:
∆u= u− u¯= u¯− ¯¯u.
Agora, a quantidade ¯¯u é a média do valor médio. Desde que o valor médio é um número, então para fins decálculo este se comporta como uma constante, assim, temos que ¯¯u= u¯. Verifique isso usando a definição da média.
Assim, temos que:
∆u= u− u¯= u¯− u¯= 0.
Este resultado nos diz que o desvio médio em relação a média é zero. Isso é resultado do fato do desvio
apresentar valores positivos e negativos de maneira que a média fica no centro destes valores. Como resultado o
valor médio do desvio deve ser nulo.
1.2. DISCUSSÃO GERAL DE VALORES MÉDIOS 15
Outro valor médio útil é a média do desvio ao quadrado, que também é chamado de segundo momento de u
em torno de sua média ou ainda, de dispersão de u. Este é definido como:
(∆u)2 =
M∑
n=1
P (un)(un− u¯)2 ≥ 0 (1.17)
onde notamos que a dispersão de u é sempre um no positivo. Note então que, diferente da média do desvio, a
dispersão somente será nula para o caso de todos valores un serem iguais a média. Além disso, quanto maior o
espalhamento dos valores un em torno da média, maior será o valor de (∆u)2.
Para calcular a dispersão de qualquer distribuição, observamos primeiramente a seguinte relação:
(∆u)2 = (u− u¯)2 = u2−2uu¯+ u¯2
= u2−2u¯u¯+ u¯2 = u2−2u¯2+ u¯2 = u2− u¯2
(∆u)2 = u2− u¯2 (1.18)
o que implica em
u2 ≥ u¯2, desde que (∆u)2 ≥ 0.
Podemos ainda definir momentos de ordem superior tais como (∆u)n, o n-ésimo momento de u em torno de
sua média para n > 2. Estes momentos de ordem superior são menos úteis nos cálculos e, em geral, utilizamos os
momentos até segunda ordem.
Notamos ainda que o conhecimento de P (u) nos fornece a informação completa sobre a distribuição de proba-
bilidades. Um conhecimento de poucos momentos, como u¯ e (∆u)2 implica em apenas uma informação parcial,
embora útil, sobre a distribuição de valores. Em problemas gerais de física, podemos determinar apenas alguns
destes momentos da distribuição sendo muito raro ter acesso à equação para a função distribuição. No caso do
problema da caminhada aleatória, conhecemos a distribuição e podemos determinar todos os momentos da dis-
tribuição. A seguir, faremos o cálculo do valor médio e da dispersão dos valores do deslocamento em torno da
média.
1.2.1 Cálculo dos valores médios para o problema da caminhada aleatória
No problema da caminhada aleatória obtivemos a função distribuição dada pela Eq. (1.8)
W (n1) =
N !
n1!(N −n1)!p
n1qN−n1 .
16 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
onde omitimos o índice N emW para simplificar a notação.
Antes de calcular os valores médios, vamos verificar a condição de normalização que deve ser verificada por
toda a distribuição de probabilidades:
N∑
n1=1
W (n1) = 1.
Substituindo-se a distribuição de probabilidades (1.8) obtemos:
N∑
n1=1
N !
n1!(N −n1)!p
n1qN−n1
mas como vimos pela Eq. (1.9), a soma acima é a própria distribuição de Newton, i.e.,
N∑
n1=1
N !
n1!(N −n1)!p
n1qN−n1 = (p+ q)N
mas como q = 1−p então vemos que
(p+ q)N = (p+1−p)N = 1,
logo, vemos que a condição de normalização é satisfeita.
Cálculo dos valores médios
Vamos agora determinar o valor médio de n1, o número de passos para a direita. Usando a definição do cálculo do
valor da média temos que:
n¯1 =
N∑
n1=0
W (n1)n1 =
N∑
n1=0
n1
N !
n1!(N −n1)!p
n1qN−n1
n¯1 =
N∑
n1=0
N !
n1!(N −n1)! [n1p
n1 ]qN−n1
onde destacamos o fator n1pn1 . Desde que o problema se resume a calcular a soma acima, observamos que:
n1p
n1 = p ∂
∂p
(pn1)
e, assim, substituindo esta equação na soma temos:
n¯1 =
N∑
n1=0
N !
n1!(N −n1)!q
N−n1p
∂
∂p
(pn1)
1.2. DISCUSSÃO GERAL DE VALORES MÉDIOS 17
e desde que não existe dependência dos limites da soma com p, podemos retirar o fator p∂/∂p para fora da soma,
i.e.,
n¯1 = p
∂
∂p
 N∑
n1=0
N !
n1!(N −n1)!q
N−n1pn1

e usando novamente a distribuição binomial temos que:
n¯1 = p
∂
∂p
(p+ q)N .
Aqui convém notar que o cálculo desenvolvido é válido considerando que p e q são dois parâmetros arbitrários.
Assim, não podemos efetuar a troca de p= 1− q pois esta seria uma particularização de p e q. Assim, aplicando a
derivada parcial sobre o binômio, segue que:
n¯1 =Np(p+ q)N−1.
Agora sim, uma vez que temos o resultado geral, podemos fazer a particularização do mesmo para o caso em
que p+ q = 1. Assim, obtemos o resultado simples:
n¯1 =Np. (1.19)
Agora sabemos também que
n1+n2 =N
e tomando a média, temos que:
n¯2 =N − n¯1
e substituindo-se n¯1 =Np, segue que:
n¯2 =N −Np=N(1−p) =Nq.
O valor do deslocamento médio pode ser facilmente determinado uma vez que temos a média do no de passos
em ambos os sentidos. De fato, segundo a definição do deslocamento médio, temos:
m= n1−n2
logo, o valor médio será
m¯= n¯1− n¯2
e substituindo-se os valores de n¯1 e n¯2, obtemos ainda:
m¯=N(p− q).
18 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
Calculo da dispersão
O próximo passo é a determinação da dispersão definida pela Eq. (1.18), a qual pode ser particularizada para o
caso presente:
(∆n1)2 ≡ n1− n¯21 = n21− n¯21. (1.20)
Como já conhecemos o valor da média, precisamos apenas determinar o valor médio de n21. Para isso, aplica-
mos a Eq. (1.13) com a distribuição binomial no lugar de P (un), assim, segue que:
n21 =
N∑
n1=0
W (n1)n21
e substituindoW (n1) obtemos:
n21 =
N∑
n1=0
N !
n1!(N −n1)!p
n1qN−n1n21.
Aqui usamos o mesmo procedimento adotado para o cálculo da média do valor n1. Neste caso, observamos
que a expressão abaixo nos permite eliminar o fator n21:
n21p
n1 =
(
p
∂
∂p
)2
pn1 .
Podemos verificar a expressão acima calculando diretamente:(
p
∂
∂p
)2
pn1 = p ∂
∂p
(
p
∂pn1
∂p
)
= p
[
∂pn1
∂p
+p∂
2pn1
∂p2
]
(
p
∂
∂p
)2
pn1 = p∂p
n1
∂p
+p2∂
2pn1
∂p2
e aplicando as derivadas, segue que:(
p
∂
∂p
)2
pn1 = n1pn1 +p2n1(n1−1)pn1−2 = n1pn1 +n21pn1−n1pn1 = n21pn1
que é a relação que gostaríamos de demonstrar.
Substituindo esta relação na equação para o valor médio, obtemos:
n21 =
N∑
n1=0
N !
n1!(N −n1)!q
N−n1 [n21pn1 ]
ou ainda
n21 =
N∑
n1=0
N !
n1!(N −n1)!q
N−n1
(
p
∂
∂p
)2
pn1
1.2. DISCUSSÃO GERAL DE VALORES MÉDIOS 19
e trocando a ordem entre a soma e a integração, segue que:
n21 =
(
p
∂
∂p
)2 N∑
n1=0
N !
n1!(N −n1)!q
N−n1pn1
e considerando novamente que q e p são arbitrários, podemos escrever a soma usando a relação do teorema bino-
mial, i.e.,
n21 =
(
p
∂
∂p
)2
(p+ q)N = p ∂
∂p
[
p
∂(p+ q)N
∂p
]
= p ∂
∂p
[
pN(p+ q)N−1
]
e aplicando a outra derivada obtemos:
n21 = p
[
pN(N −1)(p+ q)N−2+N(p+ q)N−1
]
e como este é o resultado final, podemos particularizar para o caso em que p e q são probabilidades onde vale a
restrição p+ q = 1, assim:
n21 = p[N(N −1)p+N ] = p[pN2−pN +N ] = p[pN2+(1−p)N ] = (pN)2+Npq
e de acordo com a Eq. (1.19) temos que n¯1 =Np assim, podemos escrever:
n21 = n¯21+Npq ∴ n21− n¯21 =Npq
e identificamos o primeiro membro com a dispersão através da Eq. (1.20), assim, temos:
(∆n1)2 =Npq. (1.21)
Quando a Eq. (1.21) é comparada com os deslocamentos, vemos que a dispersão é quadrática no deslocamento.
Em outras palavras, como x= (n1−n2)l, então uma quantidade que depende do quadrado do número de passos à
direita estará relacionada com o quadrado do deslocamento x. Assim, sua raíz quadrada, chamada de desvio médio
quadrático ou do inglês root mean square deviation1 é linear no comprimento e fornece uma medida linear da
largura do intervalo dentro do qual os valores de n1 estão distribuídos. Definimos então o desvio médio quadrático
da seguinte forma:
∆∗n1 = [(∆n1)2]1/2 =
√
Npq. (1.22)
Outra medida muito usada para a dispersão é a chamada largura relativa definida como a razão do desvio médio
quadrático pelo valor médio, i.e.,∆∗n1
n¯1
=
√
Npq
Np
=
√
q
p
1√
N
. (1.23)
1Esta quantidade também é escrita como rms deviation. Você já deve ter ouvido falar em potência rms ou ainda na velocidade rms na
introdução à teoria cinética dos gases no seu curso de física introdutório.
20 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
Note que embora o valor médio aumente com N a largura relativa diminui com N−1/2 e a distribuição vai se
tornando cada vez mais concentrada a medida que N cresce.
Agora que determinamos os parâmetros relativos ao no de passos para a direita, podemos determinar as mesmas
quantidades para o deslocamento líquidom. Com efeito, temos que
m= 2n1−N
o que nos permite escrever:
∆m=m− m¯
∆m= 2n1−N − (2n¯1−N) = 2(n1− n¯1) = 2∆n1 ∴ (∆m)2 = 4(∆n1)2
ou ainda,
(∆m)2 = 4(∆n1)2
e substituindo-se o valor previamente calculado de (∆n1)2 temos que:
(∆m)2 = 4Npq.
1.3 Distribuição de probabilidades para N grande
Conforme podemos observar da Eq. (1.23), a distribuição binomial W (n1) tende a apresentar um máximo pro-
nunciado para um dado valor n1 = n˜1 e decresce rapidamente para grandes valores de N . Podemos usar este fato
para obter uma expressão aproximada paraW (n1) válida para N →∞.
Para N grande, considere regiões próximas do valor máximo da distribuição binomial, onde n1 também é
grande. Neste caso, a mudança fracional de W (n1) quando n1 muda por uma unidade é relativamente pequena,
ou seja,
|W (n1+1)−W (n1)| ≪W (n1).
Com isso, podemos considerar como uma ótima aproximação, queW pode ser considerado uma função contí-
nua da variável n1 embora n1 só tenha significado para valores inteiros. A localização do valor máximo da função
distribuição é determinada através da condição:
∂W
∂n1
∣∣∣∣
n1=n˜1
= 0, ou, equivalentemente, ∂ lnW
∂n1
∣∣∣∣
n1=n˜1
= 0.
1.3. DISTRIBUIÇÃO DE PROBABILIDADES PARA N GRANDE 21
Esta condição é sempre usada para determinar o ponto de inflexão de uma função. Em nosso caso, a distribui-
ção binomial tem apenas um pico de modo que o ponto de inflexão é exatamente o ponto de máximo. Note que no
caso geral, precisamos ainda determinar o sinal da segunda derivada no ponto onde a primeira derivada se anula
para verificar se o ponto de inflexão é máximo ou mínimo. Recomendamos uma revisão deste tópico nos livros de
cálculo elementar.
Desde que a função W (n1) é fortemente concentrada para N grande, trabalhamos com o seu logaritmo
lnW (n1) que apresenta uma variação muito mais suave em comparação com a própria W (n1). De fato, pode
ser mostrado que a convergência da série do logaritmo é muito mais rápida do que a convergência da série da
função.
Isto pode ser observado analisando-se a expansão para a função f = (1+ y)−N para N grande. Se y ≪ 1,
podemos escrever a expansão para esta função por meio da série de Taylor:
f(y) = 1−Ny+ 12N(N +1)y
2+ · · ·
e vemos então que para N grande a série acima diverge desde que Ny & 1 mesmo para valores pequenos de y.
Um modo que contornar esta dificuldade, é trabalhar com o logartimo da função acima, ou seja,
lnf =−N ln(1+y)
e expandindo o logartimo2, temos que:
lnf =−N
(
y− y
2
2 +
y3
3 + · · ·
)
o que nos permite escrever:
f(y) = e
−N
(
y− y22 + y
3
3 +···
)
que converge rapidamente para N grande e y . 1.
Vamos então obter a expansão de lnW em série de Taylor em torno do ponto de máximo n˜1. Assim, escreve-
mos:
lnW (n1) = lnW (n˜1)+B1η+
1
2B2η
2+ 13!B3η
3+ · · · (1.24)
2É completamente simples obter a expansão do logaritmo. Para isso lembramos que
1
1+x =
∑
n
(−1)nxn
e integrando em ambos os lados obtemos∫ x
0
1
1+x dx=
∑
n
(−1)n
∫ x
0
xn dx ∴ ln(1+x) =
∑
n
(−1)n x
n+1
n+1 = x−
x2
2 +
x3
3 −·· ·
22 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
onde definimos
η = n1− n˜1
e
Bγ =
dγ lnW (n˜1)
dnγ1
como a γ-ésima derivada de lnW calculada no ponto n1 = n˜1. Desde que estamos expandindo a função em
torno de seu ponto de máximo, a primeira derivada deve ser nula neste ponto, assim B1 = 0. Além disso, desde
que é um ponto de máximo, então a derivada segunda deve ter um valor negativo quando calculada neste ponto.
Explicitamente, escrevemos então B2 = −|B2|. Usando a notação abreviada W˜ =W (n˜1), podemos escrever a
Eq. (1.24) da seguinte maneira
W (n1) = W˜e
1
2B2η
2+ 16B3η
3+··· = W˜e−
1
2 |B2|η2e
1
6B3η
3···. (1.25)
Como estamos considerando regiões em torno do ponto de máximo, então η≪ 1 e, assim, podemos desprezar
os termos de terceira ordem em η e superiores. Com isso, escrevemos a Eq. (1.25) na forma aproximada:
W (n1)∼ W˜e− 12 |B2|η2 . (1.26)
Resta determinar o valor da derivada deW (n1). Para isso, recorremos à expressão deW dada pela Eq. (1.8)
W (n1) =
N !
n1!(N −n1)!p
n1qN−n1 .
e tomando logaritmo, segue que:
lnW (n1) = lnN !− lnn1!− ln(N −n1)!+n1 lnp+(N −n1) lnq
e, em princípio, precisaríamos determinar o valor da derivada de um fatorial. No entanto, podemos simplificar
a expressão acima no limite de n1 grande que estamos considerando. Com efeito, se n1 ≫ 1, então podemos
considerar lnn1! aproximadamente contínuo desde que a mudança de n1 por uma unidade causa uma mudança
muito pequena no logaritmo. Assim, podemos aproximar a derivada de lnn1 usando a definição de derivada, i.e.,
d lnn1!
dn1
≈ ln(n1+1)!− lnn1!1 = ln
(n1+1)!
n1!
= ln(n1+1)
e como n1≫ 1, então ln(n1+1)≈ lnn1 e obtemos a nossa derivada aproximada na forma:
d lnn1!
dn1
≈ lnn1. (1.27)
1.3. DISTRIBUIÇÃO DE PROBABILIDADES PARA N GRANDE 23
Tomando a derivada de lnW usando a Eq. (1.27) e levando em conta que N é constante, temos:
d lnW (n1)
dn1
=−d lnn1!
dn1
− d ln(N −n1)!
dn1
+ d[n1 lnp]
dn1
+ d[(N −n1) lnq]
dn1
d lnW (n1)
dn1
=− lnn1+ln(N −n1)+ lnp− lnq = ln
[(N −n1)p
n1q
]
e calculando esta derivada no seu valor máximo, i.e., fazendo n1 = n˜1, devemos ter a derivada acima igual a zero,
então temos:
d lnW (n1)
dn1
∣∣∣∣
n1=n˜1
= ln
[(N − n˜1)p
n˜1q
]
= 0
de onde obtemos:
(N − n˜1)p
n˜1q
= 1 ∴ Np− n˜1p= n˜1q
e como p+ q = 1, obtemos ainda
n˜1 =Np.
Agora, precisamos determinar a segunda derivada de lnW , para isso basta diferenciar a primeira derivada mais
uma vez:
d2 lnW (n1)
dn21
= d
dn1
ln
[(N −n1)p
n1q
]
= n1q(N −n1)p
d
dn1
[(N −n1)p
n1q
]
d2 lnW (n1)
dn21
= n1q(N −n1)p
[−pn1q− q(N −n1)p
n21q
2
]
=− n1q(N −n1)p
[
pqN
n21q
2
]
d2 lnW (n1)
dn21
=− N
n1(N −n1)
e fazendo-se n1 = n˜1, vamos obter:
d2 lnW (n1)
dn21
∣∣∣∣∣
n1=n˜1
=− N
Np(N −Np) =−
1
Npq
logo,
B2 =− 1
Npq
24 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
e vemos que apresenta um valor negativo como era esperado poisW deve apresentar um valor máximo em n1= n˜1.
Resta ainda determinar o valor W˜ que pode ser calculado requerendo que a soma sobre todos os valores de
W deve igual à unidade. Lembremos que a função distribuição nos fornece a probabilidade de que a partícula
tenha dado n1 passos. Assim, quando somamos sobre todos os valores de n1 estamos na verdade considerando a
probabilidade da partícula dar qualquer passo, o que deve ser igual a 1.
Como estamos considerando uma aproximação em que n1 se assemelha à uma variável contínua, então deve-
mos trocar a soma por uma integração. Assim, o que estamos dizendo efetivamente se reduz a
N∑
n1=0
W (n1)≈
∫
W (n1) dn1 =
∫ +∞
−∞
W (η) dη = 1.
Aqui são importantes duas observações: (a) η = n1− n˜1 e, portanto, pode assumir tanto valores positivos
quanto negativos; (b) estendemos os limites da integração em η para ±∞ o que equivale a dizer que N →∞,
ou seja, estamos considerando uma aproximação dentro da qual o número de passos é tão grande que pode ser
considerado infinito. Desde que a distribuiçãose torna cada mais estreita e localizada em torno de seu valor
máximo n˜1, então W é essencialmente zero para valores de n1 com três ou quatro vezes o valor da dispersão.
Assim, os limites podem ser estendidos com um erro negligenciável.
Para obter o valor do coeficiente W˜ basta substituir a distribuição dada pela Eq. (1.26) na integral acima, i.e.,∫ +∞
−∞
W (η) dη = 1
W˜
∫ +∞
−∞
e−
1
2 |B2|η2 dη = 1
onde mantivemos W˜ fora do sinal de integração porque este é constante. A integral tem solução conhecida:∫ +∞
−∞
e−
1
2 |B2|η2 dη =
√
2π
|B2|
assim,
W˜
√
2π
|B2| = 1 ∴ W˜ =
√
|B2|
2π .
Substituindo-se este resultado na Eq. (1.26) obtemos a seguinte distribuição normalizada:
W (n1) =
√
|B2|
2π e
− 12 |B2|(n1−n˜1)2 . (1.28)
A distribuição acima é chamada de distribuição Gaussiana. Para chegar nesta distribuição apenas tomamos o
limite contínuo da distribuição binomial. Da mesma forma que a distribuição binomial, a distribuição Gaussiana é
1.4. DISTRIBUIÇÕES DE PROBABILIDADE GAUSSIANAS 25
bastante geral e aparece em vários ramos da Física e outras áreas. Com efeito, esta distribuição aparece sempre que
trabalhamos com estatísticas de grandes números. Como já determinamos o valores deB2 e n˜1, vamos substituí-los
na Eq. (1.28):
W (n1) =
1
[2πNpq]1/2
exp
[
−(n1−Np)
2
2Npq
]
. (1.29)
Se voltarmos aos resultados da distribuição binomial para a dispersão e o valor médio da distribuição binomial:
W (n1) =
1
[2π(∆n1)2]1/2
exp
[
−(n1− n¯1)
2
2(∆n1)2
]
. (1.30)
1.4 Distribuições de probabilidade Gaussianas
Podemos escrever a Eq. (1.29) em termos do deslocamento líquido m de modo que a distribuição de probabili-
dade forneça a probabilidade de um determinado deslocamento para um grande número N de passos. Para isso,
relembramos que n1 = (N +m)/2. Assim, temos que:
P (m) =W
(
N +m
2
)
= 1
[2πNpq]1/2
exp
[
−((N +m)/2−Np)
2
2Npq
]
.
Para simplificar o numerador do argumento da exponencial, escrevemos:
N +m
2 −Np=
1
2(N +m−2Np) =
1
2[N +m−N(p+1− q)]
= 12[N +m−Np−N +Nq)] =
1
2[m−N(p− q)]
e substituindo na distribuição, segue que:
P (m) = 1
[2πNpq]1/2
exp
[
− [m−N(p− q)]
2
8Npq
]
.
Aqui será conveniente trabalhar com o deslocamento real x da partícula o qual está relacionado com o deslo-
camento líquido pela Eq. (1.1)
x=ml
lembrando que l é o comprimento de cada passo. Note que como os valores dem estão separados por ∆m= 2, x
varia em incrementos de 2l. Agora, se l é muito pequeno comparado ao menor comprimento físico de interesse,
os incrementos de 2l são muito pequenos e x também pode ser tomado como uma variável contínua no limite
de N grande. Além disso, neste mesmo limite P (m) não pode variar muito de um dado valor m para o seu
valor adjacente, ou seja, |P (m+2)−P (m)| ≪ P (m). Com isso, a distribuição de probabilidade P (m) pode ser
26 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
considerada como uma função contínua de x da mesma forma que fizemos com W (n1). Na Fig. 1.3 é mostrado
um esboço de um histograma para um valor grande de N . Este gráfico é similar ao que foi calculado na Fig. 1.2
para N = 20. A densidade de barras é muito alta e a curva que toca os pontos de cada barra pode ser considerada
uma função contínua.
Figura 1.3: A probabilidade P (m) do deslocamento líquido m quando o número de passos N é muito grande e o compri-
mento l de cada passo é muito pequeno.
Nestas circunstâncias consideramos x como uma variável contínua em uma escala macroscópica e queremos
determinar a probabilidade de encontrar a partícula após N passos no intervalo definido entre x e x+ dx. É
importante observar que dx é uma diferencial no sentido macroscópico, i.e., se L é a menor distância de relevância
macroscópica, então dx≪ L. No entanto, temos ainda que o intervalo dx compreende muitos passos l, ou seja,
dx≫ l. Em resumo, dx é microscopicamente grande mas macroscopicamente pequeno.
Para obter a probabilidade para que a partícula esteja no intervalo entre x e x+dx, precisamos somar todas as
probabilidades P (m) que estão contidas no intervalo dx. Este valor é simplesmente igual a dx/2l que é o número
de pontos contidos no intervalo dx. Vemos então que a probabilidade é proporcional a dx e é usualmente escrita
na seguinte forma:
P(x) dx= P (m) dx2l
onde a quantidade P(x), que independe do tamanho do intervalo dx, é a chamada densidade de probabilidade.
Note que para calcular a probabilidade sempre devemos multiplicar P(x) pelo elemento de comprimento dx.
1.4. DISTRIBUIÇÕES DE PROBABILIDADE GAUSSIANAS 27
Substituindo P (m), vamos obter:
P(x) dx= 1
[2πNpq]1/2
exp
[
− [m−N(p− q)]
2
8Npq
]
dx
2l
e como x=ml, segue que:
P(x) dx= 1
[2π4Npql2]1/2
exp
[
− [x−N(p− q)l]
2
8Npql2
]
dx.
Aqui, definimos as seguintes quantidades:
σ = 2l
√
Npq (1.31)
µ= (p− q)Nl (1.32)
e substituindo-se estas definições na distribuição Gaussiana, obtemos ainda
P(x) dx= 1√
2πσ
exp
[
− [x−µ]
2
2σ2
]
dx. (1.33)
A distribuição Gaussiana é completamente geral no sentido de que quaisquer considerações probabilísticas
sobre um número muito grande de experimentos preparados de maneira similar pode levar à expressão dada pela
Eq. (1.33). Da mesma forma que fizemos para a distribuição binomial, é possível determinar os momentos da
distribuição através da Eq. (1.33) da mesma forma que fizemos com a distribuição binomial. Neste caso, porém,
teremos que lidar com integrações em vez de somas sobre números discretos. Além disso, a aproximação que
permite fazer os limites de integração tenderem ao infinito pode ser realizada desde que P(x) ser torna muito
pequeno a medida que |x| se torna muito grande. A seguir, ilustramos em detalhes os cálculos dos momentos da
distribuição Gaussiana da mesma forma que foi realizado para o caso da distribuição binomial. Primeiramente,
consideramos a verificação da normalização da distribuição Gaussiana:∫ +∞
−∞
P(x) dx= 1√
2πσ
∫ +∞
−∞
exp
[
− [x−µ]
2
2σ2
]
dx
e fazendo a troca de variável y = (x−µ)/√2σ, podemos escrever ainda∫ +∞
−∞
P(x) dx= 1√
π
∫ +∞
−∞
e−y
2
dy
e usando o resultado3 ∫ +∞
−∞
e−x
2
dx=
√
π (1.34)
3O resultado que usamos [Eq. (1.34)] na verificação da condição de normalização é bastante conhecida. O cálculo desta integração é
realizado no apêndice A.2., pg. 606 do livro-texto do Reif. Recomendo fortemente o estudo do cálculo desta integral.
28 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
podemos escrever: ∫ +∞
−∞
P(x) dx= 1√
2πσ
∫ +∞
−∞
exp
[
− y
2
2σ2
]
dy
vemos que
∫ +∞
−∞
P(x) dx= 1√
π
√
π = 1,
e a distribuição está normalizada.
O próximo passo é a determinação do valor médio do deslocamento, i.e., calcular x¯. Para isso, usamos a
definição da média:
x¯=
∫ +∞
−∞
xP(x) dx
e substituindo a distribuição, segue que:
x¯= 1√
2πσ
∫ +∞
−∞
xexp
[
− [x−µ]
2
2σ2
]
dx
e fazendo-se a troca de variável y = x−µ, obtemos:
x¯= 1√
2πσ
∫ +∞
−∞
ye−y
2/2σ2 dy+ µ√
2πσ
∫ +∞
−∞
e−y
2/2σ2 dy
e vemos que a primeira integral é zero pois é uma integral de uma função ímpar4 em um intervalo simétrico
enquanto que a segunda integral é simplesmente a integral da distribuição multiplicada pela constante µ. Assim,
4Lembre-se que uma função ímpar é qualquer função que tenha a propriedade:
f(−x) =−f(x) (1.35)
e a integral de uma função ímpar em um intevalo simétrico do tipo [−a,a] é nula. Podemos mostrar isso facilmente. Considere a integral
abaixo: ∫ +a
−a
f(x) dx=
∫ 0
−a
f(x) dx+
∫ +a
0
f(x) dx
e fazendo a troca de variável x=−x′ na primeira integração segue que:∫ +a
−a
f(x) dx=−
∫ 0
a
f(−x′) dx′+
∫ +a
0
f(x) dxe invertendo os limites da primeira integral, cancelamos o sinal negativo, assim:∫ +a
−a
f(x) dx=
∫ a
0
f(−x) dx+
∫ +a
0
f(x) dx=
∫ +a
0
[f(−x)+f(x)] dx= 0
onde voltamos a chamar x′ de x pois isto não altera o valor da integração. Além disso, agrupamos as duas integrais em apenas uma de 0
até +a. Usando a definição de função ímpar [Eq. (1.35)], mostramos então que a última integral é nula.
1.5. DISCUSSÃO GERAL DO PROBLEMA DA CAMINHADA ALEATÓRIA 29
como já provamos que a distribuição é normalizada, então a integral é igual a 1. Logo, escrevemos:
x¯= 0+µ×1 ∴ x¯= µ. (1.36)
Se você fizer um gráfico deP irá notar que a distribuição é simétrica em torno do ponto µ. Assim, o resultado
da média do valor de x ser igual a µ já era um resultado esperado.
A próxima quantidade é a dispersão. Já usando o valor da média como sendo igual a µ, podemos escrever:
(x−µ)2 = 1√
2πσ
∫ +∞
−∞
(x−µ)2 exp
[
− [x−µ]
2
2σ2
]
dx
e trocando y = x−µ, podemos escrever ainda5
(x−µ)2 = 1√
2πσ
∫ +∞
−∞
y2e−y
2/2σ2 dy = 1√
2πσ
[√
π
2 (2σ
2)3/2
]
logo,
(x−µ)2 = σ2 (1.37)
Como já conhecemos os valores de µ e σ [Eqs. (1.31) e (1.32)], podemos escrever a média e a dispersão na
forma:
x¯= 2l
√
Npq, (1.38)
(∆x)2 = (p− q)Nl. (1.39)
1.5 Discussão Geral do problema da caminhada aleatória
Até o momento consideramos o problema da caminhada aleatória como sendo realizado através de uma séries de
N passos de tamanhos fixos e iguais a l no caso unidimensional. Após isso, consideramos o limite de um número
muito grande de passos e obtivemos a distribuição Gaussiana. No entanto, a generalização dos resultados obtidos
para outras dimensões e ainda para o caso em que os passos têm tamanhos diferentes é bastante complicada. Por
esta razão, aqui nos voltamos para um formalismo mais geral apropriado para a aplicação nos sistemas futuros que
iremos estudar. Começamos considerando distribuições que são funções de mais de uma variável e então iremos
aplicar a generalização para o caso de um ensemble.
5Veja apêndice A.4. do livro do Reif para ver a solução da integral
∫ +∞
−∞
y2e−y
2/2σ2 dy.
30 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
1.5.1 Distribuições de probabilidades envolvendo várias variáveis
A descrição estatística de uma situação envolvendo mais de uma variável requer a generalização dos argumentos
probabilísticos que desenvolvemos para o caso de uma variável. Por simplicidade, vamos considerar o caso de
duas variáveis u e v que podem assumir os seguintes valores:
ui, onde i= 1,2,3 · · · ,M
vj , onde j = 1,2,3 · · · ,N.
Seja P (ui,vj) a probabilidade de que a variável u assuma o valor ui e a variável v assuma o valor vj . A
probabilidade que u e v assumam qualquer valor dentre todos valores possíveis deve ser igual à unidade, i.e.,
fazendo-se a soma sobre i e j devemos obter o requerimento de normalização:
M∑
i=1
N∑
j=1
P (ui,vj) = 1. (1.40)
A probabilidade de u assumir o valor u1, independente do valor assumido por v, é a soma de todas as probabi-
lidades de todas as situações possíveis consistentes com todos os valores de u, i.e.,
Pu(ui) =
N∑
j=1
P (ui,vj) (1.41)
onde a soma é realizada sobre todos os valores de vj . Similarmente, a probabilidade da variável v assumir o valor
vj independentemente do valor assumido por u é obtida somando-se sobre todos os valores de u:
Pv(vj) =
M∑
i=1
P (ui,vj). (1.42)
Convém notar que :
M∑
i=1
Pu(ui) =
N∑
j=1
Pv(vj) =
M∑
i=1
N∑
j=1
P (ui,vj) = 1,
que é a condição de normalização.
De todas as possibilidades relacionadas com as relações entre as variáveis u e v, consideraremos uma situação
particular em que os valores assumidos por uma variável não dependem dos valores da outra variável. Neste caso,
dizemos que as variáveis são estatisticamente independentes ou não-correlacionadas. Com isso, a distribuição
de probabilidades pode ser expressa de maneira muito simples em termos da probabilidade que u assuma um valor
ui para qualquer valor de v, que definimos como Pu(ui), e em termos da probabilidade de v assumir o valor vj
para qualquer valor de Pv(vj). Neste caso, podemos escrever:
P (ui,vj) = Pu(ui)Pv(vj) (1.43)
1.5. DISCUSSÃO GERAL DO PROBLEMA DA CAMINHADA ALEATÓRIA 31
se u e v são estatisticamente independentes.
Da mesma forma que foi feito para o caso de uma variável, podemos calcular os valores médios a partir da
distribuição P (ui,vj). Para isso, consideremos uma função F (u,v) qualquer. O valor médio de F é definido
como:
F (u,v) =
M∑
i=1
N∑
j=1
P (ui,vj)F (ui,vj). (1.44)
Note que se f(u) é uma função apenas de u, segue pela Eq. (1.41) que
f(u) =
M∑
i=1
N∑
j=1
P (ui,vj)f(ui) =
M∑
i=1
 N∑
j=1
P (ui,vj)
f(ui)
f(u) =
M∑
i=1
Pu(ui)f(ui).
No caso de duas funções de u e v denotadas por F e G, então temos os seguintes resultados gerais:
F +G=
M∑
i=1
N∑
j=1
P (ui,vj)(F (ui,vj)+G(ui,vj))
=
M∑
i=1
N∑
j=1
P (ui,vj)F (ui,vj)+
M∑
i=1
N∑
j=1
P (ui,vj)G(ui,vj)
= F¯ + G¯
e observamos que a média da soma é igual a soma das médias.
Agora, considere duas funções f(u) e g(v). Se consideramos que as probabilidades de u e v são estatistica-
mente independentes, então podemos escrever:
f(u)g(v) =
M∑
i=1
N∑
j=1
P (ui,vj)f(ui)g(vj)
e como estamos considerando que não há correlação então vale a Eq. (1.43), i.e,
f(u)g(v) =
M∑
i=1
N∑
j=1
Pu(ui)Pv(vj)f(ui)g(vj) =
[
M∑
i=1
Pu(ui)f(ui)
] N∑
j=1
Pv(vj)g(vj)

ou seja,
f(u)g(v) = f(u) g(v) (1.45)
i.e., a média de um produto é igual ao produto das médias se u e v são estatisticamente independentes. A Eq.
(1.45) não é válida no caso em que a independência estatística não é verificada.
É claro que é possível generalizar os resultados obtidos acima para o caso de um número arbitrário de variáveis.
32 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
1.5.2 Comentários sobre distribuições de probabilidade contínuas
Consideremos primeiramente o caso em que temos apenas uma variável u que pode assumir qualquer valor no
intervalo a1 < u < a2. Conforme discutimos anteriormente, se propomos uma descrição probabilística para a
variável u, podemos focar em um intervalo infinitesimal entre u e u+du e perguntar pela probabilidade da variável
u assumir um valor dentro deste intervalo. Considerando um intervalo suficientemente pequeno, podemos escrever
esta probabilidade na forma P(u) du onde P(u) é a densidade de probabilidade, independente do tamanho do
intervalo considerado. No entanto, é possível reduzir o problema variáveis contínuas para um problema equivalente
de variáveis discretas.
Para isso, começamos dividindo o intervalo entre a1 e a2 em intervalos de tamanhos iguais a δu. Cada in-
tervalo pode ser rotulado por um índice i. O valor de u em cada intervalo é ui e P (ui) é a probabilidade de
encontrar a variável dentro deste intervalo δu. Esta subdivisão do intervalo nos permite trabalhar com um número
contável de valores da variável u. Isto permite utilizar todas as expressões desenvolvidas para o caso discreto que
demonstramos previamente.
O estabelecimento da conexão entre variáveis contínuas e discretas pode ser realizado considerando que o
intervalo du contém um grande número de intervalos δu. Assim, a probabilidade de encontrar u dentro do intervalo
δu é dada por
P (u) =P(u) δu (1.46)
Considerando que du ≫ δu, então podemos dizer que há du/δu valores possíveis de ui no intervalo du.
Considerando que a probabilidade dentro de cada intervalo δu é aproximadamente a mesma, i.e., P (ui) = P (u),
então a probabilidade de encontrar u no intervalo du, será:
P(u) du= P (u) du
δu
(1.47)
onde trocamos a densidade de probabilidade pelo seu valor dado pela Eq. (1.46). A Eq. (1.47) oferece aconexão
entre a variável discreta e a contínua. De fato, P (u) é definida apenas em valores discretos determinados pela
quantidade de subdivisões δu contidas no intervalo total a1 < u < a2.
Notamos que os valores médios e outras quantidades, que são definidas em termos de somatórios no caso
de variáveis discretas, serão determinadas através de integrações quando a variável é contínua. A condição de
normalização, por exemplo, é definida por:
∑
i
P (ui) = 1. (1.48)
1.5. DISCUSSÃO GERAL DO PROBLEMA DA CAMINHADA ALEATÓRIA 33
Mas no caso da variável contínua, é possível primeiramente somar as probabilidades discretas definidas no
intervalo du, o que nos permite obter P(u)du e, em seguida, efetuar a integração sobre u sobre todo o intervalo6.
Desta forma a Eq. (1.48) se torna:
∫ a2
a1
P(u) du= 1, (1.49)
que é a expressão da condição de normalização em termos da densidade de probabilidade. Similarmente, podemos
escrever os valores médios previamente definidos em termos de P(u). Com efeito, o valor médio de uma função
qualquer f(u) pode ser escrito na forma:
f(u) =
∫ a2
a1
P(u)f(u) du.
Vamos considerar agora o caso mais geral em que temos duas variáveis u e v, tal que a1<u<a2 e b1<v < b2.
Neste caso, podemos falar da probabilidade de P(u,v) du dv que as variáveis estejam no intervalo u e u+du e
v e v+ dv, respectivamente, onde P(u,v) é densidade de probabilidade independente do tamanho do elemento
du dv. Note que neste caso, os intervalos du e dv correspondem a uma área do espaço definido pelas variáveis u
e v. Este espaço é ilustrado na Fig. 1.4 onde observamos que os intervalos du e dv são subdivididos em intervalos
δu e δv ainda menores rotulados por índices i e j. Como resultado, podemos falar na probabilidade P (ui,vj) de
6Note que a soma dada pela Eq. (1.48) ocorre sobre todo o intervalo a1 < u < a2. No entanto, podemos escrever a soma acima na
forma:
∆u1/δu∑
j=1
P (uj)+
∆u2/δu∑
j=1
P (uj)+ · · ·+
∆uN/δu∑
j=1
P (uj) = 1.
onde subdividimos o intervalo em N intervalos de largura∆u e os rotulamos por ∆uj , com j = 1,2, · · · ,N . Se P (uj) é igual para todos
os subintervalos δuj , então podemos escrever as somas acima na forma:
P (u1)
∆u1/δu∑
j=1
+ P (u2)
∆u2/δu∑
j=1
+ · · ·+ P (uN )
∆uN/δu∑
j=1
= 1.
ou ainda,
N∑
k=1
P (uk)
∆uk
δu
= 1 ∴
N∑
k=1
P(uk)∆uk = 1.
onde usamos a Eq. (1.48). Agora note que∆ui = (a2−a1)/N . Assim, quando N →∞∆ui→ du e a soma sobre os valores inteiros se
transforma em uma integral de a1 até a2. Assim, temos:
N∑
k=1
P(uk)∆uk = 1
N→∞−−−−→
∫ a2
a1
P(u) du= 1.
que o resultado final para o limite contínuo.
34 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
encontrar simultâneamente u= ui e v = vj . De maneira análoga, escrevemos esta probabilidade na forma:
P(u,v) du dv = P (u,v)du
δu
dv
δv
onde o fator multiplicando P (u,v) é simplesmente o número de células infinitesimais de tamanho δuδv contidas
no intervalo delimitado por u e u+du e v e v+dv. A condição de normalização dada pela Eq. (1.40) é escrita na
Figura 1.4: Generalização do caso unidimensional. Aqui o espaço definido pelas variáveis u e v é particionado em unidades
de δu e δv.
forma: ∫ a2
a1
∫ b2
b1
P(u,v) du dv = 1. (1.50)
O valor médio de uma função F (u,v) também pode ser definido usando a densidade de probabilidade de modo
que a Eq. (1.44) se torna:
F (u,v) =
∫ a2
a1
∫ b2
b1
F (u,v)P(u,v) du dv. (1.51)
Logicamente que todas as propriedades relacionadas com o cálculo de valores médios permanecem válidas
uma vez que as duas formulações são equivalentes.
1.5. DISCUSSÃO GERAL DO PROBLEMA DA CAMINHADA ALEATÓRIA 35
Funções de Variáveis Aleatórias
Aqui consideramos um caso geral que será recorrente na análise de problemas físicos do ponto de vista estatístico.
Seja uma única variável u e suponha que φ(u) seja alguma função contínua de u. SeP(u) du é a probabilidade de
encontrar u no intervalo delimitado por u e u+du, qual é densidade de probabilidade W (φ) dφ correspondente
de encontrar φ no intervalo entre φ e φ+ dφ? Isto é feito somando-se todas as probabilidades para as quais u
assume valores em que φ fique dentro intervalo dφ; em símbolos:
W (φ) dφ=
∫
dφ
P(u) du
onde a integral é realizada no intervalo de u e u+du. Assim, podemos escrever a integral acima na forma:
W (φ) dφ=
∫ φ+dφ
φ
P(u)
∣∣∣∣dudφ
∣∣∣∣ dφ (1.52)
onde o módulo é usado afim de garantir que o lado esquerdo da equação tenha apenas valores positivos. Agora,
desde que dφ é pequeno, a integral acima se reduz a
W (φ) dφ=P(u)
∣∣∣∣dudφ
∣∣∣∣(φ+dφ−φ)
W (φ) dφ=P(u)
∣∣∣∣dudφ
∣∣∣∣ dφ. (1.53)
Os passos tomados da Eq. (1.52) até a Eq. (1.53) consideram que φ é uma função unívoca de u, i.e., temos
um único valor de u para cada valor de φ. Nem sempre isto é válido, conforme ilustrado na Fig. 1.5 onde temos
dois valores diferentes de u para o mesmo valor de φ. Nestes casos temos que considerar todas as contribuições
no cálculo da probabilidadeW (φ) dφ que entram no intervalo de interesse.
Quando temos uma função de várias variáveis, os argumentos usados aqui podem ser generalizados para estes
casos conforme estudaremos futuramente.
Exemplo
1. (Reif., pg. 31) Suponha que um vetor B bi-dimensional de comprimento constante B = |B| é equiprovável de
ser encontrado em qualquer direção especificada pelo ângulo θ entre o vetor e o eixo vertical y. A probabilidade
P(θ) dθ que este ângulo fique entre θ e θ+dθ é então dada pela razão entre o intervalo angular dθ pelo intervalo
total 2π subtendido pelo círculo, assim:
P(θ) dθ = dθ2π .
36 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
Figura 1.5: Exemplo de uma função biunívoca. Neste caso temos dois intervalos de u em que se tem o mesmo valor da função
φ(u). Neste caso é necessário atenção no cálculo da distribuição de probabilidades aplicando a Eq. (1.53) em intervalos
separados onde a função apresenta caráter unívoco.
Se o vetor faz um ângulo θ com o eixo x, a componente x do campo magnético Bx pode ser escrita como:
Bx =B cosθ.
Qual é a probabilidade W (Bx) dBx de encontrar a componente Bx do vetor no intervalo entre Bx e Bx+
dBx?
Solução
Para resolver este problema, primeiro deve-se notar se a função Bx(θ) unívoca. Desde que para 0< θ < 2π e
−B <Bx<+B vemos que não é caso pois existem dois valores de θ que permitem o mesmo valor da componente
Bx. Assim, uma alternativa seria subdividir o intervalo de 0 a π e o outro de π a 2π. Desde que as probabilidades
se somam e sempre são positivas, os dois trechos de θ fornecem o mesmo valor. Assim, basta fazer o cálculo para
um dos trechos e multiplicar o resultado por 2. Nos trechos especificados, a função é unívoca e podemos aplicar a
Eq. (1.53), assim, escrevemos:
W (Bx) dBx = 2×P(θ)
∣∣∣∣ dθdBx
∣∣∣∣dBx
1.5. DISCUSSÃO GERAL DO PROBLEMA DA CAMINHADA ALEATÓRIA 37
onde o fator 2 vem do fato da função não ser unívoca de 0 a 2π. Precisamos determinar a derivada de θ(Bx). Para
isso, temos duas alternativas. Primeiramente, invertemos Bx(θ). Assim, temos:
θ(Bx) = arccos
[
Bx
B
]
e tomando a derivada, obtemos ainda:
dθ(Bx)
dBx
= d
dBx
arccos
[
Bx
B
]
= 1
B
d
d(Bx/B)
arccos
[
Bx
B
]
=− 1
B
1√
1− B
2
x
B2
=− 1√
B2−B2x
e substituindo-se na distribuição de probabilidades, segue que:
W (Bx) dBx = 2
1
2π
1√
B2−B2x
dBx =
dBx
π
√
B2−B2x
.
Podemos também escrever a expressão genérica na seguinte forma:
W (Bx) dBx = 2×P(θ)
∣∣∣∣∣∣∣∣
1
dBx
dθ
∣∣∣∣∣∣∣∣dBx
e substituindo a expressão para Bx dada no enunciado, ficamos com:
W (Bx) dBx = 2×P(θ)
∣∣∣∣ 1B sinθ
∣∣∣∣dBx
e como sinθ =
√
B2−B2x/B, segue que:
W (Bx) dBx = 2×P(θ) dBx√
B2−B2x
que é o mesmo resultado que vamos obter acima a substituição do valor da densidadede probabilidade. Assim,
escrevemos a resposta final como:
W (Bx) dBx =
dBx
π
√
B2−B2x
, −B ≤Bx ≤+B
= 0, p/ B fora do intervalo.
Vemos então que a probabilidade é maxima quando B tem o valor máximo B = Bx e é zero quando Bx =
0. Além disso, note que a densidade de probabilidade apresenta um infinito quando Bx → B. Isto não é um
problema desde que P não é a probabilidade e sim sua densidade. Após a integração desta função devemos ter
uma probabilidade que deve ser finita.
38 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
1.5.3 Cálculo geral dos valores médios para a caminhada aleatória
Usando as considerações que fizemos nas últimas seções, vamos reconsiderar o problema da caminhada aleatória
no caso unidimensional. Seja si o deslocamento (positivo ou negativo) do i-ésimo passo. Então denotamos por
w(si) dsi a probabilidade do i-ésimo deslocamento estar no intervalo entre si e si+dsi.
É assumido que esta probabilidade é independente de quais deslocamentos ocorrem em outros passos. Por
simplicidade, consideramos ainda que a distribuição de probabilidade w é a mesma para todos os passos. No
entanto, é importante notar que a situação aqui é mais geral do que no caso inicial pois agora estamos considerando
que a magnitude de cada passo é variável, sendo determinada pela distribuição w(s).
O interesse neste problema é determinar o deslocamento x após um total deN passos. Isto equivale a perguntar
pela probabilidade P(x) dx do deslocamento estar situado entre x e x+dx. Podemos determinar também os va-
lores médios (momentos) de x. A seguir, mostramos como determinar estes valores médios sem um conhecimento
prévio da distribuição P(x).
O deslocamento x total é dado pela soma:
x= s1+s2+s3+ · · ·+sN =
N∑
i=1
si (1.54)
e tomando a média, obtemos:
x¯=
N∑
i=1
s¯i. (1.55)
Agora note que o valor médio para um dado si é dado por:
s¯i =
∫
wi(s)s ds
onde omitimos o índice i na variável de integração desde que é uma variável muda. Agora, desde que a distribuição
é a mesma para todos os passos, então, estamos querendo dizer quewi(s)=w(s), assim, segue que todos os valores
médios são os mesmos, i.e.,
s¯i =
∫
w(s)s ds= s¯
assim, podemos escrever o deslocamento médio x, dado pela Eq. (1.55), na forma:
x¯=Ns¯. (1.56)
A dispersão é dada por:
(∆x)2 = (x− x¯)2. (1.57)
1.5. DISCUSSÃO GERAL DO PROBLEMA DA CAMINHADA ALEATÓRIA 39
Usando as Eqs. (1.54) e (1.55), podemos escrever
x− x¯=
∑
i
(si− s¯i) ∴ ∆x=
N∑
i=1
∆si
e tomando o quadrado da equação acima, obtemos:
(∆x)2 =
(
N∑
i=1
∆si
) N∑
j=1
∆sj
=∑
i
(∆si)2+
∑
i,j
i̸=j
(∆si)(∆sj)
e tomando a média, segue que:
(∆x)2 =
∑
i
(∆si)2+
∑
i,j
i̸=j
(∆si)(∆sj)
Para resolver a soma para i ̸= j, fazemos a hipótese de que os passos são estatisticamente independentes. Neste
caso, a média pode ser fatorada na forma de um produto, i.e.,
(∆si)(∆sj) = (∆si) (∆sj) = 0
desde que
∆si = s¯i− s¯= 0.
Desde que os termos cruzados desaparecem na média, a dispersão se reduz a
(∆x)2 =
N∑
i=1
(∆si)2
e desde que a distribuição de passos é a mesma para todo i, então, a dispersão será independente do índice i da
mesma forma que fizemos no cálculo da média. Neste caso, escrevemos diretamente
(∆x)2 =N(∆s)2 (1.58)
onde (∆s)2 é a dispersão do deslocamento por passo dada por:
(∆si)2 = (∆s)2 ≡
∫
ds w(s)(∆s)2. (1.59)
Apesar da simplicidade, as Eqs. (1.56) e (1.58) são gerais e importantes. A dispersão, como já foi mencionado
anteriormente, é uma medida do quadrado da largura da distribuição do deslocamento líquido em torno do valor
médio x¯. O desvio é definido pela raíz quadrada da dispersão ∆∗x ≡ [(∆x)2]1/2. Os resultados obtidos acima,
permite tirar conclusões gerais sobre a soma de variáveis estatisticamente independentes. Se a média s¯ ̸= 0 e
o número de passos N aumenta, nota-se que a média cresce proporcionalmente a N . A largura da distribuição
40 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
também aumenta, porém proporcionalmente a N1/2. Desta forma, a largura relativa definida pela razão do desvio
pelo valor médio, i.e., ∆∗x/x¯, diminui com N−1/2; explicitamente, escrevemos:
∆∗x
x¯
= ∆
∗s
s¯
1√
N
.
A relação acima indica que o desvio percentual dos valores de x em torno da média x¯ se torna cada vez mais
desprezível a medida que N se torna grande.
Exemplo
1. (Reif., Prob. 1.5, pg. 41) No jogo de roleta Russa (não recomendado pelo autor), alguém insere um único
cartucho no tambor de um revólver, deixando as outras cinco câmaras do tambor vazias. Alguém então gira o
tambor, aponta para a cabeça de alguém e puxa o gatilho.
(a) Qual é a probabilidade de estar vivo após puxar o gatilho N vezes?
(b) Qual é a probabilidade de sobreviver (N − 1) vezes e então levar o tiro na N -ésima vez que alguém puxa o
gatilho?
(c) Qual é o número médio de vezes que um jogador tem a oportunidade de puxar o gatilho neste jogo macabro?
Solução
Seja então a probabilidade p da pessoa permanecer viva e q a probabilidade da pessoa ser morta. Desde que
temos apenas uma bala em um tambor que comporta seis balas, então, temos que:
p= 56 e q = 1−p=
1
6 .
Note que podemos estabelecer um paralelo com o problema da caminhada aleatória considerando que o número
de passos para a direita é igual ao número de vezes que a pessoa permanece viva. Com estas informações estamos
aptos a resolver os itens solicitados no problema.
(a)
Neste caso, temos o produto de N termos correspondendo à probabilidade p de sobreviver:
pN =
(5
6
)N
(b)
1.5. DISCUSSÃO GERAL DO PROBLEMA DA CAMINHADA ALEATÓRIA 41
Neste caso temos um produto de N − 1 fatores p, para a probabilidade de N − 1 vezes sem levar o tiro, pela
probabilidade de levar o tiro, i.e.,
pN−1q =
(5
6
)N−1 1
6 .
(c)
Consideramos que o jogador puxa o gatilho n vezes e então é morto na última vez. Neste caso, teríamos a
seguinte distribuição:
P (N) = pN−1q
onde p= 5/6 e q = 1/6.
O número médio N de vezes é dado por:
N¯ =
∞∑
N=1
NpNq = ∂
∂p
( ∞∑
N=1
pN
)
q
mas como p < 1 e q não depende de q, pois consideremos as probabilidades p e q estatisticamente independentes,
então podemos escrever:
∞∑
N=1
pN = p1−p
e substituindo este resultado, segue que:
N¯ =
∞∑
N=1
NpNq = ∂
∂p
(
p
1−p
)
q
e como devemos ter p+ q = 1, podemos escrever ainda
N¯ = q(1−p)2
e substituindo-se os valores, obtemos:
N¯ =
1
6(
1− 56
)2 = 366 ∴ N¯ = 6.
2. (Reif., Prob. 1.19, pg. 45) Uma bateria de força eletromotriz (f.e.m) total V está conectada a um resistorR;
como resultado, uma quantidade de potência P = V 2/R é dissipada no resistor. A bateria consiste de N células
individuais conectadas em série de modo que V é dada pela soma da f.e.m’s de todas as células. A bateria, no
entanto, é velha de modo que nem todas as células estão em perfeito estado. Portanto, o que podemos dizer é que
existe uma probabilidade p que a fem de qualquer célula individual tenha seu valor normal v; e uma probabilidade
42 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
q = 1−p que a fem de qualquer célula individual seja zero porque a célula foi curto-circuitada internamente. As
células individuais são estatisticamente independentes uma da outra. Sob estas condições, calcule a potência
média P¯ dissipada no resistor, expressando o resultado em termos de N , v e p.
Solução
Notamos que a força eletromotriz total que pode ser fornecida pela bateria é V , de modo que este valor
será V = Nv no caso em que todas as células estivessem em perfeito estado. No entanto, como este não é o
caso, precisamos determinar o valor real fornecido pela bateria. Notamos também que a potência média pode ser
determinada tomando a média do quadrado do potencial, i.e.,
P¯ = V
2
R

Continue navegando