Buscar

Mecânica Estatística

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 135 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 135 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 135 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Mecânica Estatística
Daniel A. Stariolo
Programa de Pós-Graduação em Física
Instituto de Física
Universidade Federal do Rio Grande do Sul
2014
i
Sumário
1 Fundamentos da Mecânica Estatística 1
1.1 O que é a Mecânica Estatística ? . . . . . . . . . . . . . . . . . . 2
1.2 Ergodicidade e equilíbrio . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 O Teorema de Liouville . . . . . . . . . . . . . . . . . . 3
1.2.2 A hipótese ergódica . . . . . . . . . . . . . . . . . . . . 6
1.3 Sistemas quânticos . . . . . . . . . . . . . . . . . . . . . . . . . 8
2 Teoria de ensembles estatísticos 12
2.1 O ensemble microcanônico . . . . . . . . . . . . . . . . . . . . . 12
2.1.1 Gás ideal monoatômico clássico . . . . . . . . . . . . . . 15
2.1.2 A formulação de Gibbs . . . . . . . . . . . . . . . . . . . 17
2.2 O ensemble canônico . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.1 A densidade de estados e a função de partição . . . . . . . 21
2.2.2 Flutuações da energia . . . . . . . . . . . . . . . . . . . . 22
2.2.3 Gás ideal no ensemble canônico . . . . . . . . . . . . . . 25
2.3 Fluidos clássicos não ideais . . . . . . . . . . . . . . . . . . . . . 26
2.4 O ensemble Grande Canônico . . . . . . . . . . . . . . . . . . . 33
2.4.1 Flutuações no número de partículas . . . . . . . . . . . . 36
2.4.2 Adsorção em superfícies . . . . . . . . . . . . . . . . . . 38
3 Estatísticas quânticas 42
3.1 Sistemas de partículas indistinguíveis . . . . . . . . . . . . . . . 42
3.2 Gases ideais quânticos . . . . . . . . . . . . . . . . . . . . . . . 47
3.2.1 O gás de Maxwell-Boltzmann e o limite clássico . . . . . 47
3.2.2 Estatística de Bose-Einstein . . . . . . . . . . . . . . . . 51
3.2.3 Estatística de Fermi-Dirac . . . . . . . . . . . . . . . . . 51
ii
Daniel A. Stariolo - IF-UFRGS - 2014 iii
4 Gás ideal de Bose-Einstein 52
4.1 A condensação de Bose-Einstein . . . . . . . . . . . . . . . . . . 52
4.2 Radiação de corpo negro . . . . . . . . . . . . . . . . . . . . . . 63
4.2.1 A lei de Planck . . . . . . . . . . . . . . . . . . . . . . . 64
4.2.2 O gás de fótons . . . . . . . . . . . . . . . . . . . . . . . 66
5 Gás ideal de Fermi-Dirac 68
5.1 Gás de Fermi completamente degenerado
(T = 0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.2 Gás de Fermi degenerado (T ≪ TF ) . . . . . . . . . . . . . . . . 71
5.3 Magnetismo em um gás ideal de férmions . . . . . . . . . . . . . 75
5.3.1 Paramagnetismo de Pauli . . . . . . . . . . . . . . . . . . 75
6 Interações, simetrias e ordem em matéria condensada 81
6.1 Líquidos e gases . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.2 Redes cristalinas . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.3 Sistemas magnéticos . . . . . . . . . . . . . . . . . . . . . . . . 85
6.4 Entre os líquidos e os cristais: os cristais líquidos . . . . . . . . . 89
6.5 Simetrias e parâmetros de ordem . . . . . . . . . . . . . . . . . . 95
7 Transições de fase e fenômenos críticos 98
7.1 O modelo de Ising em d = 1: solução exata . . . . . . . . . . . . 98
7.2 Teoria de campo médio do modelo de Ising . . . . . . . . . . . . 103
7.2.1 Aproximação de Bragg-Williams . . . . . . . . . . . . . 103
7.3 A teoria de Landau de transições de fase . . . . . . . . . . . . . . 108
7.3.1 Transições de fase continuas . . . . . . . . . . . . . . . . 109
7.3.2 Transições de primeira ordem na teoria de Landau . . . . 113
7.4 Flutuações do parâmetro de ordem . . . . . . . . . . . . . . . . . 114
7.5 Funções de correlação . . . . . . . . . . . . . . . . . . . . . . . . 117
7.5.1 Correlações na teoria de Landau . . . . . . . . . . . . . . 121
7.6 Sistemas com simetria O(n) . . . . . . . . . . . . . . . . . . . . 123
7.7 Validade da teoria de campo médio: o critério de Ginzburg . . . . 126
Referências Bibliográficas 132
Capítulo 1
Fundamentos da Mecânica
Estatística
1
Daniel A. Stariolo - IF-UFRGS - 2014 2
1.1 O que é a Mecânica Estatística ?
A Termodinâmica é uma teoria macroscópica, com um formalismo elegante, de
grande generalidade, construido sobre poucas hipóteses fundamentais. O conceito
central da termodinâmica é a entropia, a qual é definida de forma um tanto abs-
trata, através de um princípio variacional que determina que, em um sistema
isolado, o estado de equilíbrio termodinâmico do sistema é aquele estado macros-
cópico para o qual a entropia é máxima. A Termodinâmica descreve os efeitos
macroscópicos de sistemas formados por um grande número de entes microscó-
picos, sejam partículas, células, spins, etc. que obedecem as leis fundamentais da
Mecânica Clássica (leis de Newton) ou da Mecânica Quântica (equação de Sch-
roedinger), segundo o caso. Uma descrição microscópica destes sistemas deve
então partir necessariamente das leis da Mecânica. A Mecânica Estatística é uma
teoria probabilística que estabelece a conexão entre os dois níveis de descrição:
o macroscópico (Termodinâmica) e o microscópico (Mecânica).
Ao tentar descrever as propriedades de um sistema formado por um grande
número de partículas se torna necessário recorrer a uma descrição probabilística
do estado de um sistema. Um estado microscópico, ou microestado de um sis-
tema de N partículas, corresponde ao conjunto dos graus de liberdade do mesmo,
por exemplo as 3N coordenadas e os 3N momentos generalizados em um sis-
tema clássico, ou ao conjunto de números quânticos que caracterizam a função de
onda de um sistema. O conjunto de microestados compatíveis com os valores das
variáveis macroscópicas do sistema , como a energia interna U , o volume V e o
número de partículas N , constitui um macroestado ou estado macroscópico.
Descrever o estado microscópico exato de um conjunto de N partículas para
todo tempo é uma tarefa formidável. No entanto, o estado de equilíbrio termo-
dinâmico é determinado em função de umas poucas variáveis. Além do mais, de
um ponto de vista prático ou aplicado, resulta mais importante conhecer proprie-
dades globais ou macroscópicas da matéria, como a temperatura ou a pressão, do
que a posição e velocidade de um partícula individual em um gás ou líquido. O
programa da Mecânica Estatística é associar um peso ou probabilidade de ocor-
rência aos diferentes microestados e predizer o resultado médio de um conjunto
grande de medidas de um observável dado. A própria teoria fornece, por sua vez,
uma predição das flutuações que podem ocorrer nestas medidas. Como estamos
falando de resultados médios em um número grande de medidas ou observações,
vamos desenvolver um formalismo de ensembles ou conjunto de sistemas idên-
ticos, em oposição a análise de um sistema particular. Essa é outra característica
fundamental da Mecânica Estatística.
Daniel A. Stariolo - IF-UFRGS - 2014 3
A Mecânica Estatística moderna, tal vez mais do que qualquer outra área da
Física, encontra aplicações em praticamente todas as ciências exatas e além. Em-
bora se originou do esforço de encontrar uma conexão entre a mecânica das partí-
culas e a Termodinâmica, o formalismo estatístico se mostrou extremamente geral
e útil na predição de propriedades tão díspares quanto a ocorrência ou não de su-
percondutividade de um material, a evolução de preços de produtos na bolsa de
valores, a probabilidade de ocorrência de um terremoto ou a morfologia típica de
uma colônia de células em um tecido vivo.
Por motivos históricos, a Mecânica Estatística foi desenvolvida inicialmente
para predizer propriedades macroscópicas de sistemas em equilíbrio termodinâ-
mico. Nesse caso falamos de Mecânica Estatística do equilíbrio. No entanto,
os fundamentos da Mecânica Estatística estão na Mecânica, ou seja, nos sistemas
dinâmicos. A grande maioria dos sistemas de interesse , físicos ou não, não se
encontram em equilíbrio, como por exemplo os sistemas biológicos ou problemas
dinâmicos como a evolução de preços nas bolsas de valores.Para descrever estes
sistemas em uma abordagem probabilistica é necessário desenvolver uma Mecâ-
nica Estatística fora do equilíbrio, os métodos para descrever o equilíbrio não são
suficientes e novas técnicas são necessárias para lidar com a variável temporal.
Embora muito se sabe na atualidade sobre processos fora do equilíbrio, ainda não
se conta com um formalismo razoavelmente simples, compacto e poderoso, como
a teoria de ensembles para o equilíbrio. No presente curso, de extensão semestral,
faremos apenas uma abordagem inicial ao problema dinâmico, com o único in-
tuito de conectar o problema mecânico com o equilíbrio estatístico. Um conceito
fundamental neste caminho é o de ergodicidade.
1.2 Ergodicidade e equilíbrio
1.2.1 O Teorema de Liouville
Consideremos um sistema clássico de N partículas, isolado em um volume V ,
cuja dinâmica obedece as equações de Hamilton. Um microestado deste sistema
fica definido pelos valores instantâneos das 3N coordenadas generalizadas qi e os
3N momentos generalizados pi:
dqi
dt
=
∂H(p, q)
∂pi
dpi
dt
= −∂H(p, q)
∂qi
(1.1)
Daniel A. Stariolo - IF-UFRGS - 2014 4
onde i = 1, . . . , 3N , H(p, q) é o Hamiltoniano do sistema e (p, q) representa um
vetor do espaço de fase com 6N componentes. Como o sistema é isolado, H não
depende explicitamente do tempo, o sistema é conservativo e H é uma constante
do movimento que corresponde a energia mecânica:
H(p, q) = E. (1.2)
A identidade anterior define uma superfície de energia no espaço de fase. A evo-
lução do sistema conservativo é descrita por uma trajetória ou curva no espaço
de fase sobre a superfície de energia. Como na Mecânica Clássica cada condição
inicial (p0, q0) determina de forma unívoca e evolução do sistema, trajetórias no
espaço de fase nunca se cruzam.
Para uma dada energia E do sistema, existe um conjunto infinito de microes-
tados. Definimos a função ρ(p, q, t) como sendo a densidade de probabilidade de
encontrar o sistema em um elemento de volume dp dq no espaço de fase ao tempo
t. O conjunto de pontos (p, q) cuja probabilidade ao tempo t é ρ(p, q, t)dp dq for-
mam um ensemble estatístico. Cada ponto representa uma cópia exata do sistema
em um microestado diferente. O conceito de ensemble estatístico foi introdu-
zido por Josiah Willard Gibbs (1839-1903) na segunda metade do século XIX e
ocupa um rol fundamental no formalismo e interpretação da Mecânica Estatística
do equilíbrio. A densidade de probabilidade deve estar normalizada para todo
tempo: ∫
Γ
ρ(p, q, t) dp dq = 1, (1.3)
onde a integração se extende a todo o espaço de fase Γ.
Para obter as equações que regem a dinâmica do sistema de N partículas co-
meçamos considerando que o número de partículas se deve conservar. Considere-
mos a probabilidade de encontrar o sistema dentro de um volume V0, limitado por
uma superfície S0. A medida que o tempo passa algumas trajetórias saem de V0 e
a probabilidade correspondente P (V0) muda. Como a probabilidade total é con-
servada, eq. (1.3), e as trajetórias não se cruzam, a variação da probabilidade no
volume V0 deve corresponder ao fluxo da mesma através da superfície S0, como
acontece em um fluido:
dP (V0)
dt
=
∂
∂t
∫
V0
ρ(p, q, t) dp dq = −
∫
S0
~n · ~J dS (1.4)
onde ~J = ~vρ é uma corrente de probabilidade, ~v = {q˙i, p˙i} é a velocidade (genera-
lizada) de um ponto no espaço de fase e ~n é um vetor unitário normal à superfície
Daniel A. Stariolo - IF-UFRGS - 2014 5
S0. Usando o Teorema de Gauss:∫
V0
∂
∂t
ρ(p, q, t) dp dq = −
∫
V0
(~∇ · ~J) dp dq (1.5)
Como V0 é arbitrário então:
dρ
dt
+ ~∇ · (~vρ) = 0 (1.6)
Mas
~∇ · ~v = ∂q˙
∂q
+
∂p˙
∂p
=
3N∑
i=1
[
∂
∂qi
(
∂H
∂pi
)
+
∂
∂pi
(
−∂H
∂qi
)]
= 0 (1.7)
Então:
∂ρ
∂t
+ ~v · ~∇ρ = 0 ou dρ
dt
= 0 (1.8)
A equação anterior se conhece como o Teorema de Liouville. Diz que a derivada
total, ou derivada convectiva de ρ no espaço de fase Γ é nula para qualquer ponto e
qualquer instante. Podemos interpretar então a evolução dos pontos do ensemble
estatístico no espaço de fase como sendo análogos a um fluido incompressível.
Notando que
~v · ~∇ρ = q˙ ∂ρ
∂q
+ p˙
∂ρ
∂p
=
∂H
∂p
∂ρ
∂q
− ∂H
∂q
∂ρ
∂p
= {ρ,H} , (1.9)
onde {ρ,H} é o parêntese de Poisson entre ρ e H , podemos reescrever o Teorema
de Liouville da seguinte forma:
∂ρ
∂t
= −{ρ,H} . (1.10)
Em equilíbrio, ρ não depende explicitamente do tempo, é uma constante do mo-
vimento, e então {ρ,H} = 0. Esta condição se pode satisfazer, por exemplo, se ρ
for uma função explícita de H , ou seja, se ρ(p, q) ≡ ρ[H(p, q)]. O caso mais sim-
ples corresponde a ρ = cte. Agora estamos em condições de enunciar o Postulado
Fundamental da Mecânica Estatística.
Daniel A. Stariolo - IF-UFRGS - 2014 6
Postulado de igual probabilidade a priori
Para formular o mesmo de forma transparente conceitualmente, vamos relaxar
a condição que a energia seja estritamente constante, permitindo então que flutue
entre dois valores próximos E e E + ∆, com ∆ ≪ E. Isto pode ser justificado
pelo fato de, na realidade, não existirem sistemas perfeitamente isolados. A pos-
teriori vamos ver que esta condição não afeta os resultados no limite de sistemas
grandes, que serão independentes de ∆. No entanto, pode ser mostrar que a quan-
tidade fundamental no postulado, que é o volume no espaço de fase ou número de
microestados de energia E, Γ(E) , é uma função irregular de E, enquanto que a
integral em um intervalo é bem comportada.
Em um sistema em equilíbrio com energia entre E e E + ∆, todos os micro-
estados acessíveis são igualmente prováveis.
Formalmente:
ρ(p, q) =
{ 1
Γ(E)
se E ≤ H(p, q) ≤ E +∆
0 caso contrário (1.11)
onde
Γ(E) =
∫
E≤H(p,q)≤E+∆
dp dq (1.12)
é o volume do espaço de fase ocupado pelo sistema. Os pontos nesse volume
definem um ensemble conhecido como o ensemble microcanônico.
1.2.2 A hipótese ergódica
A média temporal de uma função f(p, q) ao longo de uma trajetória no intervalo
de tempo (t0, t0 + T ) é definida como
〈f〉T = 1
T
∫ t0+T
t0
f(p(t), q(t)) dt (1.13)
A média de ensemble do mesmo observável é definida como
〈f〉e =
∫
f(p, q) ρ(p, q) dp dq (1.14)
=
1
Γ(E)
∫
E≤H(p,q)≤E+∆
f(p, q) dp dq (1.15)
Um sistema é considerado ergódico se 〈f〉 = 〈f〉e = limT→∞〈f〉T
Daniel A. Stariolo - IF-UFRGS - 2014 7
A hipótese ergódica, introduzida por Ludwig Eduard Boltzmann (1844-1906),
consiste em assumir que sistemas com N ≫ 1 são ergódicos. Este é um postulado
que em geral só pode ser verificado “a posteriori”, pelas consequências sobre o
comportamento do sistema.
A ergodicidade de um sistema pode ser de utilidade para obter valores médios
de observáveis em tempos relativamente curtos durante uma série de experimen-
tos repetidos, ou então em uma série de simulações computacionais. Suponhamos
que rodamos uma simulação de dinâmica molecular de um líquido clássico, e que-
remos calcular o valor quadrático médio da velocidade das partículas. Se fazemos
médias temporais deveremos tomar a média de velocidades instantâneas medi-
das a intervalos mais ou menos regulares durante uma simulação muito longa, de
forma a garantir que uma amostragem significativa das velocidades foi feita. No
entanto, se contamos com a posibilidade de rodar muitas simulações idênticas em
paralelo, poderemos apreitarmos da ergodicidade do sistema e calcular a mesma
média tomando valores das velocidades nos diferentes sistemas, sendo que em
cada um deles podemos rodar simulações de muito menos tempo. Ou seja, no
primeiro caso fazemos uma média temporal, uma amostragem na linha do tempo,
no segundo fazemos uma média no ensemble, uma série de amostragens menores
nos diferentes sistemas. Se o sistema físico for ergódico, ambas a médias devem
coincidir.
A hipótese ergódica, de certa forma, justificao postulado e igual probabilidade
a priori, pois implica que, se um sistema é ergódico, a fração de tempo que ele
passa em uma região restrita do espaço de fase acessível é proporcional ao volume
dessa região, e não as posições particulares na superfície de energia ocupadas pelo
sistem em um determinado tempo. Isto se pode ver da seguinte forma: sejaR uma
região com R ⊂ Γ. Definimos:
φR(p, q) =
{
1 se (p, q) ∈ R
0 caso contrário (1.16)
O tempo que o sistema passa em R durante o intervalo T é dado por τR =∫ t0+T
t0
φ(p(t), q(t)) dt. Se o sistema é ergódico
lim
T→∞
τR
T
≡ 〈φ〉T = 1
Γ(E)
∫
E≤H(p,q)≤E+∆
φ(p, q) dp dq =
Γ(R)
Γ(E)
, (1.17)
ou seja, a fração de tempo que o sistema passa em uma dada região R é igual à
fração de volume do espaço de fase ocupado pela mesma região.
Daniel A. Stariolo - IF-UFRGS - 2014 8
Formalmente, é muito difícl demonstrar que um dado sistema Hamiltoniano
é ergódico. Sistemas dissipativos, como um pêndulo amortecido, são claramente
não-ergódicos, pois a tempos longos tendem a ficar confinados em um pequeno su-
bespaço (chamado “atrator”) do espaço de fase acessível inicialmente. Mesmo em
sistemas conservativos aparentemente simples, como no famoso problema dos três
corpos interagindo gravitacionalmente, foi só no século XX que o Teorema KAM
(de Kolmogorov, Arnold e Moser) mostrou que existe um conjunto de medida não
nula de trajetórias no espaço de fase que ficam aproximadamente confinadas, e
que correspondem a conjuntos particulares de condições iniciais. Essas trajetórias
se encontram misturadas no espaço de fase a muitas outras com aparência mais
caótica, ou “ergódicas”. Pensando que a existência desses estados previstos pelo
Teorema KAM era uma propriedade exclusiva de sistemas formados por poucas
partículas, depois da Segunda Guerra Mundial, Fermi, Pasta e Ulam fizeram uma
das primeiras simulações computacionais de um sistema de osciladores anarmô-
nicos unidimensionais com o intuito de estudar as propriedades de ergodicidade
de um sistema de muitas partículas. Os resultados que obtiveram não foram os es-
perados, de fato foi encontrado que a taxa de transferência de energia entre modos
de oscilação era extremamente lenta e, nos tempos acessíveis da simulação, mui-
tas condições iniciais levavam a trajetórias mais parecidas a ciclos limite do que
a trajetórias ergódicas. De fato, ergodicidade é violada rigorosamente nas fases
com simetrias quebradas nas transições de fases, como na passagem de um líquido
a um sólido. O sistema no estado sólido não irá mais explorar todas as configu-
rações de igual energia que o sistema original, no estado líquido, podia explorar.
No entanto, essas limitações da hipótese ergódica, formais as vezes ou práticas
em outras, não limitam de forma substancial o poder de predição da Mecânica
Estatística do equilíbrio, como vamos ver no decorrer do curso.
1.3 Sistemas quânticos
Em Mecânica Quântica os estados microscópicos de um sistema são definidos pela
função de onde Ψ(q), solução da equação de Schrödinger. Como esta tem uma
interpretação probabilística, intrínseca ao formalismo quântico, devemos redefinir
o conceito de ensemble para sistemas quânticos.
A função de onda Ψ(q) pode ser desenvolvida em termos dos elementos de
uma base ortonormal de autofunções de algum operador:
Ψ(q) =
∑
n
cnφn(q) (1.18)
Daniel A. Stariolo - IF-UFRGS - 2014 9
onde |cn|2 é a probabilidade de encontrar o sistema no autoestado φn.
O valor esperado (quântico) de um observável Oˆ é dado por
〈Ψ|Oˆ|Ψ〉 =
∫
Ψ∗(q)OˆΨ(q) dq
=
∑
m,n
Omncnc
∗
m (1.19)
onde Omn = 〈φm|Oˆ|φn〉 são os elementos de matriz do operador Oˆ na base consi-
derada. Em um sistema formado por muitos corpos existirão muitos microestados
Ψi(q) compatíveis com os vínculos macroscópicos, e estes serão a base para defi-
nir um ensemble. Notar que, neste caso, Ψi(q) é uma função de onda de N corpos,
a função de onda do sistema completo. Explicitamente:
Ψi(q) =
∑
n
cin φn(q) (1.20)
e
〈Ψi|Oˆ|Ψi〉 =
∑
m,n
Omnc
i
nc
i∗
m (1.21)
representa o valor esperado quântico do operador Oˆ no microestado Ψi(q). Se
agora associamos a cada microestado uma probabilidade de ocorrência pi, a média
de ensemble do observável Oˆ é dada por:
〈Oˆ〉 =
∑
i
pi〈Ψi|Oˆ|Ψi〉
=
∑
i
pi
∑
m,n
Omnc
i
nc
i∗
m (1.22)
Podemos definir uma matriz de elementos ρnm:
ρnm =
∑
i
pic
i
nc
i∗
m (1.23)
tal que
〈Oˆ〉 =
∑
m,n
ρnmOmn (1.24)
O operador cujos elementos de matriz na base ortonormal de autoestados φn são
os ρnm é conhecido como operador densidade ou matriz densidade:
ρnm =
∫
φn(q) ρˆ φ
∗
m(q) dq ≡ 〈φn|ρˆ|φm〉 (1.25)
Daniel A. Stariolo - IF-UFRGS - 2014 10
Com esta definição, a média no ensemble de um operador Oˆ pode ser escrita como
〈Oˆ〉 =
∑
n
(
ρˆOˆ
)
nn
= Tr ρˆOˆ = Tr Oˆρˆ (1.26)
Notemos que
Tr ρˆ =
∑
n
ρnn =
∑
i
pi
∑
n
|cn|2 =
∑
i
pi = 1, (1.27)
o que permite interpretar o elemento ρnn como a probabilidade de encontrar o
sistema no autoestado φn.
O operador densidade se pode expressar também em forma matricial:
ρˆ =
∑
i
piΨ
iΨi† (1.28)
onde
Ψi =


ci1
.
.
.
cil
.
.
.

 e Ψi† =
(
ci∗1 , . . . c
i∗
l , . . .
) (1.29)
Os microestados satisfazem a equação de Schroedinger ih¯∂Ψi/∂t = HˆΨi. Trans-
pondo e tomando o complexo conjugado obtemos:
−ih¯∂Ψ
i†
∂t
= Ψi†Hˆ† = Ψi†Hˆ (1.30)
onde usamos o fato que Hˆ é hermitiano. Com este resultado e a definição (1.28)
pode-se mostrar que ρˆ satisfaz
ih¯
∂ρˆ
∂t
= −
[
ρˆ, Hˆ
]
(1.31)
onde o lado direito representa o comutador de ρˆ e Hˆ. Este resultado corresponde
ao Teorema de Liouville para sistems quânticos descritos por uma matriz densi-
dade ρˆ.
Postulado de igual probabilidade a priori para um sistema quântico
Daniel A. Stariolo - IF-UFRGS - 2014 11
Seja φn um autoestado de uma base ortonormal do Hamiltoniano Hˆ . En-
tão Hˆφn = Enφn. Para um sistema isolado com energia entre E e E + ∆E,
seja {φl, l = 1, . . . ,M(E)} o conjunto de autoestados de energia E. Então, o
postulado de igual probabilidade a priori, para o caso de um sistema quântico,
corresponde a
ρll =
{ 1
M(E)
para l = 1, 2, . . . ,M(E)
0 para o resto (1.32)
Capítulo 2
Teoria de ensembles estatísticos
2.1 O ensemble microcanônico
O postulado de igual probabilidade a priori permite determinar a probabilidade
de encontrar o sistema em um microestado compatível com os vínculos macros-
cópicos, e a partir da probabilidade podemos determinar valores médios de ob-
serváveis como energia, magnetização, etc. Para obter uma conexão com a ter-
modinâmica temos que estabelecer uma definição microscópica para a entropia,
que é o potencial termodiâmico relevante em sistemas com energia fixa. Como a
probabilidade é uma função do número de microestados, e ela é uma quantidade
fundamental, é razoavel pensar que a entropia também será função do número de
microestados. Em um distema quântico, com níveis de energia En discretos, a de-
finição do número de microestados W (E) de energia E é imediato. No caso clás-
sico é necessário definir um volume unitário no espaço de fase, que é um espaço
continuo, tal que permita contar o número de microestados, e que seja compatível
com a Mecânica Quântica em algum limite apropriado. O Princípio de Incerteza
de Heisenberg, ∆p∆q ∼ h, implica a existência de um volume minimo no es-
paço de fase, Vmin ∼ h, tal que resulta impossível identificar estados físicos em
escala menor que a constante de Planck h. Definimos então W (E) = Γ(E)/h3N
como sendo o número de células unitárias no espaço de fase correspondentes a
um volume Γ(E) nesse espaço.
Para definirmos uma entropia que seja compatível com o formalismo termodi-
nâmico, esta deve ser
• Aditiva
• Satisfazer a segunda lei da Termodinâmica.12
Daniel A. Stariolo - IF-UFRGS - 2014 13
Figura 2.1: Dois sistemas separados por uma parede adiabática, fixa e impermeá-
vel.
Consideremos dois sistemas não interagentes com W1 e W2 microestados res-
pectivamente. O número total de microestados do sistema composto será W =
W1 ×W2. Agora, como de acordo com a Termodinâmica a entropia deve ser adi-
tiva, S(W ) = S(W1) + S(W2), deve ser uma função proporcional ao logaritmo
de W . Definimos então a entropia como:
S(E) = kB lnW (E). (2.1)
Vamos verficar se esta definição é satisfatória, ou seja, se obedece os dois requisi-
tos de compatibilidade com a termodinâmica citados acima. Consideremos agora
os subsistemas (1) e (2) separados por uma parede adiabática, fixa e impermeável,
como mostra a figura 2.1, de forma que H(p, q) = H1(p1, q1) +H2(p2, q2).
A entropia de cada subsistema é dada por:
S1(E1, V1, N1) = kB ln
(
Γ1(E1)/h
3N
)
S2(E2, V2, N2) = kB ln
(
Γ2(E2)/h
3N
) (2.2)
Qual é a entropia do conjunto ? O volume total do espaço de fase é Γ(E) =
Γ1(E1)× Γ2(E2), onde E = E1 + E2. A entropia do sistema completo é então
S(E, V,N) = kB ln
(
Γ(E)/h3N
) (2.3)
= kB ln
(
Γ1(E1)/h
3N
)
+ kB ln
(
Γ2(E2)/h
3N
)
= S1(E1, V1, N1) + S2(E2, V2, N2)
que satisfaz a condição de aditividade. Resta verificar se a definição de Boltzmann
satisfaz a segunda lei. Para isto suponhamos que removemos a parede adiabática e
Daniel A. Stariolo - IF-UFRGS - 2014 14
permitimos que os subsistemas troquem energia (parede diatérmica). Desta forma
a energia de cada subsistema poderá variar entre 0 e E, tal que E1 + E2 = E
permaneça fixa em todo momento. O número de microestados do sistema total
com energia E, para um valor fixo de E1 pode ser escrito como:
W (E,E1) =
Γ(E,E1)
h3N
=
1
h3N
Γ1(E1)Γ2(E − E1) (2.4)
O número total de microestados compatível com a energia E será dado pela soma
de W (E,E1) para todos os valores de E1 entre 0 eE. Se discretizamos o espectro
de energias em intervalos de largura ∆, podemos escrever
Γ(E) =
E/∆∑
i=1
Γ1(Ei)Γ2(E − Ei) (2.5)
O número de microestados cresce com a energia, então como Γ(E) é uma fun-
ção monótona crescente de E, quando Γ1(Ei) cresce, Γ2(E − Ei) decresce, e
viceversa. Se conclui que Γ(E) deve passar por um máximo em algum valor
0 ≤ Ei ≤ E. Sejam E1 e E2 = E − E1 os valores das energias para as quais
Γ1(E1)Γ2(E2) é máximo. Então se deve satisfazer que
Γ1(E1)Γ2(E2) ≤ Γ(E) ≤ E
∆
Γ1(E1)Γ2(E2) (2.6)
ou
ln
[
Γ1(E1)Γ2(E2)
] ≤ ln Γ(E) ≤ ln(E
∆
)
+ ln
[
Γ1(E1)Γ2(E2)
] (2.7)
Analisemos a ordem de grandeza destes termos. Em geral o número de mi-
croestados cresce exponencialmente com o número de partículas, de forma que
ln Γi ∝ Ni, ou seja, a entropia é extensiva. No entanto, a energia cresce proporci-
onalmente a N : E ∝ N = N1+N2. Desta forma, no limite quando N1, N2 →∞
o termo em ln
(
E
∆
)
se torna desprezível frente a ln Γ e por tanto a relação (2.7) é
satisfeita como uma igualdade. Assim, a entropia do sistema total é dada por:
S(E, V,N) = S1(E1, V1, N1) + S2(E2, V2, N2) +O(lnN) (2.8)
A entropia (2.1) é aditiva e extensiva, e os subsistemas tomam valores de ener-
gias E1 e E2 que maximizam o número total de estados acessíveis. No limite
Daniel A. Stariolo - IF-UFRGS - 2014 15
termodinâmico este resultado corresponde a segunda lei da Termodinâmica 1
Ainda considerando que a probabilidade dos subsistemas se encontrarem com
energiasE1 eE2 será proporcional ao número de microestados compatíveis, temos
que
lnP (E,E1) = cte + lnΓ(E1) + lnΓ(E −E1) (2.9)
Maximizando em relação a E1 obtemos
∂ lnP (E,E1)
∂E1
=
∂ ln Γ(E1)
∂E1
− ∂ ln Γ(E − E1)
∂E2
= 0 (2.10)
Agora usando a definição de entropia de Boltzmann a relação anterior resulta
equivalente a
∂S1
∂E1
∣∣∣∣
E1=E1
=
∂S2
∂E2
∣∣∣∣
E2=E2
(2.11)
e fazendo uso da relação termodinâmica entre entropia e temperatura concluimos
que
1
T1
=
1
T2
, (2.12)
que corresponde à condição de equilíbrio térmico. Vemos então que a condição
de equilíbrio térmico entre dois sistemas equivale a maximizar a entropia do con-
junto.
2.1.1 Gás ideal monoatômico clássico
Consideremos um gás de N partículas clássicas em um volume V . O Hamiltoni-
ano do gás clássico de partículas não interagentes é:
H =
3N∑
i=1
p2i
2m
(2.13)
1É fácil mostrar que esta formulação variacional da segunda lei é equivalente a condição de
irreversibilidade, ou seja, se um sistema isolado em equilíbrio passa de um estado a outro estado de
equilíbrio a entropia não pode diminiur. Em outras palavras, o número de microestados acessíveis
é maximizado no processo. No exemplo do gás simples de partículas não interagentes como o da
figura 2.1, a conclusão é que se permitimos que ambos os sistemas troquem energias o sistema
total irá equilibrar em um estado que maximize o número de microestados acessíveis, e nunca o
contrário.
Daniel A. Stariolo - IF-UFRGS - 2014 16
O volume do espaço de fase com energia entre E e E +∆ é dado por
Γ(E, V,N) =
∫
E≤H(p,q)≤E+∆
dp dq. (2.14)
No entanto, um cálculo rigoroso desta quantidade mostra que a dependência com
E é muito irregular [1]. Resulta mais conveniente calcular a quantidade:
Σ(E, V,N) =
∫
H(p,q)≤E
dp dq, (2.15)
de forma que Γ(E) = Σ(E+∆)−Σ(E). É possível mostrar que quandoN →∞,
Γ(E) e Σ(E) diferem em termos O(lnN). Por tanto, se estamos interessados no
limite termodinâmico, podemos escrever
S(E, V,N) = kB ln
(
Σ(E, V,N)
h3N
)
(2.16)
onde
Σ(E, V,N) =
∫
H≤E
dp dq = V NΩ3N (R) (2.17)
e onde Ω3N (R) é o volume de uma hiperesfera de dimensão 3N e raio R =√
2mE:
Ω3N (R) = C3N E
3N
2 (2.18)
Assim,
S(E, V,N) = kB ln
(
V N C3N E
3N
2
h3N
)
(2.19)
É possível calcular C3N (ver, por exemplo, [1, 2]). Aproximando a expressão
resultante para N ≫ 1 obtemos:
S(E, V,N) =
3
2
NkB +NkB ln
[
V
(
4πm
3h2
E
N
)3/2]
(2.20)
Invertendo esta expressão podemos obter a energia interna como função de S, N
e V , e a partir dali podemos obter as equações de estado do gás ideal e demais
grandezas termodinâmicas. No entanto, podemos notar que se multiplicarmos E,
V eN por um fator λ arbitrário resulta S(λE, λV, λN) 6= λS(E, V,N). Ou seja, a
entropia que obtivemos não é uma função homogênea como deve ser um potencial
Daniel A. Stariolo - IF-UFRGS - 2014 17
termodinâmico. Em particular, a forma obtida da entropia não é extensiva ! J. W.
Gibbs resolveu este problema de forma empírica, operacional, postulando que o
número de microestados no cálculo anterior foi superestimado e propondo um
fator de correção Σ(E) → Σ(E)/N ! que leva em conta a indistinguibilidade das
partículas do gás ideal. Podemos entender o problema na contagem considerando
a entropia de dois sistemas inicialmente isolados que são depois misturados. A
entropia de mixing viola a extensividade e leva ao chamado Paradoxo de Gibbs [1,
2, 3, 4]. Incluindo o fator N ! e refazendo o cálculo se chega a seguinte expressão
para a entropia:
S(E) =
3
2
NkB
[
5
3
+ ln
(
4πm
3h2
)]
+NkB ln
[
V
N
(
E
N
)3/2]
(2.21)
Esta expressão é extensiva e se conhece como Fórmula de Sackur e Tetrode. A
introduçao ad hoc do fator de contagem de Gibbs aparece de forma natural em
sistemas quânticos de partículas indistiguíveis e será visto quando tratemos o pro-
blema dos gases ideais quânticos.
2.1.2 A formulação de Gibbs
J. W. Gibbs propós uma expressão para a entropia alternativa a de Boltzmann e
que permite formular a teoria a partir de um princípio variacional. Se ρ(p, q) é a
densidade de probabilidade de equilíbrio, a entropia de Gibbs é dada por:
S = −kB〈ln (Cρ)〉 (2.22)
onde C é uma constante que vale h3N para um sistema clássico e C = 1 para um
sistema quântico. A média deve ser calculada em relação a própriadistribuição ρ.
No caso clássico:
S = −kB
∫
ρ(p, q) ln
[
h3Nρ(p, q)
]
dp dq (2.23)
Agora postulamos que a densidade de equilíbrio é aquela que maximiza a entro-
pia de Gibbs, sujeita aos vínculos macroscópicos. Para um sistema no ensemble
microcanônico, onde E,V e N são fixos, o vínculo adicional de normalização das
probabilidades é exigido: ∫
ρ(p, q) dp dq = 1. (2.24)
Daniel A. Stariolo - IF-UFRGS - 2014 18
Vínculos podem ser considerados no princípio variacional via multiplicadores de
Lagrange. Sendo a entropia de Gibbs um funcional da densidade de probabili-
dade, a condição de extremo (máximo) pode ser expressa na forma:
δ
[
S[ρ]− α0
∫
ρ dp dq
]
= 0 (2.25)
onde δ indica uma variação funcional e α0 é o multiplicador que impõe a norma-
lização das probabilidades. Desenvolvendo a variação obtemos:
S[ρ+ δρ]− S[ρ]− α0
∫
[ρ+ δρ− ρ] dp dq = 0 (2.26)
−kB
∫ {
(ρ+ δρ) ln [h3N (ρ+ δρ)]− ρ ln (h3Nρ)} dp dq − α0
∫
δρ dp dq = 0
Expandindo até primeira ordem em δρ∫ (−kB − kB ln [h3Nρ]− α0) δρ dp dq = 0 (2.27)
Como δρ é arbitrário, se obtém
ρ(p, q) =
1
h3N
e−α0/kB−1. (2.28)
A densidade de probabilidade microcanônica é uma constante, como esperado.
Resta determinar o valor do multiplicador de Lagrange α0. Ele é fixado pela
condição de normalização da probabilidade, resultando:
ρ(p, q) =
1
Γ(E)
se E ≤ H(p, q) ≤ E +∆ (2.29)
Notamos que, neste caso de um sistema isolado, a distribuição equiprovável é a
que maximiza a entropia de Gibbs ( a segunda variação permite mostrar que o
extremo obtido é, de fato, um máximo). Substituindo na definição:
S(E) = −kB〈ln (h3Nρ)〉 = − kB
Γ(E)
∫
ln
[
h3N/Γ(E)
]
dp, dq (2.30)
ou
S(E) = kB ln
(
Γ(E)
h3N
)
(2.31)
que coincide com a expressão da entropia de equilíbrio microcanônica.
Daniel A. Stariolo - IF-UFRGS - 2014 19
2.2 O ensemble canônico
Em geral os sistemas não são isolados. Suponhamos um sistema que possa trocar
calor com um reservatório térmico a temperatura T . O sistema composto é consi-
derado isolado, com energia E0 = ES+ER fixa. Vamos supor ainda que o sistema
e o reservatório estão separados por uma parede diatérmica, rígida e impermeá-
vel. No equilíbrio, a probabilidade de encontrar o sistema em um microestado
particular j, independentemente do estado do reservatório, será dado por
Pj = cWR(ER) = cWR(E0 −Ej) (2.32)
com c uma constante e WR(ER) o número de estados microscópicos do reserva-
tório com energia ER = E0 −Ej . Como Ej ≪ E0:
lnPj = ln c+ lnWR(E0) +
∂ lnWR(ER)
∂ER
∣∣∣∣
ER=E0
(−Ej) +O(E2j )
(2.33)
Da definição de entropia e as condições de equilíbrio:
∂ lnWR(ER)
∂ER
∣∣∣∣
ER=E0
=
1
kBT
(2.34)
onde T é a temperatura do reservatório. Portanto a probabilidade é proporcional a
exp (−βEj), com β = 1/kBT . A constante de proporcionalidade pode ser fixada
exigindo a normalização das probabilidades,
∑
j Pj = 1, dando como resultado:
Pj =
e−βEj∑
i e
−βEi β =
1
kBT
(2.35)
O ensemble canônico e constituído pelo conjunto de microestados de um sistema
em contato com um reservatório térmico a temperatura T cujas probabilidades são
dadas por (2.35).
Consideremos agora um sistema quântico em contato com um reservatório
térmico. Vamos obter novamente a probabilidade dos microestados do sistema
partindo do princípio variacional de Gibbs. Em equilíbrio a energia média é fixa:
U = 〈E〉 = Tr(ρˆHˆ) =
∑
n
ρnnEn (2.36)
Daniel A. Stariolo - IF-UFRGS - 2014 20
onde ρˆ é o operador densidade e os n′s são números quânticos correspondentes
a uma base de autoestados do operador Hamiltoniano de N partículas e que dia-
gonaliza simultaneamente ambos operadores ρˆ e Hˆ . A entropia de Gibbs é dada
por
S = −kB〈ln ρˆ〉 = −kB
∑
n
ρnn ln ρnn (2.37)
A densidade de probabilidade de equilíbrio deve ser aquela que maximize a en-
tropia de Gibbs. Considerando que as probabilidades devem estar normalizadas,
Trρˆ =
∑
n ρnn = 1, devemos introduzir dois multiplicadores de Lagrange e cal-
cular a variação da expressão resultante:
δ
[
Tr
(
α0ρˆ+ α1ρˆHˆ − kBρˆ ln ρˆ
)]
=
δ
∑
n
(α0ρnn + α1ρnnEn − kBρnn ln ρnn) =
∑
n
[(α0 − kB) + α1En − kB ln ρnn] δρnn = 0, (2.38)
onde a última linha corresponde à variação de primeira ordem. Como esta é arbi-
trária obtemos
ρnn = exp
[(
α0
kB
− 1
)
+
α1
kB
En
]
(2.39)
Da condição de normalização obtemos
exp
(
1− α0
kB
)
=
∑
n
exp
(
α1
kB
En
)
= ZN(α1) (2.40)
Definimos a função de partição do sistema:
ZN(α1) =
∑
n
exp
(
α1
kB
En
)
= Tr exp
(
α1
kB
Hˆ
)
(2.41)
Multiplicando o coeficiente do término de primeira ordem na variação, que deve
ser nulo, por ρnn que maximiza a entropia de Gibbs, e somando em n obtemos:
(α0 − kB) + α1U + S = 0 (2.42)
ou
−kB lnZN(α1) + α1U + S = 0 (2.43)
Daniel A. Stariolo - IF-UFRGS - 2014 21
Identificando α1 = −1/T e lembrando que F − U + TS = 0, obtemos
F (T, V,N) = −kBT lnZN(T, V ) (2.44)
onde F (T, V,N) é a energia livre de Helmholtz. Esta relação conecta a função
de partição com a termodinâmica do sistema. Como F (T, V,N) é uma relação
fundamental, a função de partição canônica também contém toda a informação
sobre o sistema. A partir de (2.39) e (2.40) podemos escrever a matriz densidade
de equilíbrio na forma
ρˆ =
e−βHˆ
Tr e−βHˆ
(2.45)
Já para um sistema clássico a densidade de probabilidade é dada por
ρ(p, q) =
e−βH(p,q)
ZN(T, V )
(2.46)
onde
ZN(T, V ) =
∫
dp dq
h3N
exp {−βH(p, q)} (2.47)
2.2.1 A densidade de estados e a função de partição
Consideremos a integral no espaço de fase de uma função arbitrária f que depende
de (p, q) através do Hamiltoniano
I =
∫
dp dq
h3N
f [H(p, q)] (2.48)
Podemos escrever a mesma integral na forma
I =
∫ ∞
0
f(E)g(E)dE (2.49)
onde
g(E) =
∫
H(p,q)=E
dp dq
h3N
(2.50)
é conhecida como densidade de estados. g(E)dE é o número de estados com
energias entre E e E + dE. Em particular, se f(H) = Θ(E −H), onde Θ(x) é a
função degrau, obtemos
I =
∫ E
0
g(E ′)dE ′ =
Σ(E)
h3N
(2.51)
Daniel A. Stariolo - IF-UFRGS - 2014 22
Então
g(E) =
1
h3N
∂Σ(E)
∂E
. (2.52)
É possível mostrar que, no limite N →∞:
1
h3N
∂Σ(E)
∂E
=
w(E)
h3N
= eSm(E)/kB (2.53)
onde Sm é a entropia microcanônica.
Assim, podemos escrever a função de partição na forma
ZN(T ) =
∫ ∞
0
e−βEg(E)dE (2.54)
que corresponde à transformada de Laplace da densidade de estados.
No caso quântico a expressão correspondente é:
ZN(T ) =
∑
n
e−βEn (2.55)
onde n representa um conjunto completo de número quânticos, ou seja, a soma
varre todos os possíveis autoestados do Hamiltoniano, sendo En os corresponden-
tes autovalores. Se o conjunto de autovalores da energia for degenerado, se pode
escrever
ZN(T ) =
∑
E
g(E)e−βE (2.56)
onde agora a soma é feita em todos os autovalores diferentes do Hamiltoniano, e
g(E) é a degenerescência do autovalor E.
2.2.2 Flutuações da energia
A energia média do sistema no ensemble canônico é dada por
U ≡ 〈H〉 =
∑
j Ej e
−βEj
ZN(T )
= −∂ lnZ
∂β
(2.57)
Como cada microestado tem associada uma probabilidade de ocorrência Pj , então
devem existir flutuações em torno do valor médio. O desvio quadrático médio da
Daniel A. Stariolo - IF-UFRGS - 2014 23
energia é dado por
〈(H − 〈H〉)2〉 = 〈H2〉 − 〈H〉2 (2.58)
=
1
Z
∑
j
E2j e
−βEJ − 1
Z2
(∑
j
Eje
−βEj
)2
=
∂
∂β
(
∂ lnZ
∂β
)
= −∂U
∂β
= kBT
2∂U
∂T
= kBT
2N cV > 0
onde
cV =
1
N
∂U
∂T
(2.59)
é o calor específico a volume constante. Assim, as flutuações da energia no en-
semble canônico são proporcionais ao calor especifico, o que também aponta para
a positividade de cV . Esta relação é muito útil para determinar o calorespecífico
em simulações de Monte Carlo, ou Dinâmica Molecular, pois os valores médios
de momentos da energia podem ser obtidos facilmente ao longo da trajetória do
sistema durante a simulação. O desvio relativo é dado por:√〈H2〉 − 〈H〉2
〈H〉 =
√
NkBT 2cV
Nu
∝ 1√
N
, (2.60)
onde u = 〈H〉/N é a densidade de energia. Notamos que o desvio relativo ao
valor médio tende para zero quando N →∞. Isto quer dizer que a distribuição de
energias está fortemente concentrada em torno do valor médio, e as probabilidades
de o sistema se encontrar em microestados diferentes do valor médio são muito
pequenas. Desta forma, os resultados do ensemble canônico coincidem com os do
ensemble microcanônico no limite termodinâmico. Vejamos isto com um pouco
mais de detalhe. Vimos que a probabilidade de encontrar o sistema com uma
energia entre E e E + dE é:
P (E)dE = g(E) e−βEdE. (2.61)
A densidade de estados é uma função fortemente crescente de E, ao passo que
o exponencial de Boltzmann decai rapidamente. Como consequência, o produto
deve passar por um máximo para alguma energia especial E∗. O valor de E∗ é
determinado por:
∂
∂E
(
g(E)e−βE
)∣∣∣∣
E=E∗
= 0, (2.62)
Daniel A. Stariolo - IF-UFRGS - 2014 24
que equivale a
∂ ln g(E)
∂E
∣∣∣∣
E=E∗
= β. (2.63)
Mas,
S = kB ln g(E) e
∂S(E)
∂E
∣∣∣∣
E=U
=
1
T
= kBβ. (2.64)
Isto quer dizer que
E∗ = U. (2.65)
Este resultado é importante pois implica que o valor mais provável da energia é
igual à energia média. Vejamos agora qual a forma da distribuição de probabilida-
des da energia. Para isso é útil expandir o logaritmo da densidade de probabilidade
no entorno do valor médio U :
ln
[
g(E)e−βE
]
= −βE|E=U + ln g(E)|E=U +
1
2
∂2
∂E2
ln
[
g(E)e−βE
]∣∣
E=U
(E − U)2 + . . .
= −β(U − TS)− 1
2kBT 2CV
(E − U)2 + . . . (2.66)
Obtemos finalmente:
P (E) ∝ g(E)e−βE ≈ e−β(U−TS) exp
{
− (E − U)
2
2kBT 2CV
}
. (2.67)
A densidade de probabilidade da energia é uma distribuição Gaussiana, com mé-
dia U e desvio padrão
√
kBT 2CV . Considerando a escala de energia dada pela
energia interna U podemos definir a variável adimensional E/U . Esta também
possui uma distribuição Gaussiana, com média 1 e desvio padrão
√
kBT 2CV /U ,
que é de ordem O(N−1/2). Por tanto, para N >> 1 a distribuição de probabili-
dade é muito estreita, tendendo a uma função delta quando N → ∞. Integrando
o resultado (2.67) é fácil mostrar que
−kBT lnZN(T, V ) ≡ F (T, V,N) ≈ U − TS − 1
2
kBT ln (2πkBT
2CV ), (2.68)
que inclui correções de ordem lnN à expressão termodinâmica para a energia
livre.
Finalmente, é interessante notar que as flutuações para sistemas com grande
número de graus de liberdade podem ser importantes em situações especiais,
como por exemplo perto de transições de fase de segunda ordem, quando cV pode
tomar valores muito grandes e até divergir.
Daniel A. Stariolo - IF-UFRGS - 2014 25
2.2.3 Gás ideal no ensemble canônico
O ponto de partida para obter a termodinâmica de um sistema no ensemble canô-
nico é o cálculo da função de partição. No caso do gás ideal clássico:
ZN(T ) =
∫
dp dq
h3N
exp
[
−β
3N∑
i=1
p2i
2m
]
(2.69)
=
(
V N
h3N
) 3N∏
i=1
∫
dpi exp
(
−βp
2
i
2m
)
=
(
V
h3
)N [∫
dpixdpiydpize
− β
2m(p2ix+p2iy+p2iz)
]N
= [Z1(T )]
N
onde
Z1(T ) =
V
λ3T
(2.70)
é a função de partição de uma partícula e
λT =
h√
2πmkBT
(2.71)
é o comprimento de onda térmico das partículas. Esta quantidade, que tem dimen-
sões de comprimento, é importante pois corresponde aproximadamente ao valor
médio do comprimento de onda de de Broglie. Se o comprimento de onda tér-
mico for muito menor que a distância típica interpartícula então o gás pode ser
considerado clássico. No entanto, se λT for da ordem ou maior que a distância
interpartícula, os efeitos quânticos serão importantes e o gás deve ser estudado a
partir das estatísticas quânticas de Bose-Einstein ou Fermi-Dirac.
A energia livre do gás ideal clássico é dada por:
F (T, V,N) = −kBTN lnZ1 = −kBTN ln
{
V
h3
(2πmkBT )
3/2
}
(2.72)
A energia livre obtida não é extensiva: F (T, γV, γN) 6= γF (T, V,N). Encon-
tramos novamente o “paradoxo de Gibbs”. A solução, no contexto do ensemble
canônico, consiste em introduzir o fator de contagem de Gibbs na forma:
ZN(T, V )→ ZN(T, V )
N !
(2.73)
Daniel A. Stariolo - IF-UFRGS - 2014 26
No limite de N grande, podemos aplicar a aproximação de Stirling ao fatorial,
N ! ≈ N lnN −N , dando como resultado:
F (T, V,N) = −kBTN ln
{
V
Nh3
(2πmkBT )
3/2
}
− kBTN (2.74)
recuperando o comportamento extensivo da energia livre.
2.3 Fluidos clássicos não ideais
Fluidos simples geralmente são bem descritos com a estatística clássica pois nas
temperaturas (baixas) onde os efeitos quânticos começam a ser relevantes, estes
solidificam. A situação mais comum em relação ao Hamiltoniano de um fluido
clássico é que possa ser considerado como a soma de uma parte cinética, depen-
dente das velocidades, e uma energia potencial, que depende das coordenadas:
Up(q1, q2, . . . , qN). Então a função de partição clássica se fatora, podendo ser
escrita na forma:
ZN(T, V ) = ZGI V
−N Q (2.75)
onde ZGI é a função de partição do gás ideal, com o fator de contagem correto, e
Q ==
∫
dq1 · · · dqNe−βUp(q1,...,qN ) (2.76)
é a função de partição configuracional. Por causa do fatoramento entre a parte
cinética e configuracional, o valor médio estatístico de uma função f(q) resulta:
〈f(q1, . . . , qN)〉 = 1
Q
∫
dq1 · · · dqNf(q1, . . . , qN ) e−βUp(q1,...,qN ) (2.77)
que é independente do termo cinético.
Para analizar as propriedades de fluidos, gases ou líquidos, é importante le-
var em consideração questões de simetria. Em primeiro lugar, a energia potencial
Up(q1, q2, . . . , qN) deve ser invariante frente a permutações dos índices das par-
tículas, pois, embora partículas clássicas são consideradas distinguíveis, elas são
idênticas. Outra simetria importante é a invariância da energia potencial frente a
uma translação espacial de todo o sistema, ou seja, se deslocamos todas as coor-
denadas por um vetor fixo no espaço, a energia potencial deve ser a mesma. Isto
quer dizer que a energia potencial deve ser função apenas das distâncias relativas
entre as partículas e não das posições absolutas no espaço. A invariância frente
Daniel A. Stariolo - IF-UFRGS - 2014 27
a translações globais implica na homogeneidade do fluido. Além de homogêneo,
um fluido simples deve ser isotrópico, ou seja, a energia potencial deve ser invari-
ante frente a rotações de coordenadas. Estas três são as invariâncias ou simetrias
mais importantes de sistemas fluidos simples.
Uma quantidade fundamental para descrever a fase fluida é a densidade local
de partículas. Assumindo que as partículas são puntuais, a densidade se define
como:
ρp(r) =
N∑
i=1
〈δ(r − qi)〉 = 1
Q
∫
dq1 · · · dqN
N∑
i=1
δ(r − qi) e−βUp(q1,...,qN). (2.78)
Agora, devido à invariância do potencial frente a permutações de partículas,
cada um dos termos da soma deve ser igual aos outros, resultando em:
ρp(r) =
N
Q
∫
dq2 · · ·dqN
∫
dq1δ(r − q1) e−βUp(q1,...,qN ) (2.79)
Ainda, como o potencial deve depender apenas das distâncias relativas entre pares
de partículas |qi − qj |, podemos definir novas variáveis q′i = qi − q1, para i =
2, . . . , N , resultando em
ρp(r) =
N
Q
∫
dq′2 · · · dq′Ne−βU(q
′
2,...,q
′
N )
∫
dq1δ(r − q1)
=
N
Q
∫
dq′2 · · · dq′Ne−βUp(q
′
2,...,q
′
N ) (2.80)
De forma semelhante:
Q =
∫
dq′2 · · · dq′Ne−βUp(q
′
2,...,q
′
N )
∫
dq1 = V
∫
dq′2 · · · dq′Ne−βUp(q
′
2,...,q
′
N )
(2.81)
De (2.80) e (2.81) se conclui que ρp(r) = N/V para todos os pontos r no volume
V . Estapropriedade é válida para qualquer fluido simples. Já em um sólido a
densidade local não é uniforme pois as partículas se encontram localizadas no
espaço, a invariância translacional é quebrada na fase sólida.
Em um gás ideal as posições das partículas são independentes entre si. Já em
um fluido real existem correlações entre as posições. Uma função que descreve
as correlações espaciais entre partículas é a função de distribuição de pares g(r),
definida como:
g(r) ≡ 2V
N(N − 1)
∑
(i,j)
〈δ(r− rij)〉 , (2.82)
Daniel A. Stariolo - IF-UFRGS - 2014 28
onde rij ≡ qi − qj é o vetor distância relativa entre as partículas i e j, e a notação
(i, j) indica que cada par de partículas é contabilizado apenas uma vez. Notamos
que a função g(r) corresponde, essencialmente, ao número médio de pares de
partículas que se encontram a uma distância r uma da outra. Para entender melhor
a definição da g(r) notamos que, pela invariância do sistema frente a permutações
de partículas, todos os termos de pares devem ser idênticos. Ainda, pela isotropia
do sistema, a função não pode depender da direção do vetor r, mas apenas do
módulo r = |r|. Então:
g(r) = V 〈δ(r− r12)〉 . (2.83)
Para um gás ideal Up(q1, . . . , qN ) = 0 e então o valor médio pode ser calculado
facilmente, de onde obtemos que 〈δ(r− r12)〉 = 1/V e g(r) = 1. Este resultado
quer dizer que, para o gás ideal, todas as distâncias entre pares de partículas são
igualmente prováveis. Já no caso de partículas em interação obtemos:
g(r) =
V
Q
∫
dq′2 δ(r− q′2)
∫
dq′3 · · · dq′N e−βUp(q
′
2,...,q
′
N)
∫
dq1
=
V 2
Q
∫
dq′3 · · ·dq′N e−βUp(r,q
′
3...,q
′
N ). (2.84)
A forma mais frequênte de energia potencial é a que corresponde a uma soma de
interações de pares, ou seja:
Up(q1, . . . , qN) =
∑
(i,j)
u(rij). (2.85)
Levando em consideração a simetria do potencial frente a permutações das partí-
culas resulta:
〈Up〉 = N(N − 1)
2
〈u(r12)〉
=
N(N − 1)
2Q
∫
dq′2 u(q
′
2)
∫
dq′3 · · · dq′N e−βUp(q
′
2,...,q
′
N )
∫
dq1
=
V N(N − 1)
2Q
∫
d3r u(r)
∫
dq′3 · · · dq′N e−βUp(r,...,q
′
N ) (2.86)
Agora, usando o resultado (2.84) e incluindo a contribuição da energia cinética,
obtemos uma expressão para a equação de estado da energia do fluido:
U = 〈H〉 = 3
2
NkBT +
N(N − 1)
2V
∫
d3r u(r) g(r), (2.87)
Daniel A. Stariolo - IF-UFRGS - 2014 29
Para obter a equação de estado da pressão do fluido, partimos da definição da
pressão no ensemble canônico:
P = −∂F
∂V
= kBT
∂ lnZN
∂V
= kBT
∂
∂V
ln
(
ZGI Q
V N
)
= kBT ρp + kBT
V N
Q
∂
∂V
(
Q
V N
)
. (2.88)
Com um pouco mais de trabalho podemos obter uma expressão para a pressão de
um fluido, com interações de pares, em termos da função distribuição de pares:
P = kBT ρp
[
1− 2πρp
3kBT
∫ ∞
0
r3
du(r)
dr
g(r) dr
]
. (2.89)
Esta última relação se conhece como equação de estado do virial. Notamos que
as equações de estado ficam completamente determinadas conhecendo o potencial
de pares e a função de distribuição g(r).
A função de distribuição de pares pode ser determinada experimentalmente
por técnicas de espectroscopia, como espalhamento de raios X, nêutrons, elêtrons,
etc. Ela está relacionada com uma quantidade básica em experimentos de espec-
troscopia que é o fator de estrutura, definido como:
I(~k) =
〈∣∣∣∣∣
N∑
j=1
ei
~k.~qj
∣∣∣∣∣
2〉
, (2.90)
onde a média é realizada no ensemble. I(~k) mede a intensidade do espalhamento
em função do vetor de onda k da radiação espalhada pelo material. Da definição
anterior obtemos:
I(~k) =
〈
N∑
j=1
N∑
l=1
ei
~k.(~qj−~ql)
〉
= N +
〈∑
j 6=l
ei
~k.(~qj−~ql)
〉
(2.91)
Como a função que deve ser mediada depende apenas das coordenadas:
I(~k) = N +
1
Q
∑
j 6=l
∫
dq1 · · · dqN ei~k.(~qj−~ql) e−βU(q1,...,qN )
= N +
N(N − 1)
Q
∫
dq1 · · · dqN ei~k.(~q2−~q1) e−βU(q1,...,qN)
= N +
V N(N − 1)
Q
∫
dq′2 · · · dq′N ei~k.~q
′
2 e−βU(q
′
2,...,q
′
N ) (2.92)
Daniel A. Stariolo - IF-UFRGS - 2014 30
Figura 2.2: O potencial de Lennard-Jones.
Comparando com (2.84) obtemos:
I(~k) = N +
N(N − 1)
V
∫
d3r ei
~k.~r g(r) (2.93)
ou seja, o fator de estrutura está relacionado diretamente com a transformada de
Fourier da função de distribuição de pares. Desta forma é possível determinar a
função g(r) a partir de dados experimentais para um dado sistema.
Para muitos fluidos normais o potencial de interação é repulsivo a distâncias
muito curtas (caroço duro) e atrativo a distâncias um pouco maiores. Um potencial
semi-empírico muito comum é o potencial de Lennard-Jones:
u(r) = 4ǫ
[(σ
r
)12
−
(σ
r
)6]
(2.94)
que é mostrado na figura 2.2.
No potencial, σ possui unidades de comprimento e representa o tamanho do
caroço duro. O potencial u(σ) = 0 e cresce muito fortemente para r < σ. Para
r > σ o potencial é atrativo, apresentando um mínimo, um ponto de estabilidade
mecânica, em r = 21/6σ. Para distâncias r ≫ σ o potencial tende para zero como
1/r6, que corresponde a uma interação de van der Waals. A função distribuição
de pares para este potencial tem a forma mostrada na figura 2.3.
Daniel A. Stariolo - IF-UFRGS - 2014 31
Figura 2.3: A função de distribuição de pares para um sistema com energia po-
tencial de Lennard-Jones, para kBT/ǫ = 0.71 e ρp = 0.844, obtido por simulação
numérica.
A forma da g(r) pode interpretarse como segue: ρpg(r) é a densidade média
de partículas que se observam a uma distância r de uma origem arbitrária. Como
para r < σ não pode ter partículas por causa do termo de caroço duro, a g(r) = 0
nesta região. Na sequência, g(r) apresenta um pico pronunciado que corresponde
aproximadamente à distância até os primeiros vizinhos, e depois segue uma série
de picos menores representando as sucessivas camadas de vizinhos da partícula
central. O caráter oscilatório da função é consequência da competição entre for-
ças atrativas e repulsivas no potencial. Finalmente, para distâncias muito grandes,
g(r) → 1, que coincide com o valor correspondente a partículas livres, como se
espera de um par de partículas muito afastadas em um fluido simples. As posições
dos picos dão informação das correlações entre as partículas. Quanto mais diluido
seja o fluido, menos picos vão aparecer na g(r), em oposição ao comportamento
de um sólido, onde a periodicidade da rede cristalina deve levar à presença de
uma série de picos de igual intensidade separados pela mesma distância, corres-
pondente à distância entre as partículas na matriz cristalina.
No caso de fluidos com interações fracas, ou densidades baixas, é possível
obter a equação de estado da forma seguinte: definimos uma função:
f(r) = e−βu(r) − 1 (2.95)
Daniel A. Stariolo - IF-UFRGS - 2014 32
Definindo fij ≡ f(rij), podemos escrever a função de partição configuracional na
forma:
Q =
∫
dq1 · · ·dqN
∏
(i,j)
e−βu(rij) =
∫
dq1 · · ·dqN
∏
(i,j)
[1 + fij ] (2.96)
Desenvolvendo os produtos obtemos:
Q =
∫
dq1 · · ·dqN

1 +∑
(i,j)
fij +
1
2
∑
(i,j)
∑
(k,l)6=(i,j)
fijfkl + · · ·


= V N + V N−2
∑
(i,j)
∫
dqidqj fij + · · ·
= V N + V N−1
N(N − 1)
2
∫
d3rf(r) + · · ·
= V N
[
1− N(N − 1)
V
B(T ) + · · ·
]
, (2.97)
onde
B(T ) = −1
2
∫
d3r
[
e−βu(r) − 1] (2.98)
se conhece como segundo coeficiente virial. Desconsiderando termos de ordem
superior na expansão acima, obtemos:
Q
V N
≈ 1− N
2
V
B(T ) (2.99)
e, da equação (2.88):
P = kBTρp + kBT
N2
V 2
B(T )
1− N2
V
B(T )
. (2.100)
Para N2B(T )/V ≪ 1 obtemos, finalmente:
P ≈ kBTρp [1 + ρpB(T )]. (2.101)
De fato, é possível mostrar que, para potenciais de muito curto alcance, é possível
obter uma expansão da equação de estadoem potências da densidade de partícu-
las:
P = kBT [ρp + ρ
2
pB(T ) + ρ
3
pC(T ) + · · · ], (2.102)
Daniel A. Stariolo - IF-UFRGS - 2014 33
que se conhece como expansão do virial. Notamos que a aproximação (2.101)
é válida somente para densidades muito baixas. Integrando a equação (2.98) por
partes para o potencial de Lennard-Jones obtemos:
B(T ) = −2πβ
3
∫ ∞
0
r3
du(r)
dr
e−βu(r) dr. (2.103)
Substituindo em (2.101) e comparando o resultado com (2.89) notamos que trun-
car a expansão do virial a segunda ordem equivale a aproximar a função de distri-
buição de pares por:
g(r) = e−βu(r) (2.104)
Na figura 2.4 podemos ver o resultado de aproximar a g(r) usando a expansão do
virial até segunda ordem. Aparece apenas o primeiro pico. Para poder obter os
outros picos é necessário ir a ordens superiores na expansão. Esse resultado deixa
claro que a expansão de ordem baixa é boa apenas para fluidos muito diluidos.
Figura 2.4: A função de distribuição de pares para um sistema com energia poten-
cial de Lennard-Jones, obtido truncando a expansão do virial até segunda ordem
para kBT/ǫ = 1.
2.4 O ensemble Grande Canônico
Consideremos agora um sistema que pode trocar calor e partículas com o meio no
qual se encontra. Neste caso, o número de partículas N não será mais constante,
podendo flutuar assim como a energia. No equilíbrio, o valor médio 〈N〉 estará
Daniel A. Stariolo - IF-UFRGS - 2014 34
bem definido. No caso de um sistema quântico, se pode definir um operador nú-
mero de partículas Nˆ , cujos autovalores n, correspondem aos possíveis resultados
de uma medida particular. Os estados acessíveis do sistema correspondem aos au-
toestados da energia para uma partícula, duas partículas, etc. O espaço de Hilbert
é formado pela soma direta dos subespaços de uma, duas, três, etc. partículas. Va-
mos assumir que o operador Hˆ não mescla estados de subespaços com diferente
número de partículas, ou seja, que Hˆ comuta com Nˆ . Desta forma, a matriz que
representa Hˆ terá uma estrutura diagonal em blocos Hˆ0, Hˆ1, etc. na qual HˆN é o
operador Hamiltoniano de N partículas. Os autoestados do Hamiltoniano de um
sistema de N partículas serão indexados com um número quântico adicional, por
exemplo:
Hˆ|N,Enl 〉 = Enl |N,Enl 〉
Nˆ |N,Enl 〉 = n|N,Enl 〉 (2.105)
Vamos agora maximizar a entropia de Gibbs
S = −kB Tr(ρˆ ln ρˆ) = −kB
∞∑
n=0
∑
l
ρnl ln ρ
n
l (2.106)
onde ρnl é o elemento de matriz (diagonal) do operador densidade ρˆ correspon-
dente aos números quânticos l, n. Os vínculos a ser satisfeitos neste caso são:
U = 〈Hˆ〉 = Tr(ρˆHˆ) =
∞∑
n=0
∑
l
Enl ρ
n
l (2.107)
N = 〈Nˆ〉 = Tr(ρˆNˆ) =
∞∑
n=0
n
∑
l
ρnl (2.108)
Trρˆ =
∞∑
n=0
∑
l
ρnl = 1, (2.109)
que serão incorporados no processo de variação via multiplicadores de Lagrange.
Fazendo isso obtemos
δ
[∑
n
∑
l
{α0ρnl + α1Enl ρnl + α2nρnl − kBρnl ln ρnl }
]
= 0
∑
n
∑
l
[(α0 − kB) + α1Enl + α2n− kB ln ρnl ] δρnl = 0 (2.110)
Daniel A. Stariolo - IF-UFRGS - 2014 35
Desta condição, e como a identidade vale para variações arbitrárias, obtemos:
kB ln ρˆ = (α0 − kB) + α1Hˆ + α2Nˆ (2.111)
ou
ρˆ = e
(
α0
kB
−1
)
e
α1
kB
Hˆ+
α2
kB
Nˆ (2.112)
Usando a normalização da matriz densidade, definimos a função
Z ≡ e
(
1− α0
kB
)
= Tr exp
[
α1
kB
Hˆ +
α2
kB
Nˆ
]
. (2.113)
A função Z é conhecida como grande função de partição. Para fixar os valores
das constantes α1 e α2 multiplicamos (2.111) por ρˆ e tomamos o traço:
(α0 − kB) + α1U + α2N + S = 0 (2.114)
ou, multiplicando pela temperatura:
−kBT lnZ + α1TU + α2TN + TS = 0 (2.115)
Para determinar os valores das constantes α1 e α2 vamos exigir consistência com
a termodinâmica. Identificando α1 = −1/T , α2 = µ/T , onde µ é o potencial
quimico, e da definição termodinâmica da função grande potencial:
Ω(T, V, µ) = U − TS − µN (2.116)
obtemos:
Ω(T, V, µ) = −kBT lnZ. (2.117)
Então
Z(T, V, µ) = e−βΩ(T,V,µ) = Tr e−β(Hˆ−µNˆ) (2.118)
e
ρˆ =
1
Z exp
[
−β(Hˆ − µNˆ)
]
. (2.119)
Das relações anteriores podemos obter, por exemplo,
S = −
(
∂Ω
∂T
)
V,µ
N = −
(
∂Ω
∂µ
)
T,V
(2.120)
Daniel A. Stariolo - IF-UFRGS - 2014 36
Usando a relação de Euler: U = TS − PV + µN obtemos Ω = −PV . Final-
mente podemos obter uma relação entre a grande função de partição e a função de
partição canônica:
Z = Tr e−β(Hˆ−µNˆ) =
∑
n
eβµn
∑
l
e−βE
n
l
=
∑
n
zn ZN(T, V ) (2.121)
onde z = eβµ é conhecida como fugacidade.
Mais uma vez, como no caso do ensemble canônico, a distribuição que ma-
ximiza a entropia de Gibbs é dada pelo exponencial de Boltzmann da energia
correspondente ao sistema sujeito aos vínculos macroscópicos correspondentes,
neste caso temperatura e potencial quimico fixos. Este procedimento pode ser
generalizado facilmente para outras situações com diferentes vínculos, como será
discutido com um pouco mais de detalhe no final da próxima seção.
2.4.1 Flutuações no número de partículas
No ensemble grande canônico a temperatura e o número médio de partículas são
fixos, mas os valores da energia e do número de partículas podem flutuar. Já
vimos como estimar as flutuações da energia para um sistema em contato com
um reservatório térmico. Vamos agora fazer uma análise semelhante e ver como
se comportam as flutuações no número de partículas para um sistema em contato
com um reservatório de partículas.
Começamos escrevendo a condição de normalização das probabilidades da
seguinte forma:
Tr ρ = Tr eβ(Ω(T,µ)−H+µN) = 1, (2.122)
onde a notação é válida tanto para sistemas quânticos, onde ρ ≡ ρˆ, H ≡ Hˆ , etc.
são operadores, quanto para sistemas clássicos onde Tr corresponde a uma inte-
gral no espaço de fase e ρ, H , N , etc. são as funções densidade de probabilidade,
Hamiltoniano, número de partículas, etc.
Derivando em relação ao potencial químico obtemos:
Tr
[(
β
∂Ω
∂µ
+ βN
)
eβ(Ω(T,µ)−H+µN)
]
= 0, (2.123)
ou
β
∂Ω
∂µ
+ β Tr
[
Neβ(Ω(T,µ)−H+µN)
]
= 0. (2.124)
Daniel A. Stariolo - IF-UFRGS - 2014 37
Derivando mais uma vez:
β
∂2Ω
∂µ2
+ β Tr
[
Nβ
(
∂Ω
∂µ
+N
)
eβ(Ω(T,µ)−H+µN)
]
= 0, (2.125)
ou
β
∂2Ω
∂µ2
+ β2
∂Ω
∂µ
Tr [Nρ] + β2Tr
[
N2ρ
]
= 0. (2.126)
Usando a relação (2.120) obtemos uma expressão para o desvio quadrático médio
do número de partículas:
〈
N2
〉− 〈N〉2 = −kBT ∂2Ω
∂µ2
= kBT
∂ 〈N〉
∂µ
. (2.127)
É possível mostrar (ver, por exemplo, o livro de Salinas [4]) que a derivada do
número médio de partículas em relação ao potencial quimico está relacionada
com a compressibilidade isotérmica do sistema:
kBT
∂ 〈N〉
∂µ
= 〈N〉2kBTκT
V
(2.128)
Por tanto, o desvio relativo ao valor médio no número de partículas é da ordem:√
〈N2〉 − 〈N〉2
〈N〉 ∼ V
−1/2. (2.129)
Então vemos que a medida que o volume do sistema aumenta o número de par-
tículas se afasta muito pouco do seu valor médio, que por sua vez coincide com
o valor mais provável da distribuição de equilíbrio de Boltzmann. Concluimos
que, no limite termodinâmico, quando N e V são muito grandes (comparados
com o tamanho das partículas) as flutuações da energia e do número de partículas
são desprezíveis, e por tanto nestas condições os três ensembles, microcanônico,
canônico e grande canônico são equivalentes do ponto de vista termodinâmico.
Uma exceção a este comportamento acontece na vizinhança de um ponto crítico
quando as flutuações na densidade do sistema podem ser muito grandes e a com-
pressibilidade cresce sem limites. As flutuações da densidade perto de um ponto
crítico levam ao fenômeno da opalescência crítica, um fenômeno que representa
uma evidência experimental direta da presença de um ponto crítico.
Para concluir esta análise notemos a semelhança entre os operadores densi-
dade nos ensembles canônicoe grande canônico em relação ao princípio variacio-
nal de Gibbs. Em ambos os ensembles os operadores são dados pela exponencial
Daniel A. Stariolo - IF-UFRGS - 2014 38
de uma combinação linear de observáveis, um por cada vínculo macroscópico im-
posto via um multiplicador de Lagrange. Os valores médios de tais observáveis
são todos variáveis termodinâmicas extensivas. Os coeficientes da combinação
linear dos mesmos estão associados a multiplicadores de Lagrange respectivos e
são iguais ao parâmetro intensivo correspondente ao observável na representação
de entropia: 1/T no caso da energia e −µ/T no caso do número de partículas.
Generalizando este mecanismo é possível obter diferentes tipos de ensembles,
apropriados para situações particulares, sendo que todos são equivalentes no li-
mite termodinâmico. Um exemplo importante é o ensemble das pressões, que
corresponde à situação de um sistema em contato com um reservatório térmico e
de pressão. Nesta situação, o número de partículas é fixo, mas a energia e o vo-
lume podem flutuar. Os vínculos externos são então a energia média e o volume
médio (parede móvel ou flexível). Maximizando a entropia de Gibbs como nos ca-
sos anteriores é possível obter a função de partição grande canônica no ensemble
das pressões:
Υ(P, T,N) =
∫ ∞
0
(
Tr e−β(H+PV )
)
dV =
∫ ∞
0
e−βPV ZN(T, V ) dV, (2.130)
onde ZN(T, V ) é a função de partição canônica para um sistema de N partículas,
temperatura T e volume V e
G(T, P,N) = −kBT lnΥ(P, T,N) (2.131)
é a energia livre de Gibbs, que é o potencial termodinâmico relevante para um
sistema a pressão constante.
2.4.2 Adsorção em superfícies
Consideremos a superfície de um material sólido, em equilíbrio termodinâmico
com um fluido (líquido ou gás), a pressão e temperatura fixas. Os átomos da su-
perfície do sólido apresentam suas interações desbalançadas em relação aos áto-
mos do interior do material, por causa da ausência de átomos do sólido do outro
lado da superfície. Então estes átomos superficiais podem atrair átomos do fluido
em torno, os que poderão ligarse à superfície sólida. O processo pelo qual áto-
mos (ou moléculas) de um fluido se ligam na superfície de um sólido se chama
adsorção. Este fenômeno é fisicamente diferente da absorção, na qual os átomos
do fluido podem entrar no interior do volume do outro material, por exemplo em
poros. O processo inverso da adsorção é a desorção, na qual um átomo ligado a
Daniel A. Stariolo - IF-UFRGS - 2014 39
uma superfície se desprende da mesma e volta para o fluido. Em equilíbrio termo-
dinâmico o número médio de partículas adsorvidas e desorvidas será o mesmo e a
concentração do material adsorvido, o adsorvato, na superfície será constante. O
processo de adsorção leva a formação de um filme do adsorvato sobre a superfície
do adsorvente, e apresenta uma grande gama de aplicações industriais.
Um processo real de adsorção é muito complexo, mas se podem entender al-
guns mecanismos básicos do mesmo através de um modelo simples introduzido
em 1916 por Irving Langmuir e que representa um bom exemplo de aplicação
do ensemble grande canônico clássico. Os ingredientes fundamentais do modelo
consistem em supor que
• as partículas do adsorvato se depositam em um número fixo de sítios da
superfície adsorvente, chamados sítios de adsorção.
• cada sítio de adsorção pode adsorver no máximo uma molécula.
• as moléculas adsorvidas não interagem entre si, são independentes.
• o fluido é considerado um gás ideal.
Já que a superfície do sólido se encontra em equilíbrio com o gás, este pode
ser considerado como um reservatório de partículas para a superfície. Vamos
então calcular a grande função de partição para os sítios de adsorção e depois
impor as condições de equilíbrio termodinâmico com o gás. Vamos supor então
que existem M sítios de adsorção e que a energia de ligação das moléculas na
superfície é−γ. Assim γ será a energia necessária para desorver ou evaporar uma
molécula da superfície. Podemos ainda supor que as moléculas do gás possuem
graus internos de liberdade. Seja ζ(T ) a função de partição canônica dos graus
internos de liberdade de uma molécula. A função de grande partição do conjunto
de sítios de adsorção é dada por:
ZM =
M∑
N=0
zN ZN(T ), (2.132)
onde ZN(T ) é a função de partição canônica para um sistema de N moléculas
adsorvidas. Neste problema não deve ser incluido o fator de contagem de Boltz-
mann, pois os sítios de adsorção são considerados distinguíveis. Como as molé-
culas adsorvidas são independentes:
ZN(T ) = g(N) (Z1(T ))
N = g(N)
(
eβγζ(T )
)N (2.133)
Daniel A. Stariolo - IF-UFRGS - 2014 40
onde g(N) é o número de formas de distribuir N moléculas em M sítios de ad-
sorção. Então:
ZM =
M∑
N=0
M !
N !(M −N)!
(
z eβγζ(T )
)N
=
(
1 + z eβγζ(T )
)M (2.134)
Podemos derivar o resultado anterior por um caminho alternativo. Os graus inter-
nos de liberdade das moléculas podem ser considerados redefinindo a fugacidade
z → z′ = z ζ(T ). Cada sítio de adsorção pode ser considerado como um sis-
tema de dois estados: com molécula adsorvida ou sem, com energias −γ e zero
respectivamente. Então podemos associar a cada sítio de adsorção um número de
ocupação ni = 0, 1, de forma que os estados ni = 0, 1 correspondem ao sítio
i-ésimo estar desocupado ou ocupado por um adsorvato respectivamente. Assim,
podemos escrever um Hamiltoniano para este sistema na forma H = −γ∑Mi=1 ni
e N =
∑M
i=1 ni, e a função de grande partição pode ser escrita na forma:
ZM = Tr e−β(H−µ′N) =
∑
n1=0,1
· · ·
∑
nM=0,1
e
∑
i niβ(γ+µ
′) =
(
1 + eβ(γ+µ
′)
)M
(2.135)
que resulta idêntica com a (2.134). O número médio de partículas adsorvidas é
dado por:
〈N〉 = z ∂ lnZM
∂z
= M
z eβγζ(T )
1 + z eβγζ(T )
. (2.136)
Se define recobrimento, θ(T, P ), à fração de partículas adsorvidas na superfície
〈N〉/M , que resulta:
θ =
z eβγζ(T )
1 + z eβγζ(T )
. (2.137)
A condição de equilíbrio termodinâmico entre a superfície e o gás corresponde à
igualdade entre os seus potenciais quimicos. O potencial quimico do gás corres-
ponde ao de um gás ideal, cujo valor é:
µ = kBT ln
(〈N〉 λ3T
V
)
(2.138)
Por tanto:
z ζ(T ) =
〈N〉 λ3T
V
=
P λ3T
kBT
(2.139)
Daniel A. Stariolo - IF-UFRGS - 2014 41
Então podemos escrever:
θ =
P
P0 + P
, (2.140)
onde
P0 =
kBT
λ3T
e−βγ . (2.141)
A equação (2.140) se conhece como isoterma de Langmuir e define o valor do
recobrimento em função da pressão do gás para uma temperatura fixa. Notamos
que para P/P0 ≪ 1 o recobrimento se comporta como θ ∼ P/P0 e θ → 1
quando P/P0 ≫ 1. O modelo de Langmuir, embora extremamente simplificado,
resulta fisicamente muito natural, e por tanto serve como bom ponto de partida
para incluir de forma sistemática condições mais realistas, como interações entre
as partículas adsorvidas ou modelos mais sofisticados para o reservatório fluido.
Capítulo 3
Estatísticas quânticas
3.1 Sistemas de partículas indistinguíveis
O Princípio de Incerteza de Heisenberg leva a concluir que duas partículas idênti-
cas são indistiguíveis, a menos que exista uma situação particular que limite suas
posições espaciais, como é caso dos átomos em um sólido.
Uma consequência desta condição é que operadores, como o Hamiltoniano
de N partículas, são invariantes frente a permutações arbitrárias das variáveis di-
nâmicas associadas as partículas, ou seja, os operadores são invariantes frente a
uma “renumeração” das partículas. Como sabemos, por cada operação de simetria
existe um operador associado que comuta com o Hamiltoniano do sistema, e pode
ser diagonalizado simultaneamente. Veremos que existem apenas dois autovalores
possíveis associados aos operadores de permutação de partículas, e assim o espaço
de Hilbert associado a um sistema de N partículas quânticas fica dividido em doissubespaços, com características muito diferentes e implicações fundamentais para
o comportamento físico dos sistemas associados a cada um deles.
Vamos supor um sistema de N partículas sem spin. A função de onda corres-
pondente na representação de coordenadas é Ψ(q1, . . . , qN). Trocas na enumera-
ção das partículas podem ser descritas pelos operadores permutação de pares Pˆik,
os quais trocam as coordenadas qi e qk na função de onda:
PˆikΨ(q1, . . . , qi, . . . , qk, . . . , qN ) = Ψ(q1, . . . , qk, . . . , qi, . . . , qN ) (3.1)
Se o Hamiltoniano é invariante frente a trocas arbitrárias de pares de partículas se
verifica que: [
Hˆ, Pˆik
]
= 0 ∀i, k = 1, . . . , N com i 6= k (3.2)
42
Daniel A. Stariolo - IF-UFRGS - 2014 43
As autofunções de Pˆik têm que satisfazer:
PˆikΨ(q1, . . . , qi, . . . , qk, . . . , qN) = λΨ(q1, . . . , qi, . . . , qk, . . . , qN)
= Ψ(q1, . . . , qk, . . . , qi, . . . , qN) (3.3)
Aplicando novamento o operador Pˆik obtemos:
Pˆ 2ikΨ(q1, . . . , qi, . . . , qk, . . . , qN) = Ψ(q1, . . . , qi, . . . , qk, . . . , qN )
= λ2Ψ(q1, . . . , qi, . . . , qk, . . . , qN). (3.4)
Ou seja, os autovalores do operador permutação de pares podem tomar apenas
dois valores λ = ±1. Assim, as autofunções são chamadas de simétricas se
correspondem a λ = 1 e antissimétricas se correspondem a λ = −1. Se o Hamil-
toniano comuta com todos os operadores de permutação, então suas autofunções
podem ser construidas de forma a serem totalmente simétricas, ou seja, simétricas
frente a qualquer permutação de coordenadas, ou totalmente antissimétricas, ou
seja, antissimétricas frente a qualquer permutação de coordenadas.
Uma permutação qualquer pode ser realizada pelo operador de permutação Pˆ ,
tal que:
PˆΨ(q1, q2, . . . , qN ) = Ψ(qP1, qP2 , . . . , qPN ) (3.5)
onde P1, . . . , PN corresponde a uma permutação arbitrária dos números 1, . . . , N .
É simples notar que qualquer operador Pˆ é equivalente a aplicar uma sequência
de permutações de pares Pˆij . Por tanto, as autofunções de Pˆ também serão fun-
ções simétricas ou antissimétricas. Se uma autofunção qualquer do Hamiltoniano
Ψ(q1, . . . , qN) não tiver nenhuma paridade definida, podemos construir autofun-
ções totalmente simétricas ou totalmente antissimétricas a partir dela da seguinte
forma:
ΨS(q1, . . . , qN) = BS
∑
P
PˆΨ(q1, . . . , qN ) (3.6)
ΨA(q1, . . . , qN) = BA
∑
P
(−1)P PˆΨ(q1, . . . , qN) (3.7)
onde BS, BA são constantes de normalização e as somas varrem todas as possí-
veis permutações dos q′is. O sinal (−1)P é +1 se a permutação for par, e −1 se
for ímpar. Uma permutação é par (ímpar) se o número de permutações de pares
necessárias para obter a permutação geral P1, . . . , PN a partir da 1, 2, . . . , N for
par (ímpar)
Daniel A. Stariolo - IF-UFRGS - 2014 44
Como exemplo, consideremos uma função de onda de três partículas Ψ(q1, q2, q3).
Podemos construir funções totalmente simetrizadas com a receita anterior:
ΨS(q1, q2, q3) = BS [Ψ(q1, q2, q3) + Ψ(q2, q1, q3) + Ψ(q1, q3, q2)
+Ψ(q2, q3, q1) + Ψ(q3, q1, q2) + Ψ(q3, q2, q1)]
ΨA(q1, q2, q3) = BA [Ψ(q1, q2, q3)−Ψ(q2, q1, q3)−Ψ(q1, q3, q2)
+Ψ(q2, q3, q1) + Ψ(q3, q1, q2)−Ψ(q3, q2, q1)]
Funções de onda de sistemas de partículas de um mesmo tipo (elétrons, fótons,
quarks) apresentam um tipo de simetria definido frente ao intercâmbio de partícu-
las. Ou seja, as funções de onda de partículas elementares são simétricas ou antis-
simétricas. As partículas descritas por funções de onda simétricas são chamadas
de bósons em homenagem ao físico indio Satyendra Nath Bose (1894-1974). Par-
tículas descritas por funções de onda antissimétricas são chamadas de férmions,
em homenagem ao físico italiano Enrico Fermi (1901-1954).
O caráter de simetria das funções de onda está também relacionado com o
spin das partículas elementares. Na natureza se observa que todos os férmions
possuem spin semi-inteiro, enquanto que os bósons apresentam spin inteiro. Esta
relação é conhecida como Teorema spin-estatística.
As propriedades de simetria das partículas frente ao intercâmbio têm profun-
das consequências nas propriedades físicas dos sistemas. Do ponto de vista da
Mecânica Estatística, bósons e férmions se comportam de forma muito diferente,
dando lugar as chamadas estatísitca de Bose-Einstein e estatística de Fermi-Dirac,
cujas propriedades vamos analizar a seguir.
Para poder construir autofunções com simetria definida, é necessário definir
uma base inicial de autofunções do Hamiltoniano. Uma base possível é a corres-
pondente a um sistema de partículas não interagentes, quando o Hamiltoniano das
N partículas se reduz à soma de operadores de partícula única:
Hˆ(qˆ1, . . . , qˆN , pˆ1, . . . , pˆN) =
N∑
i=1
hˆ(qˆi, pˆi) (3.8)
Resolvendo o problema de autovalores para uma partícula:
hˆφk(q) = ǫkφk(q) (3.9)
onde k representa um conjunto de números quânticos, se pode construir um auto-
estado de Hˆ na forma:
ΨEk1,...,kN = Π
N
i=1φki(qi) (3.10)
Daniel A. Stariolo - IF-UFRGS - 2014 45
que corresponde a um autovalor de Hˆ:
E =
N∑
i=1
ǫki (3.11)
Assim, no caso de partículas independentes podemos escrever as autofunções to-
talmente simétricas e antissimétricas na forma:
ΨE,Sk1,...,kN (q1, . . . , qN) = BS
∑
P
Pˆφk1(q1) · · ·φkN (qN) (3.12)
ΨE,Ak1,...,kN (q1, . . . , qN) = BA
∑
P
(−1)P Pˆ φk1(q1) · · ·φkN (qN ) (3.13)
A função de onda totalmente antissimétrica pode ser escrita em forma de de-
terminante:
ΨE,Ak1,...,kN (q1, . . . , qN) = BA det


φk1(q1) · · · φk1(qN)
.
.
.
.
.
.
φkN (q1) · · · φkN (qN )

 (3.14)
conhecido como determinante de Slater, por John Clarke Slater (1900-1976)
que os usou para obter funções de onda antissimétricas para descrever sistemas
de elétrons. Da forma do determinante se observa que se duas ou mais partículas
estiverem no mesmo estado quântico, então o determinante terá duas ou mais filas
ou colunas iguais, e por tanto será identicamente nulo. Este resultado corresponde
ao Principio de exclusão de Pauli, ou seja, dois ou mais férmions não podem
ocupar simultaneamente o mesmo estado quântico.
Também notamos que um estado quântico é caracterizado completamente pelo
conjunto de números quânticos {k1, . . . , kN}. Uma permutação destes índices so-
mente produz um câmbio de sinal no caso antissimétrico e deixa a função de onda
inalterada no caso simétrico. A indistinguibilidade das partículas frente a permu-
tações faz com que a quantidade relevante para caracterizar um estado, ou função
de onda, seja quantas partículas existem em cada estado. Esta especificação pode
ser feita definindo os números de ocupação: nk. A especificação dos números de
ocupação para todos os níveis k de cada partícula, sujeitos ao vínculo∑k nk = N
determina completamente um estado simétrico. No caso de férmions, o Princípio
de Exclusão limita os possíveis valores dos números de ocupação a nk = 0, 1.
A impossibilidade de identificar as partículas individualmente implica que to-
dos os operadores associados a obseráveis quaisquer devem comutar com os ope-
radores de permutação: [
Oˆ, Pˆ
]
= 0 (3.15)
Daniel A. Stariolo - IF-UFRGS - 2014 46
Em particular, o operador densidade ρˆ deve também ser invariante frente a permu-
tações das partículas do sistema.
Uma vez definidos os números de ocupação, a energia de um autoestado de N
partículas é dada por:
E =
∑
k
nkǫk (3.16)
Se conhecermos e espectro de energias ǫi do sistema, podemos calcular a função
de partição canônica do mesmo na forma
Z(T,N, V ) = Tr e−βHˆ =
∑
{nk}
exp (−β
∑
k
nkǫk) (3.17)
onde, de forma geral, o conjunto de números de ocupação deve satisfazer o vínculo∑
k nk = N . Este vínculo torna o cálculo explícito da função de partição uma
tarefa complicada em geral. A dificuldade se reduz se considerarmos o ensemble
grande canônico. A grande função

Outros materiais