Logo Passei Direto
Buscar
Material
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

Mecânica Estatística
Daniel A. Stariolo
Programa de Pós-Graduação em Física
Instituto de Física
Universidade Federal do Rio Grande do Sul
2014
i
Sumário
1 Fundamentos da Mecânica Estatística 1
1.1 O que é a Mecânica Estatística ? . . . . . . . . . . . . . . . . . . 2
1.2 Ergodicidade e equilíbrio . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 O Teorema de Liouville . . . . . . . . . . . . . . . . . . 3
1.2.2 A hipótese ergódica . . . . . . . . . . . . . . . . . . . . 6
1.3 Sistemas quânticos . . . . . . . . . . . . . . . . . . . . . . . . . 8
2 Teoria de ensembles estatísticos 12
2.1 O ensemble microcanônico . . . . . . . . . . . . . . . . . . . . . 12
2.1.1 Gás ideal monoatômico clássico . . . . . . . . . . . . . . 15
2.1.2 A formulação de Gibbs . . . . . . . . . . . . . . . . . . . 17
2.2 O ensemble canônico . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.1 A densidade de estados e a função de partição . . . . . . . 21
2.2.2 Flutuações da energia . . . . . . . . . . . . . . . . . . . . 22
2.2.3 Gás ideal no ensemble canônico . . . . . . . . . . . . . . 25
2.3 Fluidos clássicos não ideais . . . . . . . . . . . . . . . . . . . . . 26
2.4 O ensemble Grande Canônico . . . . . . . . . . . . . . . . . . . 33
2.4.1 Flutuações no número de partículas . . . . . . . . . . . . 36
2.4.2 Adsorção em superfícies . . . . . . . . . . . . . . . . . . 38
3 Estatísticas quânticas 42
3.1 Sistemas de partículas indistinguíveis . . . . . . . . . . . . . . . 42
3.2 Gases ideais quânticos . . . . . . . . . . . . . . . . . . . . . . . 47
3.2.1 O gás de Maxwell-Boltzmann e o limite clássico . . . . . 47
3.2.2 Estatística de Bose-Einstein . . . . . . . . . . . . . . . . 51
3.2.3 Estatística de Fermi-Dirac . . . . . . . . . . . . . . . . . 51
ii
Daniel A. Stariolo - IF-UFRGS - 2014 iii
4 Gás ideal de Bose-Einstein 52
4.1 A condensação de Bose-Einstein . . . . . . . . . . . . . . . . . . 52
4.2 Radiação de corpo negro . . . . . . . . . . . . . . . . . . . . . . 63
4.2.1 A lei de Planck . . . . . . . . . . . . . . . . . . . . . . . 64
4.2.2 O gás de fótons . . . . . . . . . . . . . . . . . . . . . . . 66
5 Gás ideal de Fermi-Dirac 68
5.1 Gás de Fermi completamente degenerado
(T = 0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.2 Gás de Fermi degenerado (T ≪ TF ) . . . . . . . . . . . . . . . . 71
5.3 Magnetismo em um gás ideal de férmions . . . . . . . . . . . . . 75
5.3.1 Paramagnetismo de Pauli . . . . . . . . . . . . . . . . . . 75
6 Interações, simetrias e ordem em matéria condensada 81
6.1 Líquidos e gases . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.2 Redes cristalinas . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.3 Sistemas magnéticos . . . . . . . . . . . . . . . . . . . . . . . . 85
6.4 Entre os líquidos e os cristais: os cristais líquidos . . . . . . . . . 89
6.5 Simetrias e parâmetros de ordem . . . . . . . . . . . . . . . . . . 95
7 Transições de fase e fenômenos críticos 98
7.1 O modelo de Ising em d = 1: solução exata . . . . . . . . . . . . 98
7.2 Teoria de campo médio do modelo de Ising . . . . . . . . . . . . 103
7.2.1 Aproximação de Bragg-Williams . . . . . . . . . . . . . 103
7.3 A teoria de Landau de transições de fase . . . . . . . . . . . . . . 108
7.3.1 Transições de fase continuas . . . . . . . . . . . . . . . . 109
7.3.2 Transições de primeira ordem na teoria de Landau . . . . 113
7.4 Flutuações do parâmetro de ordem . . . . . . . . . . . . . . . . . 114
7.5 Funções de correlação . . . . . . . . . . . . . . . . . . . . . . . . 117
7.5.1 Correlações na teoria de Landau . . . . . . . . . . . . . . 121
7.6 Sistemas com simetria O(n) . . . . . . . . . . . . . . . . . . . . 123
7.7 Validade da teoria de campo médio: o critério de Ginzburg . . . . 126
Referências Bibliográficas 132
Capítulo 1
Fundamentos da Mecânica
Estatística
1
Daniel A. Stariolo - IF-UFRGS - 2014 2
1.1 O que é a Mecânica Estatística ?
A Termodinâmica é uma teoria macroscópica, com um formalismo elegante, de
grande generalidade, construido sobre poucas hipóteses fundamentais. O conceito
central da termodinâmica é a entropia, a qual é definida de forma um tanto abs-
trata, através de um princípio variacional que determina que, em um sistema
isolado, o estado de equilíbrio termodinâmico do sistema é aquele estado macros-
cópico para o qual a entropia é máxima. A Termodinâmica descreve os efeitos
macroscópicos de sistemas formados por um grande número de entes microscó-
picos, sejam partículas, células, spins, etc. que obedecem as leis fundamentais da
Mecânica Clássica (leis de Newton) ou da Mecânica Quântica (equação de Sch-
roedinger), segundo o caso. Uma descrição microscópica destes sistemas deve
então partir necessariamente das leis da Mecânica. A Mecânica Estatística é uma
teoria probabilística que estabelece a conexão entre os dois níveis de descrição:
o macroscópico (Termodinâmica) e o microscópico (Mecânica).
Ao tentar descrever as propriedades de um sistema formado por um grande
número de partículas se torna necessário recorrer a uma descrição probabilística
do estado de um sistema. Um estado microscópico, ou microestado de um sis-
tema de N partículas, corresponde ao conjunto dos graus de liberdade do mesmo,
por exemplo as 3N coordenadas e os 3N momentos generalizados em um sis-
tema clássico, ou ao conjunto de números quânticos que caracterizam a função de
onda de um sistema. O conjunto de microestados compatíveis com os valores das
variáveis macroscópicas do sistema , como a energia interna U , o volume V e o
número de partículas N , constitui um macroestado ou estado macroscópico.
Descrever o estado microscópico exato de um conjunto de N partículas para
todo tempo é uma tarefa formidável. No entanto, o estado de equilíbrio termo-
dinâmico é determinado em função de umas poucas variáveis. Além do mais, de
um ponto de vista prático ou aplicado, resulta mais importante conhecer proprie-
dades globais ou macroscópicas da matéria, como a temperatura ou a pressão, do
que a posição e velocidade de um partícula individual em um gás ou líquido. O
programa da Mecânica Estatística é associar um peso ou probabilidade de ocor-
rência aos diferentes microestados e predizer o resultado médio de um conjunto
grande de medidas de um observável dado. A própria teoria fornece, por sua vez,
uma predição das flutuações que podem ocorrer nestas medidas. Como estamos
falando de resultados médios em um número grande de medidas ou observações,
vamos desenvolver um formalismo de ensembles ou conjunto de sistemas idên-
ticos, em oposição a análise de um sistema particular. Essa é outra característica
fundamental da Mecânica Estatística.
Daniel A. Stariolo - IF-UFRGS - 2014 3
A Mecânica Estatística moderna, tal vez mais do que qualquer outra área da
Física, encontra aplicações em praticamente todas as ciências exatas e além. Em-
bora se originou do esforço de encontrar uma conexão entre a mecânica das partí-
culas e a Termodinâmica, o formalismo estatístico se mostrou extremamente geral
e útil na predição de propriedades tão díspares quanto a ocorrência ou não de su-
percondutividade de um material, a evolução de preços de produtos na bolsa de
valores, a probabilidade de ocorrência de um terremoto ou a morfologia típica de
uma colônia de células em um tecido vivo.
Por motivos históricos, a Mecânica Estatística foi desenvolvida inicialmente
para predizer propriedades macroscópicas de sistemas em equilíbrio termodinâ-
mico. Nesse caso falamos de Mecânica Estatística do equilíbrio. No entanto,
os fundamentos da Mecânica Estatística estão na Mecânica, ou seja, nos sistemas
dinâmicos. A grande maioria dos sistemas de interesse , físicos ou não, não se
encontram em equilíbrio, como por exemplo os sistemas biológicos ou problemas
dinâmicos como a evolução de preços nas bolsas de valores.Para descrever estes
sistemas em uma abordagem probabilistica é necessário desenvolver uma Mecâ-
nica Estatística fora do equilíbrio, os métodos para descrever o equilíbrio não são
suficientes e novas técnicas são necessárias para lidar com a variável temporal.
Embora muito se sabe na atualidade sobre processos fora do equilíbrio, ainda não
se conta com um formalismo razoavelmente simples, compacto e poderoso, como
a teoria de ensembles para o equilíbrio. No presente curso, de extensão semestral,
faremos apenas uma abordagem inicial ao problema dinâmico, com o único in-
tuito de conectar o problema mecânico com o equilíbrio estatístico. Um conceito
fundamental neste caminho é o de ergodicidade.
1.2 Ergodicidade e equilíbrio
1.2.1 O Teorema de Liouville
Consideremos um sistema clássico de N partículas, isolado em um volume V ,
cuja dinâmica obedece as equações de Hamilton. Um microestado deste sistema
fica definido pelos valores instantâneos das 3N coordenadas generalizadas qi e os
3N momentos generalizados pi:
dqi
dt
=
∂H(p, q)
∂pi
dpi
dt
= −∂H(p, q)
∂qi
(1.1)
Daniel A. Stariolo - IF-UFRGS - 2014 4
onde i = 1, . . . , 3N , H(p, q) é o Hamiltoniano do sistema e (p, q) representa um
vetor do espaço de fase com 6N componentes. Como o sistema é isolado, H não
depende explicitamente do tempo, o sistema é conservativo e H é uma constante
do movimento que corresponde a energia mecânica:
H(p, q) = E. (1.2)
A identidade anterior define uma superfície de energia no espaço de fase. A evo-
lução do sistema conservativo é descrita por uma trajetória ou curva no espaço
de fase sobre a superfície de energia. Como na Mecânica Clássica cada condição
inicial (p0, q0) determina de forma unívoca e evolução do sistema, trajetórias no
espaço de fase nunca se cruzam.
Para uma dada energia E do sistema, existe um conjunto infinito de microes-
tados. Definimos a função ρ(p, q, t) como sendo a densidade de probabilidade de
encontrar o sistema em um elemento de volume dp dq no espaço de fase ao tempo
t. O conjunto de pontos (p, q) cuja probabilidade ao tempo t é ρ(p, q, t)dp dq for-
mam um ensemble estatístico. Cada ponto representa uma cópia exata do sistema
em um microestado diferente. O conceito de ensemble estatístico foi introdu-
zido por Josiah Willard Gibbs (1839-1903) na segunda metade do século XIX e
ocupa um rol fundamental no formalismo e interpretação da Mecânica Estatística
do equilíbrio. A densidade de probabilidade deve estar normalizada para todo
tempo: ∫
Γ
ρ(p, q, t) dp dq = 1, (1.3)
onde a integração se extende a todo o espaço de fase Γ.
Para obter as equações que regem a dinâmica do sistema de N partículas co-
meçamos considerando que o número de partículas se deve conservar. Considere-
mos a probabilidade de encontrar o sistema dentro de um volume V0, limitado por
uma superfície S0. A medida que o tempo passa algumas trajetórias saem de V0 e
a probabilidade correspondente P (V0) muda. Como a probabilidade total é con-
servada, eq. (1.3), e as trajetórias não se cruzam, a variação da probabilidade no
volume V0 deve corresponder ao fluxo da mesma através da superfície S0, como
acontece em um fluido:
dP (V0)
dt
=
∂
∂t
∫
V0
ρ(p, q, t) dp dq = −
∫
S0
~n · ~J dS (1.4)
onde ~J = ~vρ é uma corrente de probabilidade, ~v = {q˙i, p˙i} é a velocidade (genera-
lizada) de um ponto no espaço de fase e ~n é um vetor unitário normal à superfície
Daniel A. Stariolo - IF-UFRGS - 2014 5
S0. Usando o Teorema de Gauss:∫
V0
∂
∂t
ρ(p, q, t) dp dq = −
∫
V0
(~∇ · ~J) dp dq (1.5)
Como V0 é arbitrário então:
dρ
dt
+ ~∇ · (~vρ) = 0 (1.6)
Mas
~∇ · ~v = ∂q˙
∂q
+
∂p˙
∂p
=
3N∑
i=1
[
∂
∂qi
(
∂H
∂pi
)
+
∂
∂pi
(
−∂H
∂qi
)]
= 0 (1.7)
Então:
∂ρ
∂t
+ ~v · ~∇ρ = 0 ou dρ
dt
= 0 (1.8)
A equação anterior se conhece como o Teorema de Liouville. Diz que a derivada
total, ou derivada convectiva de ρ no espaço de fase Γ é nula para qualquer ponto e
qualquer instante. Podemos interpretar então a evolução dos pontos do ensemble
estatístico no espaço de fase como sendo análogos a um fluido incompressível.
Notando que
~v · ~∇ρ = q˙ ∂ρ
∂q
+ p˙
∂ρ
∂p
=
∂H
∂p
∂ρ
∂q
− ∂H
∂q
∂ρ
∂p
= {ρ,H} , (1.9)
onde {ρ,H} é o parêntese de Poisson entre ρ e H , podemos reescrever o Teorema
de Liouville da seguinte forma:
∂ρ
∂t
= −{ρ,H} . (1.10)
Em equilíbrio, ρ não depende explicitamente do tempo, é uma constante do mo-
vimento, e então {ρ,H} = 0. Esta condição se pode satisfazer, por exemplo, se ρ
for uma função explícita de H , ou seja, se ρ(p, q) ≡ ρ[H(p, q)]. O caso mais sim-
ples corresponde a ρ = cte. Agora estamos em condições de enunciar o Postulado
Fundamental da Mecânica Estatística.
Daniel A. Stariolo - IF-UFRGS - 2014 6
Postulado de igual probabilidade a priori
Para formular o mesmo de forma transparente conceitualmente, vamos relaxar
a condição que a energia seja estritamente constante, permitindo então que flutue
entre dois valores próximos E e E + ∆, com ∆ ≪ E. Isto pode ser justificado
pelo fato de, na realidade, não existirem sistemas perfeitamente isolados. A pos-
teriori vamos ver que esta condição não afeta os resultados no limite de sistemas
grandes, que serão independentes de ∆. No entanto, pode ser mostrar que a quan-
tidade fundamental no postulado, que é o volume no espaço de fase ou número de
microestados de energia E, Γ(E) , é uma função irregular de E, enquanto que a
integral em um intervalo é bem comportada.
Em um sistema em equilíbrio com energia entre E e E + ∆, todos os micro-
estados acessíveis são igualmente prováveis.
Formalmente:
ρ(p, q) =
{ 1
Γ(E)
se E ≤ H(p, q) ≤ E +∆
0 caso contrário (1.11)
onde
Γ(E) =
∫
E≤H(p,q)≤E+∆
dp dq (1.12)
é o volume do espaço de fase ocupado pelo sistema. Os pontos nesse volume
definem um ensemble conhecido como o ensemble microcanônico.
1.2.2 A hipótese ergódica
A média temporal de uma função f(p, q) ao longo de uma trajetória no intervalo
de tempo (t0, t0 + T ) é definida como
〈f〉T = 1
T
∫ t0+T
t0
f(p(t), q(t)) dt (1.13)
A média de ensemble do mesmo observável é definida como
〈f〉e =
∫
f(p, q) ρ(p, q) dp dq (1.14)
=
1
Γ(E)
∫
E≤H(p,q)≤E+∆
f(p, q) dp dq (1.15)
Um sistema é considerado ergódico se 〈f〉 = 〈f〉e = limT→∞〈f〉T
Daniel A. Stariolo - IF-UFRGS - 2014 7
A hipótese ergódica, introduzida por Ludwig Eduard Boltzmann (1844-1906),
consiste em assumir que sistemas com N ≫ 1 são ergódicos. Este é um postulado
que em geral só pode ser verificado “a posteriori”, pelas consequências sobre o
comportamento do sistema.
A ergodicidade de um sistema pode ser de utilidade para obter valores médios
de observáveis em tempos relativamente curtos durante uma série de experimen-
tos repetidos, ou então em uma série de simulações computacionais. Suponhamos
que rodamos uma simulação de dinâmica molecular de um líquido clássico, e que-
remos calcular o valor quadrático médio da velocidade das partículas. Se fazemos
médias temporais deveremos tomar a média de velocidades instantâneas medi-
das a intervalos mais ou menos regulares durante uma simulação muito longa, de
forma a garantir que uma amostragem significativa das velocidades foi feita. No
entanto, se contamos com a posibilidade de rodar muitas simulações idênticas em
paralelo, poderemos apreitarmos da ergodicidade do sistema e calcular a mesma
média tomando valores das velocidades nos diferentes sistemas, sendo que em
cada um deles podemos rodar simulações de muito menos tempo. Ou seja, no
primeiro caso fazemos uma média temporal, uma amostragem na linha do tempo,
no segundo fazemos uma média no ensemble, uma série de amostragens menores
nos diferentes sistemas. Se o sistema físico for ergódico, ambas a médias devem
coincidir.
A hipótese ergódica, de certa forma, justificao postulado e igual probabilidade
a priori, pois implica que, se um sistema é ergódico, a fração de tempo que ele
passa em uma região restrita do espaço de fase acessível é proporcional ao volume
dessa região, e não as posições particulares na superfície de energia ocupadas pelo
sistem em um determinado tempo. Isto se pode ver da seguinte forma: sejaR uma
região com R ⊂ Γ. Definimos:
φR(p, q) =
{
1 se (p, q) ∈ R
0 caso contrário (1.16)
O tempo que o sistema passa em R durante o intervalo T é dado por τR =∫ t0+T
t0
φ(p(t), q(t)) dt. Se o sistema é ergódico
lim
T→∞
τR
T
≡ 〈φ〉T = 1
Γ(E)
∫
E≤H(p,q)≤E+∆
φ(p, q) dp dq =
Γ(R)
Γ(E)
, (1.17)
ou seja, a fração de tempo que o sistema passa em uma dada região R é igual à
fração de volume do espaço de fase ocupado pela mesma região.
Daniel A. Stariolo - IF-UFRGS - 2014 8
Formalmente, é muito difícl demonstrar que um dado sistema Hamiltoniano
é ergódico. Sistemas dissipativos, como um pêndulo amortecido, são claramente
não-ergódicos, pois a tempos longos tendem a ficar confinados em um pequeno su-
bespaço (chamado “atrator”) do espaço de fase acessível inicialmente. Mesmo em
sistemas conservativos aparentemente simples, como no famoso problema dos três
corpos interagindo gravitacionalmente, foi só no século XX que o Teorema KAM
(de Kolmogorov, Arnold e Moser) mostrou que existe um conjunto de medida não
nula de trajetórias no espaço de fase que ficam aproximadamente confinadas, e
que correspondem a conjuntos particulares de condições iniciais. Essas trajetórias
se encontram misturadas no espaço de fase a muitas outras com aparência mais
caótica, ou “ergódicas”. Pensando que a existência desses estados previstos pelo
Teorema KAM era uma propriedade exclusiva de sistemas formados por poucas
partículas, depois da Segunda Guerra Mundial, Fermi, Pasta e Ulam fizeram uma
das primeiras simulações computacionais de um sistema de osciladores anarmô-
nicos unidimensionais com o intuito de estudar as propriedades de ergodicidade
de um sistema de muitas partículas. Os resultados que obtiveram não foram os es-
perados, de fato foi encontrado que a taxa de transferência de energia entre modos
de oscilação era extremamente lenta e, nos tempos acessíveis da simulação, mui-
tas condições iniciais levavam a trajetórias mais parecidas a ciclos limite do que
a trajetórias ergódicas. De fato, ergodicidade é violada rigorosamente nas fases
com simetrias quebradas nas transições de fases, como na passagem de um líquido
a um sólido. O sistema no estado sólido não irá mais explorar todas as configu-
rações de igual energia que o sistema original, no estado líquido, podia explorar.
No entanto, essas limitações da hipótese ergódica, formais as vezes ou práticas
em outras, não limitam de forma substancial o poder de predição da Mecânica
Estatística do equilíbrio, como vamos ver no decorrer do curso.
1.3 Sistemas quânticos
Em Mecânica Quântica os estados microscópicos de um sistema são definidos pela
função de onde Ψ(q), solução da equação de Schrödinger. Como esta tem uma
interpretação probabilística, intrínseca ao formalismo quântico, devemos redefinir
o conceito de ensemble para sistemas quânticos.
A função de onda Ψ(q) pode ser desenvolvida em termos dos elementos de
uma base ortonormal de autofunções de algum operador:
Ψ(q) =
∑
n
cnφn(q) (1.18)
Daniel A. Stariolo - IF-UFRGS - 2014 9
onde |cn|2 é a probabilidade de encontrar o sistema no autoestado φn.
O valor esperado (quântico) de um observável Oˆ é dado por
〈Ψ|Oˆ|Ψ〉 =
∫
Ψ∗(q)OˆΨ(q) dq
=
∑
m,n
Omncnc
∗
m (1.19)
onde Omn = 〈φm|Oˆ|φn〉 são os elementos de matriz do operador Oˆ na base consi-
derada. Em um sistema formado por muitos corpos existirão muitos microestados
Ψi(q) compatíveis com os vínculos macroscópicos, e estes serão a base para defi-
nir um ensemble. Notar que, neste caso, Ψi(q) é uma função de onda de N corpos,
a função de onda do sistema completo. Explicitamente:
Ψi(q) =
∑
n
cin φn(q) (1.20)
e
〈Ψi|Oˆ|Ψi〉 =
∑
m,n
Omnc
i
nc
i∗
m (1.21)
representa o valor esperado quântico do operador Oˆ no microestado Ψi(q). Se
agora associamos a cada microestado uma probabilidade de ocorrência pi, a média
de ensemble do observável Oˆ é dada por:
〈Oˆ〉 =
∑
i
pi〈Ψi|Oˆ|Ψi〉
=
∑
i
pi
∑
m,n
Omnc
i
nc
i∗
m (1.22)
Podemos definir uma matriz de elementos ρnm:
ρnm =
∑
i
pic
i
nc
i∗
m (1.23)
tal que
〈Oˆ〉 =
∑
m,n
ρnmOmn (1.24)
O operador cujos elementos de matriz na base ortonormal de autoestados φn são
os ρnm é conhecido como operador densidade ou matriz densidade:
ρnm =
∫
φn(q) ρˆ φ
∗
m(q) dq ≡ 〈φn|ρˆ|φm〉 (1.25)
Daniel A. Stariolo - IF-UFRGS - 2014 10
Com esta definição, a média no ensemble de um operador Oˆ pode ser escrita como
〈Oˆ〉 =
∑
n
(
ρˆOˆ
)
nn
= Tr ρˆOˆ = Tr Oˆρˆ (1.26)
Notemos que
Tr ρˆ =
∑
n
ρnn =
∑
i
pi
∑
n
|cn|2 =
∑
i
pi = 1, (1.27)
o que permite interpretar o elemento ρnn como a probabilidade de encontrar o
sistema no autoestado φn.
O operador densidade se pode expressar também em forma matricial:
ρˆ =
∑
i
piΨ
iΨi† (1.28)
onde
Ψi =


ci1
.
.
.
cil
.
.
.

 e Ψi† =
(
ci∗1 , . . . c
i∗
l , . . .
) (1.29)
Os microestados satisfazem a equação de Schroedinger ih¯∂Ψi/∂t = HˆΨi. Trans-
pondo e tomando o complexo conjugado obtemos:
−ih¯∂Ψ
i†
∂t
= Ψi†Hˆ† = Ψi†Hˆ (1.30)
onde usamos o fato que Hˆ é hermitiano. Com este resultado e a definição (1.28)
pode-se mostrar que ρˆ satisfaz
ih¯
∂ρˆ
∂t
= −
[
ρˆ, Hˆ
]
(1.31)
onde o lado direito representa o comutador de ρˆ e Hˆ. Este resultado corresponde
ao Teorema de Liouville para sistems quânticos descritos por uma matriz densi-
dade ρˆ.
Postulado de igual probabilidade a priori para um sistema quântico
Daniel A. Stariolo - IF-UFRGS - 2014 11
Seja φn um autoestado de uma base ortonormal do Hamiltoniano Hˆ . En-
tão Hˆφn = Enφn. Para um sistema isolado com energia entre E e E + ∆E,
seja {φl, l = 1, . . . ,M(E)} o conjunto de autoestados de energia E. Então, o
postulado de igual probabilidade a priori, para o caso de um sistema quântico,
corresponde a
ρll =
{ 1
M(E)
para l = 1, 2, . . . ,M(E)
0 para o resto (1.32)
Capítulo 2
Teoria de ensembles estatísticos
2.1 O ensemble microcanônico
O postulado de igual probabilidade a priori permite determinar a probabilidade
de encontrar o sistema em um microestado compatível com os vínculos macros-
cópicos, e a partir da probabilidade podemos determinar valores médios de ob-
serváveis como energia, magnetização, etc. Para obter uma conexão com a ter-
modinâmica temos que estabelecer uma definição microscópica para a entropia,
que é o potencial termodiâmico relevante em sistemas com energia fixa. Como a
probabilidade é uma função do número de microestados, e ela é uma quantidade
fundamental, é razoavel pensar que a entropia também será função do número de
microestados. Em um distema quântico, com níveis de energia En discretos, a de-
finição do número de microestados W (E) de energia E é imediato. No caso clás-
sico é necessário definir um volume unitário no espaço de fase, que é um espaço
continuo, tal que permita contar o número de microestados, e que seja compatível
com a Mecânica Quântica em algum limite apropriado. O Princípio de Incerteza
de Heisenberg, ∆p∆q ∼ h, implica a existência de um volume minimo no es-
paço de fase, Vmin ∼ h, tal que resulta impossível identificar estados físicos em
escala menor que a constante de Planck h. Definimos então W (E) = Γ(E)/h3N
como sendo o número de células unitárias no espaço de fase correspondentes a
um volume Γ(E) nesse espaço.
Para definirmos uma entropia que seja compatível com o formalismo termodi-
nâmico, esta deve ser
• Aditiva
• Satisfazer a segunda lei da Termodinâmica.12
Daniel A. Stariolo - IF-UFRGS - 2014 13
Figura 2.1: Dois sistemas separados por uma parede adiabática, fixa e impermeá-
vel.
Consideremos dois sistemas não interagentes com W1 e W2 microestados res-
pectivamente. O número total de microestados do sistema composto será W =
W1 ×W2. Agora, como de acordo com a Termodinâmica a entropia deve ser adi-
tiva, S(W ) = S(W1) + S(W2), deve ser uma função proporcional ao logaritmo
de W . Definimos então a entropia como:
S(E) = kB lnW (E). (2.1)
Vamos verficar se esta definição é satisfatória, ou seja, se obedece os dois requisi-
tos de compatibilidade com a termodinâmica citados acima. Consideremos agora
os subsistemas (1) e (2) separados por uma parede adiabática, fixa e impermeável,
como mostra a figura 2.1, de forma que H(p, q) = H1(p1, q1) +H2(p2, q2).
A entropia de cada subsistema é dada por:
S1(E1, V1, N1) = kB ln
(
Γ1(E1)/h
3N
)
S2(E2, V2, N2) = kB ln
(
Γ2(E2)/h
3N
) (2.2)
Qual é a entropia do conjunto ? O volume total do espaço de fase é Γ(E) =
Γ1(E1)× Γ2(E2), onde E = E1 + E2. A entropia do sistema completo é então
S(E, V,N) = kB ln
(
Γ(E)/h3N
) (2.3)
= kB ln
(
Γ1(E1)/h
3N
)
+ kB ln
(
Γ2(E2)/h
3N
)
= S1(E1, V1, N1) + S2(E2, V2, N2)
que satisfaz a condição de aditividade. Resta verificar se a definição de Boltzmann
satisfaz a segunda lei. Para isto suponhamos que removemos a parede adiabática e
Daniel A. Stariolo - IF-UFRGS - 2014 14
permitimos que os subsistemas troquem energia (parede diatérmica). Desta forma
a energia de cada subsistema poderá variar entre 0 e E, tal que E1 + E2 = E
permaneça fixa em todo momento. O número de microestados do sistema total
com energia E, para um valor fixo de E1 pode ser escrito como:
W (E,E1) =
Γ(E,E1)
h3N
=
1
h3N
Γ1(E1)Γ2(E − E1) (2.4)
O número total de microestados compatível com a energia E será dado pela soma
de W (E,E1) para todos os valores de E1 entre 0 eE. Se discretizamos o espectro
de energias em intervalos de largura ∆, podemos escrever
Γ(E) =
E/∆∑
i=1
Γ1(Ei)Γ2(E − Ei) (2.5)
O número de microestados cresce com a energia, então como Γ(E) é uma fun-
ção monótona crescente de E, quando Γ1(Ei) cresce, Γ2(E − Ei) decresce, e
viceversa. Se conclui que Γ(E) deve passar por um máximo em algum valor
0 ≤ Ei ≤ E. Sejam E1 e E2 = E − E1 os valores das energias para as quais
Γ1(E1)Γ2(E2) é máximo. Então se deve satisfazer que
Γ1(E1)Γ2(E2) ≤ Γ(E) ≤ E
∆
Γ1(E1)Γ2(E2) (2.6)
ou
ln
[
Γ1(E1)Γ2(E2)
] ≤ ln Γ(E) ≤ ln(E
∆
)
+ ln
[
Γ1(E1)Γ2(E2)
] (2.7)
Analisemos a ordem de grandeza destes termos. Em geral o número de mi-
croestados cresce exponencialmente com o número de partículas, de forma que
ln Γi ∝ Ni, ou seja, a entropia é extensiva. No entanto, a energia cresce proporci-
onalmente a N : E ∝ N = N1+N2. Desta forma, no limite quando N1, N2 →∞
o termo em ln
(
E
∆
)
se torna desprezível frente a ln Γ e por tanto a relação (2.7) é
satisfeita como uma igualdade. Assim, a entropia do sistema total é dada por:
S(E, V,N) = S1(E1, V1, N1) + S2(E2, V2, N2) +O(lnN) (2.8)
A entropia (2.1) é aditiva e extensiva, e os subsistemas tomam valores de ener-
gias E1 e E2 que maximizam o número total de estados acessíveis. No limite
Daniel A. Stariolo - IF-UFRGS - 2014 15
termodinâmico este resultado corresponde a segunda lei da Termodinâmica 1
Ainda considerando que a probabilidade dos subsistemas se encontrarem com
energiasE1 eE2 será proporcional ao número de microestados compatíveis, temos
que
lnP (E,E1) = cte + lnΓ(E1) + lnΓ(E −E1) (2.9)
Maximizando em relação a E1 obtemos
∂ lnP (E,E1)
∂E1
=
∂ ln Γ(E1)
∂E1
− ∂ ln Γ(E − E1)
∂E2
= 0 (2.10)
Agora usando a definição de entropia de Boltzmann a relação anterior resulta
equivalente a
∂S1
∂E1
∣∣∣∣
E1=E1
=
∂S2
∂E2
∣∣∣∣
E2=E2
(2.11)
e fazendo uso da relação termodinâmica entre entropia e temperatura concluimos
que
1
T1
=
1
T2
, (2.12)
que corresponde à condição de equilíbrio térmico. Vemos então que a condição
de equilíbrio térmico entre dois sistemas equivale a maximizar a entropia do con-
junto.
2.1.1 Gás ideal monoatômico clássico
Consideremos um gás de N partículas clássicas em um volume V . O Hamiltoni-
ano do gás clássico de partículas não interagentes é:
H =
3N∑
i=1
p2i
2m
(2.13)
1É fácil mostrar que esta formulação variacional da segunda lei é equivalente a condição de
irreversibilidade, ou seja, se um sistema isolado em equilíbrio passa de um estado a outro estado de
equilíbrio a entropia não pode diminiur. Em outras palavras, o número de microestados acessíveis
é maximizado no processo. No exemplo do gás simples de partículas não interagentes como o da
figura 2.1, a conclusão é que se permitimos que ambos os sistemas troquem energias o sistema
total irá equilibrar em um estado que maximize o número de microestados acessíveis, e nunca o
contrário.
Daniel A. Stariolo - IF-UFRGS - 2014 16
O volume do espaço de fase com energia entre E e E +∆ é dado por
Γ(E, V,N) =
∫
E≤H(p,q)≤E+∆
dp dq. (2.14)
No entanto, um cálculo rigoroso desta quantidade mostra que a dependência com
E é muito irregular [1]. Resulta mais conveniente calcular a quantidade:
Σ(E, V,N) =
∫
H(p,q)≤E
dp dq, (2.15)
de forma que Γ(E) = Σ(E+∆)−Σ(E). É possível mostrar que quandoN →∞,
Γ(E) e Σ(E) diferem em termos O(lnN). Por tanto, se estamos interessados no
limite termodinâmico, podemos escrever
S(E, V,N) = kB ln
(
Σ(E, V,N)
h3N
)
(2.16)
onde
Σ(E, V,N) =
∫
H≤E
dp dq = V NΩ3N (R) (2.17)
e onde Ω3N (R) é o volume de uma hiperesfera de dimensão 3N e raio R =√
2mE:
Ω3N (R) = C3N E
3N
2 (2.18)
Assim,
S(E, V,N) = kB ln
(
V N C3N E
3N
2
h3N
)
(2.19)
É possível calcular C3N (ver, por exemplo, [1, 2]). Aproximando a expressão
resultante para N ≫ 1 obtemos:
S(E, V,N) =
3
2
NkB +NkB ln
[
V
(
4πm
3h2
E
N
)3/2]
(2.20)
Invertendo esta expressão podemos obter a energia interna como função de S, N
e V , e a partir dali podemos obter as equações de estado do gás ideal e demais
grandezas termodinâmicas. No entanto, podemos notar que se multiplicarmos E,
V eN por um fator λ arbitrário resulta S(λE, λV, λN) 6= λS(E, V,N). Ou seja, a
entropia que obtivemos não é uma função homogênea como deve ser um potencial
Daniel A. Stariolo - IF-UFRGS - 2014 17
termodinâmico. Em particular, a forma obtida da entropia não é extensiva ! J. W.
Gibbs resolveu este problema de forma empírica, operacional, postulando que o
número de microestados no cálculo anterior foi superestimado e propondo um
fator de correção Σ(E) → Σ(E)/N ! que leva em conta a indistinguibilidade das
partículas do gás ideal. Podemos entender o problema na contagem considerando
a entropia de dois sistemas inicialmente isolados que são depois misturados. A
entropia de mixing viola a extensividade e leva ao chamado Paradoxo de Gibbs [1,
2, 3, 4]. Incluindo o fator N ! e refazendo o cálculo se chega a seguinte expressão
para a entropia:
S(E) =
3
2
NkB
[
5
3
+ ln
(
4πm
3h2
)]
+NkB ln
[
V
N
(
E
N
)3/2]
(2.21)
Esta expressão é extensiva e se conhece como Fórmula de Sackur e Tetrode. A
introduçao ad hoc do fator de contagem de Gibbs aparece de forma natural em
sistemas quânticos de partículas indistiguíveis e será visto quando tratemos o pro-
blema dos gases ideais quânticos.
2.1.2 A formulação de Gibbs
J. W. Gibbs propós uma expressão para a entropia alternativa a de Boltzmann e
que permite formular a teoria a partir de um princípio variacional. Se ρ(p, q) é a
densidade de probabilidade de equilíbrio, a entropia de Gibbs é dada por:
S = −kB〈ln (Cρ)〉 (2.22)
onde C é uma constante que vale h3N para um sistema clássico e C = 1 para um
sistema quântico. A média deve ser calculada em relação a própriadistribuição ρ.
No caso clássico:
S = −kB
∫
ρ(p, q) ln
[
h3Nρ(p, q)
]
dp dq (2.23)
Agora postulamos que a densidade de equilíbrio é aquela que maximiza a entro-
pia de Gibbs, sujeita aos vínculos macroscópicos. Para um sistema no ensemble
microcanônico, onde E,V e N são fixos, o vínculo adicional de normalização das
probabilidades é exigido: ∫
ρ(p, q) dp dq = 1. (2.24)
Daniel A. Stariolo - IF-UFRGS - 2014 18
Vínculos podem ser considerados no princípio variacional via multiplicadores de
Lagrange. Sendo a entropia de Gibbs um funcional da densidade de probabili-
dade, a condição de extremo (máximo) pode ser expressa na forma:
δ
[
S[ρ]− α0
∫
ρ dp dq
]
= 0 (2.25)
onde δ indica uma variação funcional e α0 é o multiplicador que impõe a norma-
lização das probabilidades. Desenvolvendo a variação obtemos:
S[ρ+ δρ]− S[ρ]− α0
∫
[ρ+ δρ− ρ] dp dq = 0 (2.26)
−kB
∫ {
(ρ+ δρ) ln [h3N (ρ+ δρ)]− ρ ln (h3Nρ)} dp dq − α0
∫
δρ dp dq = 0
Expandindo até primeira ordem em δρ∫ (−kB − kB ln [h3Nρ]− α0) δρ dp dq = 0 (2.27)
Como δρ é arbitrário, se obtém
ρ(p, q) =
1
h3N
e−α0/kB−1. (2.28)
A densidade de probabilidade microcanônica é uma constante, como esperado.
Resta determinar o valor do multiplicador de Lagrange α0. Ele é fixado pela
condição de normalização da probabilidade, resultando:
ρ(p, q) =
1
Γ(E)
se E ≤ H(p, q) ≤ E +∆ (2.29)
Notamos que, neste caso de um sistema isolado, a distribuição equiprovável é a
que maximiza a entropia de Gibbs ( a segunda variação permite mostrar que o
extremo obtido é, de fato, um máximo). Substituindo na definição:
S(E) = −kB〈ln (h3Nρ)〉 = − kB
Γ(E)
∫
ln
[
h3N/Γ(E)
]
dp, dq (2.30)
ou
S(E) = kB ln
(
Γ(E)
h3N
)
(2.31)
que coincide com a expressão da entropia de equilíbrio microcanônica.
Daniel A. Stariolo - IF-UFRGS - 2014 19
2.2 O ensemble canônico
Em geral os sistemas não são isolados. Suponhamos um sistema que possa trocar
calor com um reservatório térmico a temperatura T . O sistema composto é consi-
derado isolado, com energia E0 = ES+ER fixa. Vamos supor ainda que o sistema
e o reservatório estão separados por uma parede diatérmica, rígida e impermeá-
vel. No equilíbrio, a probabilidade de encontrar o sistema em um microestado
particular j, independentemente do estado do reservatório, será dado por
Pj = cWR(ER) = cWR(E0 −Ej) (2.32)
com c uma constante e WR(ER) o número de estados microscópicos do reserva-
tório com energia ER = E0 −Ej . Como Ej ≪ E0:
lnPj = ln c+ lnWR(E0) +
∂ lnWR(ER)
∂ER
∣∣∣∣
ER=E0
(−Ej) +O(E2j )
(2.33)
Da definição de entropia e as condições de equilíbrio:
∂ lnWR(ER)
∂ER
∣∣∣∣
ER=E0
=
1
kBT
(2.34)
onde T é a temperatura do reservatório. Portanto a probabilidade é proporcional a
exp (−βEj), com β = 1/kBT . A constante de proporcionalidade pode ser fixada
exigindo a normalização das probabilidades,
∑
j Pj = 1, dando como resultado:
Pj =
e−βEj∑
i e
−βEi β =
1
kBT
(2.35)
O ensemble canônico e constituído pelo conjunto de microestados de um sistema
em contato com um reservatório térmico a temperatura T cujas probabilidades são
dadas por (2.35).
Consideremos agora um sistema quântico em contato com um reservatório
térmico. Vamos obter novamente a probabilidade dos microestados do sistema
partindo do princípio variacional de Gibbs. Em equilíbrio a energia média é fixa:
U = 〈E〉 = Tr(ρˆHˆ) =
∑
n
ρnnEn (2.36)
Daniel A. Stariolo - IF-UFRGS - 2014 20
onde ρˆ é o operador densidade e os n′s são números quânticos correspondentes
a uma base de autoestados do operador Hamiltoniano de N partículas e que dia-
gonaliza simultaneamente ambos operadores ρˆ e Hˆ . A entropia de Gibbs é dada
por
S = −kB〈ln ρˆ〉 = −kB
∑
n
ρnn ln ρnn (2.37)
A densidade de probabilidade de equilíbrio deve ser aquela que maximize a en-
tropia de Gibbs. Considerando que as probabilidades devem estar normalizadas,
Trρˆ =
∑
n ρnn = 1, devemos introduzir dois multiplicadores de Lagrange e cal-
cular a variação da expressão resultante:
δ
[
Tr
(
α0ρˆ+ α1ρˆHˆ − kBρˆ ln ρˆ
)]
=
δ
∑
n
(α0ρnn + α1ρnnEn − kBρnn ln ρnn) =
∑
n
[(α0 − kB) + α1En − kB ln ρnn] δρnn = 0, (2.38)
onde a última linha corresponde à variação de primeira ordem. Como esta é arbi-
trária obtemos
ρnn = exp
[(
α0
kB
− 1
)
+
α1
kB
En
]
(2.39)
Da condição de normalização obtemos
exp
(
1− α0
kB
)
=
∑
n
exp
(
α1
kB
En
)
= ZN(α1) (2.40)
Definimos a função de partição do sistema:
ZN(α1) =
∑
n
exp
(
α1
kB
En
)
= Tr exp
(
α1
kB
Hˆ
)
(2.41)
Multiplicando o coeficiente do término de primeira ordem na variação, que deve
ser nulo, por ρnn que maximiza a entropia de Gibbs, e somando em n obtemos:
(α0 − kB) + α1U + S = 0 (2.42)
ou
−kB lnZN(α1) + α1U + S = 0 (2.43)
Daniel A. Stariolo - IF-UFRGS - 2014 21
Identificando α1 = −1/T e lembrando que F − U + TS = 0, obtemos
F (T, V,N) = −kBT lnZN(T, V ) (2.44)
onde F (T, V,N) é a energia livre de Helmholtz. Esta relação conecta a função
de partição com a termodinâmica do sistema. Como F (T, V,N) é uma relação
fundamental, a função de partição canônica também contém toda a informação
sobre o sistema. A partir de (2.39) e (2.40) podemos escrever a matriz densidade
de equilíbrio na forma
ρˆ =
e−βHˆ
Tr e−βHˆ
(2.45)
Já para um sistema clássico a densidade de probabilidade é dada por
ρ(p, q) =
e−βH(p,q)
ZN(T, V )
(2.46)
onde
ZN(T, V ) =
∫
dp dq
h3N
exp {−βH(p, q)} (2.47)
2.2.1 A densidade de estados e a função de partição
Consideremos a integral no espaço de fase de uma função arbitrária f que depende
de (p, q) através do Hamiltoniano
I =
∫
dp dq
h3N
f [H(p, q)] (2.48)
Podemos escrever a mesma integral na forma
I =
∫ ∞
0
f(E)g(E)dE (2.49)
onde
g(E) =
∫
H(p,q)=E
dp dq
h3N
(2.50)
é conhecida como densidade de estados. g(E)dE é o número de estados com
energias entre E e E + dE. Em particular, se f(H) = Θ(E −H), onde Θ(x) é a
função degrau, obtemos
I =
∫ E
0
g(E ′)dE ′ =
Σ(E)
h3N
(2.51)
Daniel A. Stariolo - IF-UFRGS - 2014 22
Então
g(E) =
1
h3N
∂Σ(E)
∂E
. (2.52)
É possível mostrar que, no limite N →∞:
1
h3N
∂Σ(E)
∂E
=
w(E)
h3N
= eSm(E)/kB (2.53)
onde Sm é a entropia microcanônica.
Assim, podemos escrever a função de partição na forma
ZN(T ) =
∫ ∞
0
e−βEg(E)dE (2.54)
que corresponde à transformada de Laplace da densidade de estados.
No caso quântico a expressão correspondente é:
ZN(T ) =
∑
n
e−βEn (2.55)
onde n representa um conjunto completo de número quânticos, ou seja, a soma
varre todos os possíveis autoestados do Hamiltoniano, sendo En os corresponden-
tes autovalores. Se o conjunto de autovalores da energia for degenerado, se pode
escrever
ZN(T ) =
∑
E
g(E)e−βE (2.56)
onde agora a soma é feita em todos os autovalores diferentes do Hamiltoniano, e
g(E) é a degenerescência do autovalor E.
2.2.2 Flutuações da energia
A energia média do sistema no ensemble canônico é dada por
U ≡ 〈H〉 =
∑
j Ej e
−βEj
ZN(T )
= −∂ lnZ
∂β
(2.57)
Como cada microestado tem associada uma probabilidade de ocorrência Pj , então
devem existir flutuações em torno do valor médio. O desvio quadrático médio da
Daniel A. Stariolo - IF-UFRGS - 2014 23
energia é dado por
〈(H − 〈H〉)2〉 = 〈H2〉 − 〈H〉2 (2.58)
=
1
Z
∑
j
E2j e
−βEJ − 1
Z2
(∑
j
Eje
−βEj
)2
=
∂
∂β
(
∂ lnZ
∂β
)
= −∂U
∂β
= kBT
2∂U
∂T
= kBT
2N cV > 0
onde
cV =
1
N
∂U
∂T
(2.59)
é o calor específico a volume constante. Assim, as flutuações da energia no en-
semble canônico são proporcionais ao calor especifico, o que também aponta para
a positividade de cV . Esta relação é muito útil para determinar o calorespecífico
em simulações de Monte Carlo, ou Dinâmica Molecular, pois os valores médios
de momentos da energia podem ser obtidos facilmente ao longo da trajetória do
sistema durante a simulação. O desvio relativo é dado por:√〈H2〉 − 〈H〉2
〈H〉 =
√
NkBT 2cV
Nu
∝ 1√
N
, (2.60)
onde u = 〈H〉/N é a densidade de energia. Notamos que o desvio relativo ao
valor médio tende para zero quando N →∞. Isto quer dizer que a distribuição de
energias está fortemente concentrada em torno do valor médio, e as probabilidades
de o sistema se encontrar em microestados diferentes do valor médio são muito
pequenas. Desta forma, os resultados do ensemble canônico coincidem com os do
ensemble microcanônico no limite termodinâmico. Vejamos isto com um pouco
mais de detalhe. Vimos que a probabilidade de encontrar o sistema com uma
energia entre E e E + dE é:
P (E)dE = g(E) e−βEdE. (2.61)
A densidade de estados é uma função fortemente crescente de E, ao passo que
o exponencial de Boltzmann decai rapidamente. Como consequência, o produto
deve passar por um máximo para alguma energia especial E∗. O valor de E∗ é
determinado por:
∂
∂E
(
g(E)e−βE
)∣∣∣∣
E=E∗
= 0, (2.62)
Daniel A. Stariolo - IF-UFRGS - 2014 24
que equivale a
∂ ln g(E)
∂E
∣∣∣∣
E=E∗
= β. (2.63)
Mas,
S = kB ln g(E) e
∂S(E)
∂E
∣∣∣∣
E=U
=
1
T
= kBβ. (2.64)
Isto quer dizer que
E∗ = U. (2.65)
Este resultado é importante pois implica que o valor mais provável da energia é
igual à energia média. Vejamos agora qual a forma da distribuição de probabilida-
des da energia. Para isso é útil expandir o logaritmo da densidade de probabilidade
no entorno do valor médio U :
ln
[
g(E)e−βE
]
= −βE|E=U + ln g(E)|E=U +
1
2
∂2
∂E2
ln
[
g(E)e−βE
]∣∣
E=U
(E − U)2 + . . .
= −β(U − TS)− 1
2kBT 2CV
(E − U)2 + . . . (2.66)
Obtemos finalmente:
P (E) ∝ g(E)e−βE ≈ e−β(U−TS) exp
{
− (E − U)
2
2kBT 2CV
}
. (2.67)
A densidade de probabilidade da energia é uma distribuição Gaussiana, com mé-
dia U e desvio padrão
√
kBT 2CV . Considerando a escala de energia dada pela
energia interna U podemos definir a variável adimensional E/U . Esta também
possui uma distribuição Gaussiana, com média 1 e desvio padrão
√
kBT 2CV /U ,
que é de ordem O(N−1/2). Por tanto, para N >> 1 a distribuição de probabili-
dade é muito estreita, tendendo a uma função delta quando N → ∞. Integrando
o resultado (2.67) é fácil mostrar que
−kBT lnZN(T, V ) ≡ F (T, V,N) ≈ U − TS − 1
2
kBT ln (2πkBT
2CV ), (2.68)
que inclui correções de ordem lnN à expressão termodinâmica para a energia
livre.
Finalmente, é interessante notar que as flutuações para sistemas com grande
número de graus de liberdade podem ser importantes em situações especiais,
como por exemplo perto de transições de fase de segunda ordem, quando cV pode
tomar valores muito grandes e até divergir.
Daniel A. Stariolo - IF-UFRGS - 2014 25
2.2.3 Gás ideal no ensemble canônico
O ponto de partida para obter a termodinâmica de um sistema no ensemble canô-
nico é o cálculo da função de partição. No caso do gás ideal clássico:
ZN(T ) =
∫
dp dq
h3N
exp
[
−β
3N∑
i=1
p2i
2m
]
(2.69)
=
(
V N
h3N
) 3N∏
i=1
∫
dpi exp
(
−βp
2
i
2m
)
=
(
V
h3
)N [∫
dpixdpiydpize
− β
2m(p2ix+p2iy+p2iz)
]N
= [Z1(T )]
N
onde
Z1(T ) =
V
λ3T
(2.70)
é a função de partição de uma partícula e
λT =
h√
2πmkBT
(2.71)
é o comprimento de onda térmico das partículas. Esta quantidade, que tem dimen-
sões de comprimento, é importante pois corresponde aproximadamente ao valor
médio do comprimento de onda de de Broglie. Se o comprimento de onda tér-
mico for muito menor que a distância típica interpartícula então o gás pode ser
considerado clássico. No entanto, se λT for da ordem ou maior que a distância
interpartícula, os efeitos quânticos serão importantes e o gás deve ser estudado a
partir das estatísticas quânticas de Bose-Einstein ou Fermi-Dirac.
A energia livre do gás ideal clássico é dada por:
F (T, V,N) = −kBTN lnZ1 = −kBTN ln
{
V
h3
(2πmkBT )
3/2
}
(2.72)
A energia livre obtida não é extensiva: F (T, γV, γN) 6= γF (T, V,N). Encon-
tramos novamente o “paradoxo de Gibbs”. A solução, no contexto do ensemble
canônico, consiste em introduzir o fator de contagem de Gibbs na forma:
ZN(T, V )→ ZN(T, V )
N !
(2.73)
Daniel A. Stariolo - IF-UFRGS - 2014 26
No limite de N grande, podemos aplicar a aproximação de Stirling ao fatorial,
N ! ≈ N lnN −N , dando como resultado:
F (T, V,N) = −kBTN ln
{
V
Nh3
(2πmkBT )
3/2
}
− kBTN (2.74)
recuperando o comportamento extensivo da energia livre.
2.3 Fluidos clássicos não ideais
Fluidos simples geralmente são bem descritos com a estatística clássica pois nas
temperaturas (baixas) onde os efeitos quânticos começam a ser relevantes, estes
solidificam. A situação mais comum em relação ao Hamiltoniano de um fluido
clássico é que possa ser considerado como a soma de uma parte cinética, depen-
dente das velocidades, e uma energia potencial, que depende das coordenadas:
Up(q1, q2, . . . , qN). Então a função de partição clássica se fatora, podendo ser
escrita na forma:
ZN(T, V ) = ZGI V
−N Q (2.75)
onde ZGI é a função de partição do gás ideal, com o fator de contagem correto, e
Q ==
∫
dq1 · · · dqNe−βUp(q1,...,qN ) (2.76)
é a função de partição configuracional. Por causa do fatoramento entre a parte
cinética e configuracional, o valor médio estatístico de uma função f(q) resulta:
〈f(q1, . . . , qN)〉 = 1
Q
∫
dq1 · · · dqNf(q1, . . . , qN ) e−βUp(q1,...,qN ) (2.77)
que é independente do termo cinético.
Para analizar as propriedades de fluidos, gases ou líquidos, é importante le-
var em consideração questões de simetria. Em primeiro lugar, a energia potencial
Up(q1, q2, . . . , qN) deve ser invariante frente a permutações dos índices das par-
tículas, pois, embora partículas clássicas são consideradas distinguíveis, elas são
idênticas. Outra simetria importante é a invariância da energia potencial frente a
uma translação espacial de todo o sistema, ou seja, se deslocamos todas as coor-
denadas por um vetor fixo no espaço, a energia potencial deve ser a mesma. Isto
quer dizer que a energia potencial deve ser função apenas das distâncias relativas
entre as partículas e não das posições absolutas no espaço. A invariância frente
Daniel A. Stariolo - IF-UFRGS - 2014 27
a translações globais implica na homogeneidade do fluido. Além de homogêneo,
um fluido simples deve ser isotrópico, ou seja, a energia potencial deve ser invari-
ante frente a rotações de coordenadas. Estas três são as invariâncias ou simetrias
mais importantes de sistemas fluidos simples.
Uma quantidade fundamental para descrever a fase fluida é a densidade local
de partículas. Assumindo que as partículas são puntuais, a densidade se define
como:
ρp(r) =
N∑
i=1
〈δ(r − qi)〉 = 1
Q
∫
dq1 · · · dqN
N∑
i=1
δ(r − qi) e−βUp(q1,...,qN). (2.78)
Agora, devido à invariância do potencial frente a permutações de partículas,
cada um dos termos da soma deve ser igual aos outros, resultando em:
ρp(r) =
N
Q
∫
dq2 · · ·dqN
∫
dq1δ(r − q1) e−βUp(q1,...,qN ) (2.79)
Ainda, como o potencial deve depender apenas das distâncias relativas entre pares
de partículas |qi − qj |, podemos definir novas variáveis q′i = qi − q1, para i =
2, . . . , N , resultando em
ρp(r) =
N
Q
∫
dq′2 · · · dq′Ne−βU(q
′
2,...,q
′
N )
∫
dq1δ(r − q1)
=
N
Q
∫
dq′2 · · · dq′Ne−βUp(q
′
2,...,q
′
N ) (2.80)
De forma semelhante:
Q =
∫
dq′2 · · · dq′Ne−βUp(q
′
2,...,q
′
N )
∫
dq1 = V
∫
dq′2 · · · dq′Ne−βUp(q
′
2,...,q
′
N )
(2.81)
De (2.80) e (2.81) se conclui que ρp(r) = N/V para todos os pontos r no volume
V . Estapropriedade é válida para qualquer fluido simples. Já em um sólido a
densidade local não é uniforme pois as partículas se encontram localizadas no
espaço, a invariância translacional é quebrada na fase sólida.
Em um gás ideal as posições das partículas são independentes entre si. Já em
um fluido real existem correlações entre as posições. Uma função que descreve
as correlações espaciais entre partículas é a função de distribuição de pares g(r),
definida como:
g(r) ≡ 2V
N(N − 1)
∑
(i,j)
〈δ(r− rij)〉 , (2.82)
Daniel A. Stariolo - IF-UFRGS - 2014 28
onde rij ≡ qi − qj é o vetor distância relativa entre as partículas i e j, e a notação
(i, j) indica que cada par de partículas é contabilizado apenas uma vez. Notamos
que a função g(r) corresponde, essencialmente, ao número médio de pares de
partículas que se encontram a uma distância r uma da outra. Para entender melhor
a definição da g(r) notamos que, pela invariância do sistema frente a permutações
de partículas, todos os termos de pares devem ser idênticos. Ainda, pela isotropia
do sistema, a função não pode depender da direção do vetor r, mas apenas do
módulo r = |r|. Então:
g(r) = V 〈δ(r− r12)〉 . (2.83)
Para um gás ideal Up(q1, . . . , qN ) = 0 e então o valor médio pode ser calculado
facilmente, de onde obtemos que 〈δ(r− r12)〉 = 1/V e g(r) = 1. Este resultado
quer dizer que, para o gás ideal, todas as distâncias entre pares de partículas são
igualmente prováveis. Já no caso de partículas em interação obtemos:
g(r) =
V
Q
∫
dq′2 δ(r− q′2)
∫
dq′3 · · · dq′N e−βUp(q
′
2,...,q
′
N)
∫
dq1
=
V 2
Q
∫
dq′3 · · ·dq′N e−βUp(r,q
′
3...,q
′
N ). (2.84)
A forma mais frequênte de energia potencial é a que corresponde a uma soma de
interações de pares, ou seja:
Up(q1, . . . , qN) =
∑
(i,j)
u(rij). (2.85)
Levando em consideração a simetria do potencial frente a permutações das partí-
culas resulta:
〈Up〉 = N(N − 1)
2
〈u(r12)〉
=
N(N − 1)
2Q
∫
dq′2 u(q
′
2)
∫
dq′3 · · · dq′N e−βUp(q
′
2,...,q
′
N )
∫
dq1
=
V N(N − 1)
2Q
∫
d3r u(r)
∫
dq′3 · · · dq′N e−βUp(r,...,q
′
N ) (2.86)
Agora, usando o resultado (2.84) e incluindo a contribuição da energia cinética,
obtemos uma expressão para a equação de estado da energia do fluido:
U = 〈H〉 = 3
2
NkBT +
N(N − 1)
2V
∫
d3r u(r) g(r), (2.87)
Daniel A. Stariolo - IF-UFRGS - 2014 29
Para obter a equação de estado da pressão do fluido, partimos da definição da
pressão no ensemble canônico:
P = −∂F
∂V
= kBT
∂ lnZN
∂V
= kBT
∂
∂V
ln
(
ZGI Q
V N
)
= kBT ρp + kBT
V N
Q
∂
∂V
(
Q
V N
)
. (2.88)
Com um pouco mais de trabalho podemos obter uma expressão para a pressão de
um fluido, com interações de pares, em termos da função distribuição de pares:
P = kBT ρp
[
1− 2πρp
3kBT
∫ ∞
0
r3
du(r)
dr
g(r) dr
]
. (2.89)
Esta última relação se conhece como equação de estado do virial. Notamos que
as equações de estado ficam completamente determinadas conhecendo o potencial
de pares e a função de distribuição g(r).
A função de distribuição de pares pode ser determinada experimentalmente
por técnicas de espectroscopia, como espalhamento de raios X, nêutrons, elêtrons,
etc. Ela está relacionada com uma quantidade básica em experimentos de espec-
troscopia que é o fator de estrutura, definido como:
I(~k) =
〈∣∣∣∣∣
N∑
j=1
ei
~k.~qj
∣∣∣∣∣
2〉
, (2.90)
onde a média é realizada no ensemble. I(~k) mede a intensidade do espalhamento
em função do vetor de onda k da radiação espalhada pelo material. Da definição
anterior obtemos:
I(~k) =
〈
N∑
j=1
N∑
l=1
ei
~k.(~qj−~ql)
〉
= N +
〈∑
j 6=l
ei
~k.(~qj−~ql)
〉
(2.91)
Como a função que deve ser mediada depende apenas das coordenadas:
I(~k) = N +
1
Q
∑
j 6=l
∫
dq1 · · · dqN ei~k.(~qj−~ql) e−βU(q1,...,qN )
= N +
N(N − 1)
Q
∫
dq1 · · · dqN ei~k.(~q2−~q1) e−βU(q1,...,qN)
= N +
V N(N − 1)
Q
∫
dq′2 · · · dq′N ei~k.~q
′
2 e−βU(q
′
2,...,q
′
N ) (2.92)
Daniel A. Stariolo - IF-UFRGS - 2014 30
Figura 2.2: O potencial de Lennard-Jones.
Comparando com (2.84) obtemos:
I(~k) = N +
N(N − 1)
V
∫
d3r ei
~k.~r g(r) (2.93)
ou seja, o fator de estrutura está relacionado diretamente com a transformada de
Fourier da função de distribuição de pares. Desta forma é possível determinar a
função g(r) a partir de dados experimentais para um dado sistema.
Para muitos fluidos normais o potencial de interação é repulsivo a distâncias
muito curtas (caroço duro) e atrativo a distâncias um pouco maiores. Um potencial
semi-empírico muito comum é o potencial de Lennard-Jones:
u(r) = 4ǫ
[(σ
r
)12
−
(σ
r
)6]
(2.94)
que é mostrado na figura 2.2.
No potencial, σ possui unidades de comprimento e representa o tamanho do
caroço duro. O potencial u(σ) = 0 e cresce muito fortemente para r < σ. Para
r > σ o potencial é atrativo, apresentando um mínimo, um ponto de estabilidade
mecânica, em r = 21/6σ. Para distâncias r ≫ σ o potencial tende para zero como
1/r6, que corresponde a uma interação de van der Waals. A função distribuição
de pares para este potencial tem a forma mostrada na figura 2.3.
Daniel A. Stariolo - IF-UFRGS - 2014 31
Figura 2.3: A função de distribuição de pares para um sistema com energia po-
tencial de Lennard-Jones, para kBT/ǫ = 0.71 e ρp = 0.844, obtido por simulação
numérica.
A forma da g(r) pode interpretarse como segue: ρpg(r) é a densidade média
de partículas que se observam a uma distância r de uma origem arbitrária. Como
para r < σ não pode ter partículas por causa do termo de caroço duro, a g(r) = 0
nesta região. Na sequência, g(r) apresenta um pico pronunciado que corresponde
aproximadamente à distância até os primeiros vizinhos, e depois segue uma série
de picos menores representando as sucessivas camadas de vizinhos da partícula
central. O caráter oscilatório da função é consequência da competição entre for-
ças atrativas e repulsivas no potencial. Finalmente, para distâncias muito grandes,
g(r) → 1, que coincide com o valor correspondente a partículas livres, como se
espera de um par de partículas muito afastadas em um fluido simples. As posições
dos picos dão informação das correlações entre as partículas. Quanto mais diluido
seja o fluido, menos picos vão aparecer na g(r), em oposição ao comportamento
de um sólido, onde a periodicidade da rede cristalina deve levar à presença de
uma série de picos de igual intensidade separados pela mesma distância, corres-
pondente à distância entre as partículas na matriz cristalina.
No caso de fluidos com interações fracas, ou densidades baixas, é possível
obter a equação de estado da forma seguinte: definimos uma função:
f(r) = e−βu(r) − 1 (2.95)
Daniel A. Stariolo - IF-UFRGS - 2014 32
Definindo fij ≡ f(rij), podemos escrever a função de partição configuracional na
forma:
Q =
∫
dq1 · · ·dqN
∏
(i,j)
e−βu(rij) =
∫
dq1 · · ·dqN
∏
(i,j)
[1 + fij ] (2.96)
Desenvolvendo os produtos obtemos:
Q =
∫
dq1 · · ·dqN

1 +∑
(i,j)
fij +
1
2
∑
(i,j)
∑
(k,l)6=(i,j)
fijfkl + · · ·


= V N + V N−2
∑
(i,j)
∫
dqidqj fij + · · ·
= V N + V N−1
N(N − 1)
2
∫
d3rf(r) + · · ·
= V N
[
1− N(N − 1)
V
B(T ) + · · ·
]
, (2.97)
onde
B(T ) = −1
2
∫
d3r
[
e−βu(r) − 1] (2.98)
se conhece como segundo coeficiente virial. Desconsiderando termos de ordem
superior na expansão acima, obtemos:
Q
V N
≈ 1− N
2
V
B(T ) (2.99)
e, da equação (2.88):
P = kBTρp + kBT
N2
V 2
B(T )
1− N2
V
B(T )
. (2.100)
Para N2B(T )/V ≪ 1 obtemos, finalmente:
P ≈ kBTρp [1 + ρpB(T )]. (2.101)
De fato, é possível mostrar que, para potenciais de muito curto alcance, é possível
obter uma expansão da equação de estadoem potências da densidade de partícu-
las:
P = kBT [ρp + ρ
2
pB(T ) + ρ
3
pC(T ) + · · · ], (2.102)
Daniel A. Stariolo - IF-UFRGS - 2014 33
que se conhece como expansão do virial. Notamos que a aproximação (2.101)
é válida somente para densidades muito baixas. Integrando a equação (2.98) por
partes para o potencial de Lennard-Jones obtemos:
B(T ) = −2πβ
3
∫ ∞
0
r3
du(r)
dr
e−βu(r) dr. (2.103)
Substituindo em (2.101) e comparando o resultado com (2.89) notamos que trun-
car a expansão do virial a segunda ordem equivale a aproximar a função de distri-
buição de pares por:
g(r) = e−βu(r) (2.104)
Na figura 2.4 podemos ver o resultado de aproximar a g(r) usando a expansão do
virial até segunda ordem. Aparece apenas o primeiro pico. Para poder obter os
outros picos é necessário ir a ordens superiores na expansão. Esse resultado deixa
claro que a expansão de ordem baixa é boa apenas para fluidos muito diluidos.
Figura 2.4: A função de distribuição de pares para um sistema com energia poten-
cial de Lennard-Jones, obtido truncando a expansão do virial até segunda ordem
para kBT/ǫ = 1.
2.4 O ensemble Grande Canônico
Consideremos agora um sistema que pode trocar calor e partículas com o meio no
qual se encontra. Neste caso, o número de partículas N não será mais constante,
podendo flutuar assim como a energia. No equilíbrio, o valor médio 〈N〉 estará
Daniel A. Stariolo - IF-UFRGS - 2014 34
bem definido. No caso de um sistema quântico, se pode definir um operador nú-
mero de partículas Nˆ , cujos autovalores n, correspondem aos possíveis resultados
de uma medida particular. Os estados acessíveis do sistema correspondem aos au-
toestados da energia para uma partícula, duas partículas, etc. O espaço de Hilbert
é formado pela soma direta dos subespaços de uma, duas, três, etc. partículas. Va-
mos assumir que o operador Hˆ não mescla estados de subespaços com diferente
número de partículas, ou seja, que Hˆ comuta com Nˆ . Desta forma, a matriz que
representa Hˆ terá uma estrutura diagonal em blocos Hˆ0, Hˆ1, etc. na qual HˆN é o
operador Hamiltoniano de N partículas. Os autoestados do Hamiltoniano de um
sistema de N partículas serão indexados com um número quântico adicional, por
exemplo:
Hˆ|N,Enl 〉 = Enl |N,Enl 〉
Nˆ |N,Enl 〉 = n|N,Enl 〉 (2.105)
Vamos agora maximizar a entropia de Gibbs
S = −kB Tr(ρˆ ln ρˆ) = −kB
∞∑
n=0
∑
l
ρnl ln ρ
n
l (2.106)
onde ρnl é o elemento de matriz (diagonal) do operador densidade ρˆ correspon-
dente aos números quânticos l, n. Os vínculos a ser satisfeitos neste caso são:
U = 〈Hˆ〉 = Tr(ρˆHˆ) =
∞∑
n=0
∑
l
Enl ρ
n
l (2.107)
N = 〈Nˆ〉 = Tr(ρˆNˆ) =
∞∑
n=0
n
∑
l
ρnl (2.108)
Trρˆ =
∞∑
n=0
∑
l
ρnl = 1, (2.109)
que serão incorporados no processo de variação via multiplicadores de Lagrange.
Fazendo isso obtemos
δ
[∑
n
∑
l
{α0ρnl + α1Enl ρnl + α2nρnl − kBρnl ln ρnl }
]
= 0
∑
n
∑
l
[(α0 − kB) + α1Enl + α2n− kB ln ρnl ] δρnl = 0 (2.110)
Daniel A. Stariolo - IF-UFRGS - 2014 35
Desta condição, e como a identidade vale para variações arbitrárias, obtemos:
kB ln ρˆ = (α0 − kB) + α1Hˆ + α2Nˆ (2.111)
ou
ρˆ = e
(
α0
kB
−1
)
e
α1
kB
Hˆ+
α2
kB
Nˆ (2.112)
Usando a normalização da matriz densidade, definimos a função
Z ≡ e
(
1− α0
kB
)
= Tr exp
[
α1
kB
Hˆ +
α2
kB
Nˆ
]
. (2.113)
A função Z é conhecida como grande função de partição. Para fixar os valores
das constantes α1 e α2 multiplicamos (2.111) por ρˆ e tomamos o traço:
(α0 − kB) + α1U + α2N + S = 0 (2.114)
ou, multiplicando pela temperatura:
−kBT lnZ + α1TU + α2TN + TS = 0 (2.115)
Para determinar os valores das constantes α1 e α2 vamos exigir consistência com
a termodinâmica. Identificando α1 = −1/T , α2 = µ/T , onde µ é o potencial
quimico, e da definição termodinâmica da função grande potencial:
Ω(T, V, µ) = U − TS − µN (2.116)
obtemos:
Ω(T, V, µ) = −kBT lnZ. (2.117)
Então
Z(T, V, µ) = e−βΩ(T,V,µ) = Tr e−β(Hˆ−µNˆ) (2.118)
e
ρˆ =
1
Z exp
[
−β(Hˆ − µNˆ)
]
. (2.119)
Das relações anteriores podemos obter, por exemplo,
S = −
(
∂Ω
∂T
)
V,µ
N = −
(
∂Ω
∂µ
)
T,V
(2.120)
Daniel A. Stariolo - IF-UFRGS - 2014 36
Usando a relação de Euler: U = TS − PV + µN obtemos Ω = −PV . Final-
mente podemos obter uma relação entre a grande função de partição e a função de
partição canônica:
Z = Tr e−β(Hˆ−µNˆ) =
∑
n
eβµn
∑
l
e−βE
n
l
=
∑
n
zn ZN(T, V ) (2.121)
onde z = eβµ é conhecida como fugacidade.
Mais uma vez, como no caso do ensemble canônico, a distribuição que ma-
ximiza a entropia de Gibbs é dada pelo exponencial de Boltzmann da energia
correspondente ao sistema sujeito aos vínculos macroscópicos correspondentes,
neste caso temperatura e potencial quimico fixos. Este procedimento pode ser
generalizado facilmente para outras situações com diferentes vínculos, como será
discutido com um pouco mais de detalhe no final da próxima seção.
2.4.1 Flutuações no número de partículas
No ensemble grande canônico a temperatura e o número médio de partículas são
fixos, mas os valores da energia e do número de partículas podem flutuar. Já
vimos como estimar as flutuações da energia para um sistema em contato com
um reservatório térmico. Vamos agora fazer uma análise semelhante e ver como
se comportam as flutuações no número de partículas para um sistema em contato
com um reservatório de partículas.
Começamos escrevendo a condição de normalização das probabilidades da
seguinte forma:
Tr ρ = Tr eβ(Ω(T,µ)−H+µN) = 1, (2.122)
onde a notação é válida tanto para sistemas quânticos, onde ρ ≡ ρˆ, H ≡ Hˆ , etc.
são operadores, quanto para sistemas clássicos onde Tr corresponde a uma inte-
gral no espaço de fase e ρ, H , N , etc. são as funções densidade de probabilidade,
Hamiltoniano, número de partículas, etc.
Derivando em relação ao potencial químico obtemos:
Tr
[(
β
∂Ω
∂µ
+ βN
)
eβ(Ω(T,µ)−H+µN)
]
= 0, (2.123)
ou
β
∂Ω
∂µ
+ β Tr
[
Neβ(Ω(T,µ)−H+µN)
]
= 0. (2.124)
Daniel A. Stariolo - IF-UFRGS - 2014 37
Derivando mais uma vez:
β
∂2Ω
∂µ2
+ β Tr
[
Nβ
(
∂Ω
∂µ
+N
)
eβ(Ω(T,µ)−H+µN)
]
= 0, (2.125)
ou
β
∂2Ω
∂µ2
+ β2
∂Ω
∂µ
Tr [Nρ] + β2Tr
[
N2ρ
]
= 0. (2.126)
Usando a relação (2.120) obtemos uma expressão para o desvio quadrático médio
do número de partículas:
〈
N2
〉− 〈N〉2 = −kBT ∂2Ω
∂µ2
= kBT
∂ 〈N〉
∂µ
. (2.127)
É possível mostrar (ver, por exemplo, o livro de Salinas [4]) que a derivada do
número médio de partículas em relação ao potencial quimico está relacionada
com a compressibilidade isotérmica do sistema:
kBT
∂ 〈N〉
∂µ
= 〈N〉2kBTκT
V
(2.128)
Por tanto, o desvio relativo ao valor médio no número de partículas é da ordem:√
〈N2〉 − 〈N〉2
〈N〉 ∼ V
−1/2. (2.129)
Então vemos que a medida que o volume do sistema aumenta o número de par-
tículas se afasta muito pouco do seu valor médio, que por sua vez coincide com
o valor mais provável da distribuição de equilíbrio de Boltzmann. Concluimos
que, no limite termodinâmico, quando N e V são muito grandes (comparados
com o tamanho das partículas) as flutuações da energia e do número de partículas
são desprezíveis, e por tanto nestas condições os três ensembles, microcanônico,
canônico e grande canônico são equivalentes do ponto de vista termodinâmico.
Uma exceção a este comportamento acontece na vizinhança de um ponto crítico
quando as flutuações na densidade do sistema podem ser muito grandes e a com-
pressibilidade cresce sem limites. As flutuações da densidade perto de um ponto
crítico levam ao fenômeno da opalescência crítica, um fenômeno que representa
uma evidência experimental direta da presença de um ponto crítico.
Para concluir esta análise notemos a semelhança entre os operadores densi-
dade nos ensembles canônicoe grande canônico em relação ao princípio variacio-
nal de Gibbs. Em ambos os ensembles os operadores são dados pela exponencial
Daniel A. Stariolo - IF-UFRGS - 2014 38
de uma combinação linear de observáveis, um por cada vínculo macroscópico im-
posto via um multiplicador de Lagrange. Os valores médios de tais observáveis
são todos variáveis termodinâmicas extensivas. Os coeficientes da combinação
linear dos mesmos estão associados a multiplicadores de Lagrange respectivos e
são iguais ao parâmetro intensivo correspondente ao observável na representação
de entropia: 1/T no caso da energia e −µ/T no caso do número de partículas.
Generalizando este mecanismo é possível obter diferentes tipos de ensembles,
apropriados para situações particulares, sendo que todos são equivalentes no li-
mite termodinâmico. Um exemplo importante é o ensemble das pressões, que
corresponde à situação de um sistema em contato com um reservatório térmico e
de pressão. Nesta situação, o número de partículas é fixo, mas a energia e o vo-
lume podem flutuar. Os vínculos externos são então a energia média e o volume
médio (parede móvel ou flexível). Maximizando a entropia de Gibbs como nos ca-
sos anteriores é possível obter a função de partição grande canônica no ensemble
das pressões:
Υ(P, T,N) =
∫ ∞
0
(
Tr e−β(H+PV )
)
dV =
∫ ∞
0
e−βPV ZN(T, V ) dV, (2.130)
onde ZN(T, V ) é a função de partição canônica para um sistema de N partículas,
temperatura T e volume V e
G(T, P,N) = −kBT lnΥ(P, T,N) (2.131)
é a energia livre de Gibbs, que é o potencial termodinâmico relevante para um
sistema a pressão constante.
2.4.2 Adsorção em superfícies
Consideremos a superfície de um material sólido, em equilíbrio termodinâmico
com um fluido (líquido ou gás), a pressão e temperatura fixas. Os átomos da su-
perfície do sólido apresentam suas interações desbalançadas em relação aos áto-
mos do interior do material, por causa da ausência de átomos do sólido do outro
lado da superfície. Então estes átomos superficiais podem atrair átomos do fluido
em torno, os que poderão ligarse à superfície sólida. O processo pelo qual áto-
mos (ou moléculas) de um fluido se ligam na superfície de um sólido se chama
adsorção. Este fenômeno é fisicamente diferente da absorção, na qual os átomos
do fluido podem entrar no interior do volume do outro material, por exemplo em
poros. O processo inverso da adsorção é a desorção, na qual um átomo ligado a
Daniel A. Stariolo - IF-UFRGS - 2014 39
uma superfície se desprende da mesma e volta para o fluido. Em equilíbrio termo-
dinâmico o número médio de partículas adsorvidas e desorvidas será o mesmo e a
concentração do material adsorvido, o adsorvato, na superfície será constante. O
processo de adsorção leva a formação de um filme do adsorvato sobre a superfície
do adsorvente, e apresenta uma grande gama de aplicações industriais.
Um processo real de adsorção é muito complexo, mas se podem entender al-
guns mecanismos básicos do mesmo através de um modelo simples introduzido
em 1916 por Irving Langmuir e que representa um bom exemplo de aplicação
do ensemble grande canônico clássico. Os ingredientes fundamentais do modelo
consistem em supor que
• as partículas do adsorvato se depositam em um número fixo de sítios da
superfície adsorvente, chamados sítios de adsorção.
• cada sítio de adsorção pode adsorver no máximo uma molécula.
• as moléculas adsorvidas não interagem entre si, são independentes.
• o fluido é considerado um gás ideal.
Já que a superfície do sólido se encontra em equilíbrio com o gás, este pode
ser considerado como um reservatório de partículas para a superfície. Vamos
então calcular a grande função de partição para os sítios de adsorção e depois
impor as condições de equilíbrio termodinâmico com o gás. Vamos supor então
que existem M sítios de adsorção e que a energia de ligação das moléculas na
superfície é−γ. Assim γ será a energia necessária para desorver ou evaporar uma
molécula da superfície. Podemos ainda supor que as moléculas do gás possuem
graus internos de liberdade. Seja ζ(T ) a função de partição canônica dos graus
internos de liberdade de uma molécula. A função de grande partição do conjunto
de sítios de adsorção é dada por:
ZM =
M∑
N=0
zN ZN(T ), (2.132)
onde ZN(T ) é a função de partição canônica para um sistema de N moléculas
adsorvidas. Neste problema não deve ser incluido o fator de contagem de Boltz-
mann, pois os sítios de adsorção são considerados distinguíveis. Como as molé-
culas adsorvidas são independentes:
ZN(T ) = g(N) (Z1(T ))
N = g(N)
(
eβγζ(T )
)N (2.133)
Daniel A. Stariolo - IF-UFRGS - 2014 40
onde g(N) é o número de formas de distribuir N moléculas em M sítios de ad-
sorção. Então:
ZM =
M∑
N=0
M !
N !(M −N)!
(
z eβγζ(T )
)N
=
(
1 + z eβγζ(T )
)M (2.134)
Podemos derivar o resultado anterior por um caminho alternativo. Os graus inter-
nos de liberdade das moléculas podem ser considerados redefinindo a fugacidade
z → z′ = z ζ(T ). Cada sítio de adsorção pode ser considerado como um sis-
tema de dois estados: com molécula adsorvida ou sem, com energias −γ e zero
respectivamente. Então podemos associar a cada sítio de adsorção um número de
ocupação ni = 0, 1, de forma que os estados ni = 0, 1 correspondem ao sítio
i-ésimo estar desocupado ou ocupado por um adsorvato respectivamente. Assim,
podemos escrever um Hamiltoniano para este sistema na forma H = −γ∑Mi=1 ni
e N =
∑M
i=1 ni, e a função de grande partição pode ser escrita na forma:
ZM = Tr e−β(H−µ′N) =
∑
n1=0,1
· · ·
∑
nM=0,1
e
∑
i niβ(γ+µ
′) =
(
1 + eβ(γ+µ
′)
)M
(2.135)
que resulta idêntica com a (2.134). O número médio de partículas adsorvidas é
dado por:
〈N〉 = z ∂ lnZM
∂z
= M
z eβγζ(T )
1 + z eβγζ(T )
. (2.136)
Se define recobrimento, θ(T, P ), à fração de partículas adsorvidas na superfície
〈N〉/M , que resulta:
θ =
z eβγζ(T )
1 + z eβγζ(T )
. (2.137)
A condição de equilíbrio termodinâmico entre a superfície e o gás corresponde à
igualdade entre os seus potenciais quimicos. O potencial quimico do gás corres-
ponde ao de um gás ideal, cujo valor é:
µ = kBT ln
(〈N〉 λ3T
V
)
(2.138)
Por tanto:
z ζ(T ) =
〈N〉 λ3T
V
=
P λ3T
kBT
(2.139)
Daniel A. Stariolo - IF-UFRGS - 2014 41
Então podemos escrever:
θ =
P
P0 + P
, (2.140)
onde
P0 =
kBT
λ3T
e−βγ . (2.141)
A equação (2.140) se conhece como isoterma de Langmuir e define o valor do
recobrimento em função da pressão do gás para uma temperatura fixa. Notamos
que para P/P0 ≪ 1 o recobrimento se comporta como θ ∼ P/P0 e θ → 1
quando P/P0 ≫ 1. O modelo de Langmuir, embora extremamente simplificado,
resulta fisicamente muito natural, e por tanto serve como bom ponto de partida
para incluir de forma sistemática condições mais realistas, como interações entre
as partículas adsorvidas ou modelos mais sofisticados para o reservatório fluido.
Capítulo 3
Estatísticas quânticas
3.1 Sistemas de partículas indistinguíveis
O Princípio de Incerteza de Heisenberg leva a concluir que duas partículas idênti-
cas são indistiguíveis, a menos que exista uma situação particular que limite suas
posições espaciais, como é caso dos átomos em um sólido.
Uma consequência desta condição é que operadores, como o Hamiltoniano
de N partículas, são invariantes frente a permutações arbitrárias das variáveis di-
nâmicas associadas as partículas, ou seja, os operadores são invariantes frente a
uma “renumeração” das partículas. Como sabemos, por cada operação de simetria
existe um operador associado que comuta com o Hamiltoniano do sistema, e pode
ser diagonalizado simultaneamente. Veremos que existem apenas dois autovalores
possíveis associados aos operadores de permutação de partículas, e assim o espaço
de Hilbert associado a um sistema de N partículas quânticas fica dividido em doissubespaços, com características muito diferentes e implicações fundamentais para
o comportamento físico dos sistemas associados a cada um deles.
Vamos supor um sistema de N partículas sem spin. A função de onda corres-
pondente na representação de coordenadas é Ψ(q1, . . . , qN). Trocas na enumera-
ção das partículas podem ser descritas pelos operadores permutação de pares Pˆik,
os quais trocam as coordenadas qi e qk na função de onda:
PˆikΨ(q1, . . . , qi, . . . , qk, . . . , qN ) = Ψ(q1, . . . , qk, . . . , qi, . . . , qN ) (3.1)
Se o Hamiltoniano é invariante frente a trocas arbitrárias de pares de partículas se
verifica que: [
Hˆ, Pˆik
]
= 0 ∀i, k = 1, . . . , N com i 6= k (3.2)
42
Daniel A. Stariolo - IF-UFRGS - 2014 43
As autofunções de Pˆik têm que satisfazer:
PˆikΨ(q1, . . . , qi, . . . , qk, . . . , qN) = λΨ(q1, . . . , qi, . . . , qk, . . . , qN)
= Ψ(q1, . . . , qk, . . . , qi, . . . , qN) (3.3)
Aplicando novamento o operador Pˆik obtemos:
Pˆ 2ikΨ(q1, . . . , qi, . . . , qk, . . . , qN) = Ψ(q1, . . . , qi, . . . , qk, . . . , qN )
= λ2Ψ(q1, . . . , qi, . . . , qk, . . . , qN). (3.4)
Ou seja, os autovalores do operador permutação de pares podem tomar apenas
dois valores λ = ±1. Assim, as autofunções são chamadas de simétricas se
correspondem a λ = 1 e antissimétricas se correspondem a λ = −1. Se o Hamil-
toniano comuta com todos os operadores de permutação, então suas autofunções
podem ser construidas de forma a serem totalmente simétricas, ou seja, simétricas
frente a qualquer permutação de coordenadas, ou totalmente antissimétricas, ou
seja, antissimétricas frente a qualquer permutação de coordenadas.
Uma permutação qualquer pode ser realizada pelo operador de permutação Pˆ ,
tal que:
PˆΨ(q1, q2, . . . , qN ) = Ψ(qP1, qP2 , . . . , qPN ) (3.5)
onde P1, . . . , PN corresponde a uma permutação arbitrária dos números 1, . . . , N .
É simples notar que qualquer operador Pˆ é equivalente a aplicar uma sequência
de permutações de pares Pˆij . Por tanto, as autofunções de Pˆ também serão fun-
ções simétricas ou antissimétricas. Se uma autofunção qualquer do Hamiltoniano
Ψ(q1, . . . , qN) não tiver nenhuma paridade definida, podemos construir autofun-
ções totalmente simétricas ou totalmente antissimétricas a partir dela da seguinte
forma:
ΨS(q1, . . . , qN) = BS
∑
P
PˆΨ(q1, . . . , qN ) (3.6)
ΨA(q1, . . . , qN) = BA
∑
P
(−1)P PˆΨ(q1, . . . , qN) (3.7)
onde BS, BA são constantes de normalização e as somas varrem todas as possí-
veis permutações dos q′is. O sinal (−1)P é +1 se a permutação for par, e −1 se
for ímpar. Uma permutação é par (ímpar) se o número de permutações de pares
necessárias para obter a permutação geral P1, . . . , PN a partir da 1, 2, . . . , N for
par (ímpar)
Daniel A. Stariolo - IF-UFRGS - 2014 44
Como exemplo, consideremos uma função de onda de três partículas Ψ(q1, q2, q3).
Podemos construir funções totalmente simetrizadas com a receita anterior:
ΨS(q1, q2, q3) = BS [Ψ(q1, q2, q3) + Ψ(q2, q1, q3) + Ψ(q1, q3, q2)
+Ψ(q2, q3, q1) + Ψ(q3, q1, q2) + Ψ(q3, q2, q1)]
ΨA(q1, q2, q3) = BA [Ψ(q1, q2, q3)−Ψ(q2, q1, q3)−Ψ(q1, q3, q2)
+Ψ(q2, q3, q1) + Ψ(q3, q1, q2)−Ψ(q3, q2, q1)]
Funções de onda de sistemas de partículas de um mesmo tipo (elétrons, fótons,
quarks) apresentam um tipo de simetria definido frente ao intercâmbio de partícu-
las. Ou seja, as funções de onda de partículas elementares são simétricas ou antis-
simétricas. As partículas descritas por funções de onda simétricas são chamadas
de bósons em homenagem ao físico indio Satyendra Nath Bose (1894-1974). Par-
tículas descritas por funções de onda antissimétricas são chamadas de férmions,
em homenagem ao físico italiano Enrico Fermi (1901-1954).
O caráter de simetria das funções de onda está também relacionado com o
spin das partículas elementares. Na natureza se observa que todos os férmions
possuem spin semi-inteiro, enquanto que os bósons apresentam spin inteiro. Esta
relação é conhecida como Teorema spin-estatística.
As propriedades de simetria das partículas frente ao intercâmbio têm profun-
das consequências nas propriedades físicas dos sistemas. Do ponto de vista da
Mecânica Estatística, bósons e férmions se comportam de forma muito diferente,
dando lugar as chamadas estatísitca de Bose-Einstein e estatística de Fermi-Dirac,
cujas propriedades vamos analizar a seguir.
Para poder construir autofunções com simetria definida, é necessário definir
uma base inicial de autofunções do Hamiltoniano. Uma base possível é a corres-
pondente a um sistema de partículas não interagentes, quando o Hamiltoniano das
N partículas se reduz à soma de operadores de partícula única:
Hˆ(qˆ1, . . . , qˆN , pˆ1, . . . , pˆN) =
N∑
i=1
hˆ(qˆi, pˆi) (3.8)
Resolvendo o problema de autovalores para uma partícula:
hˆφk(q) = ǫkφk(q) (3.9)
onde k representa um conjunto de números quânticos, se pode construir um auto-
estado de Hˆ na forma:
ΨEk1,...,kN = Π
N
i=1φki(qi) (3.10)
Daniel A. Stariolo - IF-UFRGS - 2014 45
que corresponde a um autovalor de Hˆ:
E =
N∑
i=1
ǫki (3.11)
Assim, no caso de partículas independentes podemos escrever as autofunções to-
talmente simétricas e antissimétricas na forma:
ΨE,Sk1,...,kN (q1, . . . , qN) = BS
∑
P
Pˆφk1(q1) · · ·φkN (qN) (3.12)
ΨE,Ak1,...,kN (q1, . . . , qN) = BA
∑
P
(−1)P Pˆ φk1(q1) · · ·φkN (qN ) (3.13)
A função de onda totalmente antissimétrica pode ser escrita em forma de de-
terminante:
ΨE,Ak1,...,kN (q1, . . . , qN) = BA det


φk1(q1) · · · φk1(qN)
.
.
.
.
.
.
φkN (q1) · · · φkN (qN )

 (3.14)
conhecido como determinante de Slater, por John Clarke Slater (1900-1976)
que os usou para obter funções de onda antissimétricas para descrever sistemas
de elétrons. Da forma do determinante se observa que se duas ou mais partículas
estiverem no mesmo estado quântico, então o determinante terá duas ou mais filas
ou colunas iguais, e por tanto será identicamente nulo. Este resultado corresponde
ao Principio de exclusão de Pauli, ou seja, dois ou mais férmions não podem
ocupar simultaneamente o mesmo estado quântico.
Também notamos que um estado quântico é caracterizado completamente pelo
conjunto de números quânticos {k1, . . . , kN}. Uma permutação destes índices so-
mente produz um câmbio de sinal no caso antissimétrico e deixa a função de onda
inalterada no caso simétrico. A indistinguibilidade das partículas frente a permu-
tações faz com que a quantidade relevante para caracterizar um estado, ou função
de onda, seja quantas partículas existem em cada estado. Esta especificação pode
ser feita definindo os números de ocupação: nk. A especificação dos números de
ocupação para todos os níveis k de cada partícula, sujeitos ao vínculo∑k nk = N
determina completamente um estado simétrico. No caso de férmions, o Princípio
de Exclusão limita os possíveis valores dos números de ocupação a nk = 0, 1.
A impossibilidade de identificar as partículas individualmente implica que to-
dos os operadores associados a obseráveis quaisquer devem comutar com os ope-
radores de permutação: [
Oˆ, Pˆ
]
= 0 (3.15)
Daniel A. Stariolo - IF-UFRGS - 2014 46
Em particular, o operador densidade ρˆ deve também ser invariante frente a permu-
tações das partículas do sistema.
Uma vez definidos os números de ocupação, a energia de um autoestado de N
partículas é dada por:
E =
∑
k
nkǫk (3.16)
Se conhecermos e espectro de energias ǫi do sistema, podemos calcular a função
de partição canônica do mesmo na forma
Z(T,N, V ) = Tr e−βHˆ =
∑
{nk}
exp (−β
∑
k
nkǫk) (3.17)
onde, de forma geral, o conjunto de números de ocupação deve satisfazer o vínculo∑
k nk = N . Este vínculo torna o cálculo explícito da função de partição uma
tarefa complicada em geral. A dificuldade se reduz se considerarmos o ensemble
grande canônico. A grande funçãode partição é dada por:
Z(T, µ, V ) = Tr e−β(Hˆ−µNˆ) =
∞∑
N=0
zNZ(T,N, V ) (3.18)
=
∞∑
N=0
eβµN
∑
{nk}
exp (−βn1ǫ1 − βn2ǫ2 − · · · )
=
∞∑
N=0
∑
{nk}
exp (−β(ǫ1 − µ)n1 − β(ǫ2 − µ)n2 − · · · )
Como N está somado entre zero e infinito, e os n′ks estão sujeitos ao vínculo já
visto, a última linha é equivalente a somar os n′ks sem restrições:
Z(T, µ, V ) =
∑
n1,n2,...
exp (−β(ǫ1 − µ)n1 − β(ǫ2 − µ)n2 − · · · )
=
∑
n1
e−β(ǫ1−µ)n1
∑
n2
e−β(ǫ2−µ)n2 . . .
=
∏
k
∑
nk
exp [−β(ǫk − µ)nk] (3.19)
A função grande potencial é dada por:
Ω(T, µ, V ) = −kBT lnZ = −kBT
∑
k
ln
{∑
nk
e−β(ǫk−µ)nk
}
(3.20)
Daniel A. Stariolo - IF-UFRGS - 2014 47
O número de ocupação médio é dado por:
〈nk〉 = − 1
β
∂ lnZ
∂ǫk
∣∣∣∣
T,V
(3.21)
3.2 Gases ideais quânticos
Para um gás de Bose-Einstein a grande função de partição toma a forma:
ZBE(T, µ, V ) =
∞∑
n1=0
∞∑
n2=0
· · ·
∞∑
n∞=0
exp
{
−β
∑
k
nk(ǫk − µ)
}
(3.22)
No caso de um sistema de férmions, o Princípio de Exclusão limita os números
de ocupação resultando na estatística de Fermi-Dirac:
ZFD(T, µ, V ) =
1∑
n1=0
1∑
n2=0
· · ·
1∑
n∞=0
exp
{
−β
∑
k
nk(ǫk − µ)
}
(3.23)
3.2.1 O gás de Maxwell-Boltzmann e o limite clássico
Antes de analizar em detalhe os comportamentos de sistemas de bósons e férmi-
ons, vamos considerar novamente um sistema de partículas distinguíveis, só que
agora do ponto de vista das estatísticas quânticas. Se as partículas são distinguí-
veis não teremos nenhuma restrição nos valores dos números de ocupação. No
entanto, para um conjunto de números de ocupação fixos {nk} a troca de duas
partículas em diferentes níveis ki e kj , com números de ocupação nki e nkj cor-
responde agora a um novo estado, diferente do anterior, mas que não modifica
os números de ocupação, e por tanto, possui o mesmo fator exponencial. Desta
forma, para um conjunto de valores {nk}, devemos multiplicar o fator exponen-
cial por um fator de degenerescência, que corresponde ao número de combinações
diferentes de partículas (distinguíveis) entre todos os estados (níveis). A função
grande partição toma a forma:
Zdist(T, µ, V ) =
∞∑
n1=0
∞∑
n2=0
· · ·
∞∑
n∞=0
N !
n1!n2! · · ·n∞! exp
{
−β
∑
k
nk(ǫk − µ)
}
(3.24)
Para altas temperaturas o número médio de bósons em qualquer estado k é muito
pequeno, e então os estados que contribuem para a função de grande partição são,
Daniel A. Stariolo - IF-UFRGS - 2014 48
essencialmente, aqueles com número de ocupação 0 ou 1. Por isto, o compor-
tamento de bósons e férmions em altas temperaturas é essencialmente o mesmo.
Este comportamento também vale para partículas distinguíveis. Então, no limite
de altas temperaturas, a única diferença entre as estatísticas de Bose-Einstein,
Fermi-Dirac e partículas distinguíveis é o fator N ! na expressão desta última. No-
tamos então, que se quisermos considerar as partículas a altas temperaturas como
indistinguíveis basta dividir emZdist porN !, que é justamente o fator de contagem
de Gibbs.
Um sistema de partículas descrito pela função de grande partição:
ZMB(T, µ, V ) =
∞∑
n1=0
∞∑
n2=0
· · ·
∞∑
n∞=0
1
n1!n2! · · ·n∞! exp
{
−β
∑
k
nk(ǫk − µ)
}
(3.25)
se conhece como gás de Maxwell-Boltzmann e descreve o comportamento a altas
temperaturas de todos os gases ideais (com o correto fator de contagem).
Vamos então re-derivar os resultados para o gás ideal clássico considerado
como um gás de MB. É fácil somar a função de grande partição neste caso, pois
os termos para diferentes números de ocupação se fatoram:
ZMB(T, µ, V ) =
∏
k
( ∞∑
nk=0
1
nk!
exp {−βnk(ǫk − µ)}
)
=
∏
k
(
exp
[
e−β(ǫk−µ)
]) (3.26)
onde usamos o resultado da série infinita ex =
∑∞
n=0(1/n!)x
n
. A função grande
potencial resulta:
ΩMB(T, µ, V ) = −kBT lnZMB(T, µ, V )
= −kBT
∑
k
e−β(ǫk−µ)
= −kBT z
∑
k
e−βǫk , (3.27)
onde z é a fugacidade. O número médio de partículas é dado por:
〈N〉 = −
(
∂ΩMB
∂µ
)
T,V
=
∑
k
z e−βǫk . (3.28)
Daniel A. Stariolo - IF-UFRGS - 2014 49
Como também 〈N〉 = ∑k〈nk〉, obtemos para o número de ocupação médio do
estado k:
〈nk〉 = z e−βǫk . (3.29)
Os resultados anteriores são válidos para qualquer espectro de energias ǫk. No
caso de partículas livres, os níveis de energia são dados pela solução da equação
de Shroëdinger:
hˆφk(q) = ǫkφk(q) (3.30)
onde
hˆ =
pˆ2
2m
= − h¯
2
2m
d2
dq2
(3.31)
em uma dimensão espacial. A extensão para mais dimensões é imediata. Os
autoestados são ondas planas
φk(q) = C e
ikq com ǫk =
h¯2k2
2m
(3.32)
Suponhamos que as partículas estão em um recipiente de dimensão linear L e pa-
redes impenetráveis, o que pode ser implementado considerando um potencial de
barreira infinita em q = 0 e q = L e zero nos outros pontos. Como a probabilidade
de encontrar a partícula fora da caixa é zero, então a função de onda deve ser nula
nos extremos da mesma. Isto leva a que a forma da função de onda deve ser:
φk(q) = A sin (kq) (3.33)
A condição de contorno φk(kL) = 0 determina os possíveis valores do vetor de
onda:
k =
nπ
L
com n = 1, 2, 3, . . . (3.34)
No limite termodinâmico L→∞ o espectro tenderá a ser continuo, de forma que
∑
k
f(k)→
∫
dk
(π/L)
f(k) (3.35)
já que π/L é a distância entre valores consecutivos do vetor de onda k. Então,
desconsiderando graus de liberdade internos das partículas, como o spin, e gene-
Daniel A. Stariolo - IF-UFRGS - 2014 50
ralizando os resultados anteriores para d = 3, obtemos:
lnZMB(T, µ, V ) =
∞∑
kx=π/L
∞∑
ky=π/L
∞∑
kz=π/L
exp
{
−β
(
h¯2k2
2m
− µ
)}
→ V
∫ ∞
−∞
d3k
(2π)3
exp
{
−β
(
h¯2k2
2m
− µ
)}
=
V
(2π)3
eβµ
(
2πm
βh¯2
)3/2
, (3.36)
onde em três dimensões k2 = k2x+k2y+k2z . A função grande potencial é dada por:
ΩMB(T, µ, V ) = −kBT lnZMB(T, µ, V )
= −V eβµ(kBT )5/2
(
2πm
h2
)3/2
(3.37)
que coincide com um cálculo puramente clássico, considerando um volume uni-
tário no espaço de fase igual a h3 e com o correto fator de contagem de Gibbs.
Finalmente, o número médio de partículas do sistema é dado pela (3.28), que
é equivalente a
〈N〉 = z ∂
∂z
lnZMB = z V
(
2πm
βh2
)3/2
. (3.38)
Então, a fugacidade z resulta uma função da densidade média 〈N〉/V e da tempe-
ratura:
z =
〈N〉
V
h3
(2πmkBT )3/2
(3.39)
=
(
λT
a
)3
onde λT é o comprimento de onda térmico, e (V/〈N〉)1/3 = a representa uma
distância interatômica típica. O limite clássico corresponde a altas temperaturas
ou baixas densidades, então nesse limite a fugacidade é pequena z ≪ 1, o que
corresponde a a≫ λT , que é a expectativa usual da mecânica quântica.
Daniel A. Stariolo - IF-UFRGS - 2014 51
3.2.2 Estatística de Bose-Einstein
Usando o resultado
∑∞
n=0 x
n = 1/(1− x) para x < 1, de (3.22) obtemos:
∞∑
nk=0
exp {−β(ǫk − µ)nk} = 1
1− exp [−β(ǫk − µ)] (3.40)
Como exp [−β(ǫk − µ)] < 1 ∀k e ǫk ≥ 0, entao ǫk − µ > 0 e o potencial quimico
deve ser negativo sempre para um gás de bósons livres: µ < 0.
O resultado anterior permite escrever:
lnZBE(T, µ, V ) = −
∑
k
ln {1− exp [−β(ǫk − µ)]} (3.41)
Da definição do número de ocupação médio, eq. (3.21), obtemos no caso do gás
de bósons:
〈nk〉 = 1
eβ(ǫk−µ) − 1 (3.42)
Como e−β(ǫk−µ) < 1 ∀k, então 〈nk〉 ≥ 0 ∀k.
Por outro lado, para baixas temperaturas β ≫ 1 resulta:
〈nk〉 ≈ 0 (3.43)
para a maioria dos estados, exceto os de menor energia.
3.2.3 Estatística de Fermi-Dirac
No caso de férmions nk = 0, 1 e então:
1∑
nk=0
exp {−β(ǫk − µ)nk} = 1 + e−β(ǫk−µ) (3.44)
com o que
lnZFD(T, µ, V ) =
∑
k
ln {1 + exp [−β(ǫk − µ)]} (3.45)
O número de ocupação médio resulta, neste caso:
〈nk〉 = 1
eβ(ǫk−µ)+ 1
≈
{
1 se ǫk < µ
0 se ǫk > µ
(3.46)
Sempre se verifica que 0 ≤ 〈nk〉 ≤ 1.
Capítulo 4
Gás ideal de Bose-Einstein
Vamos descrever neste capítulo o comportamento estatístico e termodinâmica de
gases de bósons independentes. A análise nos levará ao estudo do fenômeno da
condensação de Bose-Einstein, uma transição de fases em um sistema quântico
de partículas livres. A condensação de Bose-Einstein é uma consequência do
comportamento quântico de bósons indistiguíveis e foi descrita inicialmente na
década de 1920. A primeira demonstração experimental da condensação de BE
veio muito mais tarde, em 1995, em trabalhos com átomos frios de rubídio Rb87
por Eric Cornell e Carl Wieman no JILA e de forma independente com átomos de
sódioNa23 pelo grupo de Wolfgang Ketterle no MIT. As temperaturas críticas são
da ordem dos nanokelvins, perto do zero absoluto !, e o tamanho dos condensados
foi de uns 2000 átomos de rubídio e 200000 átomos de sódio aproximadamente.
Por esses trabalhos Cornell, Wieman e Ketterle ganharam o Prêmio Nobel de
Física em 2001.
Também vamos estudar o comportamento de um gás de fótons e o problema
relacionado da radiação de corpo negro.
4.1 A condensação de Bose-Einstein
A partir dos resultados do capítulo anterior podemos escrever a função grande
potencial para um gás de Bose-Einstein como:
ΩBE = −kBT lnZBE(T, µ, V ) = kBT
∑
k
ln {1− exp [−β(ǫk − µ)]}, (4.1)
52
Daniel A. Stariolo - IF-UFRGS - 2014 53
de onde podemos calcular o número médio de partículas na forma:
〈N〉 = −
(
∂ΩBE
∂µ
)
T,V
=
∑
k
(
e−β(ǫk−µ)
1− e−β(ǫk−µ)
)
=
∑
k
(
1
eβ(ǫk−µ) − 1
)
(4.2)
Lembrando que
〈N〉 =
∑
k
〈nk〉 (4.3)
obtemos para o número médio de partículas no estado k:
〈nk〉 = 1
eβ(ǫk−µ) − 1 =
1
z−1eβǫk − 1 (4.4)
Para avançar na determinação das funções termodinâmicas devemos especificar o
espectro de autovalores da energia ǫk, que define o sistema em estudo. Conside-
remos então um sistema de bósons livres, cujo espectro de energias é dado por
ǫk = h¯
2k2/2m. Consideramos o sistema em uma caixa de volume V = L3 com
condições de contorno periódicas. Então, os vetores de onda podem tomar os va-
lores ki = (2π/L)ni, onde i = x, y, z e com ni = 0,±1, . . .. Quando L → ∞ o
espectro de valores da energia ǫk se torna continuo, e as somas tendem a integrais:
∑
k
· · · →
∫
d3k
(2π/L)3
· · · (4.5)
Desta forma, como o espectro depende de ~k somente através do módulo k = |~k|,
podemos reescrever o número médio de partículas na forma:
〈N〉 = 4πV
(2π)3
∫ ∞
0
k2 z
eβh¯
2k2/2m − z dk =
4V√
π
(
2πmkBT
h2
)3/2 ∫ ∞
0
x2
(
z
ex2 − z
)
dx.
(4.6)
Então podemos escrever uma equação de estado que relaciona a fugacidade, a
temperatura e a densidade na forma:
λ3Tρ = g3/2(z), (4.7)
onde λT = h/
√
2πmkBT é o comprimento de onda térmico, e definimos a função
de Bose-Einstein :
g3/2(z) =
4√
π
∫ ∞
0
x2
(
z
ex2 − z
)
dx =
∞∑
k=1
zk
k3/2
(4.8)
Daniel A. Stariolo - IF-UFRGS - 2014 54
z
0.0 .5 1.0
0
1
2
3
4
g3/2(z)
g5/2(z) 2.612
1.342
Figura 4.1: As funções g3/2 e g5/2.
é um caso particular da familia de funções
gn(z) =
∞∑
k=1
zk
kn
. (4.9)
A função g3/2(z) é limitada e bem comportada no intervalo 0 ≤ z ≤ 1, com
valores nos extremos
g3/2(0) = 0
g3/2(1) =
∞∑
k=1
1
k3/2
= ζ(3/2) = 2.612 . . . (4.10)
onde a função ζ(x) é a função zeta de Riemann. A derivada da g3/2(z) diverge
para z → 1 e da expansão em série para z ≪ 1 se obtém que g3/2(z) ∼ z para
valores pequenos de z, como se observa na figura 4.1.
A equação de estado (4.7) é uma equação implícita para a fugacidade z em
função de ρ e T . Mas é fácil observar que o lado esquerdo pode tomar valo-
res arbitrariamente grandes para T suficientemente pequena ou ρ suficientemente
grande. De fato, na figura 4.1 podemos notar que se λ3Tρ > 2.612 a equação não
tem solução real, já que z ≤ 1. Concluimos que deve haver alguma inconsistência
Daniel A. Stariolo - IF-UFRGS - 2014 55
no nosso cálculo anterior. Uma forma de ver onde pode residir o problema é ver
o comportamento do número médio de partículas no estado fundamental, ou seja,
quando ǫ = 0:
〈n0〉 = z
1− z (4.11)
Notamos que limz→1〈n0〉 = ∞. Por tanto, o número de partículas no estado
fundamental diverge para z → 1 no limite termodinâmico. Vamos então analizar
em mais detalhe a forma como foi feito o limite termodinâmico no cálculo da
equação de estado. Para isso começamos por separar a contribuição do estado
fundamental da soma nos estados no cálculo do 〈N〉:
〈N〉 = z
1− z +
4πV
(2π)3
∫ ∞
2π/L
k2 z
eβh¯
2k2/2m − zdk
=
z
1− z +
4V
λ3T
√
π
∫ ∞
λT
√
π/L
x2
(
z
ex2 − z
)
dx (4.12)
É possível mostrar que o limite inferior na última integral pode ser extendido a
zero sem afetar o resultado no limite termodinâmico, obtendo a equação de estado
na forma:
λ3Tρ =
λ3T
V
z
1− z + g3/2(z) (4.13)
Na figura 4.2 vemos o comportamento do primeiro termo da equação (4.13)
para diferentes valores de V . Notamos que, sempre que V seja finito, a função do
lado direito de (4.13) diverge e z nunca atinge o valor máximo z = 1 para qualquer
valor de T e ρ, por causa da divergência, como se mostra na figura 4.3(a). Somente
quando T → 0 ou ρ → ∞ então z → 1 e, consequentemente 〈n0〉 → ∞, como
é de se esperar pois nestas condições todas as partículas devem estar no estado
fundamental. A solução de z em função de λ3Tρ para um volume V finito se
mostra na figura 4.3(b).
Consideremos agora que V ≫ 1. Agora as soluções da eq. (4.13) para λ3Tρ ≥
2.612 serão próximas de z = 1. Assim, podemos aproximar:
λ3Tρ ≈
λ3T
V
z
1− z + g3/2(1) (4.14)
de onde podemos agora isolar para z(V ):
z(V ) ≈ ρ0V
1 + ρ0V
∼ 1− 1
ρ0V
(4.15)
Daniel A. Stariolo - IF-UFRGS - 2014 56
z
0.0 .5 1.0
0.0
.5
1.0
V = 10
V = 100
V = 1000
z
z
V −1
1
Figura 4.2: O comportamento do primeiro termo da eq. (4.13) para diferentes
valores do volume.
z
0.0 .5 1.0
0
1
2
3
4
5
z 0.0 .5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
z
0
1
2
2.612
2.612



V
O 1 


V
O 1
ρλ3T
z
z
V
T
−1
3λ
)(
1 2/3
3
zg
z
z
V
T +
−
λ
)(2/3 zg
ρλ3T
Figura 4.3: (a)Solução gráfica da eq. (4.13). (b)Fugacidade de um gás ideal de
Bose-Einstein em um volume finito V .
Daniel A. Stariolo - IF-UFRGS - 2014 57
0 1 2 3 4
z
0
1
2
ρλ3T
2.612
Figura 4.4: Fugacidade de um gás ideal de Bose-Einstein no limite termodinâ-
mico.
onde ρ0 é uma quantidade que não depende de V . Assim, vemos que as soluções
para λ3Tρ ≥ 2.612 tendem para z = 1 quando V → ∞. A fugacidade de um gás
de Bose-Einstein, no limite termodinâmico é, por tanto:
z =
{
1 se λ3Tρ ≥ g3/2(1)
a raiz de λ3Tρ = g3/2(z) se λ3Tρ < g3/2(1)
(4.16)
como se mostra na figura 4.4.
Vemos então que se λ3Tρ ≥ g3/2(1) um número macroscópico de partículas
passam a ocupar o estado fundamental. Este fenômeno se conhece como conden-
sação de Bose-Einstein, e começa a acontecer quando z → 1. A condição z = 1
permite definir uma temperatura de transição como λ3Tcρ = g3/2(1), o que resulta
em uma temperatura crítica:
Tc =
(
h2
2πmkB
)(
ρ
g3/2(1)
)2/3
(4.17)
Invertendo a mesma equação podemos obter o volume específico crítico em fun-
Daniel A. Stariolo - IF-UFRGS - 2014 58
ção da temperatura:
vc =
1
ρc
=
(
h2
2πmkB
)3/2 g3/2(1)
T 3/2
(4.18)
Escrevendo a equação de estado na região de condensação na forma:
ρ = ρ0 +
1
λ3T
g3/2(1), (4.19)
podemos calcular a fração de bósons no estado fundamental:
〈n0〉
〈N〉 =
ρ0
ρ
= 1− 1
ρλ3T
g3/2(1) (4.20)
= 1− λ
3
Tc
λ3T
= 1−
(
T
Tc
)3/2
(4.21)Então vemos que a fração de partículas no estado fundamental, no limite termodi-
nâmico, se comporta como um parâmetro de ordem:
η ≡ 〈n0〉〈N〉 =
{
1−
(
T
Tc
)3/2
se T ≤ Tc
0 se T > Tc
(4.22)
como se mostra na figura 4.5.
Para determinar o comportamento da pressão no condensado de Bose-Einstein,
reescrevemos a função grande potencial (4.1) no limite continuo e após ter sepa-
rado a contribuição do estado fundamental, obtendo:
ΩBE = kBT ln (1− z) + 4πkBTV
(2π)3
∫ ∞
2π/L
k2 ln (1− zeβh¯2k2/2m)dk
= kBT ln (1− z) + 4kBTV
λ3T
√
π
∫ ∞
λT
√
π/L
x2 ln (1− zex2)dx (4.23)
Então, a pressão é dada por:
P = −ΩBE
V
= −kBT
V
ln (1− z) + kBT
λ3T
g5/2(z) (4.24)
onde
g5/2(z) =
4√
π
∫ ∞
0
x2 ln (1− ze−x2)dx =
∞∑
k=1
zk
k5/2
(4.25)
Daniel A. Stariolo - IF-UFRGS - 2014 59
Figura 4.5: Parâmetro de ordem η = 〈n0〉/〈N〉 vs. temperatura reduzida para
um sistema de bósons em um potencial harmônico confinante. Os pontos pretos
são resultados experimentais e a linha cheia a predição teórica para um sistema de
bósons não interagentes. O inset mostra o número total de átomos na gaiola após
o resfriamento do sistema. Figura copiada de [1]
A função g5/2(z) também é monótona crescente valendo g5/2(0) = 0 e g5/2(1) =
ζ(5/2) = 1.342 . . . e é mostrada na figura 4.1. Vejamos o comportamento do pri-
meiro termo da (4.24). Se z < 1 então é evidente que limV→∞(1/V ) ln (1− z) =
0. Por outra parte, para z → 1:
lim
V→∞
(
1
V
ln (1− z(V ))
)
= 0 (4.26)
Então, a pressão é dada por:
P =
{
kBT
λ3T
g5/2(1) se λ
3
Tρ ≥ g3/2(1)
kBT
λ3T
g5/2(z) se λ
3
Tρ < g3/2(1)
(4.27)
Notamos que na região do condensado a pressão é independente da densidade. A
partir deste resultado podemos analizar o comportamento das isotermas no espaço
Daniel A. Stariolo - IF-UFRGS - 2014 60
(P, v), por exemplo. Para uma temperatura constante temos um ponto de transição
P = Pc(vc) que se obtém fazendo z = 1 na solução para a pressão. Usando
agora a expressão correspondente ao ponto crítico, eq. (4.18), podemos escrever
a temperatura em função de vc. Obtemos:
Pc(vc) =
h2g5/2(1)
2πm(g3/2(1))5/3
1
v
5/3
c
. (4.28)
Y
P
T1
T2
T3
Yc(T2)
Figura 4.6: Isotermas do gás ideal de Bose-Einstein para três temperaturas T1 <
T2 < T3. A linha tracejada corresponde à curva Pc(vc).
Para cada temperatura a relação anterior define uma linea crítica no plano
(P, v). Na figura 4.6 se mostra o comportamento de algumas isotermas do gás de
Bose-Einstein. Vemos que, para v < vc(T ) entramos na região do condensado e
a pressão é independente do volume específico P = cte. A forma das isotermas
lembra a forma das isotermas da transição líquido-gás em um líquido clássico na
região de coexistência. Neste caso a coexistência corresponderia ao condensado
de partículas no estado fundamental e ao resto que formam a fase normal, ou “ga-
sosa”. No entanto não podemos puxar a analogia muito longe, dado que de fato
a fração de partículas nos estados excitados tende para zero no limite termodinâ-
mico, e a condensação de fato acontece no espaço de momentos, e não no espaço
Daniel A. Stariolo - IF-UFRGS - 2014 61
real. Continuando com a analogia podemos nos perguntar quais são os volumes
específicos das fases condensada e gasosa. Da figura 4.6 podemos concluir que
o volume específico do gás corresponde ao ponto vc(T ). Mas o volume especí-
fico do condensado deveria ser zero nesta interpretação, ou seja, a densidade do
condensado é infinita. Este resultado é claramente não físico, e provém do fato
de estar considerando partículas livres (não interagentes) que podem se aproximar
indefinidamente entre elas.
Outra característica marcante do condensado de Bose-Einstein é a forma do
calor específico em função da temperatura. Para isso calculemos inicialmente a
entropia por unidade de volume. Esta é dada por:
s = lim
V→∞
− 1
V
(
∂ΩBE
∂T
)
V,µ
= lim
V→∞
(
∂P
∂T
)
V,µ
(4.29)
Derivando em (4.27) e fazendo uso da propriedade
dgn(z)
dz
=
1
z
gn−1(z) (4.30)
obtemos
s =
{
5
2
kB
λ3T
g5/2(1) se λ
3
Tρ ≥ g3/2(1)
5
2
kB
λ3T
g5/2(z)− kBρ ln z se λ3Tρ < g3/2(1)
(4.31)
Se pode verificar facilmente que s = 0 quando T = 0 em acordo com a terceira
lei da Termodinâmica. Agora estamos em condições de calcular o calor específico
a densidade constante, dado por:
cρ = T
(
∂s
∂T
)
ρ
(4.32)
Derivando em (4.31) mantendo ρ constante se obtém:
cρ =
{
15
4
kB
λ3T
g5/2(1) se λ
3
Tρ ≥ g3/2(1)
15
4
kB
λ3T
g5/2(z)− kBρ94
g3/2(z)
g1/2(z)
se λ3Tρ < g3/2(1)
(4.33)
O calor específico em função de T é mostrado na figura 4.7.
Notando que g1/2(z) → ∞ quando z → 1 resulta que cρ é continuo no ponto
crítico, apresentando uma derivada descontinua. Para altas temperaturas cρ tende
ao valor constante correspondente ao gás ideal clássico. Para temperaturas baixas,
cρ ∼ T 3/2, da mesma forma que a entropia, e tende a zero para temperatura zero.
Daniel A. Stariolo - IF-UFRGS - 2014 62
T
0 1 2 3
C ρ
 
/ (k
Bρ
)
0.0
.5
1.0
1.5
2.0
2.5
3.0
Tc
Figura 4.7: Calor específico a densidade constante do gás ideal de Bose-Einstein
em função da temperatura.
Como vimos, o gás de Bose-Einstein apresenta uma série de comportamen-
tos que não são compatíveis com a realidade, como isotermas planas, um calor
específico continuo na transição de fase, etc. A origem básica destes defeitos do
sistema é o fato de desprezar completamente as interações entre os bósons. Neste
sentido é interessante notar que o fenômeno da condensação aparece quando
ρλ3T = g3/2(1) (4.34)
ou seja, quando
λT
v1/3
=
(
g3/2(1)
)1/3 ≈ 1, 377 (4.35)
Nestas condições o comprimento de onda de de Broglie é da ordem da distân-
cia típica entre as partículas, e nesta situação é claro que as interações entre as
partículas não podem ser desprezadas. Modelos mais realistas levam em conta in-
terações repulsivas de curto alcance entre os bósons, importantes a temperaturas
muito baixas. Incluindo efeitos das interações repulsivas os comportamentos não
físicos vistos antes desaparecem, sem no entanto desaparecer o fenômeno da con-
densação. Para uma descrição qualitativa dos recentes resultados experimentais
Daniel A. Stariolo - IF-UFRGS - 2014 63
em condensados de Bose-Einstein em átomos frios se pode consultar, por exem-
plo, o livro de Pathria [1], terceira edição.
Tal vez a predição mais importante do gás de Bose-Einstein seja que é possí-
vel ter uma transição de fases exclusivamente como consequência da estatística,
independente das interações entre as partículas.
Finalmente, se consideramos o limite de altas temperaturas ou baixas densi-
dades, ou seja, quando
λT
v1/3
≪ (g3/2(1))1/3 (4.36)
temos que z → 0 e então g5/2(z) ≈ g3/2(z) ≈ g1/2(z) ∼ z. Assim, neste regime
ρ ≈ z
λ3T
(4.37)
enquanto que para a pressão obtemos:
P ≈ kBTz
λ3T
= ρkBT =
〈N〉kBT
V
(4.38)
e a equação para o calor específico se reduz a
cρ ≈ 15
4
kBz
λ3T
− 9
4
kBρ =
3
2
ρkB (4.39)
Vemos então que a altas temperaturas ou baixas densidades o gás de Bose-Einstein
se comporta como um gás ideal clássico, ou seja, os efeitos da estatística quântica
se tornam desprezíveis.
4.2 Radiação de corpo negro
No final do século XIX um problema relevante era a determinação das proprie-
dades do espectro de radiação de materiais, em particular de corpos astronômicos
como as estrelas. Se observou que o espectro não dependia de propriedades do
material específico, como composição química, forma, e sim das suas variáveis
termodinâmicas, como temperatura. A partir das leis de Maxwell do campo eletro-
magnético se tentou determinar a densidade de energia emitida por uma cavidade
de volume V em um material qualquer, em equilíbriona temperatura T . Nestas
condições, as paredes da cavidade emitem e abosorvem continuamente radiação
eletromagnética, cuja distribuição de frequências, e por conseguinte sua energia,
devem ser consequência do estado termodinâmico dos átomos que as formam.
Daniel A. Stariolo - IF-UFRGS - 2014 64
Através de uma análise clássica a partir das soluções de ondas das equações de
Maxwell e considerações estatísticas no Hamiltoniano do campo eletromagnético
se conclui que a densidade de energia da radiação em um corpo negro é dada por:
U
V
=
∫ ∞
0
u(ν)dν. (4.40)
onde
u(ν) =
8π
c3
kBTν
2 (4.41)
é a densidade na frequência ν ou densidade espectral. O resultado (4.41) ficou
conhecido como a lei de Rayleigh-Jeans. Logo se reconheceu que este resultado
não podia estar correto, pois implica que
U
V
=
8π
c3
kBT
∫ ∞
0
ν2dν →∞, (4.42)
o que foi chamado de “catástrofe do ultravioleta” por ser o comportamento em
altas frequências o responsável pela divergência da densidade de energia.
A solução deste problema deu origem ao desenvolvimento da Mecânica Quân-
tica, quando Max Planck em 1900 propós que os osciladores que formavam o
campo eletromagnético somente poderiam ter um conjunto “discreto” de energias,
múltiplos inteiros de uma quantidade fundamental dada por h¯ω. Posteriormente,
os trabalhos de Bose e Einstein em torno de 1925 levaram em conta o caráter
indistinguível das partículas quânticas, o que permite uma derivação alternativa e
completamente equivalente dos resultados de Planck. Neste último tratamento, em
lugar de considerar um gás de osciladores quânticos (distinguíveis), a formulação
do problema leva naturalmente a considerar um gás de bósons não interagentes,
os quanta do campo eletromagnético, chamados fótons. Vamos ver na sequência
alguns resultados relevantes de ambas abordagens.
4.2.1 A lei de Planck
A solução de Planck é equivalente a considerar um gás de osciladores quânticos
com Hamiltoniano dado por:
H =
∑
~k,j
h¯ω(~k)n~k,j (4.43)
onde ω(~k) = ck é a relação de dispersão do campo electromagnético (c é a velo-
cidade da luz no vácuo), j = 1, 2 corresponde as duas polarizações transversais
Daniel A. Stariolo - IF-UFRGS - 2014 65
do campo eletromagnético e n~k,j = 0, 1, . . .. A função de partição canônica pode
ser escrita na forma:
Z =
∏
~k,j
Z~k,j (4.44)
Notar que, neste problema, os osciladores são distinguíveis, cada um tendo uma
frequência característica própria. Além do mais, o número de osciladores é inde-
finido, podendo ser infinito mesmo em um volume finito. Obtemos:
Z~k,j =
∞∑
n=0
e−βh¯ω(
~k)n =
1
1− e−βh¯ω(~k) (4.45)
Desta forma:
lnZ =
∑
~k,j
lnZ~k,j = −2
∑
~k,j
ln
[
1− e−βh¯ω(~k)
]
(4.46)
e a energia interna resulta
U = − ∂
∂β
lnZ = 2h¯c
∑
~k
k
eβh¯ck − 1 . (4.47)
No limite termodinâmico, substituindo
∑
~k
→ V
(2π)3
∫
d3k,
obtemos:
U(T, V ) =
V h¯c
π2
∫ ∞
0
k3
eβh¯ω(~k) − 1dk. (4.48)
Da Ec.(4.48) e considerando que ω = 2πν = ck resulta que
U
V
=
8πh
c3
∫ ∞
0
ν3
eβhν − 1dν, (4.49)
de onde sai a lei de radiação de Planck:
u(ν, T ) =
8πh
c3
ν3
eβhν − 1 . (4.50)
Daniel A. Stariolo - IF-UFRGS - 2014 66
No limite de baixas frequências ν → 0 a Ec.(4.50) reproduz a lei de Rayleigh-
Jeans:
u(ν) ∼ 8π
c3
kBTν
2. (4.51)
No entanto, a integral (4.49) é finita. De fato, fazendo o câmbio de variáveis
x = βhν obtemos a ley de Stefan-Boltzmann:
U
V
=
8π
(hc)3
(kBT )
4
∫ ∞
0
x3
ex − 1dx = σT
4 (4.52)
que da a densidade total de energia dentro da cavidade.
4.2.2 O gás de fótons
Uma interpretação física dos osciladores de Planck pode ser dada a partir da
quantização do campo eletromagnético, proposto por Paul A. M. Dirac em 1928.
Na quantização do campo eletromagnético surgem operadores cujas autofunções
correspondem a estados simétricos de N partículas independentes com energias
h¯ω(~k) e N =
∑
~k,j n~k,j com n~k,j = 0, 1, 2, . . .. Por tanto, os números quânticos
n~k,j podem ser interpretados como números de ocupação de estados de partícu-
las com energias h¯ω(~k). Assim, o campo eletromagnético pode ser considerado
como composto por partículas, chamadas fótons, que obedecem a estatística de
Bose-Einstein. Os fótons possuem momento linear ~p = h¯~k e se movem na velo-
cidade da luz c. Por tanto devem possuir massa em repouso nula para sua energia
ser consistente com a expressão relativística ε =
√
c2p2 +m2c4 = cp.
Uma característica importante do gás de fótons é que o número deles na cavi-
dade não se conserva, pois fótons são constantemente emitidos e aborvidos pelo
corpo negro. Isto equivale ao sistema ter um potencial quimico nulo µ = 0. Desta
forma, o potencial de um gás de fótons no ensemble grande canônico é dado por:
Ω(T, V ) = 2kBT
∑
~k
ln
(
1− e−βh¯ω(~k)
)
. (4.53)
onde o fator 2 é consequência da degenerescência nas direções de polarizão da
radiação. O número médio de fótons com momento h¯~k, independentemente da
direção de polarização é dado por:
〈
n~k
〉
=
2
eβh¯ω(~k) − 1 . (4.54)
Daniel A. Stariolo - IF-UFRGS - 2014 67
A partir deste resultado, a energia interna pode ser calculada facilmente:
U(T, V ) =
∑
~k
h¯ω(~k)
〈
n~k
〉
. (4.55)
Substituindo (4.54) na (4.55) obtemos a equação (4.47). Como estamos traba-
lhando no formalismo grande canônico, a pressão da radiação na cavidade pode
ser obtida facilmente na forma:
P = −Ω
V
= −kBT
π2
∫ ∞
0
k2ln
(
1− e−βh¯ck) dk. (4.56)
Integrando por partes e comparando com (4.48) obtemos a equação de estado para
um gás de fótons:
P =
U
3V
. (4.57)
Para completar esta descrição, notamos que nas funções termodinâmicas do
gás de fótons não aparece nenhuma singularidade, ou seja, os fótons não apre-
sentam o fenômeno da condensação de Bose-Einstein. O motivo disto é que o
número de fótons não se conserva, e por tanto, eles aparecem e desaparecem em
lugar de condensar.
Capítulo 5
Gás ideal de Fermi-Dirac
Os férmions são partículas de spin semi-inteiro. Já vimos que o Princípio de
Exclusão de Pauli limita o número de férmions en cada estado quântico a ser zero
ou um. A estatística que resulta deste vínculo leva o nome de estatística de Fermi-
Dirac. Assim, podemos escrever a função grande partição na forma (3.23):
ZFD(T, µ, V ) =
∏
l
1∑
nl=0
e−βnl(ǫl−µ) (5.1)
onde o índice l indica um conjunto de números quânticos l = (~k, σ), onde σ =
±(2s + 1)/2 é o número quântico de spin, correspondente aos autovalores do
operador de spin Sz = ±(2s+1)h¯/2, com s = 0, 1, 2 . . .. Por exemplo, os elétrons
têm spin σ = ±1/2, ou seja s = 0. Se o espectro de energias é independente do
spin (em ausência de campos eletromagnéticos), podemos escrever:
ZFD(T, µ, V ) =
∏
~k


1∑
n~k,σ=1/2=0
e
−βn~k,σ=1/2(ǫ~k−µ)
1∑
n~k,σ=−1/2=0
e
−βn~k,σ=−1/2(ǫ~k−µ)


=
∏
~k
(
1 + e−β(ǫ~k−µ)
)2 (5.2)
Em geral, para férmions de spin |σ| arbitrário teremos g = 2|σ| + 1 autovalores,
e consequentemente a potência 2 na expressão (5.2) corresponde ao valor de g. O
potencial grande canônico é dado por:
ΩFD = −kBT lnZFD(T, µ, V ) = −gkBT
∑
k
ln {1 + exp [−β(ǫk − µ)]} (5.3)
68
Daniel A. Stariolo - IF-UFRGS - 2014 69
O número médio de partículas é então dado por:
〈N〉 = −
(
∂Ω
∂µ
)
T,V
= g
∑
k
1
eβ(ǫk−µ) + 1
=
∑
k
〈nk〉 (5.4)
Então, o número médio de ocupação do nível de energia ~k tem a forma:
〈nk〉 = g
eβ(ǫk−µ) + 1
. (5.5)
Na figura 5.1 se mostra o comportamento do número médio de ocupação.
Figura 5.1: O valor médio do número de ocupação de um gás de Fermi-Dirac,
para um dado valor do momento ~k.
A energia interna de um sistema de férmions é dada por:
U =
∑
k
ǫk〈nk〉 =
∑
k
gǫk
eβ(ǫk−µ) + 1
(5.6)
e a pressão resulta:P = −ΩFD
V
=
gkBT
V
∑
k
ln
{
1 + e−β(ǫk−µ)
} (5.7)
Daniel A. Stariolo - IF-UFRGS - 2014 70
Os resultados anteriores são válidos para qualquer sistema fermiônico, depen-
dem do espectro de energias ǫk. No caso de um gás ideal de férmions, o espectro
de energias é de partícula livre:
ǫk =
h¯2k2
2m
(5.8)
Neste caso, fazendo o limite para o continuo, cambiando variáveis e expres-
sando as quantidades anteriores em termos da energia ǫ, podemos escrever:
〈N〉 = gV
∫ ∞
0
D(ǫ) f(ǫ) dǫ (5.9)
U = gV
∫ ∞
0
ǫD(ǫ) f(ǫ) dǫ (5.10)
(5.11)
onde
D(ǫ) =
1
4π2
(
2m
h¯2
)3/2
ǫ1/2 (5.12)
e
f(ǫ) =
1
eβ(ǫ−µ) + 1
(5.13)
é a função distribuição de Fermi-Dirac. Seguindo o mesmo procedimento e inte-
grando por partes na expressão para a pressão (5.7) obtemos a equação de estado
do gás ideal de Fermi:
P =
2
3
U
V
=
2
3
g
∫ ∞
0
ǫD(ǫ) f(ǫ) dǫ (5.14)
5.1 Gás de Fermi completamente degenerado
(T = 0)
A T = 0 a função distribuição tem a forma de um degrau em ǫ = µ, como se
mostra na figura 5.1. O férmions então vão preenchendo os níveis de energia
acessíveis, obedecendo o Princípio de Exclusão, até o chamado “nível de Fermi”
ou “energia de Fermi” que é função da densidade do sistema. Para obter o valor
da energia de Fermi ǫF notamos que, para T = 0
〈N〉 = gV
∫ ǫF
0
D(ǫ) dǫ (5.15)
Daniel A. Stariolo - IF-UFRGS - 2014 71
onde podemos interpretar D(ǫ) como sendo a densidade de estados de energia ǫ.
Integrando obtemos:
ǫF =
h¯
2m
(
6π2
g
)2/3(
N
V
)2/3
(5.16)
A pressão a T = 0 é dada por:
P =
2
3
g
∫ ǫF
0
ǫD(ǫ) dǫ
=
2
5
ǫFρ =
h¯2
5m
(
6π2
g
)2/3
ρ5/3 (5.17)
Notamos que, mesmo a T = 0, o gás de Fermi possui um pressão finita. Isto é
consequência do Princípio de Exclusão, que impede uma ocupação arbitrária dos
estados.
Se pode definir uma “temperatura de Fermi” na forma
TF =
ǫF
kB
(5.18)
Esta temperatura determina uma escala abaixo da qual as propriedades do sistema
são essencialmente quânticas. Por exemplo, em metais alcalinos como o Na e
o Li, a temperatura de Fermi é da ordem TF ∼ O(104K). Nestes metais os
elétrons de condução podem ser considerados como um gás de férmions livres em
primeira aproximação (modelo de Drude e Lorentz). Nas estrelas anãs brancas a
TF ∼ O(109K). Para comparação, a temperatura física do Sol é ∼ 105K. No
interior do núcelo atômico, a matéria nuclear fermiônica possui uma temperatura
de Fermi TF ∼ O(1011K).
5.2 Gás de Fermi degenerado (T ≪ TF )
A temperaturas finitas porém muito menores que TF alguns férmions são excita-
dos e passam a ocupar estados de energia acima do nível de Fermi. As grandezas
termodinâmicas agora dependem da temperatura. Uma análise rápida, qualitativa,
permite estimar o número de férmions excitados e o excesso na energia interna
do sistema. Por causa do termo exponencial na distribuição de Fermi, para poder
excitar partículas acima do nível de Fermi é necessário que ǫ−µ ∼ kBT , ou seja,
a energia de excitação é da ordem kBT (ver figura 5.1). Assim, a área debaixo
Daniel A. Stariolo - IF-UFRGS - 2014 72
da curva no integrando em (5.9) acima do nível de Fermi é da ordem D(ǫF )kBT
(ver figura 5.2), e então
∆N ≈ gV D(ǫF )kBT. (5.19)
Pelo mesmo raciocínio, a partir de (5.10) o excesso de energia devido aos férmi-
Figura 5.2: A função D(ǫ)f(ǫ) para temperaturas baixas T ≪ TF .
ons excitados é da ordem
∆U ≈ gV D(ǫF )(kBT )2 (5.20)
Uma consequência importante deste comportamento é que a contribuição dos
graus de liberdade fermiônicos para o calor específico em baixas temperaturas
é linear com T , cV ∼ cte T . Em geral, na temperatura ambiente, esta contribui-
ção resulta desprezível frente a contribuição das vibrações da rede cristalina, a
contribuição dos fônons (que são bósons), que é da ordem T 3:
cV ∼ a T + b T 3 (5.21)
Vamos então determinar as funções termodinâmica do gás de Fermi a tempe-
raturas finitas T ≪ TF . Temos que resolver as integrais em (5.9) e (5.10) para o
número médio de partículas e a energia interna do gás, respectivamente. Notamos
que todas as integrais são da forma:
I =
∫ ∞
0
φ(ǫ)f(ǫ) dǫ (5.22)
Daniel A. Stariolo - IF-UFRGS - 2014 73
onde φ(ǫ) = Aǫn, com n ≥ 1/2. Integrando por partes em I , chamando u = f(ǫ)
e dv = φ(ǫ)dǫ, obtemos:
I = f(ǫ)v(ǫ)|∞0 −
∫ ∞
0
f ′(ǫ)v(ǫ)dǫ
= −
∫ ∞
0
f ′(ǫ)v(ǫ)dǫ (5.23)
onde v(ǫ) =
∫ ǫ
0
φ(u)du. Como f ′(ǫ) é nula em quase todo o intervalo de integra-
ção exceto em uma região estreita no entorno de ǫ = µ, podemos expandir v(ǫ)
em série de Taylor no entorno de ǫ = µ:
v(ǫ) = v(µ) +
∂v
∂ǫ
∣∣∣∣
ǫ=µ
(ǫ− µ) + . . .
=
∞∑
k=0
1
k!
∂kv
∂ǫk
∣∣∣∣
ǫ=µ
(ǫ− µ)k. (5.24)
Então, as integrais se reduzem a integrais do tipo:
Ik = −
∫ ∞
0
f ′(ǫ)(ǫ− µ)k dǫ (5.25)
Cambiando variáveis para x = β(ǫ− µ), podemos reescrever:
Ik =
1
βk
∫ ∞
−βµ
xk ex
(ex + 1)2
dx (5.26)
Para T ≪ TF :
Ik =
1
βk
∫ ∞
−∞
xk ex
(ex + 1)2
dx+O(e−βµ) (5.27)
Desprezando a correção exponencial e notando que as integrais para k ímpares se
anulam, obtemos para as duas primeiras contribuições:
I0 = 1 I2 =
π2
3β2
(5.28)
Por tanto:
I = v(µ) I0 +
1
2
∂2v
∂ǫ2
∣∣∣∣
ǫ=µ
I2 + . . .
=
∫ µ
0
φ(s) ds+
π2
6
∂2v
∂ǫ2
∣∣∣∣
ǫ=µ
(kBT )
2 +O(T 4) (5.29)
Daniel A. Stariolo - IF-UFRGS - 2014 74
Com estes resultados é possível obtermos expressões para o número de partículas,
a energia interna e a equação de estado do gás de Fermi a temperaturas baixas:
〈N〉 = = gV
∫ ∞
0
D(ǫ) f(ǫ) dǫ = gV C
∫ ∞
0
f(ǫ) ǫ1/2dǫ
= gV C
[
2
3
µ3/2 +
π2
12
(kBT )
2µ−1/2 + . . .
]
(5.30)
onde C = 1
4π2
(
2m
h¯2
)3/2
. Reorganizando os termos da expressão anterior podemos
escrever:
ǫ
3/2
F = µ
3/2
[
1 +
π2
8
(
kBT
µ
)2
+ . . .
]
. (5.31)
Invertendo essa equação obtemos uma expansão para o potencial quimico a baixas
temperaturas:
µ = ǫF
[
1− π
2
12
(
T
TF
)2
+ . . .
]
(5.32)
que mostra que µ < ǫF para T pequenas. A energia interna é dada por:
U = gV
∫ ∞
0
ǫD(ǫ) f(ǫ) dǫ = gV C
∫ ∞
0
f(ǫ) ǫ3/2dǫ
= gV C
[
2
5
µ5/2 +
π2
4
(kBT )
2µ1/2 + . . .
]
(5.33)
Inserindo o resultado (5.32) na expressão anterior obtemos:
U =
3
5
NǫF
[
1 +
5π2
12
(
T
TF
)2
+ . . .
]
(5.34)
O calor específico a volume constante do gás de Fermi vem dado por:
cV =
1
N
(
∂U
∂T
)
V,N
=
π2
2
kB
T
TF
(5.35)
que mostra o comportamento linear da contribuição fermiônica ao calor específico
do sistema.
Daniel A. Stariolo - IF-UFRGS - 2014 75
5.3 Magnetismo em um gás ideal de férmions
As propriedades magnéticas dos materiais são determinadas quase exclusivamente
pelos momentos magnéticos dos elétrons dos átomos do material. Os momentos
magnéticos dos núcleos atômicos são da ordem de mil vezes mais fracos que os
momentos dos elétrons, e por tanto podem ser desprezados para descrever as res-
postas magnéticas mais importantes. Desta forma, os diferentes comportamentos
magnéticos observados nos materiais estão estreitamente relacionados com a esta-
tística de Fermi-Dirac e o Princípio de Exclusão de Pauli. Em muitos materiais os
momentos magnéticos apresentam uma forte interação mútua, o que origina uma
rica diversidade de comportamentos e fases magnéticas, sendo os mais comuns o
ferromagnetismo e o antiferromagnetismo.
Por outra parte, mesmo nos casos em que os momentos magnéticos intera-
gem de forma fraca entre si, na presença de campos magnéticos externos os elé-
trons apresentam dois tipos característicos de comportamentos: (a) movimento
em órbitas quantizadas perpendiculares ao campo magnético aplicado, que ori-
ginaum acoplamento entre os momentos angulares orbitais e o campo, e (b) os
spins dos elétrons tendem a se alinharem na direção do campo magnético externo.
O primeiro efeito produz o fenômeno do diamagnetismo enquanto que o segundo
produz o paramagnetismo. O paramagnetismo foi estudado em uma abordagem
clássica por Paul Langevin no início do século XX. Mais tarde, Wolfgang Pauli
descreveu o comportamento de um gás ideal de elétrons em presença de um campo
externo, o que ficou conhecido como “paramagnetismo de Pauli”.
5.3.1 Paramagnetismo de Pauli
A interação entre um campo magnético e os graus de liberdade de spin dos elé-
trons livres leva a um desdobramento dos orbitais ou níveis de energia do sistema
conhecido como “efeito Zeeman”. O Hamiltoniano do sistema é dado por:
H =
N∑
i=1
[
1
2m
p2i − µ0 ~B.~σi
]
(5.36)
onde ~B é um campo magnético uniforme, µ0 é o “magneton de Bohr” e ~σ são
os operadores de spin. Notamos que, como a interação com o campo é local, o
Hamiltoniano ainda corresponde a soma de contribuições de partícula única. O
Hamiltoniano para um elétron em presença de um campo orientado na direção z
Daniel A. Stariolo - IF-UFRGS - 2014 76
é:
H1 =
1
2m
p2 − µ0Bσz (5.37)
e por tanto o espectro de energia de um elétron resulta:
ǫ(~p, s) =
1
2m
p2 − µ0Bs, (5.38)
onde s = ±1. O potencial grande canônico é dado por:
Ω = −kBT
∑
~p
∑
s=±1
ln
(
1 + ze−βǫ(~p,s)
)
= −kBT
∑
~p
∑
s=±1
ln
{
1 + z exp
(
− β
2m
p2 + βµ0Bs
)}
. (5.39)
No limite continuo obtemos:
Ω = −4πkBTV
(2π)3
∫ ∞
0
k2
∑
s=±1
ln
{
1 + z exp
(
− β
2m
h¯2k2 + βµ0Bs
)}
dk
= −kBTV
4π2
(
2m
h¯2
)3/2 ∫ ∞
0
ǫ1/2
∑
s=±1
ln
{
1 + ze−βǫ+βµ0Bs
}
dǫ (5.40)
onde na última linha foi feito o câmbio de variáveis ǫ = h¯2k2/2m. Como s = ±1,
podemos escrever:
Ω = Ω+ + Ω− (5.41)
onde
Ω± = −kBTV
4π2
(
2m
h¯2
)3/2 ∫ ∞
0
ǫ1/2 ln
(
1 + ze−βǫ±βµ0B
)
dǫ. (5.42)
O número médio de elétrons é dado por:
〈N〉 = −
(
∂Ω
∂µ
)
T,V,B
= 〈N+〉+ 〈N−〉 , (5.43)
onde
〈N±〉 = V
4π2
(
2m
h¯2
)3/2 ∫ ∞
0
ǫ1/2
{
1 + z−1eβǫ∓βµ0B
}−1
dǫ. (5.44)
Daniel A. Stariolo - IF-UFRGS - 2014 77
A função grande potencial termodinâmico é função do campo magnético:
Ω(T, µ, V, B) = U − TS − µN − BM (5.45)
M é o momento magnético médio do sistema, ou magnetização:
M = −
(
∂Ω
∂B
)
T,V,µ
= µ0 (〈N+〉 − 〈N−〉) . (5.46)
Magnetização no estado fundamental
Quando β → ∞ e µ0B ≪ ǫF então µ → ǫF e z → eβǫF . O integrando de 〈N+〉
se comporta na forma:
1
1 + z−1 exp (βǫ− βµ0B) ∼
1
1 + exp [β (ǫ− µ0B − ǫF )]
∼
{
1 ǫ− µ0B − ǫF < 0
0 ǫ− µ0B − ǫF > 0 (5.47)
e
〈N+〉 = V
4π2
(
2m
h¯2
)3/2 ∫ ǫF+µ0B
0
ǫ1/2dǫ
=
2
3
V
4π2
(
2m
h¯2
)3/2
(ǫF + µ0B)
3/2 (5.48)
Da mesma forma obtemos:
〈N−〉 = 2
3
V
4π2
(
2m
h¯2
)3/2
(ǫF − µ0B)3/2 (5.49)
Então
〈N〉 = 1
6
V
π2
(
2m
h¯2
)3/2 [
(ǫF + µ0B)
3/2 + (ǫF − µ0B)3/2
]
(5.50)
M =
1
6
V
π2
(
2m
h¯2
)3/2
µ0
[
(ǫF + µ0B)
3/2 − (ǫF − µ0B)3/2
]
. (5.51)
Daniel A. Stariolo - IF-UFRGS - 2014 78
Escrevendo
〈N〉 = 1
6
V
π2
(
2m
h¯2
)3/2
ǫ
3/2
F
[
(1 + µ0B/ǫF )
3/2 + (1− µ0B/ ǫF )3/2
]
(5.52)
M =
1
6
V
π2
(
2m
h¯2
)3/2
µ0ǫ
3/2
F
[
(1 + µ0B/ǫF )
3/2 − (1− µ0B/ǫF )3/2
]
, (5.53)
podemos fazer expansões para campos fracos µ0B ≪ ǫF :
〈N〉 = 1
3
V
π2
(
2m
h¯2
)3/2
ǫ
3/2
F +O
[(
µ0B
ǫF
)2]
(5.54)
M =
V
2π2
(
2m
h¯2
)3/2
µ0ǫ
3/2
F
(
µ0B
ǫF
)
+O
[(
µ0B
ǫF
)3]
. (5.55)
Então, para campos fracos:
M ∼ 3
2
〈N〉µ0
(
µ0B
ǫF
)
; (5.56)
isto é, a magnetização é diretamente proporcional ao campo magnético B e por
tanto a susceptibilidade a campo nulo é constante e positiva:
χ0 =
1
V
(
∂M
∂B
)
V,N
∣∣∣∣∣
T=0,B=0
=
3ρµ20
2ǫF
(5.57)
Este é um dos resultados característicos do paramagnetismo de Pauli.
Magnetização no limite degenerado T ≪ TF
A temperatura finita a magnetização é dada por:
M = µ0 (〈N+〉 − 〈N−〉)
=
V
4π2
(
2m
h¯2
)3/2
µ0
∫ ∞
0
ǫ1/2 {f(ǫ− µ0B)− f(ǫ+ µ0B)} dǫ. (5.58)
Daniel A. Stariolo - IF-UFRGS - 2014 79
Para campos fracos µ0B ≪ ǫF podemos expandir as expressões para a distri-
buição de Fermi, obtendo:
M ∼ − V
2π2
(
2m
h¯2
)3/2
µ20B
∫ ∞
0
ǫ1/2f ′(ǫ)dǫ
=
V
4π2
(
2m
h¯2
)3/2
µ20B
∫ ∞
0
ǫ−1/2f(ǫ)dǫ, (5.59)
onde na segunda linha foi feita uma integração por partes. Da mesma forma se
obtém para o número médio de férmions:
〈N〉 = V
4π2
(
2m
h¯2
)3/2 ∫ ∞
0
ǫ1/2 {f(ǫ− µ0B) + f(ǫ+ µ0B)} dǫ
∼ V
2π2
(
2m
h¯2
)3/2 ∫ ∞
0
ǫ1/2f(ǫ)dǫ. (5.60)
As integrais são da forma geral analizada anteriormente e por tanto podemos usar
os resultados anteriores para obter expansões em potências da temperatura para a
magnetização e o número de partículas. Fazendo as substituições obtemos para a
magnetização o resultado:
M =
3µ20B 〈N〉
2ǫF
[
1− π
2
12
(
kBT
ǫF
)2
+ · · ·
]
. (5.61)
A partir deste resultado podemos obter a primeira correção de temperatura finita
para a susceptibilidade a campo nulo:
χ0 =
1
V
(
∂M
∂B
)
T,V
=
3µ20ρ
2ǫF
[
1− π
2
12
(
kBT
ǫF
)2
+ · · ·
]
, (5.62)
Este resultado obtido originalmente por Pauli lhe permitiu explicar a fraca depen-
dência com a temperatura na susceptibilidade dos metais alcalinos, nos quais a
temperatura de Fermi é muito alta, da ordem O(104K).
Limite clássico
Para altas temperaturas z ≪ 1 e então:
f(x) ∼ ze−βx (5.63)
Daniel A. Stariolo - IF-UFRGS - 2014 80
isto é, a distribuição de Fermi tende para a distribuição de Maxwell-Boltzmann.
Substituindo nas eqs.(5.59) e (5.60) obtemos
M = µ0
V z
2π2
(
2m
h¯2
)3/2
senh(βµ0B)
∫ ∞
0
ǫ1/2e−βǫdǫ (5.64)
〈N〉 = V z
2π2
(
2m
h¯2
)3/2
cosh(βµ0B)
∫ ∞
0
ǫ1/2e−βǫdǫ. (5.65)
Dividindo as equações anteriores se obtém finalmente:
M = µ0 〈N〉 tanh
(
µ0B
kBT
)
, (5.66)
que é o resultado da teoria clássica de Langevin. A susceptibilidade a campo nulo
resulta
χ0 =
1
V
(
∂M
∂B
)
T,V
= µ20β
〈N〉
V
sech2 (µ0βB)
= µ20βρ
(
1− (µ0βB)2 + . . .
)
≈ ρµ
2
0
kBT
. (5.67)
Esta expressão se conhece como lei de Curie, sendo representativa do compor-
tamento da maioria dos materiais paramagnéticos. É possível obter esta mesma
expressão considerando um sistema clássico de N momentos dipolares distinguí-
veis, o que deixa evidente o caráter do limite clássico de um gás de férmions.
Capítulo 6
Interações, simetrias e ordem em
matéria condensada
6.1 Líquidos e gases
Os fluidos, líquidos e gases, são os sistemas que apresentam o maior número de
simetrias possíveis, no sentido que suas propriedades físicas não mudam frente a
uma série de transformações, especialmente de coordenadas.
Quando dizemos que um fluido é homogêneo e isotrópico, queremos dizer que
suas propriedades são invariantes frente a translações espaciais, rotações arbitrá-
rias e reflexões ou inversões respeito da origem de coordenadas. O conjunto de
transformações que deixam um sistema invariante formam um grupo, o grupo de
simetria. O grupo de simetria que inclui translações, rotações e reflexões se chama
Grupo Euclideano. Tipicamente os fluidos são invariantes frente a operações do
grupo euclideano. Fisicamente, isto quer dizer que o entorno ou a vizinhança de
uma pequena região no interior de um fluido é a mesma independentemente que
a região seja trasladada, rotada ou de que se faça uma reflexão em torno de uma
origem de coordenadas. Vamos ver que, de forma geral, o mesmo não acontece
com a matéria no estadosólido, os fluidos são os sistemas com a maior simetria
possível.
A homogeneidade de um fluido implica invariância translacional. Por exem-
plo, para a densidade espacial vale a relação:
〈n(~x)〉 ≡ 1
N
〈
N∑
i
δ(~x− ~xi)〉 = 〈n(~x+ ~R)〉, (6.1)
81
Daniel A. Stariolo - IF-UFRGS - 2014 82
onde ~R é um deslocamento arbitrário. Em particular, se ~R = −~x obtemos que
〈n(~x)〉 = 〈n(0)〉, ou seja, a densidade em qualquer ponto é igual à densidade na
origem. Logo a densidade não depende de ~x.
Outra grandeza muito importante para caracterizar o estado de um sistema é a
função de correlação de dois pontos, definida como:
Cnn(~x1, ~x2) = 〈n(~x1)n(~x2)〉
= 〈
N∑
i,j=1
δ(~x1 − ~xi)δ(~x2 − ~xj)〉 (6.2)
Se o sistema possui invariância translacional então Cnn(~x1, ~x2) ≡ Cnn(~x1 − ~x2).
A transformada de Fourier da função de correlação da densidade de dois pontos é
o fator de estrutura:
S(~q) =
∫
dd~x e−i~q·~xCnn(~x)
= 〈n(~q)n(−~q)〉 (6.3)
onde ~x = ~x1 − ~x2 e
n(~q) =
∫
ddx e−i~q·~x n(~x) = 〈
∑
i
e−i~q·~xi 〉 (6.4)
é a transformada de Fourier da densidade.
6.2 Redes cristalinas
A baixas temperaturas ou altas pressões os materias normalmente cristalizam e
os átomos se organizam espacialmente em estruturas periódicas, chamadas redes
cristalinas. O tipo de estrutura cristalina na qual um elemente específico irá cris-
talizar depende, essencialmente, do potencial interatômico.
Um conceito importante para o estudo das redes cristalinas é a definição de
uma rede de Bravais (segundo o Ascroft-Mermin [8]):
1. Uma rede de Bravais é uma arranjo infinito de pontos discretos, com uma
estrutura e orientação que aparece a mesma vista desde qualquer um dos
pontos da rede.
Daniel A. Stariolo - IF-UFRGS - 2014 83
Figura 6.1: As 14 redes de Bravais em três dimensões
Daniel A. Stariolo - IF-UFRGS - 2014 84
2. Uma rede de Bravais (tridimensional) consiste de todos os pontos cujos
vetores posição podem ser definidos como
~R = n1 ~a1 + n2 ~a2 + n3 ~a3 (6.5)
onde ~a1,~a2 e ~a3 são três vetores quaisquer não coplanares e n1, n2 e n3 são
inteiros.
Os vetores ~a1,~a2 e ~a3 são chamados vetores primitivos e permitem “desenvol-
ver” a rede completamente. As magnitudes dos vetores primitivos são conheci-
das como constantes de rede. Uma célula da rede determinada por um conjunto
qualquer de vetores primitivos se chama célula primitiva . Uma célula primitiva
também permite obter toda a rede por translações ao longo dos vetores primitivos.
A rede cristalina no espaço real se chama as vezes rede direta. É possível
definir uma rede recíproca no espaço de momentos, da seguinte forma:
(Ashcroft-Mermin) Considere um conjunto de pontos ~R formando uma rede
de Bravais, e uma onda plana, ei~k·~r. Esta onda plana tem uma periodicidade dada
pelo comprimento de onda λ = k/2π. Para um ~k arbitrário esta onda não terá, em
geral, a periodicidade da rede de Bravais, mas para alguns conjuntos de vetores ~k
a terá.
O conjunto de todos os vetores de onda ~k que produzem ondas planas com a
periodicidade de uma rede de Bravais dada é conhecido como rede recíproca.
A periodicidade da rede de Bravais implica:
ei
~k·(~r+~R) = ei
~k·~r (6.6)
para qualquer ~r e para qualquer ~R da rede de Bravais. Pela identidade anterior,
podemos caracterizar a rede recíproca como o conjunto de vetores de onda ~k que
satisfacem
ei
~k·~R = 1, (6.7)
para todos os ~R da rede de Bravais.
Daniel A. Stariolo - IF-UFRGS - 2014 85
É possível mostrar que a rede recíproca é ela mesma uma rede de Bravais.
Podemos também definir a rede recíproca da rede recíproca, que não é mais do
que a rede de Bravais original. A rede recíproca nem sempre possui a mesma
simetria da rede direta. Por exemplo, a rede recíproca de um rede fcc é uma rede
bcc.
6.3 Sistemas magnéticos
Os spins em sistemas magnéticos podem apresentar uma grande variedade de es-
truturas ordenadas, tão diversas quanto as encontradas na ordem atômica crista-
lina.
Os spins associados aos elétrons atômicos interagem entre si através de diver-
sas forças de interação. Uma das mais importantes, que se origina nas interações
eletrostáticas dos elétrons, é a interação de troca que é uma interação de curto
alcance entre momentos de spin. Uma forma simplificada da mesma para um par
de spins ~S se pode escrever na forma:
−J ~S1 · ~S2. (6.8)
~S representa o operador de spin em sistemas quânticos ou o vetor de momento
dipolar magnético em sistemas clássicos. Detalhes importantes desta interação é
que não depende da orientação relativa dos spins com respeito à rede cristalina.
Depende apenas da orientação relativa dos vetores de spin. A interação de troca
é a responsável principal pelo surgimento do ferromagnetismo em algumas subs-
tâncias como os metais de transição Fe, Ni e Co. Em um sistema com N spins
em interação, o modelo mais bem sucedido para descrever uma série de proprie-
dades dos materiais ferromagnéticos, como a transição entre fases paramagnética
e ferromagnética, correlações entre spins, susceptibilidades magnéticas, calor es-
pecífico, etc. é o modelo de Heisenberg:
H = −J
∑
i,j
~Si · ~Sj (6.9)
onde os pares {i, j} correspondem a todos os pares de vizinhos próximos, devido
ao caráter de curto alcance da interação de troca. O modelo de Heisenberg pode
ser analizado na versão quântica, na qual as variáveis ~Si são operadores de spin,
ou na versão clássica, na qual os ~Si são vetores. A constante de troca J pode
ser positiva ou negativa. Quando é positiva, a interação tende a alinhar spins
Daniel A. Stariolo - IF-UFRGS - 2014 86
vizinhos, o que leva ao estado ferromagnético. Quando J < 0 a energia de troca
é minimizada quando um spin fica antiparalelo aos seus vizinhos próximos, isto
leva ao estado antiferromagnético, como mostrado esquematicamente na figura
6.2.
Figura 6.2: Algumas estruturas magnéticas .
Uma outra interação importante entre momentos magnéticos é a interação di-
polar, de origem clássica, que tem a forma:
g
∑
i<j
~Si · ~Sj − 3(~Si · eˆij)(eˆij · ~Sj)
r3ij
, (6.10)
onde eˆij = ~rij/rij são vetores unitários na direção que une os sítios i e j. Notamos
que esta interação é de longo alcance, decaindo com a inversa do cubo da distân-
cia entre pares de spins. Ela também é anisotrópica, dependendo da orientação
relativa dos spins com os vetores da rede ~rij . A interação dipolar é tipicamente
Daniel A. Stariolo - IF-UFRGS - 2014 87
4 ordens de grandeza menor que a interação de troca, e por tanto não é o fator
principal que leva ao alinhamento dos spins na fase ferromagnética. No entanto,
seu caráter de longo alcance produz campos magnéticos locais fortes, sendo res-
ponsável pela origem dos domínios magnéticos. Uma substância ferromagnética
em ausência de campo externo não apresenta, pelo geral, um alinhamento global
dos spins, mas um mosaico de domínios onde os spins apontam em diferentes di-
reções, como mostra a figura 6.3. Estas configurações são escolhidas pelo sistema
para minimizar a energia magnética global.
Figura 6.3: Domínios magnéticos
Em alguns cristais o efeito do potencial cristalino é forte o suficiente para
ser sentido pelos elétrons, produzindo a interação spin-órbita. Uma manifestação
deste tipo de interação é a presença de uma campo de anisotropia sobre os spins,
chamada anistropia magnetocristalina. No caso de anisotropia uniaxial de eixo
fácil z, a forma mais elementar de representar sua contribuição energética é:
−D
∑
i
S2iz (6.11)
Notamos que esta anisotropia depende quadraticamente da componente z do spin,
e por tanto não distingue sentidos, apenas uma direção no espaço. Esta contribui-
ção energética contribui para o alinhamento dos spins na direção z.
Quando estas três formas de interação magnética estão presentes simultane-
amente em um sistema, podem dar lugar a uma variedade enorme de estruturas
magnéticasno estado fundamental, dependendo das intensidades relativas de J ,
g e D. A temperatura finita transições de fases entre diferentes tipos de ordem
magnética podem surgir. Em filmes magnéticos ultrafinos com anisotropia per-
pendicular, a competição entre estas interações produz transições de fase a tempe-
raturas finitas entre estruturas semelhantes as fases dos cristais líquidos, somente
Daniel A. Stariolo - IF-UFRGS - 2014 88
que neste caso as estruturas correspondem a ordem de spin e não a ordem posici-
onal das moléculas, como se ve na figura 6.4.
Figura 6.4: Domínios em filmes ultrafinos de Fe/Cu(001) com magnetização per-
pendicular.
Existem diversas técnicas experimentais para medir ordem magnética. Uma
técnica clássica é difração de nêutrons, já que o nêutron possui spin que interage
com o spin eletrônico. Outras técnicas amplamente utilizadas na atualidade são
microscopia de força atômica (AFM), microscopia de força magnética (MFM),
e uma variedade de espectrometrias de espalhamento de elétrons, como a mi-
croscopia de varredura de elétrons, que permitem obter diretamente imagens da
estrutura magnética dos átomos, como por exemplo SEMPA (Scanning electron
microscopy with polarization analysis), utilizada para obter as imagnes da figura
6.4.
Daniel A. Stariolo - IF-UFRGS - 2014 89
6.4 Entre os líquidos e os cristais: os cristais líqui-
dos
Os líquidos e os sólidos são dois casos extremos de ordem e simetria. Os líquidos
apresentam a máxima simetria possível do grupo espacial: translações e rotações
arbitrárias em R3. Os líquidos são estruturalmente desordenados, apresentam ape-
nas ordem de curto alcance. Já os sólidos cristalinos apresentam um grupo de
operações de simetria muito reduzido respeito dos líquidos: são invariantes frente
um conjunto discreto de translações compatíveis com a periodicidade da rede, e
possivelmente frente a um conjunto discreto de rotações. Apresentam ordem de
longo alcance, originado na estrutura cristalina periódica. Daqui em diante vamos
definir a ordem determinada pela invariância frente a translações espaciais como
sendo uma ordem posicional, e a ordem por invariância frente a rotações como
ordem orientacional.
Entre estes dois extremos existem materiais que apresentam todo um espectro
de simetrias e ordens intermediários. O exemplo paradigmático são os cristais
líquidos, substâncias formadas por moléculas anisométricas (sem simetria esfé-
rica). Moléculas típicas que formam cristais líquidos são de dois tipos básicos:
alongadas (moléculas calamíticas) ou com forma de disco (moléculas discóticas).
Em geral, a parte interna destas moléculas é rígida e a parte externa, fluida. Este
caráter duplo da estrutura das moléculas dá origem a interações chamadas estéri-
cas, que levam a diversos tipos de ordem orientacional, juntamente com o caráter
fluido das fases líquidas.
• A altas temperaturas, as moléculas em um cristal líquido (que podemos
representar esquematicamente como elipsoides alongados, como na figura
6.6), estão desordenadas. A desordem diz respeito tanto aos seus centros
de massa (desordem posicional) quanto as orientações dos eixos de sime-
tria das moléculas (desordem orientacional). Neste regime, o cristal líquido
apresenta uma estrutura idêntica à de um fluido isotrópico. O fator de estru-
tura (em função de ~k1, ~k2, ~k3) apresentará tipicamente duas cascas esféricas
com raios correspondentes aos dois comprimentos característicos das mo-
léculas: o comprimento l e o diâmetro a. Em uma projeção bidimensional,
como na figura 6.7, as esferas serão círculos.
• Quando o líquido é resfriado abaixo de uma temperatura característica, apa-
rece uma primeira fase ordenada conhecida como fase nemática (N , ver
figura 6.6(b)). Em esta fase as moléculas apontam preferencialmente ao
Daniel A. Stariolo - IF-UFRGS - 2014 90
Figura 6.5: Algumas moléculas que produzem fases de cristais líquidos e as tran-
sições de fases em função da temperatura.
longo de uma direção, especificada por um vetor unitário ~n chamado dire-
tor. Seus centros de massa permanecem desordenados. Por tanto, a fase
nemática quebra a simetria orientacional mas não a translacional. È um
exemplo típico de ordem orientacional. O sistema ainda apresenta invari-
ância rotacional em um plano perpendicular ao diretor. Mas em qualquer
Daniel A. Stariolo - IF-UFRGS - 2014 91
Figura 6.6: Ilustração esquemáticas das fases em cristais líquidos
plano que contenha o diretor a simetria é reduzida a rotações discretas de
ângulo 180o. Na realidade o diretor não é propriamente um vetor, mas um
Daniel A. Stariolo - IF-UFRGS - 2014 92
pseudo-vetor, já que os dois extremos são identificados ou equivalentes.
Vamos ver que a ordem nemática, diferentemente da ordem magnética por
exemplo, não é vetorial, mas tensorial. Na fase nemática o fator de estrutura
(ou sua projeção em 2d) reflete a quebra de simetria orientacional: ele pre-
serva a simetria frente a rotações arbitrárias em um plano perpendicular ao
diretor (círculo de raio maior na figura 6.7). mas na direção de ~n apresenta
invariância de rotação apenas por ângulos de π .
• Uma possibilidade mais complexa de fase nemática é produzida por mo-
léculas quirais, como o colesterol , que não apresentam simetria frente a
reflexões. Estas moléculas produzem uma fase nemática quiral ou coles-
térica, (N∗). Nesta fase, as moléculas na direção de alinhamento giram
formando uma hélice, com um passo que é tipicamente de alguns milhares
de angstroms. Por tanto as moléculas colestéricas espalham luz visível.
• Diminuindo mais a temperatura se pode passar de uma fase nemática para
uma nova fase chamamda fase esmética-A (Sm − A, ver figura 6.6(c)).
Nesta fase as moléculas se organizam em camadas bem diferenciadas. Os
planos das camadas são perpendiculares aos eixos maiores das moléculas,
e a espessura destas camadas corresponde tipicamente ao comprimento l
das moléculas. Em cada camada as moléculas se encontram desordenadas
posicionalmente e podem fluir nos planos. As camadas correspondem à
presença de uma onda de densidade na direção perpendicular as mesmas.
Por tanto existe ordem translacional ou posicional na direção perpendicular
as camadas, ao longo dos eixos moleculares, ou paralelo ao diretor ~n. A
onda de densidade pode ser definida como:
〈n(~x)〉 = n0 + 2nq0 cos (q0 z), (6.12)
onde q0 = 2π/l, e o eixo z é perpendicular aos planos. Esta onda de den-
sidade produz um fator de estrutura caracterizado por dois picos de Bragg
simétricos em ±q0:
S(~q) = |〈nq0〉|2 (2π)3 [δ(~q − q0 eˆz) + δ(~q + q0 eˆz)] . (6.13)
• Em alguns cristais líquidos a fase esmética apresenta um projeção finita
do diretor sobre o plano das camadas, o diretor está inclinado respeito da
normal as camadas. Ainda mais, a projeção apresenta uma direção definida,
como mostra a figura 6.6(d). Esta fase é chamada fase esmética C (Sm −
Daniel A. Stariolo - IF-UFRGS - 2014 93
Figura 6.7: O fator de estrutura nos cristais líquidos
C). A fase esmética C possui uma simetria inferior a da fase esmética A. A
direção da projeção de ~n no plano das camadas define um eixo c ou diretor-
Daniel A. Stariolo - IF-UFRGS - 2014 94
c. Pode haver uma transição entre as fases esmética A e esmética C. O fator
de estrutura nestas fases tem a forma genérica descrita na figura 6.7(c) e (d).
• Quando um cristal líquido na fase esmética A é resfriado, ele pode conden-
sar em uma fase cristalina, com ordem posicional de longo alcance, ou então
pode condensar na chamada fase esmética B. Na fase esmética B o cristal
líquido apresenta ordem orientacional de quase-longo alcance no plano das
camadas, com simetria rotacional de ordem 6. Uma fase com esta simetria
frente a rotações se chama fase hexática. No fator de estrutura, esta sime-
tria se manisfesta pela presença de arcos difusos no entorno dos valores de
q = 2π/a, separados porângulos de 2π/6, como mostra a figura 6.8. Notar
a difereça entre os picos de Bragg de uma fase cristalina com simetria he-
xagonal, na qual as moléculas se encontram sobre os vértices de uma rede
triangular no plano, e os picos difusos, ou quase-picos de Bragg de uma fase
com ordem orientacional hexática, onde as moléculas não ocupam os sítios
de uma rede cristalina perfeita. O fator de estrutura de uma fase hexática no
plano pode ser expandido em série de Fourier:
S(θ) =
∑
n
S6n cos (6nθ) (6.14)
onde θ corresponde a um ângulo no plano a partir do máximo mais intenso
do fator de estrutura, por exemplo. De forma semelhante, se pode definir o
grau de ordem em uma fase hexática através do parâmetro de ordem com-
plexo:
Ψ6 = e
6iθ (6.15)
onde θ representa o ângulo entre a linha que une dois átomos e o eixo x, por
exemplo.
Daniel A. Stariolo - IF-UFRGS - 2014 95
Figura 6.8: a) Estrutura cristalina hexagonal e fator de estrutura, b) Ordem orien-
tacional na fase hexática e fator de estrutura
6.5 Simetrias e parâmetros de ordem
Como se pode concluir do visto até aqui, considerações de simetria têm um papel
central na matéria condensada. Os fenômenos mais dramáticos da matéria con-
densada, as transições de fase, muitas vezes podem ser analizadas e entendidas a
partir de transformações das condições de simetria do sistema frente a variação de
parâmetros externos, como temperatura, pressão ou campos elétricos e magnéti-
cos.
Um sistema físico é descrito analíticamente pelo Hamiltoniano do mesmo. O
Daniel A. Stariolo - IF-UFRGS - 2014 96
Hamiltoniano apresenta invariância frente a algumas operações de simetria, que
permitem tirar conclusões sobre o comportamento e a estrutura do sistema sob
diferentes condições. Em um gás ideal por exemplo, o Hamiltoniano é invariante
frente ao grupo espacial composto por translações, rotações e reflexões arbitrárias
do espaço, além de translações e reversão temporal. O Hamiltoniano de Heisen-
berg (6.9) é invariante frente a translações e reversão temporal além de rotações
globais dos spins respeito de um eixo arbitrário. Tipicamente, a altas temperatu-
ras ou em sistemas diluidos, o sistema se encontra em uma fase desordenada, a
qual é invariante frente a operações do mesmo grupo G de invariância do Hamil-
toniano. Em uma transição de fase alguma invariância é quebrada. Operadores
que não permanecem invariantes através de uma transição de fases são chamados
parâmetros de ordem. No modelo de Heisenberg, a magnetização:
~M =
1
N
∑
i
~Si (6.16)
é o parâmetro de ordem. A invariância frente ao grupo de rotação simultânea
de todos os spins em R3 existente no Hamiltoniano do modelo de Heisenberg é
quebrada para T < Tc, onde Tc é a temperatura crítica do modelo. Acima de Tc,
〈 ~M〉 = 0, e abaixo de Tc, 〈 ~M〉 6= 0. O grupo de simetria original é reduzido
ao subgrupo de rotações respeito a eixos paralelos a ~M . O sistema não é mais
invariante frente a rotações dos spins respeito de eixos perpendiculares a ~M . A
fase ordenada do modelo de Heisenberg é uma fase com simetria quebrada.
Para especificar completamente o comportamento de uma fase ordenada, te-
mos que saber como o parâmetro de ordem se transforma frente a uma operação
do grupo de simetria. No caso do modelo de Heisenberg, o grupo de simetria é o
grupo das rotações.
A quebra de simetria em uma transição de fases se reflete na estrutura termo-
dinâmica do sistema: o número de mínimos na energia livre é igual ao número
de elementos do grupo de simetria associado ao parâmetro de ordem. Para ex-
plorar esta interpretação é importante distinguir grupos de simetria discretos e
continuos. Se o grupo de simetria for discreto então existirão um número discreto
de fases termodinâmicas equivalentes, enquanto que no caso do grupo ser conti-
nuo haverá uma variedade continua onde cada ponto representa uma possível fase
termodinâmica. O modelo de Ising é um exemplo do primeiro caso e o modelo de
Heisenberg pertence ao último grupo.
Outra distinção importante é entre simetrias locais ou globais. Um sistema
possui uma simetria local se é invariante frente a operações do grupo de simetria
Daniel A. Stariolo - IF-UFRGS - 2014 97
aplicadas localmente, a uma parte do sistema. Este caso é o menos comum. O Ha-
miltoniano do modelo de Heisenberg possui uma simetria global, que corresponde
à rotação simultânea dos spins por um ângulo fixo respeito de qualquer eixo. O
grupo de simetria correspondente é o O3, o grupo de rotações em três dimensões.
• O modelo de Ising representa um material ferromagnético com um eixo de
anisotropia que força os spins a apontar em um única direção. O Hamilto-
niano é:
H = −J
∑
〈ij〉
σi σj (6.17)
onde σi = ±1. O grupo de simetria do parâmetro de ordem, a magnetização,
é o grupo discreto Z2.
• Uma generalização do modelo de Heisenberg onde o parâmetro de ordem
tem n componentes é o modelo O(n), cujo grupo de simetria continua é o
On. Este modelo é interessante porque se reduz ao modelo de Ising no caso
n = 1, ao modelo chamado XY para n = 2, ao modelo de Heisenberg para
n = 3, e é exatamente solúvel no limite n→∞.
• O modelo XY corresponde a um ferromagneto com um “plano fácil”. O
vetor de magentização é forçado a estar sobre o plano. Possui um grupo de
simetria continua, que é o O2. Outra realização desta simetria é na transição
líquido normal- superfluido. Neste caso, o parâmetro de ordem é a função
de onda do líquido quântico:
Ψ = |Ψ| eiθ (6.18)
que é um número complexo e por tanto pode ser representado como um
vetor em duas dimensões, com módulo |Ψ| e fase θ. Na representação com-
plexa o grupo de simetria é o U(1).
Capítulo 7
Transições de fase e fenômenos
críticos
7.1 O modelo de Ising em d = 1: solução exata
O modelo de Ising foi originalmente concebido como um modelo para um material
ferromagnético com forte anisotropia uniaxial, no qual os momentos magnéticos
apontam preferencialmente em uma direção. Neste sentido é um sistema mais
simples, com menos graus de liberdade, do que o modelo de Heisenberg no qual
os dipolos podem apontar em qualquer direção no espaço. O próprio Ising obteve
a solução completa da termodinâmica do modelo em uma dimensão espacial. O
Hamiltoniano do modelo de Ising em um campo magnético externo B é dado por:
H = −J
∑
〈ij〉
σi σj − B
N∑
i=1
σi (7.1)
onde σi = ±1 e 〈. . .〉 indica uma soma a todos os pares de primeiros vizinhos.
Para resolver o modelo em uma dimensão é útil rescrever o Hamiltoniano em uma
forma simétrica:
H = −J
N∑
i=1
σi σi+1 − 1
2
B
N∑
i=1
(σi + σi+1) (7.2)
e vamos considerar condições de contorno periódicas identificando σN+1 = σ1.
Deste forma a cadeia fica fechada formando um anel e os efeitos das bordas do
98
Daniel A. Stariolo - IF-UFRGS - 2014 99
sistema aberto são suprimidos. No limite termodinâmico estas condições de con-
torno não afetam os resultados, que coincidem com os da cadeia original aberta
nos extremos. A função de partição canônica pode ser escrita na forma:
Z(T,B) =
∑
σ1=±1
· · ·
∑
σN=±1
eβ
∑N
i=1{Jσi σi+1+ 12B(σi+σi+1)} (7.3)
=
∑
σ1=±1
· · ·
∑
σN=±1
〈σ1|P |σ2〉〈σ2|P |σ3〉 · · · 〈σN−1|P |σN〉〈σN |P |σ1〉.
Na expressão anterior P denota o operador com elementos de matriz dados por:
〈σi|P |σi+1〉 = exp
[
β
{
Jσi σi+1 +
1
2
B(σi + σi+1)
}]
(7.4)
P é chamada de matriz de transferência. Pela definição anterior:
P =
( 〈+1|P |+ 1〉 〈+1|P | − 1〉
〈−1|P |+ 1〉 〈−1|P | − 1〉
)
=
(
eβ(J+B) e−βJ
e−βJ eβ(J−B)
)
(7.5)
Como todos os termos têm a mesma estrutura, a função de partição se reduz a:
Z(T,B) =
∑
σ1=±1
〈σ1|PN |σ1〉 = Tr PN = λN1 + λN2 (7.6)
onde λ1 e λ2 são os autovalores da matriz de transferência P . Os autovalores são
determinados pelo determinante secular∣∣∣∣ eβ(J+B) − λ e−βJe−βJ eβ(J−B) − λ
∣∣∣∣ = 0 (7.7)
cuja solução é:
λ±= eβJ cosh (βB)±
{
e−2βJ + e2βJ sinh2 (βB)
}1/2 (7.8)
Se pode verificar que λ− < λ+ de forma que (λ−/λ+)N → 0 quando N → ∞.
Assim, só o maior autovalor determina o comportamento do sistema no limite
termodinâmico. A energia livre de Helmholtz é dada por:
F (T,B) = −kBT lnZ(T,B) ≈ −NkBT lnλ+ (7.9)
= −NJ −NkBT ln
{
cosh (βB) +
[
e−4βJ + sinh2 (βB)
]1/2}
Daniel A. Stariolo - IF-UFRGS - 2014 100
A magnetização por sítio m = M/N é dada por:
m(T,B) = − 1
N
(
∂F
∂B
)
T
=
sinh (βB)[
e−4βJ + sinh2 (βB)
]1/2 (7.10)
Notamos que se o campo externo for nulo a magnetização também será zero para
qualquer temperatura finita. Isto elimina a possiblidade de ter uma transição de
fase para uma fase com magnetização espontânea a temperatura finita. Por este
motivo o própio Ising considerou que o modelo não apresentava maior interesse.
No entanto, também é possível ver que para T = 0 a magnetização satura no
valor m = 1 independentemente do valor de B, o que indica a presença de uma
transição de fase a T = 0. Também, a partir do resultado anterior, podemos obter
a magnetização do paramagneto fazendo J = 0→ m = tanh (βB).
Para campos externos fracosB ≪ 1 podemos aproximar os senos hiperbólicos
pelo primeiro termo da série de Taylor, linear em βB, e derivando em relação ao
campo obtemos a susceptibilidade da cadeia de Ising no regime de resposta linear:
χ0(T ) =
(
∂m
∂B
)
T
=
e2J/kBT
kBT
(7.11)
Notamos que a susceptibilidade diverge exponencialmente para T → 0, diferen-
temente do que acontece em um ponto crítico usual onde a divergência é como lei
de potência χ ∼ (T − Tc)−γ . A densidade de energia interna u = U/N a campo
nulo é dada por:
u0(T ) = − 1
N
∂ lnZ(T,B = 0)
∂β
= −J tanh (βJ) (7.12)
e o calor específico:
c0(T ) =
∂u0
∂T
= kB(βJ)
2 sech2 (βJ) (7.13)
O calor específico apresenta apenas um máximo arredondado, como se pode ver
na figura 7.1, semelhante ao que acontece em qualquer sistema de dois estados, o
que é conhecido como efeito Schottky.
Como a cadeia de Ising é um sistema de spins em interação, é natural su-
por que os spins devem apresentar correlações. Vejamos como calcular funções
de correlação spin-spin neste sistema. Fixamos B = 0 e vamos permitir que a
constante de interação J = Ji seja agora função da posição, por motivos apenas
Daniel A. Stariolo - IF-UFRGS - 2014 101
Figura 7.1: O calor específico da cadeia de Ising.
técnicos que serão esclarecidos a seguir. Além disso, vamos considerar agora uma
cadeia aberta, de forma que possui somente N − 1 pares de vizinhos próximos.
Desta forma, a função de partição do sistema pode ser escrita como:
Z(T, J1, . . . , JN−1) =
∑
σ1=±1
· · ·
∑
σN=±1
N−1∏
i=1
eβJiσi σi+1 (7.14)
A correlação entre um par de spins vizinhos é definida como:
〈σkσk+1〉 = 1
Z
(
1
β
∂
∂Jk
)
Z =
(
1
β
∂
∂Jk
)
lnZ (7.15)
Notamos que os fatores em 7.14 com σ1 e σN aparecem apenas uma vez. Somando
o correspondente com σN obtemos:∑
σN=±1
eβJN−1σN−1 σN = 2 cosh (βJN−1σN−1) = 2 cosh (βJN−1) (7.16)
onde a última identidade se deve a que o cosh é função par e σi = ±1. Procedendo
com as somas podemos escrever uma relação de recorrência para a função de
partição:
Z(T, J1, . . . , JN−1) = 2 cosh (βJN−1)Z(T, J1, . . . , JN−2) (7.17)
Daniel A. Stariolo - IF-UFRGS - 2014 102
Substituindo os valores do lado direito obtemos uma solução para a iteração:
Z(T ) =
∑
σ1=±1
N−1∏
i=1
[2 cosh (βJi)] = 2
N
N−1∏
i=1
cosh (βJi) (7.18)
e por tanto
lnZ(T ) = N ln 2 +
N−1∑
i=1
ln cosh (βJi) (7.19)
Aplicando a definição (7.15) obtemos:
〈σkσk+1〉 = tanh (βJk) (7.20)
Para obter a correlação entre um par de spins separados por uma distância arbitrá-
ria r, notamos que como σi = ±1:
〈σkσk+r〉 = 〈(σkσk+1)(σk+1σk+2) . . . (σk+r−1σk+r)〉
=
1
Z
(
1
β
∂
∂Jk
)(
1
β
∂
∂Jk+1
)
· · ·
(
1
β
∂
∂Jk+r−1
)
Z
=
k+r−1∏
i=k
tanh (βJi) (7.21)
Como estamos interessados em um valor constante para a interação Ji = J ∀i,
obtemos:
〈σkσk+r〉 = tanhr (βJ) (7.22)
Notamos que a T = 0 a correlação entre qualquer par de spins 〈σkσk+r〉 = 1, o
que corresponde a qualquer dos estados fundamentais com todos os spins positivos
ou todos negativos. Para T > 0 podemos escrever
〈σkσk+r〉 = e−r/ξ (7.23)
onde definimos o comprimento de correlação ξ(T ):
ξ(T ) = [ln coth (βJ)]−1 (7.24)
Para temperaturas baixas βJ ≫ 1:
ξ ≈ 1
2
e2βJ (7.25)
Daniel A. Stariolo - IF-UFRGS - 2014 103
que diverge exponencialmente para T → 0. Então vemos que, para temperaturas
finitas, os spins do sistema apresentam uma correlação que decai exponencial-
mente com a distância entre o par de spins considerados. Por sua vez, a correla-
ção decai com uma distância típica ξ, o comprimento de correlação, que depende
da temperatura, sendo muito grande a temperaturas baixas e divergindo quando
T → 0, como acontece em geral no ponto crítico de transições de fase continuas,
embora a divergência neste caso seja exponencial en lugar de algébrica como nos
pontos críticos usuais. Neste sentido, o modelo de Ising em d = 1 é anômalo pois
não apresenta magnetização espontânea a temperatura finita e apenas apresenta
uma transição de fase a temperatura nula.
7.2 Teoria de campo médio do modelo de Ising
Quando vamos de uma dimensão para dimensões superiores as dificuldades técni-
cas para resolver a mecânica estatística aumentam consideravelmente, e pouquis-
simos sistemas podem ser resolvidos de forma exata. Então é importante desen-
volver ferramentas para aproximar o cálculo. Existe um grande número de téc-
nicas para obter soluções aproximadas de modelos estatísticos, como expansões
em séries de alta e baixa temperatura, simulações computacionais, aproximações
baseadas em teorias de campos. A mais simples aproximação de aplicação geral
a muitos sistemas é a teoria de campo médio.
A teoria de campo médio começou com a aproximação da equação de estado
para um líquido clássico por van der Waals (1873). Em 1906, Pierre Weiss desen-
volveu uma aproximação equivalente para estudar a transição de fase em materi-
ais ferromagnéticos. Em 1934, W. L. Bragg e E. J. Williams desenvolveram uma
aproximação de campo médio para a transição ferromagnética equivalente a de
Weiss mas que pode ser generalizada facilmente a diferentes sistemas e situações.
7.2.1 Aproximação de Bragg-Williams
Na aproximação de Bragg-Williams começamos calculando a entropia correspon-
dente a configurações dos spins com magnetização fixa m. A magnetização do
modelo de Ising (7.1), m = 〈σi〉, é igual a m = (N+ − N−)/N , onde N+ é o
número de spins para cima, N− é o número de spins para baixo e N é o número
total de spins no sistema.
Para um dado valor de m existe um número grande de configurações possíveis
de spins para cima (+) ou para baixo (-). O logaritmo desse número é o número
Daniel A. Stariolo - IF-UFRGS - 2014 104
de estados de microestados de magnetização m, ou entropia microcanônica do
sistema:
S
kB
= ln
(
N
N+
)
= ln
(
N
N(1 +m)/2
)
= ln
{
N !
(N(1 +m)/2)!(N(1−m)/2)!
}
(7.26)
Usando a aproximação de Stirling para N grande:
lnN ! = N lnN −N +O(lnN) (7.27)
obtemos
S
kBN
≡ s(m)
kB
= ln 2− 1
2
(1 +m) ln (1 +m)− 1
2
(1−m) ln (1−m) (7.28)
Para obter o potencial termodinâmico de interesse, f(T,m) = U(m) − TS(m),
temos que calcular a energia interna, U = 〈H〉:
U = Z−1m Trm H e
−βH . (7.29)
Notar que Trm é um traço restrito a configurações com magnetização m, Zm =
Trme
−βH
, β = 1/kBT e kB é a constante de Boltzmann. O cálculo de Zm é com-
plexo e equivale a obter a solução exata para o modelo. Em seu lugar realizamos
um cálculo aproximado. Na aproximação de Bragg-Williams se substitui o valor
local do spin σi por seu valor médio m independenteda posição :
U = −J
∑
〈ij〉
〈σi σj〉 − B
N∑
i=1
〈σi〉
≈ −J
∑
〈i,j〉
m2 −B
N∑
i=1
m = −1
2
JNzm2 −NBm, (7.30)
onde z é o número de vizinhos próximos dos sítios da rede. Na rede quadrada em
d dimensões z = 2d. A densidade de energia livre de Bragg-Williams é dada por:
f(T,m) = (U − TS)/N
= −1
2
Jzm2 −Bm+ kBT
2
[(1 +m) ln (1 +m) + (1−m) ln (1−m)]
−kBT ln 2 (7.31)
Daniel A. Stariolo - IF-UFRGS - 2014 105
Figura 7.2: A energia livre na aproximação de Bragg-Williams.
O comportamento da função f(T,m) para B = 0 está representado graficamente
para diversas temperaturas na figura 7.2.
Na figura da esquerda, para campo externo nulo, vemos que a altas temperatu-
ras a função apresenta um único mínimo, param = 0. Esta é a fase paramagnética.
A uma temperatura bem definida Tc a função passa a ter dois mínimos simétricos
±m. O valor absoluto destes mínimos cresce a medida que a temperatura baixa
com |m| → 1 quando T → 0. No entorno de Tc o valor de m é muito pequeno,
en então podemos expandir as funções termodinâmicas em potências de m:
s(m) = ln 2− 1
2
m2 − 1
12
m4 + . . . (7.32)
Daniel A. Stariolo - IF-UFRGS - 2014 106
e
f(T,m) =
1
2
(kBT − zJ)m2 + 1
12
kBT m
4 − kBT ln 2 + . . . (7.33)
Para T fixa, a função f apresenta um mínimo único em m = 0 se T ≥ zJ/kB .
Exatamente em Tc = zJ/kB a função desenvolve dois mínimos simétricos com
m 6= 0. Esta temperatura indica a presença de uma quebra espontânea da simetria
de inversão do modelo de Ising, assinatura de uma transição de fase de segunda
ordem, na temperatura crítica:
Tc =
zJ
kB
(7.34)
Em presença de um campo magnético externo B, a energia livre f − mB
é assimétrica, como mostra a figura da direita em 7.2. Para temperaturas altas
T > Tc a energia livre apresenta um único mínimo m > 0. Em T = Tc aparece
um segundo mínimo local. O mínimo com m > 0 continua sendo o mínimo
absoluto para T < Tc, e por tanto o comportamento do parâmetro de ordem não
muda neste caso em T = Tc. A equação de estado em presença de um campo
externo é dada por:
∂f
∂m
= −zJm − B + kBT
2
ln [(1 +m)/(1−m)]
= −zJm − B + kBT tanh−1m = 0 (7.35)
Então
m = tanh [β(B + zJm)]. (7.36)
A quantidade B + zJm é o campo local médio, o mesmo para todos os sítios
do sistema. Ele tem uma contribuição do campo externo B e uma contribuição
proveniente do campo molecular produzido pelos vizinhos próximos de um sítio,
zJm = kBTcm. O comportamento da equação de estado pode ser visualizado na
figura 7.3.
Expandindo a equação de estado para temperaturas baixas e campo nulo obte-
mos:
m = tanh (βzJm) ≈ 1− 2 e−2βzJ (7.37)
e por tanto m → 1 exponencialmente rápido com T . Perto da temperatura de
transição m≪ 1 e podemos expandir para m pequeno (tanh x ∼ x−x3/3+ . . .):
m ≈ (Tc/T )m− 1
3
(Tc/T )
3m3 ≈ (Tc/T )m− 1
3
m3, (7.38)
Daniel A. Stariolo - IF-UFRGS - 2014 107
Figura 7.3: A equação de estado na aproximação de Bragg-Williams.
onde no último passo aproximamos (Tc/T )3 ∼ 1 já que o termo cúbico tende
para um mais rápido que o termo linear quando T → Tc. Notamos que m = 0 é
sempre solução. Existem outras duas soluções com m 6= 0:
m = ±[3(Tc − T )/T ]1/2 (7.39)
Vemos que m va a zero de forma continua a medida que T → Tc. A transição de
fase ferromagnética-paramagnética é uma transição de segunda ordem na aproxi-
mação de campo médio. O expoente 1/2 é um exemplo de expoente crítico. Este
comportamento da magnetização que decai continuamente para zero com uma lei
de potências e o correspondente expoente crítico, é uma manifestação genérica
Daniel A. Stariolo - IF-UFRGS - 2014 108
de transições de fase de segunda ordem, ou continuas. Todos os sistemas cujo
parâmetro de ordem apresenta o mesmo comportamento crítico, no sentido do pa-
râmetro de ordem ir a zero com uma lei de potências caracterizada por um mesmo
expoente, pertencem a mesma classe de universalidade [6].
Na aproximação de Bragg-Williams, como desenvolvida acima, assumimos
que o parâmetro de ordem é espacialmente uniforme 〈σi〉 = m. Esta condição
pode ser relaxada para permitir um parâmetro espacialmente variável 〈σi〉 = mi.
Neste caso a energia livre é escrita na forma:
F = −1
2
∑
〈i,j〉
Jij mimj − T
∑
i
s(mi) (7.40)
Esta forma é preferível para tratar casos nos quais o parâmetro de ordem não é
uniforme, como é o caso de fases moduladas em cristais líquidos, ou diferentes
tipos de ordem antiferromagnética.
Para fechar esta seção sobre a aproximação de campo médio do modelo de
Ising, notamos que o ponto de partida foi desenvolver uma aproximação para a
energia livre do modelo como função do parâmetro de ordem, a magnetização
m, em lugar da variável natural da energia livre de Helmholtz, que é o campo
magnético B. Esta alternativa é fundamental no formalismo da teoria de Landau
que vamos ver a continuação.
7.3 A teoria de Landau de transições de fase
Até aqui vimos que o programa da mecânica estatística tem sido o cálculo da
função de partição de um sistema, a partir da qual é possível fazer uma conexão
rigorosa com a termodinâmica do mesmo. No entanto o cálculo da função de
partição é uma tarefa pelo geral complexa , e então é desejável poder ter acesso
aos potenciais termodinâmicos por caminhos alternativos, a partir de premisas
gerais sobre o comportamento do sistema, mesmo sem contar com uma descrição
detalhada a partir do Hamiltoniano do mesmo.
Landau propós uma abordagem deste problema de caráter muito geral, feno-
menológica, baseada nas propriedades de simetria do potencial termodinâmico
F (T,N, V, 〈φ(~x)〉), onde 〈φ(~x)〉 é o parâmetro de ordem do sistema considerado
(magnetização, densidade).
Daniel A. Stariolo - IF-UFRGS - 2014 109
7.3.1 Transições de fase continuas
A teoria de Landau parte da premisa que a forma do potencial F pode ser deduzida
essencialmente através das seguintes observações:
• F (T,N, V, 〈φ(~x)〉) deve ser uma função invariante respeito de operações
do grupo de simetria G da fase desordenada.
O segundo ponto fundamental na teoria de Landau é a seguinte observação:
• Perto da transição de fase, o parâmetro de ordem é pequeno (em uma tran-
sição de segunda ordem), e então se pode fazer uma expansão do potencial
F em série de Taylor do parâmetro de ordem:
f(T, φ) ≡ F
V
=
∞∑
n=0
an([K], T )φ
n (7.41)
onde φ = 〈φ(~x)〉. Vamos assumir por enquanto que o parâmetro de ordem
é espacialmente homogêneo. Também vamos assumir daqui em diante que
o número de partículas N e o volume V do sistema considerado são cons-
tantes, e por tanto não vamos incluí-los explicitamente em f . A suposição
que f possa ser desenvolvida em uma série de Taylor implica que ela é uma
função analítica de φ perto da transição.
Na prática, a expansão (7.41) poderá ser truncada para um número pequeno de
termos. Quantos termos serão necessários para descrever corretamente a transição
de fase dependerá essencialmente da dimensão espacial d e da dimensão do espaço
do parâmetro de ordem. No caso do modelo de Ising, o truncamento até ordem φ4
é suficiente. No entanto, é importante notar que na expansão devem estar presentes
todas as combinações analíticas do parâmetro de ordem que deixam invariante f
frente ao grupo de simetria G.
A equação de estado para φ é:
∂f
∂φ
= h = a1 + 2a2 φ+ 3a3 φ
2 + 4a4 φ
3 (7.42)
Para T > Tc o parâmetro de ordem φ deve ser nulo se o campo externo for nulo,
então a1 = 0.
No caso particular do modelo de Ising, o grupo de simetria G é o grupo das
reflexões, e por tanto f(φ) = f(−φ). Então f somente poderá ter potências pares
de φ:
f = a0 + a2 φ
2 + a4 φ
4. (7.43)
Daniel A. Stariolo - IF-UFRGS - 2014 110
Como queremos que o estado termodinâmico seja estável para T < Tc, a4 > 0.
Caso contrário poderiamos ter a solução φ→∞ como mínimo absoluto de f .
O coeficiente a0 é o valor de f para T > Tc, quando φ = 0. Sepode pensar
nele como contendo as contribuições a f não provenientes do parâmetro de ordem
de interesse. Nesse sentido, como o que queremos é descrever a transição de fase
associada a φ, vamos considerar a0 = 0, ou então redefinir f − a0 → f .
Como os coeficientes podem depender em geral da temperatura, perto da tran-
sição podemos expandi-los na forma:
a2 = a
0
2 +
T − Tc
Tc
a12 +O((T − Tc)2) (7.44)
a4 = a
0
4 +
T − Tc
Tc
a14 +O((T − Tc)2) (7.45)
Se pode escolher a4 como uma constante positiva. Sua dependência em T não
será dominante para determinar o comportamento termodinâmico na transição.
Da equação de estado aplicada a (7.43) obtemos para φ:
φ =
{
0 se T > Tc
±
√
−a2(T )
2a4
se T < Tc
(7.46)
Então, para que φ possa ter uma solução real e finita para T < Tc se deve
exigir que a02 = 0.
Se acrescentamos um termo proveniente de um campo externo h conjugado
de φ, a energia livre de Landau para o modelo de Ising adota a forma final:
f =
1
2
r φ2 + u φ4 − hφ (7.47)
onde r = a (T −Tc) e as constantes foram redefinidas na notação mais comum na
literatura. O comportamento do potencial f está descrito na figura 7.4.
É importante notar que a teoria de Landau é fenomenológica, ou seja, ela não
está baseada em um modelo microscópico, tendo sido obtida apenas por argumen-
tos de simetria. Ela fornece o comportamento qualitativo correto na proximidade
de uma transição de fase continua. Por exemplo, diferentemente da aproximação
de campo médio de Bragg-Williams para o modelo de Ising, a teoria de campo
médio de Landau não prediz um valor para a temperatura crítica em função de
parâmetros microscópicos. No entanto faz predições para grandezas universais,
como expoentes críticos. De (7.46) extraimos o comporamento do parâmetro de
ordem próximo da transição:
φ ∼ (Tc − T )β (7.48)
Daniel A. Stariolo - IF-UFRGS - 2014 111
Figura 7.4: O funcional de Landau para um modelo com simetria de Ising.
Daniel A. Stariolo - IF-UFRGS - 2014 112
Vemos que φ→ 0 com o expoente crítico β = 1/2. Este expoente é o mesmo que
se obtém na aproximação de Bragg-Williams. Na realidade todas as aproximações
de campo médio para um problema com dada simetria dão como resultado os
mesmos expoentes, chamados de expoentes clássicos. Tanto a aproximação de
Bragg-Williams como a teoria de Landau consideram um parâmetro de ordem
homogêneo, desconsideram flutuações. Quando o papel das flutuações é incluido
o expoente crítico toma valores menores, neste caso próximo de 1/3 em d = 3 e
1/8 em d = 2. Neste último caso o valor é exato.
Podemos obter a equação de estado derivando (7.47) respeito de φ:
r φ+ 4u φ3 = h. (7.49)
A susceptibilidade pode ser obtida derivando a equação de estado respeito de h:
[r + 12u φ2]
∂φ
∂h
= 1. (7.50)
Obtemos:
χ =
∂φ
∂h
=
{
1/r se T > Tc,
1/2|r| se T < Tc. (7.51)
Substituindo a dependência de r na temperatura obtemos:
χ ∼ |T − Tc|−γ. (7.52)
γ é o expoente crítico da susceptibilidade, que é igual a 1 na teoria de Landau, e
corresponde ao valor universal de campo médio para sistemas com parâmetros de
ordem tipo Ising. Em sistemas tridimensionais γ ∼ 4/3 quando são consideradas
flutuações na vizinhança do ponto crítico.
O parâmetro de ordem em função do campo externo na temperatura crítica
também apresenta comportamento universal com o expoente δ. Novamente, a
partir da equação de estado (7.49) obtemos em T = Tc:
φ ∼
(
h
4u
)1/δ
, (7.53)
onde δ = 3. A energia livre f é zero para T > Tc e negativa para T < Tc:
f =
{
0 se T > Tc
−r2/(16u) se T < Tc. (7.54)
Daniel A. Stariolo - IF-UFRGS - 2014 113
Deste resultado podemos obter o valor do calor específico:
cV = −T ∂
2f
∂T 2
=
{
0 se T > Tc;
T a2/(8u) se T < Tc.
(7.55)
O calor específico apresenta uma descontinuidade finita na temperatura crítica.
Este calor específico da a contribuição na vizinhança da transição de fase. A fun-
ção completa apresenta outra contribuição analítica associada a outros graus de
liberdade. O comportamento com a temperatura de diversas grandezas termodi-
nâmicas na aproximação de campo médio pode ser vista na figura 7.5. Notar que
cV corresponde à contribuição da energia livre de Landau mais uma parte analítica
proveniente de outros graus de liberdade.
7.3.2 Transições de primeira ordem na teoria de Landau
Na expansão em série de Taylor do potencial termodinâmico um termo linear em
φ é proibido porque φ = 0 acima da temperatura crítica. Um termo cúbico em
φ foi descartado com um argumento de simetria, no caso de um sistema com
simetria de Ising por causa da simetria f(φ) = f(−φ) a energia livre não pode
conter termos ímpares no parâmetro de ordem. No entanto, um termo cúbico pode
existir em sistemas onde a simetria da fase desordenada o permita. Consideremos
a expansão do potencial nesse caso:
f =
1
2
a t φ2 + w φ3 + u φ4 − hφ (7.56)
onde t ≡ T − Tc. Para h = 0 a equação de estado leva as soluções seguintes:
φ = 0 φ = −c±
√
c2 − a t/4u, (7.57)
onde c ≡ 3w/8u. Para ter uma solução real φ 6= 0 , t < t∗ ≡ 4uc2/a. Como t∗ >
0, esta condição acontece para uma temperatura maior que a temperatura crítica,
que agora corresponde apenas à temperatura na qual o termo de segunda ordem
em φ na energia livre se anula. A figura 7.6 mostra o andamento do potencial com
a temperatura no caso w < 0. Para t < t∗ um segundo mínimo aparece, embora
o mínimo absoluto ainda corresponda a φ = 0. A uma certa temperatura t1 o
valor de f é igual para os dois mínimos, e abaixo desta temperatura o segundo
mínimo passa a ser o mínimo global. Em t1 o parâmetro de ordem apresenta uma
discontinuidade finita. Acontece uma transição de primeira ordem.
Daniel A. Stariolo - IF-UFRGS - 2014 114
Figura 7.5: Comportamento de algumas grandezas termodinâmicas na teoria de
Landau para um sistema com simetria Ising.
No entanto, é importante levar em conta que para t → t−1 o parâmetro de
ordem não é arbitrariamente pequeno, e então, a expansão de Landau não é válida
de forma geral. Quando a expansão é justificada, a preseça de um termo cúbico
leva o sistema a apresentar uma transição de primeira ordem.
7.4 Flutuações do parâmetro de ordem
Embora o parâmetro de ordem em um sistema homogêneo seja uma constante φ,
variações espaciais φ(~x) podem ser naturais em casos com presença de campos
Daniel A. Stariolo - IF-UFRGS - 2014 115
Figura 7.6: Uma transição de primeira orden na teoria de Landau.
externos inomogêneos h(~x) ou em sistemas com modulações espaciais no campo
φ como por exemplo, quando existem interações competitivas.
De um ponto de vista microscópico, o parâmetro de ordem φ é uma média es-
tatística φ ≡ 〈φ〉, que envolve uma soma sobre um conjunto de graus de liberdade
microscópicos em uma certa região do espaço. Por tanto é válido se perguntar
sobre qual o significado físico da função da posição φ(~x) em um contexto termo-
dinâmico. Se pode dar um significado a φ(~x) considerando uma “partição” do
sistema em blocos de tamanho a≪ Λ−1 ≤ ξ(T ), onde a é a constante de rede (a
distância de equilíbrio entre um par de partículas) e ζ(T ) é um comprimento que
mede o alcance das correlações no sistema. Então, em uma escala Λ−1 podemos
considerar que o parâmetro de ordem é efetivamente constante. Assim, defini-
mos o parâmetro de ordem local φΛ(~x) como o valor do parâmetro dentro de um
bloco com origem em ~x. Este processo se denomina granulado grosso (coarse
graining). Desta forma a energia livre de Landau fica bem definida na escala dos
blocos Λ. O problema agora é que ela depende da escala Λ. Temos que somar
Daniel A. Stariolo - IF-UFRGS - 2014 116
as contribuições de todos os grãos que compoem o sistema. Mas a energia livre
não pode ser, como poderiamos concluir sem refletir, a soma de termos do tipo
F =
∑
~x f(φΛ(~x)), pois esta quantidade equivale a considerar queφΛ(~x) pode
variar de forma independente em cada bloco. No entanto é fácil se convencer que
não será bom, de um ponto de vista energético, ter grandes diferenças nos valo-
res de equilíbrio de φΛ(~x) nos diferentes blocos. Uma forma de contornar este
problema é incluir um termo que penalize grandes variações do parâmetro de or-
dem local (também chamado parâmetro de ordem de granulado grosso). A forma
analítica mais simples que este termo pode tomar é:
∑
~x
∑
δ
c
2
(
φΛ(~x)− φΛ(~x+ ~δ)
Λ−1
)2
(7.58)
onde ~δ é um vetor de magnitude Λ−1 apontando na direção do bloco vizinho pró-
ximo do ponto ~x, e o valor do custo em energia é independente do sinal da dife-
rença dos parâmetros de ordem em blocos vizinhos. A constante c pode depender
da temperatura.
Então, considerando que φΛ(~x) varia pouco na escala a, e tomando o limite
continuo, podemos escrever a energia livre de Landau na forma:
F [φΛ(~x)] =
∫
ddx f(T, φΛ(~x)) +
∫
ddx
1
2
c [∇φΛ(~x)]2, (7.59)
onde φΛ(~x) ≡ 〈φΛ(~x)〉Λ e f(T, φ(~x)) tem a forma da densidade de energia livre
de Landau homogênea (7.47). Agora a energia livre de Landau F [φΛ(~x)] é um
funcional de φΛ(~x), no sentido que depende da função φΛ(~x) em todos os pontos
~x. Um corte, ou “cutoff” para distâncias menores que Λ−1 está implícito em todas
as integrais.
É importante notar que o funcional de Landau F , ou energia livre de Landau,
NÃO É a energia livre de equilíbrio F (T, φ) do sistema. O funcional de Landau
é, na verdade, uma energia livre de granulado grosso ou Hamiltoniano efetivo, no
sentido que a função de partição do sistema pode ser obtida na forma:
Z =
∫
DφΛ e−βF [φΛ(~x)], (7.60)
onde a notação
∫ DφΛ indica uma integral funcional. Fisicamente, a integral
funcional equivale a somar as contribuições de todas as configurações dos campos
φ(~x) pesados com o peso estatístico correspondente. A dependência na escala Λ
Daniel A. Stariolo - IF-UFRGS - 2014 117
implica que este formalismo está bem definido para distâncias grandes. Variações
dos campos na escala do espaçamento de rede ou das distâncias interpartícula
estão fora do alcance do formalismo. No entanto, como veremos a seguir, na
análise da física na vizinhança de um ponto crítico apenas o comportamento a
longas distâncias é importante.
Então, realizando a integração funcional sobre os graus de liberdade ainda não
integrados, podemos obter o potencial termodinâmico A(T, h) correspondente:
Z(T, h) = Tr e−βH = e−βA, (7.61)
ondeH ≡ F [φΛ(~x)] deixa explícito o caráter de Hamiltoniano “efetivo” do funci-
onal F , e h é um campo externo conjugado do parâmetro de ordem φ. A energia
livre de Helmholtz pode ser obtida via uma transformação de Legendre na forma:
F (T, φ) = A(T, h) +N φh. (7.62)
7.5 Funções de correlação
Considerando a possibilidade do parâmetro de ordem variar espacialmente, pode-
mos escrever o potencial termodinâmico A na forma:
A[T,~h(~x)] = −T lnZ[T,~h(~x)], (7.63)
onde consideramos uma possível variação espacial do campo externo. Adotamos
a convenção kB = 1, ou seja, daqui para frente todas as temperaturas estão em
unidades da constante de Boltzmann. Notamos que tanto o potencial A quanto
a função de partição Z são na verdade funcionais no sentido discutido na seção
anterior. Para cada função h(~x) obtemos um valor para Z e um para A. Em
presença de um campo externo local h(~x), a função de partição pode ser escrita
na forma:
Z =
∫
Dφ(~x) e−β{F [~φ(~x)]−
∫
ddx~h(~x)·~φ(~x)}, (7.64)
onde F [φ(~x)] é dada por (7.59) e o subíndice Λ será eliminado da notação exceto
quando o significado das expressões não seja claro.
O parâmetro de ordem na escala Λ, que para um sistema magnético é a mag-
netização local, é dado por:
〈φi(~x)〉 = 1
Z
δZ
δ βhi(~x)
= − δA
δhi(~x)
, (7.65)
Daniel A. Stariolo - IF-UFRGS - 2014 118
onde 〈φi〉 e hi representam a i-ésima componentes cartesianas dos vetores 〈~φ〉 e
~h, e o símbolo δ representa uma derivada funcional. O potencial termodinâmico
obedece a seguinte identidade diferencial:
dA = −S dT −
∫
ddx 〈~φ(~x)〉 · δ~h(~x). (7.66)
A susceptibilidade local generalizada é dada pelo tensor:
χij(~x, ~x
′) =
δ〈φi(~x)〉
δhj(~x′)
, (7.67)
onde i, j são as componentes i e j de um parâmetro de ordem vetorial ~φ(~x).
A função de correlação conectada representa as correlações das flutuações do
parâmetro de ordem em relação ao valor médio, e é dada por:
Gij(~x, ~x
′) = 〈[φi(~x)− 〈φi(~x)〉][φj(~x′)− 〈φj(~x′)〉]〉
=
1
β2
δ2 lnZ
δhj(~x′)δhi(~x)
(7.68)
=
1
β
δ〈φi(~x)〉
δ hj(~x′)
= Tχij(~x, ~x
′)
Notamos que a função de correlação de dois pontos conectada é proporcional
à susceptibilidade generalizada.
A susceptibilidade ou resposta global é definida como:
χij =
∫
ddxddx′χij(~x, ~x′) (7.69)
e, em sistemas com invariância translacional, é proporcional ao limite q = 0 da
transformada de Fourier da função de correlação conectada χij = lim~q→0 βGij(q)
.
Uma transformada de Legendre nos permite obter um potencial termodinâ-
mico que é função do parâmetro de ordem (equivalente à energia livre de Helmholtz),
em lugar de ser função do campo:
F [T, 〈~φ(~x)〉] = A[T,~h(~x)] +
∫
ddx ~h(~x) · 〈~φ(~x)〉. (7.70)
O funcional F satisfaz a relação diferencial:
dF = −S dT +
∫
ddx ~h(~x) · δ〈~φ(~x)〉. (7.71)
Daniel A. Stariolo - IF-UFRGS - 2014 119
A equação de estado é dada por:
δF
δ〈φi(~x)〉 = hi(~x). (7.72)
Em ausência de campo externo o estado de equilíbrio é dado pelo valor de 〈φi(~x)〉
que minimiza F . Notar que, nesta forma funcional, o parâmetro de ordem pode
não ser homogêneo, o mínimo de F é determinado por uma função da posição.
A Derivada funcional
Consideremos um funcional Φ[h(~x)]. A derivada funcional de Φ é definida
como:
δΦ
δh(~y)
= lim
ǫ→0
Φ[h(~x) + ǫδ(~x− ~y)]− Φ[h(~x)]
ǫ
. (7.73)
δΦ/δh(~y) representa o câmbio induzido em Φ em resposta a um câmbio em h(~x)
no ponto ~x = ~y.
Utilizando esta definição é possível mostrar algumas derivadas funcionais co-
muns:
δh(~x)
δh(~y)
= δ(~x− ~y), (7.74)
onde Φ[h(x)] = h(x) é o funcional identidade. Se f é uma função de h(~x):
δf(h(~x))
δh(~y)
= f ′
δh(~x)
δh(~y)
= f ′ δ(~x− ~y), (7.75)
δf(g(h(~x)))
δh(~y)
= f ′ g′
δh(~x)
δh(~y)
= f ′ g′ δ(~x− ~y), (7.76)
onde f ′(z) = df/dz.
Por exemplo, para f(φ(~x)) = φ4(~x):
δf
δφ(~y)
= f ′
δφ(~x)
δφ(~y)
= 4φ3(~x)δ(~x− ~y) (7.77)
Uma situação comum na física é a de um funcional F [φ(~x)] pode ser expresso
na forma
F [φ(~x)] =
∫
ddx f(φ(~x), ∂iφ(~x)), (7.78)
Daniel A. Stariolo - IF-UFRGS - 2014 120
onde ∂iφ(~x) são derivadas espaciais de φ(~x) (componentes do gradiente), então
δF
δφ(~y)
=
∫
ddx
δf
δφ(~y)
=
∫
ddx
[
∂f
∂φ(~x)
δφ(~x)
δφ(~y)
+
∂f
∂(∂iφ(~x))
δ∂iφ(~x)
δφ(~y)
]
=
∫
ddx
[
∂f
∂φ(~x)
δ(~x− ~y) + ∂f
∂(∂iφ(~x))
∂iδ(~x− ~y)
]
, (7.79)
onde na última linha usamos o fato que a derivada comum e a derivada funcional
comutam e índices repetidos se somam. Usando:
∂i
[
∂f
∂(∂iφ(~x))
δ(~x− ~y)
]
= δ(~x− ~y)∂i ∂f
∂(∂iφ(~x))
+
∂f
∂(∂iφ(~x))
∂iδ(~x− ~y),
integrando por partes no último termo, desprezando termos de superfície e fazendo
a integral em ~x obtemos:
δF
δφ(~y)
=
∂f
∂φ(~y)
− ∂i ∂f
∂∂iφ(~y)
, (7.80)
cuja solução estacionária é semelhante a equação de movimento da mecânica La-
grangeana.
Após a transformada de Legendre que leva de A para F podemos obter a
inversa da função de correlação derivando F respeito de 〈φi(~x)〉. Fazemos isto
em dois passos: primeiro derivamos 〈φi(~x)〉 respeito de 〈φk(~x′′)〉:
δ〈φi(~x)〉
δ〈φk(~x′′)〉 = δikδ(~x− ~x
′′)
=
∫
ddx′
δ〈φi(~x)〉
δhj(~x′)
δhj(~x
′)
δ〈φk(~x′′)〉 . (7.81)
onde se fez uso da regra da cadeia na derivada funcional e índices repetidos estão
somados. Ainversa de χij(~x, ~x′) é definida na forma:∫
ddx′χij(~x, ~x′)χ−1jk (~x
′, ~x′′) = δikδ(~x− ~x′′). (7.82)
Comparando as duas últimas identidades e usando a definição da susceptibilidade
obtemos:
χ−1ij (~x, ~x
′) =
δhi(~x)
δ〈φj(~x′)〉 =
δ2F
δ〈φj(~x′)〉δ〈φi(~x)〉 . (7.83)
Daniel A. Stariolo - IF-UFRGS - 2014 121
7.5.1 Correlações na teoria de Landau
Vamos calcular agora as funções de correlação e susceptibilidade partindo da ener-
gia livre de Landau para um campo escalar:
F =
∫
ddx f(T, 〈φ(~x)〉) +
∫
ddx
1
2
c [∇〈φ(~x)〉]2. (7.84)
Substituindo para a densidade de energia livre a forma (7.47) com h = 0,
obtemos:
χ−1(~x, ~x′) =
δ2F
δ〈φ(~x)〉δ〈φ(~x′)〉
= (r + 12u 〈φ(~x)〉2 − c∇2)δ(~x− ~x′). (7.85)
O último termo corresponde ao operador Laplaciano, e se obtém após integrar
por partes a variação do termo do gradiente quadrado, e desprezar um termo de
superfície:
δ
δφ(~x′)
∫
ddx ∂iφ(~x)∂iφ(~x) =
∫
ddx
δ
δφ(~x′)
[∂iφ(~x)∂iφ(~x)]
=
∫
ddx
[
2∂iφ(~x)
(
δ
δφ(~x′)
∂iφ(~x)
)]
= 2
∫
ddx ∂iφ(~x)∂i
δφ(~x)
δφ(~x′)
= 2
∫
ddx ∂iφ(~x)∂iδ(~x− ~x′). (7.86)
Usando
∂i [∂iφ(~x)δ(~x− ~x′)] = ∂2i φ(~x)δ(~x− ~x′) + ∂iφ(~x)∂iδ(~x− ~x′), (7.87)
e desprezando o termo de superfície, obtemos:
δ
δφ(~x′)
∫
ddx ∂iφ(~x)∂iφ(~x) = −2
∫
ddx ∂2i φ(~x)δ(~x−~x′) = −2∂2i φ(~x′). (7.88)
Finalmente,
δ
δφ(~x)
(−2∂2i φ(~x′)) = −2∂2i δ(~x− ~x′), (7.89)
que leva ao resultado em (7.85). O mesmo resultado pode ser obtido diretamente
aplicando a expressão geral obtida em (7.80).
Daniel A. Stariolo - IF-UFRGS - 2014 122
Usando agora a relação (7.82), que define a inversa de χ, obtemos:
(r + 12u 〈φ(~x)〉2 − c∇2)χ(~x, ~x′) = δ(~x− ~x′), (7.90)
ou, usando (7.69):
(r + 12u 〈φ(~x)〉2 − c∇2)G(~x, ~x′) = T δ(~x− ~x′). (7.91)
A solução geral destas equações é complicada pela dependência em 〈φ(~x)〉2.
Assumindo que o sistema apresenta invariância translacional é possível resolver
para χ(~x, ~x′) por transformanda de Fourier:
χ(~q) =
∫
ddxχ(~x) e−i~q·~x (7.92)
Se o parâmetro de ordem é homogêneo e dado pela solução de campo médio de
Landau obtemos:
χ(~q) =
1
r + 12u 〈φ〉2 + cq2
=
1
1 + (qζ)2
, (7.93)
onde
ζ(T ) =
(
c
r + 12u 〈φ〉2
)1/2
(7.94)
tem unidades de comprimento. Fazendo a transformada inversa de Fourier da
susceptibilidade, ou da função de correlação que é equivalente, é possível mostrar
que ζ(T ) é um comprimento de correlação. Usando a solução de campo médio
para 〈φ〉 se obtém:
ζ(T ) =
{
(c/r)1/2 se T > Tc
(c/(−2r))1/2 se T < Tc (7.95)
Então, vemos que próximo do ponto crítico ζ ∼ |T − Tc|−ν , onde ν = 1/2 é o
expoente crítico do comprimento de correlação. Em sistemas tridimensionais o
valor real de ν está em torno de 2/3.
A existência de um comprimento de correlação é um dos conceitos centrais na
física da matéria condensada. A própria idéia de condensado implica a existência
de uma região onde as partículas estão fortemente correlacionadas. A extensão
Daniel A. Stariolo - IF-UFRGS - 2014 123
desta região depende de parâmetros externos, como a temperatura, ou pressão.
Uma das características do fenômeno de invariância de escala no ponto crítico é a
divergência do comprimento de correlação, ou seja, todo o sistema está fortemente
correlacionado em Tc.
A forma da susceptibilidade (7.93) foi obtida pela primeira vez por Ornstein
e Zernicke na análise do ponto crítico gás-líquido. A transformada inversa de
Fourier permite obter a função de correlação espacial de dois pontos:
χ(~x) =
∫
ddq
(2π)d
ei~q·~x
1 + (qζ)2
=
Ωd
(2π)d
∫
qd−1dq
1 + (qζ)2
(
1
qr
)(d−2)/2
J(d−2)/2(qr) (7.96)
onde Ωd é o ângulo sólido d-dimensional e Jn(x) é uma função de Bessel. A
integral no vetor de onda resulta em:
χ(r) ∝
(
1
ζr
)(d−2)/2
K(d−2)/2
(
r
ζ
)
, (7.97)
onde Kµ(x) é uma função de Bessel modificada. Para x≫ 1, Kµ(x) ≈ x−1/2e−x.
Então, para distâncias grandes comparadas com o comprimento de correlção, a
função de correlação de dois pontos se comporta como:
G(r) = Tχ(r) ∝ e
−r/ζ
r(d−1)/2
(7.98)
Notamos que no ponto crítico T = Tc as correlações espaciais decaem algebrica-
mente com r−(d−1)/2. Para T 6= Tc as correlações decaem de forma exponencial
em uma escala dada pelo comprimento de correlação ζ(T ).
7.6 Sistemas com simetria O(n)
Sistemas com simetria O(n) possuem um parâmetro de ordem vetorial com n
componentes. Na fase desordenada, o Hamiltoniano tem que ser invariante frente
a rotações no espaço n-dimensional do parâmetro de ordem. Casos particulares
são o modelo de Ising, com n = 1, que já analizamos. O modelo XY, que é um
modelo de rotores no plano, com n = 2. O modelo de Heisenberg para a transição
ferromagnética, com n = 3.
Daniel A. Stariolo - IF-UFRGS - 2014 124
A energia livre de Landau do modelo O(n) é análoga a do modelo com si-
metria Ising (7.47). A única diferença é que, devido a simetria rotacional da fase
paramagnética, a energia livre deve depender de:
|〈~φ〉|2 ≡ 〈φ〉2 =
n∑
i=1
〈φi〉2, (7.99)
que é invariante por rotações. Em presença de um campo externo hi na direção i
a equação de estado resulta:
∂f
∂φi
= (r + 4u〈φ〉2)〈φi〉 = hi. (7.100)
Acima da temperatura crítica, ou seja, se r > 0, a única solução com hi = 0 é que
todas as componentes do parâmetro de ordem sejam nulas. Então:
〈φ〉 =
{
0 se T > Tc;
(−r/4u)1/2ei se T < Tc. (7.101)
onde ~e é um vetor unitário arbitrário no espaço do parâmetro de ordem. O com-
portamento é o mesmo do modelo de Ising, e então o modelo O(n) sofre uma
transição de fase de segunda ordem, com expoentes críticos β, γ, δ e ν iguais aos
do modelo de Ising. No entanto, diferentemente ao modelo de Ising que quebra
uma simetria discreta, a arbitrariedade do vetor unitário ~e que define a direção de
ordenamento do sistema, indica que uma simetria continua foi quebrada, como
mostrado na figura 7.7 para o caso XY (n = 2).
A quebra de uma simetria continua traz profundas consequências no compor-
tamento das funções de correlação e susceptibilidades para T < Tc. Como já
visto, a função de correlação conectada entre as componentes i e j do parâmetro
de ordem é dada por:
Gij(~x, ~x
′) = 〈φi(~x)φj(~x′)〉 − 〈φi(~x)〉〈φj(~x′)〉. (7.102)
Esta correlação pode ser decomposta em duas partes, correspondentes a correla-
ções entre as componentes paralela e perpendiculares à direção de ordenamento
do sistema:
Gij(~x, ~x
′) = G‖(~x, ~x′) eiej +G⊥(~x, ~x′)(δij − eiej). (7.103)
Se a direção de ordenamento é o eixo definido por e1, então ~e = (1, 0, 0, . . .) e
obtemos:
G11(~x, ~x
′) = G‖(~x, ~x′) = 〈φ1(~x)φ1(~x′)〉 − 〈φ1(~x)〉〈φ1(~x′)〉, (7.104)
Gii(~x, ~x
′) = G⊥(~x, ~x′) = 〈φi(~x)φi(~x′)〉 − 〈φi(~x)〉〈φi(~x′)〉, (i 6= 1).
Daniel A. Stariolo - IF-UFRGS - 2014 125
Figura 7.7: A parte homogênea da energia livre de Landau para o modelo O(2).
Derivando a energia livre de Landau respeito de φi(~x) e φj(~x′) e transformando
Fourier obtemos o tensor de susceptibilidade:
χ−1ij (~q) = TG
−1
ij (~q) = (r + 4u〈φ〉2 + cq2)δij + 8u〈φi〉〈φj〉, (7.105)
ou, em termos das componentes paralelas e perpendiculares:
χ−1‖ = r + 12u〈φ〉2 + c q2 (7.106)
e
χ−1⊥ (~q) = r + 4u〈φ〉2 + c q2 =
{
r + c q2 se T > Tc;
c q2 se T < Tc.
(7.107)
Notamos que a componente paralela tem o mesmo comportamento que no modelo
de Ising. No entanto, na fase ordenada para T < Tc, na direção perpendicular a
susceptibilidade ou as correlações G⊥(~q) = Tχ⊥(~q) têm um comportamento com
lei de potência:
G⊥(~q) =
T
cq2
. (7.108)
No espaço real as correlações também decaem algebricamente:
G⊥(~x, 0) ∼ |x|−(d−2). (7.109)
Daniel A. Stariolo - IF-UFRGS - 2014 126
Como a suscpetibilidade global é dada por χij = lim~q→0 βGij(~q), o resultado
anterior implica que o sistema possui susceptibilidade transversal infinita na fasede baixa temperatura com simetria quebrada. Ou seja, é necessário um campo
externo arbitrariamente pequeno para mudar o valor (ou melhor, a direção) do pa-
râmetro de ordem. Isto pode ser interpretado fisicamente pela estrutura da energia
livre de Landau da figura 7.7. Da figura fica evidente que f possui um número
infinito de mínimos para T < Tc, e se pode passar continuamente de um mínimo
para outro. Ou seja, não custa energia ir de um mínimo qualquer a um outro qual-
quer. No entanto, na direção paralela a situação é diferente: existe uma penalidade
energética para mudar o módulo do parâmetro de ordem.
O comportamento da componente transversal da susceptibilidade (7.107) in-
dica que, em termos de modos no espaço de Fourier, a susceptibilidade aumenta
de forma ilimitada para modos de comprimento de onda grande e é infinita para
λ → ∞. Em outras palavras, a flutuação na energia de Landau f pode ser feita
arbitrariamente pequena para flutuações de comprimento de onda suficientemente
grandes. No caso do modelo O(2) da figura vemos que existe exatamente um
modo perpendicular à direção de ordenamento com excesso de energia livre arbi-
trariamente pequena. Em geral, em um modelo com simetria O(n) haverá um
modo deste tipo por cada direção transversal, ou seja um total de n − 1 mo-
dos transversais de baixa energia, chamados modos de Goldstone. Os modos de
Goldstone se manifestam matematicamente como polos em ~q = 0 na componente
transversal da susceptibilidade, como se ve em (7.107) na fase de simetria ro-
tacional quebrada. Exemplos de modos de Goldstone são as ondas de spin, ou
mágnons em sistemas ferromagnéticos e também os fônons, ou oscilações da rede
cristalina associados a quebra da simetria por translações no espaço. Ambas fenô-
menos correspondem a excitações de baixa energia dos respectivos sistemas e são
consequência da quebra de simetrias continuas.
7.7 Validade da teoria de campo médio: o critério
de Ginzburg
Como temos visto, a aproximação de campo médio consiste essencialmente em
substituir um parâmetro de ordem que flutua localmente por um parâmetro médio
espacialmente constante. Por tanto, a aproximação de campo médio será boa
sempre que as flutuações do parâmetro de ordem respeito do seu valor médio
sejam pequenas. Uma medida da importância das flutuações do parâmetro de
Daniel A. Stariolo - IF-UFRGS - 2014 127
ordem pode ser obtida calculando o valor médio de δφ(~x) = φ(~x) − 〈φ(~x)〉 em
um volume da ordem Vζ ≈ ζd (V. L. Ginzburg, 1960), onde ζ é da ordem do
comprimento de correlação.
O desvio do parâmetro de ordem respeito do seu valor médio no volume Vζ é
dado por:
δφζ ≡ V −1ζ
∫
Vζ
ddx δφ(~x). (7.110)
As flutuações serão desprezíveis se 〈(δφζ)2〉 for muito menor que 〈φ〉2 na fase
ordenada, ou seja, se
V −2ζ
∫
Vζ
ddx ddx′ 〈δφ(~x)δφ(~x′)〉 = V −1ζ
∫
Vζ
ddxG(~x) < 〈φ〉2, (7.111)
onde G(~x) é a função de correlação (conectada) do parâmetro de ordem e foi
assumida invariância translacional. Como a aproximação de campo médio fornece
uma predição para a função de correlação e para o parâmetro de ordem, a própria
aproximação possui um teste de consistência interna.
Vamos analizar o critério de Ginzburg para uma teoria com campo escalar
φ4, usando os resultados conhecidos para 〈φ〉 e para G(~x, ~x′) = Tχ(~x, ~x′). A
susceptibilidade generalizada é dada por (7.93):
χ(~x) = χ
∫
ddq
(2π)d
ei~q·~x
1 + (qζ)2
= c−1|~x|−(d−2)Y (|~x|/ζ), (7.112)
onde
Y (η) =
∫ ∞
0
zd−1dz
∫
dΩd
(2π)d
eiz cos θ
[z2 + η2]
(7.113)
Obtemos:
〈(δφζ)2〉 = TV −1ζ c−1
∫
Vζ
ddx |~x|−(d−2)Y (|~x|/ζ)
= TV −1ζ c
−1
∫
dΩd
∫ ζ
0
(dr rd−1) r−(d−2)Y (r/ζ)
= TV −1ζ c
−1ζ2
∫
dΩd
∫ 1
0
dz z Y (z)
=
AdTζ
−(d−2)
c
< 〈φ〉2 = |r|
4u
, (7.114)
Daniel A. Stariolo - IF-UFRGS - 2014 128
onde ζ = (c/|r|)1/2 é o comprimento de correlação e Ad é uma constante que
depende da dimensão d. Definindo um comprimento de correlação microscópico
ζ(T = 0) = ζ0 = (c/aTc)
1/2 e o valor do salto no calor específico na transição
∆cV = Tca
2/8u (ver equação (7.55)), podemos reescrever o resultado anterior de
forma adimensional:(
ζ
ζ0
)d−4
=
(
T − Tc
Tc
)(4−d)/2
>
Ad
2∆cV ζ
d
0
. (7.115)
A relação anterior nos diz que para d > 4, como ζd−4 → ∞ quando T → Tc, a
desigualdade anterior sempre é satisfeita próximo da transição. No entanto, para
d < 4, como ζd−4 → 0 quando T → Tc, a desigualdade nunca é satisfeita perto de
Tc. Então podemos concluir que a aproximação de campo médio será satisfatória
para dimensão d > 4, mas não será consistente para d < 4, em teorias φ4. A
dimensão ds = 4 que representa um limite para a validade da aproximação de
campo médio, se conhece como dimensão crítica superior. A dimensão crítica
superior depende, assim como os expoentes críticos, da simetria do parâmetro de
ordem e do alcance das interações.
Para um sistema qualquer, com expoentes críticos de campo médio β, γ, ν,
devemos levar em conta que Tχ ∼ |T − Tc|−γ e 〈φ〉 ∼ |T − Tc|β. Então, des-
considerando fatores constantes de ordem um, o critério de Ginzburg é satisfeito
se:
t−γ ≪ t2β−νd, (7.116)
onde t = |T − Tc|/Tc é a temperatura reduzida. Então, para um sistema geral, a
dimensão crítica superior é determinada pela condição:
d >
2β + γ
ν
≡ ds. (7.117)
Para dimensões d < ds, a aproximação de campo médio poderá ser válida para
temperaturas suficientemente longe de Tc, sempre que a desigualdade (7.115), ou
em geral (7.116), seja satisfeita. A medida que T se aproxima de Tc as flutações
se tornam cada vez mais importantes. A temperatura que define a identidade na
equação (7.115) é conhecida como temperatura de Ginzburg:
tG =
|TG − Tc|
Tc
=
(
Ad
2∆cV ζd0
)2/(4−d)
. (7.118)
De forma equivalente, é possível definir o comprimento de Ginzburg ζG, na forma:
ζ4−dG ∼ ∆cV ζ40 = c2/(8uTc), (7.119)
Daniel A. Stariolo - IF-UFRGS - 2014 129
ou
ζG ∼ ζ0(∆cV ζd0 )1/(4−d). (7.120)
A teoria de campo médio é válida quando t > tG ou ζ < ζG.
Notar que |TG − Tc| → 0 se ζ0 → ∞ para d < 4. Isto quer dizer que o
campo médio será válido até temperaturas muito próximas de Tc se o compri-
mento de correlação microscópico for grande, mesmo para d < ds. Este é o
caso em sistemas com interações de longo alcance ou em supercondutores, por
exemplo. Quando ζ0, ou |TG − Tc| não é pequena, se espera que aconteça um
“crossover”, ou mudança de regime, de um comportamento de campo médio para
um comportamento crítico quando a temperatura reduzida t = (T −Tc)/Tc for da
ordem da temperatura reduzida de Ginzburg tG. A figura (7.8) mostra de forma
esquemática o crossover no comportamento da inversa da susceptibilidade.
Figura 7.8: Representação esquemática do crossover de campo médio para com-
portamento crítico na inversa da susceptibilidade .
O critério de Ginzburg permite entender por qué em alguns sistemas a apro-
Daniel A. Stariolo - IF-UFRGS - 2014 130
ximação de campo médio pode ser muito boa e em outros não. Uma transição
que é descrita de forma satisfatória pela teoria de campo médio é a transição me-
tal normal-supercondutor. Na figura (7.9) vemos medidas do parâmetro de or-
dem e de calores específicos para esta transição, junto com predições da teoria
BCS (Bardeen-Cooper-Schrieffer, 1957), que é uma teoria de campo médio para
a transição supercondutora.
Figura 7.9: O parâmetro de ordem e calores específicos na transição metal normal-
supercondutor, para diversos materiais, junto com predições de campo médio.
O calor específico apresenta uma discontinuidade finita em Tc, de acordo com
a predição de campo médio. A temperaturas baixas, cs vá a zero exponencial-
mente, fato este de natureza quântica e não explicado pelo campo médio consi-
derado. O parâmetro de ordem va a zero como (T − Tc)1/2, em completo acordo
com campo médio, e satura para temperaturas baixas. O saltono calor especí-
fico em alumínio é da ordem de 2 × 104 ergmole−1K. O parâmetro de rede em
Al é 4Å, e o comprimento de correlação microscópico é ζ0 ≈ 1.6 × 104Å. En-
tão, ∆cV ≈ 2 × 105/42 erg cm−3K−1, resultando uma temperatura de Ginzburg
Daniel A. Stariolo - IF-UFRGS - 2014 131
tG ≈ 10−16 ! A temperatura crítica em Al é 1.19K e por tanto é praticamente
impossível aceder à região crítica. Neste caso, o motivo para uma TG tão pequena
é o enorme valor do comprimento de correlação microscópico em relação à cons-
tante da rede. Este comportamento é observado na maioria dos supercondutores,
o que resultou no éxito da teoria BCS. Na década dos oitenta foram descobertos
novos compostos supercondutores, chamados supercondutores de alta tempera-
tura crítica, pois a supercondutividade é observada até temperaturas da ordem de
100K. A teoria BCS se mostrou insatisfatória para descrever esta classe de su-
percondutores. Os mecanismos microscópicos por trás da supercondutividade de
alta temperatura crítica ainda são desconhecidos.
Referências Bibliográficas
[1] R. K. Pathria and P. D. Beale, Statistical Mechanics, 3rd edition, Elsevier.
[2] K. Huang, Statistical Mechanics, John Wiley & Sons.
[3] L. E. Reichl, A Modern Course in Statistical Physics, John Wiley & Sons.
[4] S. R. A. Salinas, Introdução à Física Estatística, Edusp.
[5] P. M. Chaikin and T. C. Lubensky, Principles of Condensed Matter Physics,
Cambridge University Press.
[6] N. Goldenfeld, Lectures on Phase Transitions and the Renormalization
Group, Addison-Wesley.
[7] L. D. Landau and E. M. Lifshitz, Statistical Physics - Pergamon Press.
[8] N. W. Ashcroft and N. D. Mermin, Solid State Physics, Sounders College.
132

Mais conteúdos dessa disciplina