Prévia do material em texto
Mecânica Estatística Daniel A. Stariolo Programa de Pós-Graduação em Física Instituto de Física Universidade Federal do Rio Grande do Sul 2014 i Sumário 1 Fundamentos da Mecânica Estatística 1 1.1 O que é a Mecânica Estatística ? . . . . . . . . . . . . . . . . . . 2 1.2 Ergodicidade e equilíbrio . . . . . . . . . . . . . . . . . . . . . . 3 1.2.1 O Teorema de Liouville . . . . . . . . . . . . . . . . . . 3 1.2.2 A hipótese ergódica . . . . . . . . . . . . . . . . . . . . 6 1.3 Sistemas quânticos . . . . . . . . . . . . . . . . . . . . . . . . . 8 2 Teoria de ensembles estatísticos 12 2.1 O ensemble microcanônico . . . . . . . . . . . . . . . . . . . . . 12 2.1.1 Gás ideal monoatômico clássico . . . . . . . . . . . . . . 15 2.1.2 A formulação de Gibbs . . . . . . . . . . . . . . . . . . . 17 2.2 O ensemble canônico . . . . . . . . . . . . . . . . . . . . . . . . 19 2.2.1 A densidade de estados e a função de partição . . . . . . . 21 2.2.2 Flutuações da energia . . . . . . . . . . . . . . . . . . . . 22 2.2.3 Gás ideal no ensemble canônico . . . . . . . . . . . . . . 25 2.3 Fluidos clássicos não ideais . . . . . . . . . . . . . . . . . . . . . 26 2.4 O ensemble Grande Canônico . . . . . . . . . . . . . . . . . . . 33 2.4.1 Flutuações no número de partículas . . . . . . . . . . . . 36 2.4.2 Adsorção em superfícies . . . . . . . . . . . . . . . . . . 38 3 Estatísticas quânticas 42 3.1 Sistemas de partículas indistinguíveis . . . . . . . . . . . . . . . 42 3.2 Gases ideais quânticos . . . . . . . . . . . . . . . . . . . . . . . 47 3.2.1 O gás de Maxwell-Boltzmann e o limite clássico . . . . . 47 3.2.2 Estatística de Bose-Einstein . . . . . . . . . . . . . . . . 51 3.2.3 Estatística de Fermi-Dirac . . . . . . . . . . . . . . . . . 51 ii Daniel A. Stariolo - IF-UFRGS - 2014 iii 4 Gás ideal de Bose-Einstein 52 4.1 A condensação de Bose-Einstein . . . . . . . . . . . . . . . . . . 52 4.2 Radiação de corpo negro . . . . . . . . . . . . . . . . . . . . . . 63 4.2.1 A lei de Planck . . . . . . . . . . . . . . . . . . . . . . . 64 4.2.2 O gás de fótons . . . . . . . . . . . . . . . . . . . . . . . 66 5 Gás ideal de Fermi-Dirac 68 5.1 Gás de Fermi completamente degenerado (T = 0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 5.2 Gás de Fermi degenerado (T ≪ TF ) . . . . . . . . . . . . . . . . 71 5.3 Magnetismo em um gás ideal de férmions . . . . . . . . . . . . . 75 5.3.1 Paramagnetismo de Pauli . . . . . . . . . . . . . . . . . . 75 6 Interações, simetrias e ordem em matéria condensada 81 6.1 Líquidos e gases . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 6.2 Redes cristalinas . . . . . . . . . . . . . . . . . . . . . . . . . . 82 6.3 Sistemas magnéticos . . . . . . . . . . . . . . . . . . . . . . . . 85 6.4 Entre os líquidos e os cristais: os cristais líquidos . . . . . . . . . 89 6.5 Simetrias e parâmetros de ordem . . . . . . . . . . . . . . . . . . 95 7 Transições de fase e fenômenos críticos 98 7.1 O modelo de Ising em d = 1: solução exata . . . . . . . . . . . . 98 7.2 Teoria de campo médio do modelo de Ising . . . . . . . . . . . . 103 7.2.1 Aproximação de Bragg-Williams . . . . . . . . . . . . . 103 7.3 A teoria de Landau de transições de fase . . . . . . . . . . . . . . 108 7.3.1 Transições de fase continuas . . . . . . . . . . . . . . . . 109 7.3.2 Transições de primeira ordem na teoria de Landau . . . . 113 7.4 Flutuações do parâmetro de ordem . . . . . . . . . . . . . . . . . 114 7.5 Funções de correlação . . . . . . . . . . . . . . . . . . . . . . . . 117 7.5.1 Correlações na teoria de Landau . . . . . . . . . . . . . . 121 7.6 Sistemas com simetria O(n) . . . . . . . . . . . . . . . . . . . . 123 7.7 Validade da teoria de campo médio: o critério de Ginzburg . . . . 126 Referências Bibliográficas 132 Capítulo 1 Fundamentos da Mecânica Estatística 1 Daniel A. Stariolo - IF-UFRGS - 2014 2 1.1 O que é a Mecânica Estatística ? A Termodinâmica é uma teoria macroscópica, com um formalismo elegante, de grande generalidade, construido sobre poucas hipóteses fundamentais. O conceito central da termodinâmica é a entropia, a qual é definida de forma um tanto abs- trata, através de um princípio variacional que determina que, em um sistema isolado, o estado de equilíbrio termodinâmico do sistema é aquele estado macros- cópico para o qual a entropia é máxima. A Termodinâmica descreve os efeitos macroscópicos de sistemas formados por um grande número de entes microscó- picos, sejam partículas, células, spins, etc. que obedecem as leis fundamentais da Mecânica Clássica (leis de Newton) ou da Mecânica Quântica (equação de Sch- roedinger), segundo o caso. Uma descrição microscópica destes sistemas deve então partir necessariamente das leis da Mecânica. A Mecânica Estatística é uma teoria probabilística que estabelece a conexão entre os dois níveis de descrição: o macroscópico (Termodinâmica) e o microscópico (Mecânica). Ao tentar descrever as propriedades de um sistema formado por um grande número de partículas se torna necessário recorrer a uma descrição probabilística do estado de um sistema. Um estado microscópico, ou microestado de um sis- tema de N partículas, corresponde ao conjunto dos graus de liberdade do mesmo, por exemplo as 3N coordenadas e os 3N momentos generalizados em um sis- tema clássico, ou ao conjunto de números quânticos que caracterizam a função de onda de um sistema. O conjunto de microestados compatíveis com os valores das variáveis macroscópicas do sistema , como a energia interna U , o volume V e o número de partículas N , constitui um macroestado ou estado macroscópico. Descrever o estado microscópico exato de um conjunto de N partículas para todo tempo é uma tarefa formidável. No entanto, o estado de equilíbrio termo- dinâmico é determinado em função de umas poucas variáveis. Além do mais, de um ponto de vista prático ou aplicado, resulta mais importante conhecer proprie- dades globais ou macroscópicas da matéria, como a temperatura ou a pressão, do que a posição e velocidade de um partícula individual em um gás ou líquido. O programa da Mecânica Estatística é associar um peso ou probabilidade de ocor- rência aos diferentes microestados e predizer o resultado médio de um conjunto grande de medidas de um observável dado. A própria teoria fornece, por sua vez, uma predição das flutuações que podem ocorrer nestas medidas. Como estamos falando de resultados médios em um número grande de medidas ou observações, vamos desenvolver um formalismo de ensembles ou conjunto de sistemas idên- ticos, em oposição a análise de um sistema particular. Essa é outra característica fundamental da Mecânica Estatística. Daniel A. Stariolo - IF-UFRGS - 2014 3 A Mecânica Estatística moderna, tal vez mais do que qualquer outra área da Física, encontra aplicações em praticamente todas as ciências exatas e além. Em- bora se originou do esforço de encontrar uma conexão entre a mecânica das partí- culas e a Termodinâmica, o formalismo estatístico se mostrou extremamente geral e útil na predição de propriedades tão díspares quanto a ocorrência ou não de su- percondutividade de um material, a evolução de preços de produtos na bolsa de valores, a probabilidade de ocorrência de um terremoto ou a morfologia típica de uma colônia de células em um tecido vivo. Por motivos históricos, a Mecânica Estatística foi desenvolvida inicialmente para predizer propriedades macroscópicas de sistemas em equilíbrio termodinâ- mico. Nesse caso falamos de Mecânica Estatística do equilíbrio. No entanto, os fundamentos da Mecânica Estatística estão na Mecânica, ou seja, nos sistemas dinâmicos. A grande maioria dos sistemas de interesse , físicos ou não, não se encontram em equilíbrio, como por exemplo os sistemas biológicos ou problemas dinâmicos como a evolução de preços nas bolsas de valores.Para descrever estes sistemas em uma abordagem probabilistica é necessário desenvolver uma Mecâ- nica Estatística fora do equilíbrio, os métodos para descrever o equilíbrio não são suficientes e novas técnicas são necessárias para lidar com a variável temporal. Embora muito se sabe na atualidade sobre processos fora do equilíbrio, ainda não se conta com um formalismo razoavelmente simples, compacto e poderoso, como a teoria de ensembles para o equilíbrio. No presente curso, de extensão semestral, faremos apenas uma abordagem inicial ao problema dinâmico, com o único in- tuito de conectar o problema mecânico com o equilíbrio estatístico. Um conceito fundamental neste caminho é o de ergodicidade. 1.2 Ergodicidade e equilíbrio 1.2.1 O Teorema de Liouville Consideremos um sistema clássico de N partículas, isolado em um volume V , cuja dinâmica obedece as equações de Hamilton. Um microestado deste sistema fica definido pelos valores instantâneos das 3N coordenadas generalizadas qi e os 3N momentos generalizados pi: dqi dt = ∂H(p, q) ∂pi dpi dt = −∂H(p, q) ∂qi (1.1) Daniel A. Stariolo - IF-UFRGS - 2014 4 onde i = 1, . . . , 3N , H(p, q) é o Hamiltoniano do sistema e (p, q) representa um vetor do espaço de fase com 6N componentes. Como o sistema é isolado, H não depende explicitamente do tempo, o sistema é conservativo e H é uma constante do movimento que corresponde a energia mecânica: H(p, q) = E. (1.2) A identidade anterior define uma superfície de energia no espaço de fase. A evo- lução do sistema conservativo é descrita por uma trajetória ou curva no espaço de fase sobre a superfície de energia. Como na Mecânica Clássica cada condição inicial (p0, q0) determina de forma unívoca e evolução do sistema, trajetórias no espaço de fase nunca se cruzam. Para uma dada energia E do sistema, existe um conjunto infinito de microes- tados. Definimos a função ρ(p, q, t) como sendo a densidade de probabilidade de encontrar o sistema em um elemento de volume dp dq no espaço de fase ao tempo t. O conjunto de pontos (p, q) cuja probabilidade ao tempo t é ρ(p, q, t)dp dq for- mam um ensemble estatístico. Cada ponto representa uma cópia exata do sistema em um microestado diferente. O conceito de ensemble estatístico foi introdu- zido por Josiah Willard Gibbs (1839-1903) na segunda metade do século XIX e ocupa um rol fundamental no formalismo e interpretação da Mecânica Estatística do equilíbrio. A densidade de probabilidade deve estar normalizada para todo tempo: ∫ Γ ρ(p, q, t) dp dq = 1, (1.3) onde a integração se extende a todo o espaço de fase Γ. Para obter as equações que regem a dinâmica do sistema de N partículas co- meçamos considerando que o número de partículas se deve conservar. Considere- mos a probabilidade de encontrar o sistema dentro de um volume V0, limitado por uma superfície S0. A medida que o tempo passa algumas trajetórias saem de V0 e a probabilidade correspondente P (V0) muda. Como a probabilidade total é con- servada, eq. (1.3), e as trajetórias não se cruzam, a variação da probabilidade no volume V0 deve corresponder ao fluxo da mesma através da superfície S0, como acontece em um fluido: dP (V0) dt = ∂ ∂t ∫ V0 ρ(p, q, t) dp dq = − ∫ S0 ~n · ~J dS (1.4) onde ~J = ~vρ é uma corrente de probabilidade, ~v = {q˙i, p˙i} é a velocidade (genera- lizada) de um ponto no espaço de fase e ~n é um vetor unitário normal à superfície Daniel A. Stariolo - IF-UFRGS - 2014 5 S0. Usando o Teorema de Gauss:∫ V0 ∂ ∂t ρ(p, q, t) dp dq = − ∫ V0 (~∇ · ~J) dp dq (1.5) Como V0 é arbitrário então: dρ dt + ~∇ · (~vρ) = 0 (1.6) Mas ~∇ · ~v = ∂q˙ ∂q + ∂p˙ ∂p = 3N∑ i=1 [ ∂ ∂qi ( ∂H ∂pi ) + ∂ ∂pi ( −∂H ∂qi )] = 0 (1.7) Então: ∂ρ ∂t + ~v · ~∇ρ = 0 ou dρ dt = 0 (1.8) A equação anterior se conhece como o Teorema de Liouville. Diz que a derivada total, ou derivada convectiva de ρ no espaço de fase Γ é nula para qualquer ponto e qualquer instante. Podemos interpretar então a evolução dos pontos do ensemble estatístico no espaço de fase como sendo análogos a um fluido incompressível. Notando que ~v · ~∇ρ = q˙ ∂ρ ∂q + p˙ ∂ρ ∂p = ∂H ∂p ∂ρ ∂q − ∂H ∂q ∂ρ ∂p = {ρ,H} , (1.9) onde {ρ,H} é o parêntese de Poisson entre ρ e H , podemos reescrever o Teorema de Liouville da seguinte forma: ∂ρ ∂t = −{ρ,H} . (1.10) Em equilíbrio, ρ não depende explicitamente do tempo, é uma constante do mo- vimento, e então {ρ,H} = 0. Esta condição se pode satisfazer, por exemplo, se ρ for uma função explícita de H , ou seja, se ρ(p, q) ≡ ρ[H(p, q)]. O caso mais sim- ples corresponde a ρ = cte. Agora estamos em condições de enunciar o Postulado Fundamental da Mecânica Estatística. Daniel A. Stariolo - IF-UFRGS - 2014 6 Postulado de igual probabilidade a priori Para formular o mesmo de forma transparente conceitualmente, vamos relaxar a condição que a energia seja estritamente constante, permitindo então que flutue entre dois valores próximos E e E + ∆, com ∆ ≪ E. Isto pode ser justificado pelo fato de, na realidade, não existirem sistemas perfeitamente isolados. A pos- teriori vamos ver que esta condição não afeta os resultados no limite de sistemas grandes, que serão independentes de ∆. No entanto, pode ser mostrar que a quan- tidade fundamental no postulado, que é o volume no espaço de fase ou número de microestados de energia E, Γ(E) , é uma função irregular de E, enquanto que a integral em um intervalo é bem comportada. Em um sistema em equilíbrio com energia entre E e E + ∆, todos os micro- estados acessíveis são igualmente prováveis. Formalmente: ρ(p, q) = { 1 Γ(E) se E ≤ H(p, q) ≤ E +∆ 0 caso contrário (1.11) onde Γ(E) = ∫ E≤H(p,q)≤E+∆ dp dq (1.12) é o volume do espaço de fase ocupado pelo sistema. Os pontos nesse volume definem um ensemble conhecido como o ensemble microcanônico. 1.2.2 A hipótese ergódica A média temporal de uma função f(p, q) ao longo de uma trajetória no intervalo de tempo (t0, t0 + T ) é definida como 〈f〉T = 1 T ∫ t0+T t0 f(p(t), q(t)) dt (1.13) A média de ensemble do mesmo observável é definida como 〈f〉e = ∫ f(p, q) ρ(p, q) dp dq (1.14) = 1 Γ(E) ∫ E≤H(p,q)≤E+∆ f(p, q) dp dq (1.15) Um sistema é considerado ergódico se 〈f〉 = 〈f〉e = limT→∞〈f〉T Daniel A. Stariolo - IF-UFRGS - 2014 7 A hipótese ergódica, introduzida por Ludwig Eduard Boltzmann (1844-1906), consiste em assumir que sistemas com N ≫ 1 são ergódicos. Este é um postulado que em geral só pode ser verificado “a posteriori”, pelas consequências sobre o comportamento do sistema. A ergodicidade de um sistema pode ser de utilidade para obter valores médios de observáveis em tempos relativamente curtos durante uma série de experimen- tos repetidos, ou então em uma série de simulações computacionais. Suponhamos que rodamos uma simulação de dinâmica molecular de um líquido clássico, e que- remos calcular o valor quadrático médio da velocidade das partículas. Se fazemos médias temporais deveremos tomar a média de velocidades instantâneas medi- das a intervalos mais ou menos regulares durante uma simulação muito longa, de forma a garantir que uma amostragem significativa das velocidades foi feita. No entanto, se contamos com a posibilidade de rodar muitas simulações idênticas em paralelo, poderemos apreitarmos da ergodicidade do sistema e calcular a mesma média tomando valores das velocidades nos diferentes sistemas, sendo que em cada um deles podemos rodar simulações de muito menos tempo. Ou seja, no primeiro caso fazemos uma média temporal, uma amostragem na linha do tempo, no segundo fazemos uma média no ensemble, uma série de amostragens menores nos diferentes sistemas. Se o sistema físico for ergódico, ambas a médias devem coincidir. A hipótese ergódica, de certa forma, justificao postulado e igual probabilidade a priori, pois implica que, se um sistema é ergódico, a fração de tempo que ele passa em uma região restrita do espaço de fase acessível é proporcional ao volume dessa região, e não as posições particulares na superfície de energia ocupadas pelo sistem em um determinado tempo. Isto se pode ver da seguinte forma: sejaR uma região com R ⊂ Γ. Definimos: φR(p, q) = { 1 se (p, q) ∈ R 0 caso contrário (1.16) O tempo que o sistema passa em R durante o intervalo T é dado por τR =∫ t0+T t0 φ(p(t), q(t)) dt. Se o sistema é ergódico lim T→∞ τR T ≡ 〈φ〉T = 1 Γ(E) ∫ E≤H(p,q)≤E+∆ φ(p, q) dp dq = Γ(R) Γ(E) , (1.17) ou seja, a fração de tempo que o sistema passa em uma dada região R é igual à fração de volume do espaço de fase ocupado pela mesma região. Daniel A. Stariolo - IF-UFRGS - 2014 8 Formalmente, é muito difícl demonstrar que um dado sistema Hamiltoniano é ergódico. Sistemas dissipativos, como um pêndulo amortecido, são claramente não-ergódicos, pois a tempos longos tendem a ficar confinados em um pequeno su- bespaço (chamado “atrator”) do espaço de fase acessível inicialmente. Mesmo em sistemas conservativos aparentemente simples, como no famoso problema dos três corpos interagindo gravitacionalmente, foi só no século XX que o Teorema KAM (de Kolmogorov, Arnold e Moser) mostrou que existe um conjunto de medida não nula de trajetórias no espaço de fase que ficam aproximadamente confinadas, e que correspondem a conjuntos particulares de condições iniciais. Essas trajetórias se encontram misturadas no espaço de fase a muitas outras com aparência mais caótica, ou “ergódicas”. Pensando que a existência desses estados previstos pelo Teorema KAM era uma propriedade exclusiva de sistemas formados por poucas partículas, depois da Segunda Guerra Mundial, Fermi, Pasta e Ulam fizeram uma das primeiras simulações computacionais de um sistema de osciladores anarmô- nicos unidimensionais com o intuito de estudar as propriedades de ergodicidade de um sistema de muitas partículas. Os resultados que obtiveram não foram os es- perados, de fato foi encontrado que a taxa de transferência de energia entre modos de oscilação era extremamente lenta e, nos tempos acessíveis da simulação, mui- tas condições iniciais levavam a trajetórias mais parecidas a ciclos limite do que a trajetórias ergódicas. De fato, ergodicidade é violada rigorosamente nas fases com simetrias quebradas nas transições de fases, como na passagem de um líquido a um sólido. O sistema no estado sólido não irá mais explorar todas as configu- rações de igual energia que o sistema original, no estado líquido, podia explorar. No entanto, essas limitações da hipótese ergódica, formais as vezes ou práticas em outras, não limitam de forma substancial o poder de predição da Mecânica Estatística do equilíbrio, como vamos ver no decorrer do curso. 1.3 Sistemas quânticos Em Mecânica Quântica os estados microscópicos de um sistema são definidos pela função de onde Ψ(q), solução da equação de Schrödinger. Como esta tem uma interpretação probabilística, intrínseca ao formalismo quântico, devemos redefinir o conceito de ensemble para sistemas quânticos. A função de onda Ψ(q) pode ser desenvolvida em termos dos elementos de uma base ortonormal de autofunções de algum operador: Ψ(q) = ∑ n cnφn(q) (1.18) Daniel A. Stariolo - IF-UFRGS - 2014 9 onde |cn|2 é a probabilidade de encontrar o sistema no autoestado φn. O valor esperado (quântico) de um observável Oˆ é dado por 〈Ψ|Oˆ|Ψ〉 = ∫ Ψ∗(q)OˆΨ(q) dq = ∑ m,n Omncnc ∗ m (1.19) onde Omn = 〈φm|Oˆ|φn〉 são os elementos de matriz do operador Oˆ na base consi- derada. Em um sistema formado por muitos corpos existirão muitos microestados Ψi(q) compatíveis com os vínculos macroscópicos, e estes serão a base para defi- nir um ensemble. Notar que, neste caso, Ψi(q) é uma função de onda de N corpos, a função de onda do sistema completo. Explicitamente: Ψi(q) = ∑ n cin φn(q) (1.20) e 〈Ψi|Oˆ|Ψi〉 = ∑ m,n Omnc i nc i∗ m (1.21) representa o valor esperado quântico do operador Oˆ no microestado Ψi(q). Se agora associamos a cada microestado uma probabilidade de ocorrência pi, a média de ensemble do observável Oˆ é dada por: 〈Oˆ〉 = ∑ i pi〈Ψi|Oˆ|Ψi〉 = ∑ i pi ∑ m,n Omnc i nc i∗ m (1.22) Podemos definir uma matriz de elementos ρnm: ρnm = ∑ i pic i nc i∗ m (1.23) tal que 〈Oˆ〉 = ∑ m,n ρnmOmn (1.24) O operador cujos elementos de matriz na base ortonormal de autoestados φn são os ρnm é conhecido como operador densidade ou matriz densidade: ρnm = ∫ φn(q) ρˆ φ ∗ m(q) dq ≡ 〈φn|ρˆ|φm〉 (1.25) Daniel A. Stariolo - IF-UFRGS - 2014 10 Com esta definição, a média no ensemble de um operador Oˆ pode ser escrita como 〈Oˆ〉 = ∑ n ( ρˆOˆ ) nn = Tr ρˆOˆ = Tr Oˆρˆ (1.26) Notemos que Tr ρˆ = ∑ n ρnn = ∑ i pi ∑ n |cn|2 = ∑ i pi = 1, (1.27) o que permite interpretar o elemento ρnn como a probabilidade de encontrar o sistema no autoestado φn. O operador densidade se pode expressar também em forma matricial: ρˆ = ∑ i piΨ iΨi† (1.28) onde Ψi = ci1 . . . cil . . . e Ψi† = ( ci∗1 , . . . c i∗ l , . . . ) (1.29) Os microestados satisfazem a equação de Schroedinger ih¯∂Ψi/∂t = HˆΨi. Trans- pondo e tomando o complexo conjugado obtemos: −ih¯∂Ψ i† ∂t = Ψi†Hˆ† = Ψi†Hˆ (1.30) onde usamos o fato que Hˆ é hermitiano. Com este resultado e a definição (1.28) pode-se mostrar que ρˆ satisfaz ih¯ ∂ρˆ ∂t = − [ ρˆ, Hˆ ] (1.31) onde o lado direito representa o comutador de ρˆ e Hˆ. Este resultado corresponde ao Teorema de Liouville para sistems quânticos descritos por uma matriz densi- dade ρˆ. Postulado de igual probabilidade a priori para um sistema quântico Daniel A. Stariolo - IF-UFRGS - 2014 11 Seja φn um autoestado de uma base ortonormal do Hamiltoniano Hˆ . En- tão Hˆφn = Enφn. Para um sistema isolado com energia entre E e E + ∆E, seja {φl, l = 1, . . . ,M(E)} o conjunto de autoestados de energia E. Então, o postulado de igual probabilidade a priori, para o caso de um sistema quântico, corresponde a ρll = { 1 M(E) para l = 1, 2, . . . ,M(E) 0 para o resto (1.32) Capítulo 2 Teoria de ensembles estatísticos 2.1 O ensemble microcanônico O postulado de igual probabilidade a priori permite determinar a probabilidade de encontrar o sistema em um microestado compatível com os vínculos macros- cópicos, e a partir da probabilidade podemos determinar valores médios de ob- serváveis como energia, magnetização, etc. Para obter uma conexão com a ter- modinâmica temos que estabelecer uma definição microscópica para a entropia, que é o potencial termodiâmico relevante em sistemas com energia fixa. Como a probabilidade é uma função do número de microestados, e ela é uma quantidade fundamental, é razoavel pensar que a entropia também será função do número de microestados. Em um distema quântico, com níveis de energia En discretos, a de- finição do número de microestados W (E) de energia E é imediato. No caso clás- sico é necessário definir um volume unitário no espaço de fase, que é um espaço continuo, tal que permita contar o número de microestados, e que seja compatível com a Mecânica Quântica em algum limite apropriado. O Princípio de Incerteza de Heisenberg, ∆p∆q ∼ h, implica a existência de um volume minimo no es- paço de fase, Vmin ∼ h, tal que resulta impossível identificar estados físicos em escala menor que a constante de Planck h. Definimos então W (E) = Γ(E)/h3N como sendo o número de células unitárias no espaço de fase correspondentes a um volume Γ(E) nesse espaço. Para definirmos uma entropia que seja compatível com o formalismo termodi- nâmico, esta deve ser • Aditiva • Satisfazer a segunda lei da Termodinâmica.12 Daniel A. Stariolo - IF-UFRGS - 2014 13 Figura 2.1: Dois sistemas separados por uma parede adiabática, fixa e impermeá- vel. Consideremos dois sistemas não interagentes com W1 e W2 microestados res- pectivamente. O número total de microestados do sistema composto será W = W1 ×W2. Agora, como de acordo com a Termodinâmica a entropia deve ser adi- tiva, S(W ) = S(W1) + S(W2), deve ser uma função proporcional ao logaritmo de W . Definimos então a entropia como: S(E) = kB lnW (E). (2.1) Vamos verficar se esta definição é satisfatória, ou seja, se obedece os dois requisi- tos de compatibilidade com a termodinâmica citados acima. Consideremos agora os subsistemas (1) e (2) separados por uma parede adiabática, fixa e impermeável, como mostra a figura 2.1, de forma que H(p, q) = H1(p1, q1) +H2(p2, q2). A entropia de cada subsistema é dada por: S1(E1, V1, N1) = kB ln ( Γ1(E1)/h 3N ) S2(E2, V2, N2) = kB ln ( Γ2(E2)/h 3N ) (2.2) Qual é a entropia do conjunto ? O volume total do espaço de fase é Γ(E) = Γ1(E1)× Γ2(E2), onde E = E1 + E2. A entropia do sistema completo é então S(E, V,N) = kB ln ( Γ(E)/h3N ) (2.3) = kB ln ( Γ1(E1)/h 3N ) + kB ln ( Γ2(E2)/h 3N ) = S1(E1, V1, N1) + S2(E2, V2, N2) que satisfaz a condição de aditividade. Resta verificar se a definição de Boltzmann satisfaz a segunda lei. Para isto suponhamos que removemos a parede adiabática e Daniel A. Stariolo - IF-UFRGS - 2014 14 permitimos que os subsistemas troquem energia (parede diatérmica). Desta forma a energia de cada subsistema poderá variar entre 0 e E, tal que E1 + E2 = E permaneça fixa em todo momento. O número de microestados do sistema total com energia E, para um valor fixo de E1 pode ser escrito como: W (E,E1) = Γ(E,E1) h3N = 1 h3N Γ1(E1)Γ2(E − E1) (2.4) O número total de microestados compatível com a energia E será dado pela soma de W (E,E1) para todos os valores de E1 entre 0 eE. Se discretizamos o espectro de energias em intervalos de largura ∆, podemos escrever Γ(E) = E/∆∑ i=1 Γ1(Ei)Γ2(E − Ei) (2.5) O número de microestados cresce com a energia, então como Γ(E) é uma fun- ção monótona crescente de E, quando Γ1(Ei) cresce, Γ2(E − Ei) decresce, e viceversa. Se conclui que Γ(E) deve passar por um máximo em algum valor 0 ≤ Ei ≤ E. Sejam E1 e E2 = E − E1 os valores das energias para as quais Γ1(E1)Γ2(E2) é máximo. Então se deve satisfazer que Γ1(E1)Γ2(E2) ≤ Γ(E) ≤ E ∆ Γ1(E1)Γ2(E2) (2.6) ou ln [ Γ1(E1)Γ2(E2) ] ≤ ln Γ(E) ≤ ln(E ∆ ) + ln [ Γ1(E1)Γ2(E2) ] (2.7) Analisemos a ordem de grandeza destes termos. Em geral o número de mi- croestados cresce exponencialmente com o número de partículas, de forma que ln Γi ∝ Ni, ou seja, a entropia é extensiva. No entanto, a energia cresce proporci- onalmente a N : E ∝ N = N1+N2. Desta forma, no limite quando N1, N2 →∞ o termo em ln ( E ∆ ) se torna desprezível frente a ln Γ e por tanto a relação (2.7) é satisfeita como uma igualdade. Assim, a entropia do sistema total é dada por: S(E, V,N) = S1(E1, V1, N1) + S2(E2, V2, N2) +O(lnN) (2.8) A entropia (2.1) é aditiva e extensiva, e os subsistemas tomam valores de ener- gias E1 e E2 que maximizam o número total de estados acessíveis. No limite Daniel A. Stariolo - IF-UFRGS - 2014 15 termodinâmico este resultado corresponde a segunda lei da Termodinâmica 1 Ainda considerando que a probabilidade dos subsistemas se encontrarem com energiasE1 eE2 será proporcional ao número de microestados compatíveis, temos que lnP (E,E1) = cte + lnΓ(E1) + lnΓ(E −E1) (2.9) Maximizando em relação a E1 obtemos ∂ lnP (E,E1) ∂E1 = ∂ ln Γ(E1) ∂E1 − ∂ ln Γ(E − E1) ∂E2 = 0 (2.10) Agora usando a definição de entropia de Boltzmann a relação anterior resulta equivalente a ∂S1 ∂E1 ∣∣∣∣ E1=E1 = ∂S2 ∂E2 ∣∣∣∣ E2=E2 (2.11) e fazendo uso da relação termodinâmica entre entropia e temperatura concluimos que 1 T1 = 1 T2 , (2.12) que corresponde à condição de equilíbrio térmico. Vemos então que a condição de equilíbrio térmico entre dois sistemas equivale a maximizar a entropia do con- junto. 2.1.1 Gás ideal monoatômico clássico Consideremos um gás de N partículas clássicas em um volume V . O Hamiltoni- ano do gás clássico de partículas não interagentes é: H = 3N∑ i=1 p2i 2m (2.13) 1É fácil mostrar que esta formulação variacional da segunda lei é equivalente a condição de irreversibilidade, ou seja, se um sistema isolado em equilíbrio passa de um estado a outro estado de equilíbrio a entropia não pode diminiur. Em outras palavras, o número de microestados acessíveis é maximizado no processo. No exemplo do gás simples de partículas não interagentes como o da figura 2.1, a conclusão é que se permitimos que ambos os sistemas troquem energias o sistema total irá equilibrar em um estado que maximize o número de microestados acessíveis, e nunca o contrário. Daniel A. Stariolo - IF-UFRGS - 2014 16 O volume do espaço de fase com energia entre E e E +∆ é dado por Γ(E, V,N) = ∫ E≤H(p,q)≤E+∆ dp dq. (2.14) No entanto, um cálculo rigoroso desta quantidade mostra que a dependência com E é muito irregular [1]. Resulta mais conveniente calcular a quantidade: Σ(E, V,N) = ∫ H(p,q)≤E dp dq, (2.15) de forma que Γ(E) = Σ(E+∆)−Σ(E). É possível mostrar que quandoN →∞, Γ(E) e Σ(E) diferem em termos O(lnN). Por tanto, se estamos interessados no limite termodinâmico, podemos escrever S(E, V,N) = kB ln ( Σ(E, V,N) h3N ) (2.16) onde Σ(E, V,N) = ∫ H≤E dp dq = V NΩ3N (R) (2.17) e onde Ω3N (R) é o volume de uma hiperesfera de dimensão 3N e raio R =√ 2mE: Ω3N (R) = C3N E 3N 2 (2.18) Assim, S(E, V,N) = kB ln ( V N C3N E 3N 2 h3N ) (2.19) É possível calcular C3N (ver, por exemplo, [1, 2]). Aproximando a expressão resultante para N ≫ 1 obtemos: S(E, V,N) = 3 2 NkB +NkB ln [ V ( 4πm 3h2 E N )3/2] (2.20) Invertendo esta expressão podemos obter a energia interna como função de S, N e V , e a partir dali podemos obter as equações de estado do gás ideal e demais grandezas termodinâmicas. No entanto, podemos notar que se multiplicarmos E, V eN por um fator λ arbitrário resulta S(λE, λV, λN) 6= λS(E, V,N). Ou seja, a entropia que obtivemos não é uma função homogênea como deve ser um potencial Daniel A. Stariolo - IF-UFRGS - 2014 17 termodinâmico. Em particular, a forma obtida da entropia não é extensiva ! J. W. Gibbs resolveu este problema de forma empírica, operacional, postulando que o número de microestados no cálculo anterior foi superestimado e propondo um fator de correção Σ(E) → Σ(E)/N ! que leva em conta a indistinguibilidade das partículas do gás ideal. Podemos entender o problema na contagem considerando a entropia de dois sistemas inicialmente isolados que são depois misturados. A entropia de mixing viola a extensividade e leva ao chamado Paradoxo de Gibbs [1, 2, 3, 4]. Incluindo o fator N ! e refazendo o cálculo se chega a seguinte expressão para a entropia: S(E) = 3 2 NkB [ 5 3 + ln ( 4πm 3h2 )] +NkB ln [ V N ( E N )3/2] (2.21) Esta expressão é extensiva e se conhece como Fórmula de Sackur e Tetrode. A introduçao ad hoc do fator de contagem de Gibbs aparece de forma natural em sistemas quânticos de partículas indistiguíveis e será visto quando tratemos o pro- blema dos gases ideais quânticos. 2.1.2 A formulação de Gibbs J. W. Gibbs propós uma expressão para a entropia alternativa a de Boltzmann e que permite formular a teoria a partir de um princípio variacional. Se ρ(p, q) é a densidade de probabilidade de equilíbrio, a entropia de Gibbs é dada por: S = −kB〈ln (Cρ)〉 (2.22) onde C é uma constante que vale h3N para um sistema clássico e C = 1 para um sistema quântico. A média deve ser calculada em relação a própriadistribuição ρ. No caso clássico: S = −kB ∫ ρ(p, q) ln [ h3Nρ(p, q) ] dp dq (2.23) Agora postulamos que a densidade de equilíbrio é aquela que maximiza a entro- pia de Gibbs, sujeita aos vínculos macroscópicos. Para um sistema no ensemble microcanônico, onde E,V e N são fixos, o vínculo adicional de normalização das probabilidades é exigido: ∫ ρ(p, q) dp dq = 1. (2.24) Daniel A. Stariolo - IF-UFRGS - 2014 18 Vínculos podem ser considerados no princípio variacional via multiplicadores de Lagrange. Sendo a entropia de Gibbs um funcional da densidade de probabili- dade, a condição de extremo (máximo) pode ser expressa na forma: δ [ S[ρ]− α0 ∫ ρ dp dq ] = 0 (2.25) onde δ indica uma variação funcional e α0 é o multiplicador que impõe a norma- lização das probabilidades. Desenvolvendo a variação obtemos: S[ρ+ δρ]− S[ρ]− α0 ∫ [ρ+ δρ− ρ] dp dq = 0 (2.26) −kB ∫ { (ρ+ δρ) ln [h3N (ρ+ δρ)]− ρ ln (h3Nρ)} dp dq − α0 ∫ δρ dp dq = 0 Expandindo até primeira ordem em δρ∫ (−kB − kB ln [h3Nρ]− α0) δρ dp dq = 0 (2.27) Como δρ é arbitrário, se obtém ρ(p, q) = 1 h3N e−α0/kB−1. (2.28) A densidade de probabilidade microcanônica é uma constante, como esperado. Resta determinar o valor do multiplicador de Lagrange α0. Ele é fixado pela condição de normalização da probabilidade, resultando: ρ(p, q) = 1 Γ(E) se E ≤ H(p, q) ≤ E +∆ (2.29) Notamos que, neste caso de um sistema isolado, a distribuição equiprovável é a que maximiza a entropia de Gibbs ( a segunda variação permite mostrar que o extremo obtido é, de fato, um máximo). Substituindo na definição: S(E) = −kB〈ln (h3Nρ)〉 = − kB Γ(E) ∫ ln [ h3N/Γ(E) ] dp, dq (2.30) ou S(E) = kB ln ( Γ(E) h3N ) (2.31) que coincide com a expressão da entropia de equilíbrio microcanônica. Daniel A. Stariolo - IF-UFRGS - 2014 19 2.2 O ensemble canônico Em geral os sistemas não são isolados. Suponhamos um sistema que possa trocar calor com um reservatório térmico a temperatura T . O sistema composto é consi- derado isolado, com energia E0 = ES+ER fixa. Vamos supor ainda que o sistema e o reservatório estão separados por uma parede diatérmica, rígida e impermeá- vel. No equilíbrio, a probabilidade de encontrar o sistema em um microestado particular j, independentemente do estado do reservatório, será dado por Pj = cWR(ER) = cWR(E0 −Ej) (2.32) com c uma constante e WR(ER) o número de estados microscópicos do reserva- tório com energia ER = E0 −Ej . Como Ej ≪ E0: lnPj = ln c+ lnWR(E0) + ∂ lnWR(ER) ∂ER ∣∣∣∣ ER=E0 (−Ej) +O(E2j ) (2.33) Da definição de entropia e as condições de equilíbrio: ∂ lnWR(ER) ∂ER ∣∣∣∣ ER=E0 = 1 kBT (2.34) onde T é a temperatura do reservatório. Portanto a probabilidade é proporcional a exp (−βEj), com β = 1/kBT . A constante de proporcionalidade pode ser fixada exigindo a normalização das probabilidades, ∑ j Pj = 1, dando como resultado: Pj = e−βEj∑ i e −βEi β = 1 kBT (2.35) O ensemble canônico e constituído pelo conjunto de microestados de um sistema em contato com um reservatório térmico a temperatura T cujas probabilidades são dadas por (2.35). Consideremos agora um sistema quântico em contato com um reservatório térmico. Vamos obter novamente a probabilidade dos microestados do sistema partindo do princípio variacional de Gibbs. Em equilíbrio a energia média é fixa: U = 〈E〉 = Tr(ρˆHˆ) = ∑ n ρnnEn (2.36) Daniel A. Stariolo - IF-UFRGS - 2014 20 onde ρˆ é o operador densidade e os n′s são números quânticos correspondentes a uma base de autoestados do operador Hamiltoniano de N partículas e que dia- gonaliza simultaneamente ambos operadores ρˆ e Hˆ . A entropia de Gibbs é dada por S = −kB〈ln ρˆ〉 = −kB ∑ n ρnn ln ρnn (2.37) A densidade de probabilidade de equilíbrio deve ser aquela que maximize a en- tropia de Gibbs. Considerando que as probabilidades devem estar normalizadas, Trρˆ = ∑ n ρnn = 1, devemos introduzir dois multiplicadores de Lagrange e cal- cular a variação da expressão resultante: δ [ Tr ( α0ρˆ+ α1ρˆHˆ − kBρˆ ln ρˆ )] = δ ∑ n (α0ρnn + α1ρnnEn − kBρnn ln ρnn) = ∑ n [(α0 − kB) + α1En − kB ln ρnn] δρnn = 0, (2.38) onde a última linha corresponde à variação de primeira ordem. Como esta é arbi- trária obtemos ρnn = exp [( α0 kB − 1 ) + α1 kB En ] (2.39) Da condição de normalização obtemos exp ( 1− α0 kB ) = ∑ n exp ( α1 kB En ) = ZN(α1) (2.40) Definimos a função de partição do sistema: ZN(α1) = ∑ n exp ( α1 kB En ) = Tr exp ( α1 kB Hˆ ) (2.41) Multiplicando o coeficiente do término de primeira ordem na variação, que deve ser nulo, por ρnn que maximiza a entropia de Gibbs, e somando em n obtemos: (α0 − kB) + α1U + S = 0 (2.42) ou −kB lnZN(α1) + α1U + S = 0 (2.43) Daniel A. Stariolo - IF-UFRGS - 2014 21 Identificando α1 = −1/T e lembrando que F − U + TS = 0, obtemos F (T, V,N) = −kBT lnZN(T, V ) (2.44) onde F (T, V,N) é a energia livre de Helmholtz. Esta relação conecta a função de partição com a termodinâmica do sistema. Como F (T, V,N) é uma relação fundamental, a função de partição canônica também contém toda a informação sobre o sistema. A partir de (2.39) e (2.40) podemos escrever a matriz densidade de equilíbrio na forma ρˆ = e−βHˆ Tr e−βHˆ (2.45) Já para um sistema clássico a densidade de probabilidade é dada por ρ(p, q) = e−βH(p,q) ZN(T, V ) (2.46) onde ZN(T, V ) = ∫ dp dq h3N exp {−βH(p, q)} (2.47) 2.2.1 A densidade de estados e a função de partição Consideremos a integral no espaço de fase de uma função arbitrária f que depende de (p, q) através do Hamiltoniano I = ∫ dp dq h3N f [H(p, q)] (2.48) Podemos escrever a mesma integral na forma I = ∫ ∞ 0 f(E)g(E)dE (2.49) onde g(E) = ∫ H(p,q)=E dp dq h3N (2.50) é conhecida como densidade de estados. g(E)dE é o número de estados com energias entre E e E + dE. Em particular, se f(H) = Θ(E −H), onde Θ(x) é a função degrau, obtemos I = ∫ E 0 g(E ′)dE ′ = Σ(E) h3N (2.51) Daniel A. Stariolo - IF-UFRGS - 2014 22 Então g(E) = 1 h3N ∂Σ(E) ∂E . (2.52) É possível mostrar que, no limite N →∞: 1 h3N ∂Σ(E) ∂E = w(E) h3N = eSm(E)/kB (2.53) onde Sm é a entropia microcanônica. Assim, podemos escrever a função de partição na forma ZN(T ) = ∫ ∞ 0 e−βEg(E)dE (2.54) que corresponde à transformada de Laplace da densidade de estados. No caso quântico a expressão correspondente é: ZN(T ) = ∑ n e−βEn (2.55) onde n representa um conjunto completo de número quânticos, ou seja, a soma varre todos os possíveis autoestados do Hamiltoniano, sendo En os corresponden- tes autovalores. Se o conjunto de autovalores da energia for degenerado, se pode escrever ZN(T ) = ∑ E g(E)e−βE (2.56) onde agora a soma é feita em todos os autovalores diferentes do Hamiltoniano, e g(E) é a degenerescência do autovalor E. 2.2.2 Flutuações da energia A energia média do sistema no ensemble canônico é dada por U ≡ 〈H〉 = ∑ j Ej e −βEj ZN(T ) = −∂ lnZ ∂β (2.57) Como cada microestado tem associada uma probabilidade de ocorrência Pj , então devem existir flutuações em torno do valor médio. O desvio quadrático médio da Daniel A. Stariolo - IF-UFRGS - 2014 23 energia é dado por 〈(H − 〈H〉)2〉 = 〈H2〉 − 〈H〉2 (2.58) = 1 Z ∑ j E2j e −βEJ − 1 Z2 (∑ j Eje −βEj )2 = ∂ ∂β ( ∂ lnZ ∂β ) = −∂U ∂β = kBT 2∂U ∂T = kBT 2N cV > 0 onde cV = 1 N ∂U ∂T (2.59) é o calor específico a volume constante. Assim, as flutuações da energia no en- semble canônico são proporcionais ao calor especifico, o que também aponta para a positividade de cV . Esta relação é muito útil para determinar o calorespecífico em simulações de Monte Carlo, ou Dinâmica Molecular, pois os valores médios de momentos da energia podem ser obtidos facilmente ao longo da trajetória do sistema durante a simulação. O desvio relativo é dado por:√〈H2〉 − 〈H〉2 〈H〉 = √ NkBT 2cV Nu ∝ 1√ N , (2.60) onde u = 〈H〉/N é a densidade de energia. Notamos que o desvio relativo ao valor médio tende para zero quando N →∞. Isto quer dizer que a distribuição de energias está fortemente concentrada em torno do valor médio, e as probabilidades de o sistema se encontrar em microestados diferentes do valor médio são muito pequenas. Desta forma, os resultados do ensemble canônico coincidem com os do ensemble microcanônico no limite termodinâmico. Vejamos isto com um pouco mais de detalhe. Vimos que a probabilidade de encontrar o sistema com uma energia entre E e E + dE é: P (E)dE = g(E) e−βEdE. (2.61) A densidade de estados é uma função fortemente crescente de E, ao passo que o exponencial de Boltzmann decai rapidamente. Como consequência, o produto deve passar por um máximo para alguma energia especial E∗. O valor de E∗ é determinado por: ∂ ∂E ( g(E)e−βE )∣∣∣∣ E=E∗ = 0, (2.62) Daniel A. Stariolo - IF-UFRGS - 2014 24 que equivale a ∂ ln g(E) ∂E ∣∣∣∣ E=E∗ = β. (2.63) Mas, S = kB ln g(E) e ∂S(E) ∂E ∣∣∣∣ E=U = 1 T = kBβ. (2.64) Isto quer dizer que E∗ = U. (2.65) Este resultado é importante pois implica que o valor mais provável da energia é igual à energia média. Vejamos agora qual a forma da distribuição de probabilida- des da energia. Para isso é útil expandir o logaritmo da densidade de probabilidade no entorno do valor médio U : ln [ g(E)e−βE ] = −βE|E=U + ln g(E)|E=U + 1 2 ∂2 ∂E2 ln [ g(E)e−βE ]∣∣ E=U (E − U)2 + . . . = −β(U − TS)− 1 2kBT 2CV (E − U)2 + . . . (2.66) Obtemos finalmente: P (E) ∝ g(E)e−βE ≈ e−β(U−TS) exp { − (E − U) 2 2kBT 2CV } . (2.67) A densidade de probabilidade da energia é uma distribuição Gaussiana, com mé- dia U e desvio padrão √ kBT 2CV . Considerando a escala de energia dada pela energia interna U podemos definir a variável adimensional E/U . Esta também possui uma distribuição Gaussiana, com média 1 e desvio padrão √ kBT 2CV /U , que é de ordem O(N−1/2). Por tanto, para N >> 1 a distribuição de probabili- dade é muito estreita, tendendo a uma função delta quando N → ∞. Integrando o resultado (2.67) é fácil mostrar que −kBT lnZN(T, V ) ≡ F (T, V,N) ≈ U − TS − 1 2 kBT ln (2πkBT 2CV ), (2.68) que inclui correções de ordem lnN à expressão termodinâmica para a energia livre. Finalmente, é interessante notar que as flutuações para sistemas com grande número de graus de liberdade podem ser importantes em situações especiais, como por exemplo perto de transições de fase de segunda ordem, quando cV pode tomar valores muito grandes e até divergir. Daniel A. Stariolo - IF-UFRGS - 2014 25 2.2.3 Gás ideal no ensemble canônico O ponto de partida para obter a termodinâmica de um sistema no ensemble canô- nico é o cálculo da função de partição. No caso do gás ideal clássico: ZN(T ) = ∫ dp dq h3N exp [ −β 3N∑ i=1 p2i 2m ] (2.69) = ( V N h3N ) 3N∏ i=1 ∫ dpi exp ( −βp 2 i 2m ) = ( V h3 )N [∫ dpixdpiydpize − β 2m(p2ix+p2iy+p2iz) ]N = [Z1(T )] N onde Z1(T ) = V λ3T (2.70) é a função de partição de uma partícula e λT = h√ 2πmkBT (2.71) é o comprimento de onda térmico das partículas. Esta quantidade, que tem dimen- sões de comprimento, é importante pois corresponde aproximadamente ao valor médio do comprimento de onda de de Broglie. Se o comprimento de onda tér- mico for muito menor que a distância típica interpartícula então o gás pode ser considerado clássico. No entanto, se λT for da ordem ou maior que a distância interpartícula, os efeitos quânticos serão importantes e o gás deve ser estudado a partir das estatísticas quânticas de Bose-Einstein ou Fermi-Dirac. A energia livre do gás ideal clássico é dada por: F (T, V,N) = −kBTN lnZ1 = −kBTN ln { V h3 (2πmkBT ) 3/2 } (2.72) A energia livre obtida não é extensiva: F (T, γV, γN) 6= γF (T, V,N). Encon- tramos novamente o “paradoxo de Gibbs”. A solução, no contexto do ensemble canônico, consiste em introduzir o fator de contagem de Gibbs na forma: ZN(T, V )→ ZN(T, V ) N ! (2.73) Daniel A. Stariolo - IF-UFRGS - 2014 26 No limite de N grande, podemos aplicar a aproximação de Stirling ao fatorial, N ! ≈ N lnN −N , dando como resultado: F (T, V,N) = −kBTN ln { V Nh3 (2πmkBT ) 3/2 } − kBTN (2.74) recuperando o comportamento extensivo da energia livre. 2.3 Fluidos clássicos não ideais Fluidos simples geralmente são bem descritos com a estatística clássica pois nas temperaturas (baixas) onde os efeitos quânticos começam a ser relevantes, estes solidificam. A situação mais comum em relação ao Hamiltoniano de um fluido clássico é que possa ser considerado como a soma de uma parte cinética, depen- dente das velocidades, e uma energia potencial, que depende das coordenadas: Up(q1, q2, . . . , qN). Então a função de partição clássica se fatora, podendo ser escrita na forma: ZN(T, V ) = ZGI V −N Q (2.75) onde ZGI é a função de partição do gás ideal, com o fator de contagem correto, e Q == ∫ dq1 · · · dqNe−βUp(q1,...,qN ) (2.76) é a função de partição configuracional. Por causa do fatoramento entre a parte cinética e configuracional, o valor médio estatístico de uma função f(q) resulta: 〈f(q1, . . . , qN)〉 = 1 Q ∫ dq1 · · · dqNf(q1, . . . , qN ) e−βUp(q1,...,qN ) (2.77) que é independente do termo cinético. Para analizar as propriedades de fluidos, gases ou líquidos, é importante le- var em consideração questões de simetria. Em primeiro lugar, a energia potencial Up(q1, q2, . . . , qN) deve ser invariante frente a permutações dos índices das par- tículas, pois, embora partículas clássicas são consideradas distinguíveis, elas são idênticas. Outra simetria importante é a invariância da energia potencial frente a uma translação espacial de todo o sistema, ou seja, se deslocamos todas as coor- denadas por um vetor fixo no espaço, a energia potencial deve ser a mesma. Isto quer dizer que a energia potencial deve ser função apenas das distâncias relativas entre as partículas e não das posições absolutas no espaço. A invariância frente Daniel A. Stariolo - IF-UFRGS - 2014 27 a translações globais implica na homogeneidade do fluido. Além de homogêneo, um fluido simples deve ser isotrópico, ou seja, a energia potencial deve ser invari- ante frente a rotações de coordenadas. Estas três são as invariâncias ou simetrias mais importantes de sistemas fluidos simples. Uma quantidade fundamental para descrever a fase fluida é a densidade local de partículas. Assumindo que as partículas são puntuais, a densidade se define como: ρp(r) = N∑ i=1 〈δ(r − qi)〉 = 1 Q ∫ dq1 · · · dqN N∑ i=1 δ(r − qi) e−βUp(q1,...,qN). (2.78) Agora, devido à invariância do potencial frente a permutações de partículas, cada um dos termos da soma deve ser igual aos outros, resultando em: ρp(r) = N Q ∫ dq2 · · ·dqN ∫ dq1δ(r − q1) e−βUp(q1,...,qN ) (2.79) Ainda, como o potencial deve depender apenas das distâncias relativas entre pares de partículas |qi − qj |, podemos definir novas variáveis q′i = qi − q1, para i = 2, . . . , N , resultando em ρp(r) = N Q ∫ dq′2 · · · dq′Ne−βU(q ′ 2,...,q ′ N ) ∫ dq1δ(r − q1) = N Q ∫ dq′2 · · · dq′Ne−βUp(q ′ 2,...,q ′ N ) (2.80) De forma semelhante: Q = ∫ dq′2 · · · dq′Ne−βUp(q ′ 2,...,q ′ N ) ∫ dq1 = V ∫ dq′2 · · · dq′Ne−βUp(q ′ 2,...,q ′ N ) (2.81) De (2.80) e (2.81) se conclui que ρp(r) = N/V para todos os pontos r no volume V . Estapropriedade é válida para qualquer fluido simples. Já em um sólido a densidade local não é uniforme pois as partículas se encontram localizadas no espaço, a invariância translacional é quebrada na fase sólida. Em um gás ideal as posições das partículas são independentes entre si. Já em um fluido real existem correlações entre as posições. Uma função que descreve as correlações espaciais entre partículas é a função de distribuição de pares g(r), definida como: g(r) ≡ 2V N(N − 1) ∑ (i,j) 〈δ(r− rij)〉 , (2.82) Daniel A. Stariolo - IF-UFRGS - 2014 28 onde rij ≡ qi − qj é o vetor distância relativa entre as partículas i e j, e a notação (i, j) indica que cada par de partículas é contabilizado apenas uma vez. Notamos que a função g(r) corresponde, essencialmente, ao número médio de pares de partículas que se encontram a uma distância r uma da outra. Para entender melhor a definição da g(r) notamos que, pela invariância do sistema frente a permutações de partículas, todos os termos de pares devem ser idênticos. Ainda, pela isotropia do sistema, a função não pode depender da direção do vetor r, mas apenas do módulo r = |r|. Então: g(r) = V 〈δ(r− r12)〉 . (2.83) Para um gás ideal Up(q1, . . . , qN ) = 0 e então o valor médio pode ser calculado facilmente, de onde obtemos que 〈δ(r− r12)〉 = 1/V e g(r) = 1. Este resultado quer dizer que, para o gás ideal, todas as distâncias entre pares de partículas são igualmente prováveis. Já no caso de partículas em interação obtemos: g(r) = V Q ∫ dq′2 δ(r− q′2) ∫ dq′3 · · · dq′N e−βUp(q ′ 2,...,q ′ N) ∫ dq1 = V 2 Q ∫ dq′3 · · ·dq′N e−βUp(r,q ′ 3...,q ′ N ). (2.84) A forma mais frequênte de energia potencial é a que corresponde a uma soma de interações de pares, ou seja: Up(q1, . . . , qN) = ∑ (i,j) u(rij). (2.85) Levando em consideração a simetria do potencial frente a permutações das partí- culas resulta: 〈Up〉 = N(N − 1) 2 〈u(r12)〉 = N(N − 1) 2Q ∫ dq′2 u(q ′ 2) ∫ dq′3 · · · dq′N e−βUp(q ′ 2,...,q ′ N ) ∫ dq1 = V N(N − 1) 2Q ∫ d3r u(r) ∫ dq′3 · · · dq′N e−βUp(r,...,q ′ N ) (2.86) Agora, usando o resultado (2.84) e incluindo a contribuição da energia cinética, obtemos uma expressão para a equação de estado da energia do fluido: U = 〈H〉 = 3 2 NkBT + N(N − 1) 2V ∫ d3r u(r) g(r), (2.87) Daniel A. Stariolo - IF-UFRGS - 2014 29 Para obter a equação de estado da pressão do fluido, partimos da definição da pressão no ensemble canônico: P = −∂F ∂V = kBT ∂ lnZN ∂V = kBT ∂ ∂V ln ( ZGI Q V N ) = kBT ρp + kBT V N Q ∂ ∂V ( Q V N ) . (2.88) Com um pouco mais de trabalho podemos obter uma expressão para a pressão de um fluido, com interações de pares, em termos da função distribuição de pares: P = kBT ρp [ 1− 2πρp 3kBT ∫ ∞ 0 r3 du(r) dr g(r) dr ] . (2.89) Esta última relação se conhece como equação de estado do virial. Notamos que as equações de estado ficam completamente determinadas conhecendo o potencial de pares e a função de distribuição g(r). A função de distribuição de pares pode ser determinada experimentalmente por técnicas de espectroscopia, como espalhamento de raios X, nêutrons, elêtrons, etc. Ela está relacionada com uma quantidade básica em experimentos de espec- troscopia que é o fator de estrutura, definido como: I(~k) = 〈∣∣∣∣∣ N∑ j=1 ei ~k.~qj ∣∣∣∣∣ 2〉 , (2.90) onde a média é realizada no ensemble. I(~k) mede a intensidade do espalhamento em função do vetor de onda k da radiação espalhada pelo material. Da definição anterior obtemos: I(~k) = 〈 N∑ j=1 N∑ l=1 ei ~k.(~qj−~ql) 〉 = N + 〈∑ j 6=l ei ~k.(~qj−~ql) 〉 (2.91) Como a função que deve ser mediada depende apenas das coordenadas: I(~k) = N + 1 Q ∑ j 6=l ∫ dq1 · · · dqN ei~k.(~qj−~ql) e−βU(q1,...,qN ) = N + N(N − 1) Q ∫ dq1 · · · dqN ei~k.(~q2−~q1) e−βU(q1,...,qN) = N + V N(N − 1) Q ∫ dq′2 · · · dq′N ei~k.~q ′ 2 e−βU(q ′ 2,...,q ′ N ) (2.92) Daniel A. Stariolo - IF-UFRGS - 2014 30 Figura 2.2: O potencial de Lennard-Jones. Comparando com (2.84) obtemos: I(~k) = N + N(N − 1) V ∫ d3r ei ~k.~r g(r) (2.93) ou seja, o fator de estrutura está relacionado diretamente com a transformada de Fourier da função de distribuição de pares. Desta forma é possível determinar a função g(r) a partir de dados experimentais para um dado sistema. Para muitos fluidos normais o potencial de interação é repulsivo a distâncias muito curtas (caroço duro) e atrativo a distâncias um pouco maiores. Um potencial semi-empírico muito comum é o potencial de Lennard-Jones: u(r) = 4ǫ [(σ r )12 − (σ r )6] (2.94) que é mostrado na figura 2.2. No potencial, σ possui unidades de comprimento e representa o tamanho do caroço duro. O potencial u(σ) = 0 e cresce muito fortemente para r < σ. Para r > σ o potencial é atrativo, apresentando um mínimo, um ponto de estabilidade mecânica, em r = 21/6σ. Para distâncias r ≫ σ o potencial tende para zero como 1/r6, que corresponde a uma interação de van der Waals. A função distribuição de pares para este potencial tem a forma mostrada na figura 2.3. Daniel A. Stariolo - IF-UFRGS - 2014 31 Figura 2.3: A função de distribuição de pares para um sistema com energia po- tencial de Lennard-Jones, para kBT/ǫ = 0.71 e ρp = 0.844, obtido por simulação numérica. A forma da g(r) pode interpretarse como segue: ρpg(r) é a densidade média de partículas que se observam a uma distância r de uma origem arbitrária. Como para r < σ não pode ter partículas por causa do termo de caroço duro, a g(r) = 0 nesta região. Na sequência, g(r) apresenta um pico pronunciado que corresponde aproximadamente à distância até os primeiros vizinhos, e depois segue uma série de picos menores representando as sucessivas camadas de vizinhos da partícula central. O caráter oscilatório da função é consequência da competição entre for- ças atrativas e repulsivas no potencial. Finalmente, para distâncias muito grandes, g(r) → 1, que coincide com o valor correspondente a partículas livres, como se espera de um par de partículas muito afastadas em um fluido simples. As posições dos picos dão informação das correlações entre as partículas. Quanto mais diluido seja o fluido, menos picos vão aparecer na g(r), em oposição ao comportamento de um sólido, onde a periodicidade da rede cristalina deve levar à presença de uma série de picos de igual intensidade separados pela mesma distância, corres- pondente à distância entre as partículas na matriz cristalina. No caso de fluidos com interações fracas, ou densidades baixas, é possível obter a equação de estado da forma seguinte: definimos uma função: f(r) = e−βu(r) − 1 (2.95) Daniel A. Stariolo - IF-UFRGS - 2014 32 Definindo fij ≡ f(rij), podemos escrever a função de partição configuracional na forma: Q = ∫ dq1 · · ·dqN ∏ (i,j) e−βu(rij) = ∫ dq1 · · ·dqN ∏ (i,j) [1 + fij ] (2.96) Desenvolvendo os produtos obtemos: Q = ∫ dq1 · · ·dqN 1 +∑ (i,j) fij + 1 2 ∑ (i,j) ∑ (k,l)6=(i,j) fijfkl + · · · = V N + V N−2 ∑ (i,j) ∫ dqidqj fij + · · · = V N + V N−1 N(N − 1) 2 ∫ d3rf(r) + · · · = V N [ 1− N(N − 1) V B(T ) + · · · ] , (2.97) onde B(T ) = −1 2 ∫ d3r [ e−βu(r) − 1] (2.98) se conhece como segundo coeficiente virial. Desconsiderando termos de ordem superior na expansão acima, obtemos: Q V N ≈ 1− N 2 V B(T ) (2.99) e, da equação (2.88): P = kBTρp + kBT N2 V 2 B(T ) 1− N2 V B(T ) . (2.100) Para N2B(T )/V ≪ 1 obtemos, finalmente: P ≈ kBTρp [1 + ρpB(T )]. (2.101) De fato, é possível mostrar que, para potenciais de muito curto alcance, é possível obter uma expansão da equação de estadoem potências da densidade de partícu- las: P = kBT [ρp + ρ 2 pB(T ) + ρ 3 pC(T ) + · · · ], (2.102) Daniel A. Stariolo - IF-UFRGS - 2014 33 que se conhece como expansão do virial. Notamos que a aproximação (2.101) é válida somente para densidades muito baixas. Integrando a equação (2.98) por partes para o potencial de Lennard-Jones obtemos: B(T ) = −2πβ 3 ∫ ∞ 0 r3 du(r) dr e−βu(r) dr. (2.103) Substituindo em (2.101) e comparando o resultado com (2.89) notamos que trun- car a expansão do virial a segunda ordem equivale a aproximar a função de distri- buição de pares por: g(r) = e−βu(r) (2.104) Na figura 2.4 podemos ver o resultado de aproximar a g(r) usando a expansão do virial até segunda ordem. Aparece apenas o primeiro pico. Para poder obter os outros picos é necessário ir a ordens superiores na expansão. Esse resultado deixa claro que a expansão de ordem baixa é boa apenas para fluidos muito diluidos. Figura 2.4: A função de distribuição de pares para um sistema com energia poten- cial de Lennard-Jones, obtido truncando a expansão do virial até segunda ordem para kBT/ǫ = 1. 2.4 O ensemble Grande Canônico Consideremos agora um sistema que pode trocar calor e partículas com o meio no qual se encontra. Neste caso, o número de partículas N não será mais constante, podendo flutuar assim como a energia. No equilíbrio, o valor médio 〈N〉 estará Daniel A. Stariolo - IF-UFRGS - 2014 34 bem definido. No caso de um sistema quântico, se pode definir um operador nú- mero de partículas Nˆ , cujos autovalores n, correspondem aos possíveis resultados de uma medida particular. Os estados acessíveis do sistema correspondem aos au- toestados da energia para uma partícula, duas partículas, etc. O espaço de Hilbert é formado pela soma direta dos subespaços de uma, duas, três, etc. partículas. Va- mos assumir que o operador Hˆ não mescla estados de subespaços com diferente número de partículas, ou seja, que Hˆ comuta com Nˆ . Desta forma, a matriz que representa Hˆ terá uma estrutura diagonal em blocos Hˆ0, Hˆ1, etc. na qual HˆN é o operador Hamiltoniano de N partículas. Os autoestados do Hamiltoniano de um sistema de N partículas serão indexados com um número quântico adicional, por exemplo: Hˆ|N,Enl 〉 = Enl |N,Enl 〉 Nˆ |N,Enl 〉 = n|N,Enl 〉 (2.105) Vamos agora maximizar a entropia de Gibbs S = −kB Tr(ρˆ ln ρˆ) = −kB ∞∑ n=0 ∑ l ρnl ln ρ n l (2.106) onde ρnl é o elemento de matriz (diagonal) do operador densidade ρˆ correspon- dente aos números quânticos l, n. Os vínculos a ser satisfeitos neste caso são: U = 〈Hˆ〉 = Tr(ρˆHˆ) = ∞∑ n=0 ∑ l Enl ρ n l (2.107) N = 〈Nˆ〉 = Tr(ρˆNˆ) = ∞∑ n=0 n ∑ l ρnl (2.108) Trρˆ = ∞∑ n=0 ∑ l ρnl = 1, (2.109) que serão incorporados no processo de variação via multiplicadores de Lagrange. Fazendo isso obtemos δ [∑ n ∑ l {α0ρnl + α1Enl ρnl + α2nρnl − kBρnl ln ρnl } ] = 0 ∑ n ∑ l [(α0 − kB) + α1Enl + α2n− kB ln ρnl ] δρnl = 0 (2.110) Daniel A. Stariolo - IF-UFRGS - 2014 35 Desta condição, e como a identidade vale para variações arbitrárias, obtemos: kB ln ρˆ = (α0 − kB) + α1Hˆ + α2Nˆ (2.111) ou ρˆ = e ( α0 kB −1 ) e α1 kB Hˆ+ α2 kB Nˆ (2.112) Usando a normalização da matriz densidade, definimos a função Z ≡ e ( 1− α0 kB ) = Tr exp [ α1 kB Hˆ + α2 kB Nˆ ] . (2.113) A função Z é conhecida como grande função de partição. Para fixar os valores das constantes α1 e α2 multiplicamos (2.111) por ρˆ e tomamos o traço: (α0 − kB) + α1U + α2N + S = 0 (2.114) ou, multiplicando pela temperatura: −kBT lnZ + α1TU + α2TN + TS = 0 (2.115) Para determinar os valores das constantes α1 e α2 vamos exigir consistência com a termodinâmica. Identificando α1 = −1/T , α2 = µ/T , onde µ é o potencial quimico, e da definição termodinâmica da função grande potencial: Ω(T, V, µ) = U − TS − µN (2.116) obtemos: Ω(T, V, µ) = −kBT lnZ. (2.117) Então Z(T, V, µ) = e−βΩ(T,V,µ) = Tr e−β(Hˆ−µNˆ) (2.118) e ρˆ = 1 Z exp [ −β(Hˆ − µNˆ) ] . (2.119) Das relações anteriores podemos obter, por exemplo, S = − ( ∂Ω ∂T ) V,µ N = − ( ∂Ω ∂µ ) T,V (2.120) Daniel A. Stariolo - IF-UFRGS - 2014 36 Usando a relação de Euler: U = TS − PV + µN obtemos Ω = −PV . Final- mente podemos obter uma relação entre a grande função de partição e a função de partição canônica: Z = Tr e−β(Hˆ−µNˆ) = ∑ n eβµn ∑ l e−βE n l = ∑ n zn ZN(T, V ) (2.121) onde z = eβµ é conhecida como fugacidade. Mais uma vez, como no caso do ensemble canônico, a distribuição que ma- ximiza a entropia de Gibbs é dada pelo exponencial de Boltzmann da energia correspondente ao sistema sujeito aos vínculos macroscópicos correspondentes, neste caso temperatura e potencial quimico fixos. Este procedimento pode ser generalizado facilmente para outras situações com diferentes vínculos, como será discutido com um pouco mais de detalhe no final da próxima seção. 2.4.1 Flutuações no número de partículas No ensemble grande canônico a temperatura e o número médio de partículas são fixos, mas os valores da energia e do número de partículas podem flutuar. Já vimos como estimar as flutuações da energia para um sistema em contato com um reservatório térmico. Vamos agora fazer uma análise semelhante e ver como se comportam as flutuações no número de partículas para um sistema em contato com um reservatório de partículas. Começamos escrevendo a condição de normalização das probabilidades da seguinte forma: Tr ρ = Tr eβ(Ω(T,µ)−H+µN) = 1, (2.122) onde a notação é válida tanto para sistemas quânticos, onde ρ ≡ ρˆ, H ≡ Hˆ , etc. são operadores, quanto para sistemas clássicos onde Tr corresponde a uma inte- gral no espaço de fase e ρ, H , N , etc. são as funções densidade de probabilidade, Hamiltoniano, número de partículas, etc. Derivando em relação ao potencial químico obtemos: Tr [( β ∂Ω ∂µ + βN ) eβ(Ω(T,µ)−H+µN) ] = 0, (2.123) ou β ∂Ω ∂µ + β Tr [ Neβ(Ω(T,µ)−H+µN) ] = 0. (2.124) Daniel A. Stariolo - IF-UFRGS - 2014 37 Derivando mais uma vez: β ∂2Ω ∂µ2 + β Tr [ Nβ ( ∂Ω ∂µ +N ) eβ(Ω(T,µ)−H+µN) ] = 0, (2.125) ou β ∂2Ω ∂µ2 + β2 ∂Ω ∂µ Tr [Nρ] + β2Tr [ N2ρ ] = 0. (2.126) Usando a relação (2.120) obtemos uma expressão para o desvio quadrático médio do número de partículas: 〈 N2 〉− 〈N〉2 = −kBT ∂2Ω ∂µ2 = kBT ∂ 〈N〉 ∂µ . (2.127) É possível mostrar (ver, por exemplo, o livro de Salinas [4]) que a derivada do número médio de partículas em relação ao potencial quimico está relacionada com a compressibilidade isotérmica do sistema: kBT ∂ 〈N〉 ∂µ = 〈N〉2kBTκT V (2.128) Por tanto, o desvio relativo ao valor médio no número de partículas é da ordem:√ 〈N2〉 − 〈N〉2 〈N〉 ∼ V −1/2. (2.129) Então vemos que a medida que o volume do sistema aumenta o número de par- tículas se afasta muito pouco do seu valor médio, que por sua vez coincide com o valor mais provável da distribuição de equilíbrio de Boltzmann. Concluimos que, no limite termodinâmico, quando N e V são muito grandes (comparados com o tamanho das partículas) as flutuações da energia e do número de partículas são desprezíveis, e por tanto nestas condições os três ensembles, microcanônico, canônico e grande canônico são equivalentes do ponto de vista termodinâmico. Uma exceção a este comportamento acontece na vizinhança de um ponto crítico quando as flutuações na densidade do sistema podem ser muito grandes e a com- pressibilidade cresce sem limites. As flutuações da densidade perto de um ponto crítico levam ao fenômeno da opalescência crítica, um fenômeno que representa uma evidência experimental direta da presença de um ponto crítico. Para concluir esta análise notemos a semelhança entre os operadores densi- dade nos ensembles canônicoe grande canônico em relação ao princípio variacio- nal de Gibbs. Em ambos os ensembles os operadores são dados pela exponencial Daniel A. Stariolo - IF-UFRGS - 2014 38 de uma combinação linear de observáveis, um por cada vínculo macroscópico im- posto via um multiplicador de Lagrange. Os valores médios de tais observáveis são todos variáveis termodinâmicas extensivas. Os coeficientes da combinação linear dos mesmos estão associados a multiplicadores de Lagrange respectivos e são iguais ao parâmetro intensivo correspondente ao observável na representação de entropia: 1/T no caso da energia e −µ/T no caso do número de partículas. Generalizando este mecanismo é possível obter diferentes tipos de ensembles, apropriados para situações particulares, sendo que todos são equivalentes no li- mite termodinâmico. Um exemplo importante é o ensemble das pressões, que corresponde à situação de um sistema em contato com um reservatório térmico e de pressão. Nesta situação, o número de partículas é fixo, mas a energia e o vo- lume podem flutuar. Os vínculos externos são então a energia média e o volume médio (parede móvel ou flexível). Maximizando a entropia de Gibbs como nos ca- sos anteriores é possível obter a função de partição grande canônica no ensemble das pressões: Υ(P, T,N) = ∫ ∞ 0 ( Tr e−β(H+PV ) ) dV = ∫ ∞ 0 e−βPV ZN(T, V ) dV, (2.130) onde ZN(T, V ) é a função de partição canônica para um sistema de N partículas, temperatura T e volume V e G(T, P,N) = −kBT lnΥ(P, T,N) (2.131) é a energia livre de Gibbs, que é o potencial termodinâmico relevante para um sistema a pressão constante. 2.4.2 Adsorção em superfícies Consideremos a superfície de um material sólido, em equilíbrio termodinâmico com um fluido (líquido ou gás), a pressão e temperatura fixas. Os átomos da su- perfície do sólido apresentam suas interações desbalançadas em relação aos áto- mos do interior do material, por causa da ausência de átomos do sólido do outro lado da superfície. Então estes átomos superficiais podem atrair átomos do fluido em torno, os que poderão ligarse à superfície sólida. O processo pelo qual áto- mos (ou moléculas) de um fluido se ligam na superfície de um sólido se chama adsorção. Este fenômeno é fisicamente diferente da absorção, na qual os átomos do fluido podem entrar no interior do volume do outro material, por exemplo em poros. O processo inverso da adsorção é a desorção, na qual um átomo ligado a Daniel A. Stariolo - IF-UFRGS - 2014 39 uma superfície se desprende da mesma e volta para o fluido. Em equilíbrio termo- dinâmico o número médio de partículas adsorvidas e desorvidas será o mesmo e a concentração do material adsorvido, o adsorvato, na superfície será constante. O processo de adsorção leva a formação de um filme do adsorvato sobre a superfície do adsorvente, e apresenta uma grande gama de aplicações industriais. Um processo real de adsorção é muito complexo, mas se podem entender al- guns mecanismos básicos do mesmo através de um modelo simples introduzido em 1916 por Irving Langmuir e que representa um bom exemplo de aplicação do ensemble grande canônico clássico. Os ingredientes fundamentais do modelo consistem em supor que • as partículas do adsorvato se depositam em um número fixo de sítios da superfície adsorvente, chamados sítios de adsorção. • cada sítio de adsorção pode adsorver no máximo uma molécula. • as moléculas adsorvidas não interagem entre si, são independentes. • o fluido é considerado um gás ideal. Já que a superfície do sólido se encontra em equilíbrio com o gás, este pode ser considerado como um reservatório de partículas para a superfície. Vamos então calcular a grande função de partição para os sítios de adsorção e depois impor as condições de equilíbrio termodinâmico com o gás. Vamos supor então que existem M sítios de adsorção e que a energia de ligação das moléculas na superfície é−γ. Assim γ será a energia necessária para desorver ou evaporar uma molécula da superfície. Podemos ainda supor que as moléculas do gás possuem graus internos de liberdade. Seja ζ(T ) a função de partição canônica dos graus internos de liberdade de uma molécula. A função de grande partição do conjunto de sítios de adsorção é dada por: ZM = M∑ N=0 zN ZN(T ), (2.132) onde ZN(T ) é a função de partição canônica para um sistema de N moléculas adsorvidas. Neste problema não deve ser incluido o fator de contagem de Boltz- mann, pois os sítios de adsorção são considerados distinguíveis. Como as molé- culas adsorvidas são independentes: ZN(T ) = g(N) (Z1(T )) N = g(N) ( eβγζ(T ) )N (2.133) Daniel A. Stariolo - IF-UFRGS - 2014 40 onde g(N) é o número de formas de distribuir N moléculas em M sítios de ad- sorção. Então: ZM = M∑ N=0 M ! N !(M −N)! ( z eβγζ(T ) )N = ( 1 + z eβγζ(T ) )M (2.134) Podemos derivar o resultado anterior por um caminho alternativo. Os graus inter- nos de liberdade das moléculas podem ser considerados redefinindo a fugacidade z → z′ = z ζ(T ). Cada sítio de adsorção pode ser considerado como um sis- tema de dois estados: com molécula adsorvida ou sem, com energias −γ e zero respectivamente. Então podemos associar a cada sítio de adsorção um número de ocupação ni = 0, 1, de forma que os estados ni = 0, 1 correspondem ao sítio i-ésimo estar desocupado ou ocupado por um adsorvato respectivamente. Assim, podemos escrever um Hamiltoniano para este sistema na forma H = −γ∑Mi=1 ni e N = ∑M i=1 ni, e a função de grande partição pode ser escrita na forma: ZM = Tr e−β(H−µ′N) = ∑ n1=0,1 · · · ∑ nM=0,1 e ∑ i niβ(γ+µ ′) = ( 1 + eβ(γ+µ ′) )M (2.135) que resulta idêntica com a (2.134). O número médio de partículas adsorvidas é dado por: 〈N〉 = z ∂ lnZM ∂z = M z eβγζ(T ) 1 + z eβγζ(T ) . (2.136) Se define recobrimento, θ(T, P ), à fração de partículas adsorvidas na superfície 〈N〉/M , que resulta: θ = z eβγζ(T ) 1 + z eβγζ(T ) . (2.137) A condição de equilíbrio termodinâmico entre a superfície e o gás corresponde à igualdade entre os seus potenciais quimicos. O potencial quimico do gás corres- ponde ao de um gás ideal, cujo valor é: µ = kBT ln (〈N〉 λ3T V ) (2.138) Por tanto: z ζ(T ) = 〈N〉 λ3T V = P λ3T kBT (2.139) Daniel A. Stariolo - IF-UFRGS - 2014 41 Então podemos escrever: θ = P P0 + P , (2.140) onde P0 = kBT λ3T e−βγ . (2.141) A equação (2.140) se conhece como isoterma de Langmuir e define o valor do recobrimento em função da pressão do gás para uma temperatura fixa. Notamos que para P/P0 ≪ 1 o recobrimento se comporta como θ ∼ P/P0 e θ → 1 quando P/P0 ≫ 1. O modelo de Langmuir, embora extremamente simplificado, resulta fisicamente muito natural, e por tanto serve como bom ponto de partida para incluir de forma sistemática condições mais realistas, como interações entre as partículas adsorvidas ou modelos mais sofisticados para o reservatório fluido. Capítulo 3 Estatísticas quânticas 3.1 Sistemas de partículas indistinguíveis O Princípio de Incerteza de Heisenberg leva a concluir que duas partículas idênti- cas são indistiguíveis, a menos que exista uma situação particular que limite suas posições espaciais, como é caso dos átomos em um sólido. Uma consequência desta condição é que operadores, como o Hamiltoniano de N partículas, são invariantes frente a permutações arbitrárias das variáveis di- nâmicas associadas as partículas, ou seja, os operadores são invariantes frente a uma “renumeração” das partículas. Como sabemos, por cada operação de simetria existe um operador associado que comuta com o Hamiltoniano do sistema, e pode ser diagonalizado simultaneamente. Veremos que existem apenas dois autovalores possíveis associados aos operadores de permutação de partículas, e assim o espaço de Hilbert associado a um sistema de N partículas quânticas fica dividido em doissubespaços, com características muito diferentes e implicações fundamentais para o comportamento físico dos sistemas associados a cada um deles. Vamos supor um sistema de N partículas sem spin. A função de onda corres- pondente na representação de coordenadas é Ψ(q1, . . . , qN). Trocas na enumera- ção das partículas podem ser descritas pelos operadores permutação de pares Pˆik, os quais trocam as coordenadas qi e qk na função de onda: PˆikΨ(q1, . . . , qi, . . . , qk, . . . , qN ) = Ψ(q1, . . . , qk, . . . , qi, . . . , qN ) (3.1) Se o Hamiltoniano é invariante frente a trocas arbitrárias de pares de partículas se verifica que: [ Hˆ, Pˆik ] = 0 ∀i, k = 1, . . . , N com i 6= k (3.2) 42 Daniel A. Stariolo - IF-UFRGS - 2014 43 As autofunções de Pˆik têm que satisfazer: PˆikΨ(q1, . . . , qi, . . . , qk, . . . , qN) = λΨ(q1, . . . , qi, . . . , qk, . . . , qN) = Ψ(q1, . . . , qk, . . . , qi, . . . , qN) (3.3) Aplicando novamento o operador Pˆik obtemos: Pˆ 2ikΨ(q1, . . . , qi, . . . , qk, . . . , qN) = Ψ(q1, . . . , qi, . . . , qk, . . . , qN ) = λ2Ψ(q1, . . . , qi, . . . , qk, . . . , qN). (3.4) Ou seja, os autovalores do operador permutação de pares podem tomar apenas dois valores λ = ±1. Assim, as autofunções são chamadas de simétricas se correspondem a λ = 1 e antissimétricas se correspondem a λ = −1. Se o Hamil- toniano comuta com todos os operadores de permutação, então suas autofunções podem ser construidas de forma a serem totalmente simétricas, ou seja, simétricas frente a qualquer permutação de coordenadas, ou totalmente antissimétricas, ou seja, antissimétricas frente a qualquer permutação de coordenadas. Uma permutação qualquer pode ser realizada pelo operador de permutação Pˆ , tal que: PˆΨ(q1, q2, . . . , qN ) = Ψ(qP1, qP2 , . . . , qPN ) (3.5) onde P1, . . . , PN corresponde a uma permutação arbitrária dos números 1, . . . , N . É simples notar que qualquer operador Pˆ é equivalente a aplicar uma sequência de permutações de pares Pˆij . Por tanto, as autofunções de Pˆ também serão fun- ções simétricas ou antissimétricas. Se uma autofunção qualquer do Hamiltoniano Ψ(q1, . . . , qN) não tiver nenhuma paridade definida, podemos construir autofun- ções totalmente simétricas ou totalmente antissimétricas a partir dela da seguinte forma: ΨS(q1, . . . , qN) = BS ∑ P PˆΨ(q1, . . . , qN ) (3.6) ΨA(q1, . . . , qN) = BA ∑ P (−1)P PˆΨ(q1, . . . , qN) (3.7) onde BS, BA são constantes de normalização e as somas varrem todas as possí- veis permutações dos q′is. O sinal (−1)P é +1 se a permutação for par, e −1 se for ímpar. Uma permutação é par (ímpar) se o número de permutações de pares necessárias para obter a permutação geral P1, . . . , PN a partir da 1, 2, . . . , N for par (ímpar) Daniel A. Stariolo - IF-UFRGS - 2014 44 Como exemplo, consideremos uma função de onda de três partículas Ψ(q1, q2, q3). Podemos construir funções totalmente simetrizadas com a receita anterior: ΨS(q1, q2, q3) = BS [Ψ(q1, q2, q3) + Ψ(q2, q1, q3) + Ψ(q1, q3, q2) +Ψ(q2, q3, q1) + Ψ(q3, q1, q2) + Ψ(q3, q2, q1)] ΨA(q1, q2, q3) = BA [Ψ(q1, q2, q3)−Ψ(q2, q1, q3)−Ψ(q1, q3, q2) +Ψ(q2, q3, q1) + Ψ(q3, q1, q2)−Ψ(q3, q2, q1)] Funções de onda de sistemas de partículas de um mesmo tipo (elétrons, fótons, quarks) apresentam um tipo de simetria definido frente ao intercâmbio de partícu- las. Ou seja, as funções de onda de partículas elementares são simétricas ou antis- simétricas. As partículas descritas por funções de onda simétricas são chamadas de bósons em homenagem ao físico indio Satyendra Nath Bose (1894-1974). Par- tículas descritas por funções de onda antissimétricas são chamadas de férmions, em homenagem ao físico italiano Enrico Fermi (1901-1954). O caráter de simetria das funções de onda está também relacionado com o spin das partículas elementares. Na natureza se observa que todos os férmions possuem spin semi-inteiro, enquanto que os bósons apresentam spin inteiro. Esta relação é conhecida como Teorema spin-estatística. As propriedades de simetria das partículas frente ao intercâmbio têm profun- das consequências nas propriedades físicas dos sistemas. Do ponto de vista da Mecânica Estatística, bósons e férmions se comportam de forma muito diferente, dando lugar as chamadas estatísitca de Bose-Einstein e estatística de Fermi-Dirac, cujas propriedades vamos analizar a seguir. Para poder construir autofunções com simetria definida, é necessário definir uma base inicial de autofunções do Hamiltoniano. Uma base possível é a corres- pondente a um sistema de partículas não interagentes, quando o Hamiltoniano das N partículas se reduz à soma de operadores de partícula única: Hˆ(qˆ1, . . . , qˆN , pˆ1, . . . , pˆN) = N∑ i=1 hˆ(qˆi, pˆi) (3.8) Resolvendo o problema de autovalores para uma partícula: hˆφk(q) = ǫkφk(q) (3.9) onde k representa um conjunto de números quânticos, se pode construir um auto- estado de Hˆ na forma: ΨEk1,...,kN = Π N i=1φki(qi) (3.10) Daniel A. Stariolo - IF-UFRGS - 2014 45 que corresponde a um autovalor de Hˆ: E = N∑ i=1 ǫki (3.11) Assim, no caso de partículas independentes podemos escrever as autofunções to- talmente simétricas e antissimétricas na forma: ΨE,Sk1,...,kN (q1, . . . , qN) = BS ∑ P Pˆφk1(q1) · · ·φkN (qN) (3.12) ΨE,Ak1,...,kN (q1, . . . , qN) = BA ∑ P (−1)P Pˆ φk1(q1) · · ·φkN (qN ) (3.13) A função de onda totalmente antissimétrica pode ser escrita em forma de de- terminante: ΨE,Ak1,...,kN (q1, . . . , qN) = BA det φk1(q1) · · · φk1(qN) . . . . . . φkN (q1) · · · φkN (qN ) (3.14) conhecido como determinante de Slater, por John Clarke Slater (1900-1976) que os usou para obter funções de onda antissimétricas para descrever sistemas de elétrons. Da forma do determinante se observa que se duas ou mais partículas estiverem no mesmo estado quântico, então o determinante terá duas ou mais filas ou colunas iguais, e por tanto será identicamente nulo. Este resultado corresponde ao Principio de exclusão de Pauli, ou seja, dois ou mais férmions não podem ocupar simultaneamente o mesmo estado quântico. Também notamos que um estado quântico é caracterizado completamente pelo conjunto de números quânticos {k1, . . . , kN}. Uma permutação destes índices so- mente produz um câmbio de sinal no caso antissimétrico e deixa a função de onda inalterada no caso simétrico. A indistinguibilidade das partículas frente a permu- tações faz com que a quantidade relevante para caracterizar um estado, ou função de onda, seja quantas partículas existem em cada estado. Esta especificação pode ser feita definindo os números de ocupação: nk. A especificação dos números de ocupação para todos os níveis k de cada partícula, sujeitos ao vínculo∑k nk = N determina completamente um estado simétrico. No caso de férmions, o Princípio de Exclusão limita os possíveis valores dos números de ocupação a nk = 0, 1. A impossibilidade de identificar as partículas individualmente implica que to- dos os operadores associados a obseráveis quaisquer devem comutar com os ope- radores de permutação: [ Oˆ, Pˆ ] = 0 (3.15) Daniel A. Stariolo - IF-UFRGS - 2014 46 Em particular, o operador densidade ρˆ deve também ser invariante frente a permu- tações das partículas do sistema. Uma vez definidos os números de ocupação, a energia de um autoestado de N partículas é dada por: E = ∑ k nkǫk (3.16) Se conhecermos e espectro de energias ǫi do sistema, podemos calcular a função de partição canônica do mesmo na forma Z(T,N, V ) = Tr e−βHˆ = ∑ {nk} exp (−β ∑ k nkǫk) (3.17) onde, de forma geral, o conjunto de números de ocupação deve satisfazer o vínculo∑ k nk = N . Este vínculo torna o cálculo explícito da função de partição uma tarefa complicada em geral. A dificuldade se reduz se considerarmos o ensemble grande canônico. A grande funçãode partição é dada por: Z(T, µ, V ) = Tr e−β(Hˆ−µNˆ) = ∞∑ N=0 zNZ(T,N, V ) (3.18) = ∞∑ N=0 eβµN ∑ {nk} exp (−βn1ǫ1 − βn2ǫ2 − · · · ) = ∞∑ N=0 ∑ {nk} exp (−β(ǫ1 − µ)n1 − β(ǫ2 − µ)n2 − · · · ) Como N está somado entre zero e infinito, e os n′ks estão sujeitos ao vínculo já visto, a última linha é equivalente a somar os n′ks sem restrições: Z(T, µ, V ) = ∑ n1,n2,... exp (−β(ǫ1 − µ)n1 − β(ǫ2 − µ)n2 − · · · ) = ∑ n1 e−β(ǫ1−µ)n1 ∑ n2 e−β(ǫ2−µ)n2 . . . = ∏ k ∑ nk exp [−β(ǫk − µ)nk] (3.19) A função grande potencial é dada por: Ω(T, µ, V ) = −kBT lnZ = −kBT ∑ k ln {∑ nk e−β(ǫk−µ)nk } (3.20) Daniel A. Stariolo - IF-UFRGS - 2014 47 O número de ocupação médio é dado por: 〈nk〉 = − 1 β ∂ lnZ ∂ǫk ∣∣∣∣ T,V (3.21) 3.2 Gases ideais quânticos Para um gás de Bose-Einstein a grande função de partição toma a forma: ZBE(T, µ, V ) = ∞∑ n1=0 ∞∑ n2=0 · · · ∞∑ n∞=0 exp { −β ∑ k nk(ǫk − µ) } (3.22) No caso de um sistema de férmions, o Princípio de Exclusão limita os números de ocupação resultando na estatística de Fermi-Dirac: ZFD(T, µ, V ) = 1∑ n1=0 1∑ n2=0 · · · 1∑ n∞=0 exp { −β ∑ k nk(ǫk − µ) } (3.23) 3.2.1 O gás de Maxwell-Boltzmann e o limite clássico Antes de analizar em detalhe os comportamentos de sistemas de bósons e férmi- ons, vamos considerar novamente um sistema de partículas distinguíveis, só que agora do ponto de vista das estatísticas quânticas. Se as partículas são distinguí- veis não teremos nenhuma restrição nos valores dos números de ocupação. No entanto, para um conjunto de números de ocupação fixos {nk} a troca de duas partículas em diferentes níveis ki e kj , com números de ocupação nki e nkj cor- responde agora a um novo estado, diferente do anterior, mas que não modifica os números de ocupação, e por tanto, possui o mesmo fator exponencial. Desta forma, para um conjunto de valores {nk}, devemos multiplicar o fator exponen- cial por um fator de degenerescência, que corresponde ao número de combinações diferentes de partículas (distinguíveis) entre todos os estados (níveis). A função grande partição toma a forma: Zdist(T, µ, V ) = ∞∑ n1=0 ∞∑ n2=0 · · · ∞∑ n∞=0 N ! n1!n2! · · ·n∞! exp { −β ∑ k nk(ǫk − µ) } (3.24) Para altas temperaturas o número médio de bósons em qualquer estado k é muito pequeno, e então os estados que contribuem para a função de grande partição são, Daniel A. Stariolo - IF-UFRGS - 2014 48 essencialmente, aqueles com número de ocupação 0 ou 1. Por isto, o compor- tamento de bósons e férmions em altas temperaturas é essencialmente o mesmo. Este comportamento também vale para partículas distinguíveis. Então, no limite de altas temperaturas, a única diferença entre as estatísticas de Bose-Einstein, Fermi-Dirac e partículas distinguíveis é o fator N ! na expressão desta última. No- tamos então, que se quisermos considerar as partículas a altas temperaturas como indistinguíveis basta dividir emZdist porN !, que é justamente o fator de contagem de Gibbs. Um sistema de partículas descrito pela função de grande partição: ZMB(T, µ, V ) = ∞∑ n1=0 ∞∑ n2=0 · · · ∞∑ n∞=0 1 n1!n2! · · ·n∞! exp { −β ∑ k nk(ǫk − µ) } (3.25) se conhece como gás de Maxwell-Boltzmann e descreve o comportamento a altas temperaturas de todos os gases ideais (com o correto fator de contagem). Vamos então re-derivar os resultados para o gás ideal clássico considerado como um gás de MB. É fácil somar a função de grande partição neste caso, pois os termos para diferentes números de ocupação se fatoram: ZMB(T, µ, V ) = ∏ k ( ∞∑ nk=0 1 nk! exp {−βnk(ǫk − µ)} ) = ∏ k ( exp [ e−β(ǫk−µ) ]) (3.26) onde usamos o resultado da série infinita ex = ∑∞ n=0(1/n!)x n . A função grande potencial resulta: ΩMB(T, µ, V ) = −kBT lnZMB(T, µ, V ) = −kBT ∑ k e−β(ǫk−µ) = −kBT z ∑ k e−βǫk , (3.27) onde z é a fugacidade. O número médio de partículas é dado por: 〈N〉 = − ( ∂ΩMB ∂µ ) T,V = ∑ k z e−βǫk . (3.28) Daniel A. Stariolo - IF-UFRGS - 2014 49 Como também 〈N〉 = ∑k〈nk〉, obtemos para o número de ocupação médio do estado k: 〈nk〉 = z e−βǫk . (3.29) Os resultados anteriores são válidos para qualquer espectro de energias ǫk. No caso de partículas livres, os níveis de energia são dados pela solução da equação de Shroëdinger: hˆφk(q) = ǫkφk(q) (3.30) onde hˆ = pˆ2 2m = − h¯ 2 2m d2 dq2 (3.31) em uma dimensão espacial. A extensão para mais dimensões é imediata. Os autoestados são ondas planas φk(q) = C e ikq com ǫk = h¯2k2 2m (3.32) Suponhamos que as partículas estão em um recipiente de dimensão linear L e pa- redes impenetráveis, o que pode ser implementado considerando um potencial de barreira infinita em q = 0 e q = L e zero nos outros pontos. Como a probabilidade de encontrar a partícula fora da caixa é zero, então a função de onda deve ser nula nos extremos da mesma. Isto leva a que a forma da função de onda deve ser: φk(q) = A sin (kq) (3.33) A condição de contorno φk(kL) = 0 determina os possíveis valores do vetor de onda: k = nπ L com n = 1, 2, 3, . . . (3.34) No limite termodinâmico L→∞ o espectro tenderá a ser continuo, de forma que ∑ k f(k)→ ∫ dk (π/L) f(k) (3.35) já que π/L é a distância entre valores consecutivos do vetor de onda k. Então, desconsiderando graus de liberdade internos das partículas, como o spin, e gene- Daniel A. Stariolo - IF-UFRGS - 2014 50 ralizando os resultados anteriores para d = 3, obtemos: lnZMB(T, µ, V ) = ∞∑ kx=π/L ∞∑ ky=π/L ∞∑ kz=π/L exp { −β ( h¯2k2 2m − µ )} → V ∫ ∞ −∞ d3k (2π)3 exp { −β ( h¯2k2 2m − µ )} = V (2π)3 eβµ ( 2πm βh¯2 )3/2 , (3.36) onde em três dimensões k2 = k2x+k2y+k2z . A função grande potencial é dada por: ΩMB(T, µ, V ) = −kBT lnZMB(T, µ, V ) = −V eβµ(kBT )5/2 ( 2πm h2 )3/2 (3.37) que coincide com um cálculo puramente clássico, considerando um volume uni- tário no espaço de fase igual a h3 e com o correto fator de contagem de Gibbs. Finalmente, o número médio de partículas do sistema é dado pela (3.28), que é equivalente a 〈N〉 = z ∂ ∂z lnZMB = z V ( 2πm βh2 )3/2 . (3.38) Então, a fugacidade z resulta uma função da densidade média 〈N〉/V e da tempe- ratura: z = 〈N〉 V h3 (2πmkBT )3/2 (3.39) = ( λT a )3 onde λT é o comprimento de onda térmico, e (V/〈N〉)1/3 = a representa uma distância interatômica típica. O limite clássico corresponde a altas temperaturas ou baixas densidades, então nesse limite a fugacidade é pequena z ≪ 1, o que corresponde a a≫ λT , que é a expectativa usual da mecânica quântica. Daniel A. Stariolo - IF-UFRGS - 2014 51 3.2.2 Estatística de Bose-Einstein Usando o resultado ∑∞ n=0 x n = 1/(1− x) para x < 1, de (3.22) obtemos: ∞∑ nk=0 exp {−β(ǫk − µ)nk} = 1 1− exp [−β(ǫk − µ)] (3.40) Como exp [−β(ǫk − µ)] < 1 ∀k e ǫk ≥ 0, entao ǫk − µ > 0 e o potencial quimico deve ser negativo sempre para um gás de bósons livres: µ < 0. O resultado anterior permite escrever: lnZBE(T, µ, V ) = − ∑ k ln {1− exp [−β(ǫk − µ)]} (3.41) Da definição do número de ocupação médio, eq. (3.21), obtemos no caso do gás de bósons: 〈nk〉 = 1 eβ(ǫk−µ) − 1 (3.42) Como e−β(ǫk−µ) < 1 ∀k, então 〈nk〉 ≥ 0 ∀k. Por outro lado, para baixas temperaturas β ≫ 1 resulta: 〈nk〉 ≈ 0 (3.43) para a maioria dos estados, exceto os de menor energia. 3.2.3 Estatística de Fermi-Dirac No caso de férmions nk = 0, 1 e então: 1∑ nk=0 exp {−β(ǫk − µ)nk} = 1 + e−β(ǫk−µ) (3.44) com o que lnZFD(T, µ, V ) = ∑ k ln {1 + exp [−β(ǫk − µ)]} (3.45) O número de ocupação médio resulta, neste caso: 〈nk〉 = 1 eβ(ǫk−µ)+ 1 ≈ { 1 se ǫk < µ 0 se ǫk > µ (3.46) Sempre se verifica que 0 ≤ 〈nk〉 ≤ 1. Capítulo 4 Gás ideal de Bose-Einstein Vamos descrever neste capítulo o comportamento estatístico e termodinâmica de gases de bósons independentes. A análise nos levará ao estudo do fenômeno da condensação de Bose-Einstein, uma transição de fases em um sistema quântico de partículas livres. A condensação de Bose-Einstein é uma consequência do comportamento quântico de bósons indistiguíveis e foi descrita inicialmente na década de 1920. A primeira demonstração experimental da condensação de BE veio muito mais tarde, em 1995, em trabalhos com átomos frios de rubídio Rb87 por Eric Cornell e Carl Wieman no JILA e de forma independente com átomos de sódioNa23 pelo grupo de Wolfgang Ketterle no MIT. As temperaturas críticas são da ordem dos nanokelvins, perto do zero absoluto !, e o tamanho dos condensados foi de uns 2000 átomos de rubídio e 200000 átomos de sódio aproximadamente. Por esses trabalhos Cornell, Wieman e Ketterle ganharam o Prêmio Nobel de Física em 2001. Também vamos estudar o comportamento de um gás de fótons e o problema relacionado da radiação de corpo negro. 4.1 A condensação de Bose-Einstein A partir dos resultados do capítulo anterior podemos escrever a função grande potencial para um gás de Bose-Einstein como: ΩBE = −kBT lnZBE(T, µ, V ) = kBT ∑ k ln {1− exp [−β(ǫk − µ)]}, (4.1) 52 Daniel A. Stariolo - IF-UFRGS - 2014 53 de onde podemos calcular o número médio de partículas na forma: 〈N〉 = − ( ∂ΩBE ∂µ ) T,V = ∑ k ( e−β(ǫk−µ) 1− e−β(ǫk−µ) ) = ∑ k ( 1 eβ(ǫk−µ) − 1 ) (4.2) Lembrando que 〈N〉 = ∑ k 〈nk〉 (4.3) obtemos para o número médio de partículas no estado k: 〈nk〉 = 1 eβ(ǫk−µ) − 1 = 1 z−1eβǫk − 1 (4.4) Para avançar na determinação das funções termodinâmicas devemos especificar o espectro de autovalores da energia ǫk, que define o sistema em estudo. Conside- remos então um sistema de bósons livres, cujo espectro de energias é dado por ǫk = h¯ 2k2/2m. Consideramos o sistema em uma caixa de volume V = L3 com condições de contorno periódicas. Então, os vetores de onda podem tomar os va- lores ki = (2π/L)ni, onde i = x, y, z e com ni = 0,±1, . . .. Quando L → ∞ o espectro de valores da energia ǫk se torna continuo, e as somas tendem a integrais: ∑ k · · · → ∫ d3k (2π/L)3 · · · (4.5) Desta forma, como o espectro depende de ~k somente através do módulo k = |~k|, podemos reescrever o número médio de partículas na forma: 〈N〉 = 4πV (2π)3 ∫ ∞ 0 k2 z eβh¯ 2k2/2m − z dk = 4V√ π ( 2πmkBT h2 )3/2 ∫ ∞ 0 x2 ( z ex2 − z ) dx. (4.6) Então podemos escrever uma equação de estado que relaciona a fugacidade, a temperatura e a densidade na forma: λ3Tρ = g3/2(z), (4.7) onde λT = h/ √ 2πmkBT é o comprimento de onda térmico, e definimos a função de Bose-Einstein : g3/2(z) = 4√ π ∫ ∞ 0 x2 ( z ex2 − z ) dx = ∞∑ k=1 zk k3/2 (4.8) Daniel A. Stariolo - IF-UFRGS - 2014 54 z 0.0 .5 1.0 0 1 2 3 4 g3/2(z) g5/2(z) 2.612 1.342 Figura 4.1: As funções g3/2 e g5/2. é um caso particular da familia de funções gn(z) = ∞∑ k=1 zk kn . (4.9) A função g3/2(z) é limitada e bem comportada no intervalo 0 ≤ z ≤ 1, com valores nos extremos g3/2(0) = 0 g3/2(1) = ∞∑ k=1 1 k3/2 = ζ(3/2) = 2.612 . . . (4.10) onde a função ζ(x) é a função zeta de Riemann. A derivada da g3/2(z) diverge para z → 1 e da expansão em série para z ≪ 1 se obtém que g3/2(z) ∼ z para valores pequenos de z, como se observa na figura 4.1. A equação de estado (4.7) é uma equação implícita para a fugacidade z em função de ρ e T . Mas é fácil observar que o lado esquerdo pode tomar valo- res arbitrariamente grandes para T suficientemente pequena ou ρ suficientemente grande. De fato, na figura 4.1 podemos notar que se λ3Tρ > 2.612 a equação não tem solução real, já que z ≤ 1. Concluimos que deve haver alguma inconsistência Daniel A. Stariolo - IF-UFRGS - 2014 55 no nosso cálculo anterior. Uma forma de ver onde pode residir o problema é ver o comportamento do número médio de partículas no estado fundamental, ou seja, quando ǫ = 0: 〈n0〉 = z 1− z (4.11) Notamos que limz→1〈n0〉 = ∞. Por tanto, o número de partículas no estado fundamental diverge para z → 1 no limite termodinâmico. Vamos então analizar em mais detalhe a forma como foi feito o limite termodinâmico no cálculo da equação de estado. Para isso começamos por separar a contribuição do estado fundamental da soma nos estados no cálculo do 〈N〉: 〈N〉 = z 1− z + 4πV (2π)3 ∫ ∞ 2π/L k2 z eβh¯ 2k2/2m − zdk = z 1− z + 4V λ3T √ π ∫ ∞ λT √ π/L x2 ( z ex2 − z ) dx (4.12) É possível mostrar que o limite inferior na última integral pode ser extendido a zero sem afetar o resultado no limite termodinâmico, obtendo a equação de estado na forma: λ3Tρ = λ3T V z 1− z + g3/2(z) (4.13) Na figura 4.2 vemos o comportamento do primeiro termo da equação (4.13) para diferentes valores de V . Notamos que, sempre que V seja finito, a função do lado direito de (4.13) diverge e z nunca atinge o valor máximo z = 1 para qualquer valor de T e ρ, por causa da divergência, como se mostra na figura 4.3(a). Somente quando T → 0 ou ρ → ∞ então z → 1 e, consequentemente 〈n0〉 → ∞, como é de se esperar pois nestas condições todas as partículas devem estar no estado fundamental. A solução de z em função de λ3Tρ para um volume V finito se mostra na figura 4.3(b). Consideremos agora que V ≫ 1. Agora as soluções da eq. (4.13) para λ3Tρ ≥ 2.612 serão próximas de z = 1. Assim, podemos aproximar: λ3Tρ ≈ λ3T V z 1− z + g3/2(1) (4.14) de onde podemos agora isolar para z(V ): z(V ) ≈ ρ0V 1 + ρ0V ∼ 1− 1 ρ0V (4.15) Daniel A. Stariolo - IF-UFRGS - 2014 56 z 0.0 .5 1.0 0.0 .5 1.0 V = 10 V = 100 V = 1000 z z V −1 1 Figura 4.2: O comportamento do primeiro termo da eq. (4.13) para diferentes valores do volume. z 0.0 .5 1.0 0 1 2 3 4 5 z 0.0 .5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 z 0 1 2 2.612 2.612 V O 1 V O 1 ρλ3T z z V T −1 3λ )( 1 2/3 3 zg z z V T + − λ )(2/3 zg ρλ3T Figura 4.3: (a)Solução gráfica da eq. (4.13). (b)Fugacidade de um gás ideal de Bose-Einstein em um volume finito V . Daniel A. Stariolo - IF-UFRGS - 2014 57 0 1 2 3 4 z 0 1 2 ρλ3T 2.612 Figura 4.4: Fugacidade de um gás ideal de Bose-Einstein no limite termodinâ- mico. onde ρ0 é uma quantidade que não depende de V . Assim, vemos que as soluções para λ3Tρ ≥ 2.612 tendem para z = 1 quando V → ∞. A fugacidade de um gás de Bose-Einstein, no limite termodinâmico é, por tanto: z = { 1 se λ3Tρ ≥ g3/2(1) a raiz de λ3Tρ = g3/2(z) se λ3Tρ < g3/2(1) (4.16) como se mostra na figura 4.4. Vemos então que se λ3Tρ ≥ g3/2(1) um número macroscópico de partículas passam a ocupar o estado fundamental. Este fenômeno se conhece como conden- sação de Bose-Einstein, e começa a acontecer quando z → 1. A condição z = 1 permite definir uma temperatura de transição como λ3Tcρ = g3/2(1), o que resulta em uma temperatura crítica: Tc = ( h2 2πmkB )( ρ g3/2(1) )2/3 (4.17) Invertendo a mesma equação podemos obter o volume específico crítico em fun- Daniel A. Stariolo - IF-UFRGS - 2014 58 ção da temperatura: vc = 1 ρc = ( h2 2πmkB )3/2 g3/2(1) T 3/2 (4.18) Escrevendo a equação de estado na região de condensação na forma: ρ = ρ0 + 1 λ3T g3/2(1), (4.19) podemos calcular a fração de bósons no estado fundamental: 〈n0〉 〈N〉 = ρ0 ρ = 1− 1 ρλ3T g3/2(1) (4.20) = 1− λ 3 Tc λ3T = 1− ( T Tc )3/2 (4.21)Então vemos que a fração de partículas no estado fundamental, no limite termodi- nâmico, se comporta como um parâmetro de ordem: η ≡ 〈n0〉〈N〉 = { 1− ( T Tc )3/2 se T ≤ Tc 0 se T > Tc (4.22) como se mostra na figura 4.5. Para determinar o comportamento da pressão no condensado de Bose-Einstein, reescrevemos a função grande potencial (4.1) no limite continuo e após ter sepa- rado a contribuição do estado fundamental, obtendo: ΩBE = kBT ln (1− z) + 4πkBTV (2π)3 ∫ ∞ 2π/L k2 ln (1− zeβh¯2k2/2m)dk = kBT ln (1− z) + 4kBTV λ3T √ π ∫ ∞ λT √ π/L x2 ln (1− zex2)dx (4.23) Então, a pressão é dada por: P = −ΩBE V = −kBT V ln (1− z) + kBT λ3T g5/2(z) (4.24) onde g5/2(z) = 4√ π ∫ ∞ 0 x2 ln (1− ze−x2)dx = ∞∑ k=1 zk k5/2 (4.25) Daniel A. Stariolo - IF-UFRGS - 2014 59 Figura 4.5: Parâmetro de ordem η = 〈n0〉/〈N〉 vs. temperatura reduzida para um sistema de bósons em um potencial harmônico confinante. Os pontos pretos são resultados experimentais e a linha cheia a predição teórica para um sistema de bósons não interagentes. O inset mostra o número total de átomos na gaiola após o resfriamento do sistema. Figura copiada de [1] A função g5/2(z) também é monótona crescente valendo g5/2(0) = 0 e g5/2(1) = ζ(5/2) = 1.342 . . . e é mostrada na figura 4.1. Vejamos o comportamento do pri- meiro termo da (4.24). Se z < 1 então é evidente que limV→∞(1/V ) ln (1− z) = 0. Por outra parte, para z → 1: lim V→∞ ( 1 V ln (1− z(V )) ) = 0 (4.26) Então, a pressão é dada por: P = { kBT λ3T g5/2(1) se λ 3 Tρ ≥ g3/2(1) kBT λ3T g5/2(z) se λ 3 Tρ < g3/2(1) (4.27) Notamos que na região do condensado a pressão é independente da densidade. A partir deste resultado podemos analizar o comportamento das isotermas no espaço Daniel A. Stariolo - IF-UFRGS - 2014 60 (P, v), por exemplo. Para uma temperatura constante temos um ponto de transição P = Pc(vc) que se obtém fazendo z = 1 na solução para a pressão. Usando agora a expressão correspondente ao ponto crítico, eq. (4.18), podemos escrever a temperatura em função de vc. Obtemos: Pc(vc) = h2g5/2(1) 2πm(g3/2(1))5/3 1 v 5/3 c . (4.28) Y P T1 T2 T3 Yc(T2) Figura 4.6: Isotermas do gás ideal de Bose-Einstein para três temperaturas T1 < T2 < T3. A linha tracejada corresponde à curva Pc(vc). Para cada temperatura a relação anterior define uma linea crítica no plano (P, v). Na figura 4.6 se mostra o comportamento de algumas isotermas do gás de Bose-Einstein. Vemos que, para v < vc(T ) entramos na região do condensado e a pressão é independente do volume específico P = cte. A forma das isotermas lembra a forma das isotermas da transição líquido-gás em um líquido clássico na região de coexistência. Neste caso a coexistência corresponderia ao condensado de partículas no estado fundamental e ao resto que formam a fase normal, ou “ga- sosa”. No entanto não podemos puxar a analogia muito longe, dado que de fato a fração de partículas nos estados excitados tende para zero no limite termodinâ- mico, e a condensação de fato acontece no espaço de momentos, e não no espaço Daniel A. Stariolo - IF-UFRGS - 2014 61 real. Continuando com a analogia podemos nos perguntar quais são os volumes específicos das fases condensada e gasosa. Da figura 4.6 podemos concluir que o volume específico do gás corresponde ao ponto vc(T ). Mas o volume especí- fico do condensado deveria ser zero nesta interpretação, ou seja, a densidade do condensado é infinita. Este resultado é claramente não físico, e provém do fato de estar considerando partículas livres (não interagentes) que podem se aproximar indefinidamente entre elas. Outra característica marcante do condensado de Bose-Einstein é a forma do calor específico em função da temperatura. Para isso calculemos inicialmente a entropia por unidade de volume. Esta é dada por: s = lim V→∞ − 1 V ( ∂ΩBE ∂T ) V,µ = lim V→∞ ( ∂P ∂T ) V,µ (4.29) Derivando em (4.27) e fazendo uso da propriedade dgn(z) dz = 1 z gn−1(z) (4.30) obtemos s = { 5 2 kB λ3T g5/2(1) se λ 3 Tρ ≥ g3/2(1) 5 2 kB λ3T g5/2(z)− kBρ ln z se λ3Tρ < g3/2(1) (4.31) Se pode verificar facilmente que s = 0 quando T = 0 em acordo com a terceira lei da Termodinâmica. Agora estamos em condições de calcular o calor específico a densidade constante, dado por: cρ = T ( ∂s ∂T ) ρ (4.32) Derivando em (4.31) mantendo ρ constante se obtém: cρ = { 15 4 kB λ3T g5/2(1) se λ 3 Tρ ≥ g3/2(1) 15 4 kB λ3T g5/2(z)− kBρ94 g3/2(z) g1/2(z) se λ3Tρ < g3/2(1) (4.33) O calor específico em função de T é mostrado na figura 4.7. Notando que g1/2(z) → ∞ quando z → 1 resulta que cρ é continuo no ponto crítico, apresentando uma derivada descontinua. Para altas temperaturas cρ tende ao valor constante correspondente ao gás ideal clássico. Para temperaturas baixas, cρ ∼ T 3/2, da mesma forma que a entropia, e tende a zero para temperatura zero. Daniel A. Stariolo - IF-UFRGS - 2014 62 T 0 1 2 3 C ρ / (k Bρ ) 0.0 .5 1.0 1.5 2.0 2.5 3.0 Tc Figura 4.7: Calor específico a densidade constante do gás ideal de Bose-Einstein em função da temperatura. Como vimos, o gás de Bose-Einstein apresenta uma série de comportamen- tos que não são compatíveis com a realidade, como isotermas planas, um calor específico continuo na transição de fase, etc. A origem básica destes defeitos do sistema é o fato de desprezar completamente as interações entre os bósons. Neste sentido é interessante notar que o fenômeno da condensação aparece quando ρλ3T = g3/2(1) (4.34) ou seja, quando λT v1/3 = ( g3/2(1) )1/3 ≈ 1, 377 (4.35) Nestas condições o comprimento de onda de de Broglie é da ordem da distân- cia típica entre as partículas, e nesta situação é claro que as interações entre as partículas não podem ser desprezadas. Modelos mais realistas levam em conta in- terações repulsivas de curto alcance entre os bósons, importantes a temperaturas muito baixas. Incluindo efeitos das interações repulsivas os comportamentos não físicos vistos antes desaparecem, sem no entanto desaparecer o fenômeno da con- densação. Para uma descrição qualitativa dos recentes resultados experimentais Daniel A. Stariolo - IF-UFRGS - 2014 63 em condensados de Bose-Einstein em átomos frios se pode consultar, por exem- plo, o livro de Pathria [1], terceira edição. Tal vez a predição mais importante do gás de Bose-Einstein seja que é possí- vel ter uma transição de fases exclusivamente como consequência da estatística, independente das interações entre as partículas. Finalmente, se consideramos o limite de altas temperaturas ou baixas densi- dades, ou seja, quando λT v1/3 ≪ (g3/2(1))1/3 (4.36) temos que z → 0 e então g5/2(z) ≈ g3/2(z) ≈ g1/2(z) ∼ z. Assim, neste regime ρ ≈ z λ3T (4.37) enquanto que para a pressão obtemos: P ≈ kBTz λ3T = ρkBT = 〈N〉kBT V (4.38) e a equação para o calor específico se reduz a cρ ≈ 15 4 kBz λ3T − 9 4 kBρ = 3 2 ρkB (4.39) Vemos então que a altas temperaturas ou baixas densidades o gás de Bose-Einstein se comporta como um gás ideal clássico, ou seja, os efeitos da estatística quântica se tornam desprezíveis. 4.2 Radiação de corpo negro No final do século XIX um problema relevante era a determinação das proprie- dades do espectro de radiação de materiais, em particular de corpos astronômicos como as estrelas. Se observou que o espectro não dependia de propriedades do material específico, como composição química, forma, e sim das suas variáveis termodinâmicas, como temperatura. A partir das leis de Maxwell do campo eletro- magnético se tentou determinar a densidade de energia emitida por uma cavidade de volume V em um material qualquer, em equilíbriona temperatura T . Nestas condições, as paredes da cavidade emitem e abosorvem continuamente radiação eletromagnética, cuja distribuição de frequências, e por conseguinte sua energia, devem ser consequência do estado termodinâmico dos átomos que as formam. Daniel A. Stariolo - IF-UFRGS - 2014 64 Através de uma análise clássica a partir das soluções de ondas das equações de Maxwell e considerações estatísticas no Hamiltoniano do campo eletromagnético se conclui que a densidade de energia da radiação em um corpo negro é dada por: U V = ∫ ∞ 0 u(ν)dν. (4.40) onde u(ν) = 8π c3 kBTν 2 (4.41) é a densidade na frequência ν ou densidade espectral. O resultado (4.41) ficou conhecido como a lei de Rayleigh-Jeans. Logo se reconheceu que este resultado não podia estar correto, pois implica que U V = 8π c3 kBT ∫ ∞ 0 ν2dν →∞, (4.42) o que foi chamado de “catástrofe do ultravioleta” por ser o comportamento em altas frequências o responsável pela divergência da densidade de energia. A solução deste problema deu origem ao desenvolvimento da Mecânica Quân- tica, quando Max Planck em 1900 propós que os osciladores que formavam o campo eletromagnético somente poderiam ter um conjunto “discreto” de energias, múltiplos inteiros de uma quantidade fundamental dada por h¯ω. Posteriormente, os trabalhos de Bose e Einstein em torno de 1925 levaram em conta o caráter indistinguível das partículas quânticas, o que permite uma derivação alternativa e completamente equivalente dos resultados de Planck. Neste último tratamento, em lugar de considerar um gás de osciladores quânticos (distinguíveis), a formulação do problema leva naturalmente a considerar um gás de bósons não interagentes, os quanta do campo eletromagnético, chamados fótons. Vamos ver na sequência alguns resultados relevantes de ambas abordagens. 4.2.1 A lei de Planck A solução de Planck é equivalente a considerar um gás de osciladores quânticos com Hamiltoniano dado por: H = ∑ ~k,j h¯ω(~k)n~k,j (4.43) onde ω(~k) = ck é a relação de dispersão do campo electromagnético (c é a velo- cidade da luz no vácuo), j = 1, 2 corresponde as duas polarizações transversais Daniel A. Stariolo - IF-UFRGS - 2014 65 do campo eletromagnético e n~k,j = 0, 1, . . .. A função de partição canônica pode ser escrita na forma: Z = ∏ ~k,j Z~k,j (4.44) Notar que, neste problema, os osciladores são distinguíveis, cada um tendo uma frequência característica própria. Além do mais, o número de osciladores é inde- finido, podendo ser infinito mesmo em um volume finito. Obtemos: Z~k,j = ∞∑ n=0 e−βh¯ω( ~k)n = 1 1− e−βh¯ω(~k) (4.45) Desta forma: lnZ = ∑ ~k,j lnZ~k,j = −2 ∑ ~k,j ln [ 1− e−βh¯ω(~k) ] (4.46) e a energia interna resulta U = − ∂ ∂β lnZ = 2h¯c ∑ ~k k eβh¯ck − 1 . (4.47) No limite termodinâmico, substituindo ∑ ~k → V (2π)3 ∫ d3k, obtemos: U(T, V ) = V h¯c π2 ∫ ∞ 0 k3 eβh¯ω(~k) − 1dk. (4.48) Da Ec.(4.48) e considerando que ω = 2πν = ck resulta que U V = 8πh c3 ∫ ∞ 0 ν3 eβhν − 1dν, (4.49) de onde sai a lei de radiação de Planck: u(ν, T ) = 8πh c3 ν3 eβhν − 1 . (4.50) Daniel A. Stariolo - IF-UFRGS - 2014 66 No limite de baixas frequências ν → 0 a Ec.(4.50) reproduz a lei de Rayleigh- Jeans: u(ν) ∼ 8π c3 kBTν 2. (4.51) No entanto, a integral (4.49) é finita. De fato, fazendo o câmbio de variáveis x = βhν obtemos a ley de Stefan-Boltzmann: U V = 8π (hc)3 (kBT ) 4 ∫ ∞ 0 x3 ex − 1dx = σT 4 (4.52) que da a densidade total de energia dentro da cavidade. 4.2.2 O gás de fótons Uma interpretação física dos osciladores de Planck pode ser dada a partir da quantização do campo eletromagnético, proposto por Paul A. M. Dirac em 1928. Na quantização do campo eletromagnético surgem operadores cujas autofunções correspondem a estados simétricos de N partículas independentes com energias h¯ω(~k) e N = ∑ ~k,j n~k,j com n~k,j = 0, 1, 2, . . .. Por tanto, os números quânticos n~k,j podem ser interpretados como números de ocupação de estados de partícu- las com energias h¯ω(~k). Assim, o campo eletromagnético pode ser considerado como composto por partículas, chamadas fótons, que obedecem a estatística de Bose-Einstein. Os fótons possuem momento linear ~p = h¯~k e se movem na velo- cidade da luz c. Por tanto devem possuir massa em repouso nula para sua energia ser consistente com a expressão relativística ε = √ c2p2 +m2c4 = cp. Uma característica importante do gás de fótons é que o número deles na cavi- dade não se conserva, pois fótons são constantemente emitidos e aborvidos pelo corpo negro. Isto equivale ao sistema ter um potencial quimico nulo µ = 0. Desta forma, o potencial de um gás de fótons no ensemble grande canônico é dado por: Ω(T, V ) = 2kBT ∑ ~k ln ( 1− e−βh¯ω(~k) ) . (4.53) onde o fator 2 é consequência da degenerescência nas direções de polarizão da radiação. O número médio de fótons com momento h¯~k, independentemente da direção de polarização é dado por: 〈 n~k 〉 = 2 eβh¯ω(~k) − 1 . (4.54) Daniel A. Stariolo - IF-UFRGS - 2014 67 A partir deste resultado, a energia interna pode ser calculada facilmente: U(T, V ) = ∑ ~k h¯ω(~k) 〈 n~k 〉 . (4.55) Substituindo (4.54) na (4.55) obtemos a equação (4.47). Como estamos traba- lhando no formalismo grande canônico, a pressão da radiação na cavidade pode ser obtida facilmente na forma: P = −Ω V = −kBT π2 ∫ ∞ 0 k2ln ( 1− e−βh¯ck) dk. (4.56) Integrando por partes e comparando com (4.48) obtemos a equação de estado para um gás de fótons: P = U 3V . (4.57) Para completar esta descrição, notamos que nas funções termodinâmicas do gás de fótons não aparece nenhuma singularidade, ou seja, os fótons não apre- sentam o fenômeno da condensação de Bose-Einstein. O motivo disto é que o número de fótons não se conserva, e por tanto, eles aparecem e desaparecem em lugar de condensar. Capítulo 5 Gás ideal de Fermi-Dirac Os férmions são partículas de spin semi-inteiro. Já vimos que o Princípio de Exclusão de Pauli limita o número de férmions en cada estado quântico a ser zero ou um. A estatística que resulta deste vínculo leva o nome de estatística de Fermi- Dirac. Assim, podemos escrever a função grande partição na forma (3.23): ZFD(T, µ, V ) = ∏ l 1∑ nl=0 e−βnl(ǫl−µ) (5.1) onde o índice l indica um conjunto de números quânticos l = (~k, σ), onde σ = ±(2s + 1)/2 é o número quântico de spin, correspondente aos autovalores do operador de spin Sz = ±(2s+1)h¯/2, com s = 0, 1, 2 . . .. Por exemplo, os elétrons têm spin σ = ±1/2, ou seja s = 0. Se o espectro de energias é independente do spin (em ausência de campos eletromagnéticos), podemos escrever: ZFD(T, µ, V ) = ∏ ~k 1∑ n~k,σ=1/2=0 e −βn~k,σ=1/2(ǫ~k−µ) 1∑ n~k,σ=−1/2=0 e −βn~k,σ=−1/2(ǫ~k−µ) = ∏ ~k ( 1 + e−β(ǫ~k−µ) )2 (5.2) Em geral, para férmions de spin |σ| arbitrário teremos g = 2|σ| + 1 autovalores, e consequentemente a potência 2 na expressão (5.2) corresponde ao valor de g. O potencial grande canônico é dado por: ΩFD = −kBT lnZFD(T, µ, V ) = −gkBT ∑ k ln {1 + exp [−β(ǫk − µ)]} (5.3) 68 Daniel A. Stariolo - IF-UFRGS - 2014 69 O número médio de partículas é então dado por: 〈N〉 = − ( ∂Ω ∂µ ) T,V = g ∑ k 1 eβ(ǫk−µ) + 1 = ∑ k 〈nk〉 (5.4) Então, o número médio de ocupação do nível de energia ~k tem a forma: 〈nk〉 = g eβ(ǫk−µ) + 1 . (5.5) Na figura 5.1 se mostra o comportamento do número médio de ocupação. Figura 5.1: O valor médio do número de ocupação de um gás de Fermi-Dirac, para um dado valor do momento ~k. A energia interna de um sistema de férmions é dada por: U = ∑ k ǫk〈nk〉 = ∑ k gǫk eβ(ǫk−µ) + 1 (5.6) e a pressão resulta:P = −ΩFD V = gkBT V ∑ k ln { 1 + e−β(ǫk−µ) } (5.7) Daniel A. Stariolo - IF-UFRGS - 2014 70 Os resultados anteriores são válidos para qualquer sistema fermiônico, depen- dem do espectro de energias ǫk. No caso de um gás ideal de férmions, o espectro de energias é de partícula livre: ǫk = h¯2k2 2m (5.8) Neste caso, fazendo o limite para o continuo, cambiando variáveis e expres- sando as quantidades anteriores em termos da energia ǫ, podemos escrever: 〈N〉 = gV ∫ ∞ 0 D(ǫ) f(ǫ) dǫ (5.9) U = gV ∫ ∞ 0 ǫD(ǫ) f(ǫ) dǫ (5.10) (5.11) onde D(ǫ) = 1 4π2 ( 2m h¯2 )3/2 ǫ1/2 (5.12) e f(ǫ) = 1 eβ(ǫ−µ) + 1 (5.13) é a função distribuição de Fermi-Dirac. Seguindo o mesmo procedimento e inte- grando por partes na expressão para a pressão (5.7) obtemos a equação de estado do gás ideal de Fermi: P = 2 3 U V = 2 3 g ∫ ∞ 0 ǫD(ǫ) f(ǫ) dǫ (5.14) 5.1 Gás de Fermi completamente degenerado (T = 0) A T = 0 a função distribuição tem a forma de um degrau em ǫ = µ, como se mostra na figura 5.1. O férmions então vão preenchendo os níveis de energia acessíveis, obedecendo o Princípio de Exclusão, até o chamado “nível de Fermi” ou “energia de Fermi” que é função da densidade do sistema. Para obter o valor da energia de Fermi ǫF notamos que, para T = 0 〈N〉 = gV ∫ ǫF 0 D(ǫ) dǫ (5.15) Daniel A. Stariolo - IF-UFRGS - 2014 71 onde podemos interpretar D(ǫ) como sendo a densidade de estados de energia ǫ. Integrando obtemos: ǫF = h¯ 2m ( 6π2 g )2/3( N V )2/3 (5.16) A pressão a T = 0 é dada por: P = 2 3 g ∫ ǫF 0 ǫD(ǫ) dǫ = 2 5 ǫFρ = h¯2 5m ( 6π2 g )2/3 ρ5/3 (5.17) Notamos que, mesmo a T = 0, o gás de Fermi possui um pressão finita. Isto é consequência do Princípio de Exclusão, que impede uma ocupação arbitrária dos estados. Se pode definir uma “temperatura de Fermi” na forma TF = ǫF kB (5.18) Esta temperatura determina uma escala abaixo da qual as propriedades do sistema são essencialmente quânticas. Por exemplo, em metais alcalinos como o Na e o Li, a temperatura de Fermi é da ordem TF ∼ O(104K). Nestes metais os elétrons de condução podem ser considerados como um gás de férmions livres em primeira aproximação (modelo de Drude e Lorentz). Nas estrelas anãs brancas a TF ∼ O(109K). Para comparação, a temperatura física do Sol é ∼ 105K. No interior do núcelo atômico, a matéria nuclear fermiônica possui uma temperatura de Fermi TF ∼ O(1011K). 5.2 Gás de Fermi degenerado (T ≪ TF ) A temperaturas finitas porém muito menores que TF alguns férmions são excita- dos e passam a ocupar estados de energia acima do nível de Fermi. As grandezas termodinâmicas agora dependem da temperatura. Uma análise rápida, qualitativa, permite estimar o número de férmions excitados e o excesso na energia interna do sistema. Por causa do termo exponencial na distribuição de Fermi, para poder excitar partículas acima do nível de Fermi é necessário que ǫ−µ ∼ kBT , ou seja, a energia de excitação é da ordem kBT (ver figura 5.1). Assim, a área debaixo Daniel A. Stariolo - IF-UFRGS - 2014 72 da curva no integrando em (5.9) acima do nível de Fermi é da ordem D(ǫF )kBT (ver figura 5.2), e então ∆N ≈ gV D(ǫF )kBT. (5.19) Pelo mesmo raciocínio, a partir de (5.10) o excesso de energia devido aos férmi- Figura 5.2: A função D(ǫ)f(ǫ) para temperaturas baixas T ≪ TF . ons excitados é da ordem ∆U ≈ gV D(ǫF )(kBT )2 (5.20) Uma consequência importante deste comportamento é que a contribuição dos graus de liberdade fermiônicos para o calor específico em baixas temperaturas é linear com T , cV ∼ cte T . Em geral, na temperatura ambiente, esta contribui- ção resulta desprezível frente a contribuição das vibrações da rede cristalina, a contribuição dos fônons (que são bósons), que é da ordem T 3: cV ∼ a T + b T 3 (5.21) Vamos então determinar as funções termodinâmica do gás de Fermi a tempe- raturas finitas T ≪ TF . Temos que resolver as integrais em (5.9) e (5.10) para o número médio de partículas e a energia interna do gás, respectivamente. Notamos que todas as integrais são da forma: I = ∫ ∞ 0 φ(ǫ)f(ǫ) dǫ (5.22) Daniel A. Stariolo - IF-UFRGS - 2014 73 onde φ(ǫ) = Aǫn, com n ≥ 1/2. Integrando por partes em I , chamando u = f(ǫ) e dv = φ(ǫ)dǫ, obtemos: I = f(ǫ)v(ǫ)|∞0 − ∫ ∞ 0 f ′(ǫ)v(ǫ)dǫ = − ∫ ∞ 0 f ′(ǫ)v(ǫ)dǫ (5.23) onde v(ǫ) = ∫ ǫ 0 φ(u)du. Como f ′(ǫ) é nula em quase todo o intervalo de integra- ção exceto em uma região estreita no entorno de ǫ = µ, podemos expandir v(ǫ) em série de Taylor no entorno de ǫ = µ: v(ǫ) = v(µ) + ∂v ∂ǫ ∣∣∣∣ ǫ=µ (ǫ− µ) + . . . = ∞∑ k=0 1 k! ∂kv ∂ǫk ∣∣∣∣ ǫ=µ (ǫ− µ)k. (5.24) Então, as integrais se reduzem a integrais do tipo: Ik = − ∫ ∞ 0 f ′(ǫ)(ǫ− µ)k dǫ (5.25) Cambiando variáveis para x = β(ǫ− µ), podemos reescrever: Ik = 1 βk ∫ ∞ −βµ xk ex (ex + 1)2 dx (5.26) Para T ≪ TF : Ik = 1 βk ∫ ∞ −∞ xk ex (ex + 1)2 dx+O(e−βµ) (5.27) Desprezando a correção exponencial e notando que as integrais para k ímpares se anulam, obtemos para as duas primeiras contribuições: I0 = 1 I2 = π2 3β2 (5.28) Por tanto: I = v(µ) I0 + 1 2 ∂2v ∂ǫ2 ∣∣∣∣ ǫ=µ I2 + . . . = ∫ µ 0 φ(s) ds+ π2 6 ∂2v ∂ǫ2 ∣∣∣∣ ǫ=µ (kBT ) 2 +O(T 4) (5.29) Daniel A. Stariolo - IF-UFRGS - 2014 74 Com estes resultados é possível obtermos expressões para o número de partículas, a energia interna e a equação de estado do gás de Fermi a temperaturas baixas: 〈N〉 = = gV ∫ ∞ 0 D(ǫ) f(ǫ) dǫ = gV C ∫ ∞ 0 f(ǫ) ǫ1/2dǫ = gV C [ 2 3 µ3/2 + π2 12 (kBT ) 2µ−1/2 + . . . ] (5.30) onde C = 1 4π2 ( 2m h¯2 )3/2 . Reorganizando os termos da expressão anterior podemos escrever: ǫ 3/2 F = µ 3/2 [ 1 + π2 8 ( kBT µ )2 + . . . ] . (5.31) Invertendo essa equação obtemos uma expansão para o potencial quimico a baixas temperaturas: µ = ǫF [ 1− π 2 12 ( T TF )2 + . . . ] (5.32) que mostra que µ < ǫF para T pequenas. A energia interna é dada por: U = gV ∫ ∞ 0 ǫD(ǫ) f(ǫ) dǫ = gV C ∫ ∞ 0 f(ǫ) ǫ3/2dǫ = gV C [ 2 5 µ5/2 + π2 4 (kBT ) 2µ1/2 + . . . ] (5.33) Inserindo o resultado (5.32) na expressão anterior obtemos: U = 3 5 NǫF [ 1 + 5π2 12 ( T TF )2 + . . . ] (5.34) O calor específico a volume constante do gás de Fermi vem dado por: cV = 1 N ( ∂U ∂T ) V,N = π2 2 kB T TF (5.35) que mostra o comportamento linear da contribuição fermiônica ao calor específico do sistema. Daniel A. Stariolo - IF-UFRGS - 2014 75 5.3 Magnetismo em um gás ideal de férmions As propriedades magnéticas dos materiais são determinadas quase exclusivamente pelos momentos magnéticos dos elétrons dos átomos do material. Os momentos magnéticos dos núcleos atômicos são da ordem de mil vezes mais fracos que os momentos dos elétrons, e por tanto podem ser desprezados para descrever as res- postas magnéticas mais importantes. Desta forma, os diferentes comportamentos magnéticos observados nos materiais estão estreitamente relacionados com a esta- tística de Fermi-Dirac e o Princípio de Exclusão de Pauli. Em muitos materiais os momentos magnéticos apresentam uma forte interação mútua, o que origina uma rica diversidade de comportamentos e fases magnéticas, sendo os mais comuns o ferromagnetismo e o antiferromagnetismo. Por outra parte, mesmo nos casos em que os momentos magnéticos intera- gem de forma fraca entre si, na presença de campos magnéticos externos os elé- trons apresentam dois tipos característicos de comportamentos: (a) movimento em órbitas quantizadas perpendiculares ao campo magnético aplicado, que ori- ginaum acoplamento entre os momentos angulares orbitais e o campo, e (b) os spins dos elétrons tendem a se alinharem na direção do campo magnético externo. O primeiro efeito produz o fenômeno do diamagnetismo enquanto que o segundo produz o paramagnetismo. O paramagnetismo foi estudado em uma abordagem clássica por Paul Langevin no início do século XX. Mais tarde, Wolfgang Pauli descreveu o comportamento de um gás ideal de elétrons em presença de um campo externo, o que ficou conhecido como “paramagnetismo de Pauli”. 5.3.1 Paramagnetismo de Pauli A interação entre um campo magnético e os graus de liberdade de spin dos elé- trons livres leva a um desdobramento dos orbitais ou níveis de energia do sistema conhecido como “efeito Zeeman”. O Hamiltoniano do sistema é dado por: H = N∑ i=1 [ 1 2m p2i − µ0 ~B.~σi ] (5.36) onde ~B é um campo magnético uniforme, µ0 é o “magneton de Bohr” e ~σ são os operadores de spin. Notamos que, como a interação com o campo é local, o Hamiltoniano ainda corresponde a soma de contribuições de partícula única. O Hamiltoniano para um elétron em presença de um campo orientado na direção z Daniel A. Stariolo - IF-UFRGS - 2014 76 é: H1 = 1 2m p2 − µ0Bσz (5.37) e por tanto o espectro de energia de um elétron resulta: ǫ(~p, s) = 1 2m p2 − µ0Bs, (5.38) onde s = ±1. O potencial grande canônico é dado por: Ω = −kBT ∑ ~p ∑ s=±1 ln ( 1 + ze−βǫ(~p,s) ) = −kBT ∑ ~p ∑ s=±1 ln { 1 + z exp ( − β 2m p2 + βµ0Bs )} . (5.39) No limite continuo obtemos: Ω = −4πkBTV (2π)3 ∫ ∞ 0 k2 ∑ s=±1 ln { 1 + z exp ( − β 2m h¯2k2 + βµ0Bs )} dk = −kBTV 4π2 ( 2m h¯2 )3/2 ∫ ∞ 0 ǫ1/2 ∑ s=±1 ln { 1 + ze−βǫ+βµ0Bs } dǫ (5.40) onde na última linha foi feito o câmbio de variáveis ǫ = h¯2k2/2m. Como s = ±1, podemos escrever: Ω = Ω+ + Ω− (5.41) onde Ω± = −kBTV 4π2 ( 2m h¯2 )3/2 ∫ ∞ 0 ǫ1/2 ln ( 1 + ze−βǫ±βµ0B ) dǫ. (5.42) O número médio de elétrons é dado por: 〈N〉 = − ( ∂Ω ∂µ ) T,V,B = 〈N+〉+ 〈N−〉 , (5.43) onde 〈N±〉 = V 4π2 ( 2m h¯2 )3/2 ∫ ∞ 0 ǫ1/2 { 1 + z−1eβǫ∓βµ0B }−1 dǫ. (5.44) Daniel A. Stariolo - IF-UFRGS - 2014 77 A função grande potencial termodinâmico é função do campo magnético: Ω(T, µ, V, B) = U − TS − µN − BM (5.45) M é o momento magnético médio do sistema, ou magnetização: M = − ( ∂Ω ∂B ) T,V,µ = µ0 (〈N+〉 − 〈N−〉) . (5.46) Magnetização no estado fundamental Quando β → ∞ e µ0B ≪ ǫF então µ → ǫF e z → eβǫF . O integrando de 〈N+〉 se comporta na forma: 1 1 + z−1 exp (βǫ− βµ0B) ∼ 1 1 + exp [β (ǫ− µ0B − ǫF )] ∼ { 1 ǫ− µ0B − ǫF < 0 0 ǫ− µ0B − ǫF > 0 (5.47) e 〈N+〉 = V 4π2 ( 2m h¯2 )3/2 ∫ ǫF+µ0B 0 ǫ1/2dǫ = 2 3 V 4π2 ( 2m h¯2 )3/2 (ǫF + µ0B) 3/2 (5.48) Da mesma forma obtemos: 〈N−〉 = 2 3 V 4π2 ( 2m h¯2 )3/2 (ǫF − µ0B)3/2 (5.49) Então 〈N〉 = 1 6 V π2 ( 2m h¯2 )3/2 [ (ǫF + µ0B) 3/2 + (ǫF − µ0B)3/2 ] (5.50) M = 1 6 V π2 ( 2m h¯2 )3/2 µ0 [ (ǫF + µ0B) 3/2 − (ǫF − µ0B)3/2 ] . (5.51) Daniel A. Stariolo - IF-UFRGS - 2014 78 Escrevendo 〈N〉 = 1 6 V π2 ( 2m h¯2 )3/2 ǫ 3/2 F [ (1 + µ0B/ǫF ) 3/2 + (1− µ0B/ ǫF )3/2 ] (5.52) M = 1 6 V π2 ( 2m h¯2 )3/2 µ0ǫ 3/2 F [ (1 + µ0B/ǫF ) 3/2 − (1− µ0B/ǫF )3/2 ] , (5.53) podemos fazer expansões para campos fracos µ0B ≪ ǫF : 〈N〉 = 1 3 V π2 ( 2m h¯2 )3/2 ǫ 3/2 F +O [( µ0B ǫF )2] (5.54) M = V 2π2 ( 2m h¯2 )3/2 µ0ǫ 3/2 F ( µ0B ǫF ) +O [( µ0B ǫF )3] . (5.55) Então, para campos fracos: M ∼ 3 2 〈N〉µ0 ( µ0B ǫF ) ; (5.56) isto é, a magnetização é diretamente proporcional ao campo magnético B e por tanto a susceptibilidade a campo nulo é constante e positiva: χ0 = 1 V ( ∂M ∂B ) V,N ∣∣∣∣∣ T=0,B=0 = 3ρµ20 2ǫF (5.57) Este é um dos resultados característicos do paramagnetismo de Pauli. Magnetização no limite degenerado T ≪ TF A temperatura finita a magnetização é dada por: M = µ0 (〈N+〉 − 〈N−〉) = V 4π2 ( 2m h¯2 )3/2 µ0 ∫ ∞ 0 ǫ1/2 {f(ǫ− µ0B)− f(ǫ+ µ0B)} dǫ. (5.58) Daniel A. Stariolo - IF-UFRGS - 2014 79 Para campos fracos µ0B ≪ ǫF podemos expandir as expressões para a distri- buição de Fermi, obtendo: M ∼ − V 2π2 ( 2m h¯2 )3/2 µ20B ∫ ∞ 0 ǫ1/2f ′(ǫ)dǫ = V 4π2 ( 2m h¯2 )3/2 µ20B ∫ ∞ 0 ǫ−1/2f(ǫ)dǫ, (5.59) onde na segunda linha foi feita uma integração por partes. Da mesma forma se obtém para o número médio de férmions: 〈N〉 = V 4π2 ( 2m h¯2 )3/2 ∫ ∞ 0 ǫ1/2 {f(ǫ− µ0B) + f(ǫ+ µ0B)} dǫ ∼ V 2π2 ( 2m h¯2 )3/2 ∫ ∞ 0 ǫ1/2f(ǫ)dǫ. (5.60) As integrais são da forma geral analizada anteriormente e por tanto podemos usar os resultados anteriores para obter expansões em potências da temperatura para a magnetização e o número de partículas. Fazendo as substituições obtemos para a magnetização o resultado: M = 3µ20B 〈N〉 2ǫF [ 1− π 2 12 ( kBT ǫF )2 + · · · ] . (5.61) A partir deste resultado podemos obter a primeira correção de temperatura finita para a susceptibilidade a campo nulo: χ0 = 1 V ( ∂M ∂B ) T,V = 3µ20ρ 2ǫF [ 1− π 2 12 ( kBT ǫF )2 + · · · ] , (5.62) Este resultado obtido originalmente por Pauli lhe permitiu explicar a fraca depen- dência com a temperatura na susceptibilidade dos metais alcalinos, nos quais a temperatura de Fermi é muito alta, da ordem O(104K). Limite clássico Para altas temperaturas z ≪ 1 e então: f(x) ∼ ze−βx (5.63) Daniel A. Stariolo - IF-UFRGS - 2014 80 isto é, a distribuição de Fermi tende para a distribuição de Maxwell-Boltzmann. Substituindo nas eqs.(5.59) e (5.60) obtemos M = µ0 V z 2π2 ( 2m h¯2 )3/2 senh(βµ0B) ∫ ∞ 0 ǫ1/2e−βǫdǫ (5.64) 〈N〉 = V z 2π2 ( 2m h¯2 )3/2 cosh(βµ0B) ∫ ∞ 0 ǫ1/2e−βǫdǫ. (5.65) Dividindo as equações anteriores se obtém finalmente: M = µ0 〈N〉 tanh ( µ0B kBT ) , (5.66) que é o resultado da teoria clássica de Langevin. A susceptibilidade a campo nulo resulta χ0 = 1 V ( ∂M ∂B ) T,V = µ20β 〈N〉 V sech2 (µ0βB) = µ20βρ ( 1− (µ0βB)2 + . . . ) ≈ ρµ 2 0 kBT . (5.67) Esta expressão se conhece como lei de Curie, sendo representativa do compor- tamento da maioria dos materiais paramagnéticos. É possível obter esta mesma expressão considerando um sistema clássico de N momentos dipolares distinguí- veis, o que deixa evidente o caráter do limite clássico de um gás de férmions. Capítulo 6 Interações, simetrias e ordem em matéria condensada 6.1 Líquidos e gases Os fluidos, líquidos e gases, são os sistemas que apresentam o maior número de simetrias possíveis, no sentido que suas propriedades físicas não mudam frente a uma série de transformações, especialmente de coordenadas. Quando dizemos que um fluido é homogêneo e isotrópico, queremos dizer que suas propriedades são invariantes frente a translações espaciais, rotações arbitrá- rias e reflexões ou inversões respeito da origem de coordenadas. O conjunto de transformações que deixam um sistema invariante formam um grupo, o grupo de simetria. O grupo de simetria que inclui translações, rotações e reflexões se chama Grupo Euclideano. Tipicamente os fluidos são invariantes frente a operações do grupo euclideano. Fisicamente, isto quer dizer que o entorno ou a vizinhança de uma pequena região no interior de um fluido é a mesma independentemente que a região seja trasladada, rotada ou de que se faça uma reflexão em torno de uma origem de coordenadas. Vamos ver que, de forma geral, o mesmo não acontece com a matéria no estadosólido, os fluidos são os sistemas com a maior simetria possível. A homogeneidade de um fluido implica invariância translacional. Por exem- plo, para a densidade espacial vale a relação: 〈n(~x)〉 ≡ 1 N 〈 N∑ i δ(~x− ~xi)〉 = 〈n(~x+ ~R)〉, (6.1) 81 Daniel A. Stariolo - IF-UFRGS - 2014 82 onde ~R é um deslocamento arbitrário. Em particular, se ~R = −~x obtemos que 〈n(~x)〉 = 〈n(0)〉, ou seja, a densidade em qualquer ponto é igual à densidade na origem. Logo a densidade não depende de ~x. Outra grandeza muito importante para caracterizar o estado de um sistema é a função de correlação de dois pontos, definida como: Cnn(~x1, ~x2) = 〈n(~x1)n(~x2)〉 = 〈 N∑ i,j=1 δ(~x1 − ~xi)δ(~x2 − ~xj)〉 (6.2) Se o sistema possui invariância translacional então Cnn(~x1, ~x2) ≡ Cnn(~x1 − ~x2). A transformada de Fourier da função de correlação da densidade de dois pontos é o fator de estrutura: S(~q) = ∫ dd~x e−i~q·~xCnn(~x) = 〈n(~q)n(−~q)〉 (6.3) onde ~x = ~x1 − ~x2 e n(~q) = ∫ ddx e−i~q·~x n(~x) = 〈 ∑ i e−i~q·~xi 〉 (6.4) é a transformada de Fourier da densidade. 6.2 Redes cristalinas A baixas temperaturas ou altas pressões os materias normalmente cristalizam e os átomos se organizam espacialmente em estruturas periódicas, chamadas redes cristalinas. O tipo de estrutura cristalina na qual um elemente específico irá cris- talizar depende, essencialmente, do potencial interatômico. Um conceito importante para o estudo das redes cristalinas é a definição de uma rede de Bravais (segundo o Ascroft-Mermin [8]): 1. Uma rede de Bravais é uma arranjo infinito de pontos discretos, com uma estrutura e orientação que aparece a mesma vista desde qualquer um dos pontos da rede. Daniel A. Stariolo - IF-UFRGS - 2014 83 Figura 6.1: As 14 redes de Bravais em três dimensões Daniel A. Stariolo - IF-UFRGS - 2014 84 2. Uma rede de Bravais (tridimensional) consiste de todos os pontos cujos vetores posição podem ser definidos como ~R = n1 ~a1 + n2 ~a2 + n3 ~a3 (6.5) onde ~a1,~a2 e ~a3 são três vetores quaisquer não coplanares e n1, n2 e n3 são inteiros. Os vetores ~a1,~a2 e ~a3 são chamados vetores primitivos e permitem “desenvol- ver” a rede completamente. As magnitudes dos vetores primitivos são conheci- das como constantes de rede. Uma célula da rede determinada por um conjunto qualquer de vetores primitivos se chama célula primitiva . Uma célula primitiva também permite obter toda a rede por translações ao longo dos vetores primitivos. A rede cristalina no espaço real se chama as vezes rede direta. É possível definir uma rede recíproca no espaço de momentos, da seguinte forma: (Ashcroft-Mermin) Considere um conjunto de pontos ~R formando uma rede de Bravais, e uma onda plana, ei~k·~r. Esta onda plana tem uma periodicidade dada pelo comprimento de onda λ = k/2π. Para um ~k arbitrário esta onda não terá, em geral, a periodicidade da rede de Bravais, mas para alguns conjuntos de vetores ~k a terá. O conjunto de todos os vetores de onda ~k que produzem ondas planas com a periodicidade de uma rede de Bravais dada é conhecido como rede recíproca. A periodicidade da rede de Bravais implica: ei ~k·(~r+~R) = ei ~k·~r (6.6) para qualquer ~r e para qualquer ~R da rede de Bravais. Pela identidade anterior, podemos caracterizar a rede recíproca como o conjunto de vetores de onda ~k que satisfacem ei ~k·~R = 1, (6.7) para todos os ~R da rede de Bravais. Daniel A. Stariolo - IF-UFRGS - 2014 85 É possível mostrar que a rede recíproca é ela mesma uma rede de Bravais. Podemos também definir a rede recíproca da rede recíproca, que não é mais do que a rede de Bravais original. A rede recíproca nem sempre possui a mesma simetria da rede direta. Por exemplo, a rede recíproca de um rede fcc é uma rede bcc. 6.3 Sistemas magnéticos Os spins em sistemas magnéticos podem apresentar uma grande variedade de es- truturas ordenadas, tão diversas quanto as encontradas na ordem atômica crista- lina. Os spins associados aos elétrons atômicos interagem entre si através de diver- sas forças de interação. Uma das mais importantes, que se origina nas interações eletrostáticas dos elétrons, é a interação de troca que é uma interação de curto alcance entre momentos de spin. Uma forma simplificada da mesma para um par de spins ~S se pode escrever na forma: −J ~S1 · ~S2. (6.8) ~S representa o operador de spin em sistemas quânticos ou o vetor de momento dipolar magnético em sistemas clássicos. Detalhes importantes desta interação é que não depende da orientação relativa dos spins com respeito à rede cristalina. Depende apenas da orientação relativa dos vetores de spin. A interação de troca é a responsável principal pelo surgimento do ferromagnetismo em algumas subs- tâncias como os metais de transição Fe, Ni e Co. Em um sistema com N spins em interação, o modelo mais bem sucedido para descrever uma série de proprie- dades dos materiais ferromagnéticos, como a transição entre fases paramagnética e ferromagnética, correlações entre spins, susceptibilidades magnéticas, calor es- pecífico, etc. é o modelo de Heisenberg: H = −J ∑ i,j ~Si · ~Sj (6.9) onde os pares {i, j} correspondem a todos os pares de vizinhos próximos, devido ao caráter de curto alcance da interação de troca. O modelo de Heisenberg pode ser analizado na versão quântica, na qual as variáveis ~Si são operadores de spin, ou na versão clássica, na qual os ~Si são vetores. A constante de troca J pode ser positiva ou negativa. Quando é positiva, a interação tende a alinhar spins Daniel A. Stariolo - IF-UFRGS - 2014 86 vizinhos, o que leva ao estado ferromagnético. Quando J < 0 a energia de troca é minimizada quando um spin fica antiparalelo aos seus vizinhos próximos, isto leva ao estado antiferromagnético, como mostrado esquematicamente na figura 6.2. Figura 6.2: Algumas estruturas magnéticas . Uma outra interação importante entre momentos magnéticos é a interação di- polar, de origem clássica, que tem a forma: g ∑ i<j ~Si · ~Sj − 3(~Si · eˆij)(eˆij · ~Sj) r3ij , (6.10) onde eˆij = ~rij/rij são vetores unitários na direção que une os sítios i e j. Notamos que esta interação é de longo alcance, decaindo com a inversa do cubo da distân- cia entre pares de spins. Ela também é anisotrópica, dependendo da orientação relativa dos spins com os vetores da rede ~rij . A interação dipolar é tipicamente Daniel A. Stariolo - IF-UFRGS - 2014 87 4 ordens de grandeza menor que a interação de troca, e por tanto não é o fator principal que leva ao alinhamento dos spins na fase ferromagnética. No entanto, seu caráter de longo alcance produz campos magnéticos locais fortes, sendo res- ponsável pela origem dos domínios magnéticos. Uma substância ferromagnética em ausência de campo externo não apresenta, pelo geral, um alinhamento global dos spins, mas um mosaico de domínios onde os spins apontam em diferentes di- reções, como mostra a figura 6.3. Estas configurações são escolhidas pelo sistema para minimizar a energia magnética global. Figura 6.3: Domínios magnéticos Em alguns cristais o efeito do potencial cristalino é forte o suficiente para ser sentido pelos elétrons, produzindo a interação spin-órbita. Uma manifestação deste tipo de interação é a presença de uma campo de anisotropia sobre os spins, chamada anistropia magnetocristalina. No caso de anisotropia uniaxial de eixo fácil z, a forma mais elementar de representar sua contribuição energética é: −D ∑ i S2iz (6.11) Notamos que esta anisotropia depende quadraticamente da componente z do spin, e por tanto não distingue sentidos, apenas uma direção no espaço. Esta contribui- ção energética contribui para o alinhamento dos spins na direção z. Quando estas três formas de interação magnética estão presentes simultane- amente em um sistema, podem dar lugar a uma variedade enorme de estruturas magnéticasno estado fundamental, dependendo das intensidades relativas de J , g e D. A temperatura finita transições de fases entre diferentes tipos de ordem magnética podem surgir. Em filmes magnéticos ultrafinos com anisotropia per- pendicular, a competição entre estas interações produz transições de fase a tempe- raturas finitas entre estruturas semelhantes as fases dos cristais líquidos, somente Daniel A. Stariolo - IF-UFRGS - 2014 88 que neste caso as estruturas correspondem a ordem de spin e não a ordem posici- onal das moléculas, como se ve na figura 6.4. Figura 6.4: Domínios em filmes ultrafinos de Fe/Cu(001) com magnetização per- pendicular. Existem diversas técnicas experimentais para medir ordem magnética. Uma técnica clássica é difração de nêutrons, já que o nêutron possui spin que interage com o spin eletrônico. Outras técnicas amplamente utilizadas na atualidade são microscopia de força atômica (AFM), microscopia de força magnética (MFM), e uma variedade de espectrometrias de espalhamento de elétrons, como a mi- croscopia de varredura de elétrons, que permitem obter diretamente imagens da estrutura magnética dos átomos, como por exemplo SEMPA (Scanning electron microscopy with polarization analysis), utilizada para obter as imagnes da figura 6.4. Daniel A. Stariolo - IF-UFRGS - 2014 89 6.4 Entre os líquidos e os cristais: os cristais líqui- dos Os líquidos e os sólidos são dois casos extremos de ordem e simetria. Os líquidos apresentam a máxima simetria possível do grupo espacial: translações e rotações arbitrárias em R3. Os líquidos são estruturalmente desordenados, apresentam ape- nas ordem de curto alcance. Já os sólidos cristalinos apresentam um grupo de operações de simetria muito reduzido respeito dos líquidos: são invariantes frente um conjunto discreto de translações compatíveis com a periodicidade da rede, e possivelmente frente a um conjunto discreto de rotações. Apresentam ordem de longo alcance, originado na estrutura cristalina periódica. Daqui em diante vamos definir a ordem determinada pela invariância frente a translações espaciais como sendo uma ordem posicional, e a ordem por invariância frente a rotações como ordem orientacional. Entre estes dois extremos existem materiais que apresentam todo um espectro de simetrias e ordens intermediários. O exemplo paradigmático são os cristais líquidos, substâncias formadas por moléculas anisométricas (sem simetria esfé- rica). Moléculas típicas que formam cristais líquidos são de dois tipos básicos: alongadas (moléculas calamíticas) ou com forma de disco (moléculas discóticas). Em geral, a parte interna destas moléculas é rígida e a parte externa, fluida. Este caráter duplo da estrutura das moléculas dá origem a interações chamadas estéri- cas, que levam a diversos tipos de ordem orientacional, juntamente com o caráter fluido das fases líquidas. • A altas temperaturas, as moléculas em um cristal líquido (que podemos representar esquematicamente como elipsoides alongados, como na figura 6.6), estão desordenadas. A desordem diz respeito tanto aos seus centros de massa (desordem posicional) quanto as orientações dos eixos de sime- tria das moléculas (desordem orientacional). Neste regime, o cristal líquido apresenta uma estrutura idêntica à de um fluido isotrópico. O fator de estru- tura (em função de ~k1, ~k2, ~k3) apresentará tipicamente duas cascas esféricas com raios correspondentes aos dois comprimentos característicos das mo- léculas: o comprimento l e o diâmetro a. Em uma projeção bidimensional, como na figura 6.7, as esferas serão círculos. • Quando o líquido é resfriado abaixo de uma temperatura característica, apa- rece uma primeira fase ordenada conhecida como fase nemática (N , ver figura 6.6(b)). Em esta fase as moléculas apontam preferencialmente ao Daniel A. Stariolo - IF-UFRGS - 2014 90 Figura 6.5: Algumas moléculas que produzem fases de cristais líquidos e as tran- sições de fases em função da temperatura. longo de uma direção, especificada por um vetor unitário ~n chamado dire- tor. Seus centros de massa permanecem desordenados. Por tanto, a fase nemática quebra a simetria orientacional mas não a translacional. È um exemplo típico de ordem orientacional. O sistema ainda apresenta invari- ância rotacional em um plano perpendicular ao diretor. Mas em qualquer Daniel A. Stariolo - IF-UFRGS - 2014 91 Figura 6.6: Ilustração esquemáticas das fases em cristais líquidos plano que contenha o diretor a simetria é reduzida a rotações discretas de ângulo 180o. Na realidade o diretor não é propriamente um vetor, mas um Daniel A. Stariolo - IF-UFRGS - 2014 92 pseudo-vetor, já que os dois extremos são identificados ou equivalentes. Vamos ver que a ordem nemática, diferentemente da ordem magnética por exemplo, não é vetorial, mas tensorial. Na fase nemática o fator de estrutura (ou sua projeção em 2d) reflete a quebra de simetria orientacional: ele pre- serva a simetria frente a rotações arbitrárias em um plano perpendicular ao diretor (círculo de raio maior na figura 6.7). mas na direção de ~n apresenta invariância de rotação apenas por ângulos de π . • Uma possibilidade mais complexa de fase nemática é produzida por mo- léculas quirais, como o colesterol , que não apresentam simetria frente a reflexões. Estas moléculas produzem uma fase nemática quiral ou coles- térica, (N∗). Nesta fase, as moléculas na direção de alinhamento giram formando uma hélice, com um passo que é tipicamente de alguns milhares de angstroms. Por tanto as moléculas colestéricas espalham luz visível. • Diminuindo mais a temperatura se pode passar de uma fase nemática para uma nova fase chamamda fase esmética-A (Sm − A, ver figura 6.6(c)). Nesta fase as moléculas se organizam em camadas bem diferenciadas. Os planos das camadas são perpendiculares aos eixos maiores das moléculas, e a espessura destas camadas corresponde tipicamente ao comprimento l das moléculas. Em cada camada as moléculas se encontram desordenadas posicionalmente e podem fluir nos planos. As camadas correspondem à presença de uma onda de densidade na direção perpendicular as mesmas. Por tanto existe ordem translacional ou posicional na direção perpendicular as camadas, ao longo dos eixos moleculares, ou paralelo ao diretor ~n. A onda de densidade pode ser definida como: 〈n(~x)〉 = n0 + 2nq0 cos (q0 z), (6.12) onde q0 = 2π/l, e o eixo z é perpendicular aos planos. Esta onda de den- sidade produz um fator de estrutura caracterizado por dois picos de Bragg simétricos em ±q0: S(~q) = |〈nq0〉|2 (2π)3 [δ(~q − q0 eˆz) + δ(~q + q0 eˆz)] . (6.13) • Em alguns cristais líquidos a fase esmética apresenta um projeção finita do diretor sobre o plano das camadas, o diretor está inclinado respeito da normal as camadas. Ainda mais, a projeção apresenta uma direção definida, como mostra a figura 6.6(d). Esta fase é chamada fase esmética C (Sm − Daniel A. Stariolo - IF-UFRGS - 2014 93 Figura 6.7: O fator de estrutura nos cristais líquidos C). A fase esmética C possui uma simetria inferior a da fase esmética A. A direção da projeção de ~n no plano das camadas define um eixo c ou diretor- Daniel A. Stariolo - IF-UFRGS - 2014 94 c. Pode haver uma transição entre as fases esmética A e esmética C. O fator de estrutura nestas fases tem a forma genérica descrita na figura 6.7(c) e (d). • Quando um cristal líquido na fase esmética A é resfriado, ele pode conden- sar em uma fase cristalina, com ordem posicional de longo alcance, ou então pode condensar na chamada fase esmética B. Na fase esmética B o cristal líquido apresenta ordem orientacional de quase-longo alcance no plano das camadas, com simetria rotacional de ordem 6. Uma fase com esta simetria frente a rotações se chama fase hexática. No fator de estrutura, esta sime- tria se manisfesta pela presença de arcos difusos no entorno dos valores de q = 2π/a, separados porângulos de 2π/6, como mostra a figura 6.8. Notar a difereça entre os picos de Bragg de uma fase cristalina com simetria he- xagonal, na qual as moléculas se encontram sobre os vértices de uma rede triangular no plano, e os picos difusos, ou quase-picos de Bragg de uma fase com ordem orientacional hexática, onde as moléculas não ocupam os sítios de uma rede cristalina perfeita. O fator de estrutura de uma fase hexática no plano pode ser expandido em série de Fourier: S(θ) = ∑ n S6n cos (6nθ) (6.14) onde θ corresponde a um ângulo no plano a partir do máximo mais intenso do fator de estrutura, por exemplo. De forma semelhante, se pode definir o grau de ordem em uma fase hexática através do parâmetro de ordem com- plexo: Ψ6 = e 6iθ (6.15) onde θ representa o ângulo entre a linha que une dois átomos e o eixo x, por exemplo. Daniel A. Stariolo - IF-UFRGS - 2014 95 Figura 6.8: a) Estrutura cristalina hexagonal e fator de estrutura, b) Ordem orien- tacional na fase hexática e fator de estrutura 6.5 Simetrias e parâmetros de ordem Como se pode concluir do visto até aqui, considerações de simetria têm um papel central na matéria condensada. Os fenômenos mais dramáticos da matéria con- densada, as transições de fase, muitas vezes podem ser analizadas e entendidas a partir de transformações das condições de simetria do sistema frente a variação de parâmetros externos, como temperatura, pressão ou campos elétricos e magnéti- cos. Um sistema físico é descrito analíticamente pelo Hamiltoniano do mesmo. O Daniel A. Stariolo - IF-UFRGS - 2014 96 Hamiltoniano apresenta invariância frente a algumas operações de simetria, que permitem tirar conclusões sobre o comportamento e a estrutura do sistema sob diferentes condições. Em um gás ideal por exemplo, o Hamiltoniano é invariante frente ao grupo espacial composto por translações, rotações e reflexões arbitrárias do espaço, além de translações e reversão temporal. O Hamiltoniano de Heisen- berg (6.9) é invariante frente a translações e reversão temporal além de rotações globais dos spins respeito de um eixo arbitrário. Tipicamente, a altas temperatu- ras ou em sistemas diluidos, o sistema se encontra em uma fase desordenada, a qual é invariante frente a operações do mesmo grupo G de invariância do Hamil- toniano. Em uma transição de fase alguma invariância é quebrada. Operadores que não permanecem invariantes através de uma transição de fases são chamados parâmetros de ordem. No modelo de Heisenberg, a magnetização: ~M = 1 N ∑ i ~Si (6.16) é o parâmetro de ordem. A invariância frente ao grupo de rotação simultânea de todos os spins em R3 existente no Hamiltoniano do modelo de Heisenberg é quebrada para T < Tc, onde Tc é a temperatura crítica do modelo. Acima de Tc, 〈 ~M〉 = 0, e abaixo de Tc, 〈 ~M〉 6= 0. O grupo de simetria original é reduzido ao subgrupo de rotações respeito a eixos paralelos a ~M . O sistema não é mais invariante frente a rotações dos spins respeito de eixos perpendiculares a ~M . A fase ordenada do modelo de Heisenberg é uma fase com simetria quebrada. Para especificar completamente o comportamento de uma fase ordenada, te- mos que saber como o parâmetro de ordem se transforma frente a uma operação do grupo de simetria. No caso do modelo de Heisenberg, o grupo de simetria é o grupo das rotações. A quebra de simetria em uma transição de fases se reflete na estrutura termo- dinâmica do sistema: o número de mínimos na energia livre é igual ao número de elementos do grupo de simetria associado ao parâmetro de ordem. Para ex- plorar esta interpretação é importante distinguir grupos de simetria discretos e continuos. Se o grupo de simetria for discreto então existirão um número discreto de fases termodinâmicas equivalentes, enquanto que no caso do grupo ser conti- nuo haverá uma variedade continua onde cada ponto representa uma possível fase termodinâmica. O modelo de Ising é um exemplo do primeiro caso e o modelo de Heisenberg pertence ao último grupo. Outra distinção importante é entre simetrias locais ou globais. Um sistema possui uma simetria local se é invariante frente a operações do grupo de simetria Daniel A. Stariolo - IF-UFRGS - 2014 97 aplicadas localmente, a uma parte do sistema. Este caso é o menos comum. O Ha- miltoniano do modelo de Heisenberg possui uma simetria global, que corresponde à rotação simultânea dos spins por um ângulo fixo respeito de qualquer eixo. O grupo de simetria correspondente é o O3, o grupo de rotações em três dimensões. • O modelo de Ising representa um material ferromagnético com um eixo de anisotropia que força os spins a apontar em um única direção. O Hamilto- niano é: H = −J ∑ 〈ij〉 σi σj (6.17) onde σi = ±1. O grupo de simetria do parâmetro de ordem, a magnetização, é o grupo discreto Z2. • Uma generalização do modelo de Heisenberg onde o parâmetro de ordem tem n componentes é o modelo O(n), cujo grupo de simetria continua é o On. Este modelo é interessante porque se reduz ao modelo de Ising no caso n = 1, ao modelo chamado XY para n = 2, ao modelo de Heisenberg para n = 3, e é exatamente solúvel no limite n→∞. • O modelo XY corresponde a um ferromagneto com um “plano fácil”. O vetor de magentização é forçado a estar sobre o plano. Possui um grupo de simetria continua, que é o O2. Outra realização desta simetria é na transição líquido normal- superfluido. Neste caso, o parâmetro de ordem é a função de onda do líquido quântico: Ψ = |Ψ| eiθ (6.18) que é um número complexo e por tanto pode ser representado como um vetor em duas dimensões, com módulo |Ψ| e fase θ. Na representação com- plexa o grupo de simetria é o U(1). Capítulo 7 Transições de fase e fenômenos críticos 7.1 O modelo de Ising em d = 1: solução exata O modelo de Ising foi originalmente concebido como um modelo para um material ferromagnético com forte anisotropia uniaxial, no qual os momentos magnéticos apontam preferencialmente em uma direção. Neste sentido é um sistema mais simples, com menos graus de liberdade, do que o modelo de Heisenberg no qual os dipolos podem apontar em qualquer direção no espaço. O próprio Ising obteve a solução completa da termodinâmica do modelo em uma dimensão espacial. O Hamiltoniano do modelo de Ising em um campo magnético externo B é dado por: H = −J ∑ 〈ij〉 σi σj − B N∑ i=1 σi (7.1) onde σi = ±1 e 〈. . .〉 indica uma soma a todos os pares de primeiros vizinhos. Para resolver o modelo em uma dimensão é útil rescrever o Hamiltoniano em uma forma simétrica: H = −J N∑ i=1 σi σi+1 − 1 2 B N∑ i=1 (σi + σi+1) (7.2) e vamos considerar condições de contorno periódicas identificando σN+1 = σ1. Deste forma a cadeia fica fechada formando um anel e os efeitos das bordas do 98 Daniel A. Stariolo - IF-UFRGS - 2014 99 sistema aberto são suprimidos. No limite termodinâmico estas condições de con- torno não afetam os resultados, que coincidem com os da cadeia original aberta nos extremos. A função de partição canônica pode ser escrita na forma: Z(T,B) = ∑ σ1=±1 · · · ∑ σN=±1 eβ ∑N i=1{Jσi σi+1+ 12B(σi+σi+1)} (7.3) = ∑ σ1=±1 · · · ∑ σN=±1 〈σ1|P |σ2〉〈σ2|P |σ3〉 · · · 〈σN−1|P |σN〉〈σN |P |σ1〉. Na expressão anterior P denota o operador com elementos de matriz dados por: 〈σi|P |σi+1〉 = exp [ β { Jσi σi+1 + 1 2 B(σi + σi+1) }] (7.4) P é chamada de matriz de transferência. Pela definição anterior: P = ( 〈+1|P |+ 1〉 〈+1|P | − 1〉 〈−1|P |+ 1〉 〈−1|P | − 1〉 ) = ( eβ(J+B) e−βJ e−βJ eβ(J−B) ) (7.5) Como todos os termos têm a mesma estrutura, a função de partição se reduz a: Z(T,B) = ∑ σ1=±1 〈σ1|PN |σ1〉 = Tr PN = λN1 + λN2 (7.6) onde λ1 e λ2 são os autovalores da matriz de transferência P . Os autovalores são determinados pelo determinante secular∣∣∣∣ eβ(J+B) − λ e−βJe−βJ eβ(J−B) − λ ∣∣∣∣ = 0 (7.7) cuja solução é: λ±= eβJ cosh (βB)± { e−2βJ + e2βJ sinh2 (βB) }1/2 (7.8) Se pode verificar que λ− < λ+ de forma que (λ−/λ+)N → 0 quando N → ∞. Assim, só o maior autovalor determina o comportamento do sistema no limite termodinâmico. A energia livre de Helmholtz é dada por: F (T,B) = −kBT lnZ(T,B) ≈ −NkBT lnλ+ (7.9) = −NJ −NkBT ln { cosh (βB) + [ e−4βJ + sinh2 (βB) ]1/2} Daniel A. Stariolo - IF-UFRGS - 2014 100 A magnetização por sítio m = M/N é dada por: m(T,B) = − 1 N ( ∂F ∂B ) T = sinh (βB)[ e−4βJ + sinh2 (βB) ]1/2 (7.10) Notamos que se o campo externo for nulo a magnetização também será zero para qualquer temperatura finita. Isto elimina a possiblidade de ter uma transição de fase para uma fase com magnetização espontânea a temperatura finita. Por este motivo o própio Ising considerou que o modelo não apresentava maior interesse. No entanto, também é possível ver que para T = 0 a magnetização satura no valor m = 1 independentemente do valor de B, o que indica a presença de uma transição de fase a T = 0. Também, a partir do resultado anterior, podemos obter a magnetização do paramagneto fazendo J = 0→ m = tanh (βB). Para campos externos fracosB ≪ 1 podemos aproximar os senos hiperbólicos pelo primeiro termo da série de Taylor, linear em βB, e derivando em relação ao campo obtemos a susceptibilidade da cadeia de Ising no regime de resposta linear: χ0(T ) = ( ∂m ∂B ) T = e2J/kBT kBT (7.11) Notamos que a susceptibilidade diverge exponencialmente para T → 0, diferen- temente do que acontece em um ponto crítico usual onde a divergência é como lei de potência χ ∼ (T − Tc)−γ . A densidade de energia interna u = U/N a campo nulo é dada por: u0(T ) = − 1 N ∂ lnZ(T,B = 0) ∂β = −J tanh (βJ) (7.12) e o calor específico: c0(T ) = ∂u0 ∂T = kB(βJ) 2 sech2 (βJ) (7.13) O calor específico apresenta apenas um máximo arredondado, como se pode ver na figura 7.1, semelhante ao que acontece em qualquer sistema de dois estados, o que é conhecido como efeito Schottky. Como a cadeia de Ising é um sistema de spins em interação, é natural su- por que os spins devem apresentar correlações. Vejamos como calcular funções de correlação spin-spin neste sistema. Fixamos B = 0 e vamos permitir que a constante de interação J = Ji seja agora função da posição, por motivos apenas Daniel A. Stariolo - IF-UFRGS - 2014 101 Figura 7.1: O calor específico da cadeia de Ising. técnicos que serão esclarecidos a seguir. Além disso, vamos considerar agora uma cadeia aberta, de forma que possui somente N − 1 pares de vizinhos próximos. Desta forma, a função de partição do sistema pode ser escrita como: Z(T, J1, . . . , JN−1) = ∑ σ1=±1 · · · ∑ σN=±1 N−1∏ i=1 eβJiσi σi+1 (7.14) A correlação entre um par de spins vizinhos é definida como: 〈σkσk+1〉 = 1 Z ( 1 β ∂ ∂Jk ) Z = ( 1 β ∂ ∂Jk ) lnZ (7.15) Notamos que os fatores em 7.14 com σ1 e σN aparecem apenas uma vez. Somando o correspondente com σN obtemos:∑ σN=±1 eβJN−1σN−1 σN = 2 cosh (βJN−1σN−1) = 2 cosh (βJN−1) (7.16) onde a última identidade se deve a que o cosh é função par e σi = ±1. Procedendo com as somas podemos escrever uma relação de recorrência para a função de partição: Z(T, J1, . . . , JN−1) = 2 cosh (βJN−1)Z(T, J1, . . . , JN−2) (7.17) Daniel A. Stariolo - IF-UFRGS - 2014 102 Substituindo os valores do lado direito obtemos uma solução para a iteração: Z(T ) = ∑ σ1=±1 N−1∏ i=1 [2 cosh (βJi)] = 2 N N−1∏ i=1 cosh (βJi) (7.18) e por tanto lnZ(T ) = N ln 2 + N−1∑ i=1 ln cosh (βJi) (7.19) Aplicando a definição (7.15) obtemos: 〈σkσk+1〉 = tanh (βJk) (7.20) Para obter a correlação entre um par de spins separados por uma distância arbitrá- ria r, notamos que como σi = ±1: 〈σkσk+r〉 = 〈(σkσk+1)(σk+1σk+2) . . . (σk+r−1σk+r)〉 = 1 Z ( 1 β ∂ ∂Jk )( 1 β ∂ ∂Jk+1 ) · · · ( 1 β ∂ ∂Jk+r−1 ) Z = k+r−1∏ i=k tanh (βJi) (7.21) Como estamos interessados em um valor constante para a interação Ji = J ∀i, obtemos: 〈σkσk+r〉 = tanhr (βJ) (7.22) Notamos que a T = 0 a correlação entre qualquer par de spins 〈σkσk+r〉 = 1, o que corresponde a qualquer dos estados fundamentais com todos os spins positivos ou todos negativos. Para T > 0 podemos escrever 〈σkσk+r〉 = e−r/ξ (7.23) onde definimos o comprimento de correlação ξ(T ): ξ(T ) = [ln coth (βJ)]−1 (7.24) Para temperaturas baixas βJ ≫ 1: ξ ≈ 1 2 e2βJ (7.25) Daniel A. Stariolo - IF-UFRGS - 2014 103 que diverge exponencialmente para T → 0. Então vemos que, para temperaturas finitas, os spins do sistema apresentam uma correlação que decai exponencial- mente com a distância entre o par de spins considerados. Por sua vez, a correla- ção decai com uma distância típica ξ, o comprimento de correlação, que depende da temperatura, sendo muito grande a temperaturas baixas e divergindo quando T → 0, como acontece em geral no ponto crítico de transições de fase continuas, embora a divergência neste caso seja exponencial en lugar de algébrica como nos pontos críticos usuais. Neste sentido, o modelo de Ising em d = 1 é anômalo pois não apresenta magnetização espontânea a temperatura finita e apenas apresenta uma transição de fase a temperatura nula. 7.2 Teoria de campo médio do modelo de Ising Quando vamos de uma dimensão para dimensões superiores as dificuldades técni- cas para resolver a mecânica estatística aumentam consideravelmente, e pouquis- simos sistemas podem ser resolvidos de forma exata. Então é importante desen- volver ferramentas para aproximar o cálculo. Existe um grande número de téc- nicas para obter soluções aproximadas de modelos estatísticos, como expansões em séries de alta e baixa temperatura, simulações computacionais, aproximações baseadas em teorias de campos. A mais simples aproximação de aplicação geral a muitos sistemas é a teoria de campo médio. A teoria de campo médio começou com a aproximação da equação de estado para um líquido clássico por van der Waals (1873). Em 1906, Pierre Weiss desen- volveu uma aproximação equivalente para estudar a transição de fase em materi- ais ferromagnéticos. Em 1934, W. L. Bragg e E. J. Williams desenvolveram uma aproximação de campo médio para a transição ferromagnética equivalente a de Weiss mas que pode ser generalizada facilmente a diferentes sistemas e situações. 7.2.1 Aproximação de Bragg-Williams Na aproximação de Bragg-Williams começamos calculando a entropia correspon- dente a configurações dos spins com magnetização fixa m. A magnetização do modelo de Ising (7.1), m = 〈σi〉, é igual a m = (N+ − N−)/N , onde N+ é o número de spins para cima, N− é o número de spins para baixo e N é o número total de spins no sistema. Para um dado valor de m existe um número grande de configurações possíveis de spins para cima (+) ou para baixo (-). O logaritmo desse número é o número Daniel A. Stariolo - IF-UFRGS - 2014 104 de estados de microestados de magnetização m, ou entropia microcanônica do sistema: S kB = ln ( N N+ ) = ln ( N N(1 +m)/2 ) = ln { N ! (N(1 +m)/2)!(N(1−m)/2)! } (7.26) Usando a aproximação de Stirling para N grande: lnN ! = N lnN −N +O(lnN) (7.27) obtemos S kBN ≡ s(m) kB = ln 2− 1 2 (1 +m) ln (1 +m)− 1 2 (1−m) ln (1−m) (7.28) Para obter o potencial termodinâmico de interesse, f(T,m) = U(m) − TS(m), temos que calcular a energia interna, U = 〈H〉: U = Z−1m Trm H e −βH . (7.29) Notar que Trm é um traço restrito a configurações com magnetização m, Zm = Trme −βH , β = 1/kBT e kB é a constante de Boltzmann. O cálculo de Zm é com- plexo e equivale a obter a solução exata para o modelo. Em seu lugar realizamos um cálculo aproximado. Na aproximação de Bragg-Williams se substitui o valor local do spin σi por seu valor médio m independenteda posição : U = −J ∑ 〈ij〉 〈σi σj〉 − B N∑ i=1 〈σi〉 ≈ −J ∑ 〈i,j〉 m2 −B N∑ i=1 m = −1 2 JNzm2 −NBm, (7.30) onde z é o número de vizinhos próximos dos sítios da rede. Na rede quadrada em d dimensões z = 2d. A densidade de energia livre de Bragg-Williams é dada por: f(T,m) = (U − TS)/N = −1 2 Jzm2 −Bm+ kBT 2 [(1 +m) ln (1 +m) + (1−m) ln (1−m)] −kBT ln 2 (7.31) Daniel A. Stariolo - IF-UFRGS - 2014 105 Figura 7.2: A energia livre na aproximação de Bragg-Williams. O comportamento da função f(T,m) para B = 0 está representado graficamente para diversas temperaturas na figura 7.2. Na figura da esquerda, para campo externo nulo, vemos que a altas temperatu- ras a função apresenta um único mínimo, param = 0. Esta é a fase paramagnética. A uma temperatura bem definida Tc a função passa a ter dois mínimos simétricos ±m. O valor absoluto destes mínimos cresce a medida que a temperatura baixa com |m| → 1 quando T → 0. No entorno de Tc o valor de m é muito pequeno, en então podemos expandir as funções termodinâmicas em potências de m: s(m) = ln 2− 1 2 m2 − 1 12 m4 + . . . (7.32) Daniel A. Stariolo - IF-UFRGS - 2014 106 e f(T,m) = 1 2 (kBT − zJ)m2 + 1 12 kBT m 4 − kBT ln 2 + . . . (7.33) Para T fixa, a função f apresenta um mínimo único em m = 0 se T ≥ zJ/kB . Exatamente em Tc = zJ/kB a função desenvolve dois mínimos simétricos com m 6= 0. Esta temperatura indica a presença de uma quebra espontânea da simetria de inversão do modelo de Ising, assinatura de uma transição de fase de segunda ordem, na temperatura crítica: Tc = zJ kB (7.34) Em presença de um campo magnético externo B, a energia livre f − mB é assimétrica, como mostra a figura da direita em 7.2. Para temperaturas altas T > Tc a energia livre apresenta um único mínimo m > 0. Em T = Tc aparece um segundo mínimo local. O mínimo com m > 0 continua sendo o mínimo absoluto para T < Tc, e por tanto o comportamento do parâmetro de ordem não muda neste caso em T = Tc. A equação de estado em presença de um campo externo é dada por: ∂f ∂m = −zJm − B + kBT 2 ln [(1 +m)/(1−m)] = −zJm − B + kBT tanh−1m = 0 (7.35) Então m = tanh [β(B + zJm)]. (7.36) A quantidade B + zJm é o campo local médio, o mesmo para todos os sítios do sistema. Ele tem uma contribuição do campo externo B e uma contribuição proveniente do campo molecular produzido pelos vizinhos próximos de um sítio, zJm = kBTcm. O comportamento da equação de estado pode ser visualizado na figura 7.3. Expandindo a equação de estado para temperaturas baixas e campo nulo obte- mos: m = tanh (βzJm) ≈ 1− 2 e−2βzJ (7.37) e por tanto m → 1 exponencialmente rápido com T . Perto da temperatura de transição m≪ 1 e podemos expandir para m pequeno (tanh x ∼ x−x3/3+ . . .): m ≈ (Tc/T )m− 1 3 (Tc/T ) 3m3 ≈ (Tc/T )m− 1 3 m3, (7.38) Daniel A. Stariolo - IF-UFRGS - 2014 107 Figura 7.3: A equação de estado na aproximação de Bragg-Williams. onde no último passo aproximamos (Tc/T )3 ∼ 1 já que o termo cúbico tende para um mais rápido que o termo linear quando T → Tc. Notamos que m = 0 é sempre solução. Existem outras duas soluções com m 6= 0: m = ±[3(Tc − T )/T ]1/2 (7.39) Vemos que m va a zero de forma continua a medida que T → Tc. A transição de fase ferromagnética-paramagnética é uma transição de segunda ordem na aproxi- mação de campo médio. O expoente 1/2 é um exemplo de expoente crítico. Este comportamento da magnetização que decai continuamente para zero com uma lei de potências e o correspondente expoente crítico, é uma manifestação genérica Daniel A. Stariolo - IF-UFRGS - 2014 108 de transições de fase de segunda ordem, ou continuas. Todos os sistemas cujo parâmetro de ordem apresenta o mesmo comportamento crítico, no sentido do pa- râmetro de ordem ir a zero com uma lei de potências caracterizada por um mesmo expoente, pertencem a mesma classe de universalidade [6]. Na aproximação de Bragg-Williams, como desenvolvida acima, assumimos que o parâmetro de ordem é espacialmente uniforme 〈σi〉 = m. Esta condição pode ser relaxada para permitir um parâmetro espacialmente variável 〈σi〉 = mi. Neste caso a energia livre é escrita na forma: F = −1 2 ∑ 〈i,j〉 Jij mimj − T ∑ i s(mi) (7.40) Esta forma é preferível para tratar casos nos quais o parâmetro de ordem não é uniforme, como é o caso de fases moduladas em cristais líquidos, ou diferentes tipos de ordem antiferromagnética. Para fechar esta seção sobre a aproximação de campo médio do modelo de Ising, notamos que o ponto de partida foi desenvolver uma aproximação para a energia livre do modelo como função do parâmetro de ordem, a magnetização m, em lugar da variável natural da energia livre de Helmholtz, que é o campo magnético B. Esta alternativa é fundamental no formalismo da teoria de Landau que vamos ver a continuação. 7.3 A teoria de Landau de transições de fase Até aqui vimos que o programa da mecânica estatística tem sido o cálculo da função de partição de um sistema, a partir da qual é possível fazer uma conexão rigorosa com a termodinâmica do mesmo. No entanto o cálculo da função de partição é uma tarefa pelo geral complexa , e então é desejável poder ter acesso aos potenciais termodinâmicos por caminhos alternativos, a partir de premisas gerais sobre o comportamento do sistema, mesmo sem contar com uma descrição detalhada a partir do Hamiltoniano do mesmo. Landau propós uma abordagem deste problema de caráter muito geral, feno- menológica, baseada nas propriedades de simetria do potencial termodinâmico F (T,N, V, 〈φ(~x)〉), onde 〈φ(~x)〉 é o parâmetro de ordem do sistema considerado (magnetização, densidade). Daniel A. Stariolo - IF-UFRGS - 2014 109 7.3.1 Transições de fase continuas A teoria de Landau parte da premisa que a forma do potencial F pode ser deduzida essencialmente através das seguintes observações: • F (T,N, V, 〈φ(~x)〉) deve ser uma função invariante respeito de operações do grupo de simetria G da fase desordenada. O segundo ponto fundamental na teoria de Landau é a seguinte observação: • Perto da transição de fase, o parâmetro de ordem é pequeno (em uma tran- sição de segunda ordem), e então se pode fazer uma expansão do potencial F em série de Taylor do parâmetro de ordem: f(T, φ) ≡ F V = ∞∑ n=0 an([K], T )φ n (7.41) onde φ = 〈φ(~x)〉. Vamos assumir por enquanto que o parâmetro de ordem é espacialmente homogêneo. Também vamos assumir daqui em diante que o número de partículas N e o volume V do sistema considerado são cons- tantes, e por tanto não vamos incluí-los explicitamente em f . A suposição que f possa ser desenvolvida em uma série de Taylor implica que ela é uma função analítica de φ perto da transição. Na prática, a expansão (7.41) poderá ser truncada para um número pequeno de termos. Quantos termos serão necessários para descrever corretamente a transição de fase dependerá essencialmente da dimensão espacial d e da dimensão do espaço do parâmetro de ordem. No caso do modelo de Ising, o truncamento até ordem φ4 é suficiente. No entanto, é importante notar que na expansão devem estar presentes todas as combinações analíticas do parâmetro de ordem que deixam invariante f frente ao grupo de simetria G. A equação de estado para φ é: ∂f ∂φ = h = a1 + 2a2 φ+ 3a3 φ 2 + 4a4 φ 3 (7.42) Para T > Tc o parâmetro de ordem φ deve ser nulo se o campo externo for nulo, então a1 = 0. No caso particular do modelo de Ising, o grupo de simetria G é o grupo das reflexões, e por tanto f(φ) = f(−φ). Então f somente poderá ter potências pares de φ: f = a0 + a2 φ 2 + a4 φ 4. (7.43) Daniel A. Stariolo - IF-UFRGS - 2014 110 Como queremos que o estado termodinâmico seja estável para T < Tc, a4 > 0. Caso contrário poderiamos ter a solução φ→∞ como mínimo absoluto de f . O coeficiente a0 é o valor de f para T > Tc, quando φ = 0. Sepode pensar nele como contendo as contribuições a f não provenientes do parâmetro de ordem de interesse. Nesse sentido, como o que queremos é descrever a transição de fase associada a φ, vamos considerar a0 = 0, ou então redefinir f − a0 → f . Como os coeficientes podem depender em geral da temperatura, perto da tran- sição podemos expandi-los na forma: a2 = a 0 2 + T − Tc Tc a12 +O((T − Tc)2) (7.44) a4 = a 0 4 + T − Tc Tc a14 +O((T − Tc)2) (7.45) Se pode escolher a4 como uma constante positiva. Sua dependência em T não será dominante para determinar o comportamento termodinâmico na transição. Da equação de estado aplicada a (7.43) obtemos para φ: φ = { 0 se T > Tc ± √ −a2(T ) 2a4 se T < Tc (7.46) Então, para que φ possa ter uma solução real e finita para T < Tc se deve exigir que a02 = 0. Se acrescentamos um termo proveniente de um campo externo h conjugado de φ, a energia livre de Landau para o modelo de Ising adota a forma final: f = 1 2 r φ2 + u φ4 − hφ (7.47) onde r = a (T −Tc) e as constantes foram redefinidas na notação mais comum na literatura. O comportamento do potencial f está descrito na figura 7.4. É importante notar que a teoria de Landau é fenomenológica, ou seja, ela não está baseada em um modelo microscópico, tendo sido obtida apenas por argumen- tos de simetria. Ela fornece o comportamento qualitativo correto na proximidade de uma transição de fase continua. Por exemplo, diferentemente da aproximação de campo médio de Bragg-Williams para o modelo de Ising, a teoria de campo médio de Landau não prediz um valor para a temperatura crítica em função de parâmetros microscópicos. No entanto faz predições para grandezas universais, como expoentes críticos. De (7.46) extraimos o comporamento do parâmetro de ordem próximo da transição: φ ∼ (Tc − T )β (7.48) Daniel A. Stariolo - IF-UFRGS - 2014 111 Figura 7.4: O funcional de Landau para um modelo com simetria de Ising. Daniel A. Stariolo - IF-UFRGS - 2014 112 Vemos que φ→ 0 com o expoente crítico β = 1/2. Este expoente é o mesmo que se obtém na aproximação de Bragg-Williams. Na realidade todas as aproximações de campo médio para um problema com dada simetria dão como resultado os mesmos expoentes, chamados de expoentes clássicos. Tanto a aproximação de Bragg-Williams como a teoria de Landau consideram um parâmetro de ordem homogêneo, desconsideram flutuações. Quando o papel das flutuações é incluido o expoente crítico toma valores menores, neste caso próximo de 1/3 em d = 3 e 1/8 em d = 2. Neste último caso o valor é exato. Podemos obter a equação de estado derivando (7.47) respeito de φ: r φ+ 4u φ3 = h. (7.49) A susceptibilidade pode ser obtida derivando a equação de estado respeito de h: [r + 12u φ2] ∂φ ∂h = 1. (7.50) Obtemos: χ = ∂φ ∂h = { 1/r se T > Tc, 1/2|r| se T < Tc. (7.51) Substituindo a dependência de r na temperatura obtemos: χ ∼ |T − Tc|−γ. (7.52) γ é o expoente crítico da susceptibilidade, que é igual a 1 na teoria de Landau, e corresponde ao valor universal de campo médio para sistemas com parâmetros de ordem tipo Ising. Em sistemas tridimensionais γ ∼ 4/3 quando são consideradas flutuações na vizinhança do ponto crítico. O parâmetro de ordem em função do campo externo na temperatura crítica também apresenta comportamento universal com o expoente δ. Novamente, a partir da equação de estado (7.49) obtemos em T = Tc: φ ∼ ( h 4u )1/δ , (7.53) onde δ = 3. A energia livre f é zero para T > Tc e negativa para T < Tc: f = { 0 se T > Tc −r2/(16u) se T < Tc. (7.54) Daniel A. Stariolo - IF-UFRGS - 2014 113 Deste resultado podemos obter o valor do calor específico: cV = −T ∂ 2f ∂T 2 = { 0 se T > Tc; T a2/(8u) se T < Tc. (7.55) O calor específico apresenta uma descontinuidade finita na temperatura crítica. Este calor específico da a contribuição na vizinhança da transição de fase. A fun- ção completa apresenta outra contribuição analítica associada a outros graus de liberdade. O comportamento com a temperatura de diversas grandezas termodi- nâmicas na aproximação de campo médio pode ser vista na figura 7.5. Notar que cV corresponde à contribuição da energia livre de Landau mais uma parte analítica proveniente de outros graus de liberdade. 7.3.2 Transições de primeira ordem na teoria de Landau Na expansão em série de Taylor do potencial termodinâmico um termo linear em φ é proibido porque φ = 0 acima da temperatura crítica. Um termo cúbico em φ foi descartado com um argumento de simetria, no caso de um sistema com simetria de Ising por causa da simetria f(φ) = f(−φ) a energia livre não pode conter termos ímpares no parâmetro de ordem. No entanto, um termo cúbico pode existir em sistemas onde a simetria da fase desordenada o permita. Consideremos a expansão do potencial nesse caso: f = 1 2 a t φ2 + w φ3 + u φ4 − hφ (7.56) onde t ≡ T − Tc. Para h = 0 a equação de estado leva as soluções seguintes: φ = 0 φ = −c± √ c2 − a t/4u, (7.57) onde c ≡ 3w/8u. Para ter uma solução real φ 6= 0 , t < t∗ ≡ 4uc2/a. Como t∗ > 0, esta condição acontece para uma temperatura maior que a temperatura crítica, que agora corresponde apenas à temperatura na qual o termo de segunda ordem em φ na energia livre se anula. A figura 7.6 mostra o andamento do potencial com a temperatura no caso w < 0. Para t < t∗ um segundo mínimo aparece, embora o mínimo absoluto ainda corresponda a φ = 0. A uma certa temperatura t1 o valor de f é igual para os dois mínimos, e abaixo desta temperatura o segundo mínimo passa a ser o mínimo global. Em t1 o parâmetro de ordem apresenta uma discontinuidade finita. Acontece uma transição de primeira ordem. Daniel A. Stariolo - IF-UFRGS - 2014 114 Figura 7.5: Comportamento de algumas grandezas termodinâmicas na teoria de Landau para um sistema com simetria Ising. No entanto, é importante levar em conta que para t → t−1 o parâmetro de ordem não é arbitrariamente pequeno, e então, a expansão de Landau não é válida de forma geral. Quando a expansão é justificada, a preseça de um termo cúbico leva o sistema a apresentar uma transição de primeira ordem. 7.4 Flutuações do parâmetro de ordem Embora o parâmetro de ordem em um sistema homogêneo seja uma constante φ, variações espaciais φ(~x) podem ser naturais em casos com presença de campos Daniel A. Stariolo - IF-UFRGS - 2014 115 Figura 7.6: Uma transição de primeira orden na teoria de Landau. externos inomogêneos h(~x) ou em sistemas com modulações espaciais no campo φ como por exemplo, quando existem interações competitivas. De um ponto de vista microscópico, o parâmetro de ordem φ é uma média es- tatística φ ≡ 〈φ〉, que envolve uma soma sobre um conjunto de graus de liberdade microscópicos em uma certa região do espaço. Por tanto é válido se perguntar sobre qual o significado físico da função da posição φ(~x) em um contexto termo- dinâmico. Se pode dar um significado a φ(~x) considerando uma “partição” do sistema em blocos de tamanho a≪ Λ−1 ≤ ξ(T ), onde a é a constante de rede (a distância de equilíbrio entre um par de partículas) e ζ(T ) é um comprimento que mede o alcance das correlações no sistema. Então, em uma escala Λ−1 podemos considerar que o parâmetro de ordem é efetivamente constante. Assim, defini- mos o parâmetro de ordem local φΛ(~x) como o valor do parâmetro dentro de um bloco com origem em ~x. Este processo se denomina granulado grosso (coarse graining). Desta forma a energia livre de Landau fica bem definida na escala dos blocos Λ. O problema agora é que ela depende da escala Λ. Temos que somar Daniel A. Stariolo - IF-UFRGS - 2014 116 as contribuições de todos os grãos que compoem o sistema. Mas a energia livre não pode ser, como poderiamos concluir sem refletir, a soma de termos do tipo F = ∑ ~x f(φΛ(~x)), pois esta quantidade equivale a considerar queφΛ(~x) pode variar de forma independente em cada bloco. No entanto é fácil se convencer que não será bom, de um ponto de vista energético, ter grandes diferenças nos valo- res de equilíbrio de φΛ(~x) nos diferentes blocos. Uma forma de contornar este problema é incluir um termo que penalize grandes variações do parâmetro de or- dem local (também chamado parâmetro de ordem de granulado grosso). A forma analítica mais simples que este termo pode tomar é: ∑ ~x ∑ δ c 2 ( φΛ(~x)− φΛ(~x+ ~δ) Λ−1 )2 (7.58) onde ~δ é um vetor de magnitude Λ−1 apontando na direção do bloco vizinho pró- ximo do ponto ~x, e o valor do custo em energia é independente do sinal da dife- rença dos parâmetros de ordem em blocos vizinhos. A constante c pode depender da temperatura. Então, considerando que φΛ(~x) varia pouco na escala a, e tomando o limite continuo, podemos escrever a energia livre de Landau na forma: F [φΛ(~x)] = ∫ ddx f(T, φΛ(~x)) + ∫ ddx 1 2 c [∇φΛ(~x)]2, (7.59) onde φΛ(~x) ≡ 〈φΛ(~x)〉Λ e f(T, φ(~x)) tem a forma da densidade de energia livre de Landau homogênea (7.47). Agora a energia livre de Landau F [φΛ(~x)] é um funcional de φΛ(~x), no sentido que depende da função φΛ(~x) em todos os pontos ~x. Um corte, ou “cutoff” para distâncias menores que Λ−1 está implícito em todas as integrais. É importante notar que o funcional de Landau F , ou energia livre de Landau, NÃO É a energia livre de equilíbrio F (T, φ) do sistema. O funcional de Landau é, na verdade, uma energia livre de granulado grosso ou Hamiltoniano efetivo, no sentido que a função de partição do sistema pode ser obtida na forma: Z = ∫ DφΛ e−βF [φΛ(~x)], (7.60) onde a notação ∫ DφΛ indica uma integral funcional. Fisicamente, a integral funcional equivale a somar as contribuições de todas as configurações dos campos φ(~x) pesados com o peso estatístico correspondente. A dependência na escala Λ Daniel A. Stariolo - IF-UFRGS - 2014 117 implica que este formalismo está bem definido para distâncias grandes. Variações dos campos na escala do espaçamento de rede ou das distâncias interpartícula estão fora do alcance do formalismo. No entanto, como veremos a seguir, na análise da física na vizinhança de um ponto crítico apenas o comportamento a longas distâncias é importante. Então, realizando a integração funcional sobre os graus de liberdade ainda não integrados, podemos obter o potencial termodinâmico A(T, h) correspondente: Z(T, h) = Tr e−βH = e−βA, (7.61) ondeH ≡ F [φΛ(~x)] deixa explícito o caráter de Hamiltoniano “efetivo” do funci- onal F , e h é um campo externo conjugado do parâmetro de ordem φ. A energia livre de Helmholtz pode ser obtida via uma transformação de Legendre na forma: F (T, φ) = A(T, h) +N φh. (7.62) 7.5 Funções de correlação Considerando a possibilidade do parâmetro de ordem variar espacialmente, pode- mos escrever o potencial termodinâmico A na forma: A[T,~h(~x)] = −T lnZ[T,~h(~x)], (7.63) onde consideramos uma possível variação espacial do campo externo. Adotamos a convenção kB = 1, ou seja, daqui para frente todas as temperaturas estão em unidades da constante de Boltzmann. Notamos que tanto o potencial A quanto a função de partição Z são na verdade funcionais no sentido discutido na seção anterior. Para cada função h(~x) obtemos um valor para Z e um para A. Em presença de um campo externo local h(~x), a função de partição pode ser escrita na forma: Z = ∫ Dφ(~x) e−β{F [~φ(~x)]− ∫ ddx~h(~x)·~φ(~x)}, (7.64) onde F [φ(~x)] é dada por (7.59) e o subíndice Λ será eliminado da notação exceto quando o significado das expressões não seja claro. O parâmetro de ordem na escala Λ, que para um sistema magnético é a mag- netização local, é dado por: 〈φi(~x)〉 = 1 Z δZ δ βhi(~x) = − δA δhi(~x) , (7.65) Daniel A. Stariolo - IF-UFRGS - 2014 118 onde 〈φi〉 e hi representam a i-ésima componentes cartesianas dos vetores 〈~φ〉 e ~h, e o símbolo δ representa uma derivada funcional. O potencial termodinâmico obedece a seguinte identidade diferencial: dA = −S dT − ∫ ddx 〈~φ(~x)〉 · δ~h(~x). (7.66) A susceptibilidade local generalizada é dada pelo tensor: χij(~x, ~x ′) = δ〈φi(~x)〉 δhj(~x′) , (7.67) onde i, j são as componentes i e j de um parâmetro de ordem vetorial ~φ(~x). A função de correlação conectada representa as correlações das flutuações do parâmetro de ordem em relação ao valor médio, e é dada por: Gij(~x, ~x ′) = 〈[φi(~x)− 〈φi(~x)〉][φj(~x′)− 〈φj(~x′)〉]〉 = 1 β2 δ2 lnZ δhj(~x′)δhi(~x) (7.68) = 1 β δ〈φi(~x)〉 δ hj(~x′) = Tχij(~x, ~x ′) Notamos que a função de correlação de dois pontos conectada é proporcional à susceptibilidade generalizada. A susceptibilidade ou resposta global é definida como: χij = ∫ ddxddx′χij(~x, ~x′) (7.69) e, em sistemas com invariância translacional, é proporcional ao limite q = 0 da transformada de Fourier da função de correlação conectada χij = lim~q→0 βGij(q) . Uma transformada de Legendre nos permite obter um potencial termodinâ- mico que é função do parâmetro de ordem (equivalente à energia livre de Helmholtz), em lugar de ser função do campo: F [T, 〈~φ(~x)〉] = A[T,~h(~x)] + ∫ ddx ~h(~x) · 〈~φ(~x)〉. (7.70) O funcional F satisfaz a relação diferencial: dF = −S dT + ∫ ddx ~h(~x) · δ〈~φ(~x)〉. (7.71) Daniel A. Stariolo - IF-UFRGS - 2014 119 A equação de estado é dada por: δF δ〈φi(~x)〉 = hi(~x). (7.72) Em ausência de campo externo o estado de equilíbrio é dado pelo valor de 〈φi(~x)〉 que minimiza F . Notar que, nesta forma funcional, o parâmetro de ordem pode não ser homogêneo, o mínimo de F é determinado por uma função da posição. A Derivada funcional Consideremos um funcional Φ[h(~x)]. A derivada funcional de Φ é definida como: δΦ δh(~y) = lim ǫ→0 Φ[h(~x) + ǫδ(~x− ~y)]− Φ[h(~x)] ǫ . (7.73) δΦ/δh(~y) representa o câmbio induzido em Φ em resposta a um câmbio em h(~x) no ponto ~x = ~y. Utilizando esta definição é possível mostrar algumas derivadas funcionais co- muns: δh(~x) δh(~y) = δ(~x− ~y), (7.74) onde Φ[h(x)] = h(x) é o funcional identidade. Se f é uma função de h(~x): δf(h(~x)) δh(~y) = f ′ δh(~x) δh(~y) = f ′ δ(~x− ~y), (7.75) δf(g(h(~x))) δh(~y) = f ′ g′ δh(~x) δh(~y) = f ′ g′ δ(~x− ~y), (7.76) onde f ′(z) = df/dz. Por exemplo, para f(φ(~x)) = φ4(~x): δf δφ(~y) = f ′ δφ(~x) δφ(~y) = 4φ3(~x)δ(~x− ~y) (7.77) Uma situação comum na física é a de um funcional F [φ(~x)] pode ser expresso na forma F [φ(~x)] = ∫ ddx f(φ(~x), ∂iφ(~x)), (7.78) Daniel A. Stariolo - IF-UFRGS - 2014 120 onde ∂iφ(~x) são derivadas espaciais de φ(~x) (componentes do gradiente), então δF δφ(~y) = ∫ ddx δf δφ(~y) = ∫ ddx [ ∂f ∂φ(~x) δφ(~x) δφ(~y) + ∂f ∂(∂iφ(~x)) δ∂iφ(~x) δφ(~y) ] = ∫ ddx [ ∂f ∂φ(~x) δ(~x− ~y) + ∂f ∂(∂iφ(~x)) ∂iδ(~x− ~y) ] , (7.79) onde na última linha usamos o fato que a derivada comum e a derivada funcional comutam e índices repetidos se somam. Usando: ∂i [ ∂f ∂(∂iφ(~x)) δ(~x− ~y) ] = δ(~x− ~y)∂i ∂f ∂(∂iφ(~x)) + ∂f ∂(∂iφ(~x)) ∂iδ(~x− ~y), integrando por partes no último termo, desprezando termos de superfície e fazendo a integral em ~x obtemos: δF δφ(~y) = ∂f ∂φ(~y) − ∂i ∂f ∂∂iφ(~y) , (7.80) cuja solução estacionária é semelhante a equação de movimento da mecânica La- grangeana. Após a transformada de Legendre que leva de A para F podemos obter a inversa da função de correlação derivando F respeito de 〈φi(~x)〉. Fazemos isto em dois passos: primeiro derivamos 〈φi(~x)〉 respeito de 〈φk(~x′′)〉: δ〈φi(~x)〉 δ〈φk(~x′′)〉 = δikδ(~x− ~x ′′) = ∫ ddx′ δ〈φi(~x)〉 δhj(~x′) δhj(~x ′) δ〈φk(~x′′)〉 . (7.81) onde se fez uso da regra da cadeia na derivada funcional e índices repetidos estão somados. Ainversa de χij(~x, ~x′) é definida na forma:∫ ddx′χij(~x, ~x′)χ−1jk (~x ′, ~x′′) = δikδ(~x− ~x′′). (7.82) Comparando as duas últimas identidades e usando a definição da susceptibilidade obtemos: χ−1ij (~x, ~x ′) = δhi(~x) δ〈φj(~x′)〉 = δ2F δ〈φj(~x′)〉δ〈φi(~x)〉 . (7.83) Daniel A. Stariolo - IF-UFRGS - 2014 121 7.5.1 Correlações na teoria de Landau Vamos calcular agora as funções de correlação e susceptibilidade partindo da ener- gia livre de Landau para um campo escalar: F = ∫ ddx f(T, 〈φ(~x)〉) + ∫ ddx 1 2 c [∇〈φ(~x)〉]2. (7.84) Substituindo para a densidade de energia livre a forma (7.47) com h = 0, obtemos: χ−1(~x, ~x′) = δ2F δ〈φ(~x)〉δ〈φ(~x′)〉 = (r + 12u 〈φ(~x)〉2 − c∇2)δ(~x− ~x′). (7.85) O último termo corresponde ao operador Laplaciano, e se obtém após integrar por partes a variação do termo do gradiente quadrado, e desprezar um termo de superfície: δ δφ(~x′) ∫ ddx ∂iφ(~x)∂iφ(~x) = ∫ ddx δ δφ(~x′) [∂iφ(~x)∂iφ(~x)] = ∫ ddx [ 2∂iφ(~x) ( δ δφ(~x′) ∂iφ(~x) )] = 2 ∫ ddx ∂iφ(~x)∂i δφ(~x) δφ(~x′) = 2 ∫ ddx ∂iφ(~x)∂iδ(~x− ~x′). (7.86) Usando ∂i [∂iφ(~x)δ(~x− ~x′)] = ∂2i φ(~x)δ(~x− ~x′) + ∂iφ(~x)∂iδ(~x− ~x′), (7.87) e desprezando o termo de superfície, obtemos: δ δφ(~x′) ∫ ddx ∂iφ(~x)∂iφ(~x) = −2 ∫ ddx ∂2i φ(~x)δ(~x−~x′) = −2∂2i φ(~x′). (7.88) Finalmente, δ δφ(~x) (−2∂2i φ(~x′)) = −2∂2i δ(~x− ~x′), (7.89) que leva ao resultado em (7.85). O mesmo resultado pode ser obtido diretamente aplicando a expressão geral obtida em (7.80). Daniel A. Stariolo - IF-UFRGS - 2014 122 Usando agora a relação (7.82), que define a inversa de χ, obtemos: (r + 12u 〈φ(~x)〉2 − c∇2)χ(~x, ~x′) = δ(~x− ~x′), (7.90) ou, usando (7.69): (r + 12u 〈φ(~x)〉2 − c∇2)G(~x, ~x′) = T δ(~x− ~x′). (7.91) A solução geral destas equações é complicada pela dependência em 〈φ(~x)〉2. Assumindo que o sistema apresenta invariância translacional é possível resolver para χ(~x, ~x′) por transformanda de Fourier: χ(~q) = ∫ ddxχ(~x) e−i~q·~x (7.92) Se o parâmetro de ordem é homogêneo e dado pela solução de campo médio de Landau obtemos: χ(~q) = 1 r + 12u 〈φ〉2 + cq2 = 1 1 + (qζ)2 , (7.93) onde ζ(T ) = ( c r + 12u 〈φ〉2 )1/2 (7.94) tem unidades de comprimento. Fazendo a transformada inversa de Fourier da susceptibilidade, ou da função de correlação que é equivalente, é possível mostrar que ζ(T ) é um comprimento de correlação. Usando a solução de campo médio para 〈φ〉 se obtém: ζ(T ) = { (c/r)1/2 se T > Tc (c/(−2r))1/2 se T < Tc (7.95) Então, vemos que próximo do ponto crítico ζ ∼ |T − Tc|−ν , onde ν = 1/2 é o expoente crítico do comprimento de correlação. Em sistemas tridimensionais o valor real de ν está em torno de 2/3. A existência de um comprimento de correlação é um dos conceitos centrais na física da matéria condensada. A própria idéia de condensado implica a existência de uma região onde as partículas estão fortemente correlacionadas. A extensão Daniel A. Stariolo - IF-UFRGS - 2014 123 desta região depende de parâmetros externos, como a temperatura, ou pressão. Uma das características do fenômeno de invariância de escala no ponto crítico é a divergência do comprimento de correlação, ou seja, todo o sistema está fortemente correlacionado em Tc. A forma da susceptibilidade (7.93) foi obtida pela primeira vez por Ornstein e Zernicke na análise do ponto crítico gás-líquido. A transformada inversa de Fourier permite obter a função de correlação espacial de dois pontos: χ(~x) = ∫ ddq (2π)d ei~q·~x 1 + (qζ)2 = Ωd (2π)d ∫ qd−1dq 1 + (qζ)2 ( 1 qr )(d−2)/2 J(d−2)/2(qr) (7.96) onde Ωd é o ângulo sólido d-dimensional e Jn(x) é uma função de Bessel. A integral no vetor de onda resulta em: χ(r) ∝ ( 1 ζr )(d−2)/2 K(d−2)/2 ( r ζ ) , (7.97) onde Kµ(x) é uma função de Bessel modificada. Para x≫ 1, Kµ(x) ≈ x−1/2e−x. Então, para distâncias grandes comparadas com o comprimento de correlção, a função de correlação de dois pontos se comporta como: G(r) = Tχ(r) ∝ e −r/ζ r(d−1)/2 (7.98) Notamos que no ponto crítico T = Tc as correlações espaciais decaem algebrica- mente com r−(d−1)/2. Para T 6= Tc as correlações decaem de forma exponencial em uma escala dada pelo comprimento de correlação ζ(T ). 7.6 Sistemas com simetria O(n) Sistemas com simetria O(n) possuem um parâmetro de ordem vetorial com n componentes. Na fase desordenada, o Hamiltoniano tem que ser invariante frente a rotações no espaço n-dimensional do parâmetro de ordem. Casos particulares são o modelo de Ising, com n = 1, que já analizamos. O modelo XY, que é um modelo de rotores no plano, com n = 2. O modelo de Heisenberg para a transição ferromagnética, com n = 3. Daniel A. Stariolo - IF-UFRGS - 2014 124 A energia livre de Landau do modelo O(n) é análoga a do modelo com si- metria Ising (7.47). A única diferença é que, devido a simetria rotacional da fase paramagnética, a energia livre deve depender de: |〈~φ〉|2 ≡ 〈φ〉2 = n∑ i=1 〈φi〉2, (7.99) que é invariante por rotações. Em presença de um campo externo hi na direção i a equação de estado resulta: ∂f ∂φi = (r + 4u〈φ〉2)〈φi〉 = hi. (7.100) Acima da temperatura crítica, ou seja, se r > 0, a única solução com hi = 0 é que todas as componentes do parâmetro de ordem sejam nulas. Então: 〈φ〉 = { 0 se T > Tc; (−r/4u)1/2ei se T < Tc. (7.101) onde ~e é um vetor unitário arbitrário no espaço do parâmetro de ordem. O com- portamento é o mesmo do modelo de Ising, e então o modelo O(n) sofre uma transição de fase de segunda ordem, com expoentes críticos β, γ, δ e ν iguais aos do modelo de Ising. No entanto, diferentemente ao modelo de Ising que quebra uma simetria discreta, a arbitrariedade do vetor unitário ~e que define a direção de ordenamento do sistema, indica que uma simetria continua foi quebrada, como mostrado na figura 7.7 para o caso XY (n = 2). A quebra de uma simetria continua traz profundas consequências no compor- tamento das funções de correlação e susceptibilidades para T < Tc. Como já visto, a função de correlação conectada entre as componentes i e j do parâmetro de ordem é dada por: Gij(~x, ~x ′) = 〈φi(~x)φj(~x′)〉 − 〈φi(~x)〉〈φj(~x′)〉. (7.102) Esta correlação pode ser decomposta em duas partes, correspondentes a correla- ções entre as componentes paralela e perpendiculares à direção de ordenamento do sistema: Gij(~x, ~x ′) = G‖(~x, ~x′) eiej +G⊥(~x, ~x′)(δij − eiej). (7.103) Se a direção de ordenamento é o eixo definido por e1, então ~e = (1, 0, 0, . . .) e obtemos: G11(~x, ~x ′) = G‖(~x, ~x′) = 〈φ1(~x)φ1(~x′)〉 − 〈φ1(~x)〉〈φ1(~x′)〉, (7.104) Gii(~x, ~x ′) = G⊥(~x, ~x′) = 〈φi(~x)φi(~x′)〉 − 〈φi(~x)〉〈φi(~x′)〉, (i 6= 1). Daniel A. Stariolo - IF-UFRGS - 2014 125 Figura 7.7: A parte homogênea da energia livre de Landau para o modelo O(2). Derivando a energia livre de Landau respeito de φi(~x) e φj(~x′) e transformando Fourier obtemos o tensor de susceptibilidade: χ−1ij (~q) = TG −1 ij (~q) = (r + 4u〈φ〉2 + cq2)δij + 8u〈φi〉〈φj〉, (7.105) ou, em termos das componentes paralelas e perpendiculares: χ−1‖ = r + 12u〈φ〉2 + c q2 (7.106) e χ−1⊥ (~q) = r + 4u〈φ〉2 + c q2 = { r + c q2 se T > Tc; c q2 se T < Tc. (7.107) Notamos que a componente paralela tem o mesmo comportamento que no modelo de Ising. No entanto, na fase ordenada para T < Tc, na direção perpendicular a susceptibilidade ou as correlações G⊥(~q) = Tχ⊥(~q) têm um comportamento com lei de potência: G⊥(~q) = T cq2 . (7.108) No espaço real as correlações também decaem algebricamente: G⊥(~x, 0) ∼ |x|−(d−2). (7.109) Daniel A. Stariolo - IF-UFRGS - 2014 126 Como a suscpetibilidade global é dada por χij = lim~q→0 βGij(~q), o resultado anterior implica que o sistema possui susceptibilidade transversal infinita na fasede baixa temperatura com simetria quebrada. Ou seja, é necessário um campo externo arbitrariamente pequeno para mudar o valor (ou melhor, a direção) do pa- râmetro de ordem. Isto pode ser interpretado fisicamente pela estrutura da energia livre de Landau da figura 7.7. Da figura fica evidente que f possui um número infinito de mínimos para T < Tc, e se pode passar continuamente de um mínimo para outro. Ou seja, não custa energia ir de um mínimo qualquer a um outro qual- quer. No entanto, na direção paralela a situação é diferente: existe uma penalidade energética para mudar o módulo do parâmetro de ordem. O comportamento da componente transversal da susceptibilidade (7.107) in- dica que, em termos de modos no espaço de Fourier, a susceptibilidade aumenta de forma ilimitada para modos de comprimento de onda grande e é infinita para λ → ∞. Em outras palavras, a flutuação na energia de Landau f pode ser feita arbitrariamente pequena para flutuações de comprimento de onda suficientemente grandes. No caso do modelo O(2) da figura vemos que existe exatamente um modo perpendicular à direção de ordenamento com excesso de energia livre arbi- trariamente pequena. Em geral, em um modelo com simetria O(n) haverá um modo deste tipo por cada direção transversal, ou seja um total de n − 1 mo- dos transversais de baixa energia, chamados modos de Goldstone. Os modos de Goldstone se manifestam matematicamente como polos em ~q = 0 na componente transversal da susceptibilidade, como se ve em (7.107) na fase de simetria ro- tacional quebrada. Exemplos de modos de Goldstone são as ondas de spin, ou mágnons em sistemas ferromagnéticos e também os fônons, ou oscilações da rede cristalina associados a quebra da simetria por translações no espaço. Ambas fenô- menos correspondem a excitações de baixa energia dos respectivos sistemas e são consequência da quebra de simetrias continuas. 7.7 Validade da teoria de campo médio: o critério de Ginzburg Como temos visto, a aproximação de campo médio consiste essencialmente em substituir um parâmetro de ordem que flutua localmente por um parâmetro médio espacialmente constante. Por tanto, a aproximação de campo médio será boa sempre que as flutuações do parâmetro de ordem respeito do seu valor médio sejam pequenas. Uma medida da importância das flutuações do parâmetro de Daniel A. Stariolo - IF-UFRGS - 2014 127 ordem pode ser obtida calculando o valor médio de δφ(~x) = φ(~x) − 〈φ(~x)〉 em um volume da ordem Vζ ≈ ζd (V. L. Ginzburg, 1960), onde ζ é da ordem do comprimento de correlação. O desvio do parâmetro de ordem respeito do seu valor médio no volume Vζ é dado por: δφζ ≡ V −1ζ ∫ Vζ ddx δφ(~x). (7.110) As flutuações serão desprezíveis se 〈(δφζ)2〉 for muito menor que 〈φ〉2 na fase ordenada, ou seja, se V −2ζ ∫ Vζ ddx ddx′ 〈δφ(~x)δφ(~x′)〉 = V −1ζ ∫ Vζ ddxG(~x) < 〈φ〉2, (7.111) onde G(~x) é a função de correlação (conectada) do parâmetro de ordem e foi assumida invariância translacional. Como a aproximação de campo médio fornece uma predição para a função de correlação e para o parâmetro de ordem, a própria aproximação possui um teste de consistência interna. Vamos analizar o critério de Ginzburg para uma teoria com campo escalar φ4, usando os resultados conhecidos para 〈φ〉 e para G(~x, ~x′) = Tχ(~x, ~x′). A susceptibilidade generalizada é dada por (7.93): χ(~x) = χ ∫ ddq (2π)d ei~q·~x 1 + (qζ)2 = c−1|~x|−(d−2)Y (|~x|/ζ), (7.112) onde Y (η) = ∫ ∞ 0 zd−1dz ∫ dΩd (2π)d eiz cos θ [z2 + η2] (7.113) Obtemos: 〈(δφζ)2〉 = TV −1ζ c−1 ∫ Vζ ddx |~x|−(d−2)Y (|~x|/ζ) = TV −1ζ c −1 ∫ dΩd ∫ ζ 0 (dr rd−1) r−(d−2)Y (r/ζ) = TV −1ζ c −1ζ2 ∫ dΩd ∫ 1 0 dz z Y (z) = AdTζ −(d−2) c < 〈φ〉2 = |r| 4u , (7.114) Daniel A. Stariolo - IF-UFRGS - 2014 128 onde ζ = (c/|r|)1/2 é o comprimento de correlação e Ad é uma constante que depende da dimensão d. Definindo um comprimento de correlação microscópico ζ(T = 0) = ζ0 = (c/aTc) 1/2 e o valor do salto no calor específico na transição ∆cV = Tca 2/8u (ver equação (7.55)), podemos reescrever o resultado anterior de forma adimensional:( ζ ζ0 )d−4 = ( T − Tc Tc )(4−d)/2 > Ad 2∆cV ζ d 0 . (7.115) A relação anterior nos diz que para d > 4, como ζd−4 → ∞ quando T → Tc, a desigualdade anterior sempre é satisfeita próximo da transição. No entanto, para d < 4, como ζd−4 → 0 quando T → Tc, a desigualdade nunca é satisfeita perto de Tc. Então podemos concluir que a aproximação de campo médio será satisfatória para dimensão d > 4, mas não será consistente para d < 4, em teorias φ4. A dimensão ds = 4 que representa um limite para a validade da aproximação de campo médio, se conhece como dimensão crítica superior. A dimensão crítica superior depende, assim como os expoentes críticos, da simetria do parâmetro de ordem e do alcance das interações. Para um sistema qualquer, com expoentes críticos de campo médio β, γ, ν, devemos levar em conta que Tχ ∼ |T − Tc|−γ e 〈φ〉 ∼ |T − Tc|β. Então, des- considerando fatores constantes de ordem um, o critério de Ginzburg é satisfeito se: t−γ ≪ t2β−νd, (7.116) onde t = |T − Tc|/Tc é a temperatura reduzida. Então, para um sistema geral, a dimensão crítica superior é determinada pela condição: d > 2β + γ ν ≡ ds. (7.117) Para dimensões d < ds, a aproximação de campo médio poderá ser válida para temperaturas suficientemente longe de Tc, sempre que a desigualdade (7.115), ou em geral (7.116), seja satisfeita. A medida que T se aproxima de Tc as flutações se tornam cada vez mais importantes. A temperatura que define a identidade na equação (7.115) é conhecida como temperatura de Ginzburg: tG = |TG − Tc| Tc = ( Ad 2∆cV ζd0 )2/(4−d) . (7.118) De forma equivalente, é possível definir o comprimento de Ginzburg ζG, na forma: ζ4−dG ∼ ∆cV ζ40 = c2/(8uTc), (7.119) Daniel A. Stariolo - IF-UFRGS - 2014 129 ou ζG ∼ ζ0(∆cV ζd0 )1/(4−d). (7.120) A teoria de campo médio é válida quando t > tG ou ζ < ζG. Notar que |TG − Tc| → 0 se ζ0 → ∞ para d < 4. Isto quer dizer que o campo médio será válido até temperaturas muito próximas de Tc se o compri- mento de correlação microscópico for grande, mesmo para d < ds. Este é o caso em sistemas com interações de longo alcance ou em supercondutores, por exemplo. Quando ζ0, ou |TG − Tc| não é pequena, se espera que aconteça um “crossover”, ou mudança de regime, de um comportamento de campo médio para um comportamento crítico quando a temperatura reduzida t = (T −Tc)/Tc for da ordem da temperatura reduzida de Ginzburg tG. A figura (7.8) mostra de forma esquemática o crossover no comportamento da inversa da susceptibilidade. Figura 7.8: Representação esquemática do crossover de campo médio para com- portamento crítico na inversa da susceptibilidade . O critério de Ginzburg permite entender por qué em alguns sistemas a apro- Daniel A. Stariolo - IF-UFRGS - 2014 130 ximação de campo médio pode ser muito boa e em outros não. Uma transição que é descrita de forma satisfatória pela teoria de campo médio é a transição me- tal normal-supercondutor. Na figura (7.9) vemos medidas do parâmetro de or- dem e de calores específicos para esta transição, junto com predições da teoria BCS (Bardeen-Cooper-Schrieffer, 1957), que é uma teoria de campo médio para a transição supercondutora. Figura 7.9: O parâmetro de ordem e calores específicos na transição metal normal- supercondutor, para diversos materiais, junto com predições de campo médio. O calor específico apresenta uma discontinuidade finita em Tc, de acordo com a predição de campo médio. A temperaturas baixas, cs vá a zero exponencial- mente, fato este de natureza quântica e não explicado pelo campo médio consi- derado. O parâmetro de ordem va a zero como (T − Tc)1/2, em completo acordo com campo médio, e satura para temperaturas baixas. O saltono calor especí- fico em alumínio é da ordem de 2 × 104 ergmole−1K. O parâmetro de rede em Al é 4Å, e o comprimento de correlação microscópico é ζ0 ≈ 1.6 × 104Å. En- tão, ∆cV ≈ 2 × 105/42 erg cm−3K−1, resultando uma temperatura de Ginzburg Daniel A. Stariolo - IF-UFRGS - 2014 131 tG ≈ 10−16 ! A temperatura crítica em Al é 1.19K e por tanto é praticamente impossível aceder à região crítica. Neste caso, o motivo para uma TG tão pequena é o enorme valor do comprimento de correlação microscópico em relação à cons- tante da rede. Este comportamento é observado na maioria dos supercondutores, o que resultou no éxito da teoria BCS. Na década dos oitenta foram descobertos novos compostos supercondutores, chamados supercondutores de alta tempera- tura crítica, pois a supercondutividade é observada até temperaturas da ordem de 100K. A teoria BCS se mostrou insatisfatória para descrever esta classe de su- percondutores. Os mecanismos microscópicos por trás da supercondutividade de alta temperatura crítica ainda são desconhecidos. Referências Bibliográficas [1] R. K. Pathria and P. D. Beale, Statistical Mechanics, 3rd edition, Elsevier. [2] K. Huang, Statistical Mechanics, John Wiley & Sons. [3] L. E. Reichl, A Modern Course in Statistical Physics, John Wiley & Sons. [4] S. R. A. Salinas, Introdução à Física Estatística, Edusp. [5] P. M. Chaikin and T. C. Lubensky, Principles of Condensed Matter Physics, Cambridge University Press. [6] N. Goldenfeld, Lectures on Phase Transitions and the Renormalization Group, Addison-Wesley. [7] L. D. Landau and E. M. Lifshitz, Statistical Physics - Pergamon Press. [8] N. W. Ashcroft and N. D. Mermin, Solid State Physics, Sounders College. 132