Baixe o app para aproveitar ainda mais
Prévia do material em texto
1 Representação de Grupo de Rotação Na seção de Momento Angular, estudamos como construir as representações1 possíveis dos operadores que satisfazem a regra de comutação, [Ji, Jj ] = iJk, ijk − cı´clica. (1) Definindo o quadrado do vetor momento angular por J˜2 = J2x + J 2 y + J 2 z , vimos que os autovalores deste operador tem a forma, j (j + 1) , com j = 0, 1 2 , 1, 3 2 , · · · Escrevendo os autovetores simultâneos de J˜2 e Jz como |j,mi, J˜2|j,mi = j (j + 1) |j,mi, Jz|j,mi = m|j,mi, podemos construir as matrizes (Σx,Σy,Σz) através da regra (Σi)m0m ≡ hj,m0|Ji|j,mi, i = x, y, z, (2) para um dado j. A dimensão destas matrizes é 2j + 1, isto é, as matrizes são de (2j + 1) × (2j + 1). Por construção, podemos verificar que estas matrizes satisfazem as relações de comutação, [Σi,Σj ] = iΣk, ijk − cı´clica (3) Exercício 1 Prove a Eq.(3). Agora, vamos introduzir a transformação unitária no espaço de Hilbert, ou seja, no espaço de vetores de estado quânticos, do seguinte modo: U (ω) = e−iω·J˜, (4) onde ω = ωn é um vetor tridimensional real com |n| = 1. Podemos mostrar que o operador definido pela Eq.(4) representa uma rotação por um ângulo ω no espaço de coordenadas em torno do eixo n. 1Aqui, a palavra “representação” significa a correspondência destes operadores com ma- trizes, preservando a regra de comutação. 1 Exercício 2 Confirme a afirmação acima. Nestas notas denotamos esta rotação por R e a transformação unitária na Eq.(4) por U (R) . (5) Exercício 3 Mostre que o conjunto de todas as rotações forma um grupo. Exercício 4 Uma rotação R no sistema de coordenadas causa a transformação num vetor r arbitrário dada por r → r 0 = A (R)r, onde A (R) é uma matriz 3× 3 ortogonal. Obtenha a forma explícita da matriz A (R) correspondente ao operador de rotação no espaço de Hilbert, U = e−iω·J . O grupo de rotação tridimensional é isomorfo2 ao grupo de matrizes 3- dimensional Ortogonal, também chamado de grupo O (3). 1.1 Matriz de Rotação O operador unitário U (R) descreve a transformação dos vetores de estado no espaço de Hilbert decorrente de uma rotação R que ocorreu no espaço de coor- denadas {r} (posição). Em outras palavras, um vetor de estado se transforma como: |ψi→ |ψi0 = U (R) |ψi, enquanto as coordenadas espaciais {r} sofrem a transformação, r → r 0 = A (R)r, onde A (R) é a matriz de transformação de coordenadas. Ambas as corre- spondências, R→ A (R) , (6) R→ U (R) , (7) formam uma “representação” do grupo de rotação R. A representação da Eq.(6) é expressa em termos de matrizes 3×3. No entanto, a representação da Eq.(7) é feita por operadores unitários U (R) no espaço de Hilbert. Se escolhermos uma base completa no espaço de Hilbert, podemos representar U (R) em termos de matrizes de dimensão infinita. Como veremos em seguida, esta representação pode ser decomposta em representações de dimensões menores. 2Dois grupos são dito isomorfos se existe uma correspondência biunívoca entre eles, preser- vando a estrutura do grupo. 2 Lembramos que sempre podemos expressar o vetor de estado quântico em termos de superposições dos auto-estados de momento angular, |ψi = X j,m Cjm|ψqi⊗ |jmi, (8) onde |ψqi representa o estado quântico (tais como posiçao radial, etc) além da propriedade angular. Desta forma, vemos que o operador U só atua no espaço {|jmi}. |ψi0 = U (R) |ψi = X j,m Cjm|ψqi⊗ U (R) |jmi. É fácil de provar que hj0m0|U |jmi ∝ δj0j , (9) ou seja, a transformação U não altera j. Exercício 5 Prove a Eq.(9). Vemos então que é suficiente estudar a propriedade de transformação num subespaço de j fixo, isto é, como os estados {|jmi} para um dado j se transfor- mam sobre a transformação U (R). Temos |jmi→ |jmi0 = U (R) |jmi. Usando a completeza da base no subespaço, temos |jmi0 = ÃX m0 |jm0ihjm0| ! U (R) |jmi = X m0 |jm0i D(j)m0m (R) onde D(j)m0m = hj,m0|U(R)|jmi, (10) e definimos a matriz (2j + 1)× (2j + 1) D(j)(R) = ³ D(j)m0m ´ (11) que é chamada de matriz de rotação. O conjunto de matrizes ©D(j)(R)ª , com j fixo, formam uma representação do grupo de rotação com dimensão (2j + 1). Quando o sistema sofre a rotação, os estados se transformam de acordo com |ψi0 = U(R) |ψi, (12) ou, mais simplesmente, |ψi0 = U |ψi. 3 Os operadores se transformam de acordo com O 0 = U O U−1. (13) Em particular, os operadores de momento angular se transformam como J 0=U J U−1. Por definição, o novo operador é o operador de momento angular visto no novo sistema de coordenadas, após a rotação R. Sabemos que J˜2|jmi = j (j + 1) |jmi, Jz|jmi = m|jmi, e aplicando U nos dois lados destas equações, temos por exemplo, UJzU−1| {z } J 0z U |jmi| {z } |jmi0 = mU |jmi| {z } |jmi0 , e, portanto, J 0z |jmi 0 = m|jmi0. Isto é, o estado transformado |jmi0 é o autoestado do operador transformado J 0z . • Os autoestados do novo momento angular J˜ 0 no sistema rodado são dados por |j,mi0 = U(R) |j,mi. (14) Podemos escrever, em termos da matriz de rotação, |j,mi0 = X m0 |j,m0i D(j) m0m (R) (15) ou seja, com a matriz de rotação, os novos autoestados podem ser expressos em termos de combinações lineares dos autoestados anteriores. Para j = c inteiro, podemos transcrever a equação acima em termos de harmônicos esféricos. Temos então Ycm(Ω0) = X m0 Ycm0 (Ω) D(c)m0m(R). (16) Esta equação é utilizada para se obter a fórmula de adição de ângulos dos harmônicos esféricos (ver a lista de Exercícios). 4 1.2 Ângulos de Euler Para se obter a expressão explícita da matriz de rotação, é conveniente descrever a rotação em termos de ângulos de Euler, α, β, γ. Uma rotação é decomposta em três rotações consecutivas, primeiro em torno de eixo Z por um ângulo α, em seguida em torno de eixoY 0( o eixo Y após a primeira rotação) por β e finalmente em torno de eixo Z00(o novo eixo Z após as duas rotações) por γ. Em termos do operador no espaço de Hilbert, esta rotação leva ao operador unitário U(α, β, γ) = U (R3)U (R2)U (R1) = e−iγJ 00 z e−iβJ 0 ye−iαJz (17) onde U(R1) =−iαJz , U(R2) = −iβJ 0 y , U (R3) = e−iγJ 00 z correspondem às tres rotações sucessivas. Entretanto, como os operadores de momento angular, após a rotação, são relacionados com o original por J 0y = U(R1)JyU −1 (R1) = e−iαJz Jy eiαJz , e J 00z = U (R2)U (R1) Jz (U (R2)U (R1)) −1 = e−iβJ 0 y e−iαJz Jz ³ e−iβJ 0 y e−iαJz ´−1 = e−iαJze−iβJyeiαJze−iαJz Jz ¡ e−iαJze−iβJyeiαJze−iαJz ¢−1 = e−iαJze−iβJy Jz e iβJyeiαJz , podemos verificar que a rotação dada pela Eq.(17) é escrita também em termos dos geradores originais, U(α, β, γ) = e−iαJze−iβJye−iγJz (18) onde os parâmetros α, β, γ aparecem justamente em ordem inversa a da Eq.(17). Da Eq.(18), podemos explicitar o elemento de matriz D na base de |j,mi, D(j)mm0(α, β, γ) = hj,m|e−iαJze−iβJye−iγJz |j,m0i = e−iαmd(j)mm0(β)e−iγm 0 (19) onde d(j)mm0(β) = hj,m|e−iβJy |j,m0i. (20) 5 Na forma matricial, temos D(j)(α, β, γ) = eiαj 0 · · · 0 0 eiα(j−1) 0 0 ... 0 . . . ... 0 · · · · · · e−iαj bd(j)(β) eiγj 0 · · · 0 0 eiγ(j−1) 0 0 ... 0 . . . ... 0 · · · · · · e−iγj (21) A matriz bd(j)(β) pode ser calculada explicitamete utilizando a propriedade da matriz de representação de Jy. Por exemplo, para j = 1/2, os operadores de momento angular estão descritos em termos de matrizes de Pauli. Assim, Jy = 1/2σy e temos d(1/2)(β) = e−i β 2 σy = ∞X n=0 1 n! µ −iβ 2 σy ¶n = X n:par 1 n! µ −iβ 2 σy ¶n + X n:impar 1 n! µ −iβ 2 σy ¶n = X n:par 1 n! µ −iβ 2 ¶n + σy X n:impar 1 n! µ −iβ 2 ¶n = cos β 2 − iσysin β 2 = µ cos β2 sin β 2 − sin β2 cos β 2 ¶ (22) Consequentemente, D(1/2)(α, β, γ) = µ ei 1 2 (α+γ) cos β2 e i 12 (α−γ) sin β2 ei 1 2 (−α+γ) sin β2 e −i 12 (α+γ) cos β2 ¶ (23) Exercício 6 Verifique as contas acima. Exercício 7 Calcule D(1)(α, β, γ). Os conjuntos das matrizes ©D(j) (R)ª são as representações da rotação tridi- mensional nos sub-espaços de Hilbert, cada uma delas especificada pelo índice j. Pela construção das matrizes acima, podemos provar que o subespaço do espaço de Hilbert H(j) = {|jmi, m = −j, ..., j} não contém mais nenhum subespaço invariante em relação ao grupo de rotação. Ou seja, para quaisquer dois vetores do subespaço, existe sempre uma rotação que leva um no outro. Uma representação de grupo para a qual não existe 6 nenhum subespaço invariante sob ação deste grupo é chamada representação ir- redutível do grupo (ver mais adiante). As matrizes ©D(j) (R)ª formam as repre- sentações irredutíveis do grupo de rotação tridimensional O (3). Em particular, as matrizes ©D(1/2) (R)ª formam uma representação irredutível do grupo O (3) de dimensão 2. Por outro lado, podemos mostar que o conjunto ©D(1/2) (R)ª é equivalente ao conjunto de todas as matrizes unitárias bi-dimensionais, com o valor do determinante um. Exercício 8 Demonstre que o conjunto ©D(1/2) (R) , ∀R ∈ O (3)ª é equivalente (correspondência um a um) ao conjunto de todas as matrizes unitárias bi- dimensionais, com o valor do determinante um. O conjunto de todas as matrizes Unitárias 2-dimensionais com o mesmo valor eSpecial de determinante formam um grupo. Este grupo é chamado de grupo SU (2). Assim, vimos que o grupo O (3) e o grupo SU (2) são isomorfos, O (3) ' SU (2) . Exercício 9 Prove que o subespaço H(j) não contém nenhum subesapço invari- ante sob o grupo de rotação R. No espaço físico tridimensional, o efeito de rotação R é representado pela matriz A(α, β, γ), que se aplica ao vetor tridimensional r, r → r0 = A r. Os ângulos de Euler permitem decompor a rotação em um produto de 3 rotações consecutivas: A(α, β, γ) = Az (α)Ay (β)Az (γ) , onde Az (α) , Ay (β) e Az (γ) são dadas por Az (α) = cosα sinα 0 − sinα cosα 0 0 0 1 , (24) Ay (β) = cosβ 0 − sinβ 0 1 0 sinβ 0 cosβ , (25) Az (γ) = cos γ sin γ 0 − sin γ cos γ 0 0 0 1 . (26) 7 Assim, temos que a matriz de rotação tridimensional na base Cartesiana (x, y, z) fica explicitamente A (α, β, γ) = cosα sinα 0 − sinα cosα 0 0 0 1 cosβ 0 − sinβ 0 1 0 sinβ 0 cosβ cos γ sin γ 0 − sin γ cos γ 0 0 0 1 = − sinα sin γ + cosα cosβ cos γ cos γ sinα+ cosα cosβ sin γ − cosα sinβ − cosα sin γ − cosβ cos γ sinα cosα cos γ − cosβ sinα sin γ sinα sinβ cos γ sinβ sinβ sin γ cosβ . (27) Exercício 10 Estabeleça a relação entre A (α, β, γ) e D(1)(α, β, γ). 1.3 Alguns Teoremas para a representação de um grupo Vamos recordar a definição de um grupo. Consideramos um conjunto de ele- mentos (seja finito, seja infinito) G = {A,B,C, ...} no qual está definida uma regra de multiplicação (produto), representado pelo símbolo “ · ”, entre dois elementos de G. Dizemos que o conjunto forma um grupo sob o produto ·, quando as seguintes propriedades são satisfeitas: • o conjunto é fechado pela multiplicação, A ·B ∈ G, ∀A,B ∈ G • associatividade: (A ·B) · C = A · (B · C) , • existência do elemento unidade3 ( identidade) I, A · I = I ·A = A, • existência do elemento inverso A−1 para qualquer elemento A, tal que A−1 ·A = A ·A−1 = I. 3Na verdade, I ·A = A · I sai apenas pelo requerimento I ·A = A, e vice versa. 8 1.3.1 Representação Sejam G e S grupos. Um mapeamento G→ S é dito representação de G em termos de S quando as regras de multiplicação do grupo G são preservadas por este mapeamento. Podemos introduzir o indice λ para especificar os elementos do grupo G, Rλ ∈ G. Isto é, estabelecemos a correspondência um a um entre os elementos de grupo e os valores de λ. Aqui, o parâmetro λ não necessariamente um número inteiro, mas pode ser um conjunto de números contínuos. Quando λ é número inteiro, o grupo é chamado grupo discreto. Um grupo é chamado grupo contínuo se o parâmetro λ é contínuo. Neste caso, λ é chamado “coordenada” para o grupo. O mapeamento G→ S pode ser escrito para todos os valores de índice λ, Rλ ∈ G→ Sλ ∈ S, ou seja, se Rλ1 ∈ G, temos Sλ1 ∈ S, e se Rλ2 ∈ G, temos Sλ2 ∈ S, etc. Este mapeamento é dito representação quando, se Rλ2Rλ1 = Rλ3 , então Sλ2Sλ1 = Sλ3 . Um exemplo: o conjunto de matrizes (n× n) não singulares ©M (n)ª formam um grupo com o produto matricial usual. Assim, é possível construir uma representação de um grupo G em termos de matrizes (n× n). Neste caso, se R1, R2 ∈ G, e R1 → A (R1) ∈ n M (n) o , R2 → A (R2) ∈ n M (n) o , 9 então A (R1)A (R2) = A (R1R2) ∈ n M (n) o . Note que aqui, o produto de grupo de G fica transcrito como produto matricial em M (n). Um outro exemplo: o conjunto de matrizes unitárias forma um grupo. As- sim, podemos construir uma representação através do mapeamento do grupo G para o grupo de matrizes unitárias. Esta representação é chamada de represen- tação unitária. Numa representação matricial de um grupo, podemos considerar o espaço vetorial linear H no qual estas matrizes atuam. Assim, as matrizes de represen- tação formam um conjunto de transformações de vetores neste espaço. ∀x ∈ H, ∀R ∈ G, A (R) : x→ x´ = A (R)x. Seja H1 um subespaço de H. O subespaço H1 é dito invariante sob o grupo G se ∀x ∈ H1, x´ = A (R)x ∈ H1, ∀R ∈ G. A representação é dita irredutível se não existe nenhum subespaço invariante em H. Se existe pelo menos um subespaço invariante, a representação é dita redutível. Quando uma representação é redutível, possuindo o subespaço in- variante H1, é sempre possível arrumar as bases da representação de tal modo que as matrizes fiquem diagonais em blocos. A (R)→ µ A(1) (R) 0 0 A(2) (R) ¶ , ∀R ∈ G. Na expressão acima a submatriz A(1) (R) atua no subespaço H1 e a submatriz A(2) (R) atua no subespaço H2 = H − H1. Aqui, é fundamental a condição, ∀R ∈ G. Isto é, todas as matrizes se tornam ao mesmo tempo diagonal em blocos. Para R1, R2 ∈ G, temos A (R1)A (R2)→ µ A(1) (R1)A(1) (R2) 0 0 A(2) (R1)A(2) (R2) ¶ , portanto, os dois conjuntos de submatrizes, © A(1) (R) ª e © A(2) (R) ª formam separadamente as representações independentes. Quando isto acontece, dizemos que a representação original {A (R)} é decomposta em duas representações,© A(1) (R) ª e © A(2) (R) ª . Se as dimensões dos espaços H, H1, eH2 são n, n1 e n2, respectivamente, então expressamos esta decomposição da representação por {n} = {n1}⊕ {n2} . 10 Naturalmente temos que ter n = n1 + n2. Para uma dada representação matricial de um grupo {n} : R→ A (R) , sempre podemos construir sua representação adjunta por R→ A† (R) , com o produto de grupo R1R2 → A† (R2)A† (R1) = A† (R1R2) . Note a ordem do produto matricial (inverso do anteiror). Esta representação é chamada de representação adjunta e a expressamos como {n}. 1.3.2 Exemplo Para poder fixar a idéia, vamos considerar um exemplo simples. Consideramos um conjunto de dois elementos ordenados (a, b). Podemos considerar duas op- erações: a primeira, de não fazer nada, que denotamos por e, e a segunda, de trocar a ordem dos elementos, que denotamos por t. O conjunto destas duas operações formam um grupo de dois elementos, (e, t) , pois podemos verificar que as operações sucessivas se resumem às seguintes possibilidades: e · e = e, e · t = t · e = t, t · t = e, que definem a estrutura do grupo. Chamaremos este grupo comogrupo de permutação S2. Para construir as matrizes vamos expressar esta estrutura numa tabela abaixo; ¡ e t ¢µ e t ¶µ e t t e ¶ É interessante notar que vale a seguinte regra de construir matrizes a partir desta tabela de produto: considere a tabela de multiplicação como uma matriz e coloque um (1) nos lugares em que aparece um determinado elemento do grupo e zero nos outros. Desta forma, podemos construir uma matriz para cada elemento do grupo. Estas matrizes formam uma representação do grupo. Por 11 exemplo: para construir a matriz correspondente ao elemento e, coloque um (1) nos lugares onde este aparece e, nos outros lugares, coloque zero. Temos e→ µ 1 0 0 1 ¶ . (28) Analogamente, temos para o elemento t, t→ µ 0 1 1 0 ¶ . (29) Verificamos que as matrizes acima satisfazem as mesmas regras de produto que e e t, µ 1 0 0 1 ¶µ 1 0 0 1 ¶ = µ 1 0 0 1 ¶ ,µ 1 0 0 1 ¶µ 0 1 1 0 ¶ = µ 0 1 1 0 ¶µ 1 0 0 1 ¶ = µ 0 1 1 0 ¶ ,µ 0 1 1 0 ¶µ 0 1 1 0 ¶ = µ 1 0 0 1 ¶ . Desta forma, o conjunto das associações Eqs.(28) and (29) forma uma represen- tação do grupo S2. Só que esta representação não é irredutível pela seguinte razão: se consid- erarmos que estas matrizes são matrizes dos “operadores” e e t num espaço vetorial linear, µ 1 0 0 1 ¶ = µ h1|e|1i h1|e|2i h2|e|1i h2|e|2i ¶ ,µ 0 1 1 0 ¶ = µ h1|t|1i h1|t|2i h2|t|1i h2|t|2i ¶ , podemos associar os vetores de base como |1i→ µ 1 0 ¶ , |2i→ µ 0 1 ¶ . O espaço vetorial é então formado de vetores de combinação linear, a|1i+ b|2i→ µ a b ¶ . Neste espaço, podemos considerar as seguintes vetores, |+i = 1√ 2 {|1i+ |2i}→ 1√ 2 µ 1 1 ¶ , |−i = 1√ 2 {|1i− |2i}→ 1√ 2 µ 1 −1 ¶ . 12 Vemos facilmente queµ 1 0 0 1 ¶ 1√ 2 µ 1 1 ¶ = 1√ 2 µ 1 1 ¶ µ 0 1 1 0 ¶ 1√ 2 µ 1 1 ¶ = 1√ 2 µ 1 1 ¶ , ou seja, e|+i = |+i, t|+i = |+i. Em outras palavras, o subespaço unidmensional formado do vetor |+i é invari- ante sob o grupo. Analogamente, temos e|−i = |−i, t|−i = −|−i, e o subespaço unidmensional formado do vetor |−i também é invariante sob o grupo. Já que h+|+i = 1, h−|−i = 1, h+|−i = 0, podemos construir a representação na base de {|+i, |−i}. Temosµ h+|e|+i h+|e|−i h−|e|+i h−|e|−i ¶ = µ 1 0 0 1 ¶ ,µ h+|t|+i h+|t|−i h−|t|+i h−|t|−i ¶ = µ 1 0 0 −1 ¶ . Nesta representação, todos as matrizes do grupo se tornam diagonais. Assim, a representação original fica decomposta em duas representações: uma, e→ 1, t→ 1, e outra, e→ 1, t→ −1. Ambas representações satisfazem a estrutura de produto do grupo. Obviamente as duas representações são irredutíveis. Exercício 11 Proceda o tratamento análogo para o grupo S3, ou seja, o con- junto de permutações de 3 elementos. 13 1.3.3 Teorema de Rearranjo Uma das propriedades importantes de um grupo é a propriedade de rearranjo. O teorema do rearranjo diz: • Seja G um grupo e R ∈ G. Seja f = f (R) uma função de um elemento do grupo (um número atribuído para cada elemento do grupo, por exemplo). Então, para qualquer f ,X R∈G f (R) = X R∈G f (AR) , A ∈ G. (30) onde a soma se extende sobre todos os elementos do grupo. O teorema acima significa que a aplicação de um elemento do grupo para todos os elementos do grupo resulta no mesmo conjunto G, ou seja, é apenas um rearranjo dos elementos. Grupo finito Vamos provar primeiramente para o caso de um grupo finito. Escrevemos o número dos elementos do G por n. Sejam R1, R2 ∈ G, R1 6= R2. (31) Então, podemos provar que AR1 6= AR2, ∀A ∈ G (32) pois, devido a existência do elemento inverso A−1, se supormos AR1 = AR2, então, multiplicando A−1 temos A−1AR1 = A −1AR2, e R1 = R2, (33) o que contradiz a Eq.(31) e, portanto, prova a Eq.(32). Isto quer dizer que, quando os R 0s varrem todos os elementos do G (n termos), os AR 0s também varrem n distintos elementos do G. Mas existem apenas n elementos no grupo G. Então, concluímos que os AR0s varrem todos os elementos do G, um de cada vez. Assim, X R f (R) = X R f (AR) . 14 Grupo Contínuo, Densidade dos Elementos No caso de grupo contínuo, devemos definir mais precisamente o que significa a soma sobre os elementos do grupo. Em geral, para um grupo contínuo, podemos introduzir um (conjunto de) parâmetro(s) para especificar os elementos do grupo, como no caso de rotação. Uma rotação R (ou seja, um elemento do grupo de rotação) é especificada com 3 parâmetros, por exemplo, o vetor de rotação ω na Eq.(4) ou os ângulos de Euler, α, β e γ. De modo geral, se {p1, p2, . . . , pr} são os parâmetros contínuos do grupo, um elemento R é dado por R = R (p1, p2, . . . , pr) , e a soma sobre os elementos do grupo deve ser uma integral sobre estes parâmet- ros, X R → Z dR = Z Y i dpi g (p1, p2, . . . , pr) , onde g (p1, p2, . . . , pr) é a densidade dos elementos do grupo na visinhança do ponto R (p1, p2, . . . , pr). A função g (p1, p2, . . . , pr) depende da parametrização do grupo. O teorema de rearranjo ficaZ dR f (R) = Z dR f (AR) , (34) ou, em termos dos parâmetros do grupo,Z Y i dpig (p1, . . . , pr) f (R (p1, . . . , pr)) = Z Y i dpig (p1, . . . , pr) f (A (q1, . . . , qr)R (p1, . . . , pr)) . (35) A densidade g(p1, p2, . . . , pr) deve ser escolhida para que valha a Eq.(34). Para encontrar a forma de g, podemos pensar da seguinte forma: o argumento da função f, R0 = A (q1, . . . , qr)R (p1, . . . , pr) ,do lado direito da Eq.(35) é um elemento do grupo. Escrevendo R0 = R (p01, p 0 2, . . . , p 0 r) , podemos considerar o produto AR como uma transformação das variáveis, (p1, . . . , pr)→ (p01, p02, . . . , p0r) , ou seja, p01 = p 0 1 (p1, . . . , pr) , ... p0r = p 0 r (p1, . . . , pr) . Introduzindo esta mudança de variáveis no lado direito da Eq.(35) temos,Z Y i dpig (p1, . . . , pr) f (R0 (p01, . . . , p 0 r)) = Z Y i dp0i ∂ (p1, . . . , pr) ∂ (p01, . . . , p0r) g (p1, . . . , pr) f (R 0 (p01, . . . , p 0 r)) , (36) 15 onde ∂ (p1, . . . , pr) ∂ (p01, . . . , p0r) é a Jacobiana da transformação. Assim, devemos terZ Y i dpig (p1, . . . , pr) f (R (p1, . . . , pr)) = Z Y i dp0i ∂ (p1, . . . , pr) ∂ (p01, . . . , p0r) g (p1, . . . , pr) f (R 0 (p01, . . . , p 0 r)) . (37) Para que a Eq.(37) seja uma identidade, devemos escolher ∂ (p1, . . . , pr) ∂ (p01, . . . , p0r) g (p1, . . . , pr) = g (p01, . . . , p 0 r) . (38) Uma solução para isto é g (p1, . . . , pr) = ∂ ¡ x01, . . . , x 0 r ¢ ∂ (p1, . . . , pr) = · ∂ (p1, . . . , pr) ∂ (x01, . . . , x0r) ¸−1 , onde ¡ x01, . . . , x 0 r ¢ é algum ponto fixo no espaço de parâmetros, que podemos escolher arbitrariamente. Usualmente escolhemos o ponto correspondente ao elemento identidade, I. No caso do grupo de rotação com parametrização de ângulos de Euler, podemos calcular g (α, β, γ) da seguinte forma: já que A (α, β, γ) = − sinα sin γ + cosα cosβ cos γ cos γ sinα+ cosα cosβ sin γ − cosα sinβ − cosα sin γ − cosβ cos γ sinα cosα cos γ − cosβ sinα sin γ sinα sinβ cos γ sinβ sinβ sin γ cosβ , temos A (α+ δα, β + δβ, γ + δγ) = A+ ∂A ∂α δα+ ∂A ∂β δβ + ∂A ∂γ δγ, onde ∂A ∂α = − cosα sin γ − cosβ cos γ sinα cosα cos γ − cosβ sinα sin γ sinα sinβ sinα sin γ − cosα cosβ cos γ − cos γ sinα− cosα cosβ sin γ cosα sinβ 0 0 0 , ∂A ∂β = − cosα sinβ cos γ − cosα sinβ sin γ − cosα cosβ sinβ cos γ sinα sinβ sinα sin γ sinα cosβ cos γ cosβ cosβ sin γ − sinβ , ∂A ∂β = − cos γ sinα− cosα cosβ sin γ − sinα sin γ + cosα cosβ cos γ 0− cosα cos γ + cosβ sinα sin γ − cosα sin γ − cosβ cos γ sinα 0 − sinβ sin γ cos γ sinβ 0 . 16 Por outro lado, seja E o elemento próximo da identidade I e, neste caso, podemos utilizar as coordenadas Cartesianas e escrever4 E ' 1 + 0 −δz δy δz 0 −δx −δy δx 0 onde δx δy δz ≡ δr são os parâmetros infinitesimais da rotação. A densidade de rotações neste sistema de coordenadas é proporcional ao inverso do elemento de volume dV = δxδyδz. Consideramos a transformação de variáveis causada pelo elemento do grupo A, A´ = A (α, β, γ)E (δx, δy, δz) , que é um elemento do grupo. Portanto, podemos escrever A0 = A (α0, β0, γ0) . Sabemos que a variação (α, β, γ) → (α0, β0, γ0) deve ser infinitesimal. Assim, o elemento do grupo A (α, β, γ) transforma o elemento E (δx, δy, δz) em A (α+ δα, β + δβ, γ + δγ) = A (α, β, γ)E (δx, δy, δz) , ou seja ∂A ∂α δα+ ∂A ∂β δβ + ∂A ∂γ δγ = A 0 −δz δy δz 0 −δx −δy δx 0 . (39) Desta equação, podemos obter explicitamente δα, δβ, e δγ em função de δx, δy e δz. Exercício 12 A Eq.(39) é uma equação matricial (3× 3) e, portanto, constitui 9 equações. No entanto, para obter δα, δβ, e δγ em função de δx, δy e δz, precisaríamos de apenas 3 equações. Qual é o papel do resto das equações ? Exercício 13 Definindo Σx = 0 0 0 0 0 −1 0 1 0 , (40) Σy = 0 0 1 0 0 0 −1 0 0 , (41) Σz = 0 −1 0 1 0 0 0 0 0 . (42) 4Ver a apostila, Mecânica Clássica II. 17 mostre que 1 2 Tr · ΣxA T µ ∂A ∂α δα+ ∂A ∂β δβ + ∂A ∂γ δγ ¶¸ = δx, (43) 1 2 Tr · ΣyA T µ ∂A ∂α δα+ ∂A ∂β δβ + ∂A ∂γ δγ ¶¸ = δy, (44) 1 2 Tr · ΣzA T µ ∂A ∂α δα+ ∂A ∂β δβ + ∂A ∂γ δγ ¶¸ = δz. (45) Podemos verificar facilmente que 1 2 AT ∂A ∂α = 0 cosβ − sinβ sin γ − cosβ 0 cos γ sinβ sinβ sin γ − cos γ sinβ 0 1 2 AT ∂A ∂β = 0 0 − cos γ 0 0 − sin γ cos γ sin γ 0 1 2 AT ∂A ∂γ = 0 1 0 −1 0 0 0 0 0 e temos δx δy δy = cos γ sinβ − sin γ 0 sinβ sin γ cos γ 0 cosβ 0 1 δα δβ δγ . (46) Exercício 14 Deduza a Eq. (46). Usando deste resultado, calcule a densidade de elementos de rotação em coordenadas de ângulos de Euler, g (α, β, γ) = · ∂ (α, β, γ) ∂ (x, y, z) ¸−1 . Do exercício acima, verificamos que a soma sobre todos os elementos do grupo de rotação pode ser escrita em termos de ângulo de Euler comoX R f(R)→ Z 2π 0 dα Z π 0 dβ sinβ Z 2π 0 dγ f (R (α, β, γ)) . 1.4 Teorema de Grande Ortogonalidade Seja R um elemento de um grupo G. Sejam A(j) (R) e A(k) (R) as matrizes de duas representações irredutíveis do grupo, onde os superscriptos (j) e (k) representam os índices da representação. O teorema de grande ortogonalidade diz X R∈G n A(j) (R) o mn n A(k) (R) o∗ µν ∝ δjkδmµδnν . (47) Antes da prova, vamos provar alguns lemas necessários para isto. O primeiro é referido como o Lema de Schur e é bastante importante e utilizado em vários lugares. 18 1.4.1 Lema 1 (Schur) Numa representação irredutível de um grupo, uma matriz que comuta com todas as outras da representação deve ser proporcional a matriz de identidade, I. PROVA: É possível provar que qualquer representação matricial não singular de um grupo pode ser convertida para uma representação unitária através de uma transformação similar. Desta forma, daqui por diante consideramos sempre ape- nas representações unitárias, exceto explicitamente mencionado o contrário. Ou seja, sempre supomos que as matrizes de representações são unitárias. Agora, já que qualquer matriz M pode ser decomposta como uma soma de duas matrizes hermitianas, M = 1 2 ¡ M +M† ¢ + i 2 1 i ¡ M −M† ¢ = H1 + iH2, é suficiente provar este Lema para o caso de uma matriz hermitiana. SejaH uma matriz hermitiana que comuta com qualquer matriz da representação irredutível do grupo: A (R)H −HA (R) = 0, ∀R ∈ G. (48) Sendo H a matriz hermitiana, podemos diagonalizá-la. Escrevemos H|ii = λi|ii, i = 1, .., n onde |ii é autovetor, λi é o autovalor e n a dimensão da representação. Tomando os elementos de matriz da Eq.(48) entre dois autoestados |ii e |ji de H, temos hi|A (R) |ji (λj − λi) = 0, ∀R ∈ G. (49) Esta equação mostra que, se λj 6= λi, então necessariamente temos que ter hi|A (R) |ji = 0, ∀R ∈ G. Isto contradiz a condição de que a representação seja irredutível. Para ver mais claramente, vamos considerar a situação em que λ1 = λ2 = · · · = λn−1, mas λn não é igual a outros λn 6= λi, i = 1, 2, .., n− 1. Então, temos que ter hi|A (R) |ni = 0, i = 1, ..., n− 1, ∀R ∈ G. 19 Consideramos um vetor geral no espaço da representação, |ψi = X i Ci|ii. Este vetor se transforma, sob o grupo, como |ψi R→ |ψi0 = X i CiA (R) |ii = X i X j Ci|ji hj|A (R) |ii = n−1X i n−1X j Ci|ji hj|A (R) |ii+ Cn|ni hn|A (R) |ni. Isto implica que, se decompormos o espaço vetorial da base da representação em dois subespaços, {|i = 1i, · · · , |i = 1i}⊕ {|ni} , estes subespaços são subespaços invariantes sob o grupo (não se misturam sob o grupo). Mas isto contradiz a condição de que a representação seja irredutível. Assim, λn = λi, i = 1, ..n− 1. ou seja, todos autovalores tem que ser idênticos. Assim, H = λ 1 0 · · · 0 0 1 0 ... 0 0 . . . 0 0 0 1 = λI. No caso de um grupo contínuo, tal como o grupo de rotação, para valer o lema de Schur, basta a matriz H comutar com todas as matrizes dos geradores do grupo. Isto porque, por exemplo, qualquer elemento do grupo de rotação pode ser escrito como A (R) = e−iω·J , e, se uma matriz H comuta com todas as matrizes de J = {Jx, Jy, Jz}, [H,Ji] = 0, então [H,A (R)] = 0, ∀R ∈ G. A situação é análoga para qualquer grupo contínuo. Um exemplo do Lema de Schur que já vimos é o módulo quadrado de momento angular, J2. Sabemos que h J˜2, Ji i = 0, i = x, y, z. 20 Assim, numa representação irredutível, devemos ter J˜2 = λ 1 0 · · · 0 0 1 0 ... 0 0 . . . 0 0 0 1 . De fato, J˜2 → 2 µ 1 0 0 1 ¶ , para j = 1/2, e J˜2 → 3 1 0 0 0 1 0 0 0 1 , para j = 1, e assim por diante. Uma outra aplicação importante do Lema de Schur na Mecânica Quântica é que se o Hamiltoniano tem a simetria esférica, isto é, [H,Ji] = 0, i = x, y, z então, o autovalor da energia E é uma função de momento angular total j, mas não depende dos valores da componente do momento angular, m. 1.4.2 Lema 2 Sejam n A(1) (R) o , n A(2) (R) o duas representações irredutíveis do grupo G com dimensão n1 e n2, respectiva- mente; dim n A(1) (R) o = n1, dim n A(2) (R) o = n2. Se uma matriz M retangular (n1 × n2) satisfaz A(1) (R)M = MA(2) (R) (50) para todos os elementos do grupo R ∈ G, então occorem apenas os seguintes casos: • Para n1 6= n2, então, M = 0, • Para n1 = n2, 21 1. ou M = 0, 2. ou as representações © A(1) (R) ª e © A(2) (R) ª são equivalentes. PROVA: Da matriz retangular M , podemos contruir a matriz quadrada (n1 × n1) hermitiana, H = MM†. Da Eq.(50), temos M†A(1) (R)† = A(2) (R)†M†, ou, usando a unitariedade das representações, temos M†A(1) ¡ R−1 ¢ = A(2) ¡ R−1 ¢ M†. Multiplicando M do lado esquerdo, temos MM†A(1) ¡ R−1 ¢ = MA(2) ¡ R−1 ¢ M† = A(1) ¡ R−1 ¢ MM†. Assim, HA(1) ¡ R−1 ¢ = A(1) ¡ R−1 ¢ H, ∀R ∈ G e, pelo Lema de Schur, temos H = λ I. Vamos considerar o caso b) n1 = n2. Neste caso, M é uma matriz quadrada. Assimdet (H) = |det (M)|2 = (λ)n1 . Se λ 6= 0, então det (M) 6= 0, e portanto existe M−1. Assim M−1A(1) (R)M = A(2) (R) , e as duas representações são equivalentes. Por outro lado, se λ = 0, então MM† = 0, (51) o que implica em M = 0. (52) Assim, o caso b) ficou provado. Exercício 15 Prove a Eq.(52) se vale a Eq.(51). 22 Agora vamos considerar o caso a). Sem perder a generalidade, vamos supor n1 > n2. Podemos introduzir uma matriz quadrada (n1 × n1), acrecentando as linhas que contém elementos zeros à matriz M , N = ↑ n1 ↓ ←− n2 −→ ←− n1 − n2 −→ M 0 · · · 0 ... . . . ... 0 · · · 0 Podemos ver que NN† = MM† (53) e, portanto, NN† = H, onde H é a mesma matriz anterior para a qual vale o Lema de Schur. Conse- quentemente, temos NN† = λ I. Mas, obviamente, det ¡ NN† ¢ = 0, (54) de onde concluímos que λ = 0. Assim, de novo, temos MM† = 0. (55) Exercício 16 Prove a Eq.(54). Podemos, com isto, provar que M = 0, o que conclui a prova. 1.4.3 Prova do Teorema da Grande Ortogonalidade Tendo provado os dois lemas acima, agora podemos provar o teorema de grande ortogonalidade (47). Primeiramente, vamos considerar duas representações in- equivalentes5. Vamos introduzir uma matriz H = X R0 A(j) (R0) X A(k) ¡ R0 −1 ¢ , onde X é uma matriz (nj × nk) completamente arbitrária. Independentemente de X, podemos provar que A(j) (R)H = HA(k) (R) . (56) 5Existem duas situações em que duas representações são inequivalentes. 1) j 6= k , 2) j = k, mas não existe transformação similar entre as duas representações. 23 De fato, A(j) (R)H = X R0 A(j) (R)A(j) (R0) X A(k) ¡ R0 −1 ¢ = X R0 A(j) (RR0) X A(k) ¡ R0 −1R−1R ¢ = X R0 A(j) (RR0) X A(k) ³ (RR0)−1R ´ = X R0 A(j) (RR0) X A(k) ³ (RR0)−1 ´ A(k) (R) = HA(k) (R) , onde utilizamos a propriedade da representação A (RR0) = A (R)A (R0) e, da penúltima linha para a última linha, o teorema de rearranjo,X R0 A(j) (RR0) X A(k) ³ (RR0)−1 ´ = X R0 A(j) (R0) X A(k) ³ (R0)−1 ´ . Do lema-2 que provamos, a Eq.(56) mostra que H = 0, ou seja, em termos de elementos de matriz, Hmν = X R0 X α X β n A(j) (R0) o mα Xαβ n A(k) ¡ R0 −1 ¢o βν = 0, se j 6= k. Já que X é arbitrária, podemos escolher, Xαβ = δαnδβµ, para qualquer n e µ dados. Então,X R0 n A(j) (R0) o mn n A(k) ¡ R 0 −1 ¢o µν = 0 para j 6= k. Assim, o primeiro fator δjk da Eq.(47) fica demonstrado.X R0 n A(j) (R0) o mn n A(k) ¡ R 0 −1 ¢o µν ∝ δjk. Agora vamos considerar que j = k. Neste caso, H = X R0 A(j) (R0) X A(j) ³ (R0)−1 ´ 24 comuta com todas as matrizes da representação, A(j) (R)H = HA(j) (R) , ∀R ∈ G, e, pelo Lema de Schur, temos H = λ (X) I, onde a constante λ depende de X. Novamente escolhendo Xαβ = δαnδβµ, temos Hmν = X R0 n A(j) (R0) o mn n A(j) ¡ R0 −1 ¢o µν = λnµδmν , onde explicitamos a dependência de λ em X em termos dos dois índices n e µ. Se calculamos o traço de H, temos λnµnj = X m X R0 n A(j) (R0) o mn n A(j) ¡ R0 −1 ¢o µm = X R0 "X m n A(j) ¡ R0 −1 ¢o µm n A(j) (R0) o mn # = X R0 hn A(j) ¡ R0 −1 ¢ A(j) (R0) oi µn = X R0 [1]µm = X R 1 δµn. Assim, X R0 n A(j) (R0) o mn n A(j) ¡ R0 −1 ¢o µν = 1 nj X R 1 δmνδµn. Utilizando a unitariedade da representação, temosX R0 n A(j) (R0) o mn n A(j) (R0 ) o∗ µν = 1 nj X R 1 δmµδnν . Aqui, o número X R 1 é o número total dos elementos do grupo G no caso de grupos finitos. Para grupos contínuos, deve ser calculado como integral sobre os parâmetros,X R 1→ Z dR = Z · · · Z dnp g (p1, p2, . . . , pn) . 25 No caso de grupo de rotação com ângulos de Euler, temosZ dR = Z 2π 0 dα Z π 0 sinβdβ Z 2π 0 dγ = 8π2. Aplicando o teorema da grande ortogonalidade para as matrizes de rotações, D(j)(α, β, γ), temos uma propriedade importante,Z dR D(j)µ0µ(R) D−1(j 0) ν0ν (R) = 8π2 2j + 1 δj,j0δµ0ν0δµν . (57) Exercício 17 Demonstre a Eq.(57). 1.4.4 Estados de Momento Angular como a Representação do Grupo de Rotação Para a discussão da Física, é fundamental expressar como um estado se trans- forma sob uma certa operação. Lembre sempre que as quantidades físicas são definidas como elas se comportam. Se duas quantidades se comportam igual- mente em qualquer estímulo físico, concluímos que as duas quantidades são idênticas. Desta forma, é fundamental classificar as quantidades físicas em ter- mos de sua propriedade de transformação. A propriedade física em relação à direção espacial de um estado é equiva- lente a como o estado se transforma sob a rotação. Quando o estado quântico da partícula é completamente especificado em termos de amplitude de proba- bilidade na posição espacial, os valores de j devem ser inteiros. Isto porque, se a posição espacial (e seu momento canônico) forem os únicos graus de liberdade que determinam o estado da partícula, então a função de onda tem que ser uma função unívoca em r, e a unicidade desta função de onda é incompatível com os valores semi-inteiros de j. Desta forma, excluímos os valores semi-inteiros dos autovalores para o momento angular orbital. Neste caso, a propriedade angular de um estado quântico de uma partícula pode ser classificada em termos de dois números quânticos, j = c, e m. A função de onda correspondente é dada pela função harmônica esférica, Ycm (θ, φ). Por outro lado, nem todas as partículas podem ser descritas em termos de uma única função de onda. Por exemplo, consideramos um fóton. O fóton seria o quantum do campo eletromangético. Em outras palavras, a função de onda de um fóton deve corresponder a onda eletromagnética. Mas sabemos que uma onda eletromagnética é uma onda vetorial e, portanto, possui uma propriedade chamada de polarização. Assim, concluímos que, para especificar o estado deste fóton, precisamos não apenas da informação da sua localizaçao, mas também da informação sobre o estado de polarização. Desta forma, devemos introduzir mais de uma função de onda para descrever o estado quântico de um fóton. Uma situação análoga ocorre para o elétron. 26 1.5 Graus de Liberdade Intrínsecos, Spin Uma partícula pode possuir graus de liberdades intrínsecas. Ou seja, as coor- denadas espaciais, como observáveis, não necessariamente exaurem o conjunto completo de observáveis para descrever todos os estados desta partícula. Por exemplo, para especificar um estado da partícula α, o núcleo de 4He, precisa-se especificar os estados de estrutura interna, além das coordenadas do centro de massa do sistema. Este é o exemplo óbvio de graus de liberdade internos. En- tretanto, existem graus de liberdade intrínsecos que, não necessariamente, são atribuídos à estrutura interna da partícula no sentido clássico. O spin de um elétron ou a polarização de um fóton, mencionados acima, são exemplos deste tipo. Aparentemente o elétron ou fóton, dentro de nosso conhecimento até o momento, não são sistemas compostos de outras partículas mais fundamentais e, portanto, não podemos imaginar a estrutura interna delas. Dentro do formalismo da Mecânica Quântica, para cada grau de liberdade interno, devemos ter um observável para que os estados quânticos da partícula sejam especificados completamente pelos seus autovalores. Vamos denotar, em geral, o observável correspondente à graus de liberdade intrínsecos de uma partícula por ξ e os autoestados de autovalor ξ por |ξiint.. Assim, uma base do espaço de Hilbert para os estados quânticos desta partícula pode ser dada por {|r, ξi = |ri⊗ |ξi} (58) Isto é, o espaço de produto diretodos dois espaços {|ri} e {|ξi}. Um vetor no espaço de produto direto é dado por uma combinação linear geral dos vetores desta base, |ψi = Z dr X ξ ψξ (r) |ri⊗ |ξi. (59) Se os autovalores de ξ são discretos, podemos associar |ξ1i→ 1 0 0 ... , |ξ2i→ 0 1 0 ... , . . . (60) para representar os estados de graus de liberdade intrínsecos. Nesta represen- tação, um estado geral Eq.(59) pode ser expresso em termos da função de onda na forma de vetor coluna, hr|ψi = ψ1(r) ψ2(r) ψ3(r) ... (61) Quando tiver dois graus de liberdade intrínsecos independentes, digamos ξ e η, a base fica { |r, ξ, ηi = |ri⊗ |ξi⊗ |ηi } (62) 27 e a função de onda agora naturalmente carrega dois índices, um para estados ξ, outro para η. Num espaço de produto direto, podemos definir o operador mais geral por O = X α O(α)r ⊗O (α) ξ , (63) onde Or e Oξ são operadores que atuam nos espaços de {|ri} e {|ξi} , respec- tivamente, e o somatório indica a soma sobre diferentes operadores. A atuação deste operador no vetor geral Eq.(59) é definida por O|ψi = ÃX α O(α)r ⊗O (α) ξ !Z dr X ξ ψξ (r) |ri⊗ |ξi = X α Z dr X ξ ψξ (r) ³ O(α)r |ri ´ ⊗ ³ O(α)ξ |ξi ´ . (64) O operador no espaço de produto direto, mas que atua apenas na parte, digamos {|ri} , tem a forma, O = Or ⊗ 1, onde 1 é o operador de identidade no espaço {|ξi}. Analogamente, o operador da forma, O = 1⊗Oξ, é o operador que atua só nas variáveis de ξ. Os graus de liberdade intrínsecos podem ser completamente independentes das propriedades do espaço-tempo. Mas o grau de liberdade do spin ou da polarização é intimamente ligado à elas, pois eles estão relacionados com a direção no espaço. Neste caso, a rotação do sistema no espaço de coordenadas também causa a transformação do estado no espaço destes graus de liberdade intrínsecos. Ou seja, se R é a rotação no espaço, r→ r0 R= A(R) r (65) então esta transformação não só induz à transformação no subespaço |ri0 |ri→ |ri0 = Ur(R)|ri (66) mas também |ξi→ |ξi0 = Uξ(R)|ξi (67) onde Ur e Uξ são operadores unitários nos subespaços de |ri e |ξi, respectiva- mente. Podemos escrever, portanto, U(R) = Ur(R)⊗ Uξ(R), (68) o que podemos escrever em termos de geradores de rotação, e−iθ˜ ·J˜ = e−iθ˜ ·L˜ ⊗ e−iθ˜ ·Σ˜ , (69) 28 onde J˜, L˜, Σ˜ são os geradores da rotação correspondentes, respectivamente, ao sistema todo, à parte espacial e à parte interna. Podemos escrever equivalentemente J˜ = L˜⊗ 1+ 1⊗ Σ˜ . (70) Para simplificar a notação, podemos dispensar o símbolo de produto direto e as identidades e escrevemos apenas J˜ = L˜+ Σ˜ , (71) que não deve criar nenhum perigo de confusão. O fato de que J,L,Σ são geradores das rotações implica em que eles devem satisfazer as mesmas regras de comutação de momento angular, [Ji, Jj ] = iJk, [Li, Lj ] = iLk, (i, j, k) c´ıclica [Σi,Σj ] = iΣk, Isto significa que, se preparamos uma base do espaço interno (intrínseco), podemos construir a representação dos operadores Σ˜. Em particular, podemos escolher a base tal que Σ2|µi = s(s+ 1)|µi, Σz|µi = µ|µi, onde s está relacionado com a dimensão do espaço interno. Se a dimensão do espaço interno é n, então Σ = (Σx,Σy,Σz) são matrizes hermitianas n × n. Por outro lado, sabemos que a dimensão da matriz é dada por 2s + 1. Assim, concluímos que 2s+ 1 = n. (72) Os estados internos se transformam do mesmo jeito que os estados de momento angular orbital sob o grupo de rotação no espaço de coordenadas. Em outras palavras, os estados internos que obedecem à transformação Eq.(67) se com- portam como se carregassem momento angular. Ou seja, o sistema reage como se existisse um momento angular adicional além do momento angular orbital, quando o sistema sofre a rotação. Este tipo de momento angular é chamado de spin. Lembre que o momento angular gerado pelos graus de liberdade intrínsecos não necessariamente são ligados ao movimento interno da estrutura. Para as partículas existentes na natureza, é conhecido que cada uma pertence a uma determinada representação irredutível do grupo de rotação. Por exemplo, o elétron pertence à representação de j = 1/2, o fóton à de j = 1, o méson π à de j = 0 e o graviton à de j = 2. Ou seja, o elétron tem spin 1/2, o fóton spin 1, etc. Para uma partícula que tem spin j, a dimensão do espaço intrínseco é dada por (2j + 1). Em outras palavras, o estado desta partícula é representado 29 em termos de uma função de onda de 2j +1 componentes. Em particular, para spin 1/2, o seu estado é representado pela função de onda de duas componentes, ψ(r) = µ ψ1(r) ψ2(r) ¶ . (73) Para esta função de onda, um operador geral é expresso em termos de uma matriz 2 × 2, sendo que cada elemento da matriz é um operador que atua no subespaço espacial, O = µ O11 O12 O21 O22 ¶ . (74) A hermiticidade do operador implica em O11 = O † 11, O12 = O † 21, O22 = O † 22. (75) Podemos também utilizar as matrizes de Pauli para expressar o operador na forma O = O0 +O · σ (76) onde O0 e O = (Ox, Oy, Oz) são operadores hermitianos e relacionados com Oij por O0 = 1 2 (O11 +O22), (77) Oz = 1 2 (O11 −O22), (78) Ox = 1 2 (O12 +O21), (79) Oy = i 2 (O12 −O21) (80) 1.6 Adição de Momento Angular Para um sistema composto de n−subsistemas, o espaço de Hilbert dos seus estados quânticos é o produto direto de espaços de Hilbert dos subsistemas, H = H1 ⊗H2 ⊗ · · ·⊗Hn. (81) Sejam J1,J2, ..,Jn os geradores de grupo de rotação nos subespaços,H1,H2, ..Hn, respectivamente. Então, o gerador do grupo de rotação para o espaço H é dado por J = J1 ⊗ 12 ⊗ · · ·⊗ 1n + 11 ⊗ J2 ⊗ · · ·⊗ 1n + 11 ⊗ · · ·⊗ 1n−1 ⊗ Jn (82) onde 12,13.. representam os operadores de identidade nos espaços H1,H2, .. . Novamente, abreviando os símbolos de produto direto e os operadores identi- dade, podemos escrever simplesmente, J = J1 + J2 · · ·+ Jn (83) 30 O gerador J é o momento angular total do sistema. Se o sistema é esfericamente simétrico, os autoestados do Hamiltoniano são classificados em termos de repre- sentações irredutíveis do grupo de rotação. Portanto, os autoestados de energia são indexados pelos autovalores de J2 e de um dos seus componentes, digamos Jz. Note que, se cada um satisfaz a regra de comutação de momento angular, a soma também satisfaz. [Ji, Jj ] = iJk. (84) Aqui, vamos estudar, em particular, as propriedades de momento angular total de um sistema composto por dois sistemas. J = J1+J2. (85) Temos [J1x, J1y] = iJ1z [J1y, J1z] = iJ1x [J1z, J1x] = iJ1y (86) e [J2x, J2y] = iJ2z [J2y, J2z] = iJ2x [J2z, J2x] = iJ2y (87) o que garante a regra de comutação para J, Eq.(84). Podemos verificar ainda que £ J2,J21 ¤ = £ J2,J22 ¤ = £ J21,J 2 2 ¤ = 0. (88) Estas equações mostram que o autoestado simultâneo de J21 e J 2 2 pode ser ao mesmo tempo autoestado de J2. Entretanto, já que £ J2, J1z ¤ = − £ J2, J2z ¤ 6= 0, (89) então, não podemos diagonalizar simultaneamente J2 e J1z, ou J2 e J2z. Isto é , o autoestado de J1z ou J2z em geral não é autoestado do momento angular total J2. Em outras palavras, o espaço de produto direto, {|j1,m1i⊗ |j2,m2i} ≡ {2j1 + 1}⊗ {2j2 + 1} (90) contém os autoestados de J2, mas cada estado |j1,m1i ⊗ |j2,m2i em si não necessariamente é autoestado de J2. Assim, um simples produto de duas funções de onda não forma uma base de representação irredutível do grupo de rotação. Devemos, então, construir os autoestados de J2 pela combinação linear destes estados, X m1,m2 Cm1m2 |j1,m1i⊗ |j2,m2i. 31 Observamos que o estado |j1,m1i⊗ |j2,m2i é o autoestado de Jz com autovalor m1 +m2. Estas observações nos levam a concluir que, para obter o autoestado |j,mi, osomatório só pode ser feito com m1 +m2 = m, |j,mi = X m1+m2=m Cj,mj1,j2,m1,m2 |j1,m1i⊗ |j2,m2i (91) Os coeficientes Cj,mj1,j2,m1,m2 são chamados de coeficientes de Clebsch-Gordan e, às vezes, denotados por Cj,mj1,j2,m1,m2 ≡ (j1j2;m1m2|jm). (92) Pela observação acima, temos (j1j2;m1m2|jm) = 0, se m 6= m1 +m2. Para calcular os coeficientes de Clebsch-Gordan, lembramos que, numa rep- resentação irredutível, o valor máximo de m é j para um dado j. O maior valor de m no espaço de produto direto Eq.(90) é, obviamente, max(m) = max(m1) + max(m2) = j1 + j2. (93) Assim, podemos concluir que o estado de m = j1 + j2 deve ser o autoestado de J2 com autovalor j1 + j2. Como só tem uma possibilidade para este caso, devemos ter |j = j1 + j2,m = j1 + j2i = |j1, j1i⊗ |j2, j2i. (94) De fato, verificamos que J2|j1, j1i⊗ |j2, j2i = (J21 + 2J1 · J2 + J21)|j1, j1i⊗ |j2, j2i = (J21 + 2J1zJ2x + 2J + 1 J − 2 + J 2 2)|j1, j1i⊗ |j2, j2i = [j1(j1 + 1) + 2j1j2 + j2(j2 + 1)] |j1, j1i⊗ |j2, j2i = (j1 + j2)(j1 + j2 + 1)|j1, j1i⊗ |j2, j2i. Com isto, temos que o coeficiente de Clebsch-Gordan correspondente fica (j1 j2; j1 j2|j1 + j2 j1 + j2) = 1. (95) Uma vez obtido o autoestado, |j1+j2, j1+j2i, os outros estados que pertencem ao subespaço invariante de j = j1+j2 podem ser obtidos pela aplicação sucessiva do operador J− = J−1 + J − 2 sobre este estado. Por exemplo, |j1 + j2, j1 + j2 − 1i = 1p 2(j1 + j2) J−|j1 + j2, j1 + j2i = 1p 2(j1 + j2) (J−1 + J − 2 )|j1, j1i⊗ |j2, j2i 32 = s j1 j1 + j2 |j1, j1 − 1i⊗ |j2, j2i+ s j2 j1 + j2 |j1, j1i⊗ |j2, j2 − 1i, (96) indicando que os coeficientes de Clebsch-Gordan deste estado são (j1 j2 ; j1 − 1 j2|j1 + j2 j1 + j2 − 1) = s j1 j1 + j2 e (j1 j2 ; j1 j2 − 1|j1 + j2 j1 + j2 − 1) = s j2 j1 + j2 . (97) Analogamente, podemos gerar os estados |j1+j2, j1+j2−2i, |j1+j2 j1+j2−2i, .. até |j1 + j2, −(j1 + j2)i, sucessivamente. Exercício 18 Explicite o coeficiente do estado |j1+j2, j1+j2−2i e identifique os coeficientes de Clebsch-Gordan correspondentes. Note que a família formada por estes estados com j = j1 + j2 não esgota o espaço todo, pois a dimensão do espaço total é (2j1 + 1)(2j2 + 1) enquanto o subespaço invariante acima tem dimensão 2j+1 = 2j1+2j2+1. Este número, em geral, é menor que (2j1 + 1)(2j2 + 1) exceto nos casos, j1 = 0 ou j2 = 0 ou ambos. Assim, estes estados formam um subespaço invariante sob o grupo de rotação G (R) dentro do espaço de produto direto H, Eq.(90). H = H(2jmax+1) ⊕ H´, onde a dimensão do espaço H´ é (2j1 + 1) (2j2 + 1)− (2jmax + 1) = 4j1j2. O procedimento acima separou do espaço de produto direto de dimensão (2j1 + 1) (2j2 + 1) um subespaço invariante sob rotação de dimensão (2jmax + 1) , {2j1 + 1}⊗ {2j2 + 1} = {2jmax + 1}⊕ {4j1j2} . Isto quer dizer que deve existir ainda outros subespaços invariantes sob o grupo de rotação dentro do espaço de produto direto, 90. Estes espaços tem que ser ortogonais ao espaço com j = j1 + j2. Para encontrar o próximo subespaço in- variante, podemos utilizar a mesma técnica utilizada para encontrar o primeiro. Isto é, perguntamos qual é o valor máximo de m contido no espaço que restou. Já que o vetor que corresponde a m = j1 + j2 já foi incorporado no espaço j = j1 + j2, a próxima possibilidade é j1 + j2 − 1. Existem dois estados com esta propriedade: |j1, j1 − 1i⊗ |j2, j2i, |j1, j1i⊗ |j2, j2 − 1i (98) 33 Dentro das possíveis combinações lineares, uma particular combinação linear Eq.(96) foi incorporada no subespaço de j = j1 + j2 e, portanto, resta uma única combinação linear ortogonal a (96). Esta é dada pors j1 j1 + j2 |j1, j1 − 1i⊗ |j2, j2i− s j2 j1 + j2 |j1, j1i⊗ |j2, j2 − 1i, (99) a menos de um fator de módulo um. O estado (99) é o estado que possui o maior valor de m = m1 +m2 dentro do subespaço invariante que restou. Portanto, é o estado com j = j1 + j2 − 1, ou sejas j1 j1 + j2 |j1, j1−1i⊗|j2, j2i− s j2 j1 + j2 |j1, j1i⊗|j2, j2−1i −→ |j = j1+j2−1,m = j1+j2−1i. De fato, podemos verificar esta conclusão diretamente pela aplicação de J2. Exercício 19 Verifique que o estados j1 j1 + j2 |j1, j1 − 1i⊗ |j2, j2i− s j2 j1 + j2 |j1, j1i⊗ |j2, j2 − 1i é autoestado de J2 e Jz, com autovalor (j1 + j2 − 1) (j1 + j2) e j1 + j2 − 1, respectivamente. Agora, aplicando novamente o operador J− = J−1 + J − 2 , podemos gerar todos os estados que pertencem ao subespaço invariante, j = j1 + j2 − 1. Este subespaço é composto de estados |j1+ j2− 1,mi com m = j1+ j2− 1, j1+ j2− 2, .. , −(j1 + j2), contendo 2j1 + 2j2 − 1 estados. Pelo procedimento até aqui, extraimos do espaço de produto direto{2j1 + 1} ⊗ {2j2 + 1} os 2 subespaços invariantes de j = jmax = j1 + j2 e j = jmax − 1 = j1 + j2 − 1, i.e., {2j1 + 1}⊗ {2j2 + 1} = {2jmax + 1}⊕ {2jmax − 1}⊕ {Resto} (100) Novamente, o subespaço {Resto} é ortogonal aos ambos subespaços {2j1+2j2+ 1} e {2j1 + 2j2 − 1}. Neste, ainda pode existir subespaços invariantes. Para proceguir a decomposição do subespaço {Resto}, podemos continuar o processo. Isto é, em primeiro lugar, buscamos o vetor que tem o maior valor de m dentro deste subespaço. O valor máximo agora é j1 + j2 − 2. Existem 3 vetores que tem esta propriedade: |j1, j1 − 2i⊗ |j2, j2i, |j1, j1 − 1i⊗ |j2, j2 − 1i, |j1, j1i⊗ |j2, j2 − 2i (101) Dentro de possíveis combinações lineares, as duas ortogonais já foram incor- poradas nos subespaços anteriores. Assim, só pode ter uma única combinação linear que pertence ao {Resto}6 . Este estado deve ser o estado de m = j, 6Para obter esta combinação linear, podemos utilizar por exemplo, o método de Schmidt de ortogonalização. 34 portanto j = j1 + j2 − 2. Uma vez obtido o estado |j, j >, podemos gerar os estados, |j, j − 1i, |j, j − 2i, .., |j,−ji, aplicando sucessivamente o operador J−. Deste forma, decompomos mais um subespaço invariante, {2j1+1}⊗{2j2+1} = {2jmax+1}⊕{2jmax−1}⊕{2jmax−3}⊕{Resto}0 (102) O procedimento de decomposição pode continuar até se esgota o espaço original, {2j1 + 1}⊗ {2j2 + 1} . O valor minimo de j é dado por jmin = |j1 − j2| . (103) Para visualizar o esquema, podemos considerar os pontos de rede no plano (m1,m2) abaixo. Cada ponto (m1,m2), podemos associar o vetor base |j1m1i|j2m2i. as retas diagonais representam os pontos que tem o mesmo valor da suma, (m1 +m2) = m. Assim, o número de pontos que ficam em cima de uma reta representa a dimensão do espaço formado dos vetores {|j1m1i|j2m2i } , com (m1 +m2) = m fixo. O procedimento de criar vetores a partir de um vetor, utilizando o operador J− movimenta na direção perperndicular as retas de m = m1 +m2 constante. Por exemplo, para a primeira família, j = max (m1) + max (m2) = j1 + j2, entram uma combinação linear de cada um dos subespaços com valor de m distintos. Portanto, ainda resta uma combinação linear no subespaço de m1 + m2 = max (m1) + max (m2) − 1, e duas combinações lineares no subespaço de m = max (m1)+max (m2)−2, assim por diante. A segunda família então parte com o estado, j = m = max (m1) +max (m2)− 1 = j1 + j2 − 1, e incorporando novamente um vetor de cada subespaço com valor de m distintos. Este processo deixa um vetor ainda no subespaço com m = max (m1) +max (m2)− 2. Sssim, a terceira família começa com j = m = max (m1) + max (m2)− 2. Exercício 20 Mostre que o menor valor de j é dado pela Eq.(103). Para determinar os coeficientes de Clebsch-Gordan completamente, deve- mos fixar os fatores de fase que aparecem na Eq.(99) e demais estados na hora de ortogonalizar os vetores para estados de máximo m dos subespaços, {Resto}, {Resto}0, .... Para fixar estes fatores de fase, são tomadas várias con- venções depende de literatura. Uma convenção usualmente adotada é • Os coeficientes de Clebsch-Gordan são reais. • (j1 j2; j1 j − j1 |j j) > 0 35 -6 -4 -2 0 2 4 6 -4 -2 02 4 M1 M2 m1+m2=Max(m1+m2) m1+m2=Max(m1+m2)-1 m1+m2=Max(m1+m2)-2 m1+m2=|Max(m1)-Max(m2)| 36 Os coeficientes de Clebsch-Gordan são explicitamente tabelados nos livros textos para alguns casos. Por exemplo, ver o “Particle Physics Booklet”, edita- dopela Particle Data Group. Exercício 21 Calcule todos os coeficientes de Clebsch-Gordan para j1 = j2 = 1/2. e j1 = 1/2, e j2 = 1. Exercício 22 Mostre que jmaxX j=jmin (2j + 1) = (2j1 + 1) (2j2 + 1) e interprete o significado. Do ponto de vista da represetação de grupo, a adição de momentos angulares é o exemplo de decomposição do produto direto. Por exemplo, consideramos um grupo de simetria G. Seja H1 o espaço dos vetores de estado do sistema I, os quais pertencem a uma representação irredutível do grupo de dimensão n1. H1 = {|ψii, i = 1, . . . , n1} , e analogamente, H2 é o espaço dos vetores de estado do sistema II, os quais pertencem a uma representação irredutível do grupo de dimensão n2. H2 = {|φii, i = 1, . . . , n2} , Os estados do sistema composto I+II forma um espaço vetorial do produto direto H1 ⊗H2 = {|ψii × |φji, i = 1, . . . , n1, j = 1, .., n2} . Adimensão deste espaço é n1×n2. Sejam as matrizes de represenações em cada espaço n A(1) (R) o , R ∈ G e n A(2) (R) o , R ∈ G. Elas tem dimensão, dim n A(1) (R) o = n1, e dim n A(2) (R) o = n2, Expressamos estas representações por {n1} , e {n2} , 37 respectivamente. Agora, no sistema composto, a correspondência, R→ A(1×2) (R) = A(1) (R)⊗A(2) (R) naturalmente forma uma representação e denotamos por {n1}⊗ {n2} . A dimensção desta representação é dim ({n1}⊗ {n2}) = n1 × n2 Entretanto, em geral, esta representação não é irredutível, ou seja, o espaço de produto direto, H1⊗H2 pode conter alguns subespaços invaritante do grupo G. Desta forma, podemos decompor a representação {n1}⊗ {n2}, ou seja, decom- pomos o espaço de produto direto H1 ⊗ H2 em soma direto sobre subespaços invariantes sob o grupo G. Escrevemos {n1}⊗ {n2} = {m1}⊕ {m2}⊕ · · · Esta decomposição depende do grupo G. No caso do grupo O (3), vimos que {n1}⊗ {n2} = {n1 + n2 − 1}⊕ {n1 + n2 − 3}⊕ · · ·⊕ {|n1 − n2|+ 1} . 1.7 Operador Tensorial e Teorema de Wigner-Eckart Quando um operador é transformado sob a rotação no espaço, o novo operador em geral difere do original. Mas existe caso em que um conjunto S de operadores, S = {O1, O2, ..., On} (104) possui uma propriedade de tal forma que o resultado de transformação de cada um dos operadores pode ser escrito em termos de combinação linear dos oper- adores do conjunto antes de transformação: Oi → O0i ≡ U(R)OiU−1(R) = X j a ji (R) Oj0 , (105) isto é, a transformação dos operadores pela rotação causa uma recombinação de operadores no conjutno S. Neste caso, os próprios operadores O0s servem como uma base para representação do grupo de rotação no sentido de as matrizes A (R) = ³ a ji (R) ´ forma uma representação do grupo G. Um exemplo mais trivial é o operador de coordenada, −→r = {x, y, z}. De fato7, −→r 0 = U(R)−→r U−1(R) = A (R)−→r . (106) De acordo com a discussão anterior, uma representação do grupo de rotação em geral pode ser decomposta em representações irredutíveis. Então, escolhendo 7Ver as questoes (5, 6) da lista-1 de excercícios. 38 uma certa combinação linear destes O’s, podemos construir um conjunto de operadores T(k) = {T (k)µ , µ = −k, ..., k} que transforma de acordo com U(R)T (k)µ U −1(R) = kX µ0=−k T (k)µ0 D(k)µ0µ(R) (107) onde D(k)µ0µ(R) é a matriz de rotação. O conjunto de operador T(k) é chamado o operador tensorial irredutível de rank k ou tensor esferico. No exemplo de operador −→r , podemos verificar que o operador tensorial irredutível pode ser construido pela transformação, r(1)1 ≡ − r 1 2 (x+ iy) r(1)0 = z r(1)−1 ≡ r 1 2 (x− iy) (108) Um outro exemplo de operador tensorial é as matrizes de Pauli {σ} que atuam nos estados de spin. Exercício 23 Mostre que as matrizes de Pauli {σ} que atuam nos estados de spin forma um conjunto de operador tensorial irredutível de rank 1/2. Uma outra maneira de definir operador tensorial além da Eq.(??) é utilizar a relação de comutador com os operadores de momento angular. Vamos considerar a transformação infinitesimal, U(R) = e−i�·J ' (1− i� · J) (109) Da Eq.(??), temos (1− i� · J)T (k)µ (1 + i� · J) = kX µ0=−k T (k)µ0 hk µ0|(1− i� · J)|k µi (110) ou h � · J ,T (k)µ i = kX µ0=−k T (k)µ0 hk µ0|� · J|k µi (111) Como � é arbitrário, as equações acima são equivalente à( [Jz , T (k) µ ] = µT (k) µ , [J± , T (k)µ ] = p k(k + 1)− µ(µ± 1)T (k)µ±1. (112) Exercício 24 Mostre a Eq.(112). 39 Exercício 25 Mostre que vale o inverso do resultado acima, ou seja, se um conjunto de operadores n T (k)µ , µ = −k, .., k o satisfaz a Eq.(112), então vale a Eq.(107). Devido a propriedade de transformação sobre o grupo de rotação, os ele- mentos de matrizes de um operador tensorial irredutível nos autoestados de momento angular são bem limitados. De fato, a dependência do elemento de matriz hj1m1|T (k)µ |j2m2i sobre m1, µ e m2 é determinada completamente pela coeficientes de Glebsch-Gordan, hj1m1|T (k)µ |j2m2i = (j1m1|kj2 µm2) (j1 k T(k) k j2), (113) onde (j1 k T(k) k j2) é um numero real que não depende dem1, µ em2 (Teorema de Wigner-Eckart). Em outras palavras, os elementos de matriz de um operador tensorial esferico entre dois estados de momento angular são essencialmente os coeficientes de Clebsh-Gordan, com constante multiplicativo que não depende de indices magnéticos. Vamos provar o teorema. Tomando o elemento de matriz da Eq.(??), hj1m1|U(R)T (k)µ U−1(R)|j2m2i = kX µ0=−k hj1m1|T (k)µ0 |j2m2i D(k)µ0µ(R) (114) Substituindo as relações de completeza nos espaços de representações de j1 e j2, X m01m 0 2 D(j1)m1m01(R) hj1m 0 1|T (k)µ |j2m02i D−1(j2)m02m2 (R) = kX µ0=−k hj1m1|T (k)µ0 |j2m2i D(k)µ0µ(R) (115) Usando a relação de ortogonalidade da representação do grupo de rotação,Z dR D(k)µ0µ(R) D−1(k 0) ν0ν (R) = 8π2 2k + 1 δk,k0δµ0ν0δµν (116) e a propriedade de produto de dois matrizes de rotação, D(j1)m1m01(R) D (j2) m2m02 (R) = X j X m,m0 (j1j2;m1m2|jm) (j1j2;m01m02|jm0) D(j)mm0(R) (117) temos hj1m1|T (k)µ |j2m2i = (j1m1|kj2;µm2) X m01µ0m 0 2 (j1m01|kj2;µ0m02)hj1m01|T (k)µ0 |j2m02i (118) DefinindoX m01µ0m 0 2 (j1m 0 1|kj2;µ0m02) hj1m01|T (k)µ0 |j2m02i ≡ (j1 k T(k) k j2) (119) 40 que não depende de m1, µ e m2, obtemos o teorema de Wigner-Eckart. O teorema de Wigner-Eckart é bastante útil na hora de calcular os elementos de matriz de operador tensorial. Em particular, se sabemos um valor particular de elemento de matriz, por exemplo, hj10|T (k)0 |j20i, se possível, então, temos hj1m1|T (k)µ |j2m2i = (j1m1|kj2;µm2) (j10|kj2; 00) hj10|T (k) 0 |j20i. Uma outra aplicação deste teorema é que podemos saber de immediata que os elementos de matriz são nulos quando não forem satisfeitas as condições, |k − j2| ≤ j1 ≤ k + j2, m1 = µ+m2. Estas condições são chamadas as regras de seleção (ver a sessão de teoria de perturbação). 2 Interação de um elétron com o campo eletro- magnético Como vimos, o espaço de Hilbert para uma partícula que possui os estados inter- nos deve ser um produto direto entre o espaço de Hilbert dos estados referente a localização espacial e o espaço de estados internos. Desta forma, considerando que o elétron tem spin 1/2, sua função de onda não deve ser uma escalar, mas devemos utilizar duas funções de ondas simultaneamente. Podemos utilizar a base para os estados internos como autoestado do operador Σz. |ξ1i→ | ↑i = |1 2 ,+ 1 2 i, |ξ2i→ | ↓i = |1 2 ,−1 2 i, Assim, a função de onda de um elétron fica hr|ψi = µ ψ↑(r) ψ↓ (r) ¶ . A densidade de probabilidade do elétron na posição r com o componento de spin m = +1/2 fica ρ↑ (r) = |ψ↑ (r)|2 , e a densidade de probabilidade do elétron na posição r com o componento de spin m = −1/2 fica ρ↓ (r) = |ψ↑ (r)|2 . 41 Naturalmente, a densidade de probabilidade do elétron na posição r indepen- dentemente da direção do spin fica ρ (r) = ρ↑ (r) + ρ↓ (r) = |ψ↑ (r)|2 + |ψ↑ (r)|2 = ¡ ψ↑ (r) ψ↓ (r) ¢†µ ψ↑ (r) ψ↓ (r) ¶ . Quando a função de onda é generalizada como acima, precisamos também extender os operadores. Como vimos, um operador geral que atua no espaço tem a forma O = X α O(α) (r)⊗O(α) (ξ) . Na base {| ↑i, | ↓i} para os estados de spin, os operadores mais gerais no espaço interno O(α) (ξ) é uma matriz hermitiana (2× 2) que pode ser expressa como combinação linear das 4 matrizes 1, σ˜ onde 1 é a matriz de identidade (2× 2) e σ˜ as matrizes de Pauli. Assim, podemos escrever sempre O = bO0 ⊗ 1+bA⊗σ˜ = bO0µ 1 00 1 ¶ + µ Az Ax − iAy Ax + iAy −Az ¶ , (120) onde bO0, bA = Ax Ay Az são os operadores no espaço { |ri }. A nossa questão é “qual é a forma do operador Hamiltoniano de um elétron num campo eletromagnético?”. Na Mecânica Clássica, aprendemos que a Lagrangeana de uma partícula carregada num campo eletromagnético é dada por L = m 2 µ dr dt ¶2 − eφ (r, t) + e c A (r, t) · dr dt . (121) onde φ (r, t) e A (r, t) são os potenciais escalar e vetorial do campo eletromag- nético, tendo E = −∇φ− 1 c ∂ A ∂t , B = ∇× A. 42 Exercício 26 Derive a equação de Euler-Lagrange da Lagrangeana Eq.(121 e verifique a equação de movimento da partícula é aquela que dada pela a força de Coulomb e de Lorentz. Exercício 27 Mostre que a Hamiltoniana correspondente é dada por H = 1 2m ³ p− e c A ´2 + eφ. Exercício 28 Sabemos que as equações de Maxwell são invariantes sob o con- junto das transformações, ½ φ→ φ0 = φ+ 1c ∂χ dt , A→ A0 = A− ∇χ, (122) onde χ é uma função arbitrária de r e t. Mostre que a Equação de movimento obtida da Lagrangiana Eq.(121) fica invariante sob a transformação acima. 2.1 Experiência de Stern-Gerlach O operador Hamiltoniano correspondente na Mecânica Quântica pode ser obtido pela substituição dos variáveis p e r pelos respectivos operadores. Na represen- tação de coordenadas, temos H0 = 1 2m µ ~ i ∇− e c A (r) ¶2 + eφ (r) . (123) Mas este Hamiltoniano não afeta os estados de spin. Sabemos que a presença de campo eletromagnético afeta os estados internos do elétron visto pela ex- periência de Stern-Gerlach. Veja o arranjo experimental abaixo. A experiência consiste em uma feixe de elétron que passa no meio de um par de imãs. Estas imãs gera um campo magnético homogênio na direção de feixe (digamos o eixo x), mas varia com um gradiente constante no plano perpendicular, digamos o eixo z. A geometria das imãs ilustrada acima gera o tal gradiente. Quando o feixe atravesa as imãs, observamos que o feixe separam em dois, formando dois pontos separados no anteparo. Esta experiência demonstra, além de suas coor- denadas espaciais, o elétron possui graus de liberdade extras que interagem com o campo magnético. O Hamiltoniano Eq.(123) só atua na parte das funções de ondas espaciais, ele não descreve o resultado da experiência de Stern-Gerlach. Então qual seria a forma do Hamiltoniano contendo os graus de liberdades internos, {| ↑i, | ↓i}? Como não existe as quantidades correspondentes destes graus de liberdades internas na mecânica clássica, não é fácil de deduzir a forma da interação destes graus de liberdade com o campo eletromagnético. Porém, podemos utlizar certas analogias e princípios gerais que advinhar a forma da interação, ou seja o Hamiltoniano. O Hamiltoniano clássico que descreve a parte da interação de um momento magnético tem a forma, HI = −µ · B. 43 N S 44 Por outro lado, uma densidade de corrente j gera o momento magnético µ, dado por µ = 1 2c Z ³ r ×j ´ d3r. Para uma partícula clássica ponteforme carregada, temos j = evδ3 (r − rp (t)) = e m pδ3 (r − rp (t)) , onde rp (t) é a trajetória da partícula e v e p são sua velocidade e momento respectivamente. Temos portanto, µ = e 2mc Z ¡ r × pδ3 (r − rp (t)) ¢ d3r = e 2mc L, onde L é o momento angular da partícula. Quânticamente, se utilizamos a expressão da densidade de corrente j = e~ 2imc {ψ∗∇ψ − ψ∇ψ∗} , a expressão do momento magnético fica µ = 1 2 e~ 2imc Z (r × {ψ∗∇ψ − ψ∇ψ∗}) d3r = e 2mc Z ψ∗ ³ r × P ´ ψd3r = hψ| e 2mc L|ψi, onde como sempre, ψ (r) = hr|ψi. Esta expressão vale para qualquer função de onda ψ (r) , podemos considerar que o operador de momento magnético dado por −→bµ ≡ e~ 2mc L. Assim, na Mecânica Quântica, o operador de momento magnético é proporcional ao operador de momento angular. O coeficiente e~/2mc é chamado de magneton de Bohr. Como vimos, se existem os dois estados internos de elétron que correspondem a representação do grupo de rotação {2}, o gerador deste grupo é dado por S = 1 2 σ, 45 que corresponde o operador de momento angular J, isto é, o spin. Desta forma, podemos imaginar que a interação do spin com o campo magnético pode ser expressa como HI ?→ − e~ 2m S · B = −gS · B, onde g é chamado de fator geomagnético e no caso acima g = 1 na unidade de magnéton de Bohr8. No entanto, os resultados experimentais demostram que o fator g é 2 e não 1 na unidade de magneton de Bohr. Temos HI = −2× e~ 2mc S · B = − e~ 2mc σ · B. O fato porque o fator geomagético é 2 e não 1 para o caso de spin não pode ser explicado dentro da Mecânca Quântica não relativística. Veremos posterior- mente que a formulação relativística de uma partícula com spin 1/2 leva o fator geomagnética de elétron 2. Em resumo, o Hamiltoniano do elétron sob o campo eletromagnético é dado por H = 1 2m ³ p− e c A ´2 + eφ− g 2 σ · B. (124) Note que o primeiro termo do Hamiltiniano acima deve ser entendido como· 1 2m ³ p− e c A ´2 + eφ ¸ ⊗ µ 1 0 0 1 ¶ . A equação de Schrödinger agora é uma equação que consiste em dois compo- nentes acoplados, i~ ∂ ∂t µ ψ1 (r) ψ2 (r) ¶ = · 1 2m ³ p− ec A ´2 + eφ ¸ − 12gBz 1 2g (Bx − iBy) 1 2g (Bx + iBy) · 1 2m ³ p− ec A ´2 + eφ ¸ + 12gBz µ ψ1 (r) ψ2 (r) ¶ . (125) É conhecido que o valor de fator geomagnético para cada partícula difere de um a outra, mesmo para as partículas de spin 1/2. elétron 2.002319304386 muon 2.002331846 próton 2. 792 8 neutron −1. 913 . 8O fator geomagnético na unidade de magneton de Bohr é usualmente chamado de fator g. 46 Como vemos, os fatores g não são iguais a 2, exatametne. Estas diferenças vêm dos processos complexos que envolvem os estados virtuais do sistema e são referidas como momento magnético anómalo. A origem do momento magnético anomalo não pode ser explicada pela Mecânca Quântica relativística9. Vamos utilizar a Eq.(125) para discutir qualitativamente a experiência de Stern-Gerlach. Neste caso, temos Bx = By = 0, Bz = a z. Neste caso, os componentes ψ1 e ψ2 na Eq.(125) ficam desacoplados e temos i~ ∂ ∂t ψ1 (r) = µ· 1 2m ³ p− e c A ´2 + eφ ¸ − 1 2 agz ¶ ψ1 (r) , (126) i~ ∂ ∂t ψ2 (r) = µ· 1 2m ³ p− e c A ´2 + eφ ¸ + 1 2 agz ¶ ψ2 (r) . (127) Assim, os elétrons do feixe comportam como se fosse duas partículas distintas, um que obdece a equação de Schrödinger, Eq.(126) e outra que obdece a equação de Schrödinger Eq.(127). Os Hamiltonianaossão H↑ = · 1 2m ³ p− e c A ´2 + eφ ¸ − 1 2 agz, e H2 = · 1 2m ³ p− e c A ´2 + eφ ¸ + 1 2 agz, respectivamente. O termo que distingue os dois Hamiltoniano, ∓12agx corre- sponde as forças F = ±∇ µ 1 2 agz ¶ = ± 0 0 1 2ag , ou seja, a força constante na direção x com sinais opostas nos dois casos. Assim, o estado de elétron que corresponde ao componente ψ1 será desviada na direção positivo de z, e o estado de elétron que corresponde ao componente ψ2 será desviada na direção negativa de z. Esta é razão que o feixe incidente separa em dois partes após passar o par de imãs, formando dois pontos separados no anteparo. 2.2 Invariância de Calíbre e Conservação de Carga A forma específica do Hamiltoniano de uma partícula carregada num campo eletromagnético possui uma propridade importante. Por simplicidade, vamos 9Um dos grande sucessos de Eletrodinâmica Quântica é o poder de calcular os fatores do elétron com precisão de 1 em 108. 47 analizar primeira o caso que a partícula não tem os graus de liberdade de spin. A equação de Schrödinger tem a forma, i~ ∂ ∂t ψ (r, t) = ( 1 2m µ ~ i ∇− e c A (r) ¶2 + eφ (r) ) ψ (r, t) , (128) Sabemos que as propriedades físicas do campo eletromagnético não alteram se introduzimos as seguintes mudânças nos campos de potencial eletromagnéticos, A→ A0 = A− ∇χ, φ→ φ0 = φ+ 1 c ∂χ dt . Esta transformação é chamada de transformação de calibre (gauge) nos potencial eletromagnéticos. Entretanto, a equação de Schrödinger Eq.(122) fica alterada com esta mudânça. Se quisermos que a forma da equação de Schrödinger seja mantida sob a transformação de calibre dos potenciais eletromagnéticos, deve- mos incluir alguma mudânçca na função de onda, também. Podemos demonstra que se a função de onda ψ (r, t) transforma como ψ → ψ0 = ei(e/~c)χψ, então, a forma da equação de Schrödinger fica invariante em relação a quanti- dades transformadas, i.e., i~ ∂ ∂t ψ0 (r, t) = ( 1 2m µ ~ i ∇− e c A0 (r) ¶2 + eφ0 (r) ) ψ0 (r, t) . Exercício 29 Verifique a equação acima. O conjunto de transformações, φ→ φ0 = φ+ 1c ∂χ dt , A→ A0 = A− ∇χ, ψ → ψ0 = ei(e/~c)χψ, (129) é chamado de transformação de calibre local. Podemos construir da Eq.(128) a equação de conservação de corrente, i~ψ∗ ∂ ∂t ψ = ψ∗ ( 1 2m µ ~ i ∇− e c A ¶2 + eφ ) ψ (r, t) , −) − i~ψ ∂ ∂t ψ∗ = ψ ( 1 2m µ −~ i ∇− e c A ¶2 + eφ ) ψ∗ (r, t) , =) i~ ∂ ∂t (ψ∗ψ) = ~2 2m ∇ · ½ ψ∗ ←−−−−−−−→³ ∇− i e ~c A ´ ψ ¾ , 48 assim, temos ∂ρ ∂t +∇ ·j = 0, onde agora a densidade e a corrente ficam ρ = ψ∗ψ j = ~ 2im ½ ψ∗ ←−−−−−−−→³ ∇− i e ~c A ´ ψ ¾ . Note que estas expressões da densidade de carga ρ e a corrente é invariante a transformação de calibre a Eq.(129). Ou seja a equação de continuidade fica inalterada. 2.3 Simetria e Conservação de Momento Angular Já discutimos a relação entre uma lei de conservação e simetria na Mecânica Quântica. Seja O um observável. Podemos considerar O como gerador de transformação. Definimos um operador unitário, U = e−ixO, onde x é um parâmetro real. Se o Hamiltoniano H é invariante sob esta trans- formação, H → H 0 = UHU−1, o observável O é uma quantidade conservada. A equação acima é equivalente a [H,O] = 0. Podemos generalizar a mesma discussão incluindo os graus de liberdades internas tais como spin. Para um sistema isolado no espaço isotropico, seu Hamiltoniano deve ser invariante sob a rotação no espaço. Em outras palavras, para qualquer ω, devemos ter H → H 0 = e−iω· JHe+iω·J = H, Consequentemente o Hamiltoniano deve comutar com J ,h H, J i = 0. Note que o gerador da rotação J inclui os graus de liberdade de spin, e o Hamiltoniano também. Concluimos que a soma (direta) dos dois geradores J = L+ 1 2 σ 49 que é uma quantidade conservada. Seh H, L i = 0, e [H,σ] = 0, simultaneamente, é obvio que h H, J i = 0. Neste caso, o momento angular orbital L e o spin, S = σ/2 conservam sepa- radamente. Mas é possível que h H, L i 6= 0, e [H,σ] 6= 0, mas mesmo assim, h H, J i = 0. Neste caso o que conserva é apenas o momento angular total, isto é a soma do momento angluar orbital e spin que conserva, mas não separadamente. Um exemplo bem conhecido deste tipo de Hamiltoniana é a interação spin-orbita que tem a forma, H = 1 2m P 2 + VC (r) + VLS (r) L · S. Aqui, V (r) é a parte do potencial central e VLS (r) é o potencial de spin-orbita. Este tipo de potencial é bastante commun para uma partícula que possui spin num potencial central. O potencial VLS (r) é relacionado com o potencial central VC (r) por VLS (r) = 1 2m2c2 1 r dVc dr . (130) É fácil de ver que o Hamiltoniano é invariante a rotação, ou seja,h H, J i = 0, no entanto, h H, L i 6= 0, nem [H,σ] 6= 0. Isto é, o momento angular total J é uma quantidade conservada, mas nem o momento angular orbital, nem o spin são conservados. 50 A forma de interação spin-orbita Eq.(130) pode ser interpretada de seguinte forma (Ver Sakurai, p304). Seja Vc o potencial Coulobianao para um elétron criado pela carga do núcleo Z. Neste caso, o campo eletrostático é dado por e E = −∇Vc. Para um elétron em movimento com velocidade v, um campo elétrostatico se transforma um campo eletromagnético, tendo o campo magnético no sistema repouso do elétron como Beff = − 1 c v × E. Já que o elétron possui o momento magnético µ = g e 2mc S, podemos considerar a presença da interação entere o campo magnético e o mo- mento magnético, Hint = −g e 2mc2 S · ³ v × E ´ = g 1 2m2c2 S · ³ P ×∇Vc ´ = g 1 2m2c2 1 r dVc dr ³ S · L ´ . (131) Esta expressão é quase igual a Eq.(130), diferindo o fator g. No caso de elétron, já mencionamos que g = 2, e portanto, temos diferença de fator 2. Esta discripância fica resolvido com tratamento correto do ponto de vista relativístico de um elétron (teoria de Dirac), posteriormente. Exercício 30 Complete as contas na Eq.(131). 3 Estados Mistos e Matriz de Densidade Até agora, os estados quânticos que consideramos correspondem o caso ideal- izada em que os estados são completamente especificados atravez de medidas sobre o conjunto comleto de observáveis do sistema. Estes estados sempre cor- respondem vetores no espaço de Hilbert já consideramos e são chamados de estados puros. Entretanto, numa situação realistica, isto não é sempre o caso. Muitas vezes, as dificuldades experimentais não permitem definir um estado puro quântico. Em particular, para um sistema não isolado que tem a interação com seu envoltório, mesmo que o sistema esteja preparado numa condição ini- cial de estado puro, não é possível manter este estado puro no tempo posterir, como veremos no capítulo seguinte. O que temos que introduzir é o conceito de emsemble estatístico do próprio emsemble quântico. Como definimos, um vetor de estado representa o estado de ensemble quântico. Este estado (estado puro) 51 pode conter as flutuações e por isso, temos que introduzir o tratamento estatís- tico nos valores observados de quantidades físicas, porém, estas flutuações são da natureza intrínseca quântica, não tendo nada a ver com as restrições experimen- tais. Quando a informação sobre o estado é imcompleta, além desta flutuações quânticas, deve-se levar em conta a incerteza estatística. A incerteza estatística tem sua origem pelo fato de que o estado do sistema não é bem definido por um único vetor de estado, mas alguma mistura estatística de veotres de estados. Ou seja, o estado do sistema neste
Compartilhar