Baixe o app para aproveitar ainda mais
Prévia do material em texto
I. INTRODUÇÃO A TEORIA DE GRUPO A. Mudança de Coordenadas e Grupo de Rotação Vamos estudar a rotação de um sistema de coordenadas. Seja XY Z um sistema Carte- siano de Coordenadas fixo no espaço. Agora introduzimos um sistema de coordenadas Cartesianas X 0Y 0Z 0 que possui a origem O comum ao sistema XY Z, mas rodado em torno do ponto O. Seja r o vetor coluna de um ponto P arbitrário no espaço expresso no sistema de coor- denadas XY Z. Podemos escrever r = ⎛⎜⎜⎜⎝ x1 x2 x3 ⎞⎟⎟⎟⎠ , onde xi = hei|P i, i = 1, 2, 3 Aqui, para distinguir o vetor físico no espaço do vetor coluna, introduzimos a notação de Dirac. Por exemplo, |P i representa o vetor corresponde ao segumento −→OP e |eii representa o vetor unitário na direção do eixo Xi. hei|P i representa o produto escalar entre os dois vetores, |P i e |eii. Analogamente, o mesmo vetor fica expresso em termos de vetor coluna no sistema de coordenadas intrinsêca X 0Y 0Z 0 como r0 = ⎛⎜⎜⎜⎝ x01 x02 x03 ⎞⎟⎟⎟⎠ , (1) onde x0i = he0i|P i, i = 1, 2, 3, e |e0ii representa o vetor unitário na direção do eixo X 0i. Os vetores-base {|e01i, |e02i, |e03i} podem ser expressos em termos da base {|e1i, |e2i, |e3i}. Temos, por exemplo, usando a completeza do sistema {|e1i, |e2i, |e3i} , |e01i = {|e1i he1|+ |e2i he2|+ |e3i he3|} |e01i = |e1i he1|e01i+ |e2i he2|e01i+ |e3i he3|e01i. (2) 1 e analogamente para |e2i e |e3i. Usando estas transformações da base, temos r0 = ⎛⎜⎜⎜⎝ he01|P i he02|P i he03|P i ⎞⎟⎟⎟⎠ = ⎛⎜⎜⎜⎝ he01|e1i he01|e2i he01|e3i he02|e1i he02|e2i he02|e3i he03|e1i he03|e2i he03|e3i ⎞⎟⎟⎟⎠ ⎛⎜⎜⎜⎝ he1|P i he2|P i he3|P i ⎞⎟⎟⎟⎠ Isto constitui uma transformação linear de coordenadas, de rC para r. r → r0 = Ar, (3) com A = ⎛⎜⎜⎜⎝ he01|e1i he01|e2i he01|e3i he02|e1i he02|e2i he02|e3i he03|e1i he03|e2i he03|e3i ⎞⎟⎟⎟⎠ , (4) ou Aij = he0i|eji, i = 1, 2, 3. (5) Note que a matriz A satisfaz a propriedade, ATA = 1. (6) Exercício: Prove a equação acima. Uma matriz real que satisfaça a condição (6) é chamada de matriz ortogonal. A trans- formação de coordenada por uma matriz orthogonal, r → r0 = Ar, (7) é dita a transformação orthogonal. Na linguagem introduzida na seção anterior, digamos que a matriz A é a representação da rotação R. De fato, os vetores (os vetores físicos) da base {|e01i, |e02i, |e03i} podem ser obtidos dos vetores da base {|e1i, |e2i, |e3i} por uma rotação R, |e0ii = R|eii, i = 1, 2, 3 Assim, a matriz A é a representação da rotação do sistema de coordenaada XY Z para X 0Y 0Z 0 em termos da base {|e1i, |e2i, |e3i} , AT = ⎛⎜⎜⎜⎝ he1|R|e1i he1|R|e2i he1|R|e3i he2|R|e1i he2|R|e2i he2|R|e3i he3|R|e1i he3|R|e2i he3|R|e3i ⎞⎟⎟⎟⎠ . (8) 2 De modo geral, uma matriz real 3 × 3 tem 9 elementos independentes. Mas para uma matriz ortogonal, a condição (6) impõe 3(3+1)/2 = 6 condições independentes. Assim, uma matriz orthogonal 3× 3 é determinada por 9− 6 = 3 números. Para determinar as direções de um sistema de coordenadas Cartesiano, precisamos 3 ângulos, que são justamtente os números necessários para determinar uma matriz orthogonal 3× 3. Da discussão acima, estabelecemos o seguinte esquema: Para um corpo rígido em rotação, num instante do tempo t, Sistema Cartesiana XY Z Rotaccão−→ Sistema Cartesiana X 0Y 0Z 0 r −→ r0 = A r ⇓ A = A(Rotaccão) Resumindo: à transformação de um sistema Cartesiano para um outro, definida pela Eq.(7), corresponde uma rotação. A rotação é determindada por 3 ângulos. A matriz orthogonal 3 × 3 é determinada por esta rotação. Ou seja, podemos estabelecer a correspondência um a um entre rotações no espaço tridimensional R3 e matrizes ortogonal 3 × 3. Esta correspondência é dita a representação de rotação tridimensional por matriz ortogonal 3×3. Denotamos simbolicamente a rotação no espaço tridimensional por R. Mais precisamente, estamos associando uma matriz A para uma rotação do sistema em torno da sua origem. Assim, podemos expressar as rotações (que são um processo físico) em termos de matrizes ortogonais (que é uma entidade matemática). As propriedades das matrizes A se refletem nas propriedades físicas das rotações e vice-versa. Note que a sucessão de duas rotações é representada pelo produto de duas matrizes, correspondentes. Neste sentido, o ato de rodar sucessivamente também fica representado pela operação matemática de produto matricial. B. Propriedades de Matriz A Vamos estudar as propriedades matemáticas da matriz A. Escrevemos A = ⎛⎜⎜⎜⎝ a11 a12 a13 a21 a22 a23 a31 a32 a33 ⎞⎟⎟⎟⎠ . 3 O que sabemos dela é 1. Ortogonalidade, ATA = 1, e, portanto, 2. Existem apenas 3 parametros que determinam A, ou seja todos os {aij}. Note que o produto de duas matrizes ortogonais também um matriz ortogonal: Isto é, se ATA = 1, BTB = 1, então, o produto C = BA tem a propriedade, CTC = (BA)T (BA) = ATBTBA = AT1A = ATA = 1. (9) Do ponto de vista física, isto significa que as duas rotações sucessivas também é uma rotação. Pela definição, uma matriz ortogonal A claramente tem seu inverso, A−1. A−1 = AT . (10) Físicamente, a matriz inversa corresponde à rotação inversa. Já que A−1A = AA−1 = 1, (11) independente da ordem de aplicação da rotação e seu inverso leva à mesma posição inicial, A−1A r = AA−1r = r. (12) Note também que a matriz de identidade I é uma matriz ortogonal. Vamos considerar o conjunto de todas as matrizes ortogonais 3× 3 e denotamos por G. G = © A; ATA = 1 ª . (13) Então, re-expressamos as propriedades ditas acima na linguagem matemática como 4 1. Fechamento do conjunto em relação a multiplicação entre dois elementos do conjunto, ∀A,B ∈ G→ ∃C = AB ∈ G. (14) =as rotações sucessivas são uma rotação. 2. Existência do elemento de identidade, ∃I ∈ G, tal que ∀A ∈ G→ IA = AI = A. (15) =rotação de ângulos nulos (não rodar). 3. Existência do elemento inverso, ∀A ∈ G→ ∃A−1 ∈ G, tal que A−1A = AA−1 = 1. (16) =sempre pode-se desfazer uma rotação. Um conjunto que tem as propriedades acima é chamado de um grupo. Assim, o conjunto de todas as matrizes ortogonais 3 × 3 forma um grupo. Este grupo em particular é deno- midado de grupo O(3). Já que as matrizes ortogonais correspondem a rotações, concluimos que: • O conjunto de todas as rotações forma um grupo, que é equivalente ao grupo O(3). 1. Transformação ortogonal própria e imprópria O grupo O(3) é o conjunto de todas as transformações de coordenadas ortogonais definida na Eq.(7). Da condição, ATA = 1, (17) temos det ¯̄ ATA ¯̄ = 1. (18) 5 Mas sabemos que det ¯̄ ATA ¯̄ = det ¯̄ AT ¯̄ det |A| = det |A|det |A| = (det |A|)2 , concluimos que det |A| = ±1. (19) Podemos classificar as matrizes que compõem o grupo O(3) em duas partes, uma que contem todas as matrizes ortogonais com seu determinante igual a +1, e outra com a determinante −1. Note que o subconjunto composto de matrizes com determinante +1 forma um grupo entre elas. Exercício: Prove que o conjunto de todas as matrizes (3× 3) orthogonais, com determi- nante +1 forma um grupo. Exercício: Prove que det |AB| = det |BA| , det ¯̄ AT ¯̄ = det |A| , det ¯̄ A−1 ¯̄ = 1/det |A| , det |I + εA| → ε<<1 1 + ε Tr (A) +O(ε2), onde Tr(A) é a soma dos elementos diagonais da matriz A. Se um subconjunto de um grupo forma um grupo com a regra de multiplicação do grupo, o subconjunto é chamado de subgrupo. Naturalmente o elemento identidade, I, do grupo tem que estar no subgrupo. Assim, o conjunto de todas as matrizes orthogonais de dimensão 3, com determinante +1 forma um subgrupo do grupo O(3). O grupo é denominado SO(3). Por outro lado, o conjunto de todas as matrizes do grupo O(3) com determinante −1 não forma um grupo. Isto é trivial, pois, em primeiro lugar, o elemento identidade tem o determinante +1 e, também pode ser visto pelo fato de que o produto de duas matrizes com ambos determinantes negativos tem o determinante positivo e, portanto, não pertence ao mesmo conjunto. 6 O que significa o sinal do determinante? Para ver isto, vamos calcular o determinante da transformação, ⎛⎜⎜⎜⎝ x y z ⎞⎟⎟⎟⎠→ ⎛⎜⎜⎜⎝x y z ⎞⎟⎟⎟⎠ 0 = ⎛⎜⎜⎜⎝ −x y z ⎞⎟⎟⎟⎠ , ou seja, a direção do eixo x foi invertida. Neste caso, a matiriz da transformação fica A = ⎛⎜⎜⎜⎝ −1 0 0 0 1 0 0 0 1 ⎞⎟⎟⎟⎠ , e obviamente det |A| = −1. Assim, se a transformação envolve a inversão de uma das direções dos eixos, o determinante da matriz fica negativo. Suponhamos que inicialmente começamos com um sistema de coor- denadas destrogiro. Note que após a transformação de coordenadas, se um dos eixos tiver a direção invertida, o novo sistema de coordenadas se torna levogiro. Quando a transformação envolve a inversão de duas direções dos eixos, o determinante fica positivo. Mas neste caso, a transformação não leva de um sistema destrogiro para levogiro, pois, por exemplo, a in- versão dos eixos X e Y simultaneamente equivalente a rotação do sistema em torno do eixo Z por 180 graus. Assim, o sinal do determinante da matriz de transformação está associado à mudança de um sistema destrogiro para levogiro ou vice-versa. As transformações que correspondem a matrizes com determinante positivo são chamadas de transformações ortogonais próprias, e envolvem puramente rotações. O conjunto de todas as transformações próprias forma um subgrupo, equivalente a SO(3). Na discussão adiante, nos limitamos às transformações próprias, a não ser que especificado explicitamente o contrário. O grupo de rotações tem 3 ângulos para especificar a rotação. Um grupo cujo elemento é especificado em termos de um (ou mais de um ) parâmetro é chamado de grupo contínuo. Assim, o grupo de rotação 3-dimensional (= grupo SO(3)) é um grupo contínuo. 7 2. Autovetores e Autovalores Vamos considerar o problema de autovalor da matriz A, Ax = λx, (20) onde λ é o autovalor e x = ⎛⎜⎜⎜⎝ x1 x2 x3 ⎞⎟⎟⎟⎠ , (21) é o autovetor. A Eq.(20) é um sistema de equações lineares a11x1 + a12x2 + a13x3 = λx1, a21x1 + a22x2 + a23x3 = λx2, (22) a31x1 + a32x2 + a33x3 = λx3, e esta tem a solução não trivial só quando det |A− λI| = 0, (23) onde I é a matriz unitária I = ⎛⎜⎜⎜⎝ 1 0 0 0 1 0 0 0 1 ⎞⎟⎟⎟⎠ . (24) Explicitamente, a Eq.(23) fica λ3 − Tr (A)λ2 + (a11a22 + a22a33 + a33a11 − a23a32 − a13a31 − a12a21)λ− det |A| = 0. (25) Assim, a Eq.(23) é uma equação de 3a grau em relação a λ e, portanto, existem 3 raízes para λ. Note que as raízes não são necessariamente reais. Para equações de 3a grau com coeficientes reais, sempre existe pelo menos uma raíz real e as outras duas, se forem com- plexas, uma é o complexo conjugado da outra. Denotamos estas raízes por λ1, λ2 e λ3, respectivamente. Para cada um destes λ, existe a solução para x da Eq.(22). Assim, a solução para x = (x1, x2, x3) correspendende à raíz λi, denotamos por x(i) = ³ x (i) 1 , x (i) 2 , x (i) 3 ´ . Explicitamente, Ax(i) = λix (i). 8 Note que se x é um autovetor, para qualquer número α, αx é também o autovetor. Podemos, então, introduzir o autovetor normalizado, e(i) por e(i) = 1 |x(i)|x (i), (26) com ¯̄ x(i) ¯̄ = p x(i) T · x(i) = r³ x (i) 1 ´2 + ³ x (i) 2 ´2 + ³ x (i) 3 ´2 (27) é a norma do vetor x(i). Agora, vamos construir uma matriz U formada com estes autovetores normalizados, U = ⎛⎜⎜⎜⎝ x (1) 1 x (2) 1 x (3) 1 x (1) 2 x (2) 2 x (3) 2 x (1) 3 x (2) 3 x (3) 3 ⎞⎟⎟⎟⎠ = ¡x(1), x(2), x(3)¢ . (28) Multiplicando pela matriz A do lado esquerdo, temos AU = A ⎛⎜⎜⎜⎝ x (1) 1 x (2) 1 x (3) 1 x (1) 2 x (2) 2 x (3) 2 x (1) 3 x (2) 3 x (3) 3 ⎞⎟⎟⎟⎠ = ¡Ax(1), Ax(2), Ax(3)¢ = ¡ λ1x (1), λ2x (2), λ3x (3) ¢ = ¡ x(1), x(2), x(3) ¢ ⎛⎜⎜⎜⎝ λ1 0 0 0 λ2 0 0 0 λ3 ⎞⎟⎟⎟⎠ = U ⎛⎜⎜⎜⎝ λ1 0 0 0 λ2 0 0 0 λ3 ⎞⎟⎟⎟⎠ , (29) ou AU = UΛ, (30) onde Λ = ⎛⎜⎜⎜⎝ λ1 0 0 0 λ2 0 0 0 λ3 ⎞⎟⎟⎟⎠ (31) é a matriz diagonal, composta de autovalores de A. Da Eq.(30), temos U−1AU = Λ. (32) 9 O lado esquerdo da equação acima é chamado a transformação similar da matriz A por U . Assim, a matriz A se torna diagonal pela transformação similar pela matriz formada de autovetores de A. A relação inversa é A = UΛU−1. (33) Exercício: Diagonalize a matriz, A = ⎛⎜⎜⎜⎝ 0 −i 0 i 0 −i 0 i 0 ⎞⎟⎟⎟⎠ e obtenha mariz U que diagonaliza A por U−1AU = Λ. 3. Função de uma matriz e sua diagonalização. Note que entre matrizes diagonais, as operações algebricas ficam identicas como no caso de números. Inclusive, podemos definir funções de uma matriz diagonal Λ por, f (Λ) = ⎛⎜⎜⎜⎝ f (λ1) 0 0 0 f (λ2) 0 0 0 f (λ3) ⎞⎟⎟⎟⎠ . (34) Vamos supor que a função f(x) é expandida em série de Taylor; f(x) = ∞X n=0 cnx n, 10 onde cn = f (n)(0)/n!. Neste caso, f (Λ) = ⎛⎜⎜⎜⎝ P∞ n=0 cnλ n 1 0 0 0 P∞ n=0 cnλ n 2 0 0 0 P∞ n=0 cnλ n 3 ⎞⎟⎟⎟⎠ = ∞X n=0 cn ⎛⎜⎜⎜⎝ λn1 0 0 0 λn2 0 0 0 λn3 ⎞⎟⎟⎟⎠ = ∞X n=0 cn ⎛⎜⎜⎜⎝ λ1 0 0 0 λ2 0 0 0 λ3 ⎞⎟⎟⎟⎠ n = ∞X n=0 cnΛ n. Por outro lado, Λn = n−termosz }| {¡ UAU−1 ¢ ¡ UAU−1 ¢ · · · ¡ UAU−1 ¢ = UAnU−1. (35) Portanto, f(Λ) = ∞X n=0 cnUA nU−1 = U à ∞X n=0 cnA n ! U−1 = Uf(A)U−1, (36) onde f(A) é definida em termos de série de Taylor, f(A) = ∞X n=0 cnA n. Assim, finalmente chegamos a fórmula, f(A) = U−1f(Λ)U, (37) mostrando que qualquer função de uma matriz pode ser diagonalizada em termos da mesma transformação similar por U . 11 Exercício: Seja σ = ⎛⎝ 0 1 1 0 ⎞⎠ . Calcule a matriz, M = eitσ onde i2 = −1, e t é um número arbitrário. Exercício: Obtenha a matrix U que diagonaliza M acima obtida por U−1MU. Calcule também U−1σU. 4. Propriedades de autovalores de matrizes ortogonais Em primeiro lugar, vamos provar que um dos autovalores de uma matriz ortogonal é um. Ou seja, a equação de autovalor Eq.(??) tem a raíz, λ = 1. Para isto, basta provar que, det |A− I| = 0. (38) Já que ATA = 1, temos ¡ I −AT ¢ A = A− 1, (39) e, portanto, det |A− 1| = det ¯̄¡ I −AT ¢ A ¯̄ = det ¯̄ I −AT ¯̄ det |A| . (40) Sabemos que para as rotações próprias[1] det |A| = +1, (41) e temos ainda, det ¯̄ I −AT ¯̄ = det |I −A| = det |− (A− 1)| = −det |A− 1| . 12 Aqui, foi utlizado o fato de que para qualquer matriz M de dimensão ímpar, det |−M | = − det |M | . Desta forma, concluimos que det |A− 1| = −det |A− 1| (42) que implica em det |A− 1| = 0. Com isto, mostramos que λ = 1 é uma das raízes da Eq.(23). O que significa isto? Voltando à Eq.(23), vemos que o autovetor correspondente a este autovalor tem que satisfazer esta equação com λ = 1, ou seja, Ax = x. (43) Isto mostra que o vetor x é inalterado após da rotaçãoA. Em outras palavras, para uma dada rotação, sempre existe uma direção que fica inalterada por esta rotação. Assim, podemos especificar qualquer rotação (XY Z)→ (X 0Y 0Z 0) por um vetor unitário n, que tem a direção do autovetor acima e um ângulo de rotação θ em torno deste vetor. Pela simplicidade, vamos introduzir um vetor θ = θn. (44) O teorema de Euler garante que podemos especificar a matriz A correspendente a uma rotação arbitrária por este vetor θ, A = A(θ). (45) Exercício: Quantos parâmetos livres para determinar o vetor θ? O teorema de Euler mostra que um dos autovalores de uma matriz ortogonal é 1. Por outro lado, para transformações próprias, det |A| = +1. Por outro lado, temos det |A| = det ¯̄ U−1ΛU ¯̄ = det |Λ| = λ1λ2λ3. (46) 13 Assim, temos λ1λ2λ3 = 1. (47) Sem perder generalidade, podemos escolher sempre λ1 = 1. Assim, λ2λ3 = 1. Lembre-se que os autovalores não são necessariamente reais. Em geral, λ3 = λ∗2. Portanto, |λ2| = |λ3| = 1. (48) A solução geral é λ2 = e iδ, λ3 = e −iδ, com δ um número real. Para ver qual é o significado deste δ, vamos considerar a transformação de sistema de coordenadas em termos de uma rotação de um ângulo θ em torno do eixo z. Neste caso, n = ⎛⎜⎜⎜⎝ 0 0 1 ⎞⎟⎟⎟⎠ , θ = ⎛⎜⎜⎜⎝ 0 0 θ ⎞⎟⎟⎟⎠ , e as coordenadas transformam como x0 = cos θ x+ sin θ y, y0 = − sin θ x+ cos θ y, z0 = z, e, portanto A(θ) = ⎛⎜⎜⎜⎝ cos θ sin θ 0 − sin θ cos θ 0 0 0 1 ⎞⎟⎟⎟⎠ . 14 Como pode ser visto diretamente, um dos autovalores é de fato 1. Os outros autovalores satisfazem a equação, (λ− cos θ)2 + sin2 θ = 0. (49) Daí, temos λ = cos θ ± i sin θ = e±iθ. (50)Assim, neste caso, a fase δ é o ângulo de rotação θ. Como pode ser visto adiante, isto é simpre verdade, ou seja, para uma rotação especificada pelo vetor θ, os autovalores são e±iθ, além de 1. O fato de que os autovalores são complexos, além daquele que é 1, implica que os au- tovetores correspondentes também não são reais. Isto quer dizer que não existe uma base na qual a matriz de rotação fica diagonal, exceto para a rotação de identidade, ou seja, a rotação nula. Este é reflexo de um fato quase trivial de que não existe mais de um vetor que mantem sua direção sob a rotação. Matematicamente, uma matriz ortogonal não pode ser diagonalizada pela transformação ortogonal. C. Rotações Infinitesimais Vamos analizar a matriz, A = A(θ) que é a rotação por um ângulo θ em torno de uma direção n, θ = θn onde n é o vetor unitário, n = ⎛⎜⎜⎜⎝ nx ny nz ⎞⎟⎟⎟⎠ com nT · n = 1. Podemos considerar esta rotação como uma sequência sucessiva de N rotações de pequeno ângulo, δθ = θ/N . Assim, podemos escrever A(θ) = N termosz }| { A(δθ)A(δθ) · · ·A(δθ) = NY i=1 A(δθ). (51) 15 onde δθ = ⎛⎜⎜⎜⎝ δθx δθy δθz ⎞⎟⎟⎟⎠ = θN ⎛⎜⎜⎜⎝ nx ny nz ⎞⎟⎟⎟⎠ é o vetor da rotação Sabemos que se o ângulo desta pequena rotação tende a zero, a matriz correspondente tem que convergir a matriz de identidade, A(δθ) −→ δθ→0 I, (52) podemos considerar a expansão em série de Taylor da matriz A(δθ) em relação a δθ, por A(δθ) = I + δθ · Σ+O(δθ2) (53) onde Σ é um vetor formado de 3 matrizes, Σ = ⎛⎜⎜⎜⎝ Σx Σy Σz ⎞⎟⎟⎟⎠ . (54) com Σx,Σy e Σz matrizes 3× 3 constantes. Explicitamente a Eq.(53) fica A(δθ) = I + δθx · Σx + δθy · Σy + δθz · Σz +O(δθ2). (55) Esta equação pode ser escrita também como A(δθ) = (I + δθx · Σx) (I + δθy · Σy) (I + δθz · Σz) +O(δθ2), (56) pois até primeira ordem em δθ, as Eqs.(55,56) são idênticas. Embora ainda não saibamos qual é a forma das matrizes Σx,Σy e Σz, elas não dependem a natureza da rotação, ou seja, nem do θ, nem do n. A expressão (56) manifesta uma infor- mação bastante importante. Isto é, uma rotação infinitesimal na direção n = (nx, ny, nz) é equivalente a rotações sucessivas em torno de cada um dos tres eixos do sistema de Coorde- nadas, com ângulos, δθ nx, δθny, δθnz respectivamente. Também, o resultado não depende da ordem destas 3 rotações. Note que este fato só é válido para rotações de ângulos infinitesimais. Para ângulos gerais, a afirmação acima não é verdade. 16 • A rotação infinitesimal em torno de um vetor n pode ser decomposta em 3 rotações em torno dos eixos do sistema de coordenadas, com cada ângulo proporcional a componente respectiva do vetor n. Exercício: Verifique que o resultado de duas rotações finitas sucessivas não é igual quando a ordem das rotações foi invertida. A decomposição de uma rotação infinitesimal em 3 rotações infinitesimais em torno de eixos X,Y , e Z permite nos determinar as matrizes Σx,Σy e Σz, fácilmente. Consideramos a rotação em torno do eixo X por um ângulo δθ. Temos AX (δθ) = I + δθΣx +O(δθ 2), já que n = (1, 0, 0), neste caso. Assim, concluimos que Σx = d dθ AX(θ) ¯̄̄̄ θ=0 . (57) Por outro lado, a rotação do sistema Rx(θ) por um ângulo θ em torno do eixo X causa a seguinte mudança nos vetores da base, Rx|exi = |exi, Rx|eyi = cos θ|eyi+ sin θ|ezi, Rx|ezi = cos θ|ezi− sin θ|eyi. Utilizando a Eq.(8), temos a forma explicita da matriz AX com ângulo de rotação θ dada por AX(θ) = ⎛⎜⎜⎜⎝ 1 0 0 0 cos θ sin θ 0 − sin θ cos θ ⎞⎟⎟⎟⎠ . (58) Assim, podemos calcular a matriz Σx por Σx = d dθ ⎛⎜⎜⎜⎝ 1 0 0 0 cos θ sin θ 0 − sin θ cos θ ⎞⎟⎟⎟⎠ ¯̄̄̄ ¯̄̄̄ ¯ θ=0 = ⎛⎜⎜⎜⎝ 0 0 0 0 0 1 0 −1 0 ⎞⎟⎟⎟⎠ . (59) 17 Analogamente, obtemos Σy = ⎛⎜⎜⎜⎝ 0 0 −1 0 0 0 1 0 0 ⎞⎟⎟⎟⎠ , Σz = ⎛⎜⎜⎜⎝ 0 1 0 −1 0 0 0 0 0 ⎞⎟⎟⎟⎠ . (60) Exercício: Obtenha as matrizes Σy e Σz. Com estas Σ0s, podemos escrever A(δθ) até primeira ordem em δθ por A(δθ) = I + δθ · Σ (61) = ⎛⎜⎜⎜⎝ 1 δθ nz −δθ ny −δθ nz 1 δθ nx δθ ny −δθ nx 1 ⎞⎟⎟⎟⎠ . (62) É interessante notar que para esta rotação infinitesimal ativa, um vetor r qualquer se transforma em r0 = A(δθ) r = ⎛⎜⎜⎜⎝ 1 δθ nz −δθ ny −δθ nz 1 δθ nx δθ ny −δθ nx 1 ⎞⎟⎟⎟⎠ ⎛⎜⎜⎜⎝ x y z ⎞⎟⎟⎟⎠ = r − δθ ⎛⎜⎜⎜⎝ nyz − nzy nzx− nxz nxy − nyx ⎞⎟⎟⎟⎠ = r − δθ (n× r) . (63) Na equação acima, notamos que ³ n · Σ ´ r = −n× r. (64) Assim, a diferença de coordenadas causada em termos de rotação infinitesimal (ativa) do vetor é ∆r = r0 − r = −δθ n× r. Exercício: Interprete o resultado acima geometricamente. 18 D. Reconstrução da Rotação Finita Uma vez obtida a representação explicita de uma rotação infinitesimal, podemos recon- struir a rotação com ângulo finita pela Eq.(??) A(θ) = N termos lim N→∞ z }| { A(δθ)A(δθ) · · ·A(δθ) = lim N→∞ (A(δθ))N = lim N→∞ ³ I + δθT · Σ ´N = lim N→∞ µ I + 1 N θT · Σ ¶N = ∞X n=0 1 n! ³ θT · Σ ´n (65) = I + θT · Σ+ 1 2 ³ θT · Σ ´2 + 1 3! ³ θT · Σ ´3 + · · · (66) Aqui utilizamos a fórmula bem conhecida[2] lim N→∞ (1 + t N )N = et = 1 + t+ 1 2! t2 + 1 3! t3 + · · · . (67) Exercício: Talvez alguns leitores possam dúvidar do truncamento deA(δθ) só até a primeira ordem em δθ. Será que os outros termos de ordem superior que foram jogados fora não são importante para recuperar a rotação original, A(θ) como a sequência das rotações infinitesimais? Para ver isto, prove que lim N→∞ µ 1 + t N + s N2 ¶N = lim N→∞ µ 1 + t N ¶N . (68) Agora, vamos calcular os termos da série, Eq.(66). Em primeiro lugar, θ · Σ = θ nT · Σ = θ ⎛⎜⎜⎜⎝ 0 −nz ny nz 0 −nx −ny nx 0 ⎞⎟⎟⎟⎠ . (69) Assim, ³ θT · Σ ´n = θn ³ nT · Σ ´n . (70) 19 Para calcular ³ nT · Σ ´n , começamos com n = 2. ³ nT · Σ ´2 = ⎛⎜⎜⎜⎝ 0 −nz ny nz 0 −nx −ny nx 0 ⎞⎟⎟⎟⎠ 2 = ⎛⎜⎜⎜⎝ 0 −nz ny nz 0 −nx −ny nx 0 ⎞⎟⎟⎟⎠ ⎛⎜⎜⎜⎝ 0 −nz ny nz 0 −nx −ny nx 0 ⎞⎟⎟⎟⎠ = ⎛⎜⎜⎜⎝ −n2y − n2z nxny nxnz nxny −n2z − n2x nynz nxnz nynz −n2x − n2y ⎞⎟⎟⎟⎠ = ⎛⎜⎜⎜⎝ n2x nxny nxnz nxny n 2 y nynz nxnz nynz n 2 z ⎞⎟⎟⎟⎠− ⎛⎜⎜⎜⎝ 1 0 0 0 1 0 0 0 1 ⎞⎟⎟⎟⎠ = nnT − I, (71) onde utilizamos o fato de que o vetor n é normalizado ¡ n2x + n 2 y + n 2 z = 1 ¢ , e a quantidade nnT , chamado de diadica, nnT ≡ ⎛⎜⎜⎜⎝ nx ny nz ⎞⎟⎟⎟⎠³ nx ny nz ´ = ⎛⎜⎜⎜⎝ n2x nxny nxnz nxny n 2 y nynz nxnz nynz n 2 z ⎞⎟⎟⎟⎠ . (72) Vamos introduzir as seguintes notações P// ≡ nnT , (73) P⊥ ≡ I − nnT . (74) Note que P// + P⊥ = I, (75) e P 2// = P//, (76) P 2⊥ = P⊥. (77) 20 1. Para qualquer vetor r, o vetor r// formado pela aplicação da matriz P// é paralelo a n. Isto é, se r// = P//r, ∀r então, r// = Const.× n, (78) onde Const = (nT · r). O vetor P//r é, portanto, a projeção do vetor r na direção n. Em particular, P//n = n. (79) 2. Para qualquer vetor r, o vetor r⊥ formado pela aplicação da matriz P⊥ é perpendicular a n. Isto é, se r⊥ = P⊥r, ∀r então, nT · r⊥ = 0. (80) O vetor P⊥r é, portanto, a projeção do vetor r na direção perpendicular a n dentro do plano formado de r e n. Em particular, P⊥n = 0. (81) 3. Para qualquer vetor r, sempre podemos decompor em dois vetores, um paralelo a n, e o outro perpendicular a n, por r = ¡ P// + P⊥ ¢ r = r// + r⊥. (82) Exercício: As matrizes P//, P⊥ são chamadas de projetor. Considere o significado das equações,(76,77) do ponto de vista do projetor. Exercício: Prove que os autovalores de um projetor é 0 e 1. As matrizes P// e P⊥ são chamadas de operadores de projeção, com razão acima. Uti- lizando esta notação, temos ³ n · Σ ´2 = −P⊥. (83) 21 Agora, ³ n · Σ ´3 = ³ n · Σ ´2 ³ n · Σ ´ = − ¡ 1− nnT ¢ nT · Σ = −nT · Σ+ ⎛⎜⎜⎜⎝ n2x nxny nxnz nxny n 2 y nynz nxnz nynz n 2 z ⎞⎟⎟⎟⎠ ⎛⎜⎜⎜⎝ 0 −nz ny nz 0 −nx −ny nx 0 ⎞⎟⎟⎟⎠ = −nT · Σ, (84) e ³ n · Σ ´4 = ³ n · Σ ´2 ³ n · Σ ´2 = (−P⊥) (−P⊥) = P⊥. (85) e assim por diante. Pela inspeção, concluimos que³ n · Σ ´n = (−1) n−1 2 ³ n · Σ ´ , n : ı́mpar, = (−1) n 2 P⊥, n : par. Com este resultado, vemos que é conviniente separar a soma da Eq.(65) em duas partes, uma soma sobre índice n par, e a outra, a soma sobre índice n ímpar. A(θ) = ∞X n=0 par 1 n! ³ θT · Σ ´n + ∞Xn=1 ı́mpar 1 n! ³ θT · Σ ´n = 1− P⊥ + P⊥ ∞X n=0 par (−1)n/2 n! θn + ³ nT · Σ ´ ∞X n=1 ı́mpar (−1)n−1/2 n! θn = P// + cos θ P⊥ + sin θ ³ nT · Σ ´ , (86) onde utilizamos as expressões; sin θ = θ − 1 3! θ3 + 1 5! θ5 + · · · = ∞X n=1 ı́mpar (−1)n−1/2 n! θn, (87) cos θ = 1− 1 2! θ2 + 1 4! θ4 + · · · = ∞X n=0 par (−1)n/2 n! θn. (88) Exercício: Prove as Eqs.(87,88) acima. Exercício: Confira que para θ = 0, recupera-se a transformação de identidade, i.e., A(θ)→ I. 22 Em termos de vetor resultante da aplicação da rotação, temos r0 = A ³ θ ´ r = ³ P// + cos θ P⊥ + sin θ ³ nT · Σ ´´ r = r// + cos θ r⊥ + sin θ (n× r) = (n · r)n+ cos θ [ r − (n · r) n ] + sin θ (n× r) . (89) Note que os tres vetores, r//, r⊥, n× r, formam uma base orthogonal. Exercício: Prove a afirmação acima. Exercício: Interprete geometricamente o resultado, Eq.(89). Vamos introduzir uma base orthonormal, e1 = n, e2 = 1√ N2 r⊥, e3 = 1√ N3 n× r. onde N2 e N3 são as constantes de normalização. A base, {e1, e2, e2} é destrogira nesta ordem. Exercício: Calcule N2 e N3 e expresse em termos de r = |r| e do ângulo entre n e r. Exercício: Mostre que a base, {e1, e2, e2}é destrogira nesta ordem. Exercício: Qualquer vetor pode ser expresso em termos de uma combinação linear destes vetor de base. ∀x ∈ R3, x = x1e1 + x2e2 + x3e3. com este fato, prove que 3X i=1 ei e T i = I. 23 A matriz U formada destes vetores, U = ⎛⎜⎜⎜⎝ eT1 eT2 eT3 ⎞⎟⎟⎟⎠ é uma matriz orthogonal, UTU = UUT = 1, e define uma transformaçao de sistema de coordenadas. A matriz de rotação A fica repre- sentada nesta nova base por A→ A0 = UAU−1, sendo, A0 = ⎛⎜⎜⎜⎝ eT1 eT2 eT3 ⎞⎟⎟⎟⎠ hP// + cos θ P⊥ + sin θ ³nT · Σ´i³ e1 e2 e3 ´ = ⎛⎜⎜⎜⎝ 1 0 0 0 cos θ sin θ 0 − sin θ cos θ ⎞⎟⎟⎟⎠ . (90) Aqui, utlizamos as propriedades, P// e1 = e1, P// e2 = 0, P// e3 = 0, (91) P⊥e1 = 0, P⊥e2 = e2, P⊥e3 = 0, (92)³ nT · Σ ´ e1 = 0, ³ nT · Σ ´ e2 = e3, ³ nT · Σ ´ e3 = −e2. (93) Nesta base, a matriz da rotação tem a forma bem familiar. Isto é, a rotação com ângulo θ em torno do primeiro eixo. Já vimos que os autovalores da matriz desta forma são 1 e e±iθ. Considerando que a transformação da base não altera os autovalores (ver a Eq.(50), provamos que os autovalores de quauler matriz de rotação A(θ) é sempre 1 e e±iθ. Exercício: Verifique as Eqs.(91,92,93). Exercício: Prove a (90). 24 E. Geradores de Grupo e Algebra de Lie Para um grupo contínuo como no caso de grupo de rotação, existem parâmetros contínuos para especificar os elementos do grupo. Seja G = {A (p)} um grupo contínuo com p = (p1, p2, .., pn) os parâmetros reais que especificar o elemento A do grupo. O número dos parâmetros reais é chamado dimensão do grupo. Escolhendo a parametrização adequada, se escrevemos qualquer elemento do grupo como A (p) = ep·Σ onde Σ = {Σ1,Σ2, ...,Σn} e cada Σi é chamado o gerador do grupo. Por definição, para um grupo contínuo de dimensão n, existe n geradores do grupo. Para um grupo contínuo, o co- mutador de dois geradores do grupo, digamos [Σi,Σj] pode ser escrita como uma combinação linear dos geradores, [Σi,Σj] = X k fkijΣk. Esta regra de comutadores entre geradores do grupo é chamado de algebra de Lie e os constantes, fkij são chamados de constantes de estrutura do grupo. Para ver o papel desta algebra para a estrutura do grupo, é útil a seguinte formula de Campbell-Hausdorf-Baker, eMeN = eM+N+ 1 2 [M,N ]+ 1 12 [(M−N),[M,N ]]+··· que vale para os dois matrizes M e N. Para verificar isto, vamos introduzir o parâmetro t e escrevemos como eMteNt = eF (t). Podemos expandir F (t) em série de t. F (t) = F1t+ 1 2! F2t 2 + 1 3! F3t 3 + · · · onde F1, F2... são matrizes a serem determindadas. Ou seja, devemos ter eMteNt = eF1t+F2t 2+F3t3+··· para todos os valores de t. Isto significa que as derivadas de todas ordens dos dois lados em relação a t no ponto t = 0 também tem que ser igual. Usando a regra, d (A (t)B (t)) dt = dA dt B +A dB dt , 25 temos MeMteNt + eMteNtN = µ F1 + F2t+ 1 2! F3t 2 + · · · ¶ eF (t), M2eMteNt + 2MeMteNtN + eMteNtN2 = ( (F2 + F3t+ · · · ) + µ F1 + F2t+ 1 2! F3t 2 + · · · ¶2) eF (t) ... Fazendo t = 0, temos M +N = F1, M2 + 2MN +N2 = F 21 + F2, ... Substituindo F1 =M +N na segunda equação, temos F2 =M 2 + 2MN +N2 − (M +N)2 =MN −NM = [M,N ] , onde [M,N ] é o comutador de duas matrizes, M e N. Podemos determinar F3, F4 ... suces- sivamente. Exercício: Calcule a fórmula de Campbell-Hausdorff até a segunda ordem, eMeN = eM+N+ 1 2 [M,N ]+ 1 12 [(M−N),[M,N ]]+···. Podemos mostrar que todas as F́ s podem ser escritas como combinações lineares de comutadores de ordem superiores (comutador de comutador). Então, se M e N for os membros da algebra de Lie, o exponento resultante da fórmula de Campbell-Hausdorff-Baker fica escrita como combinção linear dos membros da algebra, eaΣiebΣj = e P k ckΣk , de tal forma que as exponenciações dos membros da algebra de fato forma um grupo. Exercício: Calcule as constantes de estruturas da algebra formada de {Σx,Σy,Σz} do grupo O(3). 26 F. Ângulos de Euler Vamos introduzir um outro conjunto de variáveis conhecidos como ângulos de Euler para especificar uma rotação. Por exemplo, como vimos, uma cofiguração de um pião com o ponto extremo fixo é completamente especificada pela direção n = (sin θ cosφ, sin θ sinφ, cos θ) do seu eixo, e o ângulo de rotação ψ do pião em torno do seu eixo (Ver Fig.1). x y z φ ψ θ O Fig.1 Coordenadas para um pião A configuração do pião acima pode ser obtida em termos de três rotações sucessivas a partir da configuração em que o está colocado em pé verticalmente. Primeiro, rode o pião de um ângulo ψ em torno do seu eixo. Em seguida, incline o eixo na direção do eixo X no plano X − Z (isto é, a rotação em torno do eixo Y ) pelo ângulo θ. Finalmente rode o sistema novamente em torno do eixo Z. Em termos de operadores de rotação, R(φ, θ, ψ) = Rz (φ)Ry (θ)Rz (ψ) . (94) Na base fixo no espaço, este operador é representado pela matriz A(θ, φ, ψ), por sua vez é dada por A(φ, θ, ψ) = Az (φ)Ay (θ)Az (ψ) , 27 onde Az (φ) , Ay (θ) e Az (ψ) são as representações dos operadores, Rz (φ) ,Ry (θ) eRz (ψ), respectivamente. Isto é, Az (φ) = ⎛⎜⎜⎜⎝ cosφ sinφ 0 − sinφ cosφ 0 0 0 1 ⎞⎟⎟⎟⎠ , (95) Az (θ) = ⎛⎜⎜⎜⎝ cos θ 0 − sin θ 0 1 0 sin θ 0 cos θ ⎞⎟⎟⎟⎠ , (96) Az (ψ) = ⎛⎜⎜⎜⎝ cosψ sinψ 0 − sinψ cosψ 0 0 0 1 ⎞⎟⎟⎟⎠ . (97) Assim, temos A (φ, θ, ψ) = ⎛⎜⎜⎜⎝ cosφ − sinφ 0 sinφ cosφ 0 0 0 1 ⎞⎟⎟⎟⎠ ⎛⎜⎜⎜⎝ cos θ 0 sin θ 0 1 0 − sin θ 0 cos θ ⎞⎟⎟⎟⎠ ⎛⎜⎜⎜⎝ cosψ − sinψ 0 sinψ cosψ 0 0 0 1 ⎞⎟⎟⎟⎠ = ⎛⎜⎜⎜⎝ cosφ cos θ cosψ − sinφ sinψ − cosφ cos θ sinψ − sinφ cosψ cosφ sin θ sinφ cos θ cosψ + cosφ sinψ − sinφ cos θ sinψ + cosφ cosψ sinφ sin θ − sin θ cosψ sin θ sinψ cos θ ⎞⎟⎟⎟⎠ . (98) 28 O vetor de coluna no sistema fixo no espaço é transformado para o vetor do sistema de coordenadas intrisêco do pião por⎛⎜⎜⎜⎝ xc yc zc ⎞⎟⎟⎟⎠ = A−1 ⎛⎜⎜⎜⎝ x y z ⎞⎟⎟⎟⎠ = AT ⎛⎜⎜⎜⎝ x y z ⎞⎟⎟⎟⎠ = ⎛⎜⎜⎜⎝ cosφ cos θ cosψ − sinφ sinψ sinφ cos θ cosψ + cosφ sinψ − sin θ cosψ − cosφ cos θ sinψ − sinφ cosψ − sinφ cos θ sinψ + cosφ cosψ sin θ sinψ cosφ sin θ sinφ sin θ cos θ ⎞⎟⎟⎟⎠ ⎛⎜⎜⎜⎝ x y z ⎞⎟⎟⎟⎠ . = AT (φ, θ, ψ) ⎛⎜⎜⎜⎝ x y z ⎞⎟⎟⎟⎠ , (99) onde AT (φ, θ, ψ) = ⎛⎜⎜⎜⎝ cosφ cos θ cosψ − sinφ sinψ sinφ cos θ cosψ + cosφ sinψ − sin θ cosψ − cosφ cos θ sinψ − sinφ cosψ − sinφ cos θ sinψ + cosφ cosψ sin θ sinψ cosφ sin θ sinφ sin θ cos θ ⎞⎟⎟⎟⎠ é a matriz da transformação de coordenadas do sistema fixo no espaço para o sistema fixo no pião (rotação passiva). De fato, por exemplo, o vetor do eixo do pião n = ⎛⎜⎜⎜⎝ sin θ cosφ sin θ sinφ cos θ ⎞⎟⎟⎟⎠ se transforma como nc = A T (φ, θ, ψ) n = ⎛⎜⎜⎜⎝ 0 0 1 ⎞⎟⎟⎟⎠ , (100) mostrando o vetor no sistema fixo no pião corresponde exatamente o eixo z do pião. Os ângulos φ, θ e ψ acima para determinar a configuração do pião podem ser utilidade mais geral para determinar a posição relativa entre dois sistemas de coordenadas ligado pela uma29 rotação em torno do ponto comun. Em outras palavras, estes ângulos podem ser usados para especificar uma rotação arbitrária de um sistema de coordenadas no lugar do vetor θ que introduzido na sessão anterior. Os ângulos φ, θ e ψ são chamados de ângulos de Euler. É interessante notar que a rotação, R(φ, θ, ψ) da Eq.(94) pode ser obtida de forma difer- ente. Primeira, como antes, coloque o pião verticalmente. Rode o sistema em torno do eixo Zc do pião pelo ângulo φ. Em seguida, rode o sistema em torno do eixo Yc do pião pelo ângulo θ e, finalmente, rode o sistema em torno do eixo Zc do pião por ângulo ψ. Note que agora as rotações referem sempre em torno dos eixos do pião e não do sistema de coordenadas fixo no espaço, mas a ordem da rotaçãoes é invertida. Temos R(φ, θ, ψ) = RZc(ψ)RYC (θ)RZC (φ). (101) Naturalmente as representações matriciais destas rotações na base fixa no espaço já não são mais dadas pelas Eqs.(95,96,97). Exercício: Mostre que RZc(ψ)RYC(θ)RZC (φ) = Rz (φ)Ry (θ)Rz (ψ) . II. REPRESENTAÇÃO DO GRUPO DE ROTAÇÃO EM TERMOS DE TRANS- FORMAÇÃO DE FUNÇÕES A correspondência R→ A (α, β, γ) é dita a representação do grupo da rotação pelo grupo O (3) . Isto é uma corrrespondência um a um entre os elementos do grupo da rotação e as matrizes 3 × 3, orthogonal. Esta representação é construida sobre um espaço vetorial tridmensional V3 = {r} . De certa forma, podemos dizer que essa representação está vendo a rotação através do seu efeito em cima de vetores tridimensionais. Em geral, podemos utilizar um espaço vetorial mais geral para representar um grupo como sendo o efeito de elemento do grupo em cima de um vetor neste espaço. Por exemplo, podemos considerar o conjunto de funções da posição r, V = {f (r) , r ∈ V3} Quando aplicar uma rotação no espaço V3, uma função f (r) será alterada, f (r) R→ f 0 (r) = O (R) f (r) , 30 onde O (R) é um operador que transforma a função f (r) em uma nova função f 0 (r) devido a mudança do sistema de coordenadas, r → r0 = A (R) r O que é a forma do operador O (R)? Para estudar este problema, vamos considerar por simplicidade a rotação pelo ângulo θ em torno do eixo x. Como vimos, podemos construir a rotação por um ângulo finito pela sucessão de rotações infinitesimais, R (θ) = lim N→∞ R (δθ)N . e consequentemente devemos ter O (R (θ)) = lim N→∞ O (R (δθ))N com δθ = θ/N. Mas pela rotação infinitesimal, o vetor transforma como r0 = A (R (δθ)) r = ⎛⎜⎜⎜⎝ 1 δθ 0 −δθ 1 0 0 0 1 ⎞⎟⎟⎟⎠ ⎛⎜⎜⎜⎝ x y z ⎞⎟⎟⎟⎠ do modo que x0 = x+ δθ y, y0 = y − δθ x, z0 = z. A nova função f 0 (r) é definida como f 0 (r) ≡ f (r0) Assim, para rotação infiniteseimal, temos f 0 (x, y, z) = f (x+ δθ y, y − δθ x, z)Considerando que δθ infinitesimal, podemos escrever f 0 (x, y, z) = f (x, y, z) + δθ y ∂ ∂x f (x, y, z)− δθ x ∂ ∂y f (x, y, z) = (1− i δθ Lz) f(x, y, z), 31 onde introduzimos um operador diferencial, Lz = 1 i µ x ∂ ∂y − y ∂ ∂x ¶ . (102) O fator i foi introduzido pela conveniência posterior. Para a rotação de um ângulo finito θ, temos f 0 (r) = lim N→∞ µ 1− i θ N Lz ¶N f (x, y, z) = e−iθLzf (r) Em vez de rotação em torno do eixo z, se rodamos em torno do eixo x, ou do eixo y, temos analogamente as variações da função como f (r) Rx→ f 0 (r) = e−iθLxf (r) , (103) f (r) Ry→ f 0 (r) = e−iθLyf (r) , (104) onde Lx = 1 i µ y ∂ ∂z − z ∂ ∂y ¶ , (105) Ly = 1 i µ z ∂ ∂x − x ∂ ∂z ¶ . (106) Exercício: Prove as eqs.(103,104) junto as Eqs.(105,106). Das Eqs.(102,105,106) podemos introduzir um vetor operador, L = ⎛⎜⎜⎜⎝ Lx Ly Lz ⎞⎟⎟⎟⎠ = 1i r ×∇ Exercício: Mostre que [Li, Lj] = iLk, (i, j, k, ciclica) Exercício: Se definimos as matrizes, L(3) = i Σ, mostre que a algebra de Lie para L(3) é exatamente igual a de L. 32 Exercício: Definimos o operador diferencial, L2 ≡ L2x + L2y + L2z. Mostre que L2 comuta com todos os L0is. Exercício: Calcule explicitamente ¡ L(3) ¢2 ≡ ¡L(3)x ¢2 + ¡L(3)y ¢2 + ¡L(3)z ¢2 e explique porque a matriz ¡ L(3) ¢2 comuta com todas as matrizes, L(3)i . A. Alguns Teoremas para a representação de um grupo Vamos recordar a definição de um grupo. Consideramos um conjunto de elementos (seja finito, seja infinito) G = {A,B,C, ...} no qual está definida uma regra de multiplicação (produto), representado pelo símbolo “ · ”, entre dois elementos de G. Dizemos que o conjunto forma um grupo sob o produto ·, quando as seguintes propriedades são satisfeitas: • o conjunto é fechado pela multiplicação, A ·B ∈ G, ∀A,B ∈ G • associatividade: (A ·B) · C = A · (B · C) , • existência do elemento unidade[3] ( identidade) I, A · I = I ·A = A, • existência do elemento inverso A−1 para qualquer elemento A, tal que A−1 ·A = A ·A−1 = I. 33 1. Representação Sejam G e S grupos. Um mapeamento G→ S é dito representação de G em termos de S quando as regras de multiplicação do grupo G são preservadas por este mapeamento. Podemos introduzir o indice λ para especificar os elementos do grupo G, Rλ ∈ G. Isto é, estabelecemos a correspondência um a um entre os elementos de grupo e os valores de λ. Aqui, o parâmetro λ não necessariamente um número inteiro, mas pode ser um conjunto de números contínuos. Quando λ é número inteiro, o grupo é chamado grupo discreto. Um grupo é chamado grupo contínuo se o parâmetro λ é contínuo. Neste caso, λ é chamado “coordenada” para o grupo. O mapeamento G→ S pode ser escrito para todos os valores de índice λ, Rλ ∈ G→ Sλ ∈ S, ou seja, se Rλ1 ∈ G, temos Sλ1 ∈ S, e se Rλ2 ∈ G, temos Sλ2 ∈ S, etc. Este mapeamento é dito representação quando, se Rλ2Rλ1 = Rλ3, então Sλ2Sλ1 = Sλ3. 34 Um exemplo: o conjunto de matrizes (n× n) não singulares © M (n) ª formam um grupo com o produto matricial usual. Assim, é possível construir uma representação de um grupo G em termos de matrizes (n× n). Neste caso, se R1, R2 ∈ G, e R1 → A (R1) ∈ © M (n) ª , R2 → A (R2) ∈ © M (n) ª , então A (R1)A (R2) = A (R1R2) ∈ © M (n) ª . Note que aqui, o produto de grupo de G fica transcrito como produto matricial em M (n). Um outro exemplo: o conjunto de matrizes unitárias forma um grupo. Assim, podemos construir uma representação através do mapeamento do grupo G para o grupo de matrizes unitárias. Esta representação é chamada de representação unitária. Numa representação matricial de um grupo, podemos considerar o espaço vetorial linear H no qual estas matrizes atuam. Assim, as matrizes de representação formam um conjunto de transformações de vetores neste espaço. ∀x ∈ H, ∀R ∈ G, A (R) : x→ x́ = A (R)x. Seja H1 um subespaço de H. O subespaço H1 é dito invariante sob o grupo G se ∀x ∈ H1, x́ = A (R)x ∈ H1, ∀R ∈ G. A representação é dita irredutível se não existe nenhum subespaço invariante em H. Se existe pelo menos um subespaço invariante, a representação é dita redutível. Quando uma representação é redutível, possuindo o subespaço invariante H1, é sempre possível arrumar as bases da representação de tal modo que as matrizes fiquem diagonais em blocos. A (R)→ ⎛⎝ A(1) (R) 0 0 A(2) (R) ⎞⎠ , ∀R ∈ G. 35 Na expressão acima a submatriz A(1) (R) atua no subespaço H1 e a submatriz A(2) (R) atua no subespaço H2 = H − H1. Aqui, é fundamental a condição, ∀R ∈ G. Isto é, todas as matrizes se tornam ao mesmo tempo diagonal em blocos. Para R1, R2 ∈ G, temos A (R1)A (R2)→ ⎛⎝ A(1) (R1)A(1) (R2) 0 0 A(2) (R1)A (2) (R2) ⎞⎠ , portanto, os dois conjuntos de submatrizes, © A(1) (R) ª e © A(2) (R) ª formam separadamente as representações independentes. Quando isto acontece, dizemos que a representação original {A (R)} é decomposta em duas representações, © A(1) (R) ª e © A(2) (R) ª . Se as dimensões dos espaços H, H1, eH2 são n, n1 e n2, respectivamente, então expressamos esta decomposição da representação por {n} = {n1}⊕ {n2} . Naturalmente temos que ter n = n1 + n2. Para uma dada representação matricial de um grupo {n} : R→ A (R) , sempre podemos construir sua representação adjunta por R→ A† (R) , com o produto de grupo R1R2 → A† (R2)A†(R1) = A† (R1R2) . Note a ordem do produto matricial (inverso do anteiror). Esta representação é chamada de representação adjunta e a expressamos como {n}. 2. Exemplo Para poder fixar a idéia, vamos considerar um exemplo simples. Consideramos um con- junto de dois elementos ordenados (a, b). Podemos considerar duas operações: a primeira, 36 de não fazer nada, que denotamos por e, e a segunda, de trocar a ordem dos elementos, que denotamos por t. O conjunto destas duas operações formam um grupo de dois ele- mentos, (e, t) , pois podemos verificar que as operações sucessivas se resumem às seguintes possibilidades: e · e = e, e · t = t · e = t, t · t = e, que definem a estrutura do grupo. Chamaremos este grupo como grupo de permutação S2. Para construir as matrizes vamos expressar esta estrutura numa tabela abaixo;³ e t ´ ⎛⎝ e t ⎞⎠⎛⎝ e t t e ⎞⎠ É interessante notar que vale a seguinte regra de construir matrizes a partir desta tabela de produto: considere a tabela de multiplicação como uma matriz e coloque um (1) nos lugares em que aparece um determinado elemento do grupo e zero nos outros. Desta forma, podemos construir uma matriz para cada elemento do grupo. Estas matrizes formam uma representação do grupo. Por exemplo: para construir a matriz correspondente ao elemento e, coloque um (1) nos lugares onde este aparece e, nos outros lugares, coloque zero. Temos e→ ⎛⎝ 1 0 0 1 ⎞⎠ . (107) Analogamente, temos para o elemento t, t→ ⎛⎝ 0 1 1 0 ⎞⎠ . (108) 37 Verificamos que as matrizes acima satisfazem as mesmas regras de produto que e e t,⎛⎝ 1 0 0 1 ⎞⎠⎛⎝ 1 0 0 1 ⎞⎠ = ⎛⎝ 1 0 0 1 ⎞⎠ , ⎛⎝ 1 0 0 1 ⎞⎠⎛⎝ 0 1 1 0 ⎞⎠ = ⎛⎝ 0 1 1 0 ⎞⎠⎛⎝ 1 0 0 1 ⎞⎠ = ⎛⎝ 0 1 1 0 ⎞⎠ , ⎛⎝ 0 1 1 0 ⎞⎠⎛⎝ 0 1 1 0 ⎞⎠ = ⎛⎝ 1 0 0 1 ⎞⎠ . Desta forma, o conjunto das associações Eqs.(107) and (108) forma uma representação do grupo S2. Só que esta representação não é irredutível pela seguinte razão: se considerarmos que estas matrizes são matrizes dos “operadores” e e t num espaço vetorial linear,⎛⎝ 1 0 0 1 ⎞⎠ = ⎛⎝ h1|e|1i h1|e|2i h2|e|1i h2|e|2i ⎞⎠ , ⎛⎝ 0 1 1 0 ⎞⎠ = ⎛⎝ h1|t|1i h1|t|2i h2|t|1i h2|t|2i ⎞⎠ , podemos associar os vetores de base como |1i→ ⎛⎝ 1 0 ⎞⎠ , |2i→ ⎛⎝ 0 1 ⎞⎠ . O espaço vetorial é então formado de vetores de combinação linear, a|1i+ b|2i→ ⎛⎝ a b ⎞⎠ . Neste espaço, podemos considerar as seguintes vetores, |+i = 1√ 2 {|1i+ |2i}→ 1√ 2 ⎛⎝ 1 1 ⎞⎠ , |−i = 1√ 2 {|1i− |2i}→ 1√ 2 ⎛⎝ 1 −1 ⎞⎠ . 38 Vemos facilmente que ⎛⎝ 1 0 0 1 ⎞⎠ 1√ 2 ⎛⎝ 1 1 ⎞⎠ = 1√ 2 ⎛⎝ 1 1 ⎞⎠ ⎛⎝ 0 1 1 0 ⎞⎠ 1√ 2 ⎛⎝ 1 1 ⎞⎠ = 1√ 2 ⎛⎝ 1 1 ⎞⎠ , ou seja, e|+i = |+i, t|+i = |+i. Em outras palavras, o subespaço unidmensional formado do vetor |+i é invariante sob o grupo. Analogamente, temos e|−i = |−i, t|−i = −|−i, e o subespaço unidmensional formado do vetor |−i também é invariante sob o grupo. Já que h+|+i = 1, h−|−i = 1, h+|−i = 0, podemos construir a representação na base de {|+i, |−i}. Temos⎛⎝ h+|e|+i h+|e|−i h−|e|+i h−|e|−i ⎞⎠ = ⎛⎝ 1 0 0 1 ⎞⎠ , ⎛⎝ h+|t|+i h+|t|−i h−|t|+i h−|t|−i ⎞⎠ = ⎛⎝ 1 0 0 −1 ⎞⎠ . Nesta representação, todos as matrizes do grupo se tornam diagonais. Assim, a representação original fica decomposta em duas representações: uma, e→ 1, t→ 1, 39 e outra, e→ 1, t→−1. Ambas representações satisfazem a estrutura de produto do grupo. Obviamente as duas representações são irredutíveis. Exercise 1 Proceda o tratamento análogo para o grupo S3, ou seja, o conjunto de permu- tações de 3 elementos. 3. Teorema de Rearranjo Uma das propriedades importantes de um grupo é a propriedade de rearranjo. O teorema do rearranjo diz: • Seja G um grupo e R ∈ G. Seja f = f (R) uma função de um elemento do grupo (um número atribuído para cada elemento do grupo, por exemplo). Então, para qualquer f ,X R∈G f (R) = X R∈G f (AR) , A ∈ G. (109) onde a soma se extende sobre todos os elementos do grupo. O teorema acima significa que a aplicação de um elemento do grupo para todos os elemen- tos do grupo resulta no mesmo conjunto G, ou seja, é apenas um rearranjo dos elementos. a. Grupo finito Vamos provar primeiramente para o caso de um grupo finito. Escreve- mos o número dos elementos do G por n. Sejam R1, R2 ∈ G, R1 6= R2. (110) Então, podemos provar que AR1 6= AR2, ∀A ∈ G (111) 40 pois, devido a existência do elemento inverso A−1, se supormos AR1 = AR2, então, multiplicando A−1 temos A−1AR1 = A −1AR2, e R1 = R2, (112) o que contradiz a Eq.(110) e, portanto, prova a Eq.(111). Isto quer dizer que, quando os R 0s varrem todos os elementos do G (n termos), os AR 0s também varrem n distintos elementos do G. Mas existem apenas n elementos no grupo G. Então, concluímos que os AR0s varrem todos os elementos do G, um de cada vez. Assim,X R f (R) = X R f (AR) . b. Grupo Contínuo, Densidade dos Elementos No caso de grupo contínuo, devemos definir mais precisamente o que significa a soma sobre os elementos do grupo. Em geral, para um grupo contínuo, podemos introduzir um (conjunto de) parâmetro(s) para especificar os elementos do grupo, como no caso de rotação. Uma rotação R (ou seja, um elemento do grupo de rotação) é especificada com 3 parâmetros, por exemplo, o vetor de rotação ω na Eq.(??) ou os ângulos de Euler, α, β e γ. De modo geral, se {p1, p2, . . . , pr} são os parâmetros contínuos do grupo, um elemento R é dado por R = R (p1, p2, . . . , pr) , e a soma sobre os elementos do grupo deve ser uma integral sobre estes parâmetros,X R → Z dR = Z Y i dpi g (p1, p2, . . . , pr) , onde g (p1, p2, . . . , pr) é a densidade dos elementos do grupo na visinhança do ponto R (p1, p2, . . . , pr). A função g (p1, p2, . . . , pr) depende da parametrização do grupo. O teo- rema de rearranjo fica Z dR f (R) = Z dR f (AR) , (113) 41 ou, em termos dos parâmetros do grupo,Z Y i dpig (p1, . . . , pr) f (R (p1, . . . , pr)) = Z Y i dpig (p1, . . . , pr) f (A (q1, . . . , qr)R (p1, . . . , pr)) . (114) A densidade g(p1, p2, . . . , pr) deve ser escolhida para que valha a Eq.(113). Para en- contrar a forma de g, podemos pensar da seguinte forma: o argumento da função f, R0 = A (q1, . . . , qr)R (p1, . . . , pr) ,do lado direito da Eq.(114) é um elemento do grupo. Escrevendo R0 = R (p01, p 0 2, . . . , p 0 r) , podemos considerar o produto AR como uma transformação das variáveis, (p1, . . . , pr)→ (p01, p02, . . . , p0r) , ou seja, p01 = p 0 1 (p1, . . . , pr) , ... p0r = p 0 r (p1, . . . , pr) . Introduzindo esta mudança de variáveis no lado direito da Eq.(114) temos,Z Y i dpig (p1, . . . , pr) f (R 0 (p01, . . . , p 0 r)) = Z Y i dp0i ∂ (p1, . . . , pr) ∂ (p01, . . . , p 0 r) g (p1, . . . , pr) f (R 0 (p01, . . . , p 0 r)) , (115) onde ∂ (p1, . . . , pr) ∂ (p01, . . . , p 0 r) é a Jacobiana da transformação. Assim, devemos terZ Y i dpig (p1, . . . , pr) f (R (p1, . . . , pr)) = Z Y i dp0i ∂ (p1, . . . , pr) ∂ (p01, . . . , p 0 r) g (p1, . . . , pr) f (R 0 (p01, . . . , p 0 r)) . (116) Para que a Eq.(116) seja uma identidade, devemos escolher ∂ (p1, . . . , pr) ∂ (p01, . . . , p 0 r) g (p1, . . . , pr) = g (p 0 1, . . . , p 0 r) . (117) 42 Uma solução para isto é g (p1, . . . , pr) = ∂ (x01, . . . , x 0 r) ∂ (p1, . . . , pr) = ∙ ∂ (p1, . . . , pr) ∂ (x01, . . . , x 0 r) ¸−1 , onde (x01, . . . , x 0 r) é algum ponto fixo no espaço de parâmetros, que podemos escolher arbi- trariamente. Usualmente escolhemos o ponto correspondente ao elemento identidade, I. No caso do grupo de rotação com parametrização de ângulos de Euler, podemos calcular g (α, β, γ) da seguinte forma: já que A (α, β, γ) = ⎛⎜⎜⎜⎝ − sinα sin γ + cosα cosβ cos γ cos γ sinα+ cosα cosβ sin γ − cosα sinβ − cosα sin γ − cosβ cos γ sinα cosα cos γ − cosβ sinα sin γ sinα sinβ cos γ sinβ sinβ sin γ cos β ⎞⎟⎟⎟⎠ , temos A (α+ δα, β + δβ, γ + δγ) = A+ ∂A ∂α δα+ ∂A ∂β δβ + ∂A ∂γ δγ, onde ∂A ∂α = ⎛⎜⎜⎜⎝ − cosα sin γ − cos β cos γ sinα cosα cos γ − cosβ sinα sin γ sinα sinβ sinα sin γ − cosα cosβ cos γ − cos γ sinα− cosα cosβ sin γ cosαsinβ 0 0 0 ⎞⎟⎟⎟⎠ , ∂A ∂β = ⎛⎜⎜⎜⎝ − cosα sinβ cos γ − cosα sinβ sin γ − cosα cosβ sinβ cos γ sinα sinβ sinα sin γ sinα cos β cos γ cos β cosβ sin γ − sinβ ⎞⎟⎟⎟⎠ , ∂A ∂β = ⎛⎜⎜⎜⎝ − cos γ sinα− cosα cos β sin γ − sinα sin γ + cosα cosβ cos γ 0 − cosα cos γ + cosβ sinα sin γ − cosα sin γ − cosβ cos γ sinα 0 − sinβ sin γ cos γ sinβ 0 ⎞⎟⎟⎟⎠ . Por outro lado, seja E o elemento próximo da identidade I e, neste caso, podemos utilizar as coordenadas Cartesianas e escrever[4] E ' 1 + ⎛⎜⎜⎜⎝ 0 −δz δy δz 0 −δx −δy δx 0 ⎞⎟⎟⎟⎠ 43 onde ⎛⎜⎜⎜⎝ δx δy δz ⎞⎟⎟⎟⎠ ≡ δr são os parâmetros infinitesimais da rotação. A densidade de rotações neste sistema de coordenadas é proporcional ao inverso do elemento de volume dV = δxδyδz. Consideramos a transformação de variáveis causada pelo elemento do grupo A, Á = A (α, β, γ)E (δx, δy, δz) , que é um elemento do grupo. Portanto, podemos escrever A0 = A (α0, β0, γ0) . Sabemos que a variação (α, β, γ)→ (α0, β0, γ0) deve ser infinitesimal. Assim, o elemento do grupo A (α, β, γ) transforma o elemento E (δx, δy, δz) em A (α+ δα, β + δβ, γ + δγ) = A (α, β, γ)E (δx, δy, δz) , ou seja ∂A ∂α δα+ ∂A ∂β δβ + ∂A ∂γ δγ = A ⎛⎜⎜⎜⎝ 0 −δz δy δz 0 −δx −δy δx 0 ⎞⎟⎟⎟⎠ . (118) Desta equação, podemos obter explicitamente δα, δβ, e δγ em função de δx, δy e δz. Exercise 2 A Eq.(118) é uma equação matricial (3× 3) e, portanto, constitui 9 equações. No entanto, para obter δα, δβ, e δγ em função de δx, δy e δz, precisaríamos de apenas 3 equações. Qual é o papel do resto das equações ? 44 Exercise 3 Definindo Σx = ⎛⎜⎜⎜⎝ 0 0 0 0 0 −1 0 1 0 ⎞⎟⎟⎟⎠ , (119) Σy = ⎛⎜⎜⎜⎝ 0 0 1 0 0 0 −1 0 0 ⎞⎟⎟⎟⎠ , (120) Σz = ⎛⎜⎜⎜⎝ 0 −1 0 1 0 0 0 0 0 ⎞⎟⎟⎟⎠ . (121) mostre que 1 2 Tr ∙ ΣxA T µ ∂A ∂α δα+ ∂A ∂β δβ + ∂A ∂γ δγ ¶¸ = δx, (122) 1 2 Tr ∙ ΣyA T µ ∂A ∂α δα+ ∂A ∂β δβ + ∂A ∂γ δγ ¶¸ = δy, (123) 1 2 Tr ∙ ΣzA T µ ∂A ∂α δα+ ∂A ∂β δβ + ∂A ∂γ δγ ¶¸ = δz. (124) Podemos verificar facilmente que 1 2 AT ∂A ∂α = ⎛⎜⎜⎜⎝ 0 cosβ − sinβ sin γ − cos β 0 cos γ sinβ sinβ sin γ − cos γ sinβ 0 ⎞⎟⎟⎟⎠ 1 2 AT ∂A ∂β = ⎛⎜⎜⎜⎝ 0 0 − cos γ 0 0 − sin γ cos γ sin γ 0 ⎞⎟⎟⎟⎠ 1 2 AT ∂A ∂γ = ⎛⎜⎜⎜⎝ 0 1 0 −1 0 0 0 0 0 ⎞⎟⎟⎟⎠ e temos ⎛⎜⎜⎜⎝ δx δy δy ⎞⎟⎟⎟⎠ = ⎛⎜⎜⎜⎝ cos γ sinβ − sin γ 0 sinβ sin γ cos γ 0 cosβ 0 1 ⎞⎟⎟⎟⎠ ⎛⎜⎜⎜⎝ δα δβ δγ ⎞⎟⎟⎟⎠ . (125) 45 Exercise 4 Deduza a Eq. (125). Usando deste resultado, calcule a densidade de elementos de rotação em coordenadas de ângulos de Euler, g (α, β, γ) = ∙ ∂ (α, β, γ) ∂ (x, y, z) ¸−1 . Do exercício acima, verificamos que a soma sobre todos os elementos do grupo de rotação pode ser escrita em termos de ângulo de Euler comoX R f(R)→ Z 2π 0 dα Z π 0 dβ sinβ Z 2π 0 dγ f (R (α, β, γ)) . B. Teorema de Grande Ortogonalidade Seja R um elemento de um grupo G. Sejam A(j) (R) e A(k) (R) as matrizes de duas representações irredutíveis do grupo, onde os superscriptos (j) e (k) representam os índices da representação. O teorema de grande ortogonalidade dizX R∈G © A(j) (R) ª mn © A(k) (R) ª∗ µν ∝ δjkδmµδnν. (126) Antes da prova, vamos provar alguns lemas necessários para isto. O primeiro é referido como o Lema de Schur e é bastante importante e utilizado em vários lugares. 1. Lema 1 (Schur) Numa representação irredutível de um grupo, uma matriz que comuta com todas as outras da representação deve ser proporcional a matriz de identidade, I. PROVA: É possível provar que qualquer representação matricial não singular de um grupo pode ser convertida para uma representação unitária através de uma transformação similar. Desta forma, daqui por diante consideramos sempre apenas representações unitárias, exceto ex- plicitamente mencionado o contrário. Ou seja, sempre supomos que as matrizes de repre- sentações são unitárias. Agora, já que qualquer matriz M pode ser decomposta como uma soma de duas matrizes hermitianas, M = 1 2 ¡ M +M † ¢ + i 2 1 i ¡ M −M† ¢ = H1 + iH2, 46 é suficiente provar este Lema para o caso de uma matriz hermitiana. Seja H uma matriz hermitiana que comuta com qualquer matriz da representação irredutível do grupo: A (R)H −HA (R) = 0, ∀R ∈ G. (127) Sendo H a matriz hermitiana, podemos diagonalizá-la. Escrevemos H|ii = λi|ii, i = 1, .., n onde |ii é autovetor, λi é o autovalor e n a dimensão da representação. Tomando os elementos de matriz da Eq.(127) entre dois autoestados |ii e |ji de H, temos hi|A (R) |ji (λj − λi) = 0, ∀R ∈ G. (128) Esta equação mostra que, se λj 6= λi, então necessariamente temos que ter hi|A (R) |ji = 0, ∀R ∈ G. Isto contradiz a condição de que a representação seja irredutível. Para ver mais claramente, vamos considerar a situação em que λ1 = λ2 = · · · = λn−1, mas λn não é igual a outros λn 6= λi, i = 1, 2, .., n− 1. Então, temos que ter hi|A (R) |ni = 0, i = 1, ..., n− 1, ∀R ∈ G. Consideramos um vetor geral no espaço da representação, |ψi = X i Ci|ii. Este vetor se transforma, sob o grupo, como |ψi R→ |ψi0 = X i CiA (R) |ii = X i X j Ci|ji hj|A (R) |ii = n−1X i n−1X j Ci|ji hj|A (R) |ii+ Cn|ni hn|A (R) |ni. 47 Isto implica que, se decompormos o espaço vetorial da base da representação em dois sube- spaços, {|i = 1i, · · · , |i = 1i}⊕ {|ni} , estes subespaços são subespaços invariantes sob o grupo (não se misturam sob o grupo). Mas isto contradiz a condição de que a representação seja irredutível. Assim, λn = λi, i = 1, ..n− 1. ou seja, todos autovalores tem que ser idênticos. Assim, H = λ ⎛⎜⎜⎜⎜⎜⎜⎝ 1 0 · · · 0 0 1 0 ... 0 0 . . . 0 0 0 1 ⎞⎟⎟⎟⎟⎟⎟⎠ = λI. No caso de um grupo contínuo, tal como o grupo de rotação, para valer o lema de Schur, basta a matriz H comutar com todas as matrizes dos geradores do grupo. Isto porque, por exemplo, qualquer elemento do grupo de rotação pode ser escrito como A (R) = e−iω·L, e, se uma matriz H comuta com todas as matrizes de L = {Lx, Ly, Lz}, [H,Li] = 0, então [H,A (R)] = 0, ∀R ∈ G. A situação é análoga para qualquer grupo contínuo. Um exemplo do Lema de Schur que já vimos é o módulo quadrado de momento angular, J2. Sabemos que£ L2, Li ¤ = 0, i = x, y, z. Assim, numa representação irredutível, devemos ter L2 = λ ⎛⎜⎜⎜⎜⎜⎜⎝ 1 0 · · · 0 0 1 0 ... 0 0 . . . 0 0 0 1 ⎞⎟⎟⎟⎟⎟⎟⎠ . 48 De fato, vimos que para a representação L(3), ¡ L(3) ¢2 → 3 ⎛⎜⎜⎜⎝ 1 0 0 0 1 0 0 0 1 ⎞⎟⎟⎟⎠ . Uma outra aplicação importante do Lema de Schur na Mecânica Quântica é que se o Hamiltoniano tem a simetria esférica, isto é, [H, Ji] = 0, i = x, y, z então, o autovalor da energia E é uma função de momento angular total j, mas não depende dos valores da componente do momento angular, m. 2. Lema 2 Sejam © A(1) (R) ª , © A(2) (R) ª duas representações irredutíveis do grupo G com dimensão n1 e n2, respectivamente; dim © A(1) (R) ª = n1, dim © A(2) (R) ª = n2. Se uma matriz M retangular (n1 × n2) satisfaz A(1) (R)M =MA(2) (R) (129) para todos os elementos do grupo R ∈ G, então occorem apenas os seguintes casos: • Para n1 6= n2, então, M = 0, • Para n1 = n2, 1. ou M = 0, 2. ou as representações © A(1) (R) ª e © A(2) (R) ª são equivalentes. 49 PROVA: Da matriz retangular M , podemos contruir a matriz quadrada (n1 × n1) hermitiana, H =MM †. Da Eq.(129), temos M†A(1) (R)† = A(2) (R)†M †, ou, usando a unitariedade das representações, temos M †A(1) ¡ R−1 ¢ = A(2) ¡ R−1 ¢ M†. Multiplicando M do lado esquerdo, temos MM †A(1) ¡ R−1 ¢ =MA(2) ¡ R−1 ¢ M † = A(1) ¡ R−1 ¢ MM †. Assim, HA(1) ¡ R−1 ¢ = A(1) ¡ R−1 ¢ H, ∀R ∈ G e, pelo Lema de Schur, temos H = λ I. Vamos considerar o caso b) n1 = n2. Neste caso, M é uma matriz quadrada. Assim det (H) = |det (M)|2 = (λ)n1 . Se λ 6= 0, então det (M) 6= 0, e portanto existe M−1. Assim M−1A(1) (R)M = A(2) (R) , e as duas representações são equivalentes. Por outro lado, se λ = 0, então MM † = 0, (130) o que implica em M = 0. (131) Assim, o caso b) ficou provado. 50 Exercise 5 Prove a Eq.(131) se vale a Eq.(130). Agora vamos considerar o caso a). Sem perder a generalidade, vamos supor n1 > n2.Podemos introduzir uma matriz quadrada (n1 × n1), acrecentando as linhas que contém elementos zeros à matriz M , N = ↑ n1 ↓ ←− n2 −→ ←− n1 − n2 −→⎛⎜⎜⎜⎝ ⎛⎜⎜⎜⎝ M ⎞⎟⎟⎟⎠ ⎛⎜⎜⎜⎝ 0 · · · 0 ... . . . ... 0 · · · 0 ⎞⎟⎟⎟⎠ ⎞⎟⎟⎟⎠ Podemos ver que NN † =MM † (132) e, portanto, NN † = H, onde H é a mesma matriz anterior para a qual vale o Lema de Schur. Consequentemente, temos NN † = λ I. Mas, obviamente, det ¡ NN † ¢ = 0, (133) de onde concluímos que λ = 0. Assim, de novo, temos MM † = 0. (134) Exercise 6 Prove a Eq.(133). Podemos, com isto, provar que M = 0, o que conclui a prova. 51 3. Prova do Teorema da Grande Ortogonalidade Tendo provado os dois lemas acima, agora podemos provar o teorema de grande ortog- onalidade (126). Primeiramente, vamos considerar duas representações inequivalentes[5]. Vamos introduzir uma matriz H = X R0 A(j) (R0) X A(k) ¡ R0 −1 ¢ , onde X é uma matriz (nj × nk) completamente arbitrária. Independentemente de X, podemos provar que A(j) (R)H = HA(k) (R) . (135) De fato, A(j) (R)H = X R0 A(j) (R)A(j) (R0) X A(k) ¡ R0 −1 ¢ = X R0 A(j) (RR0) X A(k) ¡ R0 −1R−1R ¢ = X R0 A(j) (RR0) X A(k) ³ (RR0) −1 R ´ = X R0 A(j) (RR0) X A(k) ³ (RR0) −1 ´ A(k) (R) = HA(k) (R) , onde utilizamos a propriedade da representação A (RR0) = A (R)A (R0) e, da penúltima linha para a última linha, o teorema de rearranjo,X R0 A(j) (RR0) X A(k) ³ (RR0) −1 ´ = X R0 A(j) (R0) X A(k) ³ (R0) −1 ´ . Do lema-2 que provamos, a Eq.(135) mostra que H = 0, ou seja, em termos de elementos de matriz, Hmν = X R0 X α X β © A(j) (R0) ª mα Xαβ © A(k) ¡ R0 −1 ¢ª βν = 0, 52 se j 6= k. Já que X é arbitrária, podemos escolher, Xαβ = δαnδβµ, para qualquer n e µ dados. Então,X R0 © A(j) (R0) ª mn © A(k) ¡ R 0 −1 ¢ª µν = 0 para j 6= k. Assim, o primeiro fator δjk da Eq.(126) fica demonstrado.X R0 © A(j) (R0) ª mn © A(k) ¡ R 0 −1 ¢ª µν ∝ δjk. Agora vamos considerar que j = k. Neste caso, H = X R0 A(j) (R0) X A(j) ³ (R0) −1 ´ comuta com todas as matrizes da representação, A(j) (R)H = HA(j) (R) , ∀R ∈ G, e, pelo Lema de Schur, temos H = λ (X) I, onde a constante λ depende de X. Novamente escolhendo Xαβ = δαnδβµ, temos Hmν = X R0 © A(j) (R0) ª mn © A(j) ¡ R0 −1 ¢ª µν = λnµδmν, onde explicitamos a dependência de λ emX em termos dos dois índices n e µ. Se calculamos o traço de H, temos λnµnj = X m X R0 © A(j) (R0) ª mn © A(j) ¡ R0 −1 ¢ª µm = X R0 "X m © A(j) ¡ R0 −1 ¢ª µm © A(j) (R0) ª mn # = X R0 £© A(j) ¡ R0 −1 ¢ A(j) (R0) ª¤ µn = X R0 [1]µm = X R 1 δµn. 53 Assim, X R0 © A(j) (R0) ª mn © A(j) ¡ R0 −1 ¢ª µν = 1 nj X R 1 δmνδµn. Utilizando a unitariedade da representação, temosX R0 © A(j) (R0) ª mn © A(j) (R0 ) ª∗ µν = 1 nj X R 1 δmµδnν . Aqui, o número X R 1 é o número total dos elementos do grupo G no caso de grupos finitos. Para grupos contínuos, deve ser calculado como integral sobre os parâmetros,X R 1→ Z dR = Z · · · Z dnp g (p1, p2, . . . , pn) . No caso de grupo de rotação com ângulos de Euler, temosZ dR = Z 2π 0 dα Z π 0 sinβdβ Z 2π 0 dγ = 8π2. [1] det ¯̄ ATA ¯̄ = 1, temos det|A|2 = 1. [2] Note que este fórmula vale, mesmo x seja uma matriz. Alias, para uma matriz A, esta equação pode ser vista como a definição de eA, i.e., eA ≡ 1 +A+ 1 2! A2 + 1 3! A3 + · · · . [3] Na verdade, I ·A = A · I sai apenas pelo requerimento I ·A = A, e vice versa. [4] Ver a apostila, Mecânica Clássica II. [5] Existem duas situações em que duas representações são inequivalentes. 1) j 6= k , 2) j = k, mas não existe transformação similar entre as duas representações. 54
Compartilhar