Buscar

INTRODUÇÃO A TEORIA DE GRUPO

Prévia do material em texto

I. INTRODUÇÃO A TEORIA DE GRUPO
A. Mudança de Coordenadas e Grupo de Rotação
Vamos estudar a rotação de um sistema de coordenadas. Seja XY Z um sistema Carte-
siano de Coordenadas fixo no espaço. Agora introduzimos um sistema de coordenadas
Cartesianas X 0Y 0Z 0 que possui a origem O comum ao sistema XY Z, mas rodado em torno
do ponto O.
Seja r o vetor coluna de um ponto P arbitrário no espaço expresso no sistema de coor-
denadas XY Z. Podemos escrever
r =
⎛⎜⎜⎜⎝
x1
x2
x3
⎞⎟⎟⎟⎠ ,
onde
xi = hei|P i, i = 1, 2, 3
Aqui, para distinguir o vetor físico no espaço do vetor coluna, introduzimos a notação de
Dirac. Por exemplo, |P i representa o vetor corresponde ao segumento −→OP e |eii representa
o vetor unitário na direção do eixo Xi. hei|P i representa o produto escalar entre os dois
vetores, |P i e |eii. Analogamente, o mesmo vetor fica expresso em termos de vetor coluna
no sistema de coordenadas intrinsêca X 0Y 0Z 0 como
r0 =
⎛⎜⎜⎜⎝
x01
x02
x03
⎞⎟⎟⎟⎠ , (1)
onde
x0i = he0i|P i, i = 1, 2, 3,
e |e0ii representa o vetor unitário na direção do eixo X 0i.
Os vetores-base {|e01i, |e02i, |e03i} podem ser expressos em termos da base {|e1i, |e2i, |e3i}.
Temos, por exemplo, usando a completeza do sistema {|e1i, |e2i, |e3i} ,
|e01i = {|e1i he1|+ |e2i he2|+ |e3i he3|} |e01i
= |e1i he1|e01i+ |e2i he2|e01i+ |e3i he3|e01i. (2)
1
e analogamente para |e2i e |e3i. Usando estas transformações da base, temos
r0 =
⎛⎜⎜⎜⎝
he01|P i
he02|P i
he03|P i
⎞⎟⎟⎟⎠ =
⎛⎜⎜⎜⎝
he01|e1i he01|e2i he01|e3i
he02|e1i he02|e2i he02|e3i
he03|e1i he03|e2i he03|e3i
⎞⎟⎟⎟⎠
⎛⎜⎜⎜⎝
he1|P i
he2|P i
he3|P i
⎞⎟⎟⎟⎠
Isto constitui uma transformação linear de coordenadas, de rC para r.
r → r0 = Ar, (3)
com
A =
⎛⎜⎜⎜⎝
he01|e1i he01|e2i he01|e3i
he02|e1i he02|e2i he02|e3i
he03|e1i he03|e2i he03|e3i
⎞⎟⎟⎟⎠ , (4)
ou
Aij = he0i|eji, i = 1, 2, 3. (5)
Note que a matriz A satisfaz a propriedade,
ATA = 1. (6)
Exercício: Prove a equação acima.
Uma matriz real que satisfaça a condição (6) é chamada de matriz ortogonal. A trans-
formação de coordenada por uma matriz orthogonal,
r → r0 = Ar, (7)
é dita a transformação orthogonal.
Na linguagem introduzida na seção anterior, digamos que a matriz A é a representação
da rotação R. De fato, os vetores (os vetores físicos) da base {|e01i, |e02i, |e03i} podem ser
obtidos dos vetores da base {|e1i, |e2i, |e3i} por uma rotação R,
|e0ii = R|eii, i = 1, 2, 3
Assim, a matriz A é a representação da rotação do sistema de coordenaada XY Z para
X 0Y 0Z 0 em termos da base {|e1i, |e2i, |e3i} ,
AT =
⎛⎜⎜⎜⎝
he1|R|e1i he1|R|e2i he1|R|e3i
he2|R|e1i he2|R|e2i he2|R|e3i
he3|R|e1i he3|R|e2i he3|R|e3i
⎞⎟⎟⎟⎠ . (8)
2
De modo geral, uma matriz real 3 × 3 tem 9 elementos independentes. Mas para uma
matriz ortogonal, a condição (6) impõe 3(3+1)/2 = 6 condições independentes. Assim, uma
matriz orthogonal 3× 3 é determinada por 9− 6 = 3 números. Para determinar as direções
de um sistema de coordenadas Cartesiano, precisamos 3 ângulos, que são justamtente os
números necessários para determinar uma matriz orthogonal 3× 3.
Da discussão acima, estabelecemos o seguinte esquema: Para um corpo rígido em rotação,
num instante do tempo t,
Sistema Cartesiana XY Z Rotaccão−→ Sistema Cartesiana X 0Y 0Z 0
r −→ r0 = A r
⇓
A = A(Rotaccão)
Resumindo: à transformação de um sistema Cartesiano para um outro, definida pela Eq.(7),
corresponde uma rotação. A rotação é determindada por 3 ângulos. A matriz orthogonal
3 × 3 é determinada por esta rotação. Ou seja, podemos estabelecer a correspondência
um a um entre rotações no espaço tridimensional R3 e matrizes ortogonal 3 × 3. Esta
correspondência é dita a representação de rotação tridimensional por matriz ortogonal 3×3.
Denotamos simbolicamente a rotação no espaço tridimensional por R. Mais precisamente,
estamos associando uma matriz A para uma rotação do sistema em torno da sua origem.
Assim, podemos expressar as rotações (que são um processo físico) em termos de matrizes
ortogonais (que é uma entidade matemática). As propriedades das matrizes A se refletem
nas propriedades físicas das rotações e vice-versa.
Note que a sucessão de duas rotações é representada pelo produto de duas matrizes,
correspondentes. Neste sentido, o ato de rodar sucessivamente também fica representado
pela operação matemática de produto matricial.
B. Propriedades de Matriz A
Vamos estudar as propriedades matemáticas da matriz A. Escrevemos
A =
⎛⎜⎜⎜⎝
a11 a12 a13
a21 a22 a23
a31 a32 a33
⎞⎟⎟⎟⎠ .
3
O que sabemos dela é
1. Ortogonalidade, ATA = 1, e, portanto,
2. Existem apenas 3 parametros que determinam A, ou seja todos os {aij}.
Note que o produto de duas matrizes ortogonais também um matriz ortogonal: Isto é, se
ATA = 1,
BTB = 1,
então, o produto
C = BA
tem a propriedade,
CTC = (BA)T (BA)
= ATBTBA = AT1A = ATA = 1. (9)
Do ponto de vista física, isto significa que as duas rotações sucessivas também é uma rotação.
Pela definição, uma matriz ortogonal A claramente tem seu inverso, A−1.
A−1 = AT . (10)
Físicamente, a matriz inversa corresponde à rotação inversa. Já que
A−1A = AA−1 = 1, (11)
independente da ordem de aplicação da rotação e seu inverso leva à mesma posição inicial,
A−1A r = AA−1r = r. (12)
Note também que a matriz de identidade I é uma matriz ortogonal.
Vamos considerar o conjunto de todas as matrizes ortogonais 3× 3 e denotamos por G.
G =
©
A; ATA = 1
ª
. (13)
Então, re-expressamos as propriedades ditas acima na linguagem matemática como
4
1. Fechamento do conjunto em relação a multiplicação entre dois elementos do conjunto,
∀A,B ∈ G→ ∃C = AB ∈ G. (14)
=as rotações sucessivas são uma rotação.
2. Existência do elemento de identidade,
∃I ∈ G,
tal que
∀A ∈ G→ IA = AI = A. (15)
=rotação de ângulos nulos (não rodar).
3. Existência do elemento inverso,
∀A ∈ G→ ∃A−1 ∈ G,
tal que
A−1A = AA−1 = 1. (16)
=sempre pode-se desfazer uma rotação.
Um conjunto que tem as propriedades acima é chamado de um grupo. Assim, o conjunto
de todas as matrizes ortogonais 3 × 3 forma um grupo. Este grupo em particular é deno-
midado de grupo O(3). Já que as matrizes ortogonais correspondem a rotações, concluimos
que:
• O conjunto de todas as rotações forma um grupo, que é equivalente ao grupo O(3).
1. Transformação ortogonal própria e imprópria
O grupo O(3) é o conjunto de todas as transformações de coordenadas ortogonais definida
na Eq.(7). Da condição,
ATA = 1, (17)
temos
det
¯̄
ATA
¯̄
= 1. (18)
5
Mas sabemos que
det
¯̄
ATA
¯̄
= det
¯̄
AT
¯̄
det |A| = det |A|det |A| = (det |A|)2 ,
concluimos que
det |A| = ±1. (19)
Podemos classificar as matrizes que compõem o grupo O(3) em duas partes, uma que contem
todas as matrizes ortogonais com seu determinante igual a +1, e outra com a determinante
−1. Note que o subconjunto composto de matrizes com determinante +1 forma um grupo
entre elas.
Exercício: Prove que o conjunto de todas as matrizes (3× 3) orthogonais, com determi-
nante +1 forma um grupo.
Exercício: Prove que
det |AB| = det |BA| ,
det
¯̄
AT
¯̄
= det |A| ,
det
¯̄
A−1
¯̄
= 1/det |A| ,
det |I + εA| →
ε<<1
1 + ε Tr (A) +O(ε2),
onde Tr(A) é a soma dos elementos diagonais da matriz A.
Se um subconjunto de um grupo forma um grupo com a regra de multiplicação do grupo,
o subconjunto é chamado de subgrupo. Naturalmente o elemento identidade, I, do grupo
tem que estar no subgrupo. Assim, o conjunto de todas as matrizes orthogonais de dimensão
3, com determinante +1 forma um subgrupo do grupo O(3). O grupo é denominado SO(3).
Por outro lado, o conjunto de todas as matrizes do grupo O(3) com determinante −1
não forma um grupo. Isto é trivial, pois, em primeiro lugar, o elemento identidade tem o
determinante +1 e, também pode ser visto pelo fato de que o produto de duas matrizes com
ambos determinantes negativos tem o determinante positivo e, portanto, não pertence ao
mesmo conjunto.
6
O que significa o sinal do determinante? Para ver isto, vamos calcular o determinante da
transformação, ⎛⎜⎜⎜⎝
x
y
z
⎞⎟⎟⎟⎠→
⎛⎜⎜⎜⎝x
y
z
⎞⎟⎟⎟⎠
0
=
⎛⎜⎜⎜⎝
−x
y
z
⎞⎟⎟⎟⎠ ,
ou seja, a direção do eixo x foi invertida. Neste caso, a matiriz da transformação fica
A =
⎛⎜⎜⎜⎝
−1 0 0
0 1 0
0 0 1
⎞⎟⎟⎟⎠ ,
e obviamente
det |A| = −1.
Assim, se a transformação envolve a inversão de uma das direções dos eixos, o determinante
da matriz fica negativo. Suponhamos que inicialmente começamos com um sistema de coor-
denadas destrogiro. Note que após a transformação de coordenadas, se um dos eixos tiver a
direção invertida, o novo sistema de coordenadas se torna levogiro. Quando a transformação
envolve a inversão de duas direções dos eixos, o determinante fica positivo. Mas neste caso,
a transformação não leva de um sistema destrogiro para levogiro, pois, por exemplo, a in-
versão dos eixos X e Y simultaneamente equivalente a rotação do sistema em torno do eixo
Z por 180 graus. Assim, o sinal do determinante da matriz de transformação está associado
à mudança de um sistema destrogiro para levogiro ou vice-versa.
As transformações que correspondem a matrizes com determinante positivo são chamadas
de transformações ortogonais próprias, e envolvem puramente rotações. O conjunto de
todas as transformações próprias forma um subgrupo, equivalente a SO(3). Na discussão
adiante, nos limitamos às transformações próprias, a não ser que especificado explicitamente
o contrário.
O grupo de rotações tem 3 ângulos para especificar a rotação. Um grupo cujo elemento
é especificado em termos de um (ou mais de um ) parâmetro é chamado de grupo contínuo.
Assim, o grupo de rotação 3-dimensional (= grupo SO(3)) é um grupo contínuo.
7
2. Autovetores e Autovalores
Vamos considerar o problema de autovalor da matriz A,
Ax = λx, (20)
onde λ é o autovalor e
x =
⎛⎜⎜⎜⎝
x1
x2
x3
⎞⎟⎟⎟⎠ , (21)
é o autovetor. A Eq.(20) é um sistema de equações lineares
a11x1 + a12x2 + a13x3 = λx1,
a21x1 + a22x2 + a23x3 = λx2, (22)
a31x1 + a32x2 + a33x3 = λx3,
e esta tem a solução não trivial só quando
det |A− λI| = 0, (23)
onde I é a matriz unitária
I =
⎛⎜⎜⎜⎝
1 0 0
0 1 0
0 0 1
⎞⎟⎟⎟⎠ . (24)
Explicitamente, a Eq.(23) fica
λ3 − Tr (A)λ2 + (a11a22 + a22a33 + a33a11 − a23a32 − a13a31 − a12a21)λ− det |A| = 0. (25)
Assim, a Eq.(23) é uma equação de 3a grau em relação a λ e, portanto, existem 3 raízes
para λ. Note que as raízes não são necessariamente reais. Para equações de 3a grau com
coeficientes reais, sempre existe pelo menos uma raíz real e as outras duas, se forem com-
plexas, uma é o complexo conjugado da outra. Denotamos estas raízes por λ1, λ2 e λ3,
respectivamente. Para cada um destes λ, existe a solução para x da Eq.(22). Assim, a
solução para x = (x1, x2, x3) correspendende à raíz λi, denotamos por x(i) =
³
x
(i)
1 , x
(i)
2 , x
(i)
3
´
.
Explicitamente,
Ax(i) = λix
(i).
8
Note que se x é um autovetor, para qualquer número α, αx é também o autovetor. Podemos,
então, introduzir o autovetor normalizado, e(i) por
e(i) =
1
|x(i)|x
(i), (26)
com ¯̄
x(i)
¯̄
=
p
x(i)
T · x(i) =
r³
x
(i)
1
´2
+
³
x
(i)
2
´2
+
³
x
(i)
3
´2
(27)
é a norma do vetor x(i).
Agora, vamos construir uma matriz U formada com estes autovetores normalizados,
U =
⎛⎜⎜⎜⎝
x
(1)
1 x
(2)
1 x
(3)
1
x
(1)
2 x
(2)
2 x
(3)
2
x
(1)
3 x
(2)
3 x
(3)
3
⎞⎟⎟⎟⎠ = ¡x(1), x(2), x(3)¢ . (28)
Multiplicando pela matriz A do lado esquerdo, temos
AU = A
⎛⎜⎜⎜⎝
x
(1)
1 x
(2)
1 x
(3)
1
x
(1)
2 x
(2)
2 x
(3)
2
x
(1)
3 x
(2)
3 x
(3)
3
⎞⎟⎟⎟⎠ = ¡Ax(1), Ax(2), Ax(3)¢
=
¡
λ1x
(1), λ2x
(2), λ3x
(3)
¢
=
¡
x(1), x(2), x(3)
¢
⎛⎜⎜⎜⎝
λ1 0 0
0 λ2 0
0 0 λ3
⎞⎟⎟⎟⎠
= U
⎛⎜⎜⎜⎝
λ1 0 0
0 λ2 0
0 0 λ3
⎞⎟⎟⎟⎠ , (29)
ou
AU = UΛ, (30)
onde
Λ =
⎛⎜⎜⎜⎝
λ1 0 0
0 λ2 0
0 0 λ3
⎞⎟⎟⎟⎠ (31)
é a matriz diagonal, composta de autovalores de A. Da Eq.(30), temos
U−1AU = Λ. (32)
9
O lado esquerdo da equação acima é chamado a transformação similar da matriz A por U .
Assim, a matriz A se torna diagonal pela transformação similar pela matriz formada de
autovetores de A. A relação inversa é
A = UΛU−1. (33)
Exercício: Diagonalize a matriz,
A =
⎛⎜⎜⎜⎝
0 −i 0
i 0 −i
0 i 0
⎞⎟⎟⎟⎠
e obtenha mariz U que diagonaliza A por
U−1AU = Λ.
3. Função de uma matriz e sua diagonalização.
Note que entre matrizes diagonais, as operações algebricas ficam identicas como no caso
de números. Inclusive, podemos definir funções de uma matriz diagonal Λ por,
f (Λ) =
⎛⎜⎜⎜⎝
f (λ1) 0 0
0 f (λ2) 0
0 0 f (λ3)
⎞⎟⎟⎟⎠ . (34)
Vamos supor que a função f(x) é expandida em série de Taylor;
f(x) =
∞X
n=0
cnx
n,
10
onde cn = f (n)(0)/n!. Neste caso,
f (Λ) =
⎛⎜⎜⎜⎝
P∞
n=0 cnλ
n
1 0 0
0
P∞
n=0 cnλ
n
2 0
0 0
P∞
n=0 cnλ
n
3
⎞⎟⎟⎟⎠
=
∞X
n=0
cn
⎛⎜⎜⎜⎝
λn1 0 0
0 λn2 0
0 0 λn3
⎞⎟⎟⎟⎠
=
∞X
n=0
cn
⎛⎜⎜⎜⎝
λ1 0 0
0 λ2 0
0 0 λ3
⎞⎟⎟⎟⎠
n
=
∞X
n=0
cnΛ
n.
Por outro lado,
Λn =
n−termosz }| {¡
UAU−1
¢ ¡
UAU−1
¢
· · ·
¡
UAU−1
¢
= UAnU−1. (35)
Portanto,
f(Λ) =
∞X
n=0
cnUA
nU−1
= U
à ∞X
n=0
cnA
n
!
U−1
= Uf(A)U−1, (36)
onde f(A) é definida em termos de série de Taylor,
f(A) =
∞X
n=0
cnA
n.
Assim, finalmente chegamos a fórmula,
f(A) = U−1f(Λ)U, (37)
mostrando que qualquer função de uma matriz pode ser diagonalizada em termos da mesma
transformação similar por U .
11
Exercício: Seja
σ =
⎛⎝ 0 1
1 0
⎞⎠ .
Calcule a matriz,
M = eitσ
onde i2 = −1, e t é um número arbitrário.
Exercício: Obtenha a matrix U que diagonaliza M acima obtida por
U−1MU.
Calcule também
U−1σU.
4. Propriedades de autovalores de matrizes ortogonais
Em primeiro lugar, vamos provar que um dos autovalores de uma matriz ortogonal é um.
Ou seja, a equação de autovalor Eq.(??) tem a raíz, λ = 1. Para isto, basta provar que,
det |A− I| = 0. (38)
Já que ATA = 1, temos ¡
I −AT
¢
A = A− 1, (39)
e, portanto,
det |A− 1| = det
¯̄¡
I −AT
¢
A
¯̄
= det
¯̄
I −AT
¯̄
det |A| . (40)
Sabemos que para as rotações próprias[1]
det |A| = +1, (41)
e temos ainda,
det
¯̄
I −AT
¯̄
= det |I −A|
= det |− (A− 1)|
= −det |A− 1| .
12
Aqui, foi utlizado o fato de que para qualquer matriz M de dimensão ímpar,
det |−M | = − det |M | .
Desta forma, concluimos que
det |A− 1| = −det |A− 1| (42)
que implica em
det |A− 1| = 0.
Com isto, mostramos que λ = 1 é uma das raízes da Eq.(23).
O que significa isto? Voltando à Eq.(23), vemos que o autovetor correspondente a este
autovalor tem que satisfazer esta equação com λ = 1, ou seja,
Ax = x. (43)
Isto mostra que o vetor x é inalterado após da rotaçãoA. Em outras palavras, para uma dada
rotação, sempre existe uma direção que fica inalterada por esta rotação. Assim, podemos
especificar qualquer rotação (XY Z)→ (X 0Y 0Z 0) por um vetor unitário n, que tem a direção
do autovetor acima e um ângulo de rotação θ em torno deste vetor. Pela simplicidade, vamos
introduzir um vetor
θ = θn. (44)
O teorema de Euler garante que podemos especificar a matriz A correspendente a uma
rotação arbitrária por este vetor θ,
A = A(θ). (45)
Exercício: Quantos parâmetos livres para determinar o vetor θ?
O teorema de Euler mostra que um dos autovalores de uma matriz ortogonal é 1. Por
outro lado, para transformações próprias,
det |A| = +1.
Por outro lado, temos
det |A| = det
¯̄
U−1ΛU
¯̄
= det |Λ| = λ1λ2λ3. (46)
13
Assim, temos
λ1λ2λ3 = 1. (47)
Sem perder generalidade, podemos escolher sempre λ1 = 1. Assim,
λ2λ3 = 1.
Lembre-se que os autovalores não são necessariamente reais. Em geral, λ3 = λ∗2. Portanto,
|λ2| = |λ3| = 1. (48)
A solução geral é
λ2 = e
iδ,
λ3 = e
−iδ,
com δ um número real.
Para ver qual é o significado deste δ, vamos considerar a transformação de sistema de
coordenadas em termos de uma rotação de um ângulo θ em torno do eixo z. Neste caso,
n =
⎛⎜⎜⎜⎝
0
0
1
⎞⎟⎟⎟⎠ ,
θ =
⎛⎜⎜⎜⎝
0
0
θ
⎞⎟⎟⎟⎠ ,
e as coordenadas transformam como
x0 = cos θ x+ sin θ y,
y0 = − sin θ x+ cos θ y,
z0 = z,
e, portanto
A(θ) =
⎛⎜⎜⎜⎝
cos θ sin θ 0
− sin θ cos θ 0
0 0 1
⎞⎟⎟⎟⎠ .
14
Como pode ser visto diretamente, um dos autovalores é de fato 1. Os outros autovalores
satisfazem a equação,
(λ− cos θ)2 + sin2 θ = 0. (49)
Daí, temos
λ = cos θ ± i sin θ = e±iθ. (50)Assim, neste caso, a fase δ é o ângulo de rotação θ. Como pode ser visto adiante, isto é
simpre verdade, ou seja, para uma rotação especificada pelo vetor θ, os autovalores são e±iθ,
além de 1.
O fato de que os autovalores são complexos, além daquele que é 1, implica que os au-
tovetores correspondentes também não são reais. Isto quer dizer que não existe uma base
na qual a matriz de rotação fica diagonal, exceto para a rotação de identidade, ou seja, a
rotação nula. Este é reflexo de um fato quase trivial de que não existe mais de um vetor que
mantem sua direção sob a rotação. Matematicamente, uma matriz ortogonal não pode ser
diagonalizada pela transformação ortogonal.
C. Rotações Infinitesimais
Vamos analizar a matriz,
A = A(θ)
que é a rotação por um ângulo θ em torno de uma direção n,
θ = θn
onde n é o vetor unitário,
n =
⎛⎜⎜⎜⎝
nx
ny
nz
⎞⎟⎟⎟⎠
com
nT · n = 1.
Podemos considerar esta rotação como uma sequência sucessiva de N rotações de pequeno
ângulo, δθ = θ/N . Assim, podemos escrever
A(θ) =
N termosz }| {
A(δθ)A(δθ) · · ·A(δθ) =
NY
i=1
A(δθ). (51)
15
onde
δθ =
⎛⎜⎜⎜⎝
δθx
δθy
δθz
⎞⎟⎟⎟⎠ = θN
⎛⎜⎜⎜⎝
nx
ny
nz
⎞⎟⎟⎟⎠
é o vetor da rotação Sabemos que se o ângulo desta pequena rotação tende a zero, a matriz
correspondente tem que convergir a matriz de identidade,
A(δθ) −→
δθ→0
I, (52)
podemos considerar a expansão em série de Taylor da matriz A(δθ) em relação a δθ, por
A(δθ) = I + δθ · Σ+O(δθ2) (53)
onde Σ é um vetor formado de 3 matrizes,
Σ =
⎛⎜⎜⎜⎝
Σx
Σy
Σz
⎞⎟⎟⎟⎠ . (54)
com Σx,Σy e Σz matrizes 3× 3 constantes. Explicitamente a Eq.(53) fica
A(δθ) = I + δθx · Σx + δθy · Σy + δθz · Σz +O(δθ2). (55)
Esta equação pode ser escrita também como
A(δθ) = (I + δθx · Σx) (I + δθy · Σy) (I + δθz · Σz) +O(δθ2), (56)
pois até primeira ordem em δθ, as Eqs.(55,56) são idênticas.
Embora ainda não saibamos qual é a forma das matrizes Σx,Σy e Σz, elas não dependem
a natureza da rotação, ou seja, nem do θ, nem do n. A expressão (56) manifesta uma infor-
mação bastante importante. Isto é, uma rotação infinitesimal na direção n = (nx, ny, nz) é
equivalente a rotações sucessivas em torno de cada um dos tres eixos do sistema de Coorde-
nadas, com ângulos,
δθ nx, δθny, δθnz
respectivamente. Também, o resultado não depende da ordem destas 3 rotações. Note que
este fato só é válido para rotações de ângulos infinitesimais. Para ângulos gerais, a afirmação
acima não é verdade.
16
• A rotação infinitesimal em torno de um vetor n pode ser decomposta em 3 rotações em
torno dos eixos do sistema de coordenadas, com cada ângulo proporcional a componente
respectiva do vetor n.
Exercício: Verifique que o resultado de duas rotações finitas sucessivas não é igual quando
a ordem das rotações foi invertida.
A decomposição de uma rotação infinitesimal em 3 rotações infinitesimais em torno de
eixos X,Y , e Z permite nos determinar as matrizes Σx,Σy e Σz, fácilmente. Consideramos
a rotação em torno do eixo X por um ângulo δθ. Temos
AX (δθ) = I + δθΣx +O(δθ
2),
já que n = (1, 0, 0), neste caso. Assim, concluimos que
Σx =
d
dθ
AX(θ)
¯̄̄̄
θ=0
. (57)
Por outro lado, a rotação do sistema Rx(θ) por um ângulo θ em torno do eixo X causa a
seguinte mudança nos vetores da base,
Rx|exi = |exi,
Rx|eyi = cos θ|eyi+ sin θ|ezi,
Rx|ezi = cos θ|ezi− sin θ|eyi.
Utilizando a Eq.(8), temos a forma explicita da matriz AX com ângulo de rotação θ dada
por
AX(θ) =
⎛⎜⎜⎜⎝
1 0 0
0 cos θ sin θ
0 − sin θ cos θ
⎞⎟⎟⎟⎠ . (58)
Assim, podemos calcular a matriz Σx por
Σx =
d
dθ
⎛⎜⎜⎜⎝
1 0 0
0 cos θ sin θ
0 − sin θ cos θ
⎞⎟⎟⎟⎠
¯̄̄̄
¯̄̄̄
¯
θ=0
=
⎛⎜⎜⎜⎝
0 0 0
0 0 1
0 −1 0
⎞⎟⎟⎟⎠ . (59)
17
Analogamente, obtemos
Σy =
⎛⎜⎜⎜⎝
0 0 −1
0 0 0
1 0 0
⎞⎟⎟⎟⎠ , Σz =
⎛⎜⎜⎜⎝
0 1 0
−1 0 0
0 0 0
⎞⎟⎟⎟⎠ . (60)
Exercício: Obtenha as matrizes Σy e Σz.
Com estas Σ0s, podemos escrever A(δθ) até primeira ordem em δθ por
A(δθ) = I + δθ · Σ (61)
=
⎛⎜⎜⎜⎝
1 δθ nz −δθ ny
−δθ nz 1 δθ nx
δθ ny −δθ nx 1
⎞⎟⎟⎟⎠ . (62)
É interessante notar que para esta rotação infinitesimal ativa, um vetor r qualquer se
transforma em
r0 = A(δθ) r
=
⎛⎜⎜⎜⎝
1 δθ nz −δθ ny
−δθ nz 1 δθ nx
δθ ny −δθ nx 1
⎞⎟⎟⎟⎠
⎛⎜⎜⎜⎝
x
y
z
⎞⎟⎟⎟⎠
= r − δθ
⎛⎜⎜⎜⎝
nyz − nzy
nzx− nxz
nxy − nyx
⎞⎟⎟⎟⎠ = r − δθ (n× r) . (63)
Na equação acima, notamos que ³
n · Σ
´
r = −n× r. (64)
Assim, a diferença de coordenadas causada em termos de rotação infinitesimal (ativa) do
vetor é
∆r = r0 − r = −δθ n× r.
Exercício: Interprete o resultado acima geometricamente.
18
D. Reconstrução da Rotação Finita
Uma vez obtida a representação explicita de uma rotação infinitesimal, podemos recon-
struir a rotação com ângulo finita pela Eq.(??)
A(θ) =
N termos
lim
N→∞
z }| {
A(δθ)A(δθ) · · ·A(δθ)
= lim
N→∞
(A(δθ))N
= lim
N→∞
³
I + δθT · Σ
´N
= lim
N→∞
µ
I +
1
N
θT · Σ
¶N
=
∞X
n=0
1
n!
³
θT · Σ
´n
(65)
= I + θT · Σ+ 1
2
³
θT · Σ
´2
+
1
3!
³
θT · Σ
´3
+ · · · (66)
Aqui utilizamos a fórmula bem conhecida[2]
lim
N→∞
(1 +
t
N
)N = et = 1 + t+
1
2!
t2 +
1
3!
t3 + · · · . (67)
Exercício: Talvez alguns leitores possam dúvidar do truncamento deA(δθ) só até a primeira
ordem em δθ. Será que os outros termos de ordem superior que foram jogados fora não
são importante para recuperar a rotação original, A(θ) como a sequência das rotações
infinitesimais? Para ver isto, prove que
lim
N→∞
µ
1 +
t
N
+
s
N2
¶N
= lim
N→∞
µ
1 +
t
N
¶N
. (68)
Agora, vamos calcular os termos da série, Eq.(66). Em primeiro lugar,
θ · Σ = θ nT · Σ
= θ
⎛⎜⎜⎜⎝
0 −nz ny
nz 0 −nx
−ny nx 0
⎞⎟⎟⎟⎠ . (69)
Assim, ³
θT · Σ
´n
= θn
³
nT · Σ
´n
. (70)
19
Para calcular
³
nT · Σ
´n
, começamos com n = 2.
³
nT · Σ
´2
=
⎛⎜⎜⎜⎝
0 −nz ny
nz 0 −nx
−ny nx 0
⎞⎟⎟⎟⎠
2
=
⎛⎜⎜⎜⎝
0 −nz ny
nz 0 −nx
−ny nx 0
⎞⎟⎟⎟⎠
⎛⎜⎜⎜⎝
0 −nz ny
nz 0 −nx
−ny nx 0
⎞⎟⎟⎟⎠
=
⎛⎜⎜⎜⎝
−n2y − n2z nxny nxnz
nxny −n2z − n2x nynz
nxnz nynz −n2x − n2y
⎞⎟⎟⎟⎠
=
⎛⎜⎜⎜⎝
n2x nxny nxnz
nxny n
2
y nynz
nxnz nynz n
2
z
⎞⎟⎟⎟⎠−
⎛⎜⎜⎜⎝
1 0 0
0 1 0
0 0 1
⎞⎟⎟⎟⎠
= nnT − I, (71)
onde utilizamos o fato de que o vetor n é normalizado
¡
n2x + n
2
y + n
2
z = 1
¢
, e a quantidade
nnT , chamado de diadica,
nnT ≡
⎛⎜⎜⎜⎝
nx
ny
nz
⎞⎟⎟⎟⎠³ nx ny nz ´ =
⎛⎜⎜⎜⎝
n2x nxny nxnz
nxny n
2
y nynz
nxnz nynz n
2
z
⎞⎟⎟⎟⎠ . (72)
Vamos introduzir as seguintes notações
P// ≡ nnT , (73)
P⊥ ≡ I − nnT . (74)
Note que
P// + P⊥ = I, (75)
e
P 2// = P//, (76)
P 2⊥ = P⊥. (77)
20
1. Para qualquer vetor r, o vetor r// formado pela aplicação da matriz P// é paralelo a
n. Isto é, se
r// = P//r,
∀r
então,
r// = Const.× n, (78)
onde Const = (nT · r). O vetor P//r é, portanto, a projeção do vetor r na direção n.
Em particular,
P//n = n. (79)
2. Para qualquer vetor r, o vetor r⊥ formado pela aplicação da matriz P⊥ é perpendicular
a n. Isto é, se
r⊥ = P⊥r,
∀r
então,
nT · r⊥ = 0. (80)
O vetor P⊥r é, portanto, a projeção do vetor r na direção perpendicular a n dentro
do plano formado de r e n. Em particular,
P⊥n = 0. (81)
3. Para qualquer vetor r, sempre podemos decompor em dois vetores, um paralelo a n, e
o outro perpendicular a n, por
r =
¡
P// + P⊥
¢
r
= r// + r⊥. (82)
Exercício: As matrizes P//, P⊥ são chamadas de projetor. Considere o significado das
equações,(76,77) do ponto de vista do projetor.
Exercício: Prove que os autovalores de um projetor é 0 e 1.
As matrizes P// e P⊥ são chamadas de operadores de projeção, com razão acima. Uti-
lizando esta notação, temos
³
n · Σ
´2
= −P⊥. (83)
21
Agora, ³
n · Σ
´3
=
³
n · Σ
´2 ³
n · Σ
´
= −
¡
1− nnT
¢
nT · Σ
= −nT · Σ+
⎛⎜⎜⎜⎝
n2x nxny nxnz
nxny n
2
y nynz
nxnz nynz n
2
z
⎞⎟⎟⎟⎠
⎛⎜⎜⎜⎝
0 −nz ny
nz 0 −nx
−ny nx 0
⎞⎟⎟⎟⎠
= −nT · Σ, (84)
e ³
n · Σ
´4
=
³
n · Σ
´2 ³
n · Σ
´2
= (−P⊥) (−P⊥) = P⊥. (85)
e assim por diante. Pela inspeção, concluimos que³
n · Σ
´n
= (−1)
n−1
2
³
n · Σ
´
, n : ı́mpar,
= (−1)
n
2 P⊥, n : par.
Com este resultado, vemos que é conviniente separar a soma da Eq.(65) em duas partes,
uma soma sobre índice n par, e a outra, a soma sobre índice n ímpar.
A(θ) =
∞X
n=0
par
1
n!
³
θT · Σ
´n
+
∞Xn=1
ı́mpar
1
n!
³
θT · Σ
´n
= 1− P⊥ + P⊥
∞X
n=0
par
(−1)n/2
n!
θn +
³
nT · Σ
´ ∞X
n=1
ı́mpar
(−1)n−1/2
n!
θn
= P// + cos θ P⊥ + sin θ
³
nT · Σ
´
, (86)
onde utilizamos as expressões;
sin θ = θ − 1
3!
θ3 +
1
5!
θ5 + · · · =
∞X
n=1
ı́mpar
(−1)n−1/2
n!
θn, (87)
cos θ = 1− 1
2!
θ2 +
1
4!
θ4 + · · · =
∞X
n=0
par
(−1)n/2
n!
θn. (88)
Exercício: Prove as Eqs.(87,88) acima.
Exercício: Confira que para θ = 0, recupera-se a transformação de identidade, i.e., A(θ)→
I.
22
Em termos de vetor resultante da aplicação da rotação, temos
r0 = A
³
θ
´
r
=
³
P// + cos θ P⊥ + sin θ
³
nT · Σ
´´
r
= r// + cos θ r⊥ + sin θ (n× r)
= (n · r)n+ cos θ [ r − (n · r) n ] + sin θ (n× r) . (89)
Note que os tres vetores,
r//,
r⊥,
n× r,
formam uma base orthogonal.
Exercício: Prove a afirmação acima.
Exercício: Interprete geometricamente o resultado, Eq.(89).
Vamos introduzir uma base orthonormal,
e1 = n,
e2 =
1√
N2
r⊥,
e3 =
1√
N3
n× r.
onde N2 e N3 são as constantes de normalização. A base, {e1, e2, e2} é destrogira nesta
ordem.
Exercício: Calcule N2 e N3 e expresse em termos de r = |r| e do ângulo entre n e r.
Exercício: Mostre que a base, {e1, e2, e2}é destrogira nesta ordem.
Exercício: Qualquer vetor pode ser expresso em termos de uma combinação linear destes
vetor de base.
∀x ∈ R3, x = x1e1 + x2e2 + x3e3.
com este fato, prove que
3X
i=1
ei e
T
i = I.
23
A matriz U formada destes vetores,
U =
⎛⎜⎜⎜⎝
eT1
eT2
eT3
⎞⎟⎟⎟⎠
é uma matriz orthogonal,
UTU = UUT = 1,
e define uma transformaçao de sistema de coordenadas. A matriz de rotação A fica repre-
sentada nesta nova base por
A→ A0 = UAU−1,
sendo,
A0 =
⎛⎜⎜⎜⎝
eT1
eT2
eT3
⎞⎟⎟⎟⎠ hP// + cos θ P⊥ + sin θ ³nT · Σ´i³ e1 e2 e3 ´
=
⎛⎜⎜⎜⎝
1 0 0
0 cos θ sin θ
0 − sin θ cos θ
⎞⎟⎟⎟⎠ . (90)
Aqui, utlizamos as propriedades,
P// e1 = e1, P// e2 = 0, P// e3 = 0, (91)
P⊥e1 = 0, P⊥e2 = e2, P⊥e3 = 0, (92)³
nT · Σ
´
e1 = 0,
³
nT · Σ
´
e2 = e3,
³
nT · Σ
´
e3 = −e2. (93)
Nesta base, a matriz da rotação tem a forma bem familiar. Isto é, a rotação com ângulo
θ em torno do primeiro eixo. Já vimos que os autovalores da matriz desta forma são 1 e
e±iθ. Considerando que a transformação da base não altera os autovalores (ver a Eq.(50),
provamos que os autovalores de quauler matriz de rotação A(θ) é sempre 1 e e±iθ.
Exercício: Verifique as Eqs.(91,92,93).
Exercício: Prove a (90).
24
E. Geradores de Grupo e Algebra de Lie
Para um grupo contínuo como no caso de grupo de rotação, existem parâmetros contínuos
para especificar os elementos do grupo. Seja G = {A (p)} um grupo contínuo com p =
(p1, p2, .., pn) os parâmetros reais que especificar o elemento A do grupo. O número dos
parâmetros reais é chamado dimensão do grupo. Escolhendo a parametrização adequada, se
escrevemos qualquer elemento do grupo como
A (p) = ep·Σ
onde Σ = {Σ1,Σ2, ...,Σn} e cada Σi é chamado o gerador do grupo. Por definição, para um
grupo contínuo de dimensão n, existe n geradores do grupo. Para um grupo contínuo, o co-
mutador de dois geradores do grupo, digamos [Σi,Σj] pode ser escrita como uma combinação
linear dos geradores,
[Σi,Σj] =
X
k
fkijΣk.
Esta regra de comutadores entre geradores do grupo é chamado de algebra de Lie e os
constantes, fkij são chamados de constantes de estrutura do grupo. Para ver o papel desta
algebra para a estrutura do grupo, é útil a seguinte formula de Campbell-Hausdorf-Baker,
eMeN = eM+N+
1
2
[M,N ]+ 1
12
[(M−N),[M,N ]]+···
que vale para os dois matrizes M e N. Para verificar isto, vamos introduzir o parâmetro t e
escrevemos como
eMteNt = eF (t).
Podemos expandir F (t) em série de t.
F (t) = F1t+
1
2!
F2t
2 +
1
3!
F3t
3 + · · ·
onde F1, F2... são matrizes a serem determindadas. Ou seja, devemos ter
eMteNt = eF1t+F2t
2+F3t3+···
para todos os valores de t. Isto significa que as derivadas de todas ordens dos dois lados em
relação a t no ponto t = 0 também tem que ser igual. Usando a regra,
d (A (t)B (t))
dt
=
dA
dt
B +A
dB
dt
,
25
temos
MeMteNt + eMteNtN =
µ
F1 + F2t+
1
2!
F3t
2 + · · ·
¶
eF (t),
M2eMteNt + 2MeMteNtN + eMteNtN2 =
(
(F2 + F3t+ · · · ) +
µ
F1 + F2t+
1
2!
F3t
2 + · · ·
¶2)
eF (t)
...
Fazendo t = 0, temos
M +N = F1,
M2 + 2MN +N2 = F 21 + F2,
...
Substituindo F1 =M +N na segunda equação, temos
F2 =M
2 + 2MN +N2 − (M +N)2
=MN −NM
= [M,N ] ,
onde [M,N ] é o comutador de duas matrizes, M e N. Podemos determinar F3, F4 ... suces-
sivamente.
Exercício: Calcule a fórmula de Campbell-Hausdorff até a segunda ordem,
eMeN = eM+N+
1
2
[M,N ]+ 1
12
[(M−N),[M,N ]]+···.
Podemos mostrar que todas as F́ s podem ser escritas como combinações lineares de
comutadores de ordem superiores (comutador de comutador). Então, se M e N for os
membros da algebra de Lie, o exponento resultante da fórmula de Campbell-Hausdorff-Baker
fica escrita como combinção linear dos membros da algebra,
eaΣiebΣj = e
P
k ckΣk ,
de tal forma que as exponenciações dos membros da algebra de fato forma um grupo.
Exercício: Calcule as constantes de estruturas da algebra formada de {Σx,Σy,Σz} do grupo
O(3).
26
F. Ângulos de Euler
Vamos introduzir um outro conjunto de variáveis conhecidos como ângulos de Euler para
especificar uma rotação. Por exemplo, como vimos, uma cofiguração de um pião com o ponto
extremo fixo é completamente especificada pela direção n = (sin θ cosφ, sin θ sinφ, cos θ) do
seu eixo, e o ângulo de rotação ψ do pião em torno do seu eixo (Ver Fig.1).
x
y
z
φ
ψ
θ
O
Fig.1 Coordenadas para um pião
A configuração do pião acima pode ser obtida em termos de três rotações sucessivas a partir
da configuração em que o está colocado em pé verticalmente. Primeiro, rode o pião de um
ângulo ψ em torno do seu eixo. Em seguida, incline o eixo na direção do eixo X no plano
X − Z (isto é, a rotação em torno do eixo Y ) pelo ângulo θ. Finalmente rode o sistema
novamente em torno do eixo Z. Em termos de operadores de rotação,
R(φ, θ, ψ) = Rz (φ)Ry (θ)Rz (ψ) . (94)
Na base fixo no espaço, este operador é representado pela matriz A(θ, φ, ψ), por sua vez é
dada por
A(φ, θ, ψ) = Az (φ)Ay (θ)Az (ψ) ,
27
onde Az (φ) , Ay (θ) e Az (ψ) são as representações dos operadores, Rz (φ) ,Ry (θ) eRz (ψ),
respectivamente. Isto é,
Az (φ) =
⎛⎜⎜⎜⎝
cosφ sinφ 0
− sinφ cosφ 0
0 0 1
⎞⎟⎟⎟⎠ , (95)
Az (θ) =
⎛⎜⎜⎜⎝
cos θ 0 − sin θ
0 1 0
sin θ 0 cos θ
⎞⎟⎟⎟⎠ , (96)
Az (ψ) =
⎛⎜⎜⎜⎝
cosψ sinψ 0
− sinψ cosψ 0
0 0 1
⎞⎟⎟⎟⎠ . (97)
Assim, temos
A (φ, θ, ψ) =
⎛⎜⎜⎜⎝
cosφ − sinφ 0
sinφ cosφ 0
0 0 1
⎞⎟⎟⎟⎠
⎛⎜⎜⎜⎝
cos θ 0 sin θ
0 1 0
− sin θ 0 cos θ
⎞⎟⎟⎟⎠
⎛⎜⎜⎜⎝
cosψ − sinψ 0
sinψ cosψ 0
0 0 1
⎞⎟⎟⎟⎠
=
⎛⎜⎜⎜⎝
cosφ cos θ cosψ − sinφ sinψ − cosφ cos θ sinψ − sinφ cosψ cosφ sin θ
sinφ cos θ cosψ + cosφ sinψ − sinφ cos θ sinψ + cosφ cosψ sinφ sin θ
− sin θ cosψ sin θ sinψ cos θ
⎞⎟⎟⎟⎠ .
(98)
28
O vetor de coluna no sistema fixo no espaço é transformado para o vetor do sistema de
coordenadas intrisêco do pião por⎛⎜⎜⎜⎝
xc
yc
zc
⎞⎟⎟⎟⎠ = A−1
⎛⎜⎜⎜⎝
x
y
z
⎞⎟⎟⎟⎠ = AT
⎛⎜⎜⎜⎝
x
y
z
⎞⎟⎟⎟⎠
=
⎛⎜⎜⎜⎝
cosφ cos θ cosψ − sinφ sinψ sinφ cos θ cosψ + cosφ sinψ − sin θ cosψ
− cosφ cos θ sinψ − sinφ cosψ − sinφ cos θ sinψ + cosφ cosψ sin θ sinψ
cosφ sin θ sinφ sin θ cos θ
⎞⎟⎟⎟⎠
⎛⎜⎜⎜⎝
x
y
z
⎞⎟⎟⎟⎠ .
= AT (φ, θ, ψ)
⎛⎜⎜⎜⎝
x
y
z
⎞⎟⎟⎟⎠ , (99)
onde
AT (φ, θ, ψ) =
⎛⎜⎜⎜⎝
cosφ cos θ cosψ − sinφ sinψ sinφ cos θ cosψ + cosφ sinψ − sin θ cosψ
− cosφ cos θ sinψ − sinφ cosψ − sinφ cos θ sinψ + cosφ cosψ sin θ sinψ
cosφ sin θ sinφ sin θ cos θ
⎞⎟⎟⎟⎠
é a matriz da transformação de coordenadas do sistema fixo no espaço para o sistema fixo
no pião (rotação passiva). De fato, por exemplo, o vetor do eixo do pião
n =
⎛⎜⎜⎜⎝
sin θ cosφ
sin θ sinφ
cos θ
⎞⎟⎟⎟⎠
se transforma como
nc = A
T (φ, θ, ψ) n
=
⎛⎜⎜⎜⎝
0
0
1
⎞⎟⎟⎟⎠ , (100)
mostrando o vetor no sistema fixo no pião corresponde exatamente o eixo z do pião. Os
ângulos φ, θ e ψ acima para determinar a configuração do pião podem ser utilidade mais
geral para determinar a posição relativa entre dois sistemas de coordenadas ligado pela uma29
rotação em torno do ponto comun. Em outras palavras, estes ângulos podem ser usados
para especificar uma rotação arbitrária de um sistema de coordenadas no lugar do vetor θ
que introduzido na sessão anterior. Os ângulos φ, θ e ψ são chamados de ângulos de Euler.
É interessante notar que a rotação, R(φ, θ, ψ) da Eq.(94) pode ser obtida de forma difer-
ente. Primeira, como antes, coloque o pião verticalmente. Rode o sistema em torno do
eixo Zc do pião pelo ângulo φ. Em seguida, rode o sistema em torno do eixo Yc do pião
pelo ângulo θ e, finalmente, rode o sistema em torno do eixo Zc do pião por ângulo ψ.
Note que agora as rotações referem sempre em torno dos eixos do pião e não do sistema de
coordenadas fixo no espaço, mas a ordem da rotaçãoes é invertida. Temos
R(φ, θ, ψ) = RZc(ψ)RYC (θ)RZC (φ). (101)
Naturalmente as representações matriciais destas rotações na base fixa no espaço já não são
mais dadas pelas Eqs.(95,96,97).
Exercício: Mostre que
RZc(ψ)RYC(θ)RZC (φ) = Rz (φ)Ry (θ)Rz (ψ) .
II. REPRESENTAÇÃO DO GRUPO DE ROTAÇÃO EM TERMOS DE TRANS-
FORMAÇÃO DE FUNÇÕES
A correspondência
R→ A (α, β, γ)
é dita a representação do grupo da rotação pelo grupo O (3) . Isto é uma corrrespondência
um a um entre os elementos do grupo da rotação e as matrizes 3 × 3, orthogonal. Esta
representação é construida sobre um espaço vetorial tridmensional V3 = {r} . De certa
forma, podemos dizer que essa representação está vendo a rotação através do seu efeito em
cima de vetores tridimensionais. Em geral, podemos utilizar um espaço vetorial mais geral
para representar um grupo como sendo o efeito de elemento do grupo em cima de um vetor
neste espaço. Por exemplo, podemos considerar o conjunto de funções da posição r,
V = {f (r) , r ∈ V3}
Quando aplicar uma rotação no espaço V3, uma função f (r) será alterada,
f (r)
R→ f 0 (r) = O (R) f (r) ,
30
onde O (R) é um operador que transforma a função f (r) em uma nova função f 0 (r) devido
a mudança do sistema de coordenadas,
r → r0 = A (R) r
O que é a forma do operador O (R)? Para estudar este problema, vamos considerar por
simplicidade a rotação pelo ângulo θ em torno do eixo x. Como vimos, podemos construir a
rotação por um ângulo finito pela sucessão de rotações infinitesimais,
R (θ) = lim
N→∞
R (δθ)N .
e consequentemente devemos ter
O (R (θ)) = lim
N→∞
O (R (δθ))N
com δθ = θ/N. Mas pela rotação infinitesimal, o vetor transforma como
r0 = A (R (δθ)) r
=
⎛⎜⎜⎜⎝
1 δθ 0
−δθ 1 0
0 0 1
⎞⎟⎟⎟⎠
⎛⎜⎜⎜⎝
x
y
z
⎞⎟⎟⎟⎠
do modo que
x0 = x+ δθ y,
y0 = y − δθ x,
z0 = z.
A nova função f 0 (r) é definida como
f 0 (r) ≡ f (r0)
Assim, para rotação infiniteseimal, temos f 0 (x, y, z) =
f (x+ δθ y, y − δθ x, z)Considerando que δθ infinitesimal, podemos escrever
f 0 (x, y, z) = f (x, y, z) + δθ y
∂
∂x
f (x, y, z)− δθ x ∂
∂y
f (x, y, z)
= (1− i δθ Lz) f(x, y, z),
31
onde introduzimos um operador diferencial,
Lz =
1
i
µ
x
∂
∂y
− y ∂
∂x
¶
. (102)
O fator i foi introduzido pela conveniência posterior. Para a rotação de um ângulo finito θ,
temos
f 0 (r) = lim
N→∞
µ
1− i θ
N
Lz
¶N
f (x, y, z)
= e−iθLzf (r)
Em vez de rotação em torno do eixo z, se rodamos em torno do eixo x, ou do eixo y,
temos analogamente as variações da função como
f (r)
Rx→ f 0 (r) = e−iθLxf (r) , (103)
f (r)
Ry→ f 0 (r) = e−iθLyf (r) , (104)
onde
Lx =
1
i
µ
y
∂
∂z
− z ∂
∂y
¶
, (105)
Ly =
1
i
µ
z
∂
∂x
− x ∂
∂z
¶
. (106)
Exercício: Prove as eqs.(103,104) junto as Eqs.(105,106).
Das Eqs.(102,105,106) podemos introduzir um vetor operador,
L =
⎛⎜⎜⎜⎝
Lx
Ly
Lz
⎞⎟⎟⎟⎠ = 1i r ×∇
Exercício: Mostre que
[Li, Lj] = iLk, (i, j, k, ciclica)
Exercício: Se definimos as matrizes,
L(3) = i Σ,
mostre que a algebra de Lie para L(3) é exatamente igual a de L.
32
Exercício: Definimos o operador diferencial,
L2 ≡ L2x + L2y + L2z.
Mostre que L2 comuta com todos os L0is.
Exercício: Calcule explicitamente
¡
L(3)
¢2 ≡ ¡L(3)x ¢2 + ¡L(3)y ¢2 + ¡L(3)z ¢2
e explique porque a matriz
¡
L(3)
¢2
comuta com todas as matrizes, L(3)i .
A. Alguns Teoremas para a representação de um grupo
Vamos recordar a definição de um grupo. Consideramos um conjunto de elementos (seja
finito, seja infinito)
G = {A,B,C, ...}
no qual está definida uma regra de multiplicação (produto), representado pelo símbolo “ ·
”, entre dois elementos de G. Dizemos que o conjunto forma um grupo sob o produto ·,
quando as seguintes propriedades são satisfeitas:
• o conjunto é fechado pela multiplicação,
A ·B ∈ G, ∀A,B ∈ G
• associatividade:
(A ·B) · C = A · (B · C) ,
• existência do elemento unidade[3] ( identidade) I,
A · I = I ·A = A,
• existência do elemento inverso A−1 para qualquer elemento A, tal que
A−1 ·A = A ·A−1 = I.
33
1. Representação
Sejam G e S grupos. Um mapeamento
G→ S
é dito representação de G em termos de S quando as regras de multiplicação do grupo G
são preservadas por este mapeamento. Podemos introduzir o indice λ para especificar os
elementos do grupo G,
Rλ ∈ G.
Isto é, estabelecemos a correspondência um a um entre os elementos de grupo e os valores de
λ. Aqui, o parâmetro λ não necessariamente um número inteiro, mas pode ser um conjunto
de números contínuos. Quando λ é número inteiro, o grupo é chamado grupo discreto. Um
grupo é chamado grupo contínuo se o parâmetro λ é contínuo. Neste caso, λ é chamado
“coordenada” para o grupo.
O mapeamento G→ S pode ser escrito para todos os valores de índice λ,
Rλ ∈ G→ Sλ ∈ S,
ou seja, se
Rλ1 ∈ G,
temos
Sλ1 ∈ S,
e se
Rλ2 ∈ G,
temos
Sλ2 ∈ S,
etc. Este mapeamento é dito representação quando, se
Rλ2Rλ1 = Rλ3,
então
Sλ2Sλ1 = Sλ3.
34
Um exemplo: o conjunto de matrizes (n× n) não singulares
©
M (n)
ª
formam um grupo
com o produto matricial usual. Assim, é possível construir uma representação de um grupo
G em termos de matrizes (n× n). Neste caso, se
R1, R2 ∈ G,
e
R1 → A (R1) ∈
©
M (n)
ª
,
R2 → A (R2) ∈
©
M (n)
ª
,
então
A (R1)A (R2) = A (R1R2) ∈
©
M (n)
ª
.
Note que aqui, o produto de grupo de G fica transcrito como produto matricial em M (n).
Um outro exemplo: o conjunto de matrizes unitárias forma um grupo. Assim, podemos
construir uma representação através do mapeamento do grupo G para o grupo de matrizes
unitárias. Esta representação é chamada de representação unitária.
Numa representação matricial de um grupo, podemos considerar o espaço vetorial linear
H no qual estas matrizes atuam. Assim, as matrizes de representação formam um conjunto
de transformações de vetores neste espaço.
∀x ∈ H, ∀R ∈ G,
A (R) : x→ x́ = A (R)x.
Seja H1 um subespaço de H. O subespaço H1 é dito invariante sob o grupo G se
∀x ∈ H1,
x́ = A (R)x ∈ H1, ∀R ∈ G.
A representação é dita irredutível se não existe nenhum subespaço invariante em H. Se
existe pelo menos um subespaço invariante, a representação é dita redutível. Quando uma
representação é redutível, possuindo o subespaço invariante H1, é sempre possível arrumar
as bases da representação de tal modo que as matrizes fiquem diagonais em blocos.
A (R)→
⎛⎝ A(1) (R) 0
0 A(2) (R)
⎞⎠ , ∀R ∈ G.
35
Na expressão acima a submatriz A(1) (R) atua no subespaço H1 e a submatriz A(2) (R) atua
no subespaço H2 = H − H1. Aqui, é fundamental a condição, ∀R ∈ G. Isto é, todas as
matrizes se tornam ao mesmo tempo diagonal em blocos. Para R1, R2 ∈ G, temos
A (R1)A (R2)→
⎛⎝ A(1) (R1)A(1) (R2) 0
0 A(2) (R1)A
(2) (R2)
⎞⎠ ,
portanto, os dois conjuntos de submatrizes,
©
A(1) (R)
ª
e
©
A(2) (R)
ª
formam separadamente
as representações independentes. Quando isto acontece, dizemos que a representação original
{A (R)} é decomposta em duas representações,
©
A(1) (R)
ª
e
©
A(2) (R)
ª
. Se as dimensões dos
espaços H, H1, eH2 são n, n1 e n2, respectivamente, então expressamos esta decomposição
da representação por
{n} = {n1}⊕ {n2} .
Naturalmente temos que ter
n = n1 + n2.
Para uma dada representação matricial de um grupo
{n} : R→ A (R) ,
sempre podemos construir sua representação adjunta por
R→ A† (R) ,
com o produto de grupo
R1R2 → A† (R2)A†(R1) = A† (R1R2) .
Note a ordem do produto matricial (inverso do anteiror). Esta representação é chamada de
representação adjunta e a expressamos como
{n}.
2. Exemplo
Para poder fixar a idéia, vamos considerar um exemplo simples. Consideramos um con-
junto de dois elementos ordenados (a, b). Podemos considerar duas operações: a primeira,
36
de não fazer nada, que denotamos por e, e a segunda, de trocar a ordem dos elementos,
que denotamos por t. O conjunto destas duas operações formam um grupo de dois ele-
mentos, (e, t) , pois podemos verificar que as operações sucessivas se resumem às seguintes
possibilidades:
e · e = e,
e · t = t · e = t,
t · t = e,
que definem a estrutura do grupo. Chamaremos este grupo como grupo de permutação S2.
Para construir as matrizes vamos expressar esta estrutura numa tabela abaixo;³
e t
´
⎛⎝ e
t
⎞⎠⎛⎝ e t
t e
⎞⎠
É interessante notar que vale a seguinte regra de construir matrizes a partir desta tabela
de produto: considere a tabela de multiplicação como uma matriz e coloque um (1) nos
lugares em que aparece um determinado elemento do grupo e zero nos outros. Desta forma,
podemos construir uma matriz para cada elemento do grupo. Estas matrizes formam uma
representação do grupo. Por exemplo: para construir a matriz correspondente ao elemento
e, coloque um (1) nos lugares onde este aparece e, nos outros lugares, coloque zero. Temos
e→
⎛⎝ 1 0
0 1
⎞⎠ . (107)
Analogamente, temos para o elemento t,
t→
⎛⎝ 0 1
1 0
⎞⎠ . (108)
37
Verificamos que as matrizes acima satisfazem as mesmas regras de produto que e e t,⎛⎝ 1 0
0 1
⎞⎠⎛⎝ 1 0
0 1
⎞⎠ =
⎛⎝ 1 0
0 1
⎞⎠ ,
⎛⎝ 1 0
0 1
⎞⎠⎛⎝ 0 1
1 0
⎞⎠ =
⎛⎝ 0 1
1 0
⎞⎠⎛⎝ 1 0
0 1
⎞⎠ =
⎛⎝ 0 1
1 0
⎞⎠ ,
⎛⎝ 0 1
1 0
⎞⎠⎛⎝ 0 1
1 0
⎞⎠ =
⎛⎝ 1 0
0 1
⎞⎠ .
Desta forma, o conjunto das associações Eqs.(107) and (108) forma uma representação do
grupo S2.
Só que esta representação não é irredutível pela seguinte razão: se considerarmos que
estas matrizes são matrizes dos “operadores” e e t num espaço vetorial linear,⎛⎝ 1 0
0 1
⎞⎠ =
⎛⎝ h1|e|1i h1|e|2i
h2|e|1i h2|e|2i
⎞⎠ ,
⎛⎝ 0 1
1 0
⎞⎠ =
⎛⎝ h1|t|1i h1|t|2i
h2|t|1i h2|t|2i
⎞⎠ ,
podemos associar os vetores de base como
|1i→
⎛⎝ 1
0
⎞⎠ ,
|2i→
⎛⎝ 0
1
⎞⎠ .
O espaço vetorial é então formado de vetores de combinação linear,
a|1i+ b|2i→
⎛⎝ a
b
⎞⎠ .
Neste espaço, podemos considerar as seguintes vetores,
|+i = 1√
2
{|1i+ |2i}→ 1√
2
⎛⎝ 1
1
⎞⎠ ,
|−i = 1√
2
{|1i− |2i}→ 1√
2
⎛⎝ 1
−1
⎞⎠ .
38
Vemos facilmente que ⎛⎝ 1 0
0 1
⎞⎠ 1√
2
⎛⎝ 1
1
⎞⎠ = 1√
2
⎛⎝ 1
1
⎞⎠
⎛⎝ 0 1
1 0
⎞⎠ 1√
2
⎛⎝ 1
1
⎞⎠ = 1√
2
⎛⎝ 1
1
⎞⎠ ,
ou seja,
e|+i = |+i,
t|+i = |+i.
Em outras palavras, o subespaço unidmensional formado do vetor |+i é invariante sob o
grupo. Analogamente, temos
e|−i = |−i,
t|−i = −|−i,
e o subespaço unidmensional formado do vetor |−i também é invariante sob o grupo. Já
que
h+|+i = 1,
h−|−i = 1,
h+|−i = 0,
podemos construir a representação na base de {|+i, |−i}. Temos⎛⎝ h+|e|+i h+|e|−i
h−|e|+i h−|e|−i
⎞⎠ =
⎛⎝ 1 0
0 1
⎞⎠ ,
⎛⎝ h+|t|+i h+|t|−i
h−|t|+i h−|t|−i
⎞⎠ =
⎛⎝ 1 0
0 −1
⎞⎠ .
Nesta representação, todos as matrizes do grupo se tornam diagonais. Assim, a representação
original fica decomposta em duas representações: uma,
e→ 1,
t→ 1,
39
e outra,
e→ 1,
t→−1.
Ambas representações satisfazem a estrutura de produto do grupo. Obviamente as duas
representações são irredutíveis.
Exercise 1 Proceda o tratamento análogo para o grupo S3, ou seja, o conjunto de permu-
tações de 3 elementos.
3. Teorema de Rearranjo
Uma das propriedades importantes de um grupo é a propriedade de rearranjo. O teorema
do rearranjo diz:
• Seja G um grupo e R ∈ G. Seja
f = f (R)
uma função de um elemento do grupo (um número atribuído para cada elemento do
grupo, por exemplo). Então, para qualquer f ,X
R∈G
f (R) =
X
R∈G
f (AR) , A ∈ G. (109)
onde a soma se extende sobre todos os elementos do grupo.
O teorema acima significa que a aplicação de um elemento do grupo para todos os elemen-
tos do grupo resulta no mesmo conjunto G, ou seja, é apenas um rearranjo dos elementos.
a. Grupo finito Vamos provar primeiramente para o caso de um grupo finito. Escreve-
mos o número dos elementos do G por n. Sejam
R1, R2 ∈ G,
R1 6= R2. (110)
Então, podemos provar que
AR1 6= AR2, ∀A ∈ G (111)
40
pois, devido a existência do elemento inverso A−1, se supormos
AR1 = AR2,
então, multiplicando A−1 temos
A−1AR1 = A
−1AR2,
e
R1 = R2, (112)
o que contradiz a Eq.(110) e, portanto, prova a Eq.(111). Isto quer dizer que, quando os R 0s
varrem todos os elementos do G (n termos), os AR 0s também varrem n distintos elementos
do G. Mas existem apenas n elementos no grupo G. Então, concluímos que os AR0s varrem
todos os elementos do G, um de cada vez. Assim,X
R
f (R) =
X
R
f (AR) .
b. Grupo Contínuo, Densidade dos Elementos No caso de grupo contínuo, devemos
definir mais precisamente o que significa a soma sobre os elementos do grupo. Em geral,
para um grupo contínuo, podemos introduzir um (conjunto de) parâmetro(s) para especificar
os elementos do grupo, como no caso de rotação. Uma rotação R (ou seja, um elemento
do grupo de rotação) é especificada com 3 parâmetros, por exemplo, o vetor de rotação
ω na Eq.(??) ou os ângulos de Euler, α, β e γ. De modo geral, se {p1, p2, . . . , pr} são os
parâmetros contínuos do grupo, um elemento R é dado por
R = R (p1, p2, . . . , pr) ,
e a soma sobre os elementos do grupo deve ser uma integral sobre estes parâmetros,X
R
→
Z
dR =
Z Y
i
dpi g (p1, p2, . . . , pr) ,
onde g (p1, p2, . . . , pr) é a densidade dos elementos do grupo na visinhança do ponto
R (p1, p2, . . . , pr). A função g (p1, p2, . . . , pr) depende da parametrização do grupo. O teo-
rema de rearranjo fica Z
dR f (R) =
Z
dR f (AR) , (113)
41
ou, em termos dos parâmetros do grupo,Z Y
i
dpig (p1, . . . , pr) f (R (p1, . . . , pr)) =
Z Y
i
dpig (p1, . . . , pr) f (A (q1, . . . , qr)R (p1, . . . , pr)) .
(114)
A densidade g(p1, p2, . . . , pr) deve ser escolhida para que valha a Eq.(113). Para en-
contrar a forma de g, podemos pensar da seguinte forma: o argumento da função f, R0 =
A (q1, . . . , qr)R (p1, . . . , pr) ,do lado direito da Eq.(114) é um elemento do grupo. Escrevendo
R0 = R (p01, p
0
2, . . . , p
0
r) ,
podemos considerar o produto AR como uma transformação das variáveis,
(p1, . . . , pr)→ (p01, p02, . . . , p0r) ,
ou seja,
p01 = p
0
1 (p1, . . . , pr) ,
...
p0r = p
0
r (p1, . . . , pr) .
Introduzindo esta mudança de variáveis no lado direito da Eq.(114) temos,Z Y
i
dpig (p1, . . . , pr) f (R
0 (p01, . . . , p
0
r))
=
Z Y
i
dp0i
∂ (p1, . . . , pr)
∂ (p01, . . . , p
0
r)
g (p1, . . . , pr) f (R
0 (p01, . . . , p
0
r)) , (115)
onde
∂ (p1, . . . , pr)
∂ (p01, . . . , p
0
r)
é a Jacobiana da transformação. Assim, devemos terZ Y
i
dpig (p1, . . . , pr) f (R (p1, . . . , pr))
=
Z Y
i
dp0i
∂ (p1, . . . , pr)
∂ (p01, . . . , p
0
r)
g (p1, . . . , pr) f (R
0 (p01, . . . , p
0
r)) . (116)
Para que a Eq.(116) seja uma identidade, devemos escolher
∂ (p1, . . . , pr)
∂ (p01, . . . , p
0
r)
g (p1, . . . , pr) = g (p
0
1, . . . , p
0
r) . (117)
42
Uma solução para isto é
g (p1, . . . , pr) =
∂ (x01, . . . , x
0
r)
∂ (p1, . . . , pr)
=
∙
∂ (p1, . . . , pr)
∂ (x01, . . . , x
0
r)
¸−1
,
onde (x01, . . . , x
0
r) é algum ponto fixo no espaço de parâmetros, que podemos escolher arbi-
trariamente. Usualmente escolhemos o ponto correspondente ao elemento identidade, I.
No caso do grupo de rotação com parametrização de ângulos de Euler, podemos calcular
g (α, β, γ) da seguinte forma: já que
A (α, β, γ) =
⎛⎜⎜⎜⎝
− sinα sin γ + cosα cosβ cos γ cos γ sinα+ cosα cosβ sin γ − cosα sinβ
− cosα sin γ − cosβ cos γ sinα cosα cos γ − cosβ sinα sin γ sinα sinβ
cos γ sinβ sinβ sin γ cos β
⎞⎟⎟⎟⎠ ,
temos
A (α+ δα, β + δβ, γ + δγ) = A+
∂A
∂α
δα+
∂A
∂β
δβ +
∂A
∂γ
δγ,
onde
∂A
∂α
=
⎛⎜⎜⎜⎝
− cosα sin γ − cos β cos γ sinα cosα cos γ − cosβ sinα sin γ sinα sinβ
sinα sin γ − cosα cosβ cos γ − cos γ sinα− cosα cosβ sin γ cosαsinβ
0 0 0
⎞⎟⎟⎟⎠ ,
∂A
∂β
=
⎛⎜⎜⎜⎝
− cosα sinβ cos γ − cosα sinβ sin γ − cosα cosβ
sinβ cos γ sinα sinβ sinα sin γ sinα cos β
cos γ cos β cosβ sin γ − sinβ
⎞⎟⎟⎟⎠ ,
∂A
∂β
=
⎛⎜⎜⎜⎝
− cos γ sinα− cosα cos β sin γ − sinα sin γ + cosα cosβ cos γ 0
− cosα cos γ + cosβ sinα sin γ − cosα sin γ − cosβ cos γ sinα 0
− sinβ sin γ cos γ sinβ 0
⎞⎟⎟⎟⎠ .
Por outro lado, seja E o elemento próximo da identidade I e, neste caso, podemos utilizar
as coordenadas Cartesianas e escrever[4]
E ' 1 +
⎛⎜⎜⎜⎝
0 −δz δy
δz 0 −δx
−δy δx 0
⎞⎟⎟⎟⎠
43
onde ⎛⎜⎜⎜⎝
δx
δy
δz
⎞⎟⎟⎟⎠ ≡ δr
são os parâmetros infinitesimais da rotação. A densidade de rotações neste sistema de
coordenadas é proporcional ao inverso do elemento de volume
dV = δxδyδz.
Consideramos a transformação de variáveis causada pelo elemento do grupo A,
Á = A (α, β, γ)E (δx, δy, δz) ,
que é um elemento do grupo. Portanto, podemos escrever
A0 = A (α0, β0, γ0) .
Sabemos que a variação (α, β, γ)→ (α0, β0, γ0) deve ser infinitesimal. Assim, o elemento do
grupo A (α, β, γ) transforma o elemento E (δx, δy, δz) em
A (α+ δα, β + δβ, γ + δγ) = A (α, β, γ)E (δx, δy, δz) ,
ou seja
∂A
∂α
δα+
∂A
∂β
δβ +
∂A
∂γ
δγ = A
⎛⎜⎜⎜⎝
0 −δz δy
δz 0 −δx
−δy δx 0
⎞⎟⎟⎟⎠ . (118)
Desta equação, podemos obter explicitamente δα, δβ, e δγ em função de δx, δy e δz.
Exercise 2 A Eq.(118) é uma equação matricial (3× 3) e, portanto, constitui 9 equações.
No entanto, para obter δα, δβ, e δγ em função de δx, δy e δz, precisaríamos de apenas 3
equações. Qual é o papel do resto das equações ?
44
Exercise 3 Definindo
Σx =
⎛⎜⎜⎜⎝
0 0 0
0 0 −1
0 1 0
⎞⎟⎟⎟⎠ , (119)
Σy =
⎛⎜⎜⎜⎝
0 0 1
0 0 0
−1 0 0
⎞⎟⎟⎟⎠ , (120)
Σz =
⎛⎜⎜⎜⎝
0 −1 0
1 0 0
0 0 0
⎞⎟⎟⎟⎠ . (121)
mostre que
1
2
Tr
∙
ΣxA
T
µ
∂A
∂α
δα+
∂A
∂β
δβ +
∂A
∂γ
δγ
¶¸
= δx, (122)
1
2
Tr
∙
ΣyA
T
µ
∂A
∂α
δα+
∂A
∂β
δβ +
∂A
∂γ
δγ
¶¸
= δy, (123)
1
2
Tr
∙
ΣzA
T
µ
∂A
∂α
δα+
∂A
∂β
δβ +
∂A
∂γ
δγ
¶¸
= δz. (124)
Podemos verificar facilmente que
1
2
AT
∂A
∂α
=
⎛⎜⎜⎜⎝
0 cosβ − sinβ sin γ
− cos β 0 cos γ sinβ
sinβ sin γ − cos γ sinβ 0
⎞⎟⎟⎟⎠
1
2
AT
∂A
∂β
=
⎛⎜⎜⎜⎝
0 0 − cos γ
0 0 − sin γ
cos γ sin γ 0
⎞⎟⎟⎟⎠
1
2
AT
∂A
∂γ
=
⎛⎜⎜⎜⎝
0 1 0
−1 0 0
0 0 0
⎞⎟⎟⎟⎠
e temos ⎛⎜⎜⎜⎝
δx
δy
δy
⎞⎟⎟⎟⎠ =
⎛⎜⎜⎜⎝
cos γ sinβ − sin γ 0
sinβ sin γ cos γ 0
cosβ 0 1
⎞⎟⎟⎟⎠
⎛⎜⎜⎜⎝
δα
δβ
δγ
⎞⎟⎟⎟⎠ . (125)
45
Exercise 4 Deduza a Eq. (125). Usando deste resultado, calcule a densidade de elementos
de rotação em coordenadas de ângulos de Euler,
g (α, β, γ) =
∙
∂ (α, β, γ)
∂ (x, y, z)
¸−1
.
Do exercício acima, verificamos que a soma sobre todos os elementos do grupo de rotação
pode ser escrita em termos de ângulo de Euler comoX
R
f(R)→
Z 2π
0
dα
Z π
0
dβ sinβ
Z 2π
0
dγ f (R (α, β, γ)) .
B. Teorema de Grande Ortogonalidade
Seja R um elemento de um grupo G. Sejam A(j) (R) e A(k) (R) as matrizes de duas
representações irredutíveis do grupo, onde os superscriptos (j) e (k) representam os índices
da representação. O teorema de grande ortogonalidade dizX
R∈G
©
A(j) (R)
ª
mn
©
A(k) (R)
ª∗
µν
∝ δjkδmµδnν. (126)
Antes da prova, vamos provar alguns lemas necessários para isto. O primeiro é referido como
o Lema de Schur e é bastante importante e utilizado em vários lugares.
1. Lema 1 (Schur)
Numa representação irredutível de um grupo, uma matriz que comuta com todas as outras
da representação deve ser proporcional a matriz de identidade, I.
PROVA:
É possível provar que qualquer representação matricial não singular de um grupo pode
ser convertida para uma representação unitária através de uma transformação similar. Desta
forma, daqui por diante consideramos sempre apenas representações unitárias, exceto ex-
plicitamente mencionado o contrário. Ou seja, sempre supomos que as matrizes de repre-
sentações são unitárias. Agora, já que qualquer matriz M pode ser decomposta como uma
soma de duas matrizes hermitianas,
M =
1
2
¡
M +M †
¢
+
i
2
1
i
¡
M −M†
¢
= H1 + iH2,
46
é suficiente provar este Lema para o caso de uma matriz hermitiana. Seja H uma matriz
hermitiana que comuta com qualquer matriz da representação irredutível do grupo:
A (R)H −HA (R) = 0, ∀R ∈ G. (127)
Sendo H a matriz hermitiana, podemos diagonalizá-la. Escrevemos
H|ii = λi|ii, i = 1, .., n
onde |ii é autovetor, λi é o autovalor e n a dimensão da representação. Tomando os elementos
de matriz da Eq.(127) entre dois autoestados |ii e |ji de H, temos
hi|A (R) |ji (λj − λi) = 0, ∀R ∈ G. (128)
Esta equação mostra que, se
λj 6= λi,
então necessariamente temos que ter
hi|A (R) |ji = 0, ∀R ∈ G.
Isto contradiz a condição de que a representação seja irredutível. Para ver mais claramente,
vamos considerar a situação em que
λ1 = λ2 = · · · = λn−1,
mas λn não é igual a outros
λn 6= λi, i = 1, 2, .., n− 1.
Então, temos que ter
hi|A (R) |ni = 0, i = 1, ..., n− 1, ∀R ∈ G.
Consideramos um vetor geral no espaço da representação,
|ψi =
X
i
Ci|ii.
Este vetor se transforma, sob o grupo, como
|ψi R→ |ψi0 =
X
i
CiA (R) |ii
=
X
i
X
j
Ci|ji hj|A (R) |ii
=
n−1X
i
n−1X
j
Ci|ji hj|A (R) |ii+ Cn|ni hn|A (R) |ni.
47
Isto implica que, se decompormos o espaço vetorial da base da representação em dois sube-
spaços,
{|i = 1i, · · · , |i = 1i}⊕ {|ni} ,
estes subespaços são subespaços invariantes sob o grupo (não se misturam sob o grupo).
Mas isto contradiz a condição de que a representação seja irredutível. Assim,
λn = λi, i = 1, ..n− 1.
ou seja, todos autovalores tem que ser idênticos. Assim,
H = λ
⎛⎜⎜⎜⎜⎜⎜⎝
1 0 · · · 0
0 1 0
...
0 0
. . . 0
0 0 1
⎞⎟⎟⎟⎟⎟⎟⎠
= λI.
No caso de um grupo contínuo, tal como o grupo de rotação, para valer o lema de Schur,
basta a matriz H comutar com todas as matrizes dos geradores do grupo. Isto porque, por
exemplo, qualquer elemento do grupo de rotação pode ser escrito como
A (R) = e−iω·L,
e, se uma matriz H comuta com todas as matrizes de L = {Lx, Ly, Lz},
[H,Li] = 0,
então
[H,A (R)] = 0, ∀R ∈ G.
A situação é análoga para qualquer grupo contínuo. Um exemplo do Lema de Schur que já
vimos é o módulo quadrado de momento angular, J2. Sabemos que£
L2, Li
¤
= 0, i = x, y, z.
Assim, numa representação irredutível, devemos ter
L2 = λ
⎛⎜⎜⎜⎜⎜⎜⎝
1 0 · · · 0
0 1 0
...
0 0
. . . 0
0 0 1
⎞⎟⎟⎟⎟⎟⎟⎠ .
48
De fato, vimos que para a representação L(3),
¡
L(3)
¢2 → 3
⎛⎜⎜⎜⎝
1 0 0
0 1 0
0 0 1
⎞⎟⎟⎟⎠ .
Uma outra aplicação importante do Lema de Schur na Mecânica Quântica é que se o
Hamiltoniano tem a simetria esférica, isto é,
[H, Ji] = 0, i = x, y, z
então, o autovalor da energia E é uma função de momento angular total j, mas não depende
dos valores da componente do momento angular, m.
2. Lema 2
Sejam ©
A(1) (R)
ª
,
©
A(2) (R)
ª
duas representações irredutíveis do grupo G com dimensão n1 e n2, respectivamente;
dim
©
A(1) (R)
ª
= n1,
dim
©
A(2) (R)
ª
= n2.
Se uma matriz M retangular (n1 × n2) satisfaz
A(1) (R)M =MA(2) (R) (129)
para todos os elementos do grupo R ∈ G, então occorem apenas os seguintes casos:
• Para n1 6= n2, então,
M = 0,
• Para n1 = n2,
1. ou
M = 0,
2. ou as representações
©
A(1) (R)
ª
e
©
A(2) (R)
ª
são equivalentes.
49
PROVA:
Da matriz retangular M , podemos contruir a matriz quadrada (n1 × n1) hermitiana,
H =MM †.
Da Eq.(129), temos
M†A(1) (R)† = A(2) (R)†M †,
ou, usando a unitariedade das representações, temos
M †A(1)
¡
R−1
¢
= A(2)
¡
R−1
¢
M†.
Multiplicando M do lado esquerdo, temos
MM †A(1)
¡
R−1
¢
=MA(2)
¡
R−1
¢
M †
= A(1)
¡
R−1
¢
MM †.
Assim,
HA(1)
¡
R−1
¢
= A(1)
¡
R−1
¢
H, ∀R ∈ G
e, pelo Lema de Schur, temos
H = λ I.
Vamos considerar o caso b) n1 = n2. Neste caso, M é uma matriz quadrada. Assim
det (H) = |det (M)|2 = (λ)n1 .
Se λ 6= 0, então
det (M) 6= 0,
e portanto existe M−1. Assim
M−1A(1) (R)M = A(2) (R) ,
e as duas representações são equivalentes. Por outro lado, se λ = 0, então
MM † = 0, (130)
o que implica em
M = 0. (131)
Assim, o caso b) ficou provado.
50
Exercise 5 Prove a Eq.(131) se vale a Eq.(130).
Agora vamos considerar o caso a). Sem perder a generalidade, vamos supor n1 > n2.Podemos introduzir uma matriz quadrada (n1 × n1), acrecentando as linhas que contém
elementos zeros à matriz M ,
N =
↑
n1
↓
←− n2 −→ ←− n1 − n2 −→⎛⎜⎜⎜⎝
⎛⎜⎜⎜⎝ M
⎞⎟⎟⎟⎠
⎛⎜⎜⎜⎝
0 · · · 0
...
. . .
...
0 · · · 0
⎞⎟⎟⎟⎠
⎞⎟⎟⎟⎠
Podemos ver que
NN † =MM † (132)
e, portanto,
NN † = H,
onde H é a mesma matriz anterior para a qual vale o Lema de Schur. Consequentemente,
temos
NN † = λ I.
Mas, obviamente,
det
¡
NN †
¢
= 0, (133)
de onde concluímos que
λ = 0.
Assim, de novo, temos
MM † = 0. (134)
Exercise 6 Prove a Eq.(133).
Podemos, com isto, provar que
M = 0,
o que conclui a prova.
51
3. Prova do Teorema da Grande Ortogonalidade
Tendo provado os dois lemas acima, agora podemos provar o teorema de grande ortog-
onalidade (126). Primeiramente, vamos considerar duas representações inequivalentes[5].
Vamos introduzir uma matriz
H =
X
R0
A(j) (R0) X A(k)
¡
R0 −1
¢
,
onde X é uma matriz (nj × nk) completamente arbitrária. Independentemente de X,
podemos provar que
A(j) (R)H = HA(k) (R) . (135)
De fato,
A(j) (R)H =
X
R0
A(j) (R)A(j) (R0) X A(k)
¡
R0 −1
¢
=
X
R0
A(j) (RR0) X A(k)
¡
R0 −1R−1R
¢
=
X
R0
A(j) (RR0) X A(k)
³
(RR0)
−1
R
´
=
X
R0
A(j) (RR0) X A(k)
³
(RR0)
−1
´
A(k) (R)
= HA(k) (R) ,
onde utilizamos a propriedade da representação
A (RR0) = A (R)A (R0)
e, da penúltima linha para a última linha, o teorema de rearranjo,X
R0
A(j) (RR0) X A(k)
³
(RR0)
−1
´
=
X
R0
A(j) (R0) X A(k)
³
(R0)
−1
´
.
Do lema-2 que provamos, a Eq.(135) mostra que
H = 0,
ou seja, em termos de elementos de matriz,
Hmν =
X
R0
X
α
X
β
©
A(j) (R0)
ª
mα
Xαβ
©
A(k)
¡
R0 −1
¢ª
βν
= 0,
52
se j 6= k. Já que X é arbitrária, podemos escolher,
Xαβ = δαnδβµ,
para qualquer n e µ dados. Então,X
R0
©
A(j) (R0)
ª
mn
©
A(k)
¡
R 0 −1
¢ª
µν
= 0
para j 6= k. Assim, o primeiro fator δjk da Eq.(126) fica demonstrado.X
R0
©
A(j) (R0)
ª
mn
©
A(k)
¡
R 0 −1
¢ª
µν
∝ δjk.
Agora vamos considerar que j = k. Neste caso,
H =
X
R0
A(j) (R0) X A(j)
³
(R0)
−1
´
comuta com todas as matrizes da representação,
A(j) (R)H = HA(j) (R) , ∀R ∈ G,
e, pelo Lema de Schur, temos
H = λ (X) I,
onde a constante λ depende de X. Novamente escolhendo
Xαβ = δαnδβµ,
temos
Hmν =
X
R0
©
A(j) (R0)
ª
mn
©
A(j)
¡
R0 −1
¢ª
µν
= λnµδmν,
onde explicitamos a dependência de λ emX em termos dos dois índices n e µ. Se calculamos
o traço de H, temos
λnµnj =
X
m
X
R0
©
A(j) (R0)
ª
mn
©
A(j)
¡
R0 −1
¢ª
µm
=
X
R0
"X
m
©
A(j)
¡
R0 −1
¢ª
µm
©
A(j) (R0)
ª
mn
#
=
X
R0
£©
A(j)
¡
R0 −1
¢
A(j) (R0)
ª¤
µn
=
X
R0
[1]µm =
X
R
1 δµn.
53
Assim, X
R0
©
A(j) (R0)
ª
mn
©
A(j)
¡
R0 −1
¢ª
µν
=
1
nj
X
R
1 δmνδµn.
Utilizando a unitariedade da representação, temosX
R0
©
A(j) (R0)
ª
mn
©
A(j) (R0 )
ª∗
µν
=
1
nj
X
R
1 δmµδnν .
Aqui, o número X
R
1
é o número total dos elementos do grupo G no caso de grupos finitos. Para grupos contínuos,
deve ser calculado como integral sobre os parâmetros,X
R
1→
Z
dR
=
Z
· · ·
Z
dnp g (p1, p2, . . . , pn) .
No caso de grupo de rotação com ângulos de Euler, temosZ
dR =
Z 2π
0
dα
Z π
0
sinβdβ
Z 2π
0
dγ
= 8π2.
[1] det
¯̄
ATA
¯̄
= 1, temos det|A|2 = 1.
[2] Note que este fórmula vale, mesmo x seja uma matriz. Alias, para uma matriz A, esta equação
pode ser vista como a definição de eA, i.e.,
eA ≡ 1 +A+ 1
2!
A2 +
1
3!
A3 + · · · .
[3] Na verdade,
I ·A = A · I
sai apenas pelo requerimento
I ·A = A,
e vice versa.
[4] Ver a apostila, Mecânica Clássica II.
[5] Existem duas situações em que duas representações são inequivalentes. 1) j 6= k , 2) j = k, mas
não existe transformação similar entre as duas representações.
54

Continue navegando