Buscar

Álgebra Tensorial

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 21 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 21 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 21 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

6
Caṕıtulo 1
Álgebra tensorial
1.1 Álgebra linear
Referências: [8, 16, 4, 5, 11, 7, 10, 14, 6, 21]
Obviamente, o conceito preciso e puro de vetor é aquele fornecido pela álgebra linear; em
particular, é óbvio que, a rigor, um vetor: (i) não é “uma grandeza caracterizada por módulo,
direção e sentido”, e (ii) não é “uma tripla (ou n-upla) numérica (real, complexa, etc)”. De fato,
num espaço vetorial puro (bruto) não existe a noção de módulo de um vetor, assim como a tripla
numérica define tão somente as componentes do vetor numa dada base1. Isso posto, é claro
que devemos, imediatamente, reconhecer o papel fundamentaĺıssimo e talvez o mais importante,
do ponto de vista heuŕıstico, da associação primitiva de vetores com deslocamentos no espaço
f́ısico; em geral, aliás, o surgimento de novos conceitos e teorias vem, a partir da prática, envolto
numa série de superestruturas supérfluas, que, só com o desenvolvimento lógico posterior, fica
evidenciado.
No caso particular dos deslocamentos, o que se faz necessário é considerar o espaço f́ısico
como um espaço afim, no sentido matemático preciso da palavra2. Aqui, só queremos lembrar
que, com essa estrutura, é que podemos dar sentido à noção de que o espaço f́ısico, pelo menos
na acepção da geometria euclidiana, não possui origem privilegiada; o conceito mais primitivo é
o de ponto, a partir do qual se constrói o de deslocamento e, como conseqüência, o de vetor3.
Dito de outra forma, num espaço vetorial puro, não existe a noção de ponto.
1Eu, Mauŕıcio Ortiz Calvão, sou “representado”, no Brasil, por uma carteira de identidade com um certo
número de registro geral, ao passo que, nos Estados Unidos, possuo uma carteira com um número distinto; será
que, por isso, eu, Mauŕıcio Ortiz Calvão, sou duas pessoas?
2Gostaŕıamos de remeter, aqui, o leitor para o livro de Bamberg & Sternberg, [4], em especial as duas primeiras
seções do primeiro caṕıtulo, onde os autores constroem, explicitamente, a idéia de vetor a partir dos pontos de
um espaço afim. Tal obra é extremamente didática e de agradável leitura.
3Convém refletir sobre três conceitos de vetor tradicionalmente introduzidos na literatura: livre, deslizante e
ligado; pense na noção de equipolência na geometria euclidiana [16].
7
8 CAPÍTULO 1. ÁLGEBRA TENSORIAL
1.1.1 Espaços vetoriais
1.1.1.1 Axiomas
Um espaço vetorial (ou linear) T (sobre K) é um conjunto {T, +, ·,K}, onde T é um conjunto
não vazio de elementos chamados vetores, +, · são duas leis de composição:
+ : T × T → T (adição)
· : K × T → T (multiplicação por escalar)
e K := (K,⊕,¯) é um corpo, cujos elementos do conjunto de base, K, são chamados, nesse
contexto, de escalares (por exemplo, os números reais, racionais, ou complexos). Outrossim, tais
composições devem satisfazer, para quaisquer u,v,w ∈ T e a, b ∈ K, os seguintes axiomas4:
1. v + w = w + v (comutatividade da adição)
2. u + (v + w) = (u + v) + w (associatividade da adição)
3. ∃ 0 |v + 0 = v (existência de elemento neutro para adição)
4. ∃ −v ∈ T |v + (−v) = 0, ∀ v (existência de elementos inversos para adição)
5. a · (v + w) = a · v + a ·w
6. (a⊕ b) · v = a · v + b · v
7. a · (b · v) = (a¯ b) · v
8. 1·v = v.
Os axiomas de (1) a (4) tornam {T, +} um grupo abeliano (comutativo). Os axiomas (2) e (7),
com o abuso de notação mencionado na nota de rodapé 4, permitem a eliminação de parênteses
em certas expressões; ou seja, u+v+w=(u+v)+w e abv = (ab)v.
Exerćıcio 1.1 Prove as seguintes conseqüências imediatas dos axiomas:
1. o elemento neutro, 0, para adição é único.
2. para todo v ∈ T , 0v = 0.
3. os elementos inversos para adição são únicos.
4. se a ∈ K,v ∈ T , e av = 0, então ou a = 0 ou v = 0.
Exerćıcio 1.2 Seja T := Rd :=
d vezes︷ ︸︸ ︷
R× · · · ×R, onde R é o conjunto dos números reais. Defina-
mos
(u1, . . . , ud) + (v1, . . . , vd) = (u1 + v1, . . . , ud + vd),
a · (v1, . . . , vd) = (av1, . . . , avd),∀a ∈ R.
Prove que (Rd, +, ·) é, então, um espaço vetorial (sobre o corpo dos reais).
4Infelizmente, por abuso de notação, costuma-se denotar ambas as operações · e ¯ simplesmente por justa-
posição, assim como as operações + e ⊕ pelo mesmo śımbolo +. Tome cuidado!
1.1. ÁLGEBRA LINEAR 9
Exerćıcio 1.3 Seja R+ o conjunto de números reais positivos. Defina a “soma” de dois elemen-
tos de R+ como sendo o produto no sentido usual (p + q := pq), e a multiplicação por escalares
de R como sendo
· : R×R+
(r, p) 7→ r · p := pr.
Com tais operações, mostre que (R+, +, ·) é um espaço vetorial sobre R.
Se U e V são dois espaços vetoriais sobre o mesmo corpo de escalares, então constrúımos um
novo espaço vetorial, dito a soma direta de U e V e denotado por U + V, da seguinte forma: o
novo conjunto de vetores é U × V , as novas adição e multiplicação por escalar são definidas por
(com um evidente abuso de notação)
(u,v) + (u′,v′) := (u + u′,v + v′)
a · (u,v) := (a · u, a · v).
Exerćıcio 1.4 Mostre que, no exerćıcio 1.2 acima, (Rd, +, ·) é a d-ésima soma direta de R
consigo mesmo.
1.1.1.2 Convenções de domı́nio, de soma e de núcleo-́ındice
Seguindo [8], é mais simples começar com um exemplo de equação matricial:
u = Av.
Aqui v é uma matriz (“vetor”) coluna, de ordem N × 1, digamos; A é uma matriz de ordem
M × N ; e u é, pois, uma matriz (“vetor”) coluna, de ordem M × 1. Esta equação matricial
nos diz como cada elemento individual de u é determinado a partir dos elementos individuais
de v via A. Para escrevermos explicitamente tal expressão, introduz-se uma notação para os
elementos (“componentes”) de u e v, assim como os elementos de A: digamos que va represente
o a-ésimo elemento de u (a = 1, 2, . . . , N), uα o α-ésimo elemento de v (α = 1, 2, . . . , M), e
Aαa o elemento da α-ésima linha e a-ésima coluna de A. A equação matricial acima é, então,
equivalente às M equações
uα =
N∑
α=1
Aαav
a.
A convenção de domı́nio surge da observação de que não é necessário enunciar, em cada ocorrência
de um conjunto de equações como essa, que existem M equações envolvidas e que a validade de
cada uma delas está sendo afirmada. Isso pode ser percebido a partir da presença do ı́ndice α
em cada membro da equação: pois α é um ı́ndice livre, diferentemente de a, que está sujeito a
um sinal de somatório. Por outro lado, a convenção de soma segue da observação de que, sempre
que uma soma ocorre em uma expressão desse tipo, é uma soma sobre um ı́ndice (no caso a) que
ocorre precisamente duas vezes na expressão a ser somada. Assim, uma soma ocorre somente
quando há um ı́ndice repetido; e quando um ı́ndice está repetido, uma soma é quase sempre
impĺıcita. Sob tais circunstâncias, o śımbolo de somatório
∑N
a=1 não desempenha nenhum papel
10 CAPÍTULO 1. ÁLGEBRA TENSORIAL
útil, já que a soma pode ser reconhecida pela repetição de um ı́ndice; o śımbolo pode, pois, ser
omitido.
Assim, a equação de “componente” ou elemento acima é escrita, quando as convenções de
domı́nio e soma estão vigentes, na forma simples
uα = Aαav
a.
A presença do ı́ndice repetido a no membro direito implica soma sobre seu domı́nio permitido de
valores 1, 2, . . . , N em virtude da convenção de soma; ao passo que a presença do ı́ndice livre α,
em ambos os membros da equação, implica igualdade para cada valor 1, 2, . . . , M que ele pode
assumir, em virtude da convenção de domı́nio.
Em geral, as convenções de domı́nio e de soma funcionam da seguinte maneira. Se, numa
equação envolvendo grandezas indexadas, existem ı́ndice livres (não repetidos), então a equação
vale para todos os valores nos domı́nios de todos os ı́ndices livres, tendo tais domı́nios sido
anteriormente declarados: isso é a convenção de domı́nio. Onde, numa expressão envolvendo
grandezas indexadas, qualquer ı́ndice estiver repetido, soma sobre todos os valores posśıveis no
domı́niodaquele ı́ndice é implicada, o domı́nio, de novo, tendo sido previamente declarado: isso
é a convenção de soma.
O funcionamento das convenções de domı́nio e de soma na prática é relativamente direto.
Uma ou duas regras–freqüentemente melhor empregadas para verificação interativa da correção
de um cálculo–devem ser mencionadas. O número de ı́ndices livres nos dois membros de uma
equação deve ser o mesmo; e, naturalmente, cada ı́ndice livre diferente em uma expressão deve
ser representado por uma letra diferente. Índices repetidos em uma expressão só podem ocorrer
aos pares. A substituição de uma letra representando um ı́ndice por outra letra é permitida,
contanto que todas as ocorrências da letra sejam alteradas no mesmo tempo e da mesma maneira,
e contanto que fique subentendido que a nova letra tem o mesmo domı́nio de valores que aquela
que ela substitui. A prática mais conveniente a se adotar, onde ı́ndices com diferentes domı́nios
estiverem envolvidos em um único cálculo, é reservar uma pequena seção de um particular
alfabeto para representar os ı́ndices com um dado domı́nio. Assim, no caso discutido acima,
poder-se-ia tomar a, b, c para variarem e se somarem de 1 a N , e α, β, γ para variarem e se
somarem de 1 a M ; então, uβ = Aβcv
c significaria exatamente o mesmo que uα = Aαav
a.
Dois pontos devem ser enfatizados sobre a maneira em que tais convenções são usadas nessas
notas. Em primeiro lugar, nós arranjamos as coisas de modo que o par de ı́ndices repetidos
implicando uma soma ocorrerá (quase sempre) com um ı́ndice na posição superior e outro na
inferior. Isso já está aparente no modo em que escolhemos escrever a equação matricial acima,
quando algo do tipo uα = Aαava poderia ser esperado. O ponto está relacionado à importância
de distinguir entre um espaço vetorial e o seu dual (vetores coluna versus vetores linha), que
será explorado, com detalhes, mais a frente.
O segundo ponto a prestar atenção é que uma expressão como (xc) é freqüentemente usada
para representar (x1, x2, . . . , xn). E mais, o valor de uma função de n variáveis, digamos f , em
(xc), será denotado por f(xc). Nesta situação, o ı́ndice c não está sujeito nem à convenção de
soma nem à de domı́nio. Em tal contexto, (xc) deve geralmente ser pensado como o conjunto
das coordenadas de um ponto em algum espaço.
1.1. ÁLGEBRA LINEAR 11
1.1.1.3 Independência linear e bases
Seja T um espaço vetorial. Um conjunto finito de vetores, digamos {v1, . . . ,vr}, é dito linear-
mente dependente se existirem escalares a1, . . . , ar, nem todos zero, tais que aivi = 0 (aqui, fica
subentendido, pelas convenções de domı́nio e soma, que trata-se de
∑r
i=1 a
ivi = 0.). Um con-
junto infinito é linearmente dependente se algum subconjunto finito for linearmente dependente.
Um conjunto de vetores é linearmente independente se ele não for linearmente dependente.
Uma soma da forma aivi, onde vi ∈ T e ai ∈ K, é chamada uma combinação linear de
v1, . . . ,vr.
Como conseqüências simples, notamos que dois vetores são linearmente dependentes se um
é múltiplo do outro; não podemos dizer que cada um é múltiplo do outro, já que um deles pode
ser 0. Se um conjunto S inclui 0, então ele é linearmente dependente a despeito de quaisquer
outros elementos.
Exerćıcio 1.5 Prove essas duas últimas afirmações.
O número máximo de vetores linearmente independentes em um espaço vetorial T é chamado
de dimensão de T e denota-se por dimT. Naturalmente, pode não haver um máximo finito, em
cujo caso escrevemos dimT = ∞; isso significa que, para todo n positivo, há um subconjunto
linearmente independente de T tendo n elementos.
Uma base de T é um subconjunto S de T linearmente independente e tal que todo vetor é
uma combinação linear de elementos de S.5
Exerćıcio 1.6 Prove que, se S é uma base, então a combinação linear que expressa v ∈ T em
termos dos elementos de S é única, exceto pela ordem das “parcelas”.
Se S é uma base de T, então, para cada v ∈ T , os escalares uńıvocos que ocorrem como
coeficientes na combinação linear de elementos de S que expressam v são chamados de compo-
nentes de v com respeito à base S. Consideramos que uma componente de v é atribúıda a cada
elemento de S; no entanto, somente um número finito de componentes serão não zero6.
Exerćıcio 1.7 Prove que todas as bases têm o mesmo número de elementos, a dimensão de T.
1.1.1.4 Transformações de base; vetores contravariantes (ou primais)
Seja {e1, . . . , eN} (ou, simplesmente, {eα}) uma base de um espaço vetorial N -dimensional, T,
de modo que qualquer v ∈ T pode ser escito como v = valphaeα, para convenientes escalares
vα. Os escalares vα são as componentes de v com respeito à base {eα}.
Queremos agora ver como as componentes de um vetor se transformam quando uma nova
base é introduzida. Seja {eα′} uma nova base de T, e sejam vα′ as componentes de v com
respeito a essa nova base. Então
v = vα
′
eα′ . (1.1)
5Mencionamos, sem prova, que uma base sempre existe. Isso é óbvio se dimT for finita, mas, caso contrário,
exige indução transfinita.
6Em espaços vetorias puros, somente combinações lineares com um número finito de termos são definidas, já
que nenhum significado é atribúıdo a limites ou convergência. Espaços vetorias nos quais uma noção de limite
está definida e que satisfazem certas relações adicionais são chamados espaços vetoriais topológicos. Quando esta
estrutura adicional é derivada de um produto interno positivo definido, o espaço é dito um espaço de Hilbert.
12 CAPÍTULO 1. ÁLGEBRA TENSORIAL
Os novos vetores de base podem, como quaisquer vetores, ser expressos como uma combinação
linear dos antigos:
eα′ = X
β
α′eβ, (1.2)
e, inversamente, os antigos como uma combinação linear dos novos:
eγ = X
α′
γ eα′ . (1.3)
(Embora estejamos usando a mesma letra de núcleo X, os N2 números Xβα′ são diferentes dos N
2
números Xγ
′
β , as posições das plicas indicando a diferença.) Substituindo, agora, eα′ , de (1.2),
em 1.3, vem
eγ = X
α′
γ X
β
α′eβ. (1.4)
Devido à independência linear de {eβ}, temos pois
Xα
′
γ X
β
α′ = δ
β
γ , (1.5)
onde δβγ é o delta de Kronecker, definido por
δβγ :=
{
0, se β 6= γ,
1, se β = γ.
(1.6)
(Note que não podemos dizer que δββ = 1, pois β aparece tanto como um super-́ındice quanto
como um sub-́ındice e, de acordo com nossas convenções, um somatório está impĺıcito; de fato,
δββ = N , a dimensão de T.) Analogamente, podemos deduzir que
Xβα′X
γ′
β = δ
γ′
α′ (= δ
γ
α). (1.7)
Exerćıcio 1.8 Deduza essa última equação.
A substituição de eα′ , a partir da equação (1.2), em (1.1), fornece
v = vα
′
Xβα′eβ, (1.8)
e, devido à independência linear de eβ,
vβ = Xβα′v
α′ . (1.9)
Conseqüentemente,
Xγ
′
α v
α = Xγ
′
α X
α
β′v
β′ = δγ
′
β′v
β′ = vβ
′
. (1.10)
Recapitulando, se as bases com e sem plica estão relacionadas por
eα′ = X
β
α′eβ, eα = X
β′
α eβ′ , (1.11)
então as componentes estão relacionadas por
vα
′
= Xα
′
β v
β, vα = Xαβ′v
β′ , (1.12)
e valem
Xαβ′X
β′
γ = δ
α
γ , X
α′
β X
β
γ′ = δ
α′
γ′ . (1.13)
1.1. ÁLGEBRA LINEAR 13
1.1.2 Espaços duais
Embora se sugira que possa ser útil visualizar os vetores de um espaço vetorial como um conjunto
de setas partindo de uma origem, de certa forma esta imagem pode ser muito capciosa, pois
muitos conjuntos de objetos sem qualquer semelhança com setas constituem espaços vetoriais
sob definições adequadas de adição e multiplicação por escalar. Dentre tais objetos, temos as
funções (voce imaginaria uma delas como uma seta?).
Restrinjamo-nos a funções reais definidas num espaço vetorial real de conjunto de vetores T .
Matematicamente, uma tal função f é simbolizada por f : T → R, indicando que ela aplica um
vetor de T em um número real. Pode-se dotar o conjunto de todas as funções desse tipo com
uma estrutura de espaço vetorial, definindo-se:
1. a soma f+ g de duas funções f e g como
(f + g)(v) = f(v) + g(v), para todo v ∈ T ;
2. o produto af do escalar a pela função f como
(af)(v) = a(f(v)), para todo v ∈ T ;
3. a função zero 0 como
0(v) = 0, para todo v ∈ T
(onde, na esquerda, 0 é uma função, ao passo que, na direita, ele é o número real zero);
4. a função inversa −f da função f como
(−f)(v) = −(f(v)), para todo v ∈ T.
Exerćıcio 1.9 Prove que, munido dessas operações, o conjunto de funções f constitui um espaço
vetorial. Qual é a sua dimensão?
1.1.2.1 Funcionais ou formas lineares
O espaço de todas as funções reais sobre um espaço vetorial T é grande demais para nossos
propósitos; restringir-nos-emos, pois, àquelas funções que são lineares. Ou seja, as funções que
satisfazem
f(au + bv) = af(u) + bf(v), (1.14)
para todos a, b ∈ R e todos u,v ∈ T . Funções lineares reais sobre um espaço vetorial real
são geralmente chamadas de funcionais ou formas lineares. É fácil verificar que a soma de dois
funcionais lineares é também um funcional linear, e que a multiplicação por um escalar fornece
um funcional linear também. Essas observações garantem que o conjunto de todos os funcionais
lineares sobre um espaço vetorial T é também um espaço vetorial. Este espaço é o dual de T e
denota-se por T∗.
Exerćıcio 1.10 Prove as últimas afirmações.
14 CAPÍTULO 1. ÁLGEBRA TENSORIAL
Como os funcionais lineares são vetores, iremos, de agora em diante, usar o tipo em negrito
para eles. Destarte, se v ∈ T e f ∈ T ∗, então f(v) ∈ R, ou seja, é um escalar, a despeito do tipo
em negrito.
Temos agora dois tipos de vetores, aqueles em T e aqueles em T ∗. Para distingui-los, aqueles
em T são chamados vetores contravariantes ou primais, ao passo que aqueles em T ∗ são chamados
de vetores covariantes ou duais. Como uma caracteŕıstica distintiva adicional, os vetores de base
de T∗ portarão super-́ındices e as componentes de vetores em T ∗ portarão sub-́ındices. Assim,
se {eα} é uma base de T∗, então g ∈ T ∗ tem uma expressão única g = gαeα, em termos de
componentes. Na verdade, a razão para a escolha das expressões contravariante e covariante
ficará mais clara ainda na segunda subsubseção a seguir.
1.1.2.2 Bases duais (naturais)
O uso da letra minúscula α na soma impĺıcita acima sugere, de acordo com nossa convenção de
domı́nio, que o domı́nio da soma é de 1 a N , a dimensão de T, ou seja, que T∗ tem a mesma
dimensão que T. Esse, de fato, é o caso, como provaremos, agora, mostrando que uma dada base
{eα} de T induz, de uma maneira natural, uma base dual {eα} de T∗ possuindo N elementos
que satisfazem eα(eβ) = δ
α
β .
Começamos por definir eα como a função real que leva cada vetor v ∈ T no número real que
é a sua α-ésima componente vα relativamente a {eα}, ou seja, eα(v) = vα, para todo v ∈ T .
Isso nos dá N funções reais que claramente satisfazem eα(eβ) = δ
α
β ; resta mostrar que elas são
lineares e que constituem uma base de T∗.
Exerćıcio 1.11 Verifique que as funções eα são, de fato, lineares.
Para provar que constituem uma base, prosseguimos assim.
Para qualquer g ∈ T ∗, podemos definir N números reais gα por g(eα) =: gα. Então, para
qualquer v ∈ T ,
g(v) = g(vαeα) = v
αg(eα) (pela linearidade de g)
= vαgα = gαe
α(v).
Assim, para qualquer g ∈ T ∗, temos g = gαeα, mostrando que {eα} gera T ∗ e resta a questão
da independência linear de {eα}. Isso se responde notando que uma relação xαeα = 0, onde
xα ∈ R e 0 é o funcional zero, implica que
0 = xαe
α(eβ) = xαδ
α
β = xβ, para todo β.
Do exposto, vemos que, dada uma base {eα} de T , as componentes gα de g ∈ T ∗ relativamente
à base dual {eα} são dadas por gα = g(eα).
1.1.2.3 Lei de transformação das componentes
Uma mudança de base (1.11) em T induz uma mudança da base dual. Denotemos o dual da
base com plica {eα′} por eα′ , de modo que, por definição, eα′(eβ′) = δα′β′ , e eα
′
= Y α
′
β e
β, para
1.2. ÁLGEBRA MULTILINEAR 15
alguns Y α
′
β . Então,
δα
′
β′ = e
α′(eβ′) = Y
α′
γ e
γ(Xµβ′eµ)
= Y α
′
γ X
µ
β′e
γ(eµ) (pela linearidade dos e
γ)
= Y α
′
γ X
µ
β′δ
γ
µ = Y
α′
γ X
γ
β′ .
o que quer dizer Y α
′
γ = X
α′
γ .
Exerćıcio 1.12 Prove essa última afirmação.
Sendo assim, mediante uma mudança de base de T dada por (1.11), as bases duais de T ∗ se
transformam como
eα
′
= Xα
′
β e
β, eα = Xαβ′e
β′ . (1.15)
Mostra-se de imediato que as componentes de g ∈ T ∗, relativamente às bases duais se transfor-
mam como
gα′ = X
β
α′gβ, gα = X
β′
α gβ′ . (1.16)
Exerćıcio 1.13 Prove isso.
Então, a mesma matriz [Xα
′
β ] e sua inversa [X
α
β′ ] estão envolvidas, mas os seus papéis relativa-
mente aos vetores de base e às componentes estão trocados.
Dado T e uma base sua {eα}, acabamos de ver como construir o seu dual T∗ com base dual
{eα} satisfazendo eα(eβ) = δαβ . Podemos aplicar esse processo novamente para chegar no dual
T∗∗ de T∗, com base dual {fα}, digamos, satisfazendo fα(eβ) = δβα, e os vetores h ∈ T ∗∗ podem
ser expressos em termos de componentes como h = hαfα. Sob uma mudança de base de T, as
componentes de vetores em T se transformama de acordo com vα
′
= Xα
′
β v
β. Isso induz uma
mudança da base dual de T∗, sob a qual as componentes de vetores em T ∗ se transformam de
acordo com gα′ = X
β
α′gβ. Por sua vez, isso induz uma mudança de base de T∗∗, sob a qual vê-se
prontamente que as componentes de vetores em T ∗∗ se transformam de acordo com hα
′
= Xα
′
β h
β
(porque a inversa da inversa de uma matriz é a própria matriz). Ou seja, as componentes de
vetores em T ∗∗ se transformam exatamente da mesma maneira que as componentes de vetores
em T . Isso significa que, se estabelecermos uma correspondência biuńıvoca entre os vetores de
T e de T ∗∗, fazendo com que vαeα em T corresponda a vαfα em T ∗∗, onde {fα} é o dual do dual
de {eα}, então essa correspondência será independente de base.
Exerćıcio 1.14 Convença-se disso!
Uma correspondência biuńıvoca independente de base entre dois espaços vetoriais é chamada um
isomorfismo natural e, naturalmente, espaços vetoriais naturalmente isomorfos são geralmente
identificados, identificando-se os vetores correspondentes. Conseqüentemente, nós identificare-
mos T∗∗ e T.
1.2 Álgebra multilinear
Referências: [5, 11, 7, 10, 14, 21, 15, 19, 2]
16 CAPÍTULO 1. ÁLGEBRA TENSORIAL
1.2.1 Produtos tensoriais; o espaço Trs
Dado um espaço vetorial T, vimos como criar um novo espaço vetorial, a saber o seu dual
T∗, mas o processo acaba áı (ao identificarmos T∗∗ com T). Entretanto, é posśıvel gerar um
novo espaço vetorial a partir de dois espaços vetoriais, formando o que se chama o seu produto
tensorial. Como preliminar para isso, precisamos definir funcionais bilineares em um par de
espaços vetoriais.
Sejam T e U dois espaços vetoriais reais de dimensão finita. O produto cartesiano T × U é
o conjunto de todos os pares (ordenados) da forma (v,w), onde v ∈ T e w ∈ U . Um funcional
bilinear f sobre T × U é uma função real f : T × U → R, que é bilinear, ou seja, satisfaz
f(au + bv,w) = af(u,w) + bf(v,w),
para todos a, b ∈ R, u,v ∈ T e w ∈ U,
e
f(v, cw + ex) = cf(v,w) + ef(v,x),
para todos c, e ∈ R, v ∈ T e w,x ∈ U.
Com definições de adição, multiplicação por escalar, a função zero e inversas análogas às
dadas para funcionais lineares na Subseção 1.1.2, é imediato demonstrar que o conjunto de
funcionais bilineares sobre T ×U é um espaço vetorial e, de agora em diante, usaremos tipo em
negrito para os funcionais bilineares.
Exerćıcio 1.15 Demonstre o dito acima.
Estamos agora em condições de definir o produto tensorial T ⊗ U de T e U como o espaço
vetorial de todos os funcionais bilineares sobre T ∗ × U∗. Note que, nessa definição, usamos os
conjuntos de base T ∗ e U∗ dos espaços duais, e não os próprios T e U .
Surge, naturalmente, a questão da dimensão de T⊗U. Ela é, de fato, NM , onde N e M são
as dimensões de T e U, respectivamente;provamos isso mostrando que, a partir de bases dadas
de T e U, podemos definir NM elementos de T⊗ U, que constituem uma base para ele.
Seja {eα}, α = 1, . . . , N e {fa}, a = 1, . . . , M , bases de T∗ e U∗, duais às bases {eα} e {fa} de
T e U, respectivamente. (Note que usamos dois alfabetos diferentes para os sufixos que possuem
domı́nios diferentes.) Definamos NM funções eαa : T
∗ × U∗ → R como
eαa(g,h) = gαha, (1.17)
onde gα são as componentes de g ∈ T ∗ relativamente a {eα} e ha as de h ∈ U∗ relativamente a
{fa}. Em particular,
eαa(e
β, f b) = δβαδ
b
a. (1.18)
É simples mostrar que os eαa são bilineares e pertencem, assim, a T ⊗ U. Para mostrar que
constituem uma base devemos mostrar que geram T⊗ U e que são linearmente independentes.
Exerćıcio 1.16 Seguindo um desenvolvimento análogo ao da Subsubseção 1.1.2.2, mostre que
{eαa} (i) gera T⊗ U, e (ii) é linearmente independente.
1.2. ÁLGEBRA MULTILINEAR 17
Com o exerćıcio acima, demonstramos, pois, que a dimensão de T⊗U é NM , o produto das
dimensões de T e U, e que, de uma maneira natural, bases {eα} de T e {fa} de U induzem uma
base {eαa} de T ⊗ U, sendo as componentes ταa de qualquer τ∈ T ⊗ U, relativamente a essa
base, dadas, em termos das bases duais, por ταa =τ (eα, fa).
Investiguemos, agora, como as componentes ταa e os vetores de base eαa se transformam
quando novas bases são introduzidas em T e U. Suponhamos que as bases de T e U se transfor-
mem de acordo com
eα′ = X
β
α′eβ, f
′
a = Y
b
a′fb. (1.19)
Isso induz uma nova base {eα′a′} de T⊗ U, e, para quaisquer (g,h) ∈ T ∗ × U∗,
eα′a′(g,h) = gα′ha′ = X
β
α′Y
b
a′gβhb
= Xβα′Y
b
a′eβb(g,h).
Sendo assim,
eα′a′ = X
β
α′Y
b
a′eβb. (1.20)
Analogamente, para as componentes, obtemos
τα
′a′ = Xα
′
β Y
a′
b τ
βb. (1.21)
Exerćıcio 1.17 Prove isso.
Um vetor que é um elemento do produto tensorial de dois espaços (ou mais, vide abaixo) é
chamado um tensor. O produto tensorial, conforme definido acima, é um produto de espaçõs. É
posśıvel definir um tensor que é o produto tensorial g⊗h de vetores individuais g ∈ T e h ∈ U,
exigindo-se que
g ⊗ h = gαhaeαa, (1.22)
onde gα e ha são as componentes de g e h relativamente a bases de T e U que induzem a
base {eαa} de T ⊗ U. Embora essa definição seja dada por intermédio de bases, ela é, de fato,
independente de base.
Exerćıcio 1.18 Prove isso.
Em particular temos
eα ⊗ fa = eαa. (1.23)
O produto tensorial g ⊗ h pertence a T ⊗ U, mas nem todos os tensores de T ⊗ U são dessa
forma. Aqueles que o são chamam-se de tensores decompońıveis.
Tendo estabelecido a iéia básica do produto tensorial de dois espaços vetoriais, podemos
estendê-la para três ou mais espaços. No entanto, dados três espaços T,U,V, podemos formar o
seu produto tensorial de duas maneiras: (T⊗U)⊗V ou T⊗(U⊗V). Esses dois espaços claramente
possuem a mesma dimensão e são, de fato, naturalmente isomorfos, no sentido de que podemos
estabelecer uma correspondência bijetiva, independente de base, entre os seus elementos, assim
como fizemos com T e T ∗∗. Isso é feito escolhendo-se bases {eα}, {fa} e {gA} em T, U e
V, respectivamente (três domı́nios, portanto três “alfabetos”), deixando ταaAeα ⊗ (fa ⊗ gA)
corresponder a (ταaAeα⊗ fa)⊗gA, e mostrando, então, que essa correspondência é independente
de base. Devido a esse isomorfismo natural, identificamos esses espaços, e a notação T⊗U⊗V
não é amb́ıgua.
18 CAPÍTULO 1. ÁLGEBRA TENSORIAL
Exerćıcio 1.19 Prove a existência do isomorfismo natural mencionado.
Uma maneira alternativa de definir T ⊗ U ⊗ V é como o espaço de funcionais trilineares
sobre T ∗ × U∗ × V ∗. Isso leva a um espaço que é naturalmente isomorfo àqueles do parágrafo
precedente, e todos os três são identificados.
Exerćıcio 1.20 Convença-se disso.
Existem outros isomorfismos naturais, por exemplo entre T ⊗ U e U ⊗ T, ou entre (T ⊗ U)∗ e
T∗ ⊗ U∗, e ,sempre que eles existirem, os espaços são identificados.
Exerćıcio 1.21 Convença-se disso.
De agora em diante, restringir-nos-emos a espaços de produto tensorial obtidos tomando-se
produtos tensoriais repetidos de um único espaço vetorial T e o seu dual T∗. Introduzimos a
seguinte notação:
r vezes︷ ︸︸ ︷
T⊗ T⊗ · · · ⊗ T =: Tr = T r (esta última notação, por abuso),
s vezes︷ ︸︸ ︷
T∗ ⊗ T∗ ⊗ · · · ⊗ T∗ =: Ts = Ts (esta última notação, por abuso),
T r ⊗ Ts =: T rs .
Em particular T = T 1 e T ∗ = T1.
Um elemento de T r é um tensor contravariante de posto r, um elemento de Ts é um tensor
covariante de posto s, ao passo que um elemento de T rs é um tensor misto de posto (r, s). Note
que esta nomenclatura rotula vetores contravariantes e covariantes como tensores de posto (1, 0)
e (0, 1) respectivamente. Escalares podem ser inclúıdos no esquema geral considerando-os como
tensores de posto (0, 0).
Uma base {eα} de T (de dimensão N) induz uma base dual {eα} de T ∗ e essas, juntas,
induzem uma base {eβ1···βsα1···αr} de T rs . Cada tensor τ ∈ T rs tem N r+s componentes uńıvocas
relativamente à base induzida:
τ = τα1···αr β1···βse
β1···βs
α1···αr . (1.24)
Uma mudança de base de T induz uma mudança de base de T rs , sob a qual as componentes se
transformam de acordo com:
τα
′
1···α′r
β′1···β′s = X
α′1
µ1
· · ·Xα′rµr Xν1β′1 · · ·X
νs
β′s
τµ1···µrν1···νs . (1.25)
Por exemplo, para um tensor τ ∈ T 12 ,
τα
′
β′γ′ = X
α′
ρ X
σ
β′X
λ
γ′τ
ρ
σλ.
É comum definir-se os tensores como objetos tendo componentes que se transformam de
acordo com as equações (1.25). Esta maneira de se encarar tensores se justifica notando-se que
se a cada base de T estão associados N r+s números reais, que, sob uma mudança de base dada
pelas equações (1.11), se transformam como (1.25), então esses números são as componentes de
um tensor τ de posto (r, s), conforme nós definimos tal objeto; simplesmente fazemos
τ = τα1···αr β1···βse
β1···βs
α1···αr .
1.2. ÁLGEBRA MULTILINEAR 19
1.2.2 Tensores relativos
Mostraremos agora que existem ainda objetos geométricos mais gerais que os tensores acima
vistos, cujas componentes se transformam, nao simplesmente com fatores da matriz de trans-
formação de base, mas, além disso, com um fator dependente do determinante de tal matriz.
Para tanto, relembraremos, na Subsubseção seguinte, algo sobre determinantes.
1.2.2.1 Determinantes, śımbolos de Levi-Civita, deltas de Kronecker generalizados
Seja uma matriz quadrada N×N [Zαβ], onde, como usual, suporemos que o supeŕındice α indica
linha e o sub́ındice β indica coluna, ou seja,
[Zαβ =


Z11 Z
1
2 · · · Z1N
Z21 Z
2
2 · · · Z2N
...
...
. . .
...
ZN 1 Z
N
2 · · · ZN N

 . (1.26)
O determinante dessa matriz, det[Z] ou, simplesmente, Z, pode ser definido através da regra
geral de Cramer ou, de uma maneira mais geométrica, através do estudo da noção de volume
num espaço N -dimensional. Aqui queremos que você se convença que ele também pode ser
escrito como:
det[Z] = ²α1α2...αN Z
α1
1Z
α2
2 · · ·ZαN N ,
= ²α1α2...αN Z1α1Z
2
α2 · · ·ZN αN , (1.27)
onde introduzimos os chamados śımbolos de Levi-Civita:
²α1α2...αN := ²
α1α2...αN :=



1, se (α1, α2, . . . , αN) for permutação par de (1, 2, . . . , N);
−1, se (α1, α2, . . . , αN) for permutação ı́mpar de (1, 2, . . . , N);
0, nos outros casos, ou seja, se houver ı́ndices repetidos.
(1.28)
Observações:
1. Note que seguimos a convenção de ²12...N = ²
12...N = 1 e não aquela de ²12...N = −²12...N = 1,
às vezes adotada por alguns autores.
2. Note que, com a equação (1.27), de fato, fica óvio que, por troca de quaisquer duas filas
(linhas ou colunas), o determinante muda de sinal, devido à anti-simetria dos śımbolos de
Levi-Civita
3. Como conseqüência do item acima, ou diretamente da própria equação (1.27), o determi-
nante de uma matriz com duas filas proporcionais resulta ser nulo.
4. Para ajudar ainda mais na aceitação da expressão (1.27) para o determinante, lembre-se
de (ou prove agora), do cálculo vetorial básico, a expressãopara (i) o produto vetorial em
termos de componentes cartesianas:
A×B = det


x̂ ŷ ẑ
Ax Ay Az
Bx By Bz


= ²ijkAiBj êk.
20 CAPÍTULO 1. ÁLGEBRA TENSORIAL
ou (ii) o produto misto, também em termos de componentes cartesianas:
A · (B×C) = det


Ax Ay Az
Bx By Bz
Cx Cy Cz

 ,
o que também faz uma conexão com a idéia, acima mencionada, de determinante como
uma medida de volume (no caso, do paraleleṕıpedo com “arestas” A, B e C).
Tendo em conta a anti-simetria dos śımbolos de Levi-Civita, podemos ainda reescrever a
(1.27) como
²α1α2...αN Z = ²β1β2...βN Zα1β1Z
α2
β2 . . . Z
αN
βN , (1.29)
ou
²α1α2...αN Z = ²β1β2...βN Z
β1
α1Z
β2
α2 . . . Z
βN
αN , (1.30)
formas que serão úteis para a subsubseção seguinte.
Exerćıcio 1.22 Convença-se da validade de tais fórmulas.
Seria interessante se pudéssemos ter uma expressão final para o determinante, Z, isolado
em um membro dessa expressão, em função dos śımbolos de Levi-Civita e dos elementos da
matriz. Para tanto, convém introduzirmos novos objetos, que são os tensores deltas de Kronecker
generalizados, δα1α2···αrβ1β2···βr , definidos por
δα1α2···αrβ1β2···βr := det


δα1β1 δ
α1
β2
· · · δα1βr
δα2β1 δ
α2
β2
· · · δα2βr
... · · · . . . · · ·
δαrβ1 δ
αr
β2
· · · δαrβr

 (1.31)
Obviamente, o delta de Kronecker (usual) é um caso particular dessa definição, correspondente
ao valor r = 1. Com r = 2 em (1.31), vemos que
δαβµν = δ
α
µδ
β
ν − δαν δβµ .
Em geral, δα1α2···αrβ1β2···βr é a soma de r! termos, cada um dos quais é o produto de r deltas de Kronecker
(usuais). Como, conforme já vimos, o delta de Kronecker (usual) é um tensor do tipo (1,1), segue
imediatamente que o delta de Kronecker generalizado é um tensor do tipo (r, r). Da sua própria
definição é fácil mostrar que: (i) o delta de Kronecker generalizado é anti-simétrico em todos
os super-́ındices e todos os sub-́ındices; (ii) se r > N , onde N é a dimensão do espaço, então
δα1α2···αrβ1β2···βr ≡ 0.
Exerćıcio 1.23 Convença-se dessas afirmações.
Queremos agora estabelecer uma relação ou identidade fundamental entre ²α1α2···αN , ²β1β2···βN e
δα1α2···αNβ1β2···βN :
²α1α2···αN ²β1β2···βN = δ
α1α2···αN
β1β2···βN . (1.32)
1.2. ÁLGEBRA MULTILINEAR 21
Para tanto, consideremos a grandeza
Aα1α2···αNβ1β2···βN := ²β1β2···βN ²
α1α2···αN − δα1α2···αNβ1β2···βN , (1.33)
que é obviamente anti-simétrica nos sub́ındices e nos super-́ındices. Conseqüentemente, as únicas
posśıveis componentes não nulas de Aα1α2···αNβ1β2···βN ocorrerão quando (α1, α2, . . . , αN) e (β1, β2, . . . , βN)
forem permutações (sem repetição) de (1, 2, . . . , N). No entanto, de (1.28), (1.33) e (1.31), vê-se
facilmente que
A12···N12···N = 0.
Logo, acabamos de mostrar que
Aα1α2···αNβ1β2···βN ≡ 0,
o que, por (1.33), estabelece (1.32).
Exerćıcio 1.24 Mostre, a partir de (1.32), que, genericamente,
1
j!
²α1...αN−jγ1...γj²β1...βN−jγ1...γj = δ
α1...αN−j
β1...βN−j . (1.34)
Dáı ou da própria (1.32) vem, em particular, que:
²α1α2···αN ²α1α2···αN = N !
Exerćıcio 1.25 Prove isso!
Finalmente, podemos, pois, ter a expressão que procurávamos:
Z := det[Zµν ] =
1
N !
²α1α2···αN ²β1β2···βN Z
β
1 α1
Zβ2α2 · · ·ZβN αN . (1.35)
Exerćıcio 1.26 Prove-a!
1.2.2.2 Tensores relativos
Consideremos, agora, como caso particular da matriz [Zαβ], tratada na subsubseção anterior,
uma matriz mudança de base, num certo espaço vetorial:
eα′ = X
β
α′eβ. (1.36)
Nessa situação, a expressão para o determinante de [Xαβ ], conforme (1.29) ou (1.30), mostra
que, se postularmos, como é naturaĺıssimo, que, independentemente de base, os valores das
componentes dos śımbolos de Levi-Civita são os mesmos (²α
′
1α
′
2···α′N = ²α1α2···αN e ²α′1α′2···α′N =
²α1α2···αN ), então conclúımos que as leis de transformação para esses śımbolos (invariantes por
definição) passam a ser:
²α
′
1α
′
2···α′N = X−1Xα
′
1
β1
X
α′2
β2
· · ·Xα′NβN
e
²α′1α′2···α′N = XX
β1
α′1
Xβ2α′2
· · ·XβNα′N ²β1β2···βN .
22 CAPÍTULO 1. ÁLGEBRA TENSORIAL
Tais leis são iguais àquelas para tensores, exceto pela presença de um fator potência do determi-
nante da matriz mudança de base. Isso sugere a importância de tratarmos de objetos geométricos
cujas componentes se transformem de uma maneira mais geral. Sendo assim, fugindo um pouco
à nossa apresentação geométrica ou independente de base atá aqui, diremos que um conjunto
de N r+s números Λα1···αr β1···βs constituem as componentes de um tensor relativo de posto (r, s) e
peso w, se, sob uma mudança de base (1.36), esses números (chamados componentes do tensor
relativo) se transformarem de acordo com
Λα
′
1···α′r
β′1···β′s = X
−wXα
′
1
µ1
· · ·Xα′rµr Xν1β′1 · · ·X
νs
β′s
Λµ1···µr ν1···νs . (1.37)
Note o sinal no expoente do determinante X. Podemos observar, então que:
1. ²α1···αN e ²α1···αN constituem as componentes de tensores relativos de peso 1 e -1, respecti-
vamente.
2. os tensores de que tratamos até antes dessa subsubseção são tensores relativos de peso 0;
às vezes, eles são chamados tensores absolutos.
1.2.3 Operações e resultados adicionais
1.2.3.1 Contração
Até aqui, temos três operações básicas com tensores (absolutos ou relativos): adição de tensores
de mesmo posto, multiplicação de um tensor por um escalar e formação do produto tensorial.
Existe uma quarta operação básica com tensores, que é mais facilmente explicada em termos
de componentes. Esta operação é a contração, que associa N r+s−2 números (componentes)
Rα1···αp−1αp+1···αr β1···βq−1βq+1···βs com N
r+s números (componentes) Qα1···αr β1···βs , definidos por
Rα1···αp−1αp+1···αr β1···βq−1βq+1···βs := Q
α1···αp−1γαp+1···αr
β1···βq−1γβq+1···βs . (1.38)
Ou seja, fazendo-se um sub-́ındice igual a um supre-́ındice e somando, como a convenção de
soma implica. É claro que existem rs maneiras de fazer isso, cada uma das quais leva a uma
contração do conjunto original de números.
O significado especial que essa operação tem para tensores (absolutos ou relativos) é que, se
os números originais forem as componentes de um tensor relativo de posto (r, s) e peso w, então
suas contrações são as componentes de um tensor relativo de posto (r− 1, s− 1) e mesmo peso,
w.
Exerćıcio 1.27 Prove isso!
1.2.3.2 Simetrização e anti-simetrização
Dada uma matriz [Mαβ], podemos expressá-la sempre como a soma de duas outras matrizes,
[M(αβ)] e [M[αβ]], tal que
Mαβ = M(αβ) + M[αβ], (1.39)
onde
M(αβ) :=
1
2
(Mαβ + Mβα) (1.40)
M[αβ] :=
1
2
(Mαβ −Mβα). (1.41)
1.2. ÁLGEBRA MULTILINEAR 23
A matriz [M(αβ)] é a chamada parte simétrica de [Mαβ] e o processo mostrado em (1.40) é
chamado simetrização de [Mαβ], ao passo que a matriz [M[αβ]] é a chamada parte anti-simétrica
de [Mαβ] e o processo indicado em (1.41) é chamado anti-simetrização de [Mαβ]; tal terminologia
justifica-se pelo fato de que
M(αβ) = M(βα)
e
M[αβ] = −M[βα].
Além disso, se, de fato, Mαβ constitúı rem as componentes de um tensor de posto (2, 0), assim
também o constituem M(αβ) e M[αβ], diferentemente de M
α
β.
Exerćıcio 1.28 Prove isso!
No caso mais geral, a componente M(α1···αr) da chamada parte (totalmente) simétrica de Mα1···αr
é obtida somando-se todas as componentes obtidas por permutações dos ı́ndices (α1, . . . , αr) e
dividindo-se o resultado por r!; ou seja, no caso de três ı́ndices, teŕıamos:
M(αβγ) :=
1
3!
(Mαβγ + Mαγβ + Mβαγ + Mβγα + Mγαβ + Mγβα) .
Algo análogo vale para a chamada parte (totalmente) anti-simétrica, mas, aqui, as permutações
pares dos ı́ndices (α1, . . . , αr) são somadas, ao passo que as permutações ı́mpares são subtráıdas,
ou seja:
M[αβγ] :=
1
3!
(Mαβγ −Mαγβ −Mβαγ + Mβγα + Mγαβ −Mγβα) .
Naturalmente, tudo isso pode ser estendido para “́ındices covariantes”, presenvando sempre o
caráter tensorial dos objetos resultantes (as partes simétrica e anti-simétrica). Já a simetrização
ou anti-simetrização em ı́ndices em ńıveis distintos não gera tensores.Exerćıcio 1.29 Prove isso!
1.2.3.3 Regras do quociente
As regras do quociente permitem estabelecer diretamente o caráter tensorial de um objeto dado
que o produto dele com um tensor (relativo) arbitrário gera sempre um tensor (relativo). Raci-
ocinemos através de um exemplo concreto, em termos de componentes, de novo.
Sejam dados, numa certa base, um conjunto de números Y αβγ, que, quando multiplicados
pelas componentes T γµ de um tensor arbitrário, saibamos fornecer sempre um tensor Cαβ
µ; ou
seja,
Cαβ
µ = Y αβγT
γµ (1.42)
é um tensor para qualquer tensor T γµ. Então, a regra do quociente, nesse caso, afirma que Y αβγ
constituirão as componentes de um tensor também, de posto (1,2), conforme sugerido pela sua
estrutura de ı́ndices.
Para provar isso, usamos a lei de transformação caracteŕıstica das componentes de um tensor.
Imaginamos que, numa nova base, ainda vale a equação (1.42), como que por definição das novas
24 CAPÍTULO 1. ÁLGEBRA TENSORIAL
componentes do objeto Y, cujo caráter queremos descobrir. Então,
Cα
′
β′
µ′ = Y α
′
β′γ′T
γ′µ′
wwwwwÄ
(pois C e T são tensores)
Xα
′
α X
β
β′X
µ′
µ C
α
β
µ = Y α
′
β′γ′X
γ′
γ X
µ′
µ T
γµ
wwwwwÄ
substituindo (1.42)
Xα
′
α X
β
β′X
µ′
µ Y
α
βγT
γµ = Y α
′
β′γ′X
γ′
γ X
µ′
µ T
γµ
wwwwwÄ
já que T é arbitrário
(
Y α
′
β′γ′X
γ′
γ −Xα
′
α X
β
β′Y
α
βγ
)
Xµ
′
µ = 0wwwwwÄ
multiplicando por Xµµ′
Y α
′
β′γ′X
γ′
γ = X
α′
α X
β
β′Y
α
βγwwwwwÄ
multiplicando por Xγσ′
Y α
′
β′σ′ = X
α′
α X
β
β′X
γ
σ′Y
α
βγ ,
que é justamente o que queŕıamos demonstrar. A própria expressão “regra do quociente” se
explica pela forma como Y αβγ se apresenta em (1.42).
Exerćıcio 1.30 Como voce adaptaria o enunciado de tal regra ao caso de tensores relativos?
Exerćıcio 1.31 Se, para um tensor simétrico, mas, fora isso, arbitrário, de componentes Sαβ,
o resultado
Cα = Y αβγS
βγ
é sempre um vetor contravariante, o que você pode deduzir sobre o caráter de Y αβγ ou de al-
guma(s) de suas partes?
Referências Bibliográficas
[1] R. Adler, M. Bazin, and M. Schiffer. Introduction to general relativity. McGraw-Hill Koga-
kusha, Tokyo, Japan, second edition, 1975.
[2] J. L. Synge an A. Schild. Tensor calculus. Dover, New York, USA, 1978.
[3] J. L. Anderson. Principles of relativity physics. Academic Press, New York, USA, 1967.
[4] P. Bamberg and S. Sternberg. A course in mathematics for students of physics. Cambridge
University Press, Cambridge, England, 1988.
[5] R. L. Bishop and S. I. Goldberg. Einstein’s theory of relativity. Dover, New York, USA,
1980.
[6] A. I. Borisenko and I. E. Tarapov. Vector and tensor analysisi with applications. Dover,
New York, USA, 1979.
[7] W. L. Burke. Applied differential geometry. Cambridge University Press, Cambridge, En-
gland, 1985.
[8] M. Crampin and F. A. E. Pirani. Applicable differential geometry. Cambridge University
Press, Cambridge, England, 1986.
[9] R. d’Inverno. Introducing Einstein’s relativity. Oxford University Press, Oxford, England,
1992.
[10] C. T. J. Dodson and T. Poston. Tensor geometry. The geometric viewpoint and its uses.
Pitman, London, England, 1977.
[11] J. Foster and J. D. Nightingale. A short course in general relativity. Longman, London,
England, first edition, 1979.
[12] J. Foster and J. D. Nightingale. A short course in general relativity. Springer-Verlag, New
York, USA, second edition, 1995.
[13] L. P. Hughston and K. P. Tod. An introduction to general relativity. Cambridge University
Press, Cambridge, England, 1990.
[14] A. Lichnerowicz. Elements of tensor calculus. Methuen, London, England, 1962.
[15] D. Lovelock and H. Rund. Tensors, differential forms, and variational principles. John
Wiley & Sons, Chichester, England, 1975.
31
32 REFERÊNCIAS BIBLIOGRÁFICAS
[16] L. Nachbin. Introdução à álgebra. McGraw-Hill do Brasil, Rio de Janeiro, Brasil, 1971.
[17] C. Nash and S. Sen. Topology and geometry for physicists. Academic Press, New York,
USA, 1983.
[18] B. O’Neill. Semi-Riemannian geometry, with applications to relativity. Academic, New
York, USA, 1983.
[19] J. A. Schouten. Ricci-calculus. Springer, Berlin, Germany, 1954.
[20] B. F. Schutz. Geometrical methods of mathematical physics. Cambridge University Press,
Cambridge, England, 1980.
[21] A. Trautman. Foundations and current problems of general relativity. In S. Deser and K. W.
Ford, editors, Lectures on general relativity, Proceedings of the 1964 Brandeis Summer
Institute in Theoretical Physics, Englewood Cliffs, USA, 1965. Prentice-Hall.

Continue navegando