Buscar

Introdução aos Tensores

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 3, do total de 43 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 6, do total de 43 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 9, do total de 43 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Prévia do material em texto

Um mini-curso sobre tensores
Ivo Terek
Vamos começar com uma pergunta: o que Geometria Diferencial, To-
pologia Algébrica, Relatividade Geral e Mecânica Quântica têm em co-
mum? Entre outras coisas, todas elas utilizam como ferramentas certos
objetos chamados tensores.
Seja para definir a curvatura de variedades pseudo-Riemannianas, para
enunciar certos resultados envolvendo a homologia do produto de com-
plexos CW (como por exemplo, a fórmula de Kunneth), entender as cele-
bradas equações de campo de Einstein (que ditam a relação entre matéria e
gravidade em um espaço-tempo), ou então descrever o espaço de estados
de um sistema quântico composto, lá estão os tensores.
O intuito deste texto é apresentar uma introdução rápida e básica aos
tensores, com o mínimo o possível de pré-requisitos: para um bom apro-
veitamento do que discutiremos aqui, é recomendado um entendimento
mínimo das noções de espaço dual e base dual, vistas talvez em um segundo
curso de Álgebra Linear. Além disto, contamos com uma certa maturi-
dade matemática do leitor ou leitora (que você provavelmente já possui,
se decidiu estudar esse assunto seriamente).
Iniciamos a Seção 1 apresentando tensores sobre um espaço vetorial
como certas aplicações multilineares. Exibimos bases para os espaços de
tensores a partir de uma base do espaço inicial, e introduzimos também a
convenção de Einstein (espero que no momento certo, para evitar maiores
traumas).
Na Seção 2, vemos como utilizar um produto escalar não-degenerado
para identificar um espaço vetorial com o seu dual de forma natural (sem o
uso de bases), por meio dos chamados isomorfismos musicais. Em particular,
vemos como utilizá-los para identificar tensores de diferentes tipos: tais
identificações, expressas em uma base, nada mais são do que a famosa
técnica de levantamento e abaixamento de índices.
Concluímos a discussão na Seção 3, onde apresentamos brevemente
uma abordagem algébrica dos produtos tensoriais, caracterizados por meio
de uma chamada propriedade universal; damos também relações de tal abor-
dagem com o que foi exposto nas seções anteriores.
1
Pelo texto você irá se deparar com alguns exercícios, que possuem o
simples objetivo de fazer com que você perca o medo dos tensores, e que
também servem para te ajudar com alguns pontos cujo entendimento re-
quer a sua participação ativa (sim, pegue lápis e rascunho).
Observação.
• O pequeno sumário a seguir, bem como os números e páginas dos
teoremas, proposições e exercícios mencionados durante o texto pos-
suem hiperlinks. Você pode navegar pelo .pdf clicando neles. · ·^
• Os diagramas na Seção 3 foram feitos usando o programa xfig.
Sumário
1 Aplicações multilineares 2
2 E quando temos um produto escalar? 16
3 A propriedade universal 29
Está prestando atenção? Vai começar!
1 Aplicações multilineares
Fixe de uma vez por todas V um espaço vetorial real de dimensão fi-
nita, V∗ .= { f : V → R | f é linear} o seu espaço dual, e denote por Lin(V)
o espaço dos operadores lineares1 em V. Para inteiros r, s ≥ 1, denote
(V∗)r .= V∗ × · · · ×V∗ (r vezes) e Vs .= V × · · · ×V (s vezes).
Definição 1.1. Um tensor de tipo (r, s) em V é uma aplicação multilinear
T : (V∗)r × Vs → R. O conjunto dos tensores de tipo (r, s) em V é deno-
tado por Trs(V).
Observação.
• Diremos também que T ∈ Trs(V) é r vezes contravariante e s-vezes
covariante. O número r + s é chamado rank, valência, ou ordem de T.
Com operações definidas pontualmente, Trs(V) torna-se um espaço
vetorial.
1Transformações lineares de V em si mesmo.
2
• Note que T10(V) = V
∗∗ ∼= V e que T01(V) = V∗. Recorde que a
identificação entre V e V∗∗ é dada por V 3 v 7→ vˆ ∈ V∗∗, onde vˆ é
definindo por vˆ( f ) .= f (v). A filosofia por trás de vˆ é simples: dados
apenas v ∈ V e f ∈ V∗, só tem um jeito razoável de produzir um
número real.
Exercício 1.1. Mostre que V 3 v 7→ vˆ ∈ V∗∗ é de fato um isomor-
fismo linear, caso isto seja novidade.
Sugestão. Não esqueça de começar verificando que vˆ é de fato um
elemento de V∗∗.
Isto justifica chamar funcionais lineares de covetores. Além disto, con-
vencionamos T00(V) = R.
• Às vezes é possível encontrarmos aplicações multilineares definidas
em domínios que troquem a ordem de V∗ e V. Por exemplo
T : V × (V∗)3 ×V2 ×V∗ → R,
e o conjunto das aplicações multilineares com este domínio fica então
denotado por T3 11 2 (V); índices contravariantes em cima e covarian-
tes embaixo. Vamos chamar os domínios de tais tensores de embara-
lhados.
Exemplo 1.2.
1. A avaliação δ : V∗ ×V → R dada por δ( f , v) = f (v); δ ∈ T11(V).
2. Dados operadores lineares T, S ∈ Lin(V) e B ∈ T02(V), o (T, S)-
pull-back de B, (T, S)∗B : V × V → R definido por (T, S)∗B(v,w) .=
B(Tv, Sw); (T, S)∗B ∈ T02(V).
3. O determinante det : (Rn)n → R, que toma n vetores e devolve o de-
terminante da matriz obtida colocando os vetores dados em linhas
(ou colunas); det ∈ T0n(Rn).
4. O traço tr : Mat(n,R) → R, que associa a uma matriz o seu traço;
tr ∈ T01
(
Mat(n,R)
)
.
5. Dados f , g ∈ V∗, o produto tensorial de f e g, f ⊗ g : V × V → R
definido por ( f ⊗ g)(v,w) .= f (v)g(w); f ⊗ g ∈ T02(V).
6. Dados v ∈ V e f ∈ V∗, o produto tensorial de v e f , v⊗ f : V∗ ×V →
R definido por (v⊗ f )(g,w) .= g(v) f (w); v⊗ f ∈ T11(V).
3
Exercício 1.2. Convença-se de que os exemplos acima de fato são tensores.
Em alguns lugares na literatura, dizem que tensores são “arrays n-
dimensionais” de números, ou uma generalização de matrizes. Vejamos
como esta ideia nasce:
Definição 1.3. SejamB= (ei)ni=1 eB
∗ = (ei)ni=1 bases duais de V e V
∗. Se
T ∈ Trs(V), dizemos que as componentes de T na baseB são os números
Ti1...ir j1...js
.
= T(ei1 , . . . , eir , ej1 , . . . , ejs).
Observação.
• Nunca consideraremos simultaneamente bases de V e V∗ que não
sejam duais ao calcular as componentes de um dado tensor em tal
base. Por isso, dizemos que as componentes de T estão apenas na
base B, sem mencionar a base B∗ (que já está determinada por B).
Assim:
Em todos os resultados do texto, quando for declarada uma baseB= (ei)ni=1
de V, assuma também dada a sua base dualB∗ = (ei)ni=1, com esta notação.
• Para algum tensor com o domínio embaralhado, como T ∈ T2 13 (V),
temos que suas componentes são Ti1i2 i3j1 j2 j3 = T(e
i1 , ei2 , ej1 , ej2 , ej3 , e
i3).
Exemplo 1.4.
1. Sejam δ como no Exemplo 1.2 acima, e B = (ei)ni=1 uma base de V.
Nesta base, temos por definição que
δij = δ(e
i, ej) = ei(ej) =
{
1, se i = j,
0, se i 6= j.
Temos que o tensor δ é o chamado delta de Kronecker. Suas compo-
nentes δij em qualquer base também levam o nome de delta de Kro-
necker, por simplicidade.
2. Considere det ∈ T0n(Rn). Se B = (ei)ni=1 é uma base ortonormal
e positiva de Rn (segundo o produto interno usual), denotamos as
componentes de det por
ei1...in
.
= det(ei1 , . . . , ein)
=

1, se (i1, . . . , in) é uma permutação par de (1, . . . , n)
−1, se (i1, . . . , in) é uma permutação ímpar de (1, . . . , n)
0, caso contrário.
Temos que ei1...in é o chamado símbolo de Levi-Civita.
4
Exercício 1.3. SeB= (ei)ni=1 é uma base de V, mostre que v = ∑
n
i=1 e
i(v)ei
e f = ∑ni=1 f (ei)e
i, para quaisquer v ∈ V e f ∈ V∗. Seguindo a notação
introduzida na Definição 1.3 acima, podemos então escrever v = ∑ni=1 v
iei
e f = ∑ni=1 fie
i.
Sugestão. Você pode verificar que ambos os lados das igualdades pro-
posta agem igualmente em alguma base do domínio. Por exemplo, B e
B∗.
Exercício 1.4. Fixe B = (ei)ni=1 uma base de V. Seguindo a notação do
Exemplo 1.2 (p. 3), calcule:
(a) ((T, S)∗B)ij em termos das componentes de B e das matrizes (Tij)
n
i,j=1
e (Sij)
n
i,j=1 de T e S na baseB.
(b) (v⊗ f )ij em termos das componentes de v e f .
Proposição 1.5. Seja B= (ei)ni=1 uma base de V. Então B⊗B∗
.
= {ei ⊗ ej |
1 ≤ i, j ≤ n} éuma base para T11(V). Em particular, dimT11(V) = n2.
Demonstração: Vejamos que B⊗B∗ é linearmente independente. Supo-
nha que temos a seguinte combinação linear
n
∑
i,j=1
aijei ⊗ ej = 0.
Devemos provar que todos os coeficientes aij são nulos. Avaliando ambos
os lados da igualdade no par (ek, e`), obtemos
0 =
(
n
∑
i,j=1
aijei ⊗ ej
)
(ek, e`) =
n
∑
i,j=1
aij(ei ⊗ ej)(ek, e`)
=
n
∑
i,j=1
aije
k(ei)ej(e`) =
n
∑
i,j=1
aijδ
k
iδ
j
`
= ak`,
como desejado.
5
Para ver que B⊗B∗ gera T11(V), considere T ∈ T11(V). Aplicando o
Exercício 1.3 acima, temos:
T( f , v) = T
(
n
∑
i=1
f (ei)ei,
n
∑
i=1
ej(v)ej
)
=
n
∑
i,j=1
f (ei)ej(v)T(ei, ej)
=
n
∑
i,j=1
Tij f (ei)e
j(v) =
n
∑
i,j=1
Tij(ei ⊗ ej)( f , v)
=
(
n
∑
i,j=1
Tijei ⊗ ej
)
( f , v),
quaisquer que sejam f ∈ V∗ e v ∈ V, donde T = ∑ni,j=1 Tijei ⊗ ej, como
desejado.
Exercício 1.5. Sejam (e1, e2) uma base de R2 e T
.
= e1 ⊗ e1 + e2 ⊗ e2.
(a) Mostre que T não pode ser escrito na forma v1 ⊗ v2, quaisquer que
sejam v1, v2 ∈ R2.
(b) Encontre v1, v2,w1,w2 ∈ R2 tais que T = v1⊗ v2 +w1⊗w2, mas que
v1 ⊗ v2 e w1 ⊗w2 não sejam múltiplos de e1 ⊗ e1 e e2 ⊗ e2.
Então um tensor T de tipo (1, 1) pode ser representado por uma matriz
(Tij)
n
i,j=1, e um operador linear T ∈ Lin(V) também. Isto nos faz descon-
fiar da existência de um isomorfismo T11(V) ∼= Lin(V). O barato disto
tudo é que não só tal isomorfismo existe, mas também é natural, não de-
pendendo de nenhuma escolha de base para V.
Teorema 1.6. A aplicação Ψ : Lin(V) → T11(V) definida por Ψ(T)( f , v)
.
=
f (T(v)) é um isomorfismo linear.
Demonstração: A verificação de que Ψ(T) ∈ T11(V) é o Exercício 1.6 a
seguir. Vejamos queΨ é um isomorfismo, utilizando uma baseB= (ei)ni=1
de V.
Para tanto, basta notar que se Tij são as componentes de Ψ(T) na base
B, então
Ψ(T) =
n
∑
i,j=1
Tijei ⊗ ej e
T(ej) =
n
∑
i=1
ei(Tej)ei =
n
∑
i=1
Ψ(T)(ei, ej)ei =
n
∑
i=1
Tijei.
6
Em outras palavras, a matriz do operador linear na base B e as com-
ponentes do tensor associado, na mesma base, na verdade são a mesma
coisa!
Exercício 1.6. Verifique na demonstração acima que de fatoΨ(T) ∈ T11(V).
Por meio deste isomorfismo, é possível falar nas noções de traço e de-
terminante de um tensor de tipo (1, 1). O determinante não se generaliza
facilmente para tensores de maior valência. Sendo assim, foquemos no
traço:
Proposição 1.7. Existe uma única aplicação linear tr 11 : T
1
1(V) → R tal que
tr 11(v⊗ f ) = f (v), para todos f ∈ V∗ e v ∈ V. A operação tr 11 é usualmente
chamada de contração.
Demonstração: Vejamos como esta aplicação deve funcionar, em coorde-
nadas. SeB= (ei)ni=1 é uma base de V e T ∈ T11(V), então
tr 11(T) = tr
1
1
(
n
∑
i,j=1
Tijei ⊗ ej
)
=
n
∑
i,j=1
Tijtr
1
1(ei ⊗ ej)
=
n
∑
i,j=1
Tije
j(ei) =
n
∑
i,j=1
Tijδ
j
i =
n
∑
i=1
Tii.
Naturalmente, gostaríamos de definir tr 11(T)
.
= ∑ni=1 T
i
i, onde (T
i
j)
n
i,j=1 são
as componentes de T em uma dada base de V. Para legitimar tal definição
é então imperativo mostrar que se B˜ = (e˜i)ni=1 e B˜
∗ = (e˜i)ni=1 são outras
bases duais de V e V∗, vale ∑ni=1 Tii = ∑
n
i=1 T˜
i
i.
Faremos isto aplicando o utilíssimo Exercício 1.3 (p. 5):
n
∑
i=1
Tii =
n
∑
i=1
T(ei, ei) =
n
∑
i=1
T
(
n
∑
j=1
ei(e˜j)e˜
j,
n
∑
k=1
e˜k(ei)e˜k
)
=
n
∑
i,j,k=1
ei(e˜j)e˜
k(ei)T(e˜j, e˜k) =
n
∑
j,k=1
T˜ jk e˜
k
(
n
∑
i=1
ei(e˜j)ei
)
=
n
∑
j,k=1
T˜ jk e˜
k(e˜j) =
n
∑
j,k=1
T˜ jkδ
k
j =
n
∑
j=1
T˜ jj,
como desejado.
Observação.
7
• A notação tr 11 ficará mais clara quando discutirmos contrações para
tensores de tipo (r, s), em breve.
• Observe que, seguindo a notação do Teorema 1.6 (p. 6), de fato temos
tr 11(T) = tr (Ψ(T)), onde o segundo tr denota o traço de operadores
lineares.
• De modo análogo, há uma única aplicação R-linear tr11 : T11 (V)→ R
tal que tr11( f ⊗ v) = f (v). Veremos na Seção 2 que na presença de
um produto escalar 〈·, ·〉 em V, tr11 é equivalente à tr 11.
Pela primeira vez precisamos saber como as componentes de um dado
tensor em diferentes bases se relacionam. Isto acaba sendo de muita im-
portância em Física, onde os problemas costumam ser tratados por meio
de coordenadas. Para tensores de tipo (1, 1) temos a:
Proposição 1.8. Sejam T ∈ T11(V) e
B= (ei)ni=1, B
∗ = (ei)ni=1, B˜= (e˜i)
n
i=1 e B˜
∗ = (e˜i)ni=1
pares de bases duais de V e V∗. Se
e˜j =
n
∑
i=1
aijei e ej =
n
∑
i=1
bije˜i,
então
T˜ij =
n
∑
k,`=1
bika
`
jT
k
`.
Demonstração: Façamos o cálculo diretamente:
T˜ij = T(e˜
i, e˜j) = T
(
n
∑
k=1
bike
k,
n
∑
`=1
a`je`
)
=
n
∑
k,`=1
bika
`
jT
k
`.
Exercício 1.7. Assuma a notação da proposição acima.
(a) Mostre que de fato temos e˜i = ∑nk=1 b
i
ke
k e, além disso, que ei =
∑nj=1 a
i
je˜
j.
Sugestão. Use o Exercício 1.3 (p. 5).
(b) Mostre que as matrizes (aij)
n
i,j=1 e (b
i
j)
n
i,j=1 são inversas.
8
Sugestão. Faça substituições e mostre o pedido via a definição de pro-
duto entre matrizes, verificando que ∑nk=1 a
i
kb
k
j = ∑
n
k=1 b
i
ka
k
j = δ
i
j.
(c) Mostre que se T ∈ T12(V), então T˜ijk = ∑n`,p,q=1 bi`apjaqkT`pq. Você con-
segue imaginar como fica a relação para tensores T ∈ Trs(V)? Spoiler:
Teorema 1.14 (p. 15, adiante).
O exercício acima na verdade nos diz várias coisas sobre como tensores
se comportam mediante mudança de base. Em particular, nos diz que a
base dual se transforma “na direção oposta” da base inicial. Isso pode ser
discutido para justificar a nomenclatura contravariante/covariante ado-
tada, mas não parece haver um acordo uniforme sobre isso.
Agora que estamos um pouco acostumados com tensores de tipo (1, 1),
veremos que as adaptações para o caso geral (r, s) são mínimas. Comece-
mos dando a definição de produto tensorial no caso geral (mencionado
brevemente nos itens (5) e (6) do Exemplo 1.2, p. 3):
Definição 1.9. O produto tensorial de T ∈ Trs(V) e S ∈ Tr′s′(V) é o tensor
T ⊗ S ∈ Tr+r′s+s′(V) definido por
(T ⊗ S)( f 1, . . . , f r+r′ , v1, . . . , vs+s′)
.
= T( f 1, . . . , f r, v1, . . . , vs)S( f r+1, . . . , f r+r
′
, vs+1, . . . , vs+s′).
Exercício 1.8.
(a) Mostre que ⊗ é associativo.
(b) Dê um exemplo (quando r = r′ e s = s′) que testemunhe que ⊗ não é,
em geral, comutativo.
(c) Mostre que seB= (ei)ni=1 é uma base de V, então
(T ⊗ S)i1...ir+r′j1...js+s′ = T
i1...ir
j1...js
S
ir+1...ir+r′
js+1...js+s′
.
(d) Além do resultado do item acima, vemos que⊗ realmente se comporta
como um produto: mostre que se T1, T2, T ∈ Trs(V), S1, S2, S ∈ Tr′s′(V)
e λ ∈ R, então:
• (T1 + λT2)⊗ S = T1 ⊗ S + λ(T2 ⊗ S);
• T ⊗ (S1 + λS2) = T ⊗ S1 + λ(T ⊗ S2).
9
Observação. Pode-se também definir o produto tensorial entre tensores
com domínios embaralhados, fornecendo os argumentos e alimentando
os tensores (em ordem) até esgotá-los, de modo a também desembaralhar
o domínio do produto obtido. Por exemplo, se T ∈ T1 12 (V) e S ∈ T21(V),
podemos definir T ⊗ S ∈ T43(V) por
(T ⊗ S)( f 1, f 2, f 3, f 4, v1, v2, v3) = T( f 1, v1, v2, f 2)S( f 3, f 4, v3).
Tal definição nos dá a relação (razoável de se esperar)
(T ⊗ S)i1i2i3i4j1 j2 j3 = T
i1 i2
j1 j2
Si3i4j3 .
Exercício 1.9. Defina T ⊗ S ∈ T35(V) para T ∈ T13(V) e S ∈ T22(V), e
escreva suas componentes em termos das componentes de T e S.
Com isto, podemos generalizar a Proposição 1.5 (p. 5):
Proposição 1.10. SejaB= (ei)ni=1 uma base de V. Então
B⊗r⊗ (B∗)⊗s .= {ei1⊗· · ·⊗ eir ⊗ ej1⊗· · ·⊗ ejs | 1 ≤ i1, . . . , ir, j1, . . . , js ≤ n}
é uma base para o espaçovetorial Trs(V). Em particular, dimTrs(V) = nr+s.
Demonstração: Para ver que B⊗r ⊗ (B∗)⊗s é linearmente independente,
considere a combinação linear
n
∑
i1,...,ir,j1,...,js=1
ai1...irj1...jrei1 ⊗ · · · ⊗ eir ⊗ e
j1 ⊗ · · · ⊗ ejs = 0.
Aplicando os dois lados de tal igualdade em (ek1 , · · · , ekr , e`1 , · · · , e`s) e
utilizando a definição do produto tensorial, obtemos
n
∑
i1,...,ir,j1,...,js=1
ai1...irj1...jre
k1(ei1) · · · ekr(eir)ej1(e`1) · · · ejs(e`s) = 0.
Simplificando, vem que
n
∑
i1,...,ir,j1,...,js=1
ai1...irj1...jrδ
k1
i1
· · · δkrirδ
j1
`1
· · · δjs`s = 0,
donde segue precisamente que ak1...kr`1...`s = 0. Pela arbitrariedade dos ín-
dices, concluímos queB⊗r ⊗ (B∗)⊗s é linearmente independente.
10
Agora, vejamos queB⊗r ⊗ (B∗)⊗s gera Trs(V). De fato, se T ∈ Trs(V),
afirmamos que
T =
n
∑
i1...ir,j1,...,js=1
Ti1...ir j1...jsei1 ⊗ · · · ⊗ eir ⊗ e
j1 ⊗ · · · ⊗ ejs .
Com efeito, basta ver que ambos os lados agem igualmente sobre uma
base do domínio (V∗)r × Vs. Assim sendo, considere índices arbitrários
e a (r + s)-upla (ek1 , · · · , ekr , e`1 , · · · , e`s). Aplicando a igualdade em tal
(r + s)-upla, do lado esquerdo obtemos Tk1...kr`1...`s por definição, e do di-
reito obtemos também Tk1...kr`1...`s , por um cálculo análogo ao feito para
verificar a independência linear de B⊗r ⊗ (B∗)⊗s (envolvendo deltas de
Kronecker).
Exercício 1.10. Assuma a notação da proposição acima.
(a) Mostre que
T =
n
∑
i1...ir,j1,...,js=1
Ti1...ir j1...jsei1 ⊗ · · · ⊗ eir ⊗ e
j1 ⊗ · · · ⊗ ejs
diretamente, calculando T( f 1, . . . , f r, v1, . . . , vs) para entradas arbitrá-
rias, imitando o caso (r, s) = (1, 1) feito na demonstração da Proposi-
ção 1.5 (p. 5).
(b) Compare com atenção as demonstrações das Proposições 1.5 (p. 5) e
1.10 acima e convença-se que de fato nenhuma ideia nova foi introdu-
zida (além talvez, do mencionado no item (a)).
Observação (Convenção de Einstein). A fim de evitar escrever coisas desa-
gradáveis como ∑ni1...ir,j1,...,js=1 · · · , há a seguinte convenção, devida a Eins-
tein:
• É feito um acordo sobre qual conjunto os índices percorrem. Por
exemplo, letras do início ou do meio do alfabeto (a, b, c, . . ., ou então
i, j, k, . . .) percorrem índices de 1 a n, letras gregas (µ, ν,λ, . . .) percor-
rem índices de 0 a 4 (comum em Relatividade Geral, para expressar
as componentes do tensor métrico de um espaço-tempo como gµν);
11
• Omitem-se todos os símbolos de somatório, ficando implícito que
se um mesmo índice aparece uma única vez em cima e em baixo,
estamos somando sobre ele. Por exemplo:
v =
n
∑
i=1
viei −→ v = viei
f =
n
∑
i=1
fiei −→ f = fiei
tr 11(T) =
n
∑
i=1
Tii −→ tr 11(T) = Tii
T˜ij =
n
∑
k,`=1
bika
`
jT
k
` −→ T˜ij = bika`jTk`
Ai =
n
∑
j=1
BijC
j −→ Ai = BijCj
n
∑
i=1
Aiji −→ Aiji
n
∑
k=1
aikb
k
j = δ
i
j −→ aikbkj = δij
• Deve-se tomar cuidado com quais índices são “mudos” e quais não
são. É a mesma situação quando lidamos com índices mudos em so-
matórios ou em variáveis mudas em integrais indefinidas. Por exem-
plo, temos que
viei = vjej = vkek = · · · ,
etc., mas note que nestas situações, os índices repetidos aparecem
uma única vez em cima e em baixo. Sendo assim, expressões como
vivi ou vi + ui não são compatíveis com a convenção de Einstein. Por-
tanto, voltaremos com os símbolos de somatório quando necessário.
• Neste sentido, o delta de Kronecker tem a ação de trocar o índice que
está sendo somado. Por exemplo, δijv
j = vi, δijδ
k
`A
j` = Aik, etc..
• Quando fazendo substituições, deve-se tomar o cuidado de não re-
petir índices mudos. Por exemplo, se pi = aijv
j e vj = bjiw
i, é er-
rado escrever pi = aijb
j
iw
i. Note que o índice i aparece três vezes no
12
lado esquerdo. O correto é identificar que na expressão vj = bjiw
i,
o índice i é mudo. Assim, podemos escrever vj = bjkw
k e substituir
pi = aijb
j
kw
k, sem conflitos (observe o somatório duplo implícito).
Exercício 1.11.
(a) Suponha que vi = aijw
j e que (bij)
n
i,j=1 seja a matriz inversa de (a
i
j)
n
i,j=1.
Mostre que wi = bijv
j.
Sugestão. Multiplique os dois lados de vi = aijw
j por bki e, depois de
simplificar, renomeie k→ i.
(b) Simplifique:
• δijδ
j
kδ
k
i.
• e1jk`δ
j
2δ
k
4δ
`
3.
• δijviu
j.
• δ2jδ
j
kv
k.
• δ3jδ
j
1;
• ei3kδipvk.
(c) O delta de Kronecker e o símbolo de Levi-Civita são tensores muito
particulares, que após devidas identificações (que veremos na Seção
2), podem ser identificados com tensores cujas componentes são, em
bases adequadas, δij e eijk, assumindo os mesmos valores que δ
i
j e eijk
(reveja o Exemplo 1.4, p. 4). Mostre que
eijke
k
`m = δ
i
`δjm − δimδj`.
Sugestão. Tenha paciência e analise casos, é um exercício de combina-
tória. Observe que não há nenhuma soma ocorrendo no lado direito,
somente no esquerdo.
(d) Refaça o Exercício 1.7 (p. 8) utilizando a convenção de Einstein.
(e) (Desafio) Mostre que se n = (n1, n2, n3) ∈ R3 é um vetor unitário,
Nij .= δij − eijknk + ninj e M
j
i
.
= δij + e
j
i kn
k,
então NijM kj = 2δ
ik.
13
Sugestão. Os valores numéricos de δ e e com quaisquer posiciona-
mentos de índices são o que você imagina. Pelo item (c), temos que
e
ij
re
k
j s = δ
i
sδ
k
r − δikδrs. Além disto, e kj snjns = 0 (por quê?), e n ser
unitário nos diz que δrsnrns = 1.
Adotaremos a convenção de Einstein deste ponto em diante.
Voltemos aos tensores. O mesmo raciocínio feito na demonstração da
Proposição 1.10 (p. 10) nos permite encontrar bases para espaços de ten-
sores com domínios embaralhados. Por exemplo:
Exercício 1.12. SejaB= (ei)ni=1 uma base de V. Mostre que
B∗ ⊗B⊗B∗ .= {ei ⊗ ej ⊗ ek | 1 ≤ i, j, k ≤ n}
é uma base para o espaço vetorial T11 1(V), com operações entre tensores
definidas ponto a ponto. Em particular, dimT11 1(V) = n
3.
Em geral, os vários espaços de tensores com a mesma valência são to-
dos isomorfos, independente de como os domínios estão embaralhados.
É possível exibir tais isomorfismos sem escolher bases de V e V∗, quando
dispomos de um produto escalar e não-degenerado 〈·, ·〉 em V. Veremos
como isto funciona na Seção 2.
Na Proposição 1.7 (p. 7), apresentamos a contração tr 11 : T
1
1(V) → R.
Para tensores de tipo (r, s), a contração que definiremos a partir de tr 11 não
produz um número real, mas sim outro tensor:
Definição 1.11. Sejam r, s ≥ 1. A contração no a-ésimo índice contravari-
ante e no b-ésimo índice covariante é a aplicação tr ab : T
r
s(V) → Tr−1s−1(V)
definida por
tr ab(T)( f
1, . . . , f r−1, v1, . . . , vs−1)
.
=
.
= tr 11
(
T( f 1, . . . , f a−1, •, f a, . . . , f r−1, v1, . . . , vb−1, •, vb, . . . , vs)
)
.
Observação. A notação com • indica exatamente quais os argumentos per-
manecem livres. Por exemplo, se T ∈ T11(V) e f ∈ V∗ está fixado, T( f , •)
indica o elemento de T01(V) dado por V 3 v 7→ T( f , v) ∈ R.
Essencialmente, travam-se todos os argumentos possíveis de modo a
se obter um tensor de tipo (1, 1), e então faz-se a contração tr 11 usual.
Exemplo 1.12. Fixe uma baseB= (ei)ni=1 de V.
14
1. Se δ : V∗ ×V → R é dado por δ( f , v) = f (v), como no Exemplo 1.2
(p. 3), então tr 11(δ) = δ
i
i = n.
2. Se B ∈ T12(V) é dado por B = Bijkei ⊗ ej ⊗ ek, então temos duas
contrações possíveis, a saber:
tr 11(B) = B
i
ike
k e tr 12(B) = B
i
jie
j.
3. Se W ∈ T23(V) é dado por W = W ijk`mei ⊗ ej ⊗ ek ⊗ e` ⊗ em, temos
2 · 3 = 6 contrações (todas elas tensores de valência 3). Algumas
delas são
tr 11(W) = W
ij
i`mej ⊗ e` ⊗ em,
tr 12(W) = W
ij
kimej ⊗ ek ⊗ em, e
tr 23(W) = W
ij
k`jei ⊗ ek ⊗ e`.
Exercício 1.13. Encontre as contrações restantes tr 13(W), tr
2
1(W) e
tr 22(W).Uma vez entendido os exemplos acima, não é surpreendente o enunci-
ado do caso geral (é um corolário automático da Proposição 1.7, p. 7):
Proposição 1.13. SejamB= (ei)ni=1 uma base de V e T ∈ Trs(V). Então dados
1 ≤ a ≤ r e 1 ≤ b ≤ s, temos
(tr ab(T))
i1...ir−1
j1...js−1 = T
i1...ia−1kia ...ir−1
j1...jb−1kjb ...js−1
.
De modo paralelo ao feito anteriormente quando discutimos tensores
de tipo (1, 1), vejamos agora como as componentes de um tensor se com-
portam mediante mudança de base:
Teorema 1.14. Sejam T ∈ Trs(V) e
B= (ei)ni=1, B
∗ = (ei)ni=1, B˜= (e˜i)
n
i=1 e B˜
∗ = (e˜i)ni=1
pares de bases duais de V e V∗. Se e˜j = aijei e ej = b
i
je˜i então
T˜i1...ir j1...js = b
i1
k1
· · · birkr a
`1
j1
· · · a`sjs T
k1...kr
`1...`s
.
15
Observação. Um jeito de pensar nesta lei de transformação é em termos
de (aij)
n
i,j=1, tendo em mente que (b
i
j)
n
i,j=1 é a sua matriz inversa (nós já vi-
mos isso no Exercício 1.7, p. 8): para cada índice covariante (inferior), um
termo a contribui, enquanto que para cada índice contravariante (supe-
rior), um termo b contribui. Ou seja, termos “co” correspondem à matriz
de coeficientes “direta”, e termos “contra” à sua inversa.
Demonstração: É quase automático, usando o Exercício 1.7 (p. 8) e a con-
venção de Einstein:
T˜i1...ir j1...js = T(e˜
i1 , . . . , e˜ir , e˜j1 , . . . , e˜js)
= T(bi1k1e
k1 , . . . , birkre
kr , a`1j1e`1 , . . . , a
`s
jse`s)
= bi1k1 · · · b
ir
kr
a`1j1 · · · a
`s
js T(e
k1 , . . . , ekr , e`1 , . . . , e`s)
= bi1k1 · · · b
ir
kr
a`1j1 · · · a
`s
js T
k1...kr
`1...`s
.
2 E quando temos um produto escalar?
Sabemos o que é um produto interno positivo-definido em um espaço
vetorial. A condição de que o produto seja positivo-definido pode ser en-
fraquecida sem que percamos resultados relevantes na nossa discussão
aqui. Vamos registrar esta pequena generalização que usaremos, aprovei-
tando a linguagem de tensores que introduzimos até agora:
Definição 2.1. Um produto escalar (pseudo-Euclideano) em V é um tensor
〈·, ·〉 ∈ T02(V) satisfazendo:
(i) 〈x, y〉 = 〈y, x〉 para todos os x, y ∈ V. Ou seja, 〈·, ·〉 é simétrico.
(ii) se 〈x, y〉 = 0 para todo y ∈ V, então necessariamente x = 0. Ou seja,
〈·, ·〉 é não-degenerado.
Se ao invés de (ii), valer a condição mais forte
(iii) 〈x, x〉 ≥ 0 para todo x ∈ V, e 〈x, x〉 = 0 se e somente se x = 0,
então 〈·, ·〉 é chamado um produto interno (Euclideano, positivo-definido).
Observação. Note que (iii) implica em (ii), basta tomar y = x. Já em outros
contextos um pouco mais gerais, um tal produto escalar 〈·, ·〉 também é
chamados um tensor métrico.
16
Fixamos daqui em diante um produto escalar 〈·, ·〉 em V.
Como 〈·, ·〉 é um tensor, em particular sabemos o que são suas componen-
tes numa base B = (ei)ni=1 de V: gij
.
= 〈ei, ej〉. As imposições dadas na
definição de 〈·, ·〉 nos dão boas condições sobre tais componentes, qual-
quer que seja a baseB escolhida:
• A condição (i) garante que a matriz (gij)ni,j=1 é simétrica;
• A condição (ii) garante que a matriz (gij)ni,j=1 é não-singular (ou seja,
possui inversa).
A matriz inversa de (gij)ni,j=1 é usualmente denotada por (g
ij)ni,j=1. As
vantagens de possuir um produto escalar começam quando utilizamos-o
para obter novas identificações naturais (que não dependem da escolha de
uma base do espaço).
Exercício 2.1. Simplifique:
• δijgkig
j`δk`.
• e1`mgijgjkδ1kδ
`
2δ
m
3 .
Comecemos identificando decentemente V com o seu dual V∗, usando
〈·, ·〉:
Proposição 2.2 (Isomorfismos musicais).
(i) A aplicação bemol [ : V → V∗ definida por v[(w) .= 〈v,w〉 é um isomor-
fismo.
(ii) Dado f ∈ V∗ existe um único f ] ∈ V tal que f (v) = 〈 f ], v〉, para todo
v ∈ V. Fica então bem definida a aplicação sustenido ] : V∗ → V, que é o
isomorfismo inverso de bemol.
Demonstração: Claramente [ é linear. Como V tem dimensão finita, basta
provar que [ é injetor. Mas se v ∈ ker [, temos 〈v,w〉 = 0 para todo
w ∈ V. Uma vez que 〈·, ·〉 é não-degenerado, segue que v = 0. Logo [ é
um isomorfismo, e assim fica bem definido o isomorfismo inverso ].
O próximo passo natural é analisar como os isomorfismos musicais
funcionam em coordenadas:
17
Proposição 2.3. SejaB= (ei)ni=1 uma base de V. Suponha que v = v
iei ∈ V e
f = fiei ∈ V∗. Então v[ = viei e f ] = f iei, onde
vi = gijvj e f i = gij f j.
Observação.
• Observe os abusos de notação (v[)i = vi e ( f ])i = f i.
• O produto 〈·, ·〉 é utilizado para subir e descer índices das coordena-
das de v e f . Tal operação é muito comum em Física e Geometria.
Note a semelhança da ação dos coeficientes gij e gij com o delta de
Kronecker.
• Isto justifica a nomenclatura de isomorfismos “musicais”: o isomor-
fismo [ abaixa meio tom (abaixa o índice) das componentes de v
(vi → vi), enquanto o isomorfismo ] aumenta meio tom (aumenta
o índice) das componentes de f ( fi → f i).
• Mnemônico: vetores tem “pontas afiadas” (sharp↗), então f ] é um
vetor.
Demonstração: Por um lado, a igualdade v[(ej) = 〈v, ej〉 se lê como vjej(ei) =
〈vjej, ei〉, ou seja, vi = gjivj = gijvj, como desejado.
De outro lado, f (ej) = 〈 f ], ej〉 se torna fiei(ej) = 〈 f iei, ej〉, donde f j =
gij f i. Multiplicando tudo por gkj (e somando em j, claro2), temos
gkj f j = gkjgij f i = δki f
i = f k,
e renomear k→ i nos dá f i = gij f j, como no enunciado.
Proposição 2.4. SejaB= (ei)ni=1 uma base de V. Então
(ei)[ = gije
j e (ei)] = gijej.
Demonstração: Façamos o primeiro. Como ei = δ
j
iej, a proposição ante-
rior nos dá que
(ei)[ = gjkδ
k
ie
j = gjiej = gijej,
como desejado.
Exercício 2.2.
2Alguns textos chamam esta operação de “contrair contra gkj”.
18
(a) Tenha certeza de que entendeu as manipulações feitas utilizando a
convenção de Einstein nas duas últimas demonstrações.
(b) Verifique que (ei)] = gijej, completando a demonstração acima.
Mudando um pouco o ponto de vista, o que acabamos de fazer foi ver
como usar 〈·, ·〉 para identificar T01(V) e T10(V). Isto pode ser feito para
identificar Trs(V) com Tr
′
s′(V), desde que r + s = r
′ + s′. Vejamos alguns
casos com valência baixa, para começar.
Proposição 2.5. A aplicação ]1 : T02(V)→ T11(V) dada por T]1( f , v)
.
= T( f ], v)
é um isomorfismo.
Demonstração: É claro que ]1 é linear, e como dimT02(V) = dimT
1
1(V),
basta ver que ]1 é injetor. SejaB= (ei)ni=1 uma base de V. Note que
(T]1)ij = T
]1(ei, ej) = T((ei)], ej) = T(gikek, ej) = gikT(ek, ej) = gikTkj.
Se T]1 = 0, então gikTkj = 0. Multiplicando tudo por g`i, temos
0 = g`igikTkj = δk`Tkj = T`j,
e como os índices eram arbitrários, segue que T = 0.
Observação. Ao invés de escrever (T]1)ij = g
ikTkj, usualmente escreve-se
apenas Tij = g
ikTkj, como viemos fazendo com vetores e covetores.
Exercício 2.3.
(a) Mostre que a aplicação [1 : T20(V) → T11(V) definida por T[1( f , v)
.
=
T( f , v[) é um isomorfismo.
(b) Caso já não tenha feito isso durante o item (a), verifique também que
Tij = gjkT
ik.
Exercício 2.4.
(a) Mostre que [1,2 : T20(V) → T02(V) dada por T[1,2(v,w) = T(v[,w[) é
um isomorfismo.
(b) Caso já não tenha feito isso durante o item (a), verifique também que
Tij = gikgj`Tk`.
Com isto, poderíamos pensar que temos todas as identificações pos-
síveis entre tensores de valência igual a 2. Mas não nos esqueçamos dos
tensores com domínios embaralhados:
19
Proposição 2.6. A aplicação ]1
[1
: T11 (V)→ T11(V) dada por
T]1
[1
( f , v) = T( f ], v[)
é um isomorfismo.
Demonstração: Como na Proposição 2.5 (p. 19), basta provar que ]1
[1
é
injetora. Faremos isto usando coordenadas, novamente: considere uma
baseB= (ei)ni=1 de V. Temos:
Tij = T
]1
[1
(ei, ej) = T((ei)], (ej)[) = T(g
ikek, gj`e`) = gikgj`T `k .
Se T]1
[1
= 0, então gikgj`T `k = 0. Multiplicando tudo por gpigqj, obtemos
0 = gpigqjgikgj`T `k = δ
k
pδ
q
`T
`
k = T
q
p ,
e a arbitrariedade dos índices nos diz que T = 0.
Observação.
• Na demonstração acima, multiplicar tudo por gpigqj não foi um deus
ex machina, tirado da cartola. É justamente “o que faltava” para que
surgissem os deltas de Kronecker necessários para concluir o argu-
mento, tomando o cuidado para não repetir índices em cima ou em
baixo (por isso os índices novos p e q). Isto deve ter ficado mais claro,
caso você tenha feitos os exercícios 2.3 e 2.4 acima.
• Todas as facetas de um mesmo tensor acabam por ser representadas
pela mesma letra, no caso T. Em qual espaço T está depende dos
seus argumentos, e do contexto.
• Subindo e descendo o índice do delta de Kronecker e do Símbolo
de Levi-Civita (cujas coordenadas independem da base) usando um
produto positivo-definido, concluímos que numericamente vale δij =
δij = δ
ij = δ ij , bem como e
i
jk = eijk = e
ijk, etc., justificando a notação
adotada no Exercício 1.11 (p. 13). Por exemplo eijk = δ
i`e`jk.
Registramos então o caso geral:
Teorema 2.7. Se r + s = r′ + s′, então Trs(V) ∼= Tr′s′(V) de forma natural (ou
seja, é possível exibir um isomorfismo que não depende da escolha de uma base
para V, lançando mão de 〈·, ·〉).
20
Observação. Existem inúmeras possibilidades de isomorfismos entre es-
tes espaços. Por exemplo, poderíamos abaixar todos os índices contrava-
riantes, obtendo isomorfismos com o espaço T0r+s(V).
Na seção anterior, vimos uma generalização do traço: a contração entre
índices contravariantes e covariantes. Combinando isto com os isomorfis-
mos musicais, podemos definir traços entre índices do mesmo tipo, como
tr a,b e tr a,b. Vejamos como fazer isto, começando com casos de valência
baixa, como sempre:
Definição 2.8.
(i) A contração covariante é a aplicação tr 1,2 : T02(V)→ R dada por
tr 1,2(T)
.
= tr 11(T
]1),
onde ]1 : T02(V) → T11(V) é o isomorfismo dado na Proposição 2.5
(p. 19).
(ii) A contração contravariante é a aplicação tr 1,2 : T20(V)→ R dada por
tr 1,2(T) .= tr 11(T[1),
onde [1 : T20(V)→ T11(V) é o isomorfismo dado no Exercício 2.3 (p.
19).
Exercício 2.5. Mostre que se T é um tensor de valência igual a 2 e B =
(ei)ni=1 é uma base de V, então T
i
i = T
i
i .
Observação. Em geral Tij 6= T ji . Este exercício mostra que também pode-
ríamos ter “transferido” toda a situação para T11 (V) e usado a aplicação
tr11, brevemente mencionada na Seção 1.
Proposição 2.9. SejaB= (ei)ni=1 uma base de V.
(a) Se T ∈ T02(V), temos que tr 1,2(T) = gijTij.
(b) Se T ∈ T20(V), temos que tr 1,2(T) = gijTij.
Demonstração: Basta notar que Tii = g
ijTij = gijTij.
Corolário 2.10. Seja T ∈ Lin(V) um operador linear. Definindo T˜ ∈ T02(V)
por T˜(x, y) = 〈T(x), y〉, tem-se que tr (T) = tr 1,2(T˜).
21
Observação. A importância deste corolário está no fato de que a quanti-
dade tr (T) não depende do produto escalar. Ou seja, um método para
calcular o traço de T é escolher algum produto 〈·, ·〉 em V, definir o tensor
T˜ associado, para então aplicar a contração tr 1,2.
Exercício 2.6. Complete os detalhes da demonstração da Proposição 2.9,
caso não tenha se convencido. Também mostre o corolário acima.
Exemplo 2.11. Suponha que B = (ei)ni=1 é uma base ortonormal de V.
Quando 〈·, ·〉 não é necessariamente um produto positivo-definido, “or-
tonormal” quer dizer que 〈ei, ej〉 = 0 se i 6= j, e que para cada índice
1 ≤ i ≤ n temos ei .= 〈ei, ei〉 ∈ {−1, 1}. Ou seja, em forma matricial3
temos (gij)ni,j=1 = diag(e1, . . . , en) e, em particular, (g
ij)ni,j=1 = (gij)
n
i,j=1.
Segue disto que:
1. Se T ∈ T02(V), então tr 1,2(T) = ∑ni=1 eiT(ei, ei).
2. Se T ∈ T20(V), então tr 1,2(T) = ∑ni=1 eiT(ei, ei).
Lembre que o traço generalizado tr ab : T
r
s(V)→ Tr−1s−1(V) era uma apli-
cação que diminuia a valência de um dado tensor em 2. Isto continuará
sendo verdade:
Definição 2.12. Sejam a ≤ b inteiros não-negativos.
(i) Seja s ≥ 2. A contração covariante nos índices a e b é a aplicação
tr a,b : Trs(V)→ Trs−2(V) definida por:
tr a,b(T)( f 1, . . . , f r, v1, . . . , vs−2)
.
=
.
= tr 1,2
(
T( f 1, . . . , f r, v1, . . . , •, . . . , •, . . . , vs−2)
)
,
onde os • estão nas a-ésima e na b-ésima entradas covariantes.
(ii) Seja r ≥ 2. A contração contravariante nos índices a e b é a aplicação
tr a,b : Trs(V)→ Tr−2s (V) definida por:
tr a,b(T)( f 1, . . . , f r−2, v1, . . . , vs)
.
=
.
= tr 1,2
(
T( f 1, . . . , •, . . . , •, . . . , f r−2, v1, . . . , , vs)
)
,
onde os • estão nas a-ésima e na b-ésima entradas contravariantes.
3A quantidade de ei negativos é a mesma para cada base ortonormal de V (este resul-
tado não-trivial é conhecido como Lei da Inércia de Sylvester).
22
Exemplo 2.13. Fixe uma baseB= (ei)ni=1 de V.
1. Como 〈·, ·〉 ∈ T02(V), faz sentido calcularmos tr 1,2(〈·, ·〉). A Propo-
sição 2.9 (p. 21) nos dá tr 1,2(〈·, ·〉) = gijgij = gjigij = δjj = n.
2. Temos que se det ∈ T0n(Rn) e 〈·, ·〉 é o produto escalar usual em Rn,
então tr a,b(det) é o tensor nulo, para quaisquer escolhas de a e b, pois
det é totalmente anti-simétrico.
3. Se v,w ∈ V, então tr 1,2(v⊗w) = 〈v,w〉. De fato, pela Proposição
2.9 temos
tr 1,2(v⊗w) = gij(v⊗w)ij = gijviwj = 〈v,w〉.
4. De modo análogo ao exemplo anterior, se f , g ∈ V∗, então temos que
tr 1,2( f ⊗ g) = 〈 f ], g]〉. Vejamos em coordenadas:
tr 1,2( f ⊗ g) = gij( f ⊗ g)ij = gij figj
= gijgik f kgj`g` = δi`gik f
kg`
= gk` f kg` = 〈 f ], g]〉.
Exercício 2.7. Já que falamos na quantidade 〈 f ], g]〉, vamos definir
um novo produto 〈·, ·〉∗ : V∗ × V∗ → R por 〈 f , g〉∗ .= 〈 f ], g]〉. Mos-
tre que 〈·, ·〉∗ é um produto escalar não-degenerado em V∗, que é
positivo-definido se 〈·, ·〉 o for. Quais são suas componentes, em ter-
mos de (gij)ni,j=1?
Note que T02(V
∗) = T20(V), então quem chamamos de “vetores”
e quem chamamos de “covetores” na verdade depende do nosso
ponto de vista.
5. Se W ∈ T23(V) é dado por W = W ijk`mei ⊗ ej ⊗ ek ⊗ e` ⊗ em, como
no Exemplo 1.12 (p. 14), temos que tr 1,2(W) ∈ T03(V) é dado por
tr 1,2(W) = gijW
ij
k`me
k ⊗ e` ⊗ em.
Também podemos calcular tr 1,3(W) ∈ T21(V):
tr 1,3(W) = gkmW
ij
k`mei ⊗ ej ⊗ e`.
Exercício 2.8. Como fica tr 1,2(W) ∈ T21(V)?
23
De modo análogo à Proposição 1.13 (p. 15), registramos o caso geral
para as expressões das contrações em coordenadas:
Proposição 2.14. SejamB= (ei)ni=1 uma base de V e T ∈ Trs(V).
(i) Se s ≥ 2, então
(tr a,b(T))
i1...ir
j1...js−2 = g
k`Ti1...ir j1...k...`...js−2 .
(ii) Se r ≥ 2, então
(tr a,b(T))i1...ir−2j1...js = gk`T
i1...k...`...ir
j1...js
.
Os índices indicados em vermelho em T estão nas a-ésima e b-ésima posições.
Os próximos dois exercícios são para sedimentar de forma definitiva o
traquejo com índices que buscamos adquirir até agora:
Exercício 2.9 (Um gostinho de Geometria). Um tensor R ∈ T04(V) é dito
de tipo curvatura se satisfaz
(i) R(x, y, z,w) = −R(y, x, z,w) = −R(x, y,w, z);
(ii) R(x, y, z,w) = R(z,w, x, y).
(iii) R(x, y, z, ·) + R(y, z, x, ·) + R(z, x, y, ·) = 0;
Suponha que V possui um produto escalar 〈·, ·〉.
(a) Mostre que:
tr 1,2(R) = tr 3,4(R) = 0,
tr 2,4(R) = tr 1,3(R) e
tr 1,4(R) = tr 2,3(R) = −tr 1,3(R).
Ou seja, basta conhecer tr 1,3(R) para ter todas as informações neces-
sárias sobre as contrações de R.
Sugestão. Como ficam as simetrias (i) e (ii) em coordenadas?
(b) Mostre que R0 : V4 → R definido por
R0(x, y, z,w) .= 〈y, z〉〈x,w〉 − 〈x, z〉〈y,w〉
é um tensor de tipo curvatura. O tensor R0 é chamado a curvatura
fundamental de 〈·, ·〉.
24
(c) Se R é um tensor de tipo curvatura, como 〈·, ·〉 é não-degenerado fica
bem definido R : V3 → V tal que R(x, y, z,w) = 〈R(x, y)z,w〉. O
tensor de Ricci associado à R é Ric ∈ T02(V), dado por
Ric(x, y) .= tr (R(·, x)y).
Mostre que para a curvatura fundamental de 〈·, ·〉, vale a relaçãoRic0(x, y) = (n− 1)〈x, y〉.
Observação. É comum em Geometria escrever R(x, y)z ao invés de
R(x, y, z). Não é um engano.
(d) A curvatura escalar associada à R é definida por S .= tr 1,2(Ric). Para
a curvatura fundamental de 〈·, ·〉, use o item anterior e conclua que
S0 = n(n− 1).
Observação. Curiosidades:
• Na definição de tensor de tipo curvatura, na verdade as condições (i)
e (iii) juntas implicam a condição (ii)! Ou seja, a condição (ii) é supér-
flua. O argumento padrão é conhecido como “octaedro de Milnor”.
• Além disto, é possível mostrar que o subespaçoR(V) ⊆ T04(V) for-
mado pelos tensores de tipo curvatura possui dimensão dimR(V) =
n2(n2 − 1)/12.
Exercício 2.10. Sejam T, S ∈ T02(V). O produto de Kulkarni-Nomizu de T e
S é definido como
(T©∧ S)(x, y, z,w) .=
.
= T(x, z)S(y,w) + T(y,w)S(x, z)− T(x,w)S(y, z)− T(y, z)S(x,w).
(a) Verifique que T©∧ S ∈ T04(V) e que satisfaz as simetrias (i) e (ii) da
definição de tensor de tipo curvatura.
(b) Mostre que se T e S são simétricos então T©∧ S satisfaz também a
simetria (iii), e portanto é um tensor de tipo curvatura.
(c) Suponha que V possui um produto escalar 〈·, ·〉. Mostre que
tr 1,3(T©∧ S) = tr 1,2(T)S + tr 1,2(S)T − tr 2,3(S⊗ T)− tr 2,3(T ⊗ S).
25
(d) Suponha que V possui um produto escalar 〈·, ·〉. Mostre que
〈·, ·〉 ©∧ 〈·, ·〉 = −2R0,
onde R0 é a curvatura fundamental de 〈·, ·〉.
Antes de partirmos para a Seção 3 falar de Álgebra, vamos ver como
usar a linguagem de tensores para estabelecer de modo simples fórmulas
envolvendo o produto vetorial emR3. Suponha então até o fim desta seção
que V = R3 e que 〈·, ·〉 é o produto interno usual. Vamos começar com
uma definição de produto vetorial que não dependa de coordenadas:
Definição 2.15. Sejam v,w ∈ R3. O produto vetorial de v e w é o único
vetor v×w ∈ R3 tal que 〈v×w, x〉 = det(v,w, x), para todo x ∈ R3.
Lema 2.16. Seja B= (ei)3i=1 uma base ortonormal e positiva de R
3. Então vale
que (v ×w)i = eijkvjwk, onde eijk é o símbolo de Levi-Civita (apresentado no
Exemplo 1.4, p. 4 e no Exercício 1.11, p. 13) .
Demonstração: Fazendo x = ei na definição de v×w, de um lado temos
〈v×w, ei〉 = 〈(v×w)jej, ei〉 = (v×w)jδji = (v×w)i.
De outro lado:
det(v,w, ei) = det(vjej, wkek, ei) = vjwkejki = eijkvjwk.
Portanto (v×w)i = eijkvjwk. Levantando o índice i nos dois lados segue
a conclusão desejada.
Observação. Agora você pode escrever a expressão para v×w explicita-
mente e se convencer se que ele é expresso via aquele determinante, como
você aprendeu quando era criancinha · ·^ .
Um exemplo de aplicação desta expressão é a seguinte:
Proposição 2.17. Sejam v,w, z ∈ R3. Então vale que
(v×w)× z = 〈z, v〉w− 〈z,w〉v.
26
Demonstração: Basta analisarmos a nível de coordenadas, numa base or-
tonormal e positiva de R3, utilizando o Exercício 1.11 (p. 13). Temos:
((v×w)× z)i = eijk(v×w)jzk
= eijke
j
`mv
`wmzk
= eikje
j
m`v
`wmzk
= (δimδk` − δi`δkm)v`wmzk
= δimδk`v
`wmzk − δi`δkmv`wmzk
= δk`zkv`wi − δkmzkwmvi
= 〈z, v〉wi − 〈z,w〉vi,
como desejado.
Corolário 2.18 (Identidade de Jacobi). Sejam v,w, z ∈ R3. Então vale que
(v×w)× z+ (w× z)× v+ (z× v)×w = 0.
Exercício 2.11. Mostre o corolário acima.
Tais manipulações também nos permitem estabelecer algumas identi-
dades envolvendo operadores diferenciais, como o gradiente, rotacional
e o divergente. Se can = (ei)3i=1 é a base canônica, e ∇ = (∂1, ∂2, ∂3) é
o vetor de operadores diferenciais, recorde que se ϕ : R3 → R é suave, e
F : R3 → R3 é um campo de vetores suave em R3, valem
grad ϕ = ∇ϕ = (∂1ϕ, ∂2ϕ, ∂3ϕ),
div F = 〈∇, F〉 = ∂1F1 + ∂2F2 + ∂3F3 e
rot F = ∇× F = eijk∂jFkei.
Proposição 2.19. Seja ϕ : R3 → R suave. Então rot grad ϕ = 0.
Demonstração: Basta observar que (rot grad ϕ)i = eijk∂j∂kϕ. Como os ín-
dices j e k são mudos, temos que
e
ij
k∂j∂kϕ = e
ik
j∂k∂jϕ = e
ik
j∂j∂kϕ,
usando no último passo que derivadas parciais de segunda ordem comu-
tam. Por outro lado, como o símbolo de Levi-Civita é anti-simétrico, temos
e
ij
k∂j∂kϕ = −eikj∂j∂kϕ.
Logo eijk∂j∂kϕ = 0.
27
Exercício 2.12. Faça um argumento análogo ao acima (prestando atenção
aos índices mudos) e mostre que se F : R3 → R3 é um campo de vetores
suave em R3, então div rot F = 0.
Proposição 2.20. Seja F : R3 → R3 um campo de vetores suave em R3. Então
rot rot F = grad(div F)−∇2F,
onde ∇2F indica o Laplaceano (vetorial) de F.
Demonstração: Vamos proceder como na Proposição 2.17 (p. 26), utili-
zando a identidade do Exercício 1.11 (p. 13) com o balanceamento correto
de índices. Temos que:
(rot rot F)i = eijk∂j(rot F)
k
= e
ij
k∂je
k`
m∂`F
m
= e
ij
ke
k`
m∂j∂`F
m
= (δi`δ
j
m − δimδj`)∂j∂`Fm
= δi`δ
j
m∂j∂`Fm − δimδj`∂j∂`Fm
= δi`∂j∂`Fj − δj`∂j∂`Fi
= δi`∂`(div F)− δj`∂j∂`Fi
= (grad(div F))i − (∇2F)i
= (grad(div F)−∇2F)i,
como desejado.
Exercício 2.13. Sejam F,G : R3 → R3 são campos de vetores suaves em
R3.
(a) Mostre que div(F ×G) = 〈rot F,G〉 − 〈rotG, F〉.
(b) Mostre que
rot(F ×G) = 〈G,∇〉F + (divG)F − 〈F,∇〉G− (div F)G,
onde 〈F,∇〉G indica o operador diferencial F1∂1 + F2∂2 + F3∂3 agindo
em cada componente do campo G, etc..
(c) Mostre que
grad〈F,G〉 = 〈G,∇〉F + 〈F,∇〉G− (rot F)×G− (rotG)× F.
28
3 A propriedade universal
Existe uma outra abordagem para este assunto, mais preferida por al-
gebristas, em Matemática. Vamos discutí-la um pouco e dar a relação com
tudo o que fizemos até agora. Fixe V e W dois espaços vetoriais (reais) de
dimensão finita, até o final da seção.
Definição 3.1. Um produto tensorial de V e W é um par (T,⊗), onde T
é um espaço vetorial e ⊗ : V ×W → T é uma aplicação bilinear satisfa-
zendo a seguinte propriedade universal: dado qualquer espaço vetorial Z e
qualquer aplicação bilinear B : V ×W → Z, existe uma única aplicação
linear Bˆ : T→ Z tal que Bˆ ◦ ⊗ = B. Em outras palavras, o seguinte dia-
grama sempre se completa de forma única:
Z
T
B
Bˆ
⊗
V ×W
Figura 1: A propriedade universal de (T,⊗)
Observação.
• Normalmente já escreveríamos ⊗ ao invés de ⊗. Vamos carregar a
notação⊗ até estabelecermos os isomorfismos necessários para iden-
tificar ⊗ com a operação ⊗ que estudamos nas seções 1 e 2.
• Nestas condições, diremos que Bˆ é uma linearização de B (via ⊗).
Ou seja, um produto tensorial de V e W é um espaço vetorial munido
de uma aplicação ⊗ que lineariza universalmente todas as aplicações bi-
lineares definidas em V ×W. Tal produto tensorial na verdade age como
um “tradutor”, convertendo aplicações bilineares B em aplicações lineares
Bˆ que são, em um certo sentido, equivalentes à B, e ⊗ é o seu dicionário.
O problema com esta definição é que não fica claro se um produto ten-
sorial entre dois dados espaços sequer existe, ou se é único. Como ocorre
frequentemente em Matemática, a unicidade é mais fácil de ser verificada
do que a existência:
29
Proposição 3.2. Sejam (T1,⊗1) e (T2,⊗2) dois produtos tensoriais de V e W.
Então existe um isomorfismo linear Φ : T1 → T2 tal que Φ ◦ ⊗1 = ⊗2.
Φ
V ×W
⊗2⊗1
T2T1
Figura 2: A unicidade do produto tensorial a menos de isomorfismo.
Demonstração: Como ⊗2 : V ×W → T2 é bilinear, a propriedade univer-
sal de (T1,⊗1) nos dá uma única Φ : T1 → T2 linear tal que Φ ◦ ⊗1 = ⊗2.
V ×W T2⊗2
T1
Φ
⊗1
Figura 3: A existência de Φ.
Para ver que Φ é um isomorfismo, vamos exibir a sua inversa, repe-
tindo o argumento “ao contrário”: como ⊗1 : V ×W → T1 é bilinear,
a propriedade universal de (T2,⊗2) nos dá uma única aplicação linear
Ψ : T2 → T1 tal que Ψ ◦ ⊗2 = ⊗1.
V ×W
T2
⊗2
Ψ
T1⊗1
Figura 4: A existência de Ψ.
30
Resta verificar que Ψ é de fato a inversa de Φ. Para tal, vamos ape-
lar para a unicidade garantida pelas propriedades universais. Explore-
mos agora a propriedade universal de (T1,⊗1) para a aplicação bilinear
⊗1 : V ×W → T1. Claramente IdT1 : T1 → T1 satisfaz IdT1 ◦ ⊗1 = ⊗1, maspor outro lado
(Ψ ◦Φ) ◦ ⊗1 = Ψ ◦ (Φ ◦ ⊗1) = Ψ ◦ ⊗2 = ⊗1,
de modo que Ψ ◦Φ = IdT1 .
V ×W
T1
⊗1
⊗2
T1
IdT1
V ×W
T1
⊗1
⊗2
T1
Ψ ◦Φ
Figura 5: A demonstração de Ψ ◦Φ = IdT1 .
Analogamente mostra-se que Φ ◦Ψ = IdT2 .
Para nosso conforto psicológico, resta mostrar a existência de um pro-
duto tensorial de V e W. Vamos lançar mão de uma construção um pouco
mais geral:
Exemplo 3.3 (Espaço vetorial livre). Seja S um conjunto não-vazio e con-
sidere a coleçãoF(S) das funções f : S→ R tais que f (s) 6= 0 apenas para
uma quantidade finita de elementos de S. As operações de adição e mul-
tiplicação real em F(S), ponto a ponto, o tornam um espaço vetorial. Para
cada a ∈ S, defina δa : S→ R por δa(x) = 1 se x = a e 0 caso contrário.
Exercício 3.1. Mostre que {δa | a ∈ S} é uma base para F(S).
Ainda, a aplicação S 3 s 7→ δs ∈ {δa | a ∈ S} é uma bijeção, de modo
que podemos identificar a com δa, para cada a ∈ S. Fica então provado
que dado um conjunto não-vazio, existe um espaço vetorial que tem este
conjunto como base.
31
Para exibir um produto tensorial de V e W, consideramos o quociente
de F(V ×W) pelo subespaço F0 gerado pelos elementos da forma
(v1 + v2,w)− (v1,w)− (v2,w),
(v,w1 +w2)− (v,w1)− (v,w2),
(λv,w)− λ(v,w) e
(v,λw)− λ(v,w).
Suponha que⊗ : V×W → F(V×W)/F0 a é aplicação que associa à cada
(v,w) a sua classe v ⊗ w em F(V ×W)/F0. Note que o quociente feito
nos dá as relações
(v1 + v2) ⊗ w = v1 ⊗ w+ v2 ⊗ w
v ⊗ (w1 +w2) = v ⊗ w1 + v ⊗ w2
(λv) ⊗ w = λ(v ⊗ w) = v ⊗ (λw).
Compare-as com o Exercício 1.8 (p. 9). Finalmente:
Proposição 3.4. O par (F(V ×W)/F0,⊗) é um produto tensorial de V e W.
Demonstração: A aplicação ⊗ é bilinear, por construção. Sejam Z um es-
paço vetorial qualquer e B : V ×W → Z bilinear. Como V ×W é uma
base de F(V ×W), existe uma extensão linear B˜ : F(V ×W) → Z de B.
Sendo B bilinear, B˜ se anula nos elementos deF0, e portanto desce ao quo-
ciente como uma aplicação linear Bˆ : F(V ×W)/F0 → Z, satisfazendo
Bˆ(v⊗w) = B(v,w), como desejado.
Sendo assim, denotamos V ⊗ W = (F(V ×W)/F0,⊗). Antes de
prosseguir, chamamos a atenção para dois detalhes importantes:
• Um elemento genérico de V ⊗ W não é necessariamente da forma
v ⊗ w para certos v ∈ V ew ∈W, mas sim é uma soma de elementos
dessa forma (chamados decomponíveis).
• Para definir aplicações lineares em V ⊗ W, necessariamente deve-
mos utilizar a propriedade universal. Isto é evidenciado pela rea-
lização como um quociente dada acima, mas o problema é que um
dado elemento de V ⊗ W pode ser representado de mais de uma
maneira. A propriedade universal garante que todas estas maneiras
foram contempladas.
Com isto em mente, a identificação que buscamos é a seguinte:
32
Proposição 3.5. A aplicação
B : V ×W → Lin2(V∗ ×W∗,R)
dada por B(v,w)( f , g) .= f (v)g(w) induz um isomorfismo
V⊗W ∼= Lin2(V∗ ×W∗),
onde Lin2(V∗ ×W∗,R) = {T : V∗ ×W∗ → R | T é bilinear}.
Demonstração: Claramente B é bilinear. Pela propriedade universal de
V ⊗W, existe Bˆ : V ⊗W → Lin2(V∗ ×W∗,R) linear tal que
Bˆ(v⊗ w)( f , g) = f (v)g(w).
Para verificar que Bˆ é um isomorfismo, introduzamos uma notação con-
veniente: defina o produto tensorial v⊗w ∈ V∗ ×W∗ por
(v⊗w)( f , g) .= f (v)g(w),
agora entre vetores de espaços possivelmente diferentes. Deste modo, te-
mos Bˆ(v⊗ w) = v⊗w.
Naturalmente vale um análogo da Proposição 1.5 (p. 5): seB= (vi)ni=1
e C= (wi)mi=1 são bases de V e W, então
B⊗ C .= {vi ⊗wj | 1 ≤ i ≤ n e 1 ≤ j ≤ m}
é uma base de Lin2(V∗ ×W∗,R), cuja dimensão é então nm.
Fixadas tais bases, o resto do argumento é simplificado. Como os espa-
ços tem dimensões diferentes, abandonamos a convenção de Einstein até
o fim desta demonstração.
(i) Vejamos que Bˆ é injetor: seja ∑Ni=1 xi ⊗ yi um elemento genérico
de V ⊗ W que esteja em ker Bˆ. Escrevendo xi = ∑nj=1 ajivj e y =
∑nk=1 b
k
iwk, temos
0 = Bˆ
(
N
∑
i=1
xi ⊗ yi
)
=
N
∑
i=1
Bˆ(xi ⊗ yi)
=
N
∑
i=1
xi ⊗ yi =
N
∑
i=1
(
n
∑
j=1
ajivj
)
⊗
(
m
∑
k=1
bkiwk
)
=
n
∑
j=1
m
∑
k=1
(
N
∑
i=1
ajib
k
i
)
vj ⊗wk.
33
Por independência linear de B⊗ C, temos que ∑Ni=1 ajibki = 0 para
quaisquer 1 ≤ j ≤ n e 1 ≤ k ≤ m. Com isto, repetimos a conta acima
usando a bilinearidade de ⊗:
N
∑
i=1
xi ⊗ yi =
N
∑
i=1
(
n
∑
j=1
ajivj
)
⊗
(
m
∑
k=1
bkiwk
)
=
n
∑
j=1
m
∑
k=1
(
N
∑
i=1
ajib
k
i
)
vj ⊗ wk = 0,
como desejado.
(ii) Vejamos que Bˆ é sobrejetor: seja T ∈ Lin2(V∗ ×W∗,R). Escrevendo
T = ∑ni=1∑
m
j=1 T
ijvi ⊗wj, temos que
Bˆ
(
n
∑
i=1
m
∑
j=1
Tijvi ⊗ wj
)
=
n
∑
i=1
m
∑
j=1
TijBˆ(vi ⊗ wj)
=
n
∑
i=1
m
∑
j=1
Tijvi ⊗wj = T.
Exercício 3.2. Mostre o análogo da Proposição 1.5 (p. 5) mencionado na
demonstração acima.
Note que o argumento acima mostra que (Lin2(V∗×W∗),⊗) é um pro-
duto tensorial de V e W, que denotaremos por V ⊗W. Ou seja, como
V ⊗ W ∼= V ⊗W, abandonamos para sempre a notação ⊗ e a construção
complicada apresentada (que diga-se de passagem, na verdade não foi uti-
lizada concretamente em nenhum ponto), em favor de ⊗ e de espaços de
aplicações bilineares. Sendo assim, fazendo W = V e W = V∗, e também
tomando V∗ no lugar de V, fica provado também que
T11(V) = V ⊗V∗, T11 (V) = V∗ ⊗V,
T20(V) = V ⊗V e T02(V) = V∗ ⊗V∗.
Exemplo 3.6.
1. Se 〈·, ·〉 é um produto escalar em V, como 〈·, ·〉 : V × V → R é bili-
near, sabemos que existe uma aplicação linear de V ⊗ V em R que
leva v⊗w em 〈v,w〉. Pela unicidade da linearização, sabemos que
esta aplicação é tr 1,2.
34
2. De modo análogo, como 〈·, ·〉∗ : V∗ × V∗ → R (visto no Exercício
2.7, p. 23) é bilinear, sabemos que existe uma única aplicação linear
definida em V∗ ⊗V∗ que lineariza 〈·, ·〉∗, a saber, tr 1,2.
Gostaríamos de caracterizar os outros espaços Trs(V) desta maneira.
Para tanto, precisamos generalizar a Definição 3.7 (p. 35):
Definição 3.7. Sejam V1, . . . , Vp espaços vetoriais. Um produto tensorial de
V1, . . . , Vp é um par (T,⊗), onde Té um espaço vetorial e
⊗ : V1 × · · · ×Vp → T
é uma aplicação multilinear satisfazendo a seguinte propriedade universal:
dado qualquer espaço vetorial Z e qualquer aplicação multilinear
B : V1 × · · · ×Vp → Z,
existe uma única aplicação linear Bˆ : T→ Z tal que Bˆ ◦ ⊗ = B. Em outras
palavras, o seguinte diagrama sempre se completa de forma única:
Z
T
Bˆ
V1 × · · · ×Vp
B
⊗
Figura 6: A propriedade universal de (T,⊗), novamente.
É a mesma história de antes: um produto tensorial lineariza universal-
mente todas as aplicações multilineares, utilizando uma única aplicação
⊗. A filosofia por trás das ideias dadas até agora não muda.
Exercício 3.3. Sejam V1, . . . , Vp espaços vetoriais, e (T1,⊗1) e (T2,⊗2) dois
produtos tensoriais de V1, . . . , Vp. Mostre que existe um isomorfismo li-
near Φ : T1 → T2 tal que Φ ◦ ⊗1 = ⊗2.
No que toca a existência do produto tensorial neste caso, considera-
mos novamente um quociente da forma F(V1 × · · · × Vp)/F0, onde F0 é
o subespaço gerado por certos elementos que farão com que a projeção no
quociente restrita à V1 × · · · ×Vp seja multilinear.
35
Exercício 3.4. Tente descrever o subespaço F0 quando p = 3.
E, como antes, prova-se que o produto tensorial de V1, . . . , Vp assim
construído, denotado por
⊗p
i=1 Vi ou V1 ⊗ · · · ⊗ Vp, é isomorfo ao espaço
das aplicações multilineares de V∗1 × · · · ×V∗p em R.
Se V1 = · · · = Vp = V, escrevemos apenas V⊗p = ⊗pi=1 Vi = ⊗p V.
Com esta notação, fica então estabelecido que
Trs(V) = V
⊗r ⊗ (V∗)⊗s.
Exercício 3.5. Escreva T1 22 (V) e T
2
1 3(V) como produtos tensoriais de V e
V∗.
Para concluirmos a discussão, vejamos algumas outras aplicações da
propriedade universal:
Proposição 3.8 (Comutatividade). Sejam V e W dois espaços vetoriais.Então
V ⊗W ∼= W ⊗V.
Demonstração: A esta altura, deve ser razoavelmente evidente que que-
remos Bˆ : V ⊗W →W ⊗V, dada por Bˆ(v⊗w) = w⊗ v. Para definir esta
aplicação rigorosamente, consideramos B : V ×W → W ⊗ V dada por
B(v,w) = w⊗ v. Como B é bilinear, a propriedade universal de V ⊗W
nos fornece Bˆ.
B
Bˆ
V ×W W ⊗V
⊗
V ⊗W
Figura 7: Formalizando Bˆ(v⊗w) = w⊗ v.
A fim de provar que Bˆ é um isomorfismo, usa-se o mesmo argumento
para construir a sua inversa.
Exercício 3.6. Construa formalmente a inversa de Bˆ.
Sugestão. Não esqueça de usar a unicidade da linearização fornecida pela
propriedade universal para garantir que a inversa que você construiu de
fato funciona, como fizemos na Proposição 3.2 (p. 30).
36
⊗
W ×V
W ⊗V
V ⊗W
Figura 8: Dica.
Também temos a:
Proposição 3.9 (Associatividade). Sejam V1, V2 e V3 espaços vetoriais. Então
(V1 ⊗V2)⊗V3 ∼= V1 ⊗V2 ⊗V3.
Demonstração: Queremos construir a aplicação que leva (v1 ⊗ v2) ⊗ v3
em v1 ⊗ v2 ⊗ v3, e a ideia para tal é utilizar propriedades universais de
“trás pra frente”. Fixado v3 ∈ V3, defina Φv3 : V1 ×V2 → V1 ⊗V2 ⊗V3 por
Φv3(v1, v2)
.
= v1 ⊗ v2 ⊗ v3. Note que Φv3 é bilinear, então a propriedade
universal de V1 ⊗V2 nos dá uma aplicação linear
Φ̂v3 : V1 ⊗V2 → V1 ⊗V2 ⊗V3
satisfazendo Φ̂v3(v1 ⊗ v2) = v1 ⊗ v2 ⊗ v3.
⊗
Φ̂v3
V1 ⊗V2 ⊗V3
Φv3
V1 ×V2
V1 ⊗V2
Figura 9: O primeiro passo.
Assim sendo, fica bem definida Φ : (V1 ⊗V2)×V3 → V1 ⊗V2 ⊗V3 por
Φ(v1 ⊗ v2, v3) .= v1 ⊗ v2 ⊗ v3.
37
Mas como Φ̂v3 é linear, Φ é bilinear, e assim a propriedade universal de
(V1 ⊗ V2) ⊗ V3 nos dá uma aplicação linear Φ̂ : (V1 ⊗ V2) ⊗ V3 → V1 ⊗
V2 ⊗V3 satisfazendo
Φ̂((v1 ⊗ v2)⊗ v3) = v1 ⊗ v2 ⊗ v3.
⊗
V1 ⊗V2 ⊗V3
Φ̂
(V1 ⊗V2)⊗V3
(V1 ×V2)×V3
Φ
Figura 10: Concluindo a definição de Φ̂.
A construção da inversa é mais simples e só requer um passo: defina
Ψ : V1 ×V2 ×V3 → (V1 ⊗V2)⊗V3 por
Ψ(v1, v2, v3)
.
= (v1 ⊗ v2)⊗ v3.
ComoΨ é trilinear, a propriedade universal de V1⊗V2⊗V3 nos dá Ψ̂ : V1⊗
V2 ⊗V3 → (V1 ⊗V2)⊗V3 satisfazendo
Ψ̂(v1 ⊗ v2 ⊗ v3) = (v1 ⊗ v2)⊗ v3.
⊗
V1 ×V2 ×V3
V1 ⊗V2 ⊗V3
(V1 ⊗V2)⊗V3
Ψ
Ψ̂
Figura 11: Construindo a inversa Ψ̂.
Claramente Φ̂ e Ψ̂ são inversas, o que estabelece o isomorfismo dese-
jado.
38
Pratique a escrita:
Exercício 3.7. Sejam V1, V2 e V3 espaços vetoriais. Mostre que
V1 ⊗ (V2 ⊗V3) ∼= V1 ⊗V2 ⊗V3.
Em geral, vale esta associatividade para o produto tensorial de uma
quantidade qualquer (finita, claro) de espaços vetoriais. Note que então
não há ambiguidade em escrever Trs(V) = V⊗r ⊗ (V∗)⊗s.
Exercício 3.8. Sejam V1, W1, V2 e W2 espaços vetoriais, e T : V1 → W1 e
S : V2 →W2 duas aplicações lineares. Mostre que existe uma única aplica-
ção linear T ⊗ S : V1 ⊗V2 →W1 ⊗W2 tal que
(T ⊗ S)(v1 ⊗ v2) = T(v1)⊗ S(v2),
para todos v1 ∈ V1 e v2 ∈ V2.
Observação.
• Isto indica como generalizar o produto tensorial que definimos na
Seção 1 para aplicações multilineares com contradomínios mais com-
plicados que R. Tenha em mente que R⊗p ∼= R, para todo p.
• Pode-se mostrar que se B1,B2, C1 e C2 são bases de V1, V2, W1 e W2,
respectivamente (com dimensões n1, n2, m1 e m2), e [T]B1,C1 = A =
(aij) e [S]B2,C2 = B = (b
i
j), então
[T ⊗ S]B1⊗B2,C1⊗C2 ≡ A⊗ B .=
 a
1
1B · · · a1n1 B
... . . .
...
am11 B · · · am1n1 B
 .
A matriz A⊗ B é chamada o produto de Kronecker de A e B. Tal pro-
duto tem algumas propriedades interessantes. Por exemplo, se A e
B são matrizes quadradas de ordens n e m, respectivamente, então
vale a identidade4
det(A⊗ B) = (det A)m(det B)n.
Existem outras propriedades universais além da apresentada para o
produto tensorial. Vamos dar um exemplo:
4Sim, a ordem de A é o expoente de det B, e vice-versa. Não é um engano.
39
Definição 3.10 (Complexificação). Seja V um espaço vetorial real. Uma
complexificação de V é um par (VC, ι), onde VC é um espaço vetorial com-
plexo e ι : V → VC é uma aplicação R-linear satisfazendo a seguinte pro-
priedade universal: dado qualquer espaço vetorial complexo Z e uma apli-
caçãoR-linear T : V → Z, existe uma única aplicaçãoC-linear TC : VC → Z
tal que TC ◦ ι = T. Ou seja, o seguinte diagrama sempre se completa de
forma única:
ZV
T
TC
ι
VC
Figura 12: A propriedade universal de (VC, ι).
Não devem ser surpreendentes o próximo resultado, e tampouco sua
demonstração:
Proposição 3.11. Sejam V um espaço vetorial real, e (VC1, ι1) e (VC2, ι2) duas
complexificações de V. Então existe um isomorfismo C-linear Φ : VC1 → VC2 tal
que Φ ◦ ι1 = ι2.
Φ
ι2
VC2
V
VC1
ι1
Figura 13: A unicidade da complexificação a menos de isomorfismo.
Demonstração: A demonstração é análoga à da Proposição 3.2 (p. 30).
Sendo ι2 : V → VC2 uma aplicação R-linear, a propriedade universal de
(VC1, ι1) nos dá uma única aplicação C-linear Φ : VC1 → VC2 tal que Φ ◦
ι1 = ι2.
40
V
ι2
Φ
VC2
ι1
VC1
Figura 14: A construção de Φ.
Analogamente, usando que ι1 : V → VC1 éR-linear, a propriedade uni-
versal de (VC2, ι2) nos dá uma única aplicação C-linear Ψ : VC2 → VC1 tal
que Ψ ◦ ι2 = ι1.
V
VC2
ι2
Ψ
ι1
VC1
Figura 15: A construção de Ψ.
As aplicações Φ e Ψ são então inversas.
V
ι1
VC1
VC1
ι1
IdVC1
V
ι1
VC1
VC1
ι1
Ψ ◦Φ
Figura 16: A demonstração de Ψ ◦Φ = IdVC1 .
Analogamente mostra-se que Φ ◦Ψ = IdVC2 .
41
Observação. O argumento dado acima serve, em geral, para caracterizar
qualquer tipo de objeto utilizando uma dada propriedade universal.
Exercício 3.9. Os seguintes objetos também podem ser caracterizados por
propriedades universais, pesquise como:
(a) A soma direta
⊕
i∈I Vi de uma família de espaços vetoriais (Vi)i∈I .
(b) O produto direto ∏i∈I Vi de uma família de espaços vetoriais (Vi)i∈I .
(c) O quociente V/W de um espaço vetorial V por um subespaço W.
(d) O espaço vetorial livre F(S), tendo como base qualquer conjunto não-
vazio S (visto no Exemplo 3.3, p. 31).
Propriedades universais aparecem em várias outras áreas da Matemática.
Isto é estudado com maior profundidade em Teoria das Categorias.
Felizmente, a construção de complexificações é mais simples. Uma das
mais usuais, que você talvez já conheça, fica delinada no:
Exercício 3.10. Defina no produto cartesiano V ×V a seguinte multiplica-
ção por escalar complexo:
(a + bi)(u, v) .= (au− bv, bu+ av).
(a) Com esta multiplicação e a adição usual feita coordenada à coorde-
nada, mostre que V × V é um espaço vetorial complexo. Note que
(u, v) = (u, 0) + i(0, v). Assim, escrevemos V ⊕ iV .= V ×V.
Observação. Se você se sentir confortável, pode escrever u ≡ (u, 0)
e iv ≡ (0, v), de modo que (u, v) = u + iv, e fazer contas como se
estivesse em C.
(b) Mostre que se (vi)ni=1 é uma R-base de V, então ((vi, 0))
n
i=1 é uma C-
base de VC. Portanto dimCVC = dimRV.
(c) Sendo ι : V → V ⊕ iV dada por ι(u) = (u, 0), mostre que (V ⊕ iV, ι)
satisfaz a propriedade universal da complexificação.
(d) Bônus: suponha que 〈·, ·〉 é um produto escalar em V. Mostre que
〈u1 + iv1, u2 + iv2〉C .= 〈u1, u2〉+ 〈v1, v2〉+ i(〈v1, u2〉 − 〈u1, v2〉)
é um produto sesquilinear5 e hermiteano em V ⊕ iV, ou seja, é linear na
primeira entrada e antilinear na segunda, e satisfaz 〈z,w〉C = 〈w, z〉C.
5Melhor que linear, mais fraco que bilinear: 1, 5-linear.
42
Várias propriedades podem ser provadas a partir da unicidade dada
pela propriedade universal da complexificação. Por exemplo:
Exercício 3.11. Seja (VC, ι) uma complexificação de V. Mostre que se Z é
um espaço vetorial complexo, T, S : V → Z são R-lineares e λ ∈ R, então:
(a) (T + S)C = TC + SC;
(b) (λT)C = λTC.
Outra possibilidade de construção da complexificação é por meio do
produto tensorial:
Proposição 3.12. O par (C⊗V, 1⊗−) é uma complexificação de V.
Demonstração: Antes de qualquer coisa, note que a multiplicação por es-
calar complexodefinida por µ(λ⊗ v) .= (µλ)⊗ v torna C⊗V um espaço
vetorial complexo. Claramente a aplicação
V 3 v ι7−→ 1⊗ v ∈ C⊗V
é R-linear. Então sejam Z um espaço vetorial complexo e uma aplicação
R-linear T : V → Z. Definimos T˜ : C×V → Z pondo T˜(λ, v) .= λT(v).
ZC×V
T˜
TC
⊗
C⊗V
Figura 17: A construção de TC via a propriedade universal de C⊗V.
Como T˜ éR-bilinear, existe uma única aplicaçãoR-linear TC : C⊗V →
Z tal que
TC(λ⊗ v) = λT(v),
para todos λ ∈ C e v ∈ V. Em particular, TC(ι(v)) = T(v), e assim só
resta mostrarmos que TC é na verdade C-linear. Mas
TC(µ(λ⊗ v)) = TC((µλ)⊗ v) = (µλ)T(v) = µ(λT(v)) = µTC(λ⊗ v),
como queríamos.
43
	Aplicações multilineares
	E quando temos um produto escalar?
	A propriedade universal

Outros materiais