Baixe o app para aproveitar ainda mais
Prévia do material em texto
6 Caṕıtulo 1 Álgebra tensorial 1.1 Álgebra linear Referências: [8, 16, 4, 5, 11, 7, 10, 14, 6, 21] Obviamente, o conceito preciso e puro de vetor é aquele fornecido pela álgebra linear; em particular, é óbvio que, a rigor, um vetor: (i) não é “uma grandeza caracterizada por módulo, direção e sentido”, e (ii) não é “uma tripla (ou n-upla) numérica (real, complexa, etc)”. De fato, num espaço vetorial puro (bruto) não existe a noção de módulo de um vetor, assim como a tripla numérica define tão somente as componentes do vetor numa dada base1. Isso posto, é claro que devemos, imediatamente, reconhecer o papel fundamentaĺıssimo e talvez o mais importante, do ponto de vista heuŕıstico, da associação primitiva de vetores com deslocamentos no espaço f́ısico; em geral, aliás, o surgimento de novos conceitos e teorias vem, a partir da prática, envolto numa série de superestruturas supérfluas, que, só com o desenvolvimento lógico posterior, fica evidenciado. No caso particular dos deslocamentos, o que se faz necessário é considerar o espaço f́ısico como um espaço afim, no sentido matemático preciso da palavra2. Aqui, só queremos lembrar que, com essa estrutura, é que podemos dar sentido à noção de que o espaço f́ısico, pelo menos na acepção da geometria euclidiana, não possui origem privilegiada; o conceito mais primitivo é o de ponto, a partir do qual se constrói o de deslocamento e, como conseqüência, o de vetor3. Dito de outra forma, num espaço vetorial puro, não existe a noção de ponto. 1Eu, Mauŕıcio Ortiz Calvão, sou “representado”, no Brasil, por uma carteira de identidade com um certo número de registro geral, ao passo que, nos Estados Unidos, possuo uma carteira com um número distinto; será que, por isso, eu, Mauŕıcio Ortiz Calvão, sou duas pessoas? 2Gostaŕıamos de remeter, aqui, o leitor para o livro de Bamberg & Sternberg, [4], em especial as duas primeiras seções do primeiro caṕıtulo, onde os autores constroem, explicitamente, a idéia de vetor a partir dos pontos de um espaço afim. Tal obra é extremamente didática e de agradável leitura. 3Convém refletir sobre três conceitos de vetor tradicionalmente introduzidos na literatura: livre, deslizante e ligado; pense na noção de equipolência na geometria euclidiana [16]. 7 8 CAPÍTULO 1. ÁLGEBRA TENSORIAL 1.1.1 Espaços vetoriais 1.1.1.1 Axiomas Um espaço vetorial (ou linear) T (sobre K) é um conjunto {T, +, ·,K}, onde T é um conjunto não vazio de elementos chamados vetores, +, · são duas leis de composição: + : T × T → T (adição) · : K × T → T (multiplicação por escalar) e K := (K,⊕,¯) é um corpo, cujos elementos do conjunto de base, K, são chamados, nesse contexto, de escalares (por exemplo, os números reais, racionais, ou complexos). Outrossim, tais composições devem satisfazer, para quaisquer u,v,w ∈ T e a, b ∈ K, os seguintes axiomas4: 1. v + w = w + v (comutatividade da adição) 2. u + (v + w) = (u + v) + w (associatividade da adição) 3. ∃ 0 |v + 0 = v (existência de elemento neutro para adição) 4. ∃ −v ∈ T |v + (−v) = 0, ∀ v (existência de elementos inversos para adição) 5. a · (v + w) = a · v + a ·w 6. (a⊕ b) · v = a · v + b · v 7. a · (b · v) = (a¯ b) · v 8. 1·v = v. Os axiomas de (1) a (4) tornam {T, +} um grupo abeliano (comutativo). Os axiomas (2) e (7), com o abuso de notação mencionado na nota de rodapé 4, permitem a eliminação de parênteses em certas expressões; ou seja, u+v+w=(u+v)+w e abv = (ab)v. Exerćıcio 1.1 Prove as seguintes conseqüências imediatas dos axiomas: 1. o elemento neutro, 0, para adição é único. 2. para todo v ∈ T , 0v = 0. 3. os elementos inversos para adição são únicos. 4. se a ∈ K,v ∈ T , e av = 0, então ou a = 0 ou v = 0. Exerćıcio 1.2 Seja T := Rd := d vezes︷ ︸︸ ︷ R× · · · ×R, onde R é o conjunto dos números reais. Defina- mos (u1, . . . , ud) + (v1, . . . , vd) = (u1 + v1, . . . , ud + vd), a · (v1, . . . , vd) = (av1, . . . , avd),∀a ∈ R. Prove que (Rd, +, ·) é, então, um espaço vetorial (sobre o corpo dos reais). 4Infelizmente, por abuso de notação, costuma-se denotar ambas as operações · e ¯ simplesmente por justa- posição, assim como as operações + e ⊕ pelo mesmo śımbolo +. Tome cuidado! 1.1. ÁLGEBRA LINEAR 9 Exerćıcio 1.3 Seja R+ o conjunto de números reais positivos. Defina a “soma” de dois elemen- tos de R+ como sendo o produto no sentido usual (p + q := pq), e a multiplicação por escalares de R como sendo · : R×R+ (r, p) 7→ r · p := pr. Com tais operações, mostre que (R+, +, ·) é um espaço vetorial sobre R. Se U e V são dois espaços vetoriais sobre o mesmo corpo de escalares, então constrúımos um novo espaço vetorial, dito a soma direta de U e V e denotado por U + V, da seguinte forma: o novo conjunto de vetores é U × V , as novas adição e multiplicação por escalar são definidas por (com um evidente abuso de notação) (u,v) + (u′,v′) := (u + u′,v + v′) a · (u,v) := (a · u, a · v). Exerćıcio 1.4 Mostre que, no exerćıcio 1.2 acima, (Rd, +, ·) é a d-ésima soma direta de R consigo mesmo. 1.1.1.2 Convenções de domı́nio, de soma e de núcleo-́ındice Seguindo [8], é mais simples começar com um exemplo de equação matricial: u = Av. Aqui v é uma matriz (“vetor”) coluna, de ordem N × 1, digamos; A é uma matriz de ordem M × N ; e u é, pois, uma matriz (“vetor”) coluna, de ordem M × 1. Esta equação matricial nos diz como cada elemento individual de u é determinado a partir dos elementos individuais de v via A. Para escrevermos explicitamente tal expressão, introduz-se uma notação para os elementos (“componentes”) de u e v, assim como os elementos de A: digamos que va represente o a-ésimo elemento de u (a = 1, 2, . . . , N), uα o α-ésimo elemento de v (α = 1, 2, . . . , M), e Aαa o elemento da α-ésima linha e a-ésima coluna de A. A equação matricial acima é, então, equivalente às M equações uα = N∑ α=1 Aαav a. A convenção de domı́nio surge da observação de que não é necessário enunciar, em cada ocorrência de um conjunto de equações como essa, que existem M equações envolvidas e que a validade de cada uma delas está sendo afirmada. Isso pode ser percebido a partir da presença do ı́ndice α em cada membro da equação: pois α é um ı́ndice livre, diferentemente de a, que está sujeito a um sinal de somatório. Por outro lado, a convenção de soma segue da observação de que, sempre que uma soma ocorre em uma expressão desse tipo, é uma soma sobre um ı́ndice (no caso a) que ocorre precisamente duas vezes na expressão a ser somada. Assim, uma soma ocorre somente quando há um ı́ndice repetido; e quando um ı́ndice está repetido, uma soma é quase sempre impĺıcita. Sob tais circunstâncias, o śımbolo de somatório ∑N a=1 não desempenha nenhum papel 10 CAPÍTULO 1. ÁLGEBRA TENSORIAL útil, já que a soma pode ser reconhecida pela repetição de um ı́ndice; o śımbolo pode, pois, ser omitido. Assim, a equação de “componente” ou elemento acima é escrita, quando as convenções de domı́nio e soma estão vigentes, na forma simples uα = Aαav a. A presença do ı́ndice repetido a no membro direito implica soma sobre seu domı́nio permitido de valores 1, 2, . . . , N em virtude da convenção de soma; ao passo que a presença do ı́ndice livre α, em ambos os membros da equação, implica igualdade para cada valor 1, 2, . . . , M que ele pode assumir, em virtude da convenção de domı́nio. Em geral, as convenções de domı́nio e de soma funcionam da seguinte maneira. Se, numa equação envolvendo grandezas indexadas, existem ı́ndice livres (não repetidos), então a equação vale para todos os valores nos domı́nios de todos os ı́ndices livres, tendo tais domı́nios sido anteriormente declarados: isso é a convenção de domı́nio. Onde, numa expressão envolvendo grandezas indexadas, qualquer ı́ndice estiver repetido, soma sobre todos os valores posśıveis no domı́niodaquele ı́ndice é implicada, o domı́nio, de novo, tendo sido previamente declarado: isso é a convenção de soma. O funcionamento das convenções de domı́nio e de soma na prática é relativamente direto. Uma ou duas regras–freqüentemente melhor empregadas para verificação interativa da correção de um cálculo–devem ser mencionadas. O número de ı́ndices livres nos dois membros de uma equação deve ser o mesmo; e, naturalmente, cada ı́ndice livre diferente em uma expressão deve ser representado por uma letra diferente. Índices repetidos em uma expressão só podem ocorrer aos pares. A substituição de uma letra representando um ı́ndice por outra letra é permitida, contanto que todas as ocorrências da letra sejam alteradas no mesmo tempo e da mesma maneira, e contanto que fique subentendido que a nova letra tem o mesmo domı́nio de valores que aquela que ela substitui. A prática mais conveniente a se adotar, onde ı́ndices com diferentes domı́nios estiverem envolvidos em um único cálculo, é reservar uma pequena seção de um particular alfabeto para representar os ı́ndices com um dado domı́nio. Assim, no caso discutido acima, poder-se-ia tomar a, b, c para variarem e se somarem de 1 a N , e α, β, γ para variarem e se somarem de 1 a M ; então, uβ = Aβcv c significaria exatamente o mesmo que uα = Aαav a. Dois pontos devem ser enfatizados sobre a maneira em que tais convenções são usadas nessas notas. Em primeiro lugar, nós arranjamos as coisas de modo que o par de ı́ndices repetidos implicando uma soma ocorrerá (quase sempre) com um ı́ndice na posição superior e outro na inferior. Isso já está aparente no modo em que escolhemos escrever a equação matricial acima, quando algo do tipo uα = Aαava poderia ser esperado. O ponto está relacionado à importância de distinguir entre um espaço vetorial e o seu dual (vetores coluna versus vetores linha), que será explorado, com detalhes, mais a frente. O segundo ponto a prestar atenção é que uma expressão como (xc) é freqüentemente usada para representar (x1, x2, . . . , xn). E mais, o valor de uma função de n variáveis, digamos f , em (xc), será denotado por f(xc). Nesta situação, o ı́ndice c não está sujeito nem à convenção de soma nem à de domı́nio. Em tal contexto, (xc) deve geralmente ser pensado como o conjunto das coordenadas de um ponto em algum espaço. 1.1. ÁLGEBRA LINEAR 11 1.1.1.3 Independência linear e bases Seja T um espaço vetorial. Um conjunto finito de vetores, digamos {v1, . . . ,vr}, é dito linear- mente dependente se existirem escalares a1, . . . , ar, nem todos zero, tais que aivi = 0 (aqui, fica subentendido, pelas convenções de domı́nio e soma, que trata-se de ∑r i=1 a ivi = 0.). Um con- junto infinito é linearmente dependente se algum subconjunto finito for linearmente dependente. Um conjunto de vetores é linearmente independente se ele não for linearmente dependente. Uma soma da forma aivi, onde vi ∈ T e ai ∈ K, é chamada uma combinação linear de v1, . . . ,vr. Como conseqüências simples, notamos que dois vetores são linearmente dependentes se um é múltiplo do outro; não podemos dizer que cada um é múltiplo do outro, já que um deles pode ser 0. Se um conjunto S inclui 0, então ele é linearmente dependente a despeito de quaisquer outros elementos. Exerćıcio 1.5 Prove essas duas últimas afirmações. O número máximo de vetores linearmente independentes em um espaço vetorial T é chamado de dimensão de T e denota-se por dimT. Naturalmente, pode não haver um máximo finito, em cujo caso escrevemos dimT = ∞; isso significa que, para todo n positivo, há um subconjunto linearmente independente de T tendo n elementos. Uma base de T é um subconjunto S de T linearmente independente e tal que todo vetor é uma combinação linear de elementos de S.5 Exerćıcio 1.6 Prove que, se S é uma base, então a combinação linear que expressa v ∈ T em termos dos elementos de S é única, exceto pela ordem das “parcelas”. Se S é uma base de T, então, para cada v ∈ T , os escalares uńıvocos que ocorrem como coeficientes na combinação linear de elementos de S que expressam v são chamados de compo- nentes de v com respeito à base S. Consideramos que uma componente de v é atribúıda a cada elemento de S; no entanto, somente um número finito de componentes serão não zero6. Exerćıcio 1.7 Prove que todas as bases têm o mesmo número de elementos, a dimensão de T. 1.1.1.4 Transformações de base; vetores contravariantes (ou primais) Seja {e1, . . . , eN} (ou, simplesmente, {eα}) uma base de um espaço vetorial N -dimensional, T, de modo que qualquer v ∈ T pode ser escito como v = valphaeα, para convenientes escalares vα. Os escalares vα são as componentes de v com respeito à base {eα}. Queremos agora ver como as componentes de um vetor se transformam quando uma nova base é introduzida. Seja {eα′} uma nova base de T, e sejam vα′ as componentes de v com respeito a essa nova base. Então v = vα ′ eα′ . (1.1) 5Mencionamos, sem prova, que uma base sempre existe. Isso é óbvio se dimT for finita, mas, caso contrário, exige indução transfinita. 6Em espaços vetorias puros, somente combinações lineares com um número finito de termos são definidas, já que nenhum significado é atribúıdo a limites ou convergência. Espaços vetorias nos quais uma noção de limite está definida e que satisfazem certas relações adicionais são chamados espaços vetoriais topológicos. Quando esta estrutura adicional é derivada de um produto interno positivo definido, o espaço é dito um espaço de Hilbert. 12 CAPÍTULO 1. ÁLGEBRA TENSORIAL Os novos vetores de base podem, como quaisquer vetores, ser expressos como uma combinação linear dos antigos: eα′ = X β α′eβ, (1.2) e, inversamente, os antigos como uma combinação linear dos novos: eγ = X α′ γ eα′ . (1.3) (Embora estejamos usando a mesma letra de núcleo X, os N2 números Xβα′ são diferentes dos N 2 números Xγ ′ β , as posições das plicas indicando a diferença.) Substituindo, agora, eα′ , de (1.2), em 1.3, vem eγ = X α′ γ X β α′eβ. (1.4) Devido à independência linear de {eβ}, temos pois Xα ′ γ X β α′ = δ β γ , (1.5) onde δβγ é o delta de Kronecker, definido por δβγ := { 0, se β 6= γ, 1, se β = γ. (1.6) (Note que não podemos dizer que δββ = 1, pois β aparece tanto como um super-́ındice quanto como um sub-́ındice e, de acordo com nossas convenções, um somatório está impĺıcito; de fato, δββ = N , a dimensão de T.) Analogamente, podemos deduzir que Xβα′X γ′ β = δ γ′ α′ (= δ γ α). (1.7) Exerćıcio 1.8 Deduza essa última equação. A substituição de eα′ , a partir da equação (1.2), em (1.1), fornece v = vα ′ Xβα′eβ, (1.8) e, devido à independência linear de eβ, vβ = Xβα′v α′ . (1.9) Conseqüentemente, Xγ ′ α v α = Xγ ′ α X α β′v β′ = δγ ′ β′v β′ = vβ ′ . (1.10) Recapitulando, se as bases com e sem plica estão relacionadas por eα′ = X β α′eβ, eα = X β′ α eβ′ , (1.11) então as componentes estão relacionadas por vα ′ = Xα ′ β v β, vα = Xαβ′v β′ , (1.12) e valem Xαβ′X β′ γ = δ α γ , X α′ β X β γ′ = δ α′ γ′ . (1.13) 1.1. ÁLGEBRA LINEAR 13 1.1.2 Espaços duais Embora se sugira que possa ser útil visualizar os vetores de um espaço vetorial como um conjunto de setas partindo de uma origem, de certa forma esta imagem pode ser muito capciosa, pois muitos conjuntos de objetos sem qualquer semelhança com setas constituem espaços vetoriais sob definições adequadas de adição e multiplicação por escalar. Dentre tais objetos, temos as funções (voce imaginaria uma delas como uma seta?). Restrinjamo-nos a funções reais definidas num espaço vetorial real de conjunto de vetores T . Matematicamente, uma tal função f é simbolizada por f : T → R, indicando que ela aplica um vetor de T em um número real. Pode-se dotar o conjunto de todas as funções desse tipo com uma estrutura de espaço vetorial, definindo-se: 1. a soma f+ g de duas funções f e g como (f + g)(v) = f(v) + g(v), para todo v ∈ T ; 2. o produto af do escalar a pela função f como (af)(v) = a(f(v)), para todo v ∈ T ; 3. a função zero 0 como 0(v) = 0, para todo v ∈ T (onde, na esquerda, 0 é uma função, ao passo que, na direita, ele é o número real zero); 4. a função inversa −f da função f como (−f)(v) = −(f(v)), para todo v ∈ T. Exerćıcio 1.9 Prove que, munido dessas operações, o conjunto de funções f constitui um espaço vetorial. Qual é a sua dimensão? 1.1.2.1 Funcionais ou formas lineares O espaço de todas as funções reais sobre um espaço vetorial T é grande demais para nossos propósitos; restringir-nos-emos, pois, àquelas funções que são lineares. Ou seja, as funções que satisfazem f(au + bv) = af(u) + bf(v), (1.14) para todos a, b ∈ R e todos u,v ∈ T . Funções lineares reais sobre um espaço vetorial real são geralmente chamadas de funcionais ou formas lineares. É fácil verificar que a soma de dois funcionais lineares é também um funcional linear, e que a multiplicação por um escalar fornece um funcional linear também. Essas observações garantem que o conjunto de todos os funcionais lineares sobre um espaço vetorial T é também um espaço vetorial. Este espaço é o dual de T e denota-se por T∗. Exerćıcio 1.10 Prove as últimas afirmações. 14 CAPÍTULO 1. ÁLGEBRA TENSORIAL Como os funcionais lineares são vetores, iremos, de agora em diante, usar o tipo em negrito para eles. Destarte, se v ∈ T e f ∈ T ∗, então f(v) ∈ R, ou seja, é um escalar, a despeito do tipo em negrito. Temos agora dois tipos de vetores, aqueles em T e aqueles em T ∗. Para distingui-los, aqueles em T são chamados vetores contravariantes ou primais, ao passo que aqueles em T ∗ são chamados de vetores covariantes ou duais. Como uma caracteŕıstica distintiva adicional, os vetores de base de T∗ portarão super-́ındices e as componentes de vetores em T ∗ portarão sub-́ındices. Assim, se {eα} é uma base de T∗, então g ∈ T ∗ tem uma expressão única g = gαeα, em termos de componentes. Na verdade, a razão para a escolha das expressões contravariante e covariante ficará mais clara ainda na segunda subsubseção a seguir. 1.1.2.2 Bases duais (naturais) O uso da letra minúscula α na soma impĺıcita acima sugere, de acordo com nossa convenção de domı́nio, que o domı́nio da soma é de 1 a N , a dimensão de T, ou seja, que T∗ tem a mesma dimensão que T. Esse, de fato, é o caso, como provaremos, agora, mostrando que uma dada base {eα} de T induz, de uma maneira natural, uma base dual {eα} de T∗ possuindo N elementos que satisfazem eα(eβ) = δ α β . Começamos por definir eα como a função real que leva cada vetor v ∈ T no número real que é a sua α-ésima componente vα relativamente a {eα}, ou seja, eα(v) = vα, para todo v ∈ T . Isso nos dá N funções reais que claramente satisfazem eα(eβ) = δ α β ; resta mostrar que elas são lineares e que constituem uma base de T∗. Exerćıcio 1.11 Verifique que as funções eα são, de fato, lineares. Para provar que constituem uma base, prosseguimos assim. Para qualquer g ∈ T ∗, podemos definir N números reais gα por g(eα) =: gα. Então, para qualquer v ∈ T , g(v) = g(vαeα) = v αg(eα) (pela linearidade de g) = vαgα = gαe α(v). Assim, para qualquer g ∈ T ∗, temos g = gαeα, mostrando que {eα} gera T ∗ e resta a questão da independência linear de {eα}. Isso se responde notando que uma relação xαeα = 0, onde xα ∈ R e 0 é o funcional zero, implica que 0 = xαe α(eβ) = xαδ α β = xβ, para todo β. Do exposto, vemos que, dada uma base {eα} de T , as componentes gα de g ∈ T ∗ relativamente à base dual {eα} são dadas por gα = g(eα). 1.1.2.3 Lei de transformação das componentes Uma mudança de base (1.11) em T induz uma mudança da base dual. Denotemos o dual da base com plica {eα′} por eα′ , de modo que, por definição, eα′(eβ′) = δα′β′ , e eα ′ = Y α ′ β e β, para 1.2. ÁLGEBRA MULTILINEAR 15 alguns Y α ′ β . Então, δα ′ β′ = e α′(eβ′) = Y α′ γ e γ(Xµβ′eµ) = Y α ′ γ X µ β′e γ(eµ) (pela linearidade dos e γ) = Y α ′ γ X µ β′δ γ µ = Y α′ γ X γ β′ . o que quer dizer Y α ′ γ = X α′ γ . Exerćıcio 1.12 Prove essa última afirmação. Sendo assim, mediante uma mudança de base de T dada por (1.11), as bases duais de T ∗ se transformam como eα ′ = Xα ′ β e β, eα = Xαβ′e β′ . (1.15) Mostra-se de imediato que as componentes de g ∈ T ∗, relativamente às bases duais se transfor- mam como gα′ = X β α′gβ, gα = X β′ α gβ′ . (1.16) Exerćıcio 1.13 Prove isso. Então, a mesma matriz [Xα ′ β ] e sua inversa [X α β′ ] estão envolvidas, mas os seus papéis relativa- mente aos vetores de base e às componentes estão trocados. Dado T e uma base sua {eα}, acabamos de ver como construir o seu dual T∗ com base dual {eα} satisfazendo eα(eβ) = δαβ . Podemos aplicar esse processo novamente para chegar no dual T∗∗ de T∗, com base dual {fα}, digamos, satisfazendo fα(eβ) = δβα, e os vetores h ∈ T ∗∗ podem ser expressos em termos de componentes como h = hαfα. Sob uma mudança de base de T, as componentes de vetores em T se transformama de acordo com vα ′ = Xα ′ β v β. Isso induz uma mudança da base dual de T∗, sob a qual as componentes de vetores em T ∗ se transformam de acordo com gα′ = X β α′gβ. Por sua vez, isso induz uma mudança de base de T∗∗, sob a qual vê-se prontamente que as componentes de vetores em T ∗∗ se transformam de acordo com hα ′ = Xα ′ β h β (porque a inversa da inversa de uma matriz é a própria matriz). Ou seja, as componentes de vetores em T ∗∗ se transformam exatamente da mesma maneira que as componentes de vetores em T . Isso significa que, se estabelecermos uma correspondência biuńıvoca entre os vetores de T e de T ∗∗, fazendo com que vαeα em T corresponda a vαfα em T ∗∗, onde {fα} é o dual do dual de {eα}, então essa correspondência será independente de base. Exerćıcio 1.14 Convença-se disso! Uma correspondência biuńıvoca independente de base entre dois espaços vetoriais é chamada um isomorfismo natural e, naturalmente, espaços vetoriais naturalmente isomorfos são geralmente identificados, identificando-se os vetores correspondentes. Conseqüentemente, nós identificare- mos T∗∗ e T. 1.2 Álgebra multilinear Referências: [5, 11, 7, 10, 14, 21, 15, 19, 2] 16 CAPÍTULO 1. ÁLGEBRA TENSORIAL 1.2.1 Produtos tensoriais; o espaço Trs Dado um espaço vetorial T, vimos como criar um novo espaço vetorial, a saber o seu dual T∗, mas o processo acaba áı (ao identificarmos T∗∗ com T). Entretanto, é posśıvel gerar um novo espaço vetorial a partir de dois espaços vetoriais, formando o que se chama o seu produto tensorial. Como preliminar para isso, precisamos definir funcionais bilineares em um par de espaços vetoriais. Sejam T e U dois espaços vetoriais reais de dimensão finita. O produto cartesiano T × U é o conjunto de todos os pares (ordenados) da forma (v,w), onde v ∈ T e w ∈ U . Um funcional bilinear f sobre T × U é uma função real f : T × U → R, que é bilinear, ou seja, satisfaz f(au + bv,w) = af(u,w) + bf(v,w), para todos a, b ∈ R, u,v ∈ T e w ∈ U, e f(v, cw + ex) = cf(v,w) + ef(v,x), para todos c, e ∈ R, v ∈ T e w,x ∈ U. Com definições de adição, multiplicação por escalar, a função zero e inversas análogas às dadas para funcionais lineares na Subseção 1.1.2, é imediato demonstrar que o conjunto de funcionais bilineares sobre T ×U é um espaço vetorial e, de agora em diante, usaremos tipo em negrito para os funcionais bilineares. Exerćıcio 1.15 Demonstre o dito acima. Estamos agora em condições de definir o produto tensorial T ⊗ U de T e U como o espaço vetorial de todos os funcionais bilineares sobre T ∗ × U∗. Note que, nessa definição, usamos os conjuntos de base T ∗ e U∗ dos espaços duais, e não os próprios T e U . Surge, naturalmente, a questão da dimensão de T⊗U. Ela é, de fato, NM , onde N e M são as dimensões de T e U, respectivamente;provamos isso mostrando que, a partir de bases dadas de T e U, podemos definir NM elementos de T⊗ U, que constituem uma base para ele. Seja {eα}, α = 1, . . . , N e {fa}, a = 1, . . . , M , bases de T∗ e U∗, duais às bases {eα} e {fa} de T e U, respectivamente. (Note que usamos dois alfabetos diferentes para os sufixos que possuem domı́nios diferentes.) Definamos NM funções eαa : T ∗ × U∗ → R como eαa(g,h) = gαha, (1.17) onde gα são as componentes de g ∈ T ∗ relativamente a {eα} e ha as de h ∈ U∗ relativamente a {fa}. Em particular, eαa(e β, f b) = δβαδ b a. (1.18) É simples mostrar que os eαa são bilineares e pertencem, assim, a T ⊗ U. Para mostrar que constituem uma base devemos mostrar que geram T⊗ U e que são linearmente independentes. Exerćıcio 1.16 Seguindo um desenvolvimento análogo ao da Subsubseção 1.1.2.2, mostre que {eαa} (i) gera T⊗ U, e (ii) é linearmente independente. 1.2. ÁLGEBRA MULTILINEAR 17 Com o exerćıcio acima, demonstramos, pois, que a dimensão de T⊗U é NM , o produto das dimensões de T e U, e que, de uma maneira natural, bases {eα} de T e {fa} de U induzem uma base {eαa} de T ⊗ U, sendo as componentes ταa de qualquer τ∈ T ⊗ U, relativamente a essa base, dadas, em termos das bases duais, por ταa =τ (eα, fa). Investiguemos, agora, como as componentes ταa e os vetores de base eαa se transformam quando novas bases são introduzidas em T e U. Suponhamos que as bases de T e U se transfor- mem de acordo com eα′ = X β α′eβ, f ′ a = Y b a′fb. (1.19) Isso induz uma nova base {eα′a′} de T⊗ U, e, para quaisquer (g,h) ∈ T ∗ × U∗, eα′a′(g,h) = gα′ha′ = X β α′Y b a′gβhb = Xβα′Y b a′eβb(g,h). Sendo assim, eα′a′ = X β α′Y b a′eβb. (1.20) Analogamente, para as componentes, obtemos τα ′a′ = Xα ′ β Y a′ b τ βb. (1.21) Exerćıcio 1.17 Prove isso. Um vetor que é um elemento do produto tensorial de dois espaços (ou mais, vide abaixo) é chamado um tensor. O produto tensorial, conforme definido acima, é um produto de espaçõs. É posśıvel definir um tensor que é o produto tensorial g⊗h de vetores individuais g ∈ T e h ∈ U, exigindo-se que g ⊗ h = gαhaeαa, (1.22) onde gα e ha são as componentes de g e h relativamente a bases de T e U que induzem a base {eαa} de T ⊗ U. Embora essa definição seja dada por intermédio de bases, ela é, de fato, independente de base. Exerćıcio 1.18 Prove isso. Em particular temos eα ⊗ fa = eαa. (1.23) O produto tensorial g ⊗ h pertence a T ⊗ U, mas nem todos os tensores de T ⊗ U são dessa forma. Aqueles que o são chamam-se de tensores decompońıveis. Tendo estabelecido a iéia básica do produto tensorial de dois espaços vetoriais, podemos estendê-la para três ou mais espaços. No entanto, dados três espaços T,U,V, podemos formar o seu produto tensorial de duas maneiras: (T⊗U)⊗V ou T⊗(U⊗V). Esses dois espaços claramente possuem a mesma dimensão e são, de fato, naturalmente isomorfos, no sentido de que podemos estabelecer uma correspondência bijetiva, independente de base, entre os seus elementos, assim como fizemos com T e T ∗∗. Isso é feito escolhendo-se bases {eα}, {fa} e {gA} em T, U e V, respectivamente (três domı́nios, portanto três “alfabetos”), deixando ταaAeα ⊗ (fa ⊗ gA) corresponder a (ταaAeα⊗ fa)⊗gA, e mostrando, então, que essa correspondência é independente de base. Devido a esse isomorfismo natural, identificamos esses espaços, e a notação T⊗U⊗V não é amb́ıgua. 18 CAPÍTULO 1. ÁLGEBRA TENSORIAL Exerćıcio 1.19 Prove a existência do isomorfismo natural mencionado. Uma maneira alternativa de definir T ⊗ U ⊗ V é como o espaço de funcionais trilineares sobre T ∗ × U∗ × V ∗. Isso leva a um espaço que é naturalmente isomorfo àqueles do parágrafo precedente, e todos os três são identificados. Exerćıcio 1.20 Convença-se disso. Existem outros isomorfismos naturais, por exemplo entre T ⊗ U e U ⊗ T, ou entre (T ⊗ U)∗ e T∗ ⊗ U∗, e ,sempre que eles existirem, os espaços são identificados. Exerćıcio 1.21 Convença-se disso. De agora em diante, restringir-nos-emos a espaços de produto tensorial obtidos tomando-se produtos tensoriais repetidos de um único espaço vetorial T e o seu dual T∗. Introduzimos a seguinte notação: r vezes︷ ︸︸ ︷ T⊗ T⊗ · · · ⊗ T =: Tr = T r (esta última notação, por abuso), s vezes︷ ︸︸ ︷ T∗ ⊗ T∗ ⊗ · · · ⊗ T∗ =: Ts = Ts (esta última notação, por abuso), T r ⊗ Ts =: T rs . Em particular T = T 1 e T ∗ = T1. Um elemento de T r é um tensor contravariante de posto r, um elemento de Ts é um tensor covariante de posto s, ao passo que um elemento de T rs é um tensor misto de posto (r, s). Note que esta nomenclatura rotula vetores contravariantes e covariantes como tensores de posto (1, 0) e (0, 1) respectivamente. Escalares podem ser inclúıdos no esquema geral considerando-os como tensores de posto (0, 0). Uma base {eα} de T (de dimensão N) induz uma base dual {eα} de T ∗ e essas, juntas, induzem uma base {eβ1···βsα1···αr} de T rs . Cada tensor τ ∈ T rs tem N r+s componentes uńıvocas relativamente à base induzida: τ = τα1···αr β1···βse β1···βs α1···αr . (1.24) Uma mudança de base de T induz uma mudança de base de T rs , sob a qual as componentes se transformam de acordo com: τα ′ 1···α′r β′1···β′s = X α′1 µ1 · · ·Xα′rµr Xν1β′1 · · ·X νs β′s τµ1···µrν1···νs . (1.25) Por exemplo, para um tensor τ ∈ T 12 , τα ′ β′γ′ = X α′ ρ X σ β′X λ γ′τ ρ σλ. É comum definir-se os tensores como objetos tendo componentes que se transformam de acordo com as equações (1.25). Esta maneira de se encarar tensores se justifica notando-se que se a cada base de T estão associados N r+s números reais, que, sob uma mudança de base dada pelas equações (1.11), se transformam como (1.25), então esses números são as componentes de um tensor τ de posto (r, s), conforme nós definimos tal objeto; simplesmente fazemos τ = τα1···αr β1···βse β1···βs α1···αr . 1.2. ÁLGEBRA MULTILINEAR 19 1.2.2 Tensores relativos Mostraremos agora que existem ainda objetos geométricos mais gerais que os tensores acima vistos, cujas componentes se transformam, nao simplesmente com fatores da matriz de trans- formação de base, mas, além disso, com um fator dependente do determinante de tal matriz. Para tanto, relembraremos, na Subsubseção seguinte, algo sobre determinantes. 1.2.2.1 Determinantes, śımbolos de Levi-Civita, deltas de Kronecker generalizados Seja uma matriz quadrada N×N [Zαβ], onde, como usual, suporemos que o supeŕındice α indica linha e o sub́ındice β indica coluna, ou seja, [Zαβ = Z11 Z 1 2 · · · Z1N Z21 Z 2 2 · · · Z2N ... ... . . . ... ZN 1 Z N 2 · · · ZN N . (1.26) O determinante dessa matriz, det[Z] ou, simplesmente, Z, pode ser definido através da regra geral de Cramer ou, de uma maneira mais geométrica, através do estudo da noção de volume num espaço N -dimensional. Aqui queremos que você se convença que ele também pode ser escrito como: det[Z] = ²α1α2...αN Z α1 1Z α2 2 · · ·ZαN N , = ²α1α2...αN Z1α1Z 2 α2 · · ·ZN αN , (1.27) onde introduzimos os chamados śımbolos de Levi-Civita: ²α1α2...αN := ² α1α2...αN := 1, se (α1, α2, . . . , αN) for permutação par de (1, 2, . . . , N); −1, se (α1, α2, . . . , αN) for permutação ı́mpar de (1, 2, . . . , N); 0, nos outros casos, ou seja, se houver ı́ndices repetidos. (1.28) Observações: 1. Note que seguimos a convenção de ²12...N = ² 12...N = 1 e não aquela de ²12...N = −²12...N = 1, às vezes adotada por alguns autores. 2. Note que, com a equação (1.27), de fato, fica óvio que, por troca de quaisquer duas filas (linhas ou colunas), o determinante muda de sinal, devido à anti-simetria dos śımbolos de Levi-Civita 3. Como conseqüência do item acima, ou diretamente da própria equação (1.27), o determi- nante de uma matriz com duas filas proporcionais resulta ser nulo. 4. Para ajudar ainda mais na aceitação da expressão (1.27) para o determinante, lembre-se de (ou prove agora), do cálculo vetorial básico, a expressãopara (i) o produto vetorial em termos de componentes cartesianas: A×B = det x̂ ŷ ẑ Ax Ay Az Bx By Bz = ²ijkAiBj êk. 20 CAPÍTULO 1. ÁLGEBRA TENSORIAL ou (ii) o produto misto, também em termos de componentes cartesianas: A · (B×C) = det Ax Ay Az Bx By Bz Cx Cy Cz , o que também faz uma conexão com a idéia, acima mencionada, de determinante como uma medida de volume (no caso, do paraleleṕıpedo com “arestas” A, B e C). Tendo em conta a anti-simetria dos śımbolos de Levi-Civita, podemos ainda reescrever a (1.27) como ²α1α2...αN Z = ²β1β2...βN Zα1β1Z α2 β2 . . . Z αN βN , (1.29) ou ²α1α2...αN Z = ²β1β2...βN Z β1 α1Z β2 α2 . . . Z βN αN , (1.30) formas que serão úteis para a subsubseção seguinte. Exerćıcio 1.22 Convença-se da validade de tais fórmulas. Seria interessante se pudéssemos ter uma expressão final para o determinante, Z, isolado em um membro dessa expressão, em função dos śımbolos de Levi-Civita e dos elementos da matriz. Para tanto, convém introduzirmos novos objetos, que são os tensores deltas de Kronecker generalizados, δα1α2···αrβ1β2···βr , definidos por δα1α2···αrβ1β2···βr := det δα1β1 δ α1 β2 · · · δα1βr δα2β1 δ α2 β2 · · · δα2βr ... · · · . . . · · · δαrβ1 δ αr β2 · · · δαrβr (1.31) Obviamente, o delta de Kronecker (usual) é um caso particular dessa definição, correspondente ao valor r = 1. Com r = 2 em (1.31), vemos que δαβµν = δ α µδ β ν − δαν δβµ . Em geral, δα1α2···αrβ1β2···βr é a soma de r! termos, cada um dos quais é o produto de r deltas de Kronecker (usuais). Como, conforme já vimos, o delta de Kronecker (usual) é um tensor do tipo (1,1), segue imediatamente que o delta de Kronecker generalizado é um tensor do tipo (r, r). Da sua própria definição é fácil mostrar que: (i) o delta de Kronecker generalizado é anti-simétrico em todos os super-́ındices e todos os sub-́ındices; (ii) se r > N , onde N é a dimensão do espaço, então δα1α2···αrβ1β2···βr ≡ 0. Exerćıcio 1.23 Convença-se dessas afirmações. Queremos agora estabelecer uma relação ou identidade fundamental entre ²α1α2···αN , ²β1β2···βN e δα1α2···αNβ1β2···βN : ²α1α2···αN ²β1β2···βN = δ α1α2···αN β1β2···βN . (1.32) 1.2. ÁLGEBRA MULTILINEAR 21 Para tanto, consideremos a grandeza Aα1α2···αNβ1β2···βN := ²β1β2···βN ² α1α2···αN − δα1α2···αNβ1β2···βN , (1.33) que é obviamente anti-simétrica nos sub́ındices e nos super-́ındices. Conseqüentemente, as únicas posśıveis componentes não nulas de Aα1α2···αNβ1β2···βN ocorrerão quando (α1, α2, . . . , αN) e (β1, β2, . . . , βN) forem permutações (sem repetição) de (1, 2, . . . , N). No entanto, de (1.28), (1.33) e (1.31), vê-se facilmente que A12···N12···N = 0. Logo, acabamos de mostrar que Aα1α2···αNβ1β2···βN ≡ 0, o que, por (1.33), estabelece (1.32). Exerćıcio 1.24 Mostre, a partir de (1.32), que, genericamente, 1 j! ²α1...αN−jγ1...γj²β1...βN−jγ1...γj = δ α1...αN−j β1...βN−j . (1.34) Dáı ou da própria (1.32) vem, em particular, que: ²α1α2···αN ²α1α2···αN = N ! Exerćıcio 1.25 Prove isso! Finalmente, podemos, pois, ter a expressão que procurávamos: Z := det[Zµν ] = 1 N ! ²α1α2···αN ²β1β2···βN Z β 1 α1 Zβ2α2 · · ·ZβN αN . (1.35) Exerćıcio 1.26 Prove-a! 1.2.2.2 Tensores relativos Consideremos, agora, como caso particular da matriz [Zαβ], tratada na subsubseção anterior, uma matriz mudança de base, num certo espaço vetorial: eα′ = X β α′eβ. (1.36) Nessa situação, a expressão para o determinante de [Xαβ ], conforme (1.29) ou (1.30), mostra que, se postularmos, como é naturaĺıssimo, que, independentemente de base, os valores das componentes dos śımbolos de Levi-Civita são os mesmos (²α ′ 1α ′ 2···α′N = ²α1α2···αN e ²α′1α′2···α′N = ²α1α2···αN ), então conclúımos que as leis de transformação para esses śımbolos (invariantes por definição) passam a ser: ²α ′ 1α ′ 2···α′N = X−1Xα ′ 1 β1 X α′2 β2 · · ·Xα′NβN e ²α′1α′2···α′N = XX β1 α′1 Xβ2α′2 · · ·XβNα′N ²β1β2···βN . 22 CAPÍTULO 1. ÁLGEBRA TENSORIAL Tais leis são iguais àquelas para tensores, exceto pela presença de um fator potência do determi- nante da matriz mudança de base. Isso sugere a importância de tratarmos de objetos geométricos cujas componentes se transformem de uma maneira mais geral. Sendo assim, fugindo um pouco à nossa apresentação geométrica ou independente de base atá aqui, diremos que um conjunto de N r+s números Λα1···αr β1···βs constituem as componentes de um tensor relativo de posto (r, s) e peso w, se, sob uma mudança de base (1.36), esses números (chamados componentes do tensor relativo) se transformarem de acordo com Λα ′ 1···α′r β′1···β′s = X −wXα ′ 1 µ1 · · ·Xα′rµr Xν1β′1 · · ·X νs β′s Λµ1···µr ν1···νs . (1.37) Note o sinal no expoente do determinante X. Podemos observar, então que: 1. ²α1···αN e ²α1···αN constituem as componentes de tensores relativos de peso 1 e -1, respecti- vamente. 2. os tensores de que tratamos até antes dessa subsubseção são tensores relativos de peso 0; às vezes, eles são chamados tensores absolutos. 1.2.3 Operações e resultados adicionais 1.2.3.1 Contração Até aqui, temos três operações básicas com tensores (absolutos ou relativos): adição de tensores de mesmo posto, multiplicação de um tensor por um escalar e formação do produto tensorial. Existe uma quarta operação básica com tensores, que é mais facilmente explicada em termos de componentes. Esta operação é a contração, que associa N r+s−2 números (componentes) Rα1···αp−1αp+1···αr β1···βq−1βq+1···βs com N r+s números (componentes) Qα1···αr β1···βs , definidos por Rα1···αp−1αp+1···αr β1···βq−1βq+1···βs := Q α1···αp−1γαp+1···αr β1···βq−1γβq+1···βs . (1.38) Ou seja, fazendo-se um sub-́ındice igual a um supre-́ındice e somando, como a convenção de soma implica. É claro que existem rs maneiras de fazer isso, cada uma das quais leva a uma contração do conjunto original de números. O significado especial que essa operação tem para tensores (absolutos ou relativos) é que, se os números originais forem as componentes de um tensor relativo de posto (r, s) e peso w, então suas contrações são as componentes de um tensor relativo de posto (r− 1, s− 1) e mesmo peso, w. Exerćıcio 1.27 Prove isso! 1.2.3.2 Simetrização e anti-simetrização Dada uma matriz [Mαβ], podemos expressá-la sempre como a soma de duas outras matrizes, [M(αβ)] e [M[αβ]], tal que Mαβ = M(αβ) + M[αβ], (1.39) onde M(αβ) := 1 2 (Mαβ + Mβα) (1.40) M[αβ] := 1 2 (Mαβ −Mβα). (1.41) 1.2. ÁLGEBRA MULTILINEAR 23 A matriz [M(αβ)] é a chamada parte simétrica de [Mαβ] e o processo mostrado em (1.40) é chamado simetrização de [Mαβ], ao passo que a matriz [M[αβ]] é a chamada parte anti-simétrica de [Mαβ] e o processo indicado em (1.41) é chamado anti-simetrização de [Mαβ]; tal terminologia justifica-se pelo fato de que M(αβ) = M(βα) e M[αβ] = −M[βα]. Além disso, se, de fato, Mαβ constitúı rem as componentes de um tensor de posto (2, 0), assim também o constituem M(αβ) e M[αβ], diferentemente de M α β. Exerćıcio 1.28 Prove isso! No caso mais geral, a componente M(α1···αr) da chamada parte (totalmente) simétrica de Mα1···αr é obtida somando-se todas as componentes obtidas por permutações dos ı́ndices (α1, . . . , αr) e dividindo-se o resultado por r!; ou seja, no caso de três ı́ndices, teŕıamos: M(αβγ) := 1 3! (Mαβγ + Mαγβ + Mβαγ + Mβγα + Mγαβ + Mγβα) . Algo análogo vale para a chamada parte (totalmente) anti-simétrica, mas, aqui, as permutações pares dos ı́ndices (α1, . . . , αr) são somadas, ao passo que as permutações ı́mpares são subtráıdas, ou seja: M[αβγ] := 1 3! (Mαβγ −Mαγβ −Mβαγ + Mβγα + Mγαβ −Mγβα) . Naturalmente, tudo isso pode ser estendido para “́ındices covariantes”, presenvando sempre o caráter tensorial dos objetos resultantes (as partes simétrica e anti-simétrica). Já a simetrização ou anti-simetrização em ı́ndices em ńıveis distintos não gera tensores.Exerćıcio 1.29 Prove isso! 1.2.3.3 Regras do quociente As regras do quociente permitem estabelecer diretamente o caráter tensorial de um objeto dado que o produto dele com um tensor (relativo) arbitrário gera sempre um tensor (relativo). Raci- ocinemos através de um exemplo concreto, em termos de componentes, de novo. Sejam dados, numa certa base, um conjunto de números Y αβγ, que, quando multiplicados pelas componentes T γµ de um tensor arbitrário, saibamos fornecer sempre um tensor Cαβ µ; ou seja, Cαβ µ = Y αβγT γµ (1.42) é um tensor para qualquer tensor T γµ. Então, a regra do quociente, nesse caso, afirma que Y αβγ constituirão as componentes de um tensor também, de posto (1,2), conforme sugerido pela sua estrutura de ı́ndices. Para provar isso, usamos a lei de transformação caracteŕıstica das componentes de um tensor. Imaginamos que, numa nova base, ainda vale a equação (1.42), como que por definição das novas 24 CAPÍTULO 1. ÁLGEBRA TENSORIAL componentes do objeto Y, cujo caráter queremos descobrir. Então, Cα ′ β′ µ′ = Y α ′ β′γ′T γ′µ′ wwwwwÄ (pois C e T são tensores) Xα ′ α X β β′X µ′ µ C α β µ = Y α ′ β′γ′X γ′ γ X µ′ µ T γµ wwwwwÄ substituindo (1.42) Xα ′ α X β β′X µ′ µ Y α βγT γµ = Y α ′ β′γ′X γ′ γ X µ′ µ T γµ wwwwwÄ já que T é arbitrário ( Y α ′ β′γ′X γ′ γ −Xα ′ α X β β′Y α βγ ) Xµ ′ µ = 0wwwwwÄ multiplicando por Xµµ′ Y α ′ β′γ′X γ′ γ = X α′ α X β β′Y α βγwwwwwÄ multiplicando por Xγσ′ Y α ′ β′σ′ = X α′ α X β β′X γ σ′Y α βγ , que é justamente o que queŕıamos demonstrar. A própria expressão “regra do quociente” se explica pela forma como Y αβγ se apresenta em (1.42). Exerćıcio 1.30 Como voce adaptaria o enunciado de tal regra ao caso de tensores relativos? Exerćıcio 1.31 Se, para um tensor simétrico, mas, fora isso, arbitrário, de componentes Sαβ, o resultado Cα = Y αβγS βγ é sempre um vetor contravariante, o que você pode deduzir sobre o caráter de Y αβγ ou de al- guma(s) de suas partes? Referências Bibliográficas [1] R. Adler, M. Bazin, and M. Schiffer. Introduction to general relativity. McGraw-Hill Koga- kusha, Tokyo, Japan, second edition, 1975. [2] J. L. Synge an A. Schild. Tensor calculus. Dover, New York, USA, 1978. [3] J. L. Anderson. Principles of relativity physics. Academic Press, New York, USA, 1967. [4] P. Bamberg and S. Sternberg. A course in mathematics for students of physics. Cambridge University Press, Cambridge, England, 1988. [5] R. L. Bishop and S. I. Goldberg. Einstein’s theory of relativity. Dover, New York, USA, 1980. [6] A. I. Borisenko and I. E. Tarapov. Vector and tensor analysisi with applications. Dover, New York, USA, 1979. [7] W. L. Burke. Applied differential geometry. Cambridge University Press, Cambridge, En- gland, 1985. [8] M. Crampin and F. A. E. Pirani. Applicable differential geometry. Cambridge University Press, Cambridge, England, 1986. [9] R. d’Inverno. Introducing Einstein’s relativity. Oxford University Press, Oxford, England, 1992. [10] C. T. J. Dodson and T. Poston. Tensor geometry. The geometric viewpoint and its uses. Pitman, London, England, 1977. [11] J. Foster and J. D. Nightingale. A short course in general relativity. Longman, London, England, first edition, 1979. [12] J. Foster and J. D. Nightingale. A short course in general relativity. Springer-Verlag, New York, USA, second edition, 1995. [13] L. P. Hughston and K. P. Tod. An introduction to general relativity. Cambridge University Press, Cambridge, England, 1990. [14] A. Lichnerowicz. Elements of tensor calculus. Methuen, London, England, 1962. [15] D. Lovelock and H. Rund. Tensors, differential forms, and variational principles. John Wiley & Sons, Chichester, England, 1975. 31 32 REFERÊNCIAS BIBLIOGRÁFICAS [16] L. Nachbin. Introdução à álgebra. McGraw-Hill do Brasil, Rio de Janeiro, Brasil, 1971. [17] C. Nash and S. Sen. Topology and geometry for physicists. Academic Press, New York, USA, 1983. [18] B. O’Neill. Semi-Riemannian geometry, with applications to relativity. Academic, New York, USA, 1983. [19] J. A. Schouten. Ricci-calculus. Springer, Berlin, Germany, 1954. [20] B. F. Schutz. Geometrical methods of mathematical physics. Cambridge University Press, Cambridge, England, 1980. [21] A. Trautman. Foundations and current problems of general relativity. In S. Deser and K. W. Ford, editors, Lectures on general relativity, Proceedings of the 1964 Brandeis Summer Institute in Theoretical Physics, Englewood Cliffs, USA, 1965. Prentice-Hall.
Compartilhar