Baixe o app para aproveitar ainda mais
Prévia do material em texto
UNIVERSIDADE FEDERAL DOS VALES DO JEQUITINHONHA E MUCURI INSTITUTO DE CIÊNCIA E TECNOLOGIA BACHARELADO EM CIÊNCIA E TECNOLOGIA TEOREMA ESPECTRAL PARA OPERADORES AUTO-ADJUNTOS Pedro Paulo Nunes Costa Diamantina 2013 UNIVERSIDADE FEDERAL DOS VALES DO JEQUITINHONHA E MUCURI INSTITUTO DE CIÊNCIA E TECNOLOGIA TEOREMA ESPECTRAL PARA OPERADORES AUTO-ADJUNTOS Pedro Paulo Nunes Costa Orientador: Leonardo Gomes Trabalho de Conclusão de Curso apresentado ao Curso de Bacharelado em Ciência e Tecnologia, como parte dos requisitos exigidos para a conclusão do curso. Diamantina 2013 TEOREMA ESPECTRAL PARA OPERADORES AUTO-ADJUNTOS Pedro Paulo Nunes Costa Orientador: Leonardo Gomes Trabalho de Conclusão de Curso apresentado ao Curso de Bacharelado em Ciência e Tecnologia, como parte dos requisitos exigidos para a conclusão do curso. APROVADO em 11 / 04 / 2013 _______________________________ Profª Mscª Mônica Valadão – UFVJM _______________________________ Prof. Dr. Anderson Porto - UFVJM _______________________________ Prof Dr. Leonardo Gomes – UFVJM AGRADECIMENTOS Agradeço em primeiro lugar ao Prof. Dr. Leonardo Gomes orientador, professor, amigo, um muito obrigado, por esses meses de trabalho. Agradeço também a Prof. Msc. Mônica Valadão e ao Prof. Dr. Anderson Porto pela ajuda complementar que me ofereceram. E não deixando de agradecer a meus pais, Dimas e Jussara, a quem a quem agradeço todas as noites a minha existência. E por último agradeço ao suporte financeiro do CNPq que foi de grande ajuda durante o período em que o trabalho foi executado. RESUMO COSTA, P. P. N. Teorema Espectral para Operadores Auto-Adjuntos em Espaços Vetoriais de Dimensão Finita. 43 p. 2013. Monografia (Bacharelado em Ciência e Tecnologia). UFVJM. Diamantina. Minas Gerais O objetivo deste trabalho é demonstrar, de maneira mais fácil do que os tradicionais li- vros que tratam do assunto, um caminho detalhado para a construção do Teorema Es- pectral para Operadores Auto-Adjuntos. A teoria dos operadores lineares constitui-se um capítulo importante da Análise Funcional, e o Teorema Espectral é um dos resultados fundamentais dessa teoria. Nesse trabalho tratamos de resultados realtivos ao corpo dos números reais, fazendo algumas observações no caso do corpo dos números complexos. Palavras-chave: Produto Interno. Espaço Vetorial. Operador Auto-Adjunto. Teorema Espectral. ABSTRACT COSTA, P. P. N. Spectral Theorem for self-adjoint operators in Vector Spaces of Finite Dimension. 43 p. 2013. Monography (Bachelor of Science and Technology). UFVJM. Diamantina. Minas Gerais The objective of this work is to demonstrate, more easily than traditional books dealing with the subject, a detailed path to build the Spectral Theorem for Self-Adjoint Operators. The theory of linear operators constitutes an important chapter in Functional Analysis and the Spectral Theorem is one of the fundamental results of this theory. In this work we deal with the results realtivos field of real numbers, field with some observations on the complex field case. Keywords: Inner Product. Vector Space. Self-adjoint Operator. Spectral Theorem. SUMÁRIO 1 INTRODUÇÃO 7 2 REVISÃO DE LITERATURA 8 2.1 Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.2 Propriedades do Produto Interno . . . . . . . . . . . . . . . . . . . . . . 10 2.3 Norma de um Vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.4 Espaços Complexos com Produto Interno . . . . . . . . . . . . . . . . . 17 2.5 Conjunto Ortonormal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.6 Processo de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.7 Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.8 Adjunta de um Operador Linear . . . . . . . . . . . . . . . . . . . . . . 22 2.9 Matriz da Adjunta em Relação a uma Base Ortonormal . . . . . . . . . . 29 2.10 Operadores Auto-adjuntos . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.11 Matrizes de Operadores Auto-adjuntos . . . . . . . . . . . . . . . . . . . 30 3 METODOLOGIA 33 4 RESULTADOS E DISCUSSÕES 34 4.1 Teorema Espectral para Operadores Auto-adjuntos . . . . . . . . . . . . 34 5 CONCLUSÃO 42 REFERÊNCIAS 43 1 INTRODUÇÃO Nos últimos anos a álgebra se transformou em uma parte essencial do conheci- mento matemático necessário aos matemáticos, professores de matemática, engenheiros, cientistas da computação, físicos, economistas e estatísticos, entre outros. Essa necessi- dade reflete a importância e o vasto campo de aplicações desse conteúdo. Esse trabalho foi desenvolvido com o objetivo de revisar e aprofundar em alguns temas da álgebra linear. A primeira parte do trabalho será um revisão bibliográfica para o estudo da Teoria Espectral para Operadores Auto-Adjuntos, onde utilizamos algumas ferramentas básicas de Álgebra Linear. Com essas ferramentas de Álgebra Linear em mãos, poderemos nos contextualizarmos com o assunto do tema principal. Na revisão estenderemos as noções de produto escalar (que permite introduzir a idéia de distância, comprimento de um vetor e ângulo entre dois vetores) para um espaço vetorial arbitrário, obtendo assim uma es- trutura mais rica, denominada espaço vetorial com produto interno. Em seguida, vemos que o fato de dotarmos um espaço vetorial com um produto interno permite-nos defi- nir a noção de conjunto ortogonal, cujo qual sua importância aplica-se na simplificação da representação de um elemento deste espaço bem como na representação de transfor- mações lineares sobre este espaço através do uso de bases ortonormais. Nesse intuito, apresentamos um processo para construir bases ortonormais. Seguindo, vemos a noção de complemento ortogonal de um subespaço vetorial de um espaço vetorial com produto interno, permitindo, em alguns casos, decompor este espaço como soma direta entre um subespaço e seu complemento ortogonal. Este fato possibilita uma melhor compreensão da estrutura de espaços vetoriais com produto interno. A definição de operador linear adjunto permite adiante, uma classificação de operadores lineares. Veremos ainda que a construção da adjunta de uma transformação linear é baseada no fato que para cada funci- onal linear esteja associado um elemento do espaço vetorial, de forma que este funcional é representado por um produto interno. Finalmente veremos os operadores auto-adjuntos. O estudo da teoria desses ope- radores é importante nos vastos ramos das ciências exatas, onde muitos processos podem ser descritos por um operador, cujas propriedades variam de acordo com o espaço em que se define. A partir daí podemos construir o teorema espectral para tais operadores auto-adjuntos. 7 2 REVISÃO DE LITERATURA A revisão de literatura tem papel fundamental no trabalho acadêmico, pois através dela situamos o trabalho dentro da grande área de pesquisa da qual faz parte. Assim, apresentamos a seguir uma série de definições, exemplos e resultados que servirão como ponto de partida para o entendimento do resultado principal desse trabalho. 2.1 Produto Interno Definição 2.1. Seja V um espaço vetorial sobre R. Dizemos que a aplicação 〈., .〉 : V × V → R que associa dois vetores u, v ∈ V a um único número〈u, v〉 real, é um produto interno sobre V , se satisfaz as seguintes condições: i) Distributividade: 〈u+ w, v〉 = 〈u, v〉+ 〈w, v〉, para todos u, v, w ∈ V ; ii) 〈Λu, v〉 = Λ〈u, v〉, para todos u, v ∈ V e todo Λ ∈ R; iii) Comutatividade: 〈u, v〉 = 〈v, u〉, para todos u, v ∈ V ; iv) Positividade: 〈v, v〉 ≥ 0 para todo v ∈ V ; v) 〈v, v〉 = 0 se, e somente se, v = 0. Quando munimos o espaço vetorial V de um produto interno 〈., .〉, dizemos que V é um espaço vetorial com produto interno 〈., .〉. Exemplo 2.1. Seja V = R2 o espaço vetorial com a adição de vetores e multiplicação por escalar usuais, ou seja, (x1, x2) + (y1, y2) = (x1 + y1, x2 + y2) e Λ(x1, x2) = (Λx1,Λx2), para todo λ ∈ R. Defina 〈., .〉 : R2 × R2 → R por 〈(x1, x2), (y1, y2)〉 = x1y1 + x2y2. Afirmamos que 〈., .〉 é um produto interno sobre R2. Com efeito, sejam u = (x1, x2), v = (y1, y2), w = (z1, z2) ∈ R2 e Λ ∈ R. Então: i) 〈u+ w, v〉 = 〈(x1, x2) + (z1, z2), (y1, y2)〉 = 〈(x1 + z1, x2 + z2), (y1, y2)〉 = (x1 + z1)y1 + (x2 + z2)y2 = x1y1 + z1y1 + x2y2 + z2y2 = (x1y1 + x2y2) + (z1y1 + z2y2) = 〈(x1, x2), (y1, y2)〉+ 〈(z1, z2), (y1, y2)〉 = 〈u, v〉+ 〈w, v〉; 8 ii) 〈Λu, v〉 = 〈λ(x1, x2), (y1, y2)〉 = 〈(λx1, λx2), (y1, y2)〉 = (λx1)y1 + (λx2)y2 = λ(x1y1 + x2y2) = λ〈(x1, x2), (y1, y2)〉 = Λ〈u, v〉; iii) 〈u, v〉 = 〈(x1, x2), (y1, y2)〉 = x1y1 + x2y2 = y1x1 + y2x2 = 〈(y1, y2), (x1, x2)〉 = 〈v, u〉; iv) 〈v, v〉 = 〈(y1, y2), (y1, y2)〉 = y1y1 + y2y2 = y21 + y 2 2 ≥ 0; v) 〈v, v〉 = 0 ⇔ y1y1 + y2y2 = 0 ⇔ y1, y2 = 0 ⇔ v = (y1, y2) = (0, 0) = 0. 9 Em particular, 〈(1, 0), (1,−1)〉 = 1 · 1 + 0(−1) = 1 e 〈(1, 0), (0, 1)〉 = 1 · 0 + 0 · 1 = 0. 2.2 Propriedades do Produto Interno Vejamos algumas propriedades do produto interno que decorrem imediatamente de sua definição. Proposição 2.1. Seja V um espaço vetorial sobre R com produto interno 〈., .〉. Então as seguintes afirmações são verdadeiras: i) 〈u, λv〉 = λ〈u, u〉 , para todos u, v ∈ V e todo λ ∈ R; ii) 〈0, v〉 = 〈v, 0〉 = 0, para todo v ∈ V ; iii)〈u, v + w〉 = 〈u, v〉+ 〈v, w〉, para todos u, v, w ∈ V ; iv) Se 〈u, v〉 = 0, para todo v ∈ V , então u = 0. Exemplo 2.2. Demonstraremos as propriedades da proposição anterior. Sejam u, v, w ∈ V : i) 〈u, λv〉 = 〈λv, u〉 = λ〈v, u〉 = λ〈u, v〉, onde nestas igualdades utilizamos os itens iii), ii), iii), da Definição 2.1, respectivamente; ii)〈0, v〉 = 〈v, 0〉 = 〈v, 0 · 0〉 = 0〈v, 0〉 = 0, usando o item i) e a Definição 2.1; iii) 〈u, v+w〉 = 〈v+w, u〉 = 〈v, u〉+ 〈w, u〉 = 〈u, v〉+ 〈u,w〉, aqui usamos os itens iii), i), iii), da Definição 2.1, respectivamente; iv) Se 〈u, v〉 = 0, para todo v ∈ V , 〈u, u〉 = 0 (basta considerar v = u). Utilizando a Definição 2.1, iten v), obtemos que u = 0. Exemplos de Espaços Vetoriais com Produto Interno Exemplo 2.3. Podemos generalizar o resultado do exemplo 2.1 para o espaço vetorial V = Rn = {(x1, x2, ..., xn) : xi ∈ R, i = 1, ..., n}, com adição de vetores e multiplicação por escalar usuais, isto é, (x1, x2, ..., xn) + (y1, y2, ..., yn) = (x1 + y1, x2 + y2, ..., xn + yn), e λ(x1, x2, ..., xn) = (λx1, λx2, ..., λxn), para todo λ ∈ R. Defina 〈., .〉 : Rn ×Rn → R por 〈(x1, x2, ..., xn) + (y1, y2, ..., yn)〉 = x1y1 + x2y2 + ...+ xnyn. 10 Seguindo os passos do Exemplo 2.1 é possível provar que 〈., .〉 é um produto interno sobre Rn(chamado produto interno canônico de Rn). Em particular, 〈(1, 0, ..., 0, 2), (1, 0, ..., 0,−1)〉 = 1 · 1 + 0 · 0 + ...0 + 2(−1) = −1. Exemplo 2.4. Seja V = C([a, b]) o espaço vetorial das funções reais contínuas em [a, b] com as operações de adição de funções e multiplicação por escalar usuais, ou seja, (f + g)(t) = f(t) + g(t) e (λf)(t) = λf(t), para todo t ∈ [a, b] e λ ∈ R. Defina a seguinte aplicação 〈f, g〉 = ∫ b a f(t)g(t)dt, onde f, g ∈ V . Vamos provar que 〈., .〉 é um produto interno. De fato, se f, g, h ∈ C([a, b]) e λ ∈ R, então, i) 〈f + g, h〉 = ∫ b a [f + g](t)h(t)dt = ∫ b a [f(t) + g(t)]h(t)dt = ∫ b a f(t)h(t)dt+ ∫ b a g(t)h(t)dt = 〈f, h〉+ 〈g, h〉; ii) 〈λf, h〉 = ∫ b a (λf)(t)h(t)dt = ∫ b a λf(t)h(t)dt = λ ∫ b a f(t)h(t)dt = λ〈f, h〉; iii) 〈f, h〉 = ∫ b a f(t)h(t)dt = ∫ b a h(t)f(t)dt = 〈h, f〉; 11 iv) 〈f, f〉 = ∫ b a f(t)f(t)dt = ∫ b a f(t)2dt ≥ 0; v) 〈f, f〉 = 0 se, somente se, ∫ b a f(t)2dt = 0. Mas isto implica que f(t) = 0, para todo t ∈ [a, b]. Logo, f ≡ 0. Aqui utilizamos o seguinte resultado para integrais: se ϕ é uma função contínua com ϕ(t) ≥ 0, para todo t ∈ [a, b] e ∫ b a ϕ(t)dt = 0, então ϕ ≡ 0 (função identicamente nula). Embora esse resultado pareça razoável, sua prova envolve ferramentas matemáticas mais complexas e, para tanto, recomendamos a um leitor mais interessado a referência Lima (2009, cap. 9) Exemplo 2.5. Seja V = R2 o espaço vetorial com adição de vetores e multiplicação por escalar usuais. Defina 〈., .〉 : R2 × R2 → R por 〈(x1, x2), (y1, y2)〉 = −2x1y1 + x2y2. Afirmamos que 〈., .〉 não é um produto interno sobre R2. Com efeito, para v = (1, 0) ∈ R2, temos que 〈v, v〉 = 〈(1, 0), (1, 0)〉 := (−2)1 · 1 + 0 · 0 = −2 < 0, e isto contradiz o item iv) da Definição 2.1. Exemplo 2.6 (Espaço das matrizes). Seja M = Mn×m o espaço vetorial de todas as matrizes reais do tipo n x m. Um produto interno é definido em M por: 〈A,B〉 = tr(BtA), onde tr(A) é o traço da matriz A, isto é, a soma dos seus elementos diagonais. Se A = [aij] e B = [bij], então 〈A,B〉 = tr(BtA) = m∑ i=1 n∑ j=1 aijbij e 〈A,A〉 = m∑ i=1 n∑ j=1 a2ij. Isto é, 〈A,B〉 é a soma dos elementos correspondentes de A e B, em particular, 〈A,A〉 é uma soma dos quadrados dos elementos de A (LIPSCHUTZ, 2004, p. 229). Exemplo 2.7 (Espaço de Hilbert). Seja V o espaço vetorial de todas as sequências infinitas de números reais (a1, a2, a3, ...) satisfazendo ∞∑ i=1 a2i = a 2 1 + a 2 2 + ... <∞, isto é, a soma converge. A adição e a multiplicação por escalar são definidas em V componente a componente, isto é, se u = (a1 + a2 + ...) e v = (b1 + b2 + ...), 12 então u+ v = (a1 + b1, a2 + b2, ...) e ku = (ka1 + ka2 + ...). O produto interno é definido em V por 〈u, v〉 = a1b1 + a2b2 + .... A soma acima converge absolutamente para qualquer par de pontos de V , como será demonstrado no Exemplo 2.19. Desta forma, o produto interno está bem definido. Este espaço, com produto interno é chamado de espaço-l2 ou espaço de Hilbert. O espaço de Hilbert é uma espaço que tem propriedades características e pode ser utilizado para vários objetivos como pode ser visto em Barata (2013, cap. 36). Exemplo 2.8. Seja A um matriz real simétrica, isto é, At = A. Então, A é dita definida positiva se, para todo vetor não nulo u ∈ Rn, 〈u,Au〉 = utAu > 0. onde 〈., .〉 é o produto interno canônico de Rn Existem algoritimos que nos per- mitem decidir se uma matriz A é definida positiva ou não. Contudo, para matrizes 2x2, temos um critério simples que está mostrado no teorema abaixo. Teorema 2.1. A matriz 2x2 real e simétrica A = [ a b b d ] é definida positiva se e só se seus elementos diagonais a e d são positivos e seu determinante |A| = ad− bc = ad− b2 é positivo. A demonstração pode ser vista em Lipschutz (2008, p. 254). Exemplo 2.9. Considere as matrizes simétricas dadas abaixo: A = [ 1 3 3 4 ] , B = [ 1 −2 −2 −3 ] , C = [ 1 −2 −2 5 ] . Então A não é definida positiva uma vez que |A| = −5 é negativo. B não é definida positiva uma vez que um de seus elementos na diagonal -3 é negativo. Contudo, C é definida positiva, uma vez que seus elementos diagonais são 1 e 5 que são positivos e seu determinante |C| = 1 também é positivo. Teorema 2.2. Seja A uma matriz real definida positiva. Então a função 〈u, v〉A = utAv é um produto interno em Rn . A demonstração pode ser vista em Lipschutz (2008, p. 254). Exemplo 2.10 (Representação matricial de um produto interno).O teorema anterior nos diz que toda matriz real definida positiva determina um produto interno em Rn. Esta 13 seção pode ser vista com sendo um demonstração da recíproca deste resultado. Seja V um espaço com produto interno real com base S = {u1, u2, ..., un}. A matriz A = [aij], onde aij = 〈ui, uj〉, é chamada de representação matricial do produto interno de V em relação à base S. Ob- serve que A é simétrica, uma vez que o produto interno é simétrico, isto é, 〈ui, uj〉 = 〈uj, ui〉. Temos, também, que A depende tanto do produto interno de V quanto da base S de V. Exemplo 2.11. Os vetores u1 = (1, 1, 0), u2 = (1, 2, 3), u3 = (1, 3, 5) formam uma base S do espaço euclidiano R3. Calcule a matriz A que representa o produto interno de R3 na base S. Em primeiro lugar, calcule 〈ui, uj〉 obtendo 〈u1, u1〉 = 2, 〈u1, u2〉 = 3, 〈u1, u3〉 = 4 〈u2, u2〉 = 14, 〈u2, u3〉 = 22, 〈u3, u3〉 = 35. Então A = 2 3 43 14 22 4 22 35 . Como era de se esperar, A é simétrica. Teorema 2.3. Seja A a representação matricial de um produto interno em relação à base S de V. Então, para quaisquer vetores u, v ∈ V , temos 〈u, v〉 = [u]tA[v], onde [u] e [v] são o vetor coluna das coordenadas em relação à base S. Demonstração: Suponha que u = a1w1 + a2w2 + ...+ anwn e v = b1w1 + b2w2 + ...+ bnwn. Então 〈u, v〉 = n∑ i=1 n∑ j=1 aibj〈wi, wj〉. Por outro lado, [u]TA[v] = [a1, a2, ..., an] k11 k12 . . . k1n k21 k22 . . . k2n ... ... . . . ... kn1 kn2 . . . knn b1 b2 ... bn = 14 = [ n∑ i=1 aiki1, n∑ i=1 aiki2, ..., n∑ i=1 aikin] b1 b2 ... bn = n∑ j=1 n∑ i=1 aibjkij. � Teorema 2.4. Seja A a matriz que representa um produto interno de V. Então A é uma matriz definida positiva. Demonstração: Como 〈wi, wj〉 = 〈wj, wi〉 para quaisquer vetores wi e wj de uma base de V , a matriz A é simétrica. Seja X um vetor não nulo qualquer de Rn. Então [u] = X para algum vetor não nulo u ∈ V . O Teorema 2.2 nos diz queX tAX = [u]tA[u] = 〈u, u〉 > 0. Assim, A é definida positiva. � 2.3 Norma de um Vetor Definição 2.2 (Norma). Seja V um espaço vetorial. Uma aplicação ||.|| : V → R que satisfaz as três condições i)||v|| ≥ 0, para todo v ∈ V e ||v|| = 0 se, e somente se, v = 0; ii)||λv|| = |λ|||v||, para todo v ∈ V e todo λ ∈ R; iii)(Desigualdade Triangular)||u+ v|| ≤ ||u||+ ||v||, para todos u, v ∈ V , é chamada norma sobre V. Quando munimos um espaço vetorial V de uma norma, dizemos que V é um espaço normado. Proposição 2.2 (Norma sobre um Espaço Euclidiano). Seja V um espaço vetorial com produto interno 〈., .〉. Então a aplicação ||.|| : V → R, definida por ||v|| := √〈v, v〉, é uma norma sobre V. Neste caso, dizemos que a norma ||.|| provém do produto interno 〈., .〉. Demonstração: Verificaremos as condições estabelecidas na Definição 2.2: i)Seja v 6= 0. Então, 〈v, v〉 > 0, pela Definição 2.1. Logo ||v|| = √〈v, v〉 > 0. ii) Sejam v ∈ V e λ ∈ R. Então, utilizamos a Definição 2.1 para concluírmos que ||λv|| = √ 〈λv, λv〉 = √ λ2〈v, v〉 = √ λ2 √ 〈v, v〉 = |λ| √ 〈v, v〉 = |λ|||v||. 15 iii)Vamos provar a desigualdade triangular. Note que ||u+ v||2 = 〈u+ v, u+ v〉 = 〈u, u〉+ 2〈u, v〉+ 〈v, v〉 ≤ ||u||2 + 2|〈u, v〉|+ ||v||2 ≤ ||u||2 + 2||u||||v||+ ||v||2 ≤ (||u||+ ||v||)2, onde na última desigualdade usamos o Teorema 2.5. Logo, pelo item i),||u + v|| ≤ ||u||+ ||v||, para todo u, v ∈ V . � Exemplo 2.12 (Norma sobre R2). Seja V = R2 conforme o Exemplo 2.1. Assim, ||.|| : R2 → R, dada por ||(x, y)|| = √〈(x, y), (x, y)〉 = √x2 + y2 é uma norma. Exemplo 2.13 (Norma sobre Rn). Seja V = Rn conforme o Exemplo 2.2. Assim ||.|| : Rn → R, definida por ||(x1, x2, ..., xn)|| = √ 〈(x1, x2, ..., xn), (x1, x2, ..., xn)〉 = √ (x21 + x 2 2 + ...+ x 2 n). é uma norma Exemplo 2.14 (Norma de funções contínuas). Seja V = C([a, b]) conforme o Exemplo 2.3. Logo ||.|| : C([a, b])→ R, dada por ||f || = √〈f, f〉 = (∫ b a f(t)2dt) 1 2 , é uma norma. Exemplo 2.15 (Não-Norma). Seja V = R2. Defina ||.|| : R2 → R por ||(x, y)|| = x2+y4. Então ||.|| não é uma norma. Basta observar que ||2(1, 0)|| = ||(2, 0)|| = 22 + 02 = 4 e, por outro lado,|2|||(1, 0)|| = 2||(1, 0)|| = 2(12 + 02) = 2, de forma que ||2(1, 0)|| 6= |2|||(1, 0)||. Isto contradiz o item ii) da Definição 2.2. Definição 2.3 (Vetor Unitário). Seja V um espaço vetorial normado. Dizemos que um vetor v ∈ V é unitário se ||v|| = 1. Podemos transformar qualquer vetor não-nulo v ∈ V em um vetor unitário se ||v|| = 1. Basta escolher u = v||v|| . Para verificar a veracidade deste fato, basta utilizar o item ii) da Definição 2.2 e obter ||u|| = ∣∣∣∣∣∣ v||v|| ∣∣∣∣∣∣ = ∣∣∣ 1||v|| ∣∣∣ ||v|| = 1||v|| ||v|| = 1. Em particular, temos os seguintes exemplos: Exemplo 2.16. Desde que ||(1, 0)|| = √12 + 02 = 1 e ||(1, 1)|| = √12 + 12 = √2, temos que (1,0) é um vetor unitário e (1,1) não. Para transformar (1,1) em vetor unitário, basta realizar o seguinte processo (1,1)||(1,1)|| = (1,1)√ 2 = ( 1√ 2 , 1√ 2 ) . Exemplo 2.17. Considere V = C([0, 1]), f(t) = 1 e g(t) = t, t ∈ [0, 1]. Assim ||f || = (∫ 1 0 [f(t)]2dt ) 1 2 = (∫ 1 0 1dt ) 1 2 = 1, 16 e ||g|| = (∫ 1 0 [g(t)]2dt ) 1 2 = (∫ 1 0 t2dt ) 1 2 = 1√ 3 . Segue que f é um vetor unitário e g não. Usando a observação acima, obtemos o vetor unitário g||g|| = t 1√ 3 = t √ 3. Teorema 2.5 (Desigualdade de Cauchy-Schwarz). Seja V um espaço vetorial com produto interno 〈., .〉. Então |〈u, v〉| ≤ ||u||||v||, para todos u, v ∈ V , onde ||u|| := √〈u, u〉. Demonstração: Utilizamos na demostração deste teorema uma ferramenta auxiliar. Defina f : R → R por f(x) = ||u − xv||2. Observe que f(x) ≥ 0. Por outro lado, usando a definição da aplicação ||.||, obtemos ||u− xv||2 = 〈u− xv, u− xv〉 = 〈u, u〉 − 2x〈u, v〉+ x2||u||2 = ||u||2 − 2x〈u, v〉+ x2||v||2. Logo, ||u||2 − 2x〈u, v〉+ x2||v||2 ≥ 0. Note que o gráfico de f é um parábola, a qual está acima do eixo das abscissas (o vértice desta parábola pode tocar tal eixo). Portanto, impo- mos que4 = 4〈u, v〉2 − 4||u||2||v||2 ≤ 0 (discriminante). Ou seja, 〈u, v〉2 ≤ ||u||2||v||2. Por fim, |〈u, v〉| ≤ ||u||||v|| (aqui usamos√a2 = |a|). O teorema está provado. � Exemplo 2.18. Seja V = C([1, 0]) com produto interno canônico. Podemos mostrar que ( ∫ 1 0 f(t)g(t)dt)2 ≤ (∫ 1 0 [f(t)]2dt)( ∫ 1 0 [g(t)]2dt). Com efeito, pela desigualdade de Cauchy-Schwarz, temos que |〈f, g〉| ≤ ||f || · ||g||, para todo f, g ∈ V . Com isso, |〈f, g〉2| ≤ ||f ||2||g||2. Usando as definições de 〈., .〉 e ||.||, encontramos o resultado desejado. Exemplo 2.19. Se (a1, a2, ...) e (b1, b2, ...) são quaisquer par de vetores em um espaço de Hilbert, a soma ∑∞ i=1 aibi = a1b1 + a2b2 + ... converge absolutamente. Para ver isto, segundo o Teorema 2.5 (desigualdade de Cauchy-Schwarz), |a1b1|+ ...+ |anbn| ≤ √√√√ n∑ i=1 ai2 √√√√ n∑ i=1 bi 2 ≤ √√√√ ∞∑ i=1 ai2 √√√√ ∞∑ i=1 bi 2, vale para todo n. Assim o somatório Sn = |a1b1| + |a2b2| + ... converge. Podemos ver então que a soma infinita converge absolutamente, para maiores informações sobre séries convergentes veja Elon (1999, cap. 4). Isto mostra o afirmado no Exemplo 2.7. 2.4 Espaços Complexos com Produto Interno Esta parte do trabalho considera espaços vetoriais sobre o corpo de C dos com- plexos. Em primeiro lugar, lembramos de alguma propriedades dos números complexos, 17 especialmente as relações entre um número complexo z = a + bi, onde a, b ∈ R, e seu conjugado complexo z = a− bi; zz = a2 + b2, |z| = √ a2 + b2, z1 + z2 = z1 + z2, z1z2 = z2z1, z = z. Além disso, z é real se e só se z = z. Definição 2.4. Seja V um espaço vetorial sobre C. Suponha que a cada par de vetores u, v ∈ V associamos um número complexo, denotado por 〈u, v〉. Esta função é chamada produtointerno (complexo) sobre V se satisfaz as propriedades abaixo: i)(Propriedade linear) 〈au1 + bu2, v〉 = a〈u1, v〉+ b〈u2, v〉; ii)(Propriedade conjugado simétrico)〈u, v〉 = 〈v, u〉; iii)(Propriedade definida positiva) 〈u, u〉 ≥ 0; e 〈u, u〉 = 0 se e só se u = 0. O espaço vetorial V sobre C com um produto interno é chamado de espaço com produto interno complexo. Observe que um produto interno complexo difere do real apenas pela propriedade ii). A propriedade i) é equivalente as duas condições: 〈u1 + u2, v〉 = 〈u1, v〉+ 〈u2, v〉, 〈ku, v〉 = k〈u, v〉 Por outro lado, de i) e ii), temos 〈u, kv〉 = 〈kv, u〉 = k〈v, u〉 = k · 〈v, u〉 = k〈u, v〉. Isto é, devemos tomar o conjugado de um número complexo quando ele é retirado da segunda posição de um produto interno complexo. Na verdade, o produto interno é conjugado linear na segunda posição, isto é, 〈u, av1 + bv2〉 = a〈u, v1〉+ b〈u, v2〉. Combinando a linearidade da primeira posição com o conjugado linear da se- gunda, obtemos, por indução 〈 n∑ i=1 aiui, n∑ j=1 bjvj〉 = n∑ i=1,j=1 aibj〈ui, vj〉. As observações abaixo são oportunas. Observação 2.1. A propriedade i), por si só, implica que 〈0, 0〉 = 〈0v, 0〉 = 0〈v, 0〉 = 0. Assim i),ii)e iii) são equivalentes a i), ii) e à propriedade abaixo: iii’) Se u 6= 0, então 〈u, u〉 > 0. Isto é, uma função que satisfaz i),ii) e iii’) é um produto interno (complexo) em V. 18 Observação 2.2. Por ii),〈u, u〉 = 〈u, u〉. Assim, 〈u, u〉 é real. Por iii), 〈u, u〉 é não negativo e , portanto, possui raiz quadrada. Assim, como nos espaços com produto interno real, definimos ||u|| = √〈u, u〉 como sendo norma ou comprimento de u. 2.5 Conjunto Ortonormal Definição 2.5. Seja V um espaço vetorial com produto interno 〈., .〉. Dizemos que um subconjunto X ⊆ V é ortonormal se i) u ⊥ v, ou seja, 〈u, v〉 = 0 para todo u, v ∈ X distintos; ii) todo vetor de X é unitário, isto é, ||v|| = 1, para todo v ∈ X . Observação 2.3 (Conjunto Ortogonal). Quando um subconjunto X satisfaz o item i) di- zemos que X é um conjunto ortogonal. Observação 2.4. Note que X na definição acima não precisa de ser subespaço de V. Exemplo 2.20. A base canônica de R2, X = {(1, 0), (0, 1)}, é um conjunto ortonormal, pois 〈(1, 0), (0, 1)〉 = 0, ||(1, 0)|| = ||(0, 1)|| = 1. O subconjunto Y = {(1, 1), (1,−1)} é ortogonal, mas não é ortonormal. De fato, 〈(1, 1), (1,−1)〉 = 1 − 1 = 0 e ||(1, 1)|| =√ 2 6= 1. Exemplo 2.21. Se X = {1, 3t2 − 1}, então 〈1, 3t2 − 1〉 = ∫ 1 0 [3t2 − 1]dt = 0, porém ||3t2 − 1|| = (∫ 1 0 (3t2 − 1)2dt ) 1 2 = (∫ 1 0 (9t4 − 6t2 + 1)dt ) 1 2 = 9 5 − 1 6= 1. Por isso concluímos que X é um conjunto ortogonal, mas não ortonormal. Definição 2.6 (Base Ortonormal). Seja V um espaço vetorial com produto interno e di- mensão finita. Uma base de V é dita ortonormal se esta for um conjunto ortonormal. Ou equivalente, se {v1, v2, ..., vn} é base ortonormal de V , então dij〈vi, vj〉 = { 1, i = j; 0, i 6= j. Na matemática, o delta de Kronecker, assim chamado em honra a Leopold Kronecker, é a notação dij definida acima, note-se que, a rigor, o delta de Kronecker não é uma função, pois ele pode ser usado com qualquer símbolo matemático. Exemplo 2.22. Vimos no Exemplo 2.20 acima que que a base canônica deR2 é uma base ortonormal. 2.6 Processo de Gram-Schmidt Sempre existe uma base ortonormal para qualquer espaço vetorial com produto interno de dimensão finita. Qualquer base de um espaço vetorial pode ser convertida numa 19 base ortogonal. Normalizando os vetores dessa nova base, obtemos uma base ortonormal. Teorema 2.6 (Teorema de Gram-Schmidt). Seja V um espaço vetorial com produto in- terno 〈., .〉 e dimensão finita n > 0. Seja β = {v1, v2, ..., vn} uma base de V. Então existe uma base ortogonal γ = {u1, u2, ..., un} de V , onde u1 = v1 e uj = vj − j−1∑ 1=i 〈vj, ui〉 ||ui||2 ui, para todo j = 2, ..., n. Demonstração: Faremos a prova de indução sobre n. Se n = 1, então tomamos simples- mente u1 = v1. Considere agora n > 1 suponhamos que todo espaço vetorial de dimensão n− 1 possui uma base ortogonal nos moldes do teorema. Assim, se {v1, v2, ...vn} é base de V então {u1, u2, ...un−1} satisfaz a expressão acima e nos resta verificar que un = un − n−1∑ 1=i 〈vn, ui〉 ||ui||2 ui, é não-nulo e ortogonal aos demais elementos u1, u2, ..., un−1. Ora, se un = 0, então implica que os elementos {v1, v2, ..., vn} são linearmente dependentes, o que é impossível, pois este conjunto é uma base de V. Logo, un 6= 0. Agora, como 〈un, uj〉 = 〈un − n−1∑ 1=i 〈vn, ui〉 ||ui||2 ui, uj〉, = 〈vn, uj〉 − 〈 n−1∑ 1=i 〈vn, ui〉 ||ui||2 ui, uj〉, = 〈vn, uj〉 − n−1∑ 1=i 〈vn, ui〉 ||ui||2 〈ui, uj〉, = 〈vn, uj〉 − 〈vn, uj〉, = 0, para todo j = 1, .., n − 1, segue que un ⊥ uj , para todo j = 1, 2, ..., n − 1. Na antepe- núltima igualdade usamos o fato que {u1, u2, ..., un−1} é um conjunto ortogonal. Logo, γ = {u1, u2, ..., un} é uma base ortogonal de V e isto conclui a prova. � 2.7 Complemento Ortogonal Definição 2.7. Seja V um espaço vetorial com produto interno 〈., .〉. Seja U ⊆ V um subconjunto qualquer. Definimos o complemento ortogonal de Uem V como sendo o conjunto U⊥ = {v ∈ V : 〈u, v〉 = 0, para todo u ∈ U}. 20 Exemplo 2.23. Vamos encontrar o complemento ortogonal do conjunto U = {(1,−1)} em R2. Seja v = (x, y) ∈ U⊥ qualquer. Se 〈v, (1,−1)〉 = 0 então 〈(x, y), (1,−1)〉 = 0, e daí x − y = 0. Dessa forma v = (x, y) = (y, y) = y(1, 1) e y ∈ R. Portanto, U⊥ = [(1, 1)], onde [(1, 1)] significa o espaço gerado pelo vetor (1,1). Exemplo 2.24. Seja U = (x, y, 0) : x, y ∈ R. Para determinarmos U⊥ tomemos um elemento arbitrário v = (a, b, c) ∈ U⊥. Então de 〈v, (x, y, 0)〉 = 0, podemos concluir que 〈(a, b, c), (x, y, 0)〉 = 0, para todo x, y ∈ R. Ou seja, ax + by = 0, para todo x, y ∈ R. Em particular, fazendo x = 1 e y = 0, temos que a = 0, e para x = 0 e y = 1, obtemos b = 0. Dessa forma, v = (a, b, c) = (0, 0, c) = c(0, 0, 1). Portanto, U⊥ = [(0, 0, 1)]. Note que U não é necessariamente é um subespaço de V , mas U⊥ como nos Exemplos 2.23 e 2.23, é sempre um subespaço. Proposição 2.3. Seja V um espaço vetorial com produto interno 〈., .〉 sobre R. Então U⊥ é um subespaço de V. Demonstração: Com efeito, primeiramente, note que 0 ∈ U⊥, pois 〈0, u〉 = 0, para todo u ∈ U . Em seguida, sejam v, w ∈ U⊥ e λ ∈ R. Logo, 〈v, u〉 = 0 e 〈w, u〉 = 0, para todo u ∈ U . Consequentemente, 〈v + λw, u〉 = 〈v, u〉+ λ〈w, u〉 = 0 + λ · 0 = 0, para todo u ∈ U . Ou seja, v + λw ∈ U⊥. Isto prova que U⊥ é um subespaço de V. � Observação 2.5. Se o espaço vetorial tem um produto interno complexo, tal proposição também é válida. Teorema 2.7. Seja V um espaço vetorial com produto interno 〈., .〉 e seja Uum subespaço de dimensão finita de V. Então V = U ⊕ U⊥, (1) isto é, V = U + U⊥ e U ∩ U⊥ = {0}. Demonstração: Inicialmente, provemos que U ∩U⊥ = {0}. Ora, se U ∩U⊥, então v ∈ U e v ∈ U⊥. Usando a Definição 2.7, temos que 〈v, u〉 = 0, para todo u ∈ U . Como v ∈ U , então, em particular, 〈v, v〉 = 0. Usando a Definição 2.1, concluímos que v = 0. Provaremos que v é a soma de um vetor de Ucom um vetor de U⊥. Para isso, escolha u = ∑m i=1〈v, ui〉ui ui ∈ U . Vamos demonstrar que , 〈v − u, uj〉 = 0, para todo j = 21 1, 2, ...,m.. 〈v − u, uj〉 = 〈v, uj〉 − 〈u, uj〉 = 〈v, uj〉 − 〈 m∑ i=1 〈v, ui〉ui, uj〉 = 〈v, uj〉 − m∑ i=1 〈v, ui〉〈ui, uj〉 = 〈v, uj〉 − 〈v, uj〉 = 0 pois β é uma bse ortonormal. Consequentemente, v − u ∈ U⊥. Mas, v = u + (v − u), onde u ∈ U e v − u ∈ U⊥. Isto prova que V = U + U⊥. Portanto, V = U ⊕ U⊥. � Observação 2.6. Sejam w1, ..., wr subespaços de V , e suponhamos que {w11, ..., w1n1}, ..., {wr1, ..., wrnr} sejam bases de w1, ..., wr, respectivamente. Então V é a soma direta dos wi se e somente se a união B = {w11, ..., w1n1 , ..., wr1, ..., wrnr} é uma base de V (LIPSCHUTZ, 1994, p. 525). Observação 2.7. Sob as hipóteses do Teorema 2.7, temosque dimV = dimU+dimU⊥, pois V = U ⊕ U⊥. 2.8 Adjunta de um Operador Linear Definição 2.8 (Funcional Linear). Seja V um espaço vetorial. Dizemos que uma aplica- ção f : V → R é um funcional linear se f(λu+ v) = λf(u) + f(v), para todos u, v ∈ V e todo λ ∈ R. O conjunto V ∗ = {f : V → R : f é linear} é um espaço vetorial chamado espaço dual de V. Exemplo 2.25. A aplicação f : R2 → R, dada por f(x, y) = 2x + y é um funcional linear. De fato, tome u = (x1, y1) , v = (x2, y2) ∈ R2 e λ ∈ R, então f(λu+ v) = f(λ(x1, y1) + (x2, y2)) = f((λx1, λy1) + (x2, y2)) = f((λx1 + x2, λy1 + y2)) = 2λx1 + 2x2 + λy1 + y2 = 2λx1 + λy1 + 2x2 + y2 = λf((x1 + y1) + f(x2, y2)) = λf((u) + f(v)). Portanto f é um exemplo de funcional linear. 22 Exemplo 2.26 (Funcional não linear). Considere a aplicação f : R2 → R, dada por f(x, y) = 5. Para quaisquer u = (x1, y1) e v = (x2, y2) ∈ R2 e para λ = 5, temos f(λu+ v) = f(5(x1, y1) + (x2, y2)) = f((5x1, 5y1) + (x2, y2)) = f(5x1 + x2, 5y1 + y2) = 5, e λf(u) + f(v) = 5f(x1, y1) + f(x2, y2) = 5 · 5 + 5 = 25 + 5 = 30. Como, f(5u + v) 6= 5f(u) + f(v) para todos u, v ∈ R2, então a função dada não é um funcional linear. Seja V um espaço com produto interno e seja w ∈ V . A função g : V → R definida por g(v) = 〈v, w〉, para todo v ∈ V , é um funcional linear. Teorema 2.8 (Teorema da Representação de Riesz). Seja V um espaço vetorial com pro- duto interno 〈., .〉 de dimensão finita. Dado um funcional linear f : V → R, existe um único v ∈ V tal que f(u) = 〈u, v〉, para todo u ∈ V . Demonstração: Pelo Teorema 2.6, sabemos que existe uma base ortogonal de V , que pode ser normalizada. Digamos que {v1, v2, .., vn} é esta base. Dado u ∈ V , pela definição de base, temos que existem λ1, ..., λn ∈ R tais que u = λ1v1 + λ2v2 + ...+ λnvn. Note que 〈u, v1〉 = λ1〈v1, v1〉+ λ2〈v2, v1〉+ ...+ λn〈vn, v1〉 = λ1. Analogamente, prova-se que λi = 〈u, vi〉, para todo i = 1, 2, ..., n. Assim sendo, u = 〈u, v1〉v1 + 〈u, v2〉v2 + ...+ 〈u, vn〉vn. Consequentemente, usando a Definição 2.8, f(u) = f(〈u, v1〉v1 + 〈u, v2〉v2 + ...+ 〈u, vn〉vn) = 〈u, v1〉f(v1) + 〈u, v2〉f(v2) + ...+ 〈u, vn〉f(vn) = 〈u, f(v1)v1〉+ 〈u, f(v2)v2〉+ ...+ 〈u, f(vn)vn〉 = 〈u, f(v1)v1 + f(v2)v2 + ...+ f(vn)vn〉. 23 Defina v = f(v1)v1 + f(v2)v2 + ... + f(vn)vn. Portanto, f(u) = 〈u, v〉, para todo u ∈ V . Agora, vamos provar a unicidade de v ∈ V . Suponha que existe w ∈ V tal que f(u) = 〈u,w〉, para todo u ∈ V Com isso, 〈u,w〉 = f(u) = 〈u, v〉, para todo u ∈ V . Daí, 〈u,w − v〉 = 0, para todo u ∈ V . Usando o item iv) da Proposição 2.1, chegamos a w − v = 0. Logo, w = v. Isso prova a unicidade. � Exemplo 2.27. Seja f(x, y) = 2x+y o funcional visto no Exemplo 2.25. Então podemos escrever f(x, y) = 〈(x, y), (2, 1)〉, para todo (x, y) ∈ R2. Logo, v = (2, 1) é o vetor relatado no Teorema 2.8. Definição 2.9 (Adjunta). Seja T : U → V uma transformação linear, onde Ue V são espaços vetoriais com produtos internos 〈., .〉U e 〈., .〉V , respectivamente. Dizemos que uma aplicação T ∗ : V → U é uma adjunta de T se satisfaz 〈v, T (u)〉V = 〈T ∗(v), u〉U , para todo u ∈ U , v ∈ V . Observação 2.8. Quando não houver possibilidade de confusão escreveremos, simples- mente, 〈., .〉 para representar 〈., .〉U e 〈., .〉V , mas deve estar claro que estes produtos são definidos sobre Ue V , respectivamente. Exemplo 2.28. Seja V o espaço dos polinômios sobreR com produto interno canônico de C([1, 0]). Fixe g ∈ V . Defina T : V → V pondo T (f) = f · g, para todo f ∈ V . Vamos procurar a adjunta de T (caso esta exista). Observe que 〈f, T (h)〉 = 〈f, h·g〉 = ∫ 1 0 f(t)h(t)g(t)dt = ∫ 1 0 f(t)g(t)h(t)dt = 〈f ·g, h〉 = 〈T (f), h〉, para todos f, h ∈ V . Portanto, T ∗(f) = T (f) para todo f ∈ V . Ou seja, T ∗ = T. A adjunta nem sempre existe, mas quando ela existe é única e linear, como vere- mos nas seguintes proposições. Proposição 2.4 (Unicidade da Adjunta). Seja T : U → V uma transformação linear, ondeUe V são espaços vetoriais com produtos internos 〈u, v〉U e 〈u, v〉V , respectivamente. Caso exista T ∗, esta é única. Demonstração: Suponha que uma transformação linear S : V → U tal que 〈v, T (u)〉V = 〈S(v), u〉U , para todo u ∈ U e v ∈ V . Então, 〈T ∗(v), u〉U = 〈v, T (u)〉V = 〈S(v), u〉U , 24 para todo u ∈ U e v ∈ V . Ou seja, 〈T ∗(v)− S(v), u〉U = 0, para todo u ∈ U e v ∈ V . Assim, T ∗(v) − S(v) = 0, para todo v ∈ V e, portanto, S = T ∗. Isto garante a unicidade de T ∗. � O próximo resultado nos diz que se T é linear podemos concluir que T ∗ é linear. Proposição 2.5. Seja T : U → V uma transfonação linear, onde Ue V são espaços vetoriais com produtos internos 〈., .〉U e 〈., .〉V , respectivamente. Caso exista T ∗, esta é uma transformação linear. Demonstração: Sejam v, w ∈ V e λ ∈ R. Então, obtemos 〈T ∗(λv + w), u〉U = 〈λv + w, T (u)〉V = λ〈v, T (u)〉V + 〈w, T (u)〉V = λ〈T ∗(v), u〉U + 〈T ∗(w), u〉U = 〈λT ∗(v) + T ∗(w), u〉U , para todo u ∈ U . Ou seja, 〈T ∗(λv + w), u〉U = 〈λT ∗(v) + T ∗(w), u〉U , para todo u ∈ U . Portanto, 〈T ∗(λv + w)− (λT ∗(v) + T ∗(w)), u〉U = 0, para todo u ∈ U . Utilizando o item iv) da Proposição 2.1, concluimos que T ∗(λv + w)− (λT ∗(v) + T ∗(w)) = 0, Donde, T ∗(λv + w) = λT ∗(v) + T ∗(w). Isto nos diz que T ∗ é linear. � Teorema 2.9 (Existência e Unicidade da Adjunta). Seja T : U → V uma transformação linear, onde Ue V são espaços vetoriais com produtos internos 〈., .〉U e 〈., .〉V , respectiva- mente, e de dimensões finitas. Então T ∗ existe, é única e linear. Demonstração: Para cada v ∈ V , definimos fv(u) = 〈v, T (u)〉V , para todo u ∈ U . Note que f : U → R é um funcional linear. De fato, através da linearidade de T e da Definição 2.1, obtemos fv(λu+ w) = 〈v, T (λu+ w)〉V = 〈v, λT (u)〉V + 〈v, T (w)〉V = λ〈v, T (u)〉V + 〈v, T (w)〉V = λfv(u) + fv(w), 25 para todo u,w ∈ U . Ou seja, fv(λu + w) = λfv(u) + fv(w), para todo u,w ∈ U . Isto nos diz que fv é linear. Pelo Teorema da Representação de Riesz, existe um único w ∈ U tal que fv(u) = 〈u,w〉U = 〈w, u〉U , para todo u ∈ U . Daí, 〈v, T (u)〉V = fv(u) = 〈w, u〉U , para todo u ∈ U . Defina T ∗(v) = w. Logo, 〈v, T (u)〉V = 〈T ∗(v), u〉U , para todo u ∈ U e v ∈ V . Logo, T ∗ é uma adjunta de T. A unicidade está garantida pela Proposição 2.4 e a linearidade através da Proposição 2.5 � Observação 2.9. No caso de espaços vetoriais de dimensão infinita pode ocorrer a não existência da adjunta de certos operadores. Por exemplo: Seja V = P (R) o espaço dos polnômios sobre R com um produto interno dado por 〈f, g〉 = ∫ 1 0 f(t)g(t). Considere D como o operador diferencial agindo sobre V , onde D(f(t)) = f ′(t), é possível mostrar que não existe D∗, isto é, que D não possui adjunta (LIPSCHUTZ, 1994, p.630). Exemplo 2.29. Seja T : R2 → R3 dado por T (x, y) = (x, 2x + y,−y). Vamos achar a adjunta da transformação linear T: 〈(a, b, c), T (x, y)〉 = 〈(a, b, c), (x, 2x+ y,−y)〉 = ax+ b(2x+ y)− cy = (a+ 2b)x+ (b− c)y = 〈(a+ 2b, b− c), (x, y)〉. Logo, T ∗(a, b, c) = (a+ 2b, b− c), para todo (a, b, c) ∈ R3, define a adjunta de T. Exemplo 2.30. Defina T : R2 → R2 por T (x, y) = (−y, x). Daí, para todo (a, b) ∈ R2 e (x, y) ∈ R2 〈(a, b), T (x, y)〉 = 〈(a, b), (−y, x)〉 = −ay + bx = bx+ (−a)y = 〈(b,−a), (x, y)〉. Logo, T ∗(a, b) = (b,−a),∀(a, b) ∈ R2, define a adjunta de T. Neste caso, T ∗ = −T um operador chamado de anti-auto-adjunto. Exemplo 2.31. Seja T : R2 → R2 dada por T (x, y) = (y, x). Note que 〈(a, b), T (x, y)〉 = 〈(a, b), (y, x)〉 = ay + bx = bx+ ay = 〈(b, a), (x, y)〉, para todo (x, y), (a, b) ∈ R2. Então T ∗(a, b) = (b, a). Logo, T ∗ = T , um operador auto-adjunto. 26 A seguir será demonstrado algumas propriedades da adjunta. Proposição 2.6. Sejam T, S : U → V e P : V → W transformações lineares, onde U ,V e W são espaços vetoriais com produto interno e dimensão finita. Seja λ ∈ R. Então: i) I∗ = I, onde I é a transformação linear identidade, istoé, I(v)=v, para todo v; ii)(T + S)∗ = T ∗ + S∗, em palavras, a adjunta de uma soma é a soma das adjuntas; iii)(λT )∗ = λT ∗, em palavras, a adjunta de uma multiplicação por escalar é multiplicação por escalar com a adjunta; iv)(P ◦T )∗ = T ∗◦P ∗, em palavras, a adjunta de uma composta é a composta das adjuntas com fatores comutados; v)T ∗∗ := (T ∗)∗ = T , em palavras, a adjunta da adjunta de uma transformação linear é a própria transformação linear. Demonstração: A existência e a unicidade destas adjuntas estão garantidas pelo Teorema 2.9. Essas propriedades decorrem imediatamente da Definção 2.9. De fato, i)I∗ = I segue diretamente do fato que 〈v, I(u)〉V = 〈v, u〉U = 〈I(v), u〉U , para todo u, v. ii) (T + S)∗ = T ∗ + S∗ é uma consequência do fato que 〈v, (T + S)(u)〉 = 〈v, T (u) + S(u)〉 = 〈v, T (u)〉+ 〈v, S(u)〉 = 〈T ∗(v), u〉+ 〈S∗(v), u〉 = 〈T ∗(v) + S∗(v), u〉, para todo u ∈ U e v ∈ V . iii) Também concluímos que 〈v, (λT )(u)〉 = 〈v, λT (u)〉 = λ〈v, T (u)〉 = λ〈T ∗(v), u〉 = 〈λT ∗(v), u〉, para todo u ∈ U e v ∈ V . Assim, (λT )∗ = λT ∗. iv) 〈w, (P ◦ T )(u)〉 = 〈w,P (T (u))〉 = 〈P ∗(w), T (u)〉 = 〈T ∗(P ∗(w)), u〉 = 〈(T ∗ ◦ P ∗)(w), u〉, para todo u ∈ U e w ∈ W . Portanto, (P ◦ T )∗ = T ∗ ◦ P ∗. 27 v) Por fim, T ∗∗ = T segue do fato que 〈v, T ∗(u)〉 = 〈T (v), u〉, para todo u ∈ U e v ∈ V . � Exemplo 2.32. Seja S : R2 → R3, definido por S(x, y) = (2x, 4x+2y,−2y). Desejamos encontrar a adjunta de S. Observe que S = 2T , onde T (x, y) = (x, 2x + y,−y). Vimos no Exemplo 2.30 que T ∗(a, b, c) = (a+ 2b, b− c). Logo, pelo item iii) da Proposição 2.6, obtemos S∗(a, b, c) = (2T )∗(a, b, c) = 2T ∗(a, b, c) = 2(a+ 2b, b− c) = (2a+ 4b, 2b− 2c). Exemplo 2.33. Seja S : R2 → R2 dado por S(x, y) = (x− y, x+ y). Note que, S(x, y) = (x− y, x+ y) = (x, y) + (−y, x) = I(x, y) + T (x, y) = (I + T )(x, y), para todo (x, y) ∈ R2, onde T está definida no Exemplo 2.31 e I é a identidade de R2. Vimos que T ∗(a, b) = (b,−a). Portanto, usando so itens i) e ii) da Proposição 2.6, encontramos S∗(a, b) = (I + T )∗(a, b) = (I∗ + T ∗)(a, b) = I∗(a, b) + T ∗(a, b) = (a, b) + (b,−a) = (a+ b, b− a). Proposição 2.7 (Adjunta da inversa). Seja T : V → V um isomorfismo, onde V é um espaço vetorial com produto interno. Então T ∗ (caso exista) também o é. Neste caso, [T ∗]−1 = [T−1]∗. Demonstração: Como T é um isomorfismo, existe aplicação linear T−1 : V → V satis- fazendo T ◦ T−1 = T−1 ◦ T = I , onde I : V → V é a identidade de V . Portanto, utilizando os itens i) e iv) da Proposição 2.6, obtemos [T ◦T−1]∗ = [T−1 ◦T ]∗ = I∗. Com isso, [T−1]∗ ◦ T ∗ = T ∗ ◦ [T−1]∗ = I. Isto nos diz que T ∗ é inversível, ou seja, T ∗ é um isomorfismo. Além disso, [T ∗]−1 = [T−1]∗. � Proposição 2.8. Seja T : V → V um operador linear, onde V é um espaço vetorial com produto interno 〈., .〉. Seja U um subespaço T-invariante, isto é, T (U) ⊆ U . Suponha que T ∗ : V → V existe, então U⊥ é um subespaço T ∗-invariante, ou seja, T ∗(U⊥) ⊆ U⊥. Demonstração: Seja u ∈ T ∗(U⊥), então existe v ∈ U⊥ tal que u = T ∗(v). Dado w ∈ U, temos que 〈u,w〉 = 〈T ∗(v), w〉 = 〈v, T (w)〉. Como w ∈ U , então T (w) ∈ U , pois 28 T (U) ⊆ U . Por conseguinte,〈u,w〉 = 〈v, T (w)〉 = 0, pois v ∈ U⊥ e T (w) ∈ U . Assim sendo, u ∈ U⊥. Portanto T ∗(U⊥) ⊆ U⊥. � 2.9 Matriz da Adjunta em Relação a uma Base Ortonormal Teorema 2.10. Seja T : V → V uma transformação linear, onde V é um espaço veto- rial com produto interno 〈., .〉 e de dimensão finita. Seja β = {v1, v2, ..., vn} uma base ortonormal de V . Então [T ∗]β = [T ]tβ. Demonstração: Seja [T ]β = (Aij). Note que T (vj) = A1v1 + A2v2 + ...+ Anvn. Conse- quentemente, 〈T (vj), vi〉 = 〈A1jv1 +A2jv2 + ...Anj, vi〉 = A1j〈v1, vi〉+A2j〈v2, vi〉+ ...+Anj〈vn, vi〉. Como β é uma base ortonormal, então 〈T (vj), vi〉 = Aij〈vi, vi〉 = Aij . Portanto, 〈T (vj), vi〉 = Aij, para todo i, j = 1, 2, ..., n. Seja [T ∗]β = (Bij). Analogamente ao que foi feito nesta demonstração, temos que Bij = 〈T ∗(vj), (vi)〉 = 〈vj, T (vi)〉 = 〈T (vi), vj〉 = Aji, para todo i,j=1,2,...,n. Isto nos diz que [T ∗]β = [T ]tβ. � Exemplo 2.34. Seja T(x,y)=(-y,x). Então [T ]c = ( 0 −1 1 0 ) é a matriz de T em relação à base canônica de R2. Como esta base ortonormal, em relação ao produto interno canô- nico de R2, usando o Teorema 2.10 para concluirmos que [T ∗]c = [T ]tc = ( 0 1 −1 0 ) . Portanto, T ∗(a, b) = (b,−a). 2.10 Operadores Auto-adjuntos Definição 2.10. Seja V um espaço vetorial com produto interno 〈., .〉. Dizemos que um operador linear T : V → V é auto-adjunto se T = T ∗. Esse operador também pode ser chamado de Hermitiano. Exemplo 2.35. Seja T : R2 → R2, dada por T (x, y) = (y, x). Vimos, no Exemplo 2.31, que T ∗ = T , logo, T é um operador auto-adjunto. Exemplo 2.36 (Operador não auto-adjunto). Seja T : R2 → R2, dada por T (x, y) = (−y, x). Vimos que T ∗(a, b) = (b,−a). Em particular, T ∗(1, 1) = (1,−1) 6= T (1, 1) = (−1, 1). Ou seja, T ∗ 6= T . Isto nos diz que Tnão é auto-adjunto ou Hermitiano. 29 Exemplo 2.37. Seja V um espaço vetorial com produto interno 〈., .〉. Seja v ∈ V um vetor fixo. Seja T : V → V definida por T (u) = 〈v, u〉v, para todo u ∈ V . Vamos mostrar que T é auto-adjunto. De fato, 〈v, T (u)〉 = 〈v, 〈v, u〉v〉 = 〈v, u〉〈v, v〉 = 〈〈v, v〉v, u〉 = 〈T (v), u〉, ou seja, T ∗ = T . Isto nos diz que T é auto-adjunto. Proposição 2.9. Seja V um espaço vetorial com produto interno e seja T : V → V um operador auto-adjunto e um isomorfismo. Então T−1 também o é. Demonstração: A Proposição 2.6 nos diz que (T−1)∗ = (T ∗)−1 = T−1, já que T é auto- adjunto. Ou seja, T−1 é auto-adjunto e claramente um isomorfismo. � Exemplo 2.38. Seja T (x, y) = (x+ y, x− y). Então T é auto-adjunto. De fato, 〈(a, b), T (x, y)〉 = 〈(a, b), (x+ y, x− y)〉 = a(x+ y) + b(x− y) = x(a+ b) + y(a− b) = 〈(a+ b, a− b), (x, y)〉 implica que T ∗(a, b) = (a+ b, a− b), e isto mostra que T ∗ = T . Em um espaço vetorial E com produto interno, seja T : E → E um operador linear. Supondo que T ∗ exista, dizemos que T é unitário, se T ∗T = TT ∗ = I . Operadores unitários também são chamados de ortogonais, especialmente no caso ondeE é um espaço vetorial real, enquanto operadores simétricos, isto é, quando T⊥ = T , são chamados de hermitianos. Essa última denominação é mais empregada no caso de E ser um espaço vetorial complexo. Dizemos ainda que T é anti-simétrico se T ∗ = −T . A denominação anti-hermitiano também é usada para um operador anti-simétrico. Para maiores detalhes veja Bueno (2009, p.11). 2.11 Matrizes de Operadores Auto-adjuntos É possível verificar quando um operador é auto-adjunto através da matriz deste em relação a uma base ortonormal. Lembre que uma matriz A é simétrica se A = At. Teorema 2.11 (Caracterização de Operadores Auto-adjuntos). Seja V um espaço vetorial com produto interno 〈., .〉 e de dimensão finita. Seja T : V → V um operador linear. Então T é auto-adjunto se, e somente se, [T ]β é simétrica, onde β é base ortonormal de V . Demonstração: Suponha que T é auto-adjunto. Seja β base ortonormal de V. Vimos no Teorema 2.10 que [T ∗]β = [T ]tβ . Como T é auto-adjunto, então T ∗ = T . Logo, 30 [T ]β = [T ∗]β = [T ]tβ . Isto nos diz que [T ]β é simétrica. Reciprocamente, suponha que [T ]β = [T ]tβ , onde β = {v1, v2, ..., vn} é uma base ortonor- mal de V. Consequentemente, 〈T (vi), vj〉 = 〈T (vj), vi〉, para todo i, j variando de 1 a n. Essas são as entradas das matrizes [T ]β e [T ]tβ , respectivamente. Se u, v ∈ V , então, pela definição de base, u = ∑n i=1 xivi e v = ∑n j=1 yjvj . Portanto, 〈u, t(v)〉 = 〈 n∑ i=1 xivi, T ( n∑ j=1 yjvj〉 = n∑ i=1 xi n∑ j=1 yj〈vi, T (vj)〉 = n∑ i=1 xi n∑ j=1 yj〈T (vj), vi〉 = n∑ i=1 xi n∑ j=1 yj〈T (vi), vj〉, onde 〈T (vi), vj〉 = 〈vi, T (vj)〉. Por fim, 〈u, T (v)〉 = 〈 n∑ i=1 xiT (vi), n∑ j=1 yjvj〉 = 〈T ( n∑ i=1 xivi), n∑ j=1 yivj〉 =〈T (u), v〉. Logo, usando a Proposição 2.1, temos que T ∗ = T . Pela Definição 2.10, T é auto-adjunto. � A hipótese de ortonormalidade da base não pode ser desconsiderada. Exemplo 2.39. Seja T (x, y, z) = (2x+2z, x+z, x+z) um operador linear sobre V = R3 e seja β = {(1, 1, 0), (1, 0, 0), (0, 0, 1)} uma base de V. Note que [T ]β = 1 1 11 1 1 1 1 1 . Assim sendo, [T ]β é simétrica mas T não é auto-adjunto. Com efeito, 〈T (1, 0, 0), (0, 1, 0)〉 = 〈(2, 1, 1), (0, 1, 0)〉 = 1 e 〈(1, 0, 0), T (0, 1, 0)〉 = 〈(1, 0, 0), (0, 0, 0)〉 = 0. Logo, 〈T (1, 0, 0), (0, 1, 0)〉 6= 〈(1, 0, 0), T (0, 1, 0)〉. 31 Exemplo 2.40. Seja T : R2 → R2 dado por T (x, y) = (−y, x). Note que, [T ]c = ( 0 −1 1 0 ) , onde c é a base canônica deR2. Veja que [T ]c não é simétrica. Então T não é auto-adjunto, pelo Teorema 2.11. Exemplo 2.41. Seja T : R2 → R2 dado por T (x, y) = (y, x). Veja que [T ]c = ( 0 1 1 0 ) , é uma matriz simétrica, onde c é a base canônica deR2. Dessa forma, pelo Teorema 2.11, T é auto-adjunto. 32 3 METODOLOGIA Este trabalho foi elaborado com as informações obtidas através de documentos bibliográficos. Com uma pesquisa acurada, empregou-se a maneira tradicional de leitura e reescrita dos fatos e resultados já existentes buscando um melhor entendimento da referida matéria, do estudo Teorema Espectral para Operadores Adjuntos. As etapas realizadas em busca da compreensão dos referidos temas acima relacionados podem ser listados em ordem cronológica como: a. Estudo rigoroso das definições e métodos do produto interno e norma em um espaço vetorial; b. Estudo rigoroso das definições e métodos sobre complemento ortogonal e conjunto ortonormal; c. Estudo rigoroso das definições e métodos da adjunta de um operador linear e dos operadores auto-adjuntos; d. Estudo rigoroso das definições e métodos para o entendimento do Teorema Espectral para operadores auto-adjuntos em um subespaço de dimensão finita; e. Aplicação do teorema espectral para solucionar alguns exemplos. 33 4 RESULTADOS E DISCUSSÕES 4.1 Teorema Espectral para Operadores Auto-adjuntos Para operadores auto-adjuntos sobre um espaço vetorial V de dimensão finita existe uma base ortonormal desse espaço formada por autovetores. Isto garante que a reapre- sentação matricial do operador é uma matriz diagonal. Tal resultado é conhecido como Teorema Espectral para o operadores auto-adjuntos. Lema 4.1. Seja Tum operador linear auto-adjunto sobre um espaço vetorial real V com um produto interno. Então autovetores associados a autovalores distintos são ortogonais. Demonstração: Sejam v, w ∈ V autovetores associados a autovalores distintos λ e µ, respectivamente, ou seja, T (v) = λv e T (w) = µw. Então, por ser T auto-adjunto, segue que 〈v, T (w)〉 = 〈T (v), w〉. Assim, 〈v, µw〉 = 〈λv, w〉. Consequentemente, µ〈v, w〉 = λ〈v, w〉 e (λ−µ)〈v, w〉 = 0. Como λ 6= µ temos que 〈v, w〉 = 0. Concluímos que v ⊥ w. � Lema 4.2. Seja T um operador auto-adjunto sobre um espaço vetorial com produto in- terno e de dimensão finita V . Se U é um subespaço T-invariante, então U⊥ também o é . Demonstração: Seja u ∈ T ∗(U⊥), então existe v ∈ U⊥ tal que u = T ∗(v). Dado w ∈ U, temos que 〈u,w〉 = 〈T ∗(v), w〉 = 〈v, T (w)〉. Como w ∈ U , então T (w) ∈ U , pois T (U) ⊆ U . Por conseguinte,〈u,w〉 = 〈v, T (w)〉 = 0, pois v ∈ U⊥ e T (w) ∈ U . Assim sendo, u ∈ U⊥. Como T = T ∗, T (U⊥) ⊆ U⊥. � Lema 4.3. Seja T : V → V um operador linear auto-adjunto sobre um espaço vetorial real com produto interno e de dimensão finita. Então existe autovalores de T e os mesmos são números reais. Demonstração: Seja β uma base ortonormal de V . Considere que dimV = n > 0. Então, pelo Teorema 2.11, [T ]β = A = (Aij) é simétrica, pois T é um operador auto- adjunto. Considere o polinômio característico de T , pA(x) = det(xI − A) = 0, onde I é a matriz identidade n × n. Então λ é autovalor de T se, e somente se, pA(λ) = det(λI − A) = 0. Pelo Teorema Fundamental da Álgebra, este polinômio tem pelo menos uma raiz complexa λ. Vamos mostrar que λ ∈ R. Como det(λI − A) = 0, segue que o sistema linear AX = λX possui infinitas soluções não nulas (X é uma matriz n× 1 com entradas complexas). Digamos que Y = y1 y2 ... yn ∈ Rn, 34 é uma solução não-nula de AX = λX. Ou seja, AY = λY e Y 6= 0. Escrevendo esta equação matricial como sistema linear, obtemos as equações n∑ j=1 Aijyj = λyi, (i = 1, 2..., n). Com isso, multiplicando por yi, encontramos n∑ j=1 Aijyjyi = λyiyi, (i = 1, 2, ..., n). Somando estes resultados, obtemos n∑ i,j=1 Aijyjyi = λ n∑ i=1 yiyi = λ n∑ i=1 |yi|2. (este síbolo || é o módulo de um número complexo). Observe que esta última soma resulta em um número real. Vamos, agora, verificar n∑ i,j=1 Aijyjyi ∈ R. Ou em outras palavras, vamos mostrar que: n∑ i,j=1 Aijyjyi = n∑ i,j=1 Aijyjyi. De fato, n∑ i,j=1 Aijyjyi = n∑ i,j=1 Aijyjyi = n∑ i,j=1 Aijyjyi, na última igualdade usamos o fato que A é uma matriz real. Como A é simétrica, então n∑ i,j=1 Aijyjyi = n∑ i,j=1 Ajiyjyi = n∑ i,j=1 Aijyiyj = n∑ i,j=1 Aijyjyi, onde na penúltima igualdade fizemos uma mudança de índices de i para j. Consequen- temente, n∑ i,j=1 Aijyjyi ∈ R. Como, ∑n i=1 |yi|2 ∈ R e é não nulo pois yw 6= 0 para algum indice w ∈ {1, ..., n}, tem-se que λ = n∑ i,j=1 Aijyjyi |yi|2 ∈ R, como queriamos provar. � Teorema 4.1 (Teorema Espectral para Operadores Auto-adjuntos). Seja Tum operador linear sobre espaço vetorial com produto interno e de dimensão finita. Então T é auto- adjunto se, e somente se, existe uma base ortonormal de V formada por autovetores de T . 35 Demonstração: Admita que T seja auto-adjunto. Seja dimV = n. Faremos a prova por indução sobre n. Se n = 1 e {v} é uma base de V , segue que { v ||v|| } é uma base orto- normal de V formada por um autovetor, pois nesse caso, todo elemento não-nulo de V é um autovetor já que T (v) ∈ V implica, que pela definição de base, que T (v) = λv para algum λ ∈ R. Agora considere n > 1 e suponha que o Teorema seja válido para todo subespaço de V com dimensão menor que n. Como n > 1, segue do Lema 4.3 que existe v1 ∈ V au- tovetor unitário de T associado a um autovalor α. Seja U = [v1]. Assim, pela Obervação 2.7, temos que dimU⊥ = dimV − dimU = n − 1 < n. Além disso, para qualquer elemento w = µv1 em U temos que T (µv1) = µT (v1) = (µα)v1 ∈ U . Isto nos diz que Ué T-invariante e , em consequência, do Lema 4.2 , concluímos que U⊥ é um subespaço de dimensão menos que n e T-invariante. Por hipótese de indução, existe uma base or- tonormal {v2, v3, ..., vn} de U⊥. Logo, pela Observação 2.6, {v1, v2, .., vn} é uma base ortonormal de V formada por autovetores de T , digamos que T (vi) = λivi, para todo i = 1, 2, ..., n. Vamos provar que T é auto-adjunta. Como na base β, T tem representação: [T ]β = λ1 0 . . . 0 0 λ2 . . . 0 0 0 . . . 0 0 0 . . . λn , segue que T é uma matriz simétrica, ou seja, [T ]β = [T ]tβ , segue o Teorema 2.11 que T é auto-adjunto. � Abaixo uma aplicação do Teorema Espectral para matrizes. Corolário 4.1 (Teorema Espectral para Matrizes Simétricas). Seja A ∈Mn(R) = {matrizes n× n com coeficientes reais} uma matriz simétrica. Então existe P ∈ Mn(R) ortogonal tal que D = P tAP , onde D é uma matriz diagonal, constituída dos autovalores de A na diagonal (lembre que P é ortogonal se P−1 = P t, isto é, PP t = P tP = I). Demonstração: Sejam V = Rn e c a base canônica desse espaço vetorial. Seja T : V → V o operador linear tal que [T ]c = A. Como c é ortonormal A é simétrica, então, pelo Teorema 2.11, T é um operador auto-adjunto. Pelo Teorema 4.1, existe base ortonormal β = {v1, v2, ..., vn} de V formada por autovetores de T , digamos T (vi) = λivi, para todo36 i = 1, 2, ..., n. Logo, D = [T ]β = λ1 0 . . . 0 0 λ2 . . . 0 0 0 . . . 0 0 0 . . . λn . Mas,D = [T ]β = P−1AP , onde P é a matriz mudança de base de β para c. Isto é, P possui como colunas os vetores da base β. Seja vi = (xi1, x i 2, ..., x i n), para todo i = 1, 2, ..., n. Logo, P tP = x11 x 1 2 . . . x 1 n x21 x 2 2 . . . x 2 n . . . . . . . . . . . . xn1 x n 2 . . . x n n x11 x 2 1 . . . x n 1 x12 x 2 2 . . . x n 2 . . . . . . . . . . . . x1n x 2 n . . . x n n = 〈v1, v1〉 〈v1, v2〉 . . . 〈v1, vn〉 〈v2, v1〉 〈v2, v2〉 . . . 〈v2, vn〉 . . . . . . . . . . . . 〈vn, v1〉 〈vn, v2〉 . . . 〈vn, vn〉 = 1 0 . . . 0 0 1 . . . 0 . . . . . . . . . . . . 0 0 . . . 1 = I, a penútima igualdade segue da ortonormalidade de β. Ou seja, P é ortogonal (P−1 = P t), basta utilizar o Teorema do núcleo e imagem. � Exemplo 4.1. Seja A = ( 1 2 2 −2 ) . Vamos encontrar An para todo n ∈ N. Note que A é uma matriz simétrica. Vamos encontrar os autovalores de A. Para isto, basta encontrar as raízes do polinômio característico. Veja que pA(x) = det(xI − A) = det ( x− 1 −2 −2 x+ 2 ) = (x− 1)(x+ 2)− 4 = (x+ 3)(x− 2), (I é a matriz identidade 2 × 2 ) é o polinômio característico de A. Logo, os autovalores de A são λ1 = −3 e λ2 = 2. Agora, vamos encontrar os autovetores associados a estes autovalores. Comecemos com o autovalor λ1 = −3. Seja v = ( x y ) um vetor qualquer 37 de A associado ao autovalor λ1 = −3. Então Av = −3v, ou seja,( 1 2 2 −2 )( x y ) = −3 ( x y ) . Em forma de sistemas lineares, obtemos{ x+ 2y = −3x; 2x− 2y = −3y. Este sistema é equivalente ao sistema{ 4x+ 2y = 0; 2x+ y = 0. A solução deste sistema é y = −2x, para todo x ∈ R. Desta forma, v = ( x y ) = ( x −2x ) = x ( 1 −2 ) . Logo o auto-espaço associado ao autovalor λ1 = −3 é V−3 = [(1,−2)]. Agora, considere o autovalor λ2 = 2. Seja v = ( x y ) um autovetor qualquer de A associado do autovalor λ2 = 2. Logo, Av = 2v. Isto é,( 1 2 2 −2 )( x y ) = 2 ( x y ) . Em forma sistema linear, obtemos { x+ 2y = 2x; 2x− 2y = 2y. Este sistema é equivalente ao sistema{ −x+ 2y = 0; 2x− 4y = 0. Portanto, a solução deste sistema é x = 2y, para todo y ∈ R. Assim sendo, v = ( x y ) = ( 2y y ) = y ( 2 1 ) . Logo o auto-espaço associado ao autovalor é λ2 = 2 é V2 = [(2, 1)]. Consequentemente, obtemos uma base formada por autovetores {v1 = (1,−2), v2 = (2, 1)} do operador A. 38 Ora, esses autovetores são associados a autovalores distintos, donde pelo Lema 4.1 eles são ortogonais. Resta então normalizá-los para obtermos uma base ortonormal. Dessa forma, {( 1√ 5 , −2√ 5 ) , ( 2√ 5 , 1√ 5 )} é uma base ortonormal formada por autovetores de A. Colocando estes vetores em coluna encontramos a matriz ortogonal P = ( 1√ 5 2√ 5 −2√ 5 1√ 5 ) . A matriz diagonal D = ( −3 0 0 2 ) , (autovalores de A na diagonal) satisfaz D = P−1AP , onde P−1 = P t. Consequente- mente, A = PDP−1. Logo, A2 = (PDP 1)(PDP−1) = PD2P−1, A3 = A2A = (PD2P−1)(PDP−1) = PD3P−1 ... An = PDnP−1. Ou seja, An = PDnP−1 = PDnP t = ( 1√ 5 2√ 5 −2√ 5 1√ 5 )( (−3)n 0 0 2n )( 1√ 5 −2√ 5 2√ 5 1√ 5 ) . Exemplo 4.2. Seja A = 1 −2 0−2 1 0 0 0 −1 . Veja que A é uma matriz simétrica. Vamos encontrar os autovalores de A. Note que pA(x) = det(xI − A) = det x− 1 2 02 x− 1 0 0 0 x+ 1 = (x+ 1)2(x− 3). onde (I é a matriz identidade 3× 3) e pA(x) é o polinômio característicos de A. Logo, os autovalores de A são λ1 = −1 ( com multiplicidade algébrica 2) e λ2 = 3. Agora, vamos encontrar os autovetores associados a estes autovalores. Comecemos com o autovalor λ1 = −1. Seja v = xy z um autovetor qualquer de A associado ao autovalor λ1 = −1. 39 Daí, Av = −v. Ou seja, 1 −2 0−2 1 0 0 0 −1 xy z = − xy z . Em forma de sistema linear, obtemos x− 2y = −x; −2x+ y = −y; −z = −z. Este sistema é equivalente ao sitema{ 2x− 2y = 0; −2x+ 2y = 0. A solução deste sistema é x = y, para todo y ∈ R. Com isso, v = xy z = yy z = y 11 0 + z 00 1 . Logo o autoespaço associado ao autovalor λ1 = −1 é V−1 = [(1, 1, 0), (0, 0, 1)]. Agora, considere o autovalor λ2 = 3. Seja v = xy z um autovetor qualquer de A associado ao autovalor λ2 = 3. Logo, Av = 3v. Isto é, 1 −2 0−2 1 0 0 0 −1 xy z = 3 xy z . Em forma de sistema linear, temos que x− 2y = 3x; −2x+ y = 3y; −z = 3z. Este sistema é equivalente ao sistema −2x− 2y = 0; −2x− 2y = 0; z = 0. 40 Portanto, a solução deste sistema é x = −y, ∀y ∈ R. Assim sendo, v = −yy 0 = y −11 0 . Logo o auto-espaço associado ao autovalor λ2 = 3 é V3 = [(−1, 1, 0)]. Por conseguinte, {v1 = (1, 1, 0), v2 = (0, 0, 1), v3 = (−1, 1, 0)} é uma base formada por autovetores de A. Mais uma vez, como v3 é autovetor associado ao autovalor λ2 = 3 e v1 e v2 são autovetores associados ao autovalor λ1 = −1, segue que v3 ⊥ v1 e v3 ⊥ v2. Agora, 〈v1, v2〉 = 0. Assim, a base {v1, v2, v3} é ortogonal. Resta então normalizá-la, multiplicando cada vetor base pelo inverso de sua norma. Dessa forma, {( 1√ 2 , 1√ 2 , 0 ) , (0, 0, 1), ( −1√ 2 , 1√ 2 , 0 )} é uma base ortonormal formada por autovetores de A. Colocando estes vetores em coluna encontramos a matriz ortogonal P = 1√ 2 0 −1√ 2 1√ 2 0 1√ 2 0 1 0 . A matriz diagonal ´D é dada por: D = −1 0 00 −1 0 0 0 3 (autovalores de A estão na diagonal) satisfaz D = P−1AP, onde P−1 = P t. 41 5 CONCLUSÃO Em geral concluímos que num espaço vetorial com produto interno há modos efi- cientes de manipular seus elementos possibilitando definir comprimentos e distâncias. Dessa forma, sempre é possível decompor um espaço vetorial de dimensão finita com um produto interno numa soma de dois subespaços, e assim definir uma projeção orto- gonal sobre este espaço. Além disso, para operadores lineares sobre um espaço vetorial de dimensão finita associamos um outro operador linear, chamado de operador adjunto, o qual relaciona elementos do espaço dual com elementos do espaço vetorial. Sobre es- ses operadores, podemos definir ainda os operadores auto-adjuntos: operadores lineares diagonalizáveis onde o conjunto de autovalores do operador é não vazio e é constituído por números reais. Como aplicação, esses operadores nos permitem calcular qualquer potência de uma matriz simétrica real. 42 REFERÊNCIAS BARATA, J. C. A. Curso de Física-Matemática. 2013. Disponível em: < http : //denebola.if.usp.br/ jbarata/Notasdeaula/capitulos.html >. Acesso em: mar. 2013. BARBOZA, D. F.; MELO, W. G. Álgebra Linear II. 2011. Disponível em: < http : //www.scribd.com/doc/88493178/Algebra − Linear − II − Livro − de − Danilo >. Acesso em: jan. 2013. BOLDRINI, J. L. Álgebra Linear. 3. ed. São Paulo: HARBRA, 1986. FALEIROS, A. C. Álgebra Linear Aplicada. 2010. Disponível em: < http : //pt.scribd.com/doc/86591659/043− notasdeaulaalgebralinearaplicada− faleiros >. Acesso em: jan. 2013. LIMA, E.L. Curso de Análise.12. ed. Rio de Janeiro: IMPA, 2009. v.1. LIMA, E. L. Análise Real. 1. ed. Rio de Janeiro: IMPA, 1999. LIMA, E. L. Álgebra Linear. 7. ed. Rio de Janeiro: IMPA, 2012. LIPSCHUTZ, S.; LIPSON, M. Álgebra Linear. 3. ed. Porto Alegre: Bookman, 2008. LIPSCHUTZ, S. Álgebra Lineal. 2. ed. Madrid: McGraw-Hill, 1992. LIPSCHUTZ,S. Álgebra Linear. 3. ed. São Paulo: Makron Books, 1994. 43 AUTORIZAÇÃO Autorizo a reprodução e/ou divulgação total ou parcial do presente trabalho, por qualquer meio convencional ou eletrônico, desde que citada a fonte. _________________________________ Pedro Paulo Nunes Costa pedrocostasje@hotmail.com Universidade Federal dos Vales do Jequitinhonha e Mucuri Diamantina/MG - Rodovia MGT 367 - Km 583, nº 5000 - Alto da Jacuba
Compartilhar