Prévia do material em texto
Álgebra Linear II Licio H. Bezerra Fermín S. V. Bazán Florianópolis, 2008 Universidade Federal de Santa Catarina Consórcio ReDiSul Campus Universitário – Trindade Caixa Postal 476 CEP 88040-900 – Florianópolis – SC Reitor: Alvaro Toubes Prata Vice-Reitor: Carlos Alberto Justo da Silva Secretário de Educação a Distância: Cícero Barbosa Pró-Reitora de Ensino de Graduação: Yara Maria Rauh Muller Departamento de Educação à Distância: Araci Hack Catapan Pró-Reitora de Pesquisa e Extensão: Débora Peres Menezes Pró-Reitor de Pós-Graduação: José Roberto O’Shea Pró-Reitor de Desenvolvimento Humano e Social: Luiz Henrique Vieira Silva Pró-Reitor de Infra-Estrutura: João Batista Furtuoso Pró-Reitor de Assuntos Estudantis: Cláudio José Amante Centro de Ciências da Educação: Carlos Alberto Marques Centro de Ciências Físicas e Matemáticas: Méricles Thadeu Moretti Centro de Filosofia e Ciências Humanas: Maria Juracy Filgueiras Toneli Cursos de Licenciaturas na Modalidade à Distância Coordenação Acadêmica Matemática: Neri Terezinha Both Carvalho Coordenação de Ambientes Virtuais: Nereu Estanislau Burin Coordenação de Infra-Estrutura e Pólos: Vladimir Arthur Fey Comissão Editorial Antônio Carlos Gardel Leitão Albertina Zatelli Elisa Zunko Toma Igor Mozolevski Luiz Augusto Saeger Roberto Corrêa da Silva Ruy Coimbra Charão Coordenação Pedagógica das Licenciaturas à Distância UFSC/CED/CFM Coordenação: Roseli Zen Cerny Núcleo de Formação Responsável: Nilza Godoy Gomes Núcleo de Criação e Desenvolvimento de Material Responsável: Isabella Benfica Barbosa Design Gráfico e Editorial: Carlos A. Ramirez Righi, Diogo Henrique Ropelato, Mariana da Silva. Adaptação Design Gráfico: Diogo Henrique Ropelato, Marta Cristina Goulart Braga, Natal Anacleto Chicca Junior. Produção Gráfica e Hipermídia: Thiago Rocha Oliveira Design Instrucional: Hellen da Silva Zago Revisão Ortográfica: Tony Roberson de Mello Rodrigues Preparação de Gráficos: Laura Martins Rodrigues Editoração Eletrônica: Laura Martins Rodrigues Núcleo de Pesquisa e Avaliação Responsável: Claudia Regina Flores Copyright © 2008, Universidade Federal de Santa Catarina / Consórcio RediSul Nenhuma parte deste material poderá ser reproduzida, transmitida e gravada, por qualquer meio eletrônico, por fotocópia e outros, sem a prévia autorização, por escrito, da Coordenação Acadêmica do Curso de Licenciatura em Matemática na Modalidade à Distância. Ficha Catalográfica B574a Bezerra, Licio Hernanes Álgebra Linear II / Licio Hernanes Bezerra, Fermín S. Viloche Bazán . - Florianópolis : UFSC/EAD/CED/CFM, 2005. 91p. ISBN 978-85-99379-54-7 1.Álgebra linear I. Bazán, Fermín S. Viloche. II. Título. CDU 681.31:51 Elaborada pela Bibliotecária Eleonora M. F. Vieira – CRB – 14/786 Sumário 1 Produto Interno ..................................................................... 9 1.1 Definição e exemplos ................................................................. 11 1.2 Norma definida a partir de um produto interno ....................14 1.3 Ângulo entre vetores ................................................................. 15 1.4 Ortogonalidade ........................................................................... 16 1.4.1 Método de Gram-Schmidt ................................................ 17 1.5 Projeção ortogonal de um vetor sobre um subespaço vetorial .............................................................. 20 1.6 Matrizes ortogonais ................................................................... 22 1.7 Reflexões de Householder ......................................................... 24 1.8 Matriz de um produto interno em relação a uma base......... 28 2 Autovalores e Autovetores de um Operador Linear ..... 33 2.1 Autovalores e autovetores ......................................................... 35 2.2 Polinômio característico e Polinômio minimal ...................... 45 2.3 Operadores diagonalizáveis ..................................................... 53 2.4 Matrizes hermitianas ................................................................. 58 2.5 Transformações unitárias e forma canônica de Schur ...........61 3 Formas Multilineares ......................................................... 71 3.1 Formas bilineares ....................................................................... 73 3.1.1 Forma bilinear simétrica: forma quadrática associada ........................................................ 76 3.2 Diagonalização de formas quadráticas ................................... 77 3.3 A função determinante ............................................................. 79 Apresentação Caro aluno, A Álgebra Linear desenvolve-se dentro de espaços vetoriais, os quais são estruturas muito simples, que contêm apenas soma e produto por escalar, e é impressionante como a teoria desenvolve-se com tão pou- co. É instigante descobrir como problemas associados ao cotidiano das pessoas são descritos elegantemente pela Álgebra Linear. Problemas como distribuição de energia elétrica, ou de logística para instalação de telefones em grandes cidades, envolvem resolução de sistemas line- ares cujas matrizes são enormes; problemas de compressão de dados, derivados tanto de áudio como de imagem, têm o cálculo de autova- lores como ferramenta básica para sua resolução. A substituição do analógico pelo digital embute a real substituição da realidade físico- química pela simulação matemática. Pode-se perguntar por que um licenciado aprende Álgebra Linear se ele pretende principalmente atuar em escolas de ensino fundamental e médio. Respondemos a essa questão assim: com a Álgebra Linear, você, licenciando, deixa as portas abertas para o futuro do conheci- mento tecnológico, ao mesmo tempo em que solidifica seu conheci- mento do presente para atender às demandas dos vários alunos que lhe encontram, que estão a cada dia mais imersos nesse mundo veloz. Cremos ser possível viver em um mundo natural, com florestas, ani- mais e pessoas tentando viver em harmonia, lendo livros (estes nun- ca serão substituídos por imagens digitais, assim como cinema não é incompatível com teatro), com tempo para o ócio e o prazer, com a Álgebra Linear resolvendo problemas de poluição ambiental, logística de policulturas agrícolas etc. A disciplina Álgebra Linear II é a continuação natural da disciplina Álgebra Linear I, que lhe introduziu na teoria de matrizes e no de- senvolvimento da estrutura algébrica dos espaços vetoriais sobre um corpo. Desta vez, munimos os espaços vetoriais de um produto in- terno para que se configure neles uma geometria e possamos, dessa maneira, falar de ângulo entre vetores, de tamanho de vetor etc. Na seqüência, apresentamos mais um problema que a Álgebra Linear ti- picamente estuda: o problema dos autovalores de operadores lineares. Finalmente, definimos a noção de formas multilineares para formali- zar rigorosamente o estudo de determinantes. Dividimos, assim, este livro em três Capítulos: produto interno, auto- valores e formas multilineares. Esperamos que você utilize este livro como um mapa para descobrir um pouco da Álgebra Linear. Licio H. Bezerra Fermín S. V. Bazán 1 Produto Interno 11 1 Produto Interno Neste capítulo, iremos munir um espaço vetorial, que é uma estrutura puramente algébrica, de uma geometria, que nos permite falar de ângulo entre vetores, projetar um vetor ortogonalmente sobre outro, comparar vetores por tamanho etc. 1.1 Definição e exemplos Quando estudamos vetores no espaço, em Geometria Analítica, somos apresentados ao produto interno de dois vetores u e v ,denotado por ,u v , o qual é definido por , || || || || cosu v u v = , em que é o menor ângulo entre os vetores, 0 ≤ ≤ . A partir dessa definição, demonstram-se algumas propriedades do pro- duto interno: simetria ( , ,u v v u= ), positividade ( , 0u u ≥ e , 0 0u u u= ⇔ = ) e bilinearidade ( ', , ',ku u v k u v u v+ = + e , ' , , 'u kv v k u v u v+ = + ). Uma conseqüência dessas proprieda- des é que, dada , ,{ }i j k uma base ortonormal do espaço, se os vetores u e v escrevem-se, nessa base, como 1 1 1u x i y j z k → → → = + + e 2 2 2v x i y j z k → → → = + + , temos que 1 2 1 2 1 2,u v x x y y z z= + + . Por conseguinte, se w x i y j z k → → → = + + , 2 2 2|| ||w x y z= + + . O conceito de produto interno é generalizado para um espaço ve- torial qualquer de um modo usual em Matemática: a partir da abstração de algumas propriedades de um modelo (no caso, o produto interno de vetores do espaço euclidiano). Definição: Seja V um espaço vetorial real. Se , :V V× →ℜ é uma função tal que ( ) , 0v V v v∀ ∈ ≥1) e , 0 0v v v= ⇔ = ; ( , ) , ,v w V v w w v∀ ∈ =2) ; 12 ( , , ' )( ) , ' , , 'v w w V k v kw w k v w v w∀ ∈ ∀ ∈ℜ + = +3) então , é dito um produto interno em V . Observe que uma conseqüência direta do item 3 dessa definição é que o produto interno de um vetor v qualquer com o vetor nulo resulta em zero, pois ,0 ,0. 0. , 0v v v v v= = = . Exemplo 1: Seja 1nV ×= ℜ . Sejam 1, nu v ×∈ℜ , 1 n u u u = , 1 n v v v = . Va- mos definir 1 1, n nu v u v u v= + + . É fácil ver que essa função é um produto interno em V , chamado de produto interno usual. Note que 1 1 n vu v u v+ + é a única entra- da da matriz Tv u , que é uma matriz 1 1× . Usando o fato de que os espaços vetoriais 1 1×ℜ e ℜ são isomorfos, assim como 1n×ℜ e nℜ , podemos escrever que Tv u é o produto interno usual dos vetores u e v , em nℜ . Exemplo 2: Sejam 1 2( , )u u u= e 1 2( , )v v v= dois vetores do 2ℜ . Seja 1 1 2 1 1 2 2 2, 4u v u v u v u v u v= + + + . Afirmamos que essa função é um produto interno em 2ℜ . Para provar isso, temos que verificar se essa função satisfaz os três itens da definição: 2 2 2 2 2 1 1 2 1 1 2 2 2 1 1 2 2 1 1 2 2 2, 4 2 4 2 3u u u u u u u u u u u u u u u u u u u= + + + = + + = + + + =i) 2 2 2 2 2 1 1 2 1 1 2 2 2 1 1 2 2 1 1 2 2 2, 4 2 4 2 3u u u u u u u u u u u u u u u u u u u= + + + = + + = + + + = 2 2 1 2 2( ) 3 0u u u= + + ≥ . Além disso, temos que 2 2 1 2 2 1 2 2 1 2, 0 ( ) 3 0 0, 0 0, 0 0u u u u u u u u u u u= ⇔ + + = ⇔ + = = ⇔ = = ⇔ = 2 2 1 2 2 1 2 2 1 2, 0 ( ) 3 0 0, 0 0, 0 0u u u u u u u u u u u= ⇔ + + = ⇔ + = = ⇔ = = ⇔ = 1 1 2 1 1 2 2 2 1 1 2 1 1 2 2 2, 4 4 ,u v u v u v u v u v v u v u v u v u v u= + + + = + + + =ii) 1 1 1 2 1 1 1 2 2 2 2 2, ' ( ' ) ( ' ) ( ' ) 4 ( ' )u kv v u kv v u kv v u kv v u kv v+ = + + + + + + + =iii) 1 1 1 1 2 1 2 1 1 2 1 2 2 2 2 2' ' ' 4 4 'ku v u v ku v u v ku v u v k u v u v= + + + + + + + = 1 1 2 1 1 2 2 2 1 1 2 1 1 2 2 2( 4 ) ' ' ' 4 'k u v u v u v u v u v u v u v u v= + + + + + + + = , , 'k u v u v= + Logo, a função definida anteriormente é um produto interno em 2ℜ . 13 Exemplo 3: Sejam 1 2( , )u u u= e 1 2( , )v v v= dois vetores do 2ℜ . Seja 1 2 2 1,u v u v u v= + . Afirmamos que essa função não é um produto interno em 2ℜ , pois, apesar de satisfazer os itens ii e iii da defi- nição, a função não é positiva. Como contra-exemplo, tomemos o vetor (1, 1)u = − : , 1.( 1) ( 1).1 2 0u u = − + − = − < . Exemplo 4: Seja [ , ]V C a b= o espaço vetorial das funções reais contínuas em [ , ]a b , a b< . Sejam f e g duas funções de V . Va- mos definir a seguinte função de V V× em ℜ : , ( ) ( ) b a f g f x g x dx= ∫ . Note que, como f e g são funções contínuas em [ , ]a b , o seu produto também é contínuo em [ , ]a b e, logo, integrável nesse in- tervalo. Verificamos, facilmente, que as propriedades (ii) e (iii) são satisfeitas por essa função. Para mostrar que (i) é verdadeira, pre- cisamos de um pouco de Análise. A primeira parte de (i) é satis- feita porque, para toda função contínua f , 2( ( )) ( ) b a f x dx m b a≥ −∫ , em que m é o valor mínimo de 2f no intervalo [ , ]a b . Para mos- trar que , 0 0f f f= ⇒ = (a recíproca é óbvia), vamos supor que 0f ≠ . Assim, como f é contínua, existe um intervalo [ , ]c d , c d< , contido em [ , ]a b , tal que ( ) 0f x ≠ para todo [ , ]x c d∈ . Logo, 2 ( ) 0f x > para todo [ , ]x c d∈ e, como 2f também é contí- nua, pelo Teorema do Valor Intermediário, existem , 0m M > tais que 2 ( )m f x M≤ ≤ para todo [ , ]x c d∈ . Assim, 2 2 2 2 2( ( )) ( ( )) ( ( )) ( ( )) ( ( )) ( ) 0 b c d b d a a c d c f x dx f x dx f x dx f x dx f x dx m d c= + + ≥ ≥ − >∫ ∫ ∫ ∫ ∫ 2 2 2 2 2( ( )) ( ( )) ( ( )) ( ( )) ( ( )) ( ) 0 b c d b d a a c d c f x dx f x dx f x dx f x dx f x dx m d c= + + ≥ ≥ − >∫ ∫ ∫ ∫ ∫ . Ou seja, , 0f f ≠ . Esse produto interno é chamado de produto interno usual em [ , ]C a b . Exercício 1: Verifique se as seguintes funções definidas em 2ℜ são produto interno ou não. 1 1 2 1 1 2 2 2,u v u v u v u v u v= + + +a) ; 1 1 2 1 1 2 2 2, 4u v u v u v u v u v= − − +b) ; 1 1 2 1 2 2, 4u v u v u v u v= + +c) ; 14 1 2 2 1,u v u v u v= −d) ; 1 1 2 1 1 2 2 2 1, mu v u v u v u v u v m += + + +e) , em que m é um inteiro positivo; 1 1 2 1 1 2 2 2 1, mu v u v u v u v u v m += − − +f) , em que m é um inteiro positivo; 1 1 2 2, 2 4u v u v u v= +g) ; 1 1, 2u v u v=h) . 1.2 Norma definida a partir de um produto interno No produto interno definido no espaço euclidiano, vimos que a norma de um vetor u satisfaz à equação ,u u u= . Na genera- lização do conceito de produto interno, definiremos norma, dado um produto interno, utilizando essa equação. Definição: Seja V um espaço vetorial real. Seja , :V V× →ℜ um produto interno. A norma induzida por esse produto interno é definida pela equação seguinte: ,u u u= Exemplo 5: Seja 2V =ℜ . Considere o produto inter- no entre dois vetores 1 2( , )u u u= e 1 2( , )v v v= definido por 1 1 2 1 1 2 2 2, 4u v u v u v u v u v= + + + . A norma induzida por esse produ- to interno é 2 21 1 2 22 4u u u u u= + + . Exemplo 6: Seja [ , ]V C a b= o espaço das funções reais contínu- as em [ , ]a b , a b< . Considere o produto interno usual de duas funções de V , f e g (que é dado por , ( ) ( ) b a f g f x g x dx= ∫ ). A norma induzida por esse produto interno é 2( ( )) b a f f x dx= ∫ 15 1.3 Ângulo entre vetores Para definir ângulo entre vetores de um espaço vetorial real V , va- mos demonstrar primeiro a Desigualdade de Cauchy-Schwarz. Proposição (Desigualdade de Cauchy-Schwarz): Seja V um es- paço vetorial real munido de um produto interno , :V V× →ℜ . Assim, para todos os vetores u e v de V , temos ,u v u v≤ Prova: A desigualdade é verdadeira se um dos vetores é o vetor nulo. Vamos supor, então, que 0u ≠ e 0v ≠ . Seja 2 ,u v w v u u = − , logo: 2 2 2 2 2 , , , , , , , , , , , , u v u v u v u v u v w w w v w u v v u v v u u u u u u u u = − = − − + = 2 2 2 2 2 , , , , , , , , , , , , u v u v u v u v u v w w w v w u v v u v v u u u u u u u u = − = − − + = 2 2 2 2 2 2 2 2 , , , 2 u v u v u v v v u u u = − + = − . Como 2, 0w w w= ≥ , temos que: 2 2 2 , 0 u v v u − ≥ Ou seja, ,u v u v≤ . Vamos definir, agora, ângulo entre dois vetores. Definição: Seja V um espaço vetorial real munido de um pro- duto interno , :V V× →ℜ . Assim, dados vetores u e v de V , ambos não-nulos, o ângulo entre esses vetores é o que satisfaz as seguintes condições: , cos u v u v = , 0 ≤ ≤ . Se um dos vetores fornulo, dizemos que o ângulo entre eles é zero. 16 Note que, por Cauchy-Schwarz, essa definição faz sentido, uma vez que , 1 1 u v u v − ≤ ≤ . 1.4 Ortogonalidade A definição de ângulo entre vetores permite-nos falar em con- juntos de vetores ortogonais, em que o ângulo entre cada dois vetores é igual a 2 . Definição: Seja V um espaço vetorial real munido de um produ- to interno , :V V× →ℜ . Sejam 1,..., nv v vetores de V . Dizemos que 1,..., nv v são ortogonais se, para todos i e j tais que i j≠ , , 0i jv v = . É importante notar que a ortogonalidade depende do produto in- terno: dois vetores não-nulos podem ser ortogonais em relação a um produto interno, mas o ângulo entre eles pode ser diferente de 2 em relação a outro produto interno. Uma observação in- teressante é que o vetor nulo é o único vetor ortogonal a todos os vetores de um espaço vetorial com produto interno. Um resultado interessante é o seguinte: Proposição: Sejam 1,..., nv v vetores não-nulos de V , um espaço vetorial real munido de um produto interno , :V V× →ℜ . Se 1,..., nv v são ortogonais (em relação a esse produto interno) então são linearmente independentes. Prova: Suponha que existam 1,..., na a ∈ℜ tais que 1 1 0n na v a v+ + = . Logo, para todo índice i , 1 1 , 0, 0n n i ia v a v v v+ + = = . No entanto, 2 1 1 1 1, , ... , ,n n i i n n i i i i i ia v a v v a v v a v v a v v a v+ + = + + = = pois os vetores são ortogonais dois a dois. Assim, como os veto- res são não-nulos, para todo índice i , 0ia = , isto é, escreve-se o vetor zero de uma única maneira como combinação linear dos ve- tores 1,..., nv v , que é a combinação trivial. Dessa maneira, 1,..., nv v são linearmente independentes. , 17 Corolário (Teorema de Pitágoras Generalizado): Sejam u e v dois vetores ortogonais em um espaço vetorial real V munido de um produto interno. Assim: 2 2 2u v u v+ = + . Prova: É deixada para você, leitor, como exercício. Em geral, falamos em conjunto ortogonal de vetores para dizer que os vetores do conjunto são ortogonais. Por exemplo: dizemos que uma base de um espaço vetorial é ortogonal, significando que os vetores da base são ortogonais. Uma pergunta que emerge na- turalmente é se sempre existem bases ortogonais para qualquer espaço vetorial real. Vamos responder a essa pergunta feita no caso do espaço ser finitamente gerado de uma forma concreta: vamos construir uma base ortogonal a partir de uma base qual- quer. Um método prático para isso é o método de Gram-Schmidt, descrito a seguir. 1.4.1 Método de Gram-Schmidt Sejam 1,..., nv v de V , um espaço vetorial real munido de um produto interno , :V V× →ℜ . Vamos definir, a partir des- ses vetores, um conjunto ortogonal de vetores 1,..., nw w tais que 1 1[ ,..., ] [ ,..., ]n nv v w w= . 1 1w v=i) 2 1 2 2 12 1 ,v w w v w w = −ii) 3 1 3 2 3 3 1 22 2 1 2 , ,v w v w w v w w w w = − −iii) ... n) 1 2 11 2 12 2 2 1 2 1 , , ,n n n n n n n n v w v w v w w v w w w w w w − − − = − − − − Note que, para todo i , 0iw ≠ , pois os vetores 1,..., nv v são linear- mente independentes. A prova de que esses vetores são ortogo- nais é feita por indução: 18 I) 2 1 2 12 1 2 1 1 2 1 1 12 2 1 1 , , , , , , 0 v w v w w w v w w v w w w w w = − = − = II) Seja 2k > . Suponha que para todos os índices i e j , i j≠ , tais que 1 ,i j k≤ < , temos , 0i jw w = . Assim, para todo i , percebe-se que: 1 2 1 1 2 12 2 2 1 2 1 , , , , ,k k k kk i k k i k v w v w v w w w v w w w w w w w − − − = − − − − = 1 2 1 1 2 12 2 2 1 2 1 , , , , , , ,k k k kk i i i k i k v w v w v w v w w w w w w w w w w − − − = − − − − = 2 , , , 0k ik i i i i v w v w w w w = − = Observe que, por construção, 1 1[ ,..., ] [ ,..., ]i iv v w w= para todo i (mostre isso, por indução). Assim, no enésimo passo, chegamos a uma base ortogonal. Corolário: Todo espaço vetorial de dimensão finita com produto interno admite uma base ortogonal. Exemplo 7: Considere 3V =ℜ , munido do produto interno usual, 1 (1,1,0)v = , 2 (1,0,1)v = , 3 (0,1,1)v = . Aplicando o método de Gram- Schmidt a esses vetores, temos: 1 (1,1,0);w = 1 1 2 22 2 2 2 1.1 0.1 1.0(1,0,1) (1,1,0) ( , ,1) 1 1 0 w + += − = − + + ; 1 1 2 2 1 1 2 2 2 2 2 3 3 33 2 2 2 2 2 21 1 2 2 0.1 1.1 1.0 0. 1.( ) 1.1(0,1,1) (1,1,0) ( , ,1) ( , , ) 1 1 0 ( ) ( ) 1 w + + + − += − − − = − + + + − + 1 1 2 2 1 1 2 2 2 2 2 3 3 33 2 2 2 2 2 21 1 2 2 0.1 1.1 1.0 0. 1.( ) 1.1(0,1,1) (1,1,0) ( , ,1) ( , , ) 1 1 0 ( ) ( ) 1 w + + + − += − − − = − + + + − + . Você pode verificar, calculando os produtos internos , que o con- junto 1 2 3{ , , }w w w é ortogonal. Exercício 2: Ache, pelo método de Gram-Schmidt, uma base or- togonal para V , munido do produto interno explicitado, a partir das bases dadas a seguir: 19 2V =ℜa) , munido do produto interno usual, 1 (1,1)v = , 2 (1, 2)v = ; 3V =ℜb) , munido do produto interno usual, 1 (1,1,1)v = , 2 (1, 2,1)v = , 3 (1, 2, 2)v = ; 4V =ℜc) , munido do produto interno usual, 1 (1,1,1,1)v = , 2 (1,0,0,1)v = , 3 (1, 2,0, 2)v = , 4 (3, 2,0, 2)v = ; [ 1,1]V C= −d) , munido do produto interno usual, 1( ) 1f x = , 2 ( )f x x= , 2 3 ( )f x x= . A seguir, apresentamos algumas definições. Definição: Seja V um espaço vetorial real munido de um pro- duto interno , :V V× →ℜ . Seja W um subespaço vetorial de V . Seja v um vetor de V tal que v W∉ . Dizemos que v é ortogonal a W se v é ortogonal a todo vetor de W . Exercício 3: Sejam 1,..., nv v vetores de V , um espaço vetorial real munido de um produto interno , :V V× →ℜ . Seja 1[ ,..., ]nW v v= . Seja v um vetor de V tal que v W∉ . Mostre que v é ortogonal a W se, e somente se, para todo i , v é ortogonal a iv . Definição: Seja V um espaço vetorial real munido de um produ- to interno , :V V× →ℜ . Sejam 1W e 2W subespaços vetoriais de V . Dizemos que 1W é ortogonal a 2W se, para todo vetor 1w de 1W e todo vetor 2w de 2W , 1 2, 0w w = . Se, além disso, 1 2W W V+ = , então dizemos que 2W é o complemento ortogonal de 1W e denotamo-lo por 1W ⊥ . Observe que, como 1W é ortogonal a 2W , 1 2 {0}W W∩ = e, logo, 1 2W W V⊕ = . Definição: Dizemos que um conjunto de vetores é ortonormal se os vetores do conjunto são ortogonais (dois a dois) e unitários (isto é, de norma igual a 1). Exercício 4: Transforme as bases encontradas nos exercícios ante- riores em bases ortonormais. 20 1.5 Projeção ortogonal de um vetor sobre um subespaço vetorial Definição: Seja V um espaço vetorial real não-nulo munido de um produto interno. Seja W um subespaço vetorial de V , W V≠ . Seja v V∈ . Um vetorw W∈ é dito uma projeção ortogonal de v sobre W se ( )v w− for ortogonal a todo vetor de W . Proposição: Se existe uma projeção ortogonal de v sobre W , então ela é única. Prova: Sejam w e w dois vetores de W tais que ( )v w− e ( )v w− são ortogonais a todo vetor de W . Em particular, como ( )w w W− ∈ , 0 , ,v w w w v w w w= − − = − − . Desenvolven- do os cálculos, concluímos que , ,w w w w w w− = − e, logo, , 0w w w w− − = . Ou seja, w w= . Vamos mostrar que, se W é um subespaço de dimensão finita de um espaço vetorial real V com produto interno, então a projeção ortogonal de qualquer vetor de V sobre W existe e, logo, é única. Seja 1{ ,..., }nv v uma base de um subespaço W de um espaço veto- rial real V , com produto interno , . Seja v V∈ . A projeção orto- gonal de v sobre 1[ ,..., ]nv v é um vetor 1[ ,..., ]nv v v∈ tal que v v− é ortogonal a 1[ ,..., ]nv v . Vamos mostrar que esse vetor v existe. Para isso, seja 1{ ,..., }nw w uma base ortonormal de 1[ ,..., ]nv v , ob- tidaa partir do método de Gram-Schmidt. Procuramos por um vetor 1 1 n nv a w a w= + + tal que v v− seja ortogonal a 1[ ,..., ]nw w , que é igual a 1[ ,..., ]nv v , isto é, tal que v v− seja ortogonal a todo vetor da base 1{ ,..., }nw w . Assim, para todo i , temos: 1 10 , , , , ,i n n i i i i i i iv v w v a w a w w v w a w w v w a= − = − + = − = − ou seja, ,i ia v w= . Assim, a projeção ortogonal de v sobre 1[ ,..., ]nv v existe e é o vetor 1 1, , n nv v w w v w w= + + . , o v v Figura 1.1 - Projeção ortogonal de um vetor sobre um subespaço. 21 Operar com uma base ortonormal é muito conveniente. Para justificar esse adjetivo, vamos ver como ficaria o cálculo com a base 1{ ,..., }nv v , que é qualquer. Uma vez que sabemos que o ve- tor v existe e é único, como 1[ ,..., ]nv v v∈ , existe um único vetor 1( , , ) n nb b ∈ℜ tal que 1 1 n nv b v b v= + . Como v v− é ortogonal a 1[ ,..., ]nv v , , 0iv v v− = , 1:i n= . Assim, obtemos: 1 1 1 1 1 1 1 , , , 0 , , , 0 n n n n n n n v v b v v b v v v v b v v b v v − + + = − + + = , ou seja, na forma matricial, 1 1 1 1 1 1 , , , , , , n n n n n n v v v v b v v v v v v b v v = . Como esse sistema tem única solução (pois a projeção ortogo- nal existe e é única), essa matriz é inversível para qualquer base 1{ ,..., }nv v = (lembre-se que um sistema de n equações lineares a n variáveis é possível e determinado se, e somente se, a matriz de coeficientes é inversível). Essa matriz é dita matriz de Gram (note que a matriz de Gram definida em espaços vetoriais reais é uma matriz real e simétrica). Para achar v utilizando-se de uma base não-ortonormal, temos que resolver o sistema apresentado, o que é muito trabalhoso se a matriz não for diagonal (note que a matriz do sistema em questão é diagonal se a base é ortogonal). En passant, demonstramos a seguinte proposição: Proposição: Uma matriz de Gram é uma matriz inversível. Outro modo de se provar essa proposição é verificar que o siste- ma homogêneo associado à matriz G apresentada anteriormente só admite a solução zero. Realmente, 0 0TGx x Gx= ⇒ = . Note que 2Tx Gx w= , em que 1 1 n nw b v b v= + + e ( )x w = . Logo, 0w = , ou seja, 1 1 0n nb v b v+ + = . No entanto, 1{ ,..., }nv v é uma base. Assim, a única solução possível é 1 0nb b= = = , isto é, a única solução possível da equação matricial 0Gx = é a solução trivial 0x = . Por conseguinte, G é inversível. En passant — locução adverbial; ligeira e circunstancialmente. Ex: Mencionou-lhe o nome en passant. 22 Observe que, se estamos trabalhando em mℜ com o produto in- terno usual, o referido sistema não-homogêneo pode ser reescri- to como T TA Ax A v= , em que A é a matriz cujas colunas são as coordenadas canônicas dos vetores da base 1{ ,..., }nv v e x é a co- luna formada por 1, , nb b . A solução desse sistema é dada por 1( )T Tx A A A v−= . Logo, a projeção ortogonal de um vetor v sobre um subespaço 1[ ,..., ]nv v é dada por: 1( )T Tv A A A A v−= . Observe que, se 1[ , , ]nv v v∈ , v v= . Exercício 5: Em cada item a seguir são dados 1,..., nv v e v , vetores de V , um espaço vetorial real munido de um produto interno , :V V× →ℜ . Seja 1[ ,..., ]nW v v= . Ache a projeção ortogonal de v sobre W . i) 2V =ℜ , munido do produto interno usual, 1 (1,1)v = ; (1, 2)v = ; ii) 3V =ℜ , munido do produto interno usual, 1 (1,1,1)v = ; (1, 2, 2)v = ; iii) 3V =ℜ , munido do produto interno usual, 1 (1,1,1)v = , 2 (1, 2,1)v = ; (1, 2, 2)v = ; iv) 4V =ℜ , munido do produto interno usual; 1 (1,1,1,1)v = , 2 (1,0,0,1)v = ; (3, 2,0, 2)v = ; v) 4V =ℜ , munido do produto interno usual; 1 (1,1,1,1)v = , 2 (1,0,0,1)v = , 3 (1, 2,0, 2)v = ; (3, 2,0,2)v = ; vi) [ 1,1]V C= − , munido do produto interno usual, 1( ) 1v x = , 2 ( )v x x= ; 2( )v x x= ; vii) [ 1,1]V C= − , munido do produto interno usual, 1( ) 1v x = , 2 ( )v x x= , 2 3 ( )v x x= ; 3( )v x x= . 1.6 Matrizes ortogonais Seja mV =ℜ . Vimos que a projeção ortogonal de um vetor v sobre o subespaço gerado por uma base 1{ ,..., }nv v é dada pela fórmula 1( )T Tv A A A A v−= . Se os vetores da base forem ortonormais, essa fórmula se reduz a Tv A A v= , pois TA A I= , a matriz identidade 23 (verifique). Matrizes, cujas colunas são vetores ortonormais, par- tilham dessa propriedade. Note que, se A for uma matriz qua- drada, TA é a inversa de A . Essas matrizes são ditas ortogonais (cuidado para não fazer confusão: matrizes ortogonais têm colu- nas ortonormais). Definição: Uma matriz n nA ×∈ℜ é ortogonal se .TA A I= . Proposição: As seguintes sentenças são equivalentes: n nA ×∈ℜa) é ortogonal; As colunas de b) n nA ×∈ℜ são ortonormais; As linhas de c) n nA ×∈ℜ são ortonormais; n nA ×∈ℜd) e ( )nx Ax x∀ ∈ℜ = ; n nA ×∈ℜe) e ( , )n T T Tx y y A Ax y x∀ ∈ℜ = . A prova dessa proposição pode ser vista, por exemplo, em Hoffman e Kunze (1970). Note que a sentença (d) caracteriza uma matriz ortogonal como sendo uma matriz que preserva a norma de um vetor quando multiplicada por ele; a sentença (e) descreve uma matriz ortogonal como uma matriz que preserva o produ- to interno de dois vetores (e, de quebra, preserva o ângulo entre cada dois vetores). Exercício 6: Mostre que o produto de matrizes ortogonais é uma matriz ortogonal. Exercício 7: Mostre que a inversa de uma matriz ortogonal é, tam- bém, ortogonal. Exercício 8: Mostre que, se n nQ ×∈ℜ é uma matriz ortogonal, a matriz 11 1 1 1 0 0 0 0 n n nn q q q q , pertencente a ( 1) ( 1)n n+ × +ℜ , é uma matriz ortogonal. 24 1.7 Reflexões de Householder As matrizes de reflexão em relação a um subespaço de nℜ são exemplos de matrizes ortogonais. As reflexões de Householder são as reflexões em relação a um subespaço de co-dimensão 1 (ou seja, de dimensão 1n − ). Elas surgiram na construção de um novo processo de ortonormalização de vetores, diferente do método de Gram-Schmidt: o método de Householder. Nesse processo, bus- ca-se uma reflexão H que leva um vetor v dado a um vetor na direção do vetor canônico 1 (1,0, ,0)e = . É claro que, como uma reflexão preserva a norma dos vetores (ver o item d da proposi- ção anterior), há duas possibilidades para Hv : ou 1Hv v e= ou 1Hv v e= − . H é dito uma reflexão de Householder se o subes- paço em relação ao qual a reflexão age é o hiperplano bissetor de um dos dois ângulos que v faz com a reta gerada por 1e , isto é: ou é o hiperplano 1 cuja normal é o vetor 1 1n v v e= − , ou é o hiperplano 2 cuja normal é 2 1n v v e= + . o v π1 n1 n2 ||v||2 .e1 −||v||2 .e1 π2 v1 v2 Figura 1.2 - Reflexões de Householder Vamos achar uma fórmula para essas reflexões. Seja n uma das normais descritas anteriormente, associada ao hiperplano . Note que [ ]n⊥ = . Logo, [ ]n nℜ = ⊕ . Assim, dado um vetor u qualquer, u pode ser escrito de uma única forma como soma de um vetor de com um vetor de [ ]n : [ ]nu u u= + . Dessa maneira, [ ] [ ]2n nHu u u u u= − = − , entretanto [ ]nu é a projeção ortogonal de u sobre [ ]n . Ou seja, 1 [ ] 2.( . ) T T T n nnu n n n n u u n −= = . 25 Logo, 2 2 . .2 ( 2 ) T Tn n n nHu u u I u n n = − = − , e assim concluímos que: 2 .2 Tn nH I n = − . Note que, por essa fórmula, obtemos as duas reflexões de Householder que transformam o vetor dado em um vetor na direção do vetor canônico 1e . Por exemplo: suponha que 3V =ℜ , com o produto interno usual. Seja (1, 2, 2)v = , então 1 1(1.2.2) 3(1,0,0) ( 2,2,2)n v v e= − = − = − corresponde à reflexão: 1 2 2 3 3 3 1 1 1 1 1 1 2 1 2 3 3 31 2 1 2 2 1 3 3 3 . . .2 2 12 6 T T Tn n n n n nH I I I n = − = − = − = − − ; enquanto 2 1 (1, 2, 2) 3 (1,0,0) (4,2,2)n v v e= + = + = está associado à reflexão: 1 2 2 3 3 3 2 2 2 2 2 2 2 2 1 3 3 32 2 2 2 1 2 3 3 3 . . .2 2 24 12 T T Tn n n n n nH I I I n − − − = − = − = − = − − − − . Note que essas matrizes são ortogonais (verifique) e simétricas, características das reflexões de Householder. Assim, se H é uma reflexão de Householder, 1TH H H −= = . Como já dissemos antes, uma aplicação das reflexões de Hou- seholder é ortonormalizar bases. Por exemplo, vamos achar uma base ortonormal para o subespaço [ (1,1,1,1) , (0,0,1,1) , (0,0,0,1) ] do 4ℜ . Para isso, primeiro construímos a matriz A , cujas co- lunas são os vetores da base dada: 1 0 0 1 0 0 1 1 0 1 1 1 A = . Agora, va- mos achar uma reflexão de Householder que reflita o primeiro vetor da base dada na direção do primeiro vetor canônico do 4ℜ . Vamos escolher, entre as duas normais possíveis, a normal (1,1,1,1) (1,1,1,1) (1,0,0,0) (3,1,1,1)n = + = . A reflexão de Househol- der correspondente a essa normal é a seguinte: 26 1 1 1 1 2 2 2 2 51 1 1 2 6 6 6 2 51 1 1 2 6 6 6 51 1 1 2 6 6 6 2 2 12 6 T T Tn n nn nnH I I I n − − − − − − − = − = − = − = − − − − − − . Logo, 1 2 1 1 3 6 2 1 3 6 52 3 6 2 1 0 0 0 HA − − − − − = − . Agora, vamos achar uma re- flexão de Householder que reflita o vetor 1 2 23 3 3( , , )− na di- reção do primeiro vetor canônico do 3ℜ . Vamos escolher 1 2 2 1 2 2 2 2 2 3 3 3 3 3 3 3 3 31 ( , , ) ( , , ) (1,0,0) ( , , )n = − + − = . A reflexão de Householder correspondente a essa normal é dada por: 1 2 2 3 3 3 1 1 1 1 1 1 2 1 2 3 3 31 2 4 31 2 2 1 3 3 3 2 2 3 2 T T Tn n n n n nH I I I n − − = − = − = − = − − − − . Considere a matriz 1 2 2 3 3 3 1 2 1 2 3 3 3 2 2 1 3 3 3 1 0 0 0 0 0 0 H − − = − − − − , então 1 2 1 2 2 1 1 3 3 3 3 6 1 2 1 2 2 1 3 3 3 3 6 52 2 1 2 3 3 3 3 6 1 0 0 0 2 1 0 0 0 0 0 0 H HA − − − − − − − = − − − − − , ou seja, 1 2 1 2 1 1 2 1 2 2 1 0 1 0 0 0 0 H HA − − − − − = − . Finalmente, vamos achar uma re- flexão de Householder que reflita o vetor 1 12 2( , )− na di- reção do primeiro vetor canônico do 2ℜ . Vamos tomar 21 1 1 1 1 1 2 2 2 2 2 2 22 ( , ) ( , ) (1,0) ( , )n = − + − = − . A reflexão de Hou- seholder correspondente a essa normal é dada por: 2 2 2 22 2 2 2 2 2 2 2 2 22 2 4 2 2 T Tn n n nH I I n −= − = − = − −− . 27 Considere a matriz 2 2 2 2 2 2 2 2 2 1 0 0 0 0 1 0 0 0 0 0 0 H = − − − . Assim, 11 22 11 22 2 1 2 2 1 2 2 2 2 2 1 2 2 2 2 11 0 0 0 2 1 0 10 1 0 0 0 1 0 0 0 0 0 0 2 0 0 0 0 0 0 0 H H HA − − − − − − − −− − = = − − − − − Logo, 1 121 12 22 2 2 1 121 12 22 2 2 1 2 21 1 2 2 2 21 1 2 2 2 2 1 2 10 0 1 0 10 00 0 2 0 0 2 00 0 0 0 0 0 A HH H − − − − − − − − − − − −− = = = − −− − − − − 1 1 2 2 1 21 1 2 2 1 221 1 2 2 2 21 1 2 2 2 0 2 1 0 0 1 0 0 2 QR − − − − − = − − = − − − − − − , e, assim, as colunas de Q , que são ortonormais e geram o mesmo espaço que as colunas de A , formam uma base ortonormal para [ (1,1,1,1), (0,0,1,1), (0,0,0,1) ] . Esse método — método de Householder — é muito eficiente para calcular, computa- cionalmente, uma base ortonormal para um subespaço vetorial do , no sentido em que o método gera vetores quase ortogonais em aritmética de ponto flutuante, ao contrário do método de Gram-Schmidt, cujo resultado é um conjunto de vetores não ortogonais. Quem conhece sistemas interativos como OCTAVE, SCILAB e MATLAB (os dois primeiros são de domínio público) pode verificar isso fazendo testes com matrizes, por exemplo, da galeria de matrizes incorporadas a esses sistemas. 28 Exercício 9: Ache as duas reflexões de Householder que satisfa- zem o que é pedido em cada item a seguir: Que transformem o vetor i) (2,1, 2) em um vetor na direção do vetor (1,0,0) ; Que transformem o vetor ii) (2,1, 2) em um vetor na direção do vetor (1,1,1) ; iii) Que transformem o vetor (2,1, 2) em um vetor na direção do vetor (1, 2, 2) ; iv) Que transformem o vetor (2,1, 2) em um vetor na direção do vetor (0,0,1) . 1.8 Matriz de um produto interno em relação a uma base Seja V um espaço vetorial real de dimensão finita n , munido de um produto interno , :V V× →ℜ . Seja 1{ ,..., }nv v = uma base de V . Considere v e w , dois vetores de V : 1 1 n nv a v a v= + + , 1 1 n nw b v b v= + + . Assim, , 1 , , n T i j i j i j v w a b v v b G a = = =∑ , em que G é a matriz de Gram, definida por , ,ij i j j iG v v v v= = , 1( ) ( ) T nb b b w = = e 1( ) ( ) T na a a v = = . Definição: A matriz G é a matriz do produto interno em relação à base . Exercício 10: Achar a matriz de cada produto interno listado a seguir, em relação à base dada: 2V =ℜi) , munido do produto interno usual, 1 2{ , }v v = , em que 1 (1,1)v = , 2 (1, 2)v = ; 2V =ℜii) , munido do produto interno 1 1 2 1 1 2 2 2, 4u v x y x y x y x y= + + + , em que 1 2( , )u x x= , 1 2( , )v y y= , 1 2{ , }v v = , onde 1 (1,1)v = , 2 (1, 2)v = ; iii) 3V =ℜ , munido do produto interno usual, 1 2 3{ , , }v v v = , em que 1 (1,1,1)v = , 2 (1, 2,1)v = , 3 (1, 2, 2)v = ; iv) 4V =ℜ , munido do produto interno usual, 1 2 3 4{ , , , }v v v v = , em que 1 (1,1,1,1)v = , 2 (1,0,0,1)v = , 3 (1, 2,0, 2)v = , 4 (3, 2,0, 2)v = ; 29 v) V é o espaço das funções polinomiais de grau menor ou igual a três, munido do produto interno usual, 1 2 3 4{ , , , }v v v v = , em que 1( ) 1v x = , 2 ( )v x x= , 2 3 ( )v x x= , 3 4 ( )v x x= . Fechamos este capítulo fazendo-nos a seguinte pergunta: se, dada uma base, um produto interno fica determinado a partir de uma matriz, que propriedades essa matriz deve satisfazer? Uma resposta parcial é: a matriz deve ser simétrica e inversível. No en- tanto só isso não basta, porque a matriz 1 2 1 2 1 1 A = é simétrica, é inversível e não é matriz de nenhum produto interno, não importa que base nós tomamos. Por exemplo: digamos que 2V =ℜ e que tomamos uma base 1 2{ , }v v = . Seja 1 2v v v= − . Assim, 1 ( ) 1 v = − e, logo, 1 2 1 2 1 1 , (1 1) 1 1 1 v v = − = − − . Pela definição de pro- duto interno, porém, , 0v v ≥ . Dessa maneira, a resposta com- pleta é: uma matriz A é matriz de um produto interno em relação a uma base se, e somente se, a matriz A é simétrica e satisfaz a desigualdade 0Tx Ax > para todo vetor coluna x , 0x ≠ . Se A é uma matriz simétrica tal que, para todo vetor coluna x , 0x ≠ , 0Tx Ax > , então A é dita uma matriz simétrica definida positiva. Note que, pela definição, uma matriz A simétrica definida positi- va tem as seguintes propriedades: As entradas diagonais de • A são estritamente positivas pois, se o vetor coluna (0 0 1 0 0)Tke = é tal que a k- ésima entrada é 1, 0Tkk k ka e Ae= > ; As submatrizes principais • (1: ,1: )A k k , formadas pelas en- tradas pertencentes simultaneamenteàs k primeiras linhas e colunas de A , são também matrizes simétricas definidas positivas (demonstre); A• é inversível (demonstre). Exercício 11: Verifique se as matrizes abaixo são simétricas defi- nidas positivas. a) 1 1 1 1 A = ; b) 5 1 1 1 A − = − − ; c) 2 1 1 1 A = ; 30 d) 2 1 1 1 A − = − ; e) 2 2 2 1 A = ; f) 4 2 2 1 A = ; g) 4 1 1 0 A = ; h) 1 0 0 1 A = . Resumo Neste capítulo vimos a definição de produto interno em um espaço vetorial real V. Concluímos que, dados um produto interno , em V e uma base , existe uma única matriz simétrica real A tal que, quaisquer que sejam os vetores v e w de V, , ( ) ( )Tv w w A v = . Essa matriz é inversível e é dita uma matriz de Gram. Definimos, ainda, o ângulo entre dois vetores e vimos que dois vetores são ortogonais em relação a um produto interno se o produto interno entre eles é zero. Em seguida, apresentamos um procedimento que ortogonaliza uma base de um espaço vetorial real de dimensão finita, ou seja, que resulta em um conjunto l. i. de geradores do espaço que se- jam ortogonais dois a dois. Definimos, depois, um conjunto de matrizes ditas ortogonais, que são matrizes associadas a opera- dores lineares, definidos em espaços vetoriais reais com produto interno, que preservam ângulos entre vetores (ex.: as reflexões de Householder). Por fim, terminamos o capítulo dando uma caracterização às ma- trizes de um produto interno em relação a uma base — matrizes simétricas definidas positivas. 31 Bibliografia Comentada HOFFMAN, Kenneth; KUNZE, Ray. Álgebra Linear. São Paulo: Polígono, 1970. Lício H. Bezerra: esse livro é um dos meus livros prediletos de Álgebra Linear. Infelizmente, ele está esgotado. Foi lançada uma segunda edição desse livro no Brasil, com muitas alterações, mas prefiro a primeira edição. Procure-no em sebos e compre-o. O tratamento é rigoroso e as provas são elaboradas. Contém muitos exercícios, alguns não muito fáceis de resolver. LIMA, Elon L. Álgebra Linear. 3ª ed. Rio de Janeiro: SBM, 1998. Há edições mais recentes desse livro, que apresenta a Álgebra Linear de forma clássica, como o livro de Hoffman e Kunze (1970). Recomendo esse livro para uma biblioteca de Matemática. Tem muitos exercícios. ANTON, Howard; RORRES, Chris. Álgebra Linear com Aplicações. 8ª ed. Porto Alegre: Bookman, 2001. Esse é um livro moderno com tratamento clássico. É um livro muito bom para você, leitor que deseja se inserir no mundo tecnológico, pois apresenta várias aplicações interessantes da Álgebra Linear: digitalização de imagens, programação linear etc. 2 Autovalores e Autovetores de um Operador Linear 35 2 Autovalores e Autovetores de um Operador Linear Lembramos que um operador linear é uma transformação linear :T V V→ , em que V é um espaço vetorial sobre um corpo K . Se V é de dimensão n e é uma base de V , então existe uma matriz [ ]T associada a T com a propriedade de que todas as informações sobre T podem ser obtidas a partir de cálculos sobre [ ]T . Neste capítulo introduziremos o conceito de autovalores e autovetores de operadores lineares, mostrando que a extração de infor- mações de T pode ser simplificada significativamente des- de que T admita uma base de autovetores, em cujo caso a matriz associada [ ]T é diagonal. No decorrer do capítulo assumiremos que V é um espaço vetorial real, a menos quando explicitamente dito em contrário. 2.1 Autovalores e autovetores Em muitas situações práticas de ciências puras e aplicadas, dado um operador linear :T V V→ , deparamo-nos com o problema de encontrar vetores não-nulos v tais que o vetor transformado ( )T v seja múltiplo de v . Esse é o problema de autovalores, um tópico mui- to importante da Álgebra Linear. O termo autovalor provém do adjetivo germânico eigen, que significa “próprio” ou “característico de”. Do ponto de vista teórico, autovalores e autovetores concen- tram informações sobre a natureza do operador e tornam-se im- portantes porque nos mostram como o operador funciona. Definição: Um número real é um autovalor ou valor próprio do operador linear :T V V→ se existe um vetor não-nulo v V∈ tal que ( )T v v= . O vetor v é chamado de autovetor ou vetor próprio de T associado a . O conjunto V formado por todos os autove- tores de T associados a um autovalor e pelo vetor nulo é um subespaço vetorial de V chamado subespaço próprio ou autoespaço associado a . 36 A partir daí, algumas perguntas que surgem de maneira natu- ral são: quantos autovetores podemos associar a um autovalor? Quantos autovalores podemos encontrar? O que podemos fazer para encontrar autovalores e autovetores? Com o intuito de res- ponder a essas e outras perguntas que aparecerão no decorrer do capítulo, começamos com a observação de que se v é um auto- vetor de T associado a , então o mesmo acontece com v para qualquer escalar arbitrário não-nulo , já que ( ) ( ) ( ).T v v T v v = ⇔ = Ou seja, qualquer múltiplo escalar de v também V é um autove- tor de T associado a . Para ilustrarmos como achar autovalores e autovetores correspon- dentes apresentamos alguns exemplos a seguir. Exemplo 1: Seja 2 2:T ℜ →ℜ , ( , ) (2 , 3 )T x y x x y= + . Para pro- curar autovalores e autovetores de T resolvemos a equação ( , ) ( , )T x y x y= ou (pela definição de T ) (2 , 3 ) ( , )x x y x y+ = . Igualando componentes obtemos o sistema de equações: 2 3 x x x y y = + = Note que y não pode ser zero, caso contrário obteríamos 0x = e daí (x,y) = (0,0) (ou seja, o vetor nulo (0,0)v = ), o que não pode acontecer pela definição de autovetor. Agora podemos considerar dois casos: 0x ≠ e 0x = . Se 0x ≠ , da primeira equação obtemos 2 = , e, com esse valor na segunda equação, x y= - . Assim, 2 = é um autovalor de T e ( , ) (1, 1)v x x x= - = - , 0x ≠ , é um autove- tor correspondente. Nesse caso, o subespaço próprio associado a 2 = é =2V { (1, 1) / } [(1, 1)]x x = - ∈ℜ = - ou, em palavras, =2V é o subespaço de 2ℜ gerado pelo autovetor (1, 1)v = - que é a reta no plano que contém v . Se 0x = , da segunda equação segue que 3 = e y pode ser arbitrário (não-nulo). Portanto, 3 = é outro autovalor de T , (0, ) (0,1)v y y= = é um autovetor associado, e 3 [(0,1)]V= = , que é a reta que passa pela origem e é perpendicular ao eixo Y , é o subespaço próprio associado. 37 O efeito de um operador linear é determinado facilmente e sim- ples de se interpretar geometricamente em 2ℜ . Como ilustração, considere o operador T do exemplo 1 e os vetores ( 1,1)v = - , e (1,0)u = . Dessa forma, ( ) ( 2, 2) 2( 1,1)T v = - = - , isto é, v é trans- formado em um múltiplo de si mesmo, pois v é um autovetor de T associado ao autovalor 2 = (ver figura 3 a seguir). O efeito do operador sobre u é ( ) (2,1)T u = . Obviamente, u não é autovetor do operador, pois ( )T u não é múltiplo de u . y xx v u xx yT (v) = 2v T (u) T Figura 2.1 - Efeito de um operador linear Observação: Embora o efeito de um operador em 2ℜ seja simples de se calcular, a situação pode ser bem diferente quando a di- mensão do espaço é elevada. No entanto, se v é uma combinação de autovetores 1, , pv v de T , por exemplo, 1 1 p pv v v = + + , e se ambos j e jv são disponíveis, o efeito de T sobre v pode ser calculado facilmente. De fato, como T é linear, segue que 1 1( ) ( ) ( )p pT v T v T v = + + e, assim, o efeito do operador pode ser calculado como 1 1 1( ) p p pT v v v = + + , um fato muito explorado em aplicações da álgebra linearna resolução de proble- mas práticos. Um ponto importante a ser enfatizado é que não é raro encontrar operadores lineares que não possuam autovalores. Ilustramos isso com o exemplo 2 a seguir: 38 Exemplo 2: Seja 2 2:T ℜ →ℜ , ( , ) ( , )T x y y x= - . Se é um au- tovalor de T e ( , )v a b= é um autovetor correspondente, então ( )T v v= ( , ) ( , )b a a b⇔ - = . Daí segue que 2 1 0 + = , o que é im- possível em ℜ . Ou seja, como não existe real tal que ( )T v v= , concluímos que o operador T não tem nem autovalores nem auto- vetores. Outro operador 2 2:T ℜ →ℜ que não possui autovalores é aquele que produz rotações no plano, veja a lista de exercícios ao final deste capítulo. A existência de autovalores de um operador linear não depende da dimensão do espaço. Veja o exemplo a seguir. Exemplo 3: Seja ( )V C= ℜ o espaço das funções contínuas em ℜ . Sabemos que V é um espaço vetorial real de dimensão infinita. Seja :T V V→ o operador linear definido por | 0( ) ( ) t tT f f x dx= ∫ . Afirmamos que o operador T não possui nenhum autovalor. De fato, vamos supor que ∈ℜ é um autovalor de T . Então exis- te 0f ≠ tal que Tf f= . Isto é, 0 ( ) ( ) t f t f x dx = ∫ . Agora, já que pelo primeiro teorema fundamental do cálculo temos 'f f = , segue que 0 ≠ , pois 0f ≠ . Por outro lado, note que a equação diferencial 1'f f= tem solução ( ) ctf t e= com 1/c = . Substi- tuindo essa solução na equação autovalor-autovetor segue que 0 tct cx cte e dx e = = -∫ , e assim 0 = , o que contradiz o fato de ser 0 ≠ . Logo, fica demonstrado que o operador T não tem au- tovalores. Sabemos que toda matriz real A n n× define um operador linear 1 1: nx nxAT ℜ →ℜ dado por ( )AT v Av= . Note que aqui v denota um vetor coluna em 1nxℜ e que a imagem do operador é calculada via produto matriz vetor. Assim, os autovalores e autovetores de A são, por definição, os autovalores e autovetores do operador AT . Logo, é um autovalor de A se existe um vetor não-nulo v em 1nxℜ tal que Av v= . Portanto, podemos concluir que: é um autovalor de A ⇔ a equação (A - I) x = 0 em solução não-trivial. 39 Observe que, nessa equação, I denota a matriz identidade n n× . No entanto, já que o sistema homogêneo ( ) 0A I x- = tem solu- ção não-trivial se e somente se A I- é uma matriz singular, ou equivalentemente, se e somente se det ( ) 0A I- = , temos que: Os autovalores da matriz são as raízes da equação a) det ( ) 0A I- = chamada equação característica, e ( ) det ( )p A I = - é um po- linômio em de grau n chamado polinômio característico de A . Para ver que ( )p é um polinômio de grau n , basta ob- servar que avaliando o determinante 11 1 1 ( ) det ( ) det n n nn a a p A I a a - = - = - obtemos 11( ) ( ) ( )nnp a a = - - + termos de grau menor que n. Isso mostra que o polinômio característico de A é de grau n . É importante observar que, se A é uma matriz real n n× , então ( )p tem coeficientes reais e, portanto, todas as suas raízes complexas vêm em pares conjugados. Assim, se a ib = + é raiz de ( )p , seu complexo conjugado a ib = - ( 1i = - ) também é raiz de ( )p . Formalmente, as raízes complexas de ( )p são autovalores complexos da matriz A interpretada como operador 1 1: ,n nAT × ×→ dado por ( )AT x Ax= , 1nx ×∈ . Dessa forma, se 1 2, , , n são os au- tovalores de A (reais ou complexos), então o polinômio ca- racterístico ( )p pode ser escrito como 1 2( ) ( ) ( ) ( )np = - - - . Considerando agora que ( ) det ( )p A I = - e tomando 0 = nessa equação, segue que 1 2 (0) det ( )n p A = = . Outra conclusão imediata, que provém de comparar o coefi- ciente de ( 1n -- ) da expressão, que resulta de avaliar o deter- minante det ( )A I- , com o coeficiente de ( 1n -- ) que aparece após desenvolver os produtos 1 2( ) ( ) ( )n - - - , é que 40 1 1 n n j jj j j a = = =∑ ∑ . A soma dos elementos da diagonal principal de uma ma- triz quadrada A é chamada de traço de A e é denotada por ( )tr A . Para cada autovalor b) , os autovetores associados são solu- ções não-triviais do sistema homogêneo ( ) 0.A I x- = Observação: Uma dificuldade de ordem prática no cálculo de au- tovalores para matrizes n n× , 4n > , é que equações polinomiais de grau maior que 4 não são solúveis por radicais, ou seja, essas equações não podem ser solucionadas usando fórmulas análogas àquelas usadas para equações de segundo ou terceiro graus. Por isso, na prática, o cálculo de autovalores é feito computacional- mente através de métodos iterativos. Métodos iterativos que usam transformações ortogonais são implementados em muitos siste- mas interativos como MATLAB, SCILAB, OCTAVE, MAPLE etc. Os exemplos a seguir ilustram o procedimento para encontrar au- tovalores e autovetores associados. Exemplo 4: Considerando a matriz 3 2 1 0 A - = , a equação carac- terística é: 3 2 det ( ) 0 (3 ) (0 ) 1( 2) 0. 1 0 A I - - - = = ⇔ - - - - = - Daí vemos que os autovalores da matriz A são raízes da equa- ção 2 3 2 0 - + = : 1 2 = , e 2 1. = Para encontrar os autovetores associados a 1 2 = , devemos encontrar soluções não-triviais do sistema homogêneo 1( ) 0A I x- = : 1 1 1 2 3 2 0 1 0 0 x x - - = - . Esse sistema reduz-se à expressão 1 22 0x x- = , da qual vemos que todas as soluções não-triviais desse sistema, ou seus autovetores associados a 1 2 = , são da forma 2 1 x = , em que é qualquer 41 escalar não-nulo. Procedendo analogamente, podemos verificar que os autovetores associados com 2 1 = são da forma 1 0 x = , sendo qualquer escalar não-nulo. Exemplo 5: Neste exemplo consideramos a matriz 3 1 0 1 2 1 0 1 3 A - = - - - . Para esta matriz, a equação característica é: 3 2 3 1 0 det ( ) 1 2 1 0 8 19 12 0 0 1 3 A I - - - = - - - = ⇔ - + - + = - - . As raízes da equação característica fornecem os autovalores 1 1 = , 2 3 = , 3 4 = . Para encontrar o autovetor associado a 1 1 = , re- solvemos o sistema homogêneo 1( ) 0A I x- = , que nesse caso tem a forma 1 1 2 1 1 2 3 2 1 3 (3 ) 0 (2 ) 0 (3 ) 0 x x x x x x x - - = - + - - = - + - = Escalonando, obtemos o sistema equivalente 1 2 3 2 3 0 2 0 x x x x x - + = - = que possui grau de liberdade 1 (ou seja, há uma variável livre). Tomando x 3 como variável livre, o autovetor associado a 1 1 = tem a forma 3 3 3 3 1 2 2 3 x x x x x = = , para x 3 não-nulo e arbitrário. Pro- cedendo analogamente, para 2 3 = temos que o autovetor asso- ciado é 1 0 1 x = - , sendo não-nulo, enquanto que para 3 4 = o autovetor é 1 1 1 x = - , para não-nulo arbitrário. 42 Para cada matriz A n n× , as seguintes propriedades podem ser provadas (consulte Noble e Daniel (1998)): Existe pelo menos um autovetor associado com cada auto-1) valor de A . Se 2) 1{ , , }s é um conjunto de autovalores distintos e se 1{ , , }sp p é um conjunto de autovetores associados, então 1{ , , }sp p é linearmente independente. Conseqüentemente, se A tem n autovalores distintos, então existe um conjunto linearmente independente de n autovetores e a matriz A pode ser decomposta como 1A P P-= Λ , em que 1[ , , ]nP p p= é uma matriz n n× cujas colunas ip são autovetoresde A associados aos autovalores i , e Λ é uma matriz diagonal com os autovalores i na diagonal principal. Diferentes maneiras de ordenar os autovetores na matriz P levam a diferentes decomposições da matriz A e, assim, a decomposição acima não pode ser única. Reci- procamente, se existe alguma matriz P , não-singular, e a decomposição acima vale com Λ diagonal, então as colunas de P são autovetores de A associados respectivamente aos autovalores i , em que i é a i-ésima entrada da diagonal principal de Λ . Se existe uma matriz P não-singular tal que 1B P AP-= , então 2 1 1 1 2B P APP AP P A P- - -= = , 3 2 1 1 2 1 3B BB P APP A P P A P- - -= = = , 1 1k k kB BB P A P- -= = , 1k ≥ . Quando A é não-singular, o mesmo ocorre com B , e a proprieda- de acima vale para qualquer inteiro negativo k . Se, em particu- lar, B é diagonal (ex.: B = Λ ), então 1k kA P P-= Λ , e o cálculo da k -ésima potência de A requer apenas o cálculo das k -ésimas potências dos elementos diagonais de Λ . 43 Definição: Uma matriz quadrada B é dita semelhante a uma ma- triz A se existe uma matriz não-singular P tal que 1B P AP-= . Se B é semelhante a A , é dito que B é obtida de A por meio de uma transformação de semelhança. É imediato observar que matrizes semelhantes têm o mesmo po- linômio característico, e que a noção de semelhança define uma relação de equivalência no conjunto das matrizes quadradas no sen- tido em que: Aa) é semelhante consigo mesma; Se b) B é semelhante a A , então A é semelhante a B ; e Se c) C é semelhante a B e B é semelhante a A , então C é se- melhante a A . A primeira parte da afirmação será vista no contexto geral de operadores lineares; a segunda parte é simples de se demonstrar e fica como um exercício para você, leitor. Se observarmos os autovalores e autovetores correspondentes do exemplo 5, na notação do item 2, a matriz A pode ser decompos- ta como 1A P P-= Λ , com: 1 2 3 0 0 1 0 0 0 0 0 3 0 0 0 0 0 4 Λ = = , 1 2 3 1 1 1 [ , , ] 2 0 1 3 1 1 P p p p = = - - . Também, como 2 2 1,A P P-= Λ 3 3 1A P P-= Λ etc, obviamente a ma- triz kA é semelhante a kΛ . O exemplo 6 a seguir mostra que, no caso de aparecerem autova- lores repetidos, podem existir autovetores linearmente indepen- dentes associados ao mesmo autovalor. Exemplo 6: Considere agora a matriz 4 1 6 2 1 6 2 1 8 A - = - . 44 Procedendo como antes podemos ver que a equação característica para essa matriz é 3 213 40 36 0 - + - = e que os autovalores são 1 2 2 = = e 3 9 = . Agora procuraremos o(s) autovetor(es) associados ao autovalor repetido. A equação ho- mogênea tem a forma 1 1 2 3 1 1 2 3 1 2 1 3 (4 ) 6 0 2 (1 ) 6 0 2 (8 ) 0 x x x x x x x x x - - + = + - + = - + - = . Após escalonamento, o sistema reduz-se à expressão 1 2 32 6 0x x x- + = . Daí decorre que o sistema tem dois graus de liberdade (duas va- riáveis livres). Sendo assim, o conjunto de soluções não-triviais pode ser escrito como 1 2 2 3 3 1/ 2 3 1 0 0 1 x x x x x x - = = + , sendo 2x e 3x arbitrários, e ao menos um deles não-nulo. Assim, para o autovalor repetido (duas vezes) 2 = podemos associar um autovetor x que resulta de uma combinação linear de dois vetores linearmente independentes: 1 [1/ 2 1 0 ] Tv = , 2 [ 3 0 1] Tv = - . Esses por sua vez também são autovetores associados ao mesmo autovalor. É possível explicar tal afirmação devido ao fato de que, para o autovalor repetido 2 = , podemos associar dois autoveto- res linearmente independentes. Como já sabemos achar os autovalores e autovetores de uma ma- triz, vamos estudar agora como encontrar os autovalores de um operador linear qualquer definido num espaço vetorial real de dimensão finita. A chave do assunto vem na proposição a seguir. Proposição: Seja 1{ , , }nv v = uma base de um espaço vetorial real V e :T V V→ um operador linear, então T e a matriz de T na base , [ ]T , têm os mesmos autovalores. 45 Prova: Sabemos que para cada v V∈ existem números reais jx tais que 1 1 n nv x v x v= + + . Sabemos também que, se 1[ ] T v nx x x= , então existe um isomorfismo 1: nxV →ℜ definido por ( ) vv x = e que ( ( )) [ ] vT v T x = . Logo, se é um autovalor de T e v um autovetor associado, usando a notação acima e o isomorfis- mo segue que [ ] ( ( )) ( )v vT x T v v x = = = . Daí vemos que é autovalor de [ ]T e vx um autovetor corresponden- te, pois vx é não-nulo. Reciprocamente, se é um autovalor de [ ]T e 1nxx∈ℜ um autovetor associado, via isomorfismo podemos encontrar um único v V∈ tal que ( )v x = . Logo, ( ( )) [ ] ( ) ( )T v T x x v v = = = = . Isto é, ( ( )) ( )T v v = , e assim ( )T v v= , pois é um isomorfismo. 2.2 Polinômio característico e Polinômio minimal Embora da proposição anterior fique claro que é autovalor de T ⇔ é uma raiz do polinômio característico ( )p da matriz [ ]T , poderíamos nos perguntar se ( )p depende da base es- colhida. O aspecto fundamental em relação a esse ponto é que o polinômio em questão independe da escolha da base. Para ver isto, vamos considerar duas bases e ' e lembrar que existe uma matriz inversível P tal que 1 '[ ] [ ]T P T P -= (ou seja, [ ]T é semelhante a '[ ]T ). Logo, usando o fato de que 1det ( ) det ( ) 1P P- = (esse resultado será mostrado no capítulo seguinte), obtemos 1 1 'det ([ ] ) det ( ) det ([ ] ) det ( ) det ( [ ] ) det ([ ] )T I P T I P P T P I T I - -- = - = - = - 1 1 'det ([ ] ) det ( ) det ([ ] ) det ( ) det ( [ ] ) det ([ ] )T I P T I P P T P I T I - -- = - = - = - . Isso mostra que as matrizes [ ]T e 'T têm o mesmo polinômio característico. No que diz respeito aos autovetores, temos a equi- valência [ ] v vTv v T x x = ⇔ = , em que 1nxvx ∈ℜ é o vetor de coordenadas do autovetor v de T na base . A discussão acima justifica a definição a seguir. Definição: Seja uma base de um espaço vetorial V de dimen- são finita. O polinômio característico de um operador linear :T V V→ é o polinômio característico da matriz [ ]T . 46 Vejamos agora alguns exemplos que ilustram características as- sociadas a autovalores e autovetores de operadores lineares ainda não observadas nos exemplos anteriores. Exemplo 7: Seja V o espaço das funções polinomiais de grau me- nor ou igual a 1 e considere a base 1 2{ , } {1 ,4 }v v x x = = + + . Seja o operador linear definido por 1( ) 5 2T v x= + , e 2( ) 2(4 )T v x= - + . Assim, já que 1 1 2( )T v v v= + e 2 2( ) 2T v v= - (verifique!), segue que a matriz de T na base é 1 0 [ ] 1 2 T = - , portanto o polinômio característico de T é ( ) det ([ ] ) (1 ) ( 2 )p T I = - = - - - e os au- tovalores são 1 1 = e 2 2 = - . A partir daí observamos facilmente que o autovetor de [ ]T associado a 1 1 = é [3 ]Tx b b= , com b real não-nulo e arbitrário. Usando o fato de que as componentes do autovetor x são os coeficientes do autovetor de T expresso como combinação linear dos vetores da base , o autovetor de T associado a 1 1 = é 1 23 (3(1 ) (4 )) (7 4 )v bv bv b x x b x= + = + + + = + , com b não-nulo e arbitrário. Procedendo analogamente verifica- se que o autovetor de [ ]T associado a 2 2 = - é [0 ] tAx b= , com b real não-nulo e arbitrário. Assim, o autovetor de T associado a 2 2 = - é 1 2 20x v bv bv= + = , b não-nulo, ou seja, o vetor 2v é um autovetor do operador associado ao autovalor2 2 = - . Exemplo 8: Suponha no exemplo anterior que, em lugar de 2( ) 2(4 )T v x= - + , o operador T satisfaz 2( ) (4 )T v x= + . Proceden- do da maneira usual, a matriz de T na base é 1 0 [ ] 1 1 T = . Logo, o polinômio característico é 2( ) ( 1)p = - e os autovalores são 1 2 1 = = . Ou seja, o operador tem dois autovalores repeti- dos. Busquemos agora os autovetores associados. Seja [ ]Tx a b= o autovetor procurado. Logo, 1 1 1 (1 ) 0 0 ([ ] ) 0 1 (1 ) 0 a b T x a b - + =- = ⇔ + - = e esse sistema se reduz à expressão 0a = . Dessa forma, o au- tovetor associado a 1 2 1 = = é [0 ]Tx b= , em que b é real e não-nulo, e assim o autovetor de T associado a 1 2 1 = = é 1 20 (4 )v v bv b x= + = + . Note que, diferentemente do exemplo an- 47 terior, aqui vemos que o operador T não possui mais que um autovetor linearmente independente. A conclusão que podemos tirar do exemplo acima é que o nú- mero de autovetores linearmente independentes associados a um autovalor repetido nem sempre coincide com a multiplicidade do autovalor como raiz da equação característica. Esses fatos moti- vam as definições a seguir. Definição: A multiplicidade algébrica de um autovalor é o número de vezes que ele aparece como raiz do polinômio carac- terístico; se aparece somente uma vez, ou seja, se sua multipli- cidade algébrica for um, então dizemos que é um autovalor simples. A multiplicidade geométrica de é a dimensão de V , o subespaço próprio associado. Baseados nessa definição podemos concluir que a multiplicidade algébrica e a multiplicidade geométrica de 1 = no exemplo 7 são iguais a 1. No entanto, se considerarmos o exemplo 8, enquanto a multiplicidade algébrica de 1 = é 2, a sua multiplicidade geométri- ca é 1, pois a dimensão do subespaço próprio 1V= associado é 1. Como uma constatação do que foi visto no exemplo anterior, é im- portante observar que a multiplicidade geométrica de um autova- lor não pode exceder sua multiplicidade algébrica (ver Boldrini et al, 1996). Seja V um espaço vetorial real de dimensão n e ( , )T L V V∈ . Sabemos que ( , )L V V é um espaço vetorial de dimensão 2m n= . Uma conseqüência desse fato é que o conjunto de 1m + vetores ( 2, , , , mI T T T ) é linearmente dependente em ( , )L V V porque nesse espaço não podem existir mais que m vetores linearmente independentes (lembrar que 2T T T= , 3 2T T T= etc). Assim, existem constantes reais 0 1, , , ma a a não todas nulas tais que 1 0 0 m ma T a T a I+ + + = , 0 ( , )L V V∈ . Isto é, o operador T satisfaz ( ) 0p T = , em que 1 0( ) m mp x a x a x a= + + + , e nesse caso dizemos que o polinômio p anula o operador. Lembramos que um polinômio ( )p x , cujo coeficiente da maior potência em x é 1, é chamado de polinômio 48 mônico. Dentre vários polinômios que anulam o operador T , um deles recebe um nome especial, conforme veremos a seguir. Definição: Seja V um espaço vetorial real de dimensão finita. O polinômio minimal de um operador ( , )T L V V∈ , denotado por ( )pm , é o polinômio mônico de menor grau que anula T . Exemplo 9: Vamos considerar a matriz 1 1 0 1 A = e achar o polinô- mio minimal associado. Com efeito, o polinômio característico de A é 2 2det ( ) 2 1 ( 1)A I - = - + = - . Após algumas operações al- gébricas, observamos que o polinômio característico de A anula a matriz A , isto é, a matriz A satisfaz 2 2 ( ) ( ) 0A A I A I A I- + = - - = (verifique!). Como 0 1 0 0 0 A I - = ≠ , porém, concluímos que o polinômio minimal é 2( ) 2 1pm = - + . Exemplo 10: Considere agora a matriz 48 10 10 90 17 20 135 30 27 B - - = - - - - . Nesse caso, pode-se ver que o polinômio característi- co é 2( ) ( 2) ( 3)p = - + - . Pode-se ver também que ( 2 ) ( 3 ) 0B I B I+ - = , e que ( 2 ) 0B I+ ≠ , e ( 3 ) 0B I- ≠ (ve- rifique!), portanto o polinômio minimal da matriz B é ( ) ( 2) ( 3)pm = + - . Os exemplos acima sugerem dois fatos: em geral, 1) ( ) ( )p pm ≠ ; ambos os polinômios têm as mesmas raízes.2) Uma prova formal do item 2 é dada na proposição a seguir. Proposição: Seja V um espaço vetorial de dimensão 1n ≥ e ( , )T L V V∈ , então ( )p e ( )pm têm as mesmas raízes a menos de multiplicidades. Prova: Sem perda de generalidade, vamos supor que todas as raízes do polinômio característico ( )p são reais. Logo, se é 49 raiz de ( )p , precisamos provar que ( ) 0 ( ) 0p pm = ⇔ = . Com efeito, se é raiz de ( )p , então é um autovalor de T e, para algum vetor não-nulo v V∈ , temos ( )T v v= . Daí decorre que ( )k kT v v= para cada 1k ≥ . Agora, assuma que 0 1( ) spm x b b x x= + + + . Como ( ) 0pm T = (lembrar a definição de polinômio minimal), segue que 0 10 ( ) ( ) spm T v b I bT T v= = + + + 0 1 sb v b v v = + + + 0 1( ) ( ) sb b v pm v = + + + = e por conseguinte ( ) 0pm = , pois 0v ≠ . Logo, é uma raiz de ( )pm . Reciprocamente, se é raiz de ( )pm x , pela con- dição de minimalidade no grau do polinômio ( )pm x segue que ( ) ( ) ( )pm x x q x= - com ( ) 0q T ≠ e, portanto, existe u V∈ tal que ( ) 0v q T u= ≠ . Usando novamente o fato de que ( ) 0pm T = , temos 0 ( ) ( ) ( ) ( )pm T v T I q T u T I v = = - = - , e, portanto, Tv v= . Isto é, é um autovalor de T e, assim, ( ) 0p = , como queríamos provar. Análogo ao exemplo 8, em que o polinômio característico da ma- triz A anula a matriz A , pode-se verificar no exemplo 9 que o polinômio característico de B anula B . Esses não são resultados devido ao acaso. Eles são conseqüências de um resultado geral conhecido como teorema de Cayley-Hamilton. Proposição (Teorema de Cayley-Hamilton): Seja V um espaço vetorial de dimensão finita e ( , )T L V V∈ . Se ( )p é o polinômio característico de T , então ( ) 0p T = . Prova: Seja uma base de V de dimensão n . Para simplificar a notação, escrevemos [ ]A T = . A prova está baseada na pro- priedade ( ) det ( )Adj A A A I= em que ( )Adj A é a adjunta clássica da matriz A . O conceito em questão será apresentado mais adiante. No momento, basta saber 50 que os elementos de ( )Adj A são obtidos via cálculo do determi- nante de certas submatrizes de A de ordem 1n - . Continuando a prova, seja ( )B Adj A I= - . Da observação acima, segue que os elementos ijb de B são polinômios em de grau no máximo 1n - , isto é, para cada par ,i j , temos (0) (1) ( 1) 1n n ij ij ij ijb b b b - -= + + + . Com essa notação a matriz B pode ser escrita como 1 0 1 1 n nB B B B --= + + + , em que ( ),( ) k k i j ijB b= , 0 1k n≤ ≤ - . Usando a propriedade da ad- junta clássica descrita acima, obtemos que ( ) det ( )B A I A I I - = - . Agora, note que, enquanto o lado esquerdo dessa igualdade pode ser escrito como 1 0 1 0 1 2 1( ) ( ) n n n n nB A B A B B A B B -- - -+ - + + - - , o lado direito é o polinômio característico do operador T vezes a matriz identidade: 10 1 1( ) n n n np I a I a I a I a I --= + + + + . Comparando os coeficientes de ambos os polinômios obtemos o seguinte conjunto de igualdades: 0 0 1 1 0 2 2 1 1 1 2 1 ( ) ( ) ( )n n n n n a I B A a I B A B a I B A B a I B A B a I B - - - - = = - = - = - = - Multiplicando essas equações por 2, , , , nI A A A , respectivamen- te, e somando, obtemos 1 0 1 1( ) 0 n n n np A a I a A a A a A - -= + + + + = , como queríamos provar. Note que, devido ao teorema de Cayley-Hamilton, o polinômio característico é um candidato ao polinômio minimal.Mais adian- te veremos que o polinômio minimal é importante, pois a partir da multiplicidade das raízes dele pode-se determinar se o opera- dor linear possui uma base de autovetores. 51 Exercícios 1) Mostre que o conjunto formado pelos autovetores de um ope- rador linear :T V V→ associados a um autovalor e o vetor nulo é um subespaço vetorial de V . 2) Para cada , seja 2 2:R ℜ →ℜ o operador definido por ( , ) ( cos , cos )R x y x y sen y x sen = - + . Mostre que o opera- dor R não tem nem autovalores nem autovetores. 3) Mostre que a matriz 1 2 3 2 A = é semelhante a 4 0 0 1 - . 4) Sejam 1 1 1 1 A = e 1 1 a B a = . Ache uma matriz não-singu- lar P tal que 1P AP- e 1P BP- são diagonais. 5) Seja 5 3 3 5 A = - . Mostre que A e TA têm um autovetor co- mum. 6) Seja A uma matriz inversível e seja um autovalor de A . Mostre que 1/ é um autovalor de 1A- . 7) No exemplo 7 vimos que os autovalores de uma matriz trian- gular inferior 2 2× eram os elementos da diagonal principal. Ge- neralize esse resultado para uma matriz triangular inferior L n n× , isto é, prove que os autovalores da matriz L são os elemen- tos jjL da diagonal principal. Idem para matrizes triangulares superiores. 8) Uma matriz A n n× é dita idempotente se 2A A= . Mostre que, se a) é um autovalor de uma matriz idempoten- te, então tem que ser igual a 0 ou 1. Seja b) v um vetor unitário em 1n×ℜ (usando a norma eucli- deana) e TA vv= . Mostre que A é idempotente e que v é 52 um autovetor de A . Qual é o autovalor associado? Quantos autovalores nulos podemos encontrar? Seja c) 3 [1 1 1] 3 Tv = - . Ache os autovalores da matriz TA vv= e os autovetores correspondentes. 9) Seja A uma matriz quadrada e seja B A I= + , em que I é a matriz identidade e um escalar. Qual a relação entre os autova- lores de A e de B ? Explique. 10) Seja A uma matriz quadrada. Mostre que A e TA têm o mesmo polinômio característico e, logo, os mesmos autovalores. Podemos concluir que A e TA têm os mesmos subespaços pró- prios? 11) Seja 2 2:T ℜ →ℜ , ( , ) ( 12 19 ,7 11 )T x y x y x y= - - + . Mostre que T não tem autovalores em ℜ . Determine os autovalores comple- xos de T e autovetores correspondentes. 12) Ache a transformação linear 2 2:T ℜ →ℜ , tal que T tenha autovalores -2 e 3 respectivamente associados aos autovetores (3 , )y y e ( 2 , )y y- . 13) Seja :T V V→ um operador linear. Assim: a) Se 0 = é au- tovalor de T , mostre que T não é injetora; b) A recíproca é ver- dadeira? 14) Seja S o subespaço das funções reais gerado pelas funções 2 ( )xe sen x , 2 cos ( )xe x , 2xe , e considere o operador linear :D S S→ definido por ( )D f f ′= . Determine: A matriz de a) D em relação à base 2 2 2{ ( ) , cos ( ) , }x x xe sen x e x e = de S . Os autovalores de b) D e as funções de S que são autovetores de D . 53 2.3 Operadores diagonalizáveis O objetivo desta Seção é procurar condições sob as quais a matriz de um operador linear é uma matriz diagonal. Mais especifica- mente, se :T V V→ é um operador linear, procuramos condições sobre T para que exista uma base de V tal que a matriz [ ]T seja diagonal. Definição: Seja V um espaço vetorial real de dimensão finita e :T V V→ um operador linear. Dizemos que T é um operador diagonalizável se existe uma base de V tal que a matriz [ ]T é diagonal. Observe que, se conseguirmos uma base de autovetores de T , 1{ , , }nv v = , então a partir do conjunto de equações 1 1 1 2 2 1 2 2 1 2 ( ) 0 0 ( ) 0 0 ( ) 0 0 n n n n n T v v v v T v v v v T v v v v = + + + = + + + = + + + temos que a matriz [ ]T é uma matriz diagonal com os autovalo- res j na diagonal principal: 1 2 0 0 0 0 [ ] 0 0 n T = . Note que, independentemente dos autovalores serem distintos ou não, a única exigência imposta para que [ ]T seja diagonal é a de que os autovetores do operador formem um base de V . Dito de outra forma, para cada autovalor com multiplicidade algébrica s (ou seja, ( )sx - é um fator do polinômio característi- co ( )p x ), deve existir um conjunto de s autovetores linearmente independentes a ele associados. Reciprocamente, se a matriz [ ]T é diagonal e é uma base formada por vetores 1, , nu u , então é fácil ver que esses vetores são necessariamente autovetores de T . Deixamos os detalhes da prova dessa afirmação como um exercício para você, leitor. 54 Outro resultado importante que descreve condições sob as quais um operador linear é diagonalizável ocorre através do polinômio minimal. Proposição: Seja uma base de um espaço vetorial de V de dimensão finita e ( , )T L V V∈ . Dessa maneira T será diagonalizá- vel se e somente se o polinômio minimal ( )pm não tiver raízes repetidas. A prova dessa proposição precisa da decomposição de um espa- ço vetorial em soma direta de subespaços. Detalhes dessa prova podem ser vistos em Hoffman e Kunze (1970). Outro resultado que caracteriza um operador linear diagonalizável é a proposi- ção a seguir. Proposição: Considerando 1 2,, , r os autovalores distintos de um operador linear ( , )T L V V∈ , e 1 2 , , r V V V os espaços pró- prios correspondentes, as seguintes sentenças são equivalentes: Ta) é diagonalizável; Se o polinômio característico de b) T , ( )p x , satisfaz ( ) ( ) ( )jmjp x x q x= - , com ( ) 0jq ≠ , então dim ( )j jV m = ; 1 2 r V V V V = ⊕ ⊕ ⊕c) ; 1 dim ( ) dim ( ) r V V + +d) . Uma conseqüência importante do item b é que se a multiplicida- de algébrica de um autovalor difere da dimensão do subespaço próprio correspondente, então o operador linear é não diagonali- zável. Para ilustrarmos esse ponto, assuma que a matriz na base canônica de um operador linear T em 3ℜ é: 1 3 4 4 0 4 3 4 0 A - - = - - , então o polinômio característico de A é 2( ) ( 3) ( 2)p x x x= - - + e, assim, os autovalores da matriz são 1 3 = com multiplicidade 1, e 2 2 = - com multiplicidade 2 (verifique!). Para aplicarmos o item b, devemos calcular as dimensões dos espaços próprios 1 V e 2V . Para tanto, vale a pena observar que se é um autovalor de A , então V é o subespaço gerado pelas soluções do sistema homogê- 55 neo de equações lineares ( ) 0A I x- = , ou equivalentemente, V é o subespaço nulo de A I- . Isto é: ( ) { / ( ) 0}nV N A I x A I x = - = ∈ℜ - = . Feita essa observação, temos: 1 ( 3 )V N A I = -1) e 1dim ( ) dim ( ( 3 )) 1V N A I = - = , pois 1 tem multiplicidade 1. 2 ( 2 )V N A I = +2) com 1 3 4 2 4 2 4 3 4 2 A I - + = - - . Como 2A I+ tem posto 2 (existem duas colunas LI), segue que 2 dim ( ) dim ( ( 2 )) 3 2 1V N A I = + = - = . Logo, como a multipli- cidade do autovalor 2 é 2 e a dimensão do subespaço pró- prio 2 V é 1, baseado no item b concluímos que o operador linear não é diagonalizável (observe que a mesma conclusão pode ser feita a partir do item (d)). Exemplo 11: Seja 3 3:T ℜ →ℜ o operador linear cuja matriz em re- lação à base canônica é 14 72 60 9 40 30 6 24 16 A - - = - - - - . Procedendo na ma- neira usual podemos ver que o polinômio característico da matriz A é 2( ) ( 2) ( 4)p x x x= - - - (verifique!), e que os autovalores dis- tintos são 1 2 = com multiplicidade 1, e 2 4 = com multiplicida- de 2. Com relação a 1 V não há nada a ser analisado, pois 1 é um autovalor simples. Analisemos