Buscar

Álgebra-Linear-II

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 91 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 91 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 91 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Álgebra Linear II
Licio H. Bezerra
Fermín S. V. Bazán
Florianópolis, 2008
Universidade Federal de Santa Catarina
Consórcio ReDiSul
Campus Universitário – Trindade 
Caixa Postal 476 
CEP 88040-900 – Florianópolis – SC
Reitor: Alvaro Toubes Prata
Vice-Reitor: Carlos Alberto Justo da Silva
 Secretário de Educação a Distância: Cícero Barbosa
Pró-Reitora de Ensino de Graduação: Yara Maria Rauh Muller
 Departamento de Educação à Distância: Araci Hack Catapan
Pró-Reitora de Pesquisa e Extensão: Débora Peres Menezes
Pró-Reitor de Pós-Graduação: José Roberto O’Shea
Pró-Reitor de Desenvolvimento Humano e Social: Luiz Henrique Vieira Silva
Pró-Reitor de Infra-Estrutura: João Batista Furtuoso
Pró-Reitor de Assuntos Estudantis: Cláudio José Amante
Centro de Ciências da Educação: Carlos Alberto Marques
Centro de Ciências Físicas e Matemáticas: Méricles Thadeu Moretti
Centro de Filosofia e Ciências Humanas: Maria Juracy Filgueiras Toneli
Cursos de Licenciaturas na Modalidade à Distância
Coordenação Acadêmica Matemática: Neri Terezinha Both Carvalho
Coordenação de Ambientes Virtuais: Nereu Estanislau Burin
Coordenação de Infra-Estrutura e Pólos: Vladimir Arthur Fey
Comissão Editorial
Antônio Carlos Gardel Leitão 
Albertina Zatelli
Elisa Zunko Toma 
Igor Mozolevski 
Luiz Augusto Saeger 
Roberto Corrêa da Silva 
Ruy Coimbra Charão
Coordenação Pedagógica das Licenciaturas à Distância UFSC/CED/CFM
Coordenação: Roseli Zen Cerny
Núcleo de Formação
Responsável: Nilza Godoy Gomes
Núcleo de Criação e Desenvolvimento de Material
Responsável: Isabella Benfica Barbosa
Design Gráfico e Editorial: Carlos A. Ramirez Righi, Diogo Henrique Ropelato, 
Mariana da Silva.
Adaptação Design Gráfico: Diogo Henrique Ropelato, 
Marta Cristina Goulart Braga, Natal Anacleto Chicca Junior.
Produção Gráfica e Hipermídia: Thiago Rocha Oliveira
Design Instrucional: Hellen da Silva Zago
Revisão Ortográfica: Tony Roberson de Mello Rodrigues
Preparação de Gráficos: Laura Martins Rodrigues
Editoração Eletrônica: Laura Martins Rodrigues
Núcleo de Pesquisa e Avaliação
Responsável: Claudia Regina Flores
Copyright © 2008, Universidade Federal de Santa Catarina / Consórcio RediSul
Nenhuma parte deste material poderá ser reproduzida, transmitida e gravada, por qualquer 
meio eletrônico, por fotocópia e outros, sem a prévia autorização, por escrito, da Coordenação 
Acadêmica do Curso de Licenciatura em Matemática na Modalidade à Distância.
 
Ficha Catalográfica
 
B574a 
 Bezerra, Licio Hernanes 
 Álgebra Linear II / Licio Hernanes Bezerra, Fermín S. Viloche 
Bazán . - Florianópolis : UFSC/EAD/CED/CFM, 2005. 
 
 91p. 
 ISBN 978-85-99379-54-7 
 
 1.Álgebra linear I. Bazán, Fermín S. Viloche. II. Título. 
 
 CDU 681.31:51
Elaborada pela Bibliotecária Eleonora M. F. Vieira – CRB – 14/786
Sumário
1 Produto Interno ..................................................................... 9
1.1 Definição e exemplos ................................................................. 11
1.2 Norma definida a partir de um produto interno ....................14
1.3 Ângulo entre vetores ................................................................. 15
1.4 Ortogonalidade ........................................................................... 16
1.4.1 Método de Gram-Schmidt ................................................ 17
1.5 Projeção ortogonal de um vetor sobre 
um subespaço vetorial .............................................................. 20
1.6 Matrizes ortogonais ................................................................... 22
1.7 Reflexões de Householder ......................................................... 24
1.8 Matriz de um produto interno em relação a uma base......... 28
2 Autovalores e Autovetores de um Operador Linear ..... 33
2.1 Autovalores e autovetores ......................................................... 35
2.2 Polinômio característico e Polinômio minimal ...................... 45
2.3 Operadores diagonalizáveis ..................................................... 53
2.4 Matrizes hermitianas ................................................................. 58
2.5 Transformações unitárias e forma canônica de Schur ...........61
3 Formas Multilineares ......................................................... 71
3.1 Formas bilineares ....................................................................... 73
3.1.1 Forma bilinear simétrica: forma 
quadrática associada ........................................................ 76
3.2 Diagonalização de formas quadráticas ................................... 77
3.3 A função determinante ............................................................. 79
Apresentação
Caro aluno,
A Álgebra Linear desenvolve-se dentro de espaços vetoriais, os quais 
são estruturas muito simples, que contêm apenas soma e produto por 
escalar, e é impressionante como a teoria desenvolve-se com tão pou-
co. É instigante descobrir como problemas associados ao cotidiano das 
pessoas são descritos elegantemente pela Álgebra Linear. Problemas 
como distribuição de energia elétrica, ou de logística para instalação 
de telefones em grandes cidades, envolvem resolução de sistemas line-
ares cujas matrizes são enormes; problemas de compressão de dados, 
derivados tanto de áudio como de imagem, têm o cálculo de autova-
lores como ferramenta básica para sua resolução. A substituição do 
analógico pelo digital embute a real substituição da realidade físico-
química pela simulação matemática.
Pode-se perguntar por que um licenciado aprende Álgebra Linear se 
ele pretende principalmente atuar em escolas de ensino fundamental 
e médio. Respondemos a essa questão assim: com a Álgebra Linear, 
você, licenciando, deixa as portas abertas para o futuro do conheci-
mento tecnológico, ao mesmo tempo em que solidifica seu conheci-
mento do presente para atender às demandas dos vários alunos que 
lhe encontram, que estão a cada dia mais imersos nesse mundo veloz. 
Cremos ser possível viver em um mundo natural, com florestas, ani-
mais e pessoas tentando viver em harmonia, lendo livros (estes nun-
ca serão substituídos por imagens digitais, assim como cinema não 
é incompatível com teatro), com tempo para o ócio e o prazer, com a 
Álgebra Linear resolvendo problemas de poluição ambiental, logística 
de policulturas agrícolas etc.
A disciplina Álgebra Linear II é a continuação natural da disciplina 
Álgebra Linear I, que lhe introduziu na teoria de matrizes e no de-
senvolvimento da estrutura algébrica dos espaços vetoriais sobre um 
corpo. Desta vez, munimos os espaços vetoriais de um produto in-
terno para que se configure neles uma geometria e possamos, dessa 
maneira, falar de ângulo entre vetores, de tamanho de vetor etc. Na 
seqüência, apresentamos mais um problema que a Álgebra Linear ti-
picamente estuda: o problema dos autovalores de operadores lineares. 
Finalmente, definimos a noção de formas multilineares para formali-
zar rigorosamente o estudo de determinantes.
Dividimos, assim, este livro em três Capítulos: produto interno, auto-
valores e formas multilineares. Esperamos que você utilize este livro 
como um mapa para descobrir um pouco da Álgebra Linear.
Licio H. Bezerra
Fermín S. V. Bazán
1 Produto Interno
11
1 Produto Interno
Neste capítulo, iremos munir um espaço vetorial, que é 
uma estrutura puramente algébrica, de uma geometria, 
que nos permite falar de ângulo entre vetores, projetar um 
vetor ortogonalmente sobre outro, comparar vetores por 
tamanho etc. 
1.1 Definição e exemplos
Quando estudamos vetores no espaço, em Geometria Analítica, 
somos apresentados ao produto interno de dois vetores u e v ,denotado por ,u v , o qual é definido por , || || || || cosu v u v = , 
em que  é o menor ângulo entre os vetores, 0  ≤ ≤ . A partir 
dessa definição, demonstram-se algumas propriedades do pro-
duto interno: simetria ( , ,u v v u= ), positividade ( , 0u u ≥ e 
, 0 0u u u= ⇔ =

) e bilinearidade ( ', , ',ku u v k u v u v+ = + e 
, ' , , 'u kv v k u v u v+ = + ). Uma conseqüência dessas proprieda-
des é que, dada , ,{ }i j k

 
 uma base ortonormal do espaço, se os 
vetores u e v escrevem-se, nessa base, como 1 1 1u x i y j z k
→ → →
= + + e 
2 2 2v x i y j z k
→ → →
= + + , temos que
1 2 1 2 1 2,u v x x y y z z= + + .
Por conseguinte, se w x i y j z k
→ → →
= + + , 2 2 2|| ||w x y z= + + .
O conceito de produto interno é generalizado para um espaço ve-
torial qualquer de um modo usual em Matemática: a partir da 
abstração de algumas propriedades de um modelo (no caso, o 
produto interno de vetores do espaço euclidiano).
Definição: Seja V um espaço vetorial real. Se , :V V× →ℜ é 
uma função tal que 
( ) , 0v V v v∀ ∈ ≥1) e , 0 0v v v= ⇔ = ;
( , ) , ,v w V v w w v∀ ∈ =2) ;
12
( , , ' )( ) , ' , , 'v w w V k v kw w k v w v w∀ ∈ ∀ ∈ℜ + = +3) 
então , é dito um produto interno em V .
Observe que uma conseqüência direta do item 3 dessa definição 
é que o produto interno de um vetor v qualquer com o vetor nulo 
resulta em zero, pois ,0 ,0. 0. , 0v v v v v= = =

. 
Exemplo 1: Seja 1nV ×= ℜ . Sejam 1, nu v ×∈ℜ , 
1
n
u
u
u
 
 =    
 , 
1
n
v
v
v
 
 =    
 . Va-
mos definir 1 1, n nu v u v u v= + + . 
É fácil ver que essa função é um produto interno em V , chamado 
de produto interno usual. Note que 1 1 n vu v u v+ + é a única entra-
da da matriz Tv u , que é uma matriz 1 1× . Usando o fato de que os 
espaços vetoriais 1 1×ℜ e ℜ são isomorfos, assim como 1n×ℜ e nℜ , 
podemos escrever que Tv u é o produto interno usual dos vetores 
u e v , em nℜ .
Exemplo 2: Sejam 1 2( , )u u u= e 1 2( , )v v v= dois vetores do 
2ℜ . Seja 
1 1 2 1 1 2 2 2, 4u v u v u v u v u v= + + + . Afirmamos que essa função é um 
produto interno em 2ℜ . Para provar isso, temos que verificar se 
essa função satisfaz os três itens da definição:
2 2 2 2 2
1 1 2 1 1 2 2 2 1 1 2 2 1 1 2 2 2, 4 2 4 2 3u u u u u u u u u u u u u u u u u u u= + + + = + + = + + + =i) 
2 2 2 2 2
1 1 2 1 1 2 2 2 1 1 2 2 1 1 2 2 2, 4 2 4 2 3u u u u u u u u u u u u u u u u u u u= + + + = + + = + + + =
2 2
1 2 2( ) 3 0u u u= + + ≥ . Além disso, temos que
2 2
1 2 2 1 2 2 1 2, 0 ( ) 3 0 0, 0 0, 0 0u u u u u u u u u u u= ⇔ + + = ⇔ + = = ⇔ = = ⇔ =
2 2
1 2 2 1 2 2 1 2, 0 ( ) 3 0 0, 0 0, 0 0u u u u u u u u u u u= ⇔ + + = ⇔ + = = ⇔ = = ⇔ =
1 1 2 1 1 2 2 2 1 1 2 1 1 2 2 2, 4 4 ,u v u v u v u v u v v u v u v u v u v u= + + + = + + + =ii) 
1 1 1 2 1 1 1 2 2 2 2 2, ' ( ' ) ( ' ) ( ' ) 4 ( ' )u kv v u kv v u kv v u kv v u kv v+ = + + + + + + + =iii) 
1 1 1 1 2 1 2 1 1 2 1 2 2 2 2 2' ' ' 4 4 'ku v u v ku v u v ku v u v k u v u v= + + + + + + + =
1 1 2 1 1 2 2 2 1 1 2 1 1 2 2 2( 4 ) ' ' ' 4 'k u v u v u v u v u v u v u v u v= + + + + + + + =
, , 'k u v u v= +
Logo, a função definida anteriormente é um produto interno em 
2ℜ . 
13
Exemplo 3: Sejam 1 2( , )u u u= e 1 2( , )v v v= dois vetores do 
2ℜ . Seja 
1 2 2 1,u v u v u v= + . Afirmamos que essa função não é um produto 
interno em 2ℜ , pois, apesar de satisfazer os itens ii e iii da defi-
nição, a função não é positiva. Como contra-exemplo, tomemos o 
vetor (1, 1)u = − : , 1.( 1) ( 1).1 2 0u u = − + − = − < .
Exemplo 4: Seja [ , ]V C a b= o espaço vetorial das funções reais 
contínuas em [ , ]a b , a b< . Sejam f e g duas funções de V . Va-
mos definir a seguinte função de V V× em ℜ :
, ( ) ( )
b
a
f g f x g x dx= ∫ .
Note que, como f e g são funções contínuas em [ , ]a b , o seu 
produto também é contínuo em [ , ]a b e, logo, integrável nesse in-
tervalo. Verificamos, facilmente, que as propriedades (ii) e (iii) são 
satisfeitas por essa função. Para mostrar que (i) é verdadeira, pre-
cisamos de um pouco de Análise. A primeira parte de (i) é satis-
feita porque, para toda função contínua f , 2( ( )) ( )
b
a
f x dx m b a≥ −∫ , 
em que m é o valor mínimo de 2f no intervalo [ , ]a b . Para mos-
trar que , 0 0f f f= ⇒ = (a recíproca é óbvia), vamos supor 
que 0f ≠ . Assim, como f é contínua, existe um intervalo [ , ]c d , 
c d< , contido em [ , ]a b , tal que ( ) 0f x ≠ para todo [ , ]x c d∈ . 
Logo, 2 ( ) 0f x > para todo [ , ]x c d∈ e, como 2f também é contí-
nua, pelo Teorema do Valor Intermediário, existem , 0m M > tais 
que 2 ( )m f x M≤ ≤ para todo [ , ]x c d∈ . Assim,
2 2 2 2 2( ( )) ( ( )) ( ( )) ( ( )) ( ( )) ( ) 0
b c d b d
a a c d c
f x dx f x dx f x dx f x dx f x dx m d c= + + ≥ ≥ − >∫ ∫ ∫ ∫ ∫
2 2 2 2 2( ( )) ( ( )) ( ( )) ( ( )) ( ( )) ( ) 0
b c d b d
a a c d c
f x dx f x dx f x dx f x dx f x dx m d c= + + ≥ ≥ − >∫ ∫ ∫ ∫ ∫ .
Ou seja, , 0f f ≠ . Esse produto interno é chamado de produto 
interno usual em [ , ]C a b .
Exercício 1: Verifique se as seguintes funções definidas em 2ℜ 
são produto interno ou não.
1 1 2 1 1 2 2 2,u v u v u v u v u v= + + +a) ;
1 1 2 1 1 2 2 2, 4u v u v u v u v u v= − − +b) ;
1 1 2 1 2 2, 4u v u v u v u v= + +c) ;
14
1 2 2 1,u v u v u v= −d) ;
1 1 2 1 1 2 2 2
1, mu v u v u v u v u v
m
+= + + +e) , em que m é um inteiro 
positivo;
1 1 2 1 1 2 2 2
1, mu v u v u v u v u v
m
+= − − +f) , em que m é um inteiro 
positivo;
1 1 2 2, 2 4u v u v u v= +g) ;
1 1, 2u v u v=h) .
1.2 Norma definida a partir de um 
produto interno
No produto interno definido no espaço euclidiano, vimos que a 
norma de um vetor u satisfaz à equação ,u u u= . Na genera-
lização do conceito de produto interno, definiremos norma, dado 
um produto interno, utilizando essa equação.
Definição: Seja V um espaço vetorial real. Seja , :V V× →ℜ
um produto interno. A norma induzida por esse produto interno 
é definida pela equação seguinte:
,u u u=
Exemplo 5: Seja 2V =ℜ . Considere o produto inter-
no entre dois vetores 1 2( , )u u u= e 1 2( , )v v v= definido por 
1 1 2 1 1 2 2 2, 4u v u v u v u v u v= + + + . A norma induzida por esse produ-
to interno é 2 21 1 2 22 4u u u u u= + + .
Exemplo 6: Seja [ , ]V C a b= o espaço das funções reais contínu-
as em [ , ]a b , a b< . Considere o produto interno usual de duas 
funções de V , f e g (que é dado por , ( ) ( )
b
a
f g f x g x dx= ∫ ). A 
norma induzida por esse produto interno é 
2( ( ))
b
a
f f x dx= ∫
15
1.3 Ângulo entre vetores
Para definir ângulo entre vetores de um espaço vetorial real V , va-
mos demonstrar primeiro a Desigualdade de Cauchy-Schwarz.
Proposição (Desigualdade de Cauchy-Schwarz): Seja V um es-
paço vetorial real munido de um produto interno , :V V× →ℜ . 
Assim, para todos os vetores u e v de V , temos
,u v u v≤
Prova: A desigualdade é verdadeira se um dos vetores é o vetor 
nulo. Vamos supor, então, que 0u ≠ e 0v ≠ . Seja 2
,u v
w v u
u
= − , 
logo:
2 2 2 2 2
, , , , ,
, , , , , , ,
u v u v u v u v u v
w w w v w u v v u v v u u u
u u u u u
= − = − − + =
2 2 2 2 2
, , , , ,
, , , , , , ,
u v u v u v u v u v
w w w v w u v v u v v u u u
u u u u u
= − = − − + =
2 2 2
2 2
2 2 2
, , ,
2
u v u v u v
v v
u u u
= − + = − . Como 2, 0w w w= ≥ , 
temos que:
2
2
2
,
0
u v
v
u
− ≥
Ou seja, ,u v u v≤ .
Vamos definir, agora, ângulo entre dois vetores.
Definição: Seja V um espaço vetorial real munido de um pro-
duto interno , :V V× →ℜ . Assim, dados vetores u e v de V , 
ambos não-nulos, o ângulo  entre esses vetores é o que satisfaz 
as seguintes condições:
,
cos
u v
u v
 = , 0  ≤ ≤ .
Se um dos vetores fornulo, dizemos que o ângulo entre eles é 
zero.
16
Note que, por Cauchy-Schwarz, essa definição faz sentido, uma 
vez que
,
1 1
u v
u v
− ≤ ≤ .
1.4 Ortogonalidade 
A definição de ângulo entre vetores permite-nos falar em con-
juntos de vetores ortogonais, em que o ângulo entre cada dois 
vetores é igual a 2 .
Definição: Seja V um espaço vetorial real munido de um produ-
to interno , :V V× →ℜ . Sejam 1,..., nv v vetores de V . Dizemos 
que 1,..., nv v são ortogonais se, para todos i e j tais que i j≠ , 
, 0i jv v = .
É importante notar que a ortogonalidade depende do produto in-
terno: dois vetores não-nulos podem ser ortogonais em relação a 
um produto interno, mas o ângulo entre eles pode ser diferente 
de 2 em relação a outro produto interno. Uma observação in-
teressante é que o vetor nulo é o único vetor ortogonal a todos os 
vetores de um espaço vetorial com produto interno. Um resultado 
interessante é o seguinte:
Proposição: Sejam 1,..., nv v vetores não-nulos de V , um espaço 
vetorial real munido de um produto interno , :V V× →ℜ . Se 
1,..., nv v são ortogonais (em relação a esse produto interno) então 
são linearmente independentes.
Prova: Suponha que existam 1,..., na a ∈ℜ tais 
que 1 1 0n na v a v+ + = . Logo, para todo índice i , 
1 1 , 0, 0n n i ia v a v v v+ + = = . No entanto,
2
1 1 1 1, , ... , ,n n i i n n i i i i i ia v a v v a v v a v v a v v a v+ + = + + = = 
pois os vetores são ortogonais dois a dois. Assim, como os veto-
res são não-nulos, para todo índice i , 0ia = , isto é, escreve-se o 
vetor zero de uma única maneira como combinação linear dos ve-
tores 1,..., nv v , que é a combinação trivial. Dessa maneira, 1,..., nv v 
são linearmente independentes.
,
17
Corolário (Teorema de Pitágoras Generalizado): Sejam u e v 
dois vetores ortogonais em um espaço vetorial real V munido de 
um produto interno. Assim: 2 2 2u v u v+ = + .
Prova: É deixada para você, leitor, como exercício. 
Em geral, falamos em conjunto ortogonal de vetores para dizer 
que os vetores do conjunto são ortogonais. Por exemplo: dizemos 
que uma base de um espaço vetorial é ortogonal, significando que 
os vetores da base são ortogonais. Uma pergunta que emerge na-
turalmente é se sempre existem bases ortogonais para qualquer 
espaço vetorial real. Vamos responder a essa pergunta feita no 
caso do espaço ser finitamente gerado de uma forma concreta: 
vamos construir uma base ortogonal a partir de uma base qual-
quer. Um método prático para isso é o método de Gram-Schmidt, 
descrito a seguir.
1.4.1 Método de Gram-Schmidt
Sejam 1,..., nv v de V , um espaço vetorial real munido de um 
produto interno , :V V× →ℜ . Vamos definir, a partir des-
ses vetores, um conjunto ortogonal de vetores 1,..., nw w tais que 
1 1[ ,..., ] [ ,..., ]n nv v w w= .
1 1w v=i) 
2 1
2 2 12
1
,v w
w v w
w
= −ii) 
3 1 3 2
3 3 1 22 2
1 2
, ,v w v w
w v w w
w w
= − −iii) 
...
n) 1 2 11 2 12 2 2
1 2 1
, , ,n n n n
n n n
n
v w v w v w
w v w w w
w w w
−
−
−
= − − − −
Note que, para todo i , 0iw ≠ , pois os vetores 1,..., nv v são linear-
mente independentes. A prova de que esses vetores são ortogo-
nais é feita por indução:
18
I) 2 1 2 12 1 2 1 1 2 1 1 12 2
1 1
, ,
, , , , 0
v w v w
w w v w w v w w w
w w
= − = − =
II) Seja 2k > . Suponha que para todos os índices i e j , i j≠ , 
tais que 1 ,i j k≤ < , temos , 0i jw w = . Assim, para todo i , 
percebe-se que:
1 2 1
1 2 12 2 2
1 2 1
, , ,
, ,k k k kk i k k i
k
v w v w v w
w w v w w w w
w w w
−
−
−
= − − − − =
1 2 1
1 2 12 2 2
1 2 1
, , ,
, , , ,k k k kk i i i k i
k
v w v w v w
v w w w w w w w
w w w
−
−
−
= − − − − =
2
,
, , 0k ik i i i
i
v w
v w w w
w
= − =
Observe que, por construção, 1 1[ ,..., ] [ ,..., ]i iv v w w= para todo i 
(mostre isso, por indução). Assim, no enésimo passo, chegamos a 
uma base ortogonal.
Corolário: Todo espaço vetorial de dimensão finita com produto 
interno admite uma base ortogonal. 
Exemplo 7: Considere 3V =ℜ , munido do produto interno usual, 
1 (1,1,0)v = , 2 (1,0,1)v = , 3 (0,1,1)v = . Aplicando o método de Gram-
Schmidt a esses vetores, temos:
1 (1,1,0);w =
1 1
2 22 2 2 2
1.1 0.1 1.0(1,0,1) (1,1,0) ( , ,1)
1 1 0
w + += − = −
+ +
;
1 1
2 2 1 1 2 2 2
2 2 3 3 33 2 2 2 2 2 21 1
2 2
0.1 1.1 1.0 0. 1.( ) 1.1(0,1,1) (1,1,0) ( , ,1) ( , , )
1 1 0 ( ) ( ) 1
w + + + − += − − − = −
+ + + − +
1 1
2 2 1 1 2 2 2
2 2 3 3 33 2 2 2 2 2 21 1
2 2
0.1 1.1 1.0 0. 1.( ) 1.1(0,1,1) (1,1,0) ( , ,1) ( , , )
1 1 0 ( ) ( ) 1
w + + + − += − − − = −
+ + + − +
.
Você pode verificar, calculando os produtos internos , que o con-
junto 1 2 3{ , , }w w w é ortogonal.
Exercício 2: Ache, pelo método de Gram-Schmidt, uma base or-
togonal para V , munido do produto interno explicitado, a partir 
das bases dadas a seguir: 
19
2V =ℜa) , munido do produto interno usual, 1 (1,1)v = , 
2 (1, 2)v = ;
3V =ℜb) , munido do produto interno usual, 1 (1,1,1)v = , 
2 (1, 2,1)v = , 3 (1, 2, 2)v = ;
4V =ℜc) , munido do produto interno usual, 1 (1,1,1,1)v = , 
2 (1,0,0,1)v = , 3 (1, 2,0, 2)v = , 4 (3, 2,0, 2)v = ;
[ 1,1]V C= −d) , munido do produto interno usual, 1( ) 1f x = , 
2 ( )f x x= , 
2
3 ( )f x x= .
A seguir, apresentamos algumas definições.
Definição: Seja V um espaço vetorial real munido de um pro-
duto interno , :V V× →ℜ . Seja W um subespaço vetorial de V . 
Seja v um vetor de V tal que v W∉ . Dizemos que v é ortogonal 
a W se v é ortogonal a todo vetor de W .
Exercício 3: Sejam 1,..., nv v vetores de V , um espaço vetorial real 
munido de um produto interno , :V V× →ℜ . Seja 1[ ,..., ]nW v v= . 
Seja v um vetor de V tal que v W∉ . Mostre que v é ortogonal a
W se, e somente se, para todo i , v é ortogonal a iv .
Definição: Seja V um espaço vetorial real munido de um produ-
to interno , :V V× →ℜ . Sejam 1W e 2W subespaços vetoriais de 
V . Dizemos que 1W é ortogonal a 2W se, para todo vetor 1w de 
1W e todo vetor 2w de 2W , 1 2, 0w w = . Se, além disso, 1 2W W V+ = , 
então dizemos que 2W é o complemento ortogonal de 1W e 
denotamo-lo por 1W
⊥ . Observe que, como 1W é ortogonal a 2W , 
1 2 {0}W W∩ = e, logo, 1 2W W V⊕ = .
Definição: Dizemos que um conjunto de vetores é ortonormal 
se os vetores do conjunto são ortogonais (dois a dois) e unitários 
(isto é, de norma igual a 1).
Exercício 4: Transforme as bases encontradas nos exercícios ante-
riores em bases ortonormais.
20
1.5 Projeção ortogonal de um vetor 
sobre um subespaço vetorial
Definição: Seja V um espaço vetorial real não-nulo munido de 
um produto interno. Seja W um subespaço vetorial de V , W V≠ . 
Seja v V∈ . Um vetorw W∈ é dito uma projeção ortogonal de v 
sobre W se ( )v w− for ortogonal a todo vetor de W .
Proposição: Se existe uma projeção ortogonal de v sobre W , 
então ela é única.
Prova: Sejam w e w dois vetores de W tais que ( )v w− e 
( )v w− são ortogonais a todo vetor de W . Em particular, como 
( )w w W− ∈ , 0 , ,v w w w v w w w= − − = − − . Desenvolven-
do os cálculos, concluímos que , ,w w w w w w− = − e, logo, 
, 0w w w w− − = . Ou seja, w w= .
Vamos mostrar que, se W é um subespaço de dimensão finita de 
um espaço vetorial real V com produto interno, então a projeção 
ortogonal de qualquer vetor de V sobre W existe e, logo, é única.
Seja 1{ ,..., }nv v uma base de um subespaço W de um espaço veto-
rial real V , com produto interno , . Seja v V∈ . A projeção orto-
gonal de v sobre 1[ ,..., ]nv v é um vetor 1[ ,..., ]nv v v∈ tal que v v−
é ortogonal a 1[ ,..., ]nv v . Vamos mostrar que esse vetor v existe. 
Para isso, seja 1{ ,..., }nw w uma base ortonormal de 1[ ,..., ]nv v , ob-
tidaa partir do método de Gram-Schmidt. Procuramos por um 
vetor 1 1 n nv a w a w= + + tal que v v− seja ortogonal a 1[ ,..., ]nw w , 
que é igual a 1[ ,..., ]nv v , isto é, tal que v v− seja ortogonal a todo 
vetor da base 1{ ,..., }nw w . Assim, para todo i , temos:
1 10 , , , , ,i n n i i i i i i iv v w v a w a w w v w a w w v w a= − = − + = − = −
ou seja, ,i ia v w= . Assim, a projeção ortogonal de v sobre 
1[ ,..., ]nv v existe e é o vetor 
1 1, , n nv v w w v w w= + + .
,
o
v
v
Figura 1.1 - Projeção ortogonal de um vetor sobre um subespaço.
21
Operar com uma base ortonormal é muito conveniente. Para 
justificar esse adjetivo, vamos ver como ficaria o cálculo com a 
base 1{ ,..., }nv v , que é qualquer. Uma vez que sabemos que o ve-
tor v existe e é único, como 1[ ,..., ]nv v v∈ , existe um único vetor 
1( , , )
n
nb b ∈ℜ tal que 1 1 n nv b v b v= + . Como v v− é ortogonal a 
1[ ,..., ]nv v , , 0iv v v− = , 1:i n= . Assim, obtemos:
1 1 1 1 1
1 1
, , , 0
, , , 0
n n
n n n n n
v v b v v b v v
v v b v v b v v
 − + + =


 − + + =

  

 
, ou seja, na forma matricial, 
1 1 1 1 1
1
, , ,
, , ,
n
n n n n n
v v v v b v v
v v v v b v v
    
    
     =    
           
 
    
    
 
.
Como esse sistema tem única solução (pois a projeção ortogo-
nal existe e é única), essa matriz é inversível para qualquer base
1{ ,..., }nv v = (lembre-se que um sistema de n equações lineares 
a n variáveis é possível e determinado se, e somente se, a matriz 
de coeficientes é inversível). Essa matriz é dita matriz de Gram 
(note que a matriz de Gram definida em espaços vetoriais reais é 
uma matriz real e simétrica). Para achar v utilizando-se de uma 
base não-ortonormal, temos que resolver o sistema apresentado, 
o que é muito trabalhoso se a matriz não for diagonal (note que a 
matriz do sistema em questão é diagonal se a base é ortogonal). 
En passant, demonstramos a seguinte proposição:
Proposição: Uma matriz de Gram é uma matriz inversível.
Outro modo de se provar essa proposição é verificar que o siste-
ma homogêneo associado à matriz G apresentada anteriormente 
só admite a solução zero. Realmente, 0 0TGx x Gx= ⇒ = . Note que 
2Tx Gx w= , em que 1 1 n nw b v b v= + + e ( )x w = . Logo, 0w = , ou 
seja, 1 1 0n nb v b v+ + = . No entanto, 1{ ,..., }nv v é uma base. Assim, 
a única solução possível é 1 0nb b= = = , isto é, a única solução 
possível da equação matricial 0Gx = é a solução trivial 0x = . Por 
conseguinte, G é inversível.
En passant — locução adverbial; ligeira e 
circunstancialmente. Ex: 
Mencionou-lhe o nome en 
passant.
22
Observe que, se estamos trabalhando em mℜ com o produto in-
terno usual, o referido sistema não-homogêneo pode ser reescri-
to como T TA Ax A v= , em que A é a matriz cujas colunas são as 
coordenadas canônicas dos vetores da base 1{ ,..., }nv v e x é a co-
luna formada por 1, , nb b . A solução desse sistema é dada por 
1( )T Tx A A A v−= . Logo, a projeção ortogonal de um vetor v sobre 
um subespaço 1[ ,..., ]nv v é dada por:
1( )T Tv A A A A v−= .
Observe que, se 1[ , , ]nv v v∈  , v v= .
Exercício 5: Em cada item a seguir são dados 1,..., nv v e v , vetores 
de V , um espaço vetorial real munido de um produto interno 
, :V V× →ℜ . Seja 1[ ,..., ]nW v v= . Ache a projeção ortogonal de 
v sobre W .
i) 2V =ℜ , munido do produto interno usual, 1 (1,1)v = ; (1, 2)v = ;
ii) 3V =ℜ , munido do produto interno usual, 1 (1,1,1)v = ; 
(1, 2, 2)v = ;
iii) 3V =ℜ , munido do produto interno usual, 1 (1,1,1)v = , 
2 (1, 2,1)v = ; (1, 2, 2)v = ;
iv) 4V =ℜ , munido do produto interno usual; 1 (1,1,1,1)v = , 
2 (1,0,0,1)v = ; (3, 2,0, 2)v = ;
v) 4V =ℜ , munido do produto interno usual; 1 (1,1,1,1)v = , 
2 (1,0,0,1)v = , 3 (1, 2,0, 2)v = ; (3, 2,0,2)v = ;
vi) [ 1,1]V C= − , munido do produto interno usual, 1( ) 1v x = , 
2 ( )v x x= ; 
2( )v x x= ;
vii) [ 1,1]V C= − , munido do produto interno usual, 1( ) 1v x = , 
2 ( )v x x= , 
2
3 ( )v x x= ; 
3( )v x x= .
1.6 Matrizes ortogonais
Seja mV =ℜ . Vimos que a projeção ortogonal de um vetor v sobre 
o subespaço gerado por uma base 1{ ,..., }nv v é dada pela fórmula 
1( )T Tv A A A A v−= . Se os vetores da base forem ortonormais, essa 
fórmula se reduz a Tv A A v= , pois TA A I= , a matriz identidade 
23
(verifique). Matrizes, cujas colunas são vetores ortonormais, par-
tilham dessa propriedade. Note que, se A for uma matriz qua-
drada, TA é a inversa de A . Essas matrizes são ditas ortogonais 
(cuidado para não fazer confusão: matrizes ortogonais têm colu-
nas ortonormais).
Definição: Uma matriz n nA ×∈ℜ é ortogonal se .TA A I= . 
Proposição: As seguintes sentenças são equivalentes:
n nA ×∈ℜa) é ortogonal;
As colunas de b) n nA ×∈ℜ são ortonormais;
As linhas de c) n nA ×∈ℜ são ortonormais;
n nA ×∈ℜd) e ( )nx Ax x∀ ∈ℜ = ;
n nA ×∈ℜe) e ( , )n T T Tx y y A Ax y x∀ ∈ℜ = . 
A prova dessa proposição pode ser vista, por exemplo, em 
Hoffman e Kunze (1970). Note que a sentença (d) caracteriza uma 
matriz ortogonal como sendo uma matriz que preserva a norma 
de um vetor quando multiplicada por ele; a sentença (e) descreve 
uma matriz ortogonal como uma matriz que preserva o produ-
to interno de dois vetores (e, de quebra, preserva o ângulo entre 
cada dois vetores).
Exercício 6: Mostre que o produto de matrizes ortogonais é uma 
matriz ortogonal. 
Exercício 7: Mostre que a inversa de uma matriz ortogonal é, tam-
bém, ortogonal.
Exercício 8: Mostre que, se n nQ ×∈ℜ é uma matriz ortogonal, a 
matriz 11 1
1
1 0 0
0
0
n
n nn
q q
q q
 
 
 
 
 
 


   

, pertencente a ( 1) ( 1)n n+ × +ℜ , é uma matriz 
ortogonal.
24
1.7 Reflexões de Householder 
As matrizes de reflexão em relação a um subespaço de nℜ são 
exemplos de matrizes ortogonais. As reflexões de Householder 
são as reflexões em relação a um subespaço de co-dimensão 1 (ou 
seja, de dimensão 1n − ). Elas surgiram na construção de um novo 
processo de ortonormalização de vetores, diferente do método de 
Gram-Schmidt: o método de Householder. Nesse processo, bus-
ca-se uma reflexão H que leva um vetor v dado a um vetor na 
direção do vetor canônico 1 (1,0, ,0)e =  . É claro que, como uma 
reflexão preserva a norma dos vetores (ver o item d da proposi-
ção anterior), há duas possibilidades para Hv : ou 1Hv v e= ou 
1Hv v e= − . H é dito uma reflexão de Householder se o subes-
paço em relação ao qual a reflexão age é o hiperplano bissetor de 
um dos dois ângulos que v faz com a reta gerada por 1e , isto é: 
ou é o hiperplano 1 cuja normal é o vetor 1 1n v v e= − , ou é o 
hiperplano 2 cuja normal é 2 1n v v e= + .
o
v
π1
n1
n2
||v||2 .e1
−||v||2 .e1
π2
v1
v2
Figura 1.2 - Reflexões de Householder 
Vamos achar uma fórmula para essas reflexões. Seja n uma das 
normais descritas anteriormente, associada ao hiperplano  . 
Note que [ ]n⊥ = . Logo, [ ]n nℜ = ⊕ . Assim, dado um vetor u 
qualquer, u pode ser escrito de uma única forma como soma de 
um vetor de  com um vetor de [ ]n : [ ]nu u u= + . Dessa maneira, 
[ ] [ ]2n nHu u u u u= − = − , entretanto [ ]nu é a projeção ortogonal de 
u sobre [ ]n . Ou seja, 
1
[ ] 2.( . )
T
T T
n
nnu n n n n u u
n
−= = .
25
Logo, 2 2
. .2 ( 2 )
T Tn n n nHu u u I u
n n
= − = − , e assim concluímos que: 
2
.2
Tn nH I
n
= − .
Note que, por essa fórmula, obtemos as duas reflexões de 
Householder que transformam o vetor dado em um vetor 
na direção do vetor canônico 1e . Por exemplo: suponha que 
3V =ℜ , com o produto interno usual. Seja (1, 2, 2)v = , então 
1 1(1.2.2) 3(1,0,0) ( 2,2,2)n v v e= − = − = − corresponde à reflexão:
1 2 2
3 3 3
1 1 1 1 1 1 2 1 2
3 3 31 2
1 2 2 1
3 3 3
. . .2 2
12 6
T T Tn n n n n nH I I I
n
 
 = − = − = − = −  − 
;
enquanto 2 1 (1, 2, 2) 3 (1,0,0) (4,2,2)n v v e= + = + = está associado 
à reflexão:
1 2 2
3 3 3
2 2 2 2 2 2 2 2 1
3 3 32 2
2 2 1 2
3 3 3
. . .2 2
24 12
T T Tn n n n n nH I I I
n
− − − 
 = − = − = − = − −  − − 
.
Note que essas matrizes são ortogonais (verifique) e simétricas, 
características das reflexões de Householder. Assim, se H é uma 
reflexão de Householder, 
1TH H H −= = .
Como já dissemos antes, uma aplicação das reflexões de Hou-
seholder é ortonormalizar bases. Por exemplo, vamos achar uma 
base ortonormal para o subespaço [ (1,1,1,1) , (0,0,1,1) , (0,0,0,1) ] 
do 4ℜ . Para isso, primeiro construímos a matriz A , cujas co-
lunas são os vetores da base dada: 
1 0 0
1 0 0
1 1 0
1 1 1
A
 
 
 =  
 
 
. Agora, va-
mos achar uma reflexão de Householder que reflita o primeiro 
vetor da base dada na direção do primeiro vetor canônico do 
4ℜ . Vamos escolher, entre as duas normais possíveis, a normal 
(1,1,1,1) (1,1,1,1) (1,0,0,0) (3,1,1,1)n = + = . A reflexão de Househol-
der correspondente a essa normal é a seguinte:
26
1 1 1 1
2 2 2 2
51 1 1
2 6 6 6
2 51 1 1
2 6 6 6
51 1 1
2 6 6 6
2 2
12 6
T T Tn n nn nnH I I I
n
− − − − 
 − − − = − = − = − =  − − −
 − − − 
.
Logo, 
1
2
1 1
3 6
2 1
3 6
52
3 6
2 1
0
0
0
HA
− − − 
 − − =  −
 
 
. Agora, vamos achar uma re-
flexão de Householder que reflita o vetor 1 2 23 3 3( , , )− na di-
reção do primeiro vetor canônico do 3ℜ . Vamos escolher 
1 2 2 1 2 2 2 2 2
3 3 3 3 3 3 3 3 31 ( , , ) ( , , ) (1,0,0) ( , , )n = − + − = . A reflexão de 
Householder correspondente a essa normal é dada por:
1 2 2
3 3 3
1 1 1 1 1 1 2 1 2
3 3 31 2 4
31 2 2 1
3 3 3
2 2 3
2
T T Tn n n n n nH I I I
n
− − 
 = − = − = − = − −  − − 
     


.
Considere a matriz 
1 2 2
3 3 3
1 2 1 2
3 3 3
2 2 1
3 3 3
1 0 0 0
0
0
0
H
 
 − − =  − −
 − − 
, então 
1
2
1 2 2 1 1
3 3 3 3 6
1 2 1 2 2 1
3 3 3 3 6
52 2 1 2
3 3 3 3 6
1 0 0 0 2 1
0 0
0 0
0 0
H HA
− − −   
   − − − −   =    − − −
   − −   
, ou seja,
1
2
1
2
1 1
2
1
2
2 1
0 1
0 0
0 0
H HA
− − − 
 − − =  −
 
 
. Finalmente, vamos achar uma re-
flexão de Householder que reflita o vetor 1 12 2( , )− na di-
reção do primeiro vetor canônico do 2ℜ . Vamos tomar 
21 1 1 1 1 1
2 2 2 2 2 2 22 ( , ) ( , ) (1,0) ( , )n = − + − = − . A reflexão de Hou-
seholder correspondente a essa normal é dada por:
2 2
2 22 2 2 2
2 2 2 2
2 22
2 4
2 2
T Tn n n nH I I
n
 −= − = − =  − −−  
   


.
27
Considere a matriz 2 2 2
2 2
2 2
2 2
1 0 0 0
0 1 0 0
0 0
0 0
H
 
 
 =  −
 − − 
. Assim, 
11 22
11 22
2 1 2 2 1
2 2 2
2 2 1
2 2 2
2 11 0 0 0 2 1
0 10 1 0 0 0 1
0 0 0 0 0 0 2
0 0 0 0 0 0 0
H H HA
− − − − − −   
     − −− −     = =     − − −      − −     
Logo, 
1 121 12 22 2 2
1 121 12 22 2 2
1 2 21 1
2 2 2
21 1
2 2 2
2 1 2 10
0 1 0 10
00 0 2 0 0 2
00 0 0 0 0 0
A HH H
− − − − − −    − −
    − − − −−    = = =    − −− −       − − −    
1 1
2 2 1
21 1
2 2 1
221 1
2 2 2
21 1
2 2 2
0
2 1
0
0 1
0 0 2
QR
−   − − − −   = − − =  − −    − − − − 
,
e, assim, as colunas de Q , que são ortonormais e geram o mesmo 
espaço que as colunas de A , formam uma base ortonormal para 
[ (1,1,1,1), (0,0,1,1), (0,0,0,1) ] . 
Esse método — método de Householder — é muito eficiente para calcular, computa-
cionalmente, uma base ortonormal para um 
subespaço vetorial do , no sentido em que 
o método gera vetores quase ortogonais em 
aritmética de ponto flutuante, ao contrário do 
método de Gram-Schmidt, cujo resultado é 
um conjunto de vetores não ortogonais. Quem 
conhece sistemas interativos como OCTAVE, 
SCILAB e MATLAB (os dois primeiros são de 
domínio público) pode verificar isso fazendo 
testes com matrizes, por exemplo, da galeria de 
matrizes incorporadas a esses sistemas.
28
Exercício 9: Ache as duas reflexões de Householder que satisfa-
zem o que é pedido em cada item a seguir:
Que transformem o vetor i) (2,1, 2) em um vetor na direção do 
vetor (1,0,0) ;
Que transformem o vetor ii) (2,1, 2) em um vetor na direção do 
vetor (1,1,1) ;
iii) Que transformem o vetor (2,1, 2) em um vetor na direção 
do vetor (1, 2, 2) ;
iv) Que transformem o vetor (2,1, 2) em um vetor na direção 
do vetor (0,0,1) .
1.8 Matriz de um produto interno 
em relação a uma base
Seja V um espaço vetorial real de dimensão finita n , munido de 
um produto interno , :V V× →ℜ . Seja 1{ ,..., }nv v = uma base 
de V . Considere v e w , dois vetores de V : 1 1 n nv a v a v= + + , 
1 1 n nw b v b v= + + . Assim, 
, 1
, ,
n
T
i j i j
i j
v w a b v v b G a
=
= =∑ , em 
que G é a matriz de Gram, definida por , ,ij i j j iG v v v v= = , 
1( ) ( )
T
nb b b w = = e 1( ) ( )
T
na a a v = = . 
Definição: A matriz G é a matriz do produto interno em relação 
à base  .
Exercício 10: Achar a matriz de cada produto interno listado a 
seguir, em relação à base dada:
2V =ℜi) , munido do produto interno usual, 1 2{ , }v v = , em 
que 1 (1,1)v = , 2 (1, 2)v = ;
2V =ℜii) , munido do produto interno 
1 1 2 1 1 2 2 2, 4u v x y x y x y x y= + + + , em que 1 2( , )u x x= , 
1 2( , )v y y= , 1 2{ , }v v = , onde 1 (1,1)v = , 2 (1, 2)v = ;
iii) 3V =ℜ , munido do produto interno usual, 1 2 3{ , , }v v v = , 
em que 1 (1,1,1)v = , 2 (1, 2,1)v = , 3 (1, 2, 2)v = ;
iv) 
4V =ℜ , munido do produto interno usual, 1 2 3 4{ , , , }v v v v = , 
em que 1 (1,1,1,1)v = , 2 (1,0,0,1)v = , 3 (1, 2,0, 2)v = , 4 (3, 2,0, 2)v = ;
29
v) V é o espaço das funções polinomiais de grau menor ou igual 
a três, munido do produto interno usual, 1 2 3 4{ , , , }v v v v = , 
em que 1( ) 1v x = , 2 ( )v x x= , 
2
3 ( )v x x= , 
3
4 ( )v x x= .
Fechamos este capítulo fazendo-nos a seguinte pergunta: se, 
dada uma base, um produto interno fica determinado a partir de 
uma matriz, que propriedades essa matriz deve satisfazer? Uma 
resposta parcial é: a matriz deve ser simétrica e inversível. No en-
tanto só isso não basta, porque a matriz 
1
2
1
2
1
1
A  =  
 
 é simétrica, é 
inversível e não é matriz de nenhum produto interno, não importa 
que base nós tomamos. Por exemplo: digamos que 2V =ℜ e que 
tomamos uma base 1 2{ , }v v = . Seja 1 2v v v= − . Assim, 
1
( )
1
v 
 =  − 
 
e, logo, 
1
2
1
2
1 1
, (1 1) 1
1 1
v v    = − = −   −   
. Pela definição de pro-
duto interno, porém, , 0v v ≥ . Dessa maneira, a resposta com-
pleta é: uma matriz A é matriz de um produto interno em relação 
a uma base se, e somente se, a matriz A é simétrica e satisfaz a 
desigualdade 0Tx Ax > para todo vetor coluna x , 0x ≠ . 
Se A é uma matriz simétrica tal que, para todo vetor coluna x , 0x ≠ , 
0Tx Ax > , então A é dita uma matriz simétrica definida positiva.
Note que, pela definição, uma matriz A simétrica definida positi-
va tem as seguintes propriedades:
As entradas diagonais de •	 A são estritamente positivas pois, 
se o vetor coluna (0 0 1 0 0)Tke =   é tal que a k-
ésima entrada é 1, 0Tkk k ka e Ae= > ;
As submatrizes principais •	 (1: ,1: )A k k , formadas pelas en-
tradas pertencentes simultaneamenteàs k primeiras linhas 
e colunas de A , são também matrizes simétricas definidas 
positivas (demonstre);
A•	 é inversível (demonstre).
Exercício 11: Verifique se as matrizes abaixo são simétricas defi-
nidas positivas.
a)
 
1 1
1 1
A  =  
 
; b) 
5 1
1 1
A
− =  − − 
; c) 
2 1
1 1
A  =  
 
;
30
d) 
2 1
1 1
A
− =  − 
; e) 
2 2
2 1
A  =  
 
; f) 
4 2
2 1
A  =  
 
;
g) 
4 1
1 0
A  =  
 
; h) 
1 0
0 1
A  =  
 
.
Resumo
Neste capítulo vimos a definição de produto interno em um espaço 
vetorial real V. Concluímos que, dados um produto interno , em 
V e uma base  , existe uma única matriz simétrica real A tal que, 
quaisquer que sejam os vetores v e w de V, , ( ) ( )Tv w w A v = . 
Essa matriz é inversível e é dita uma matriz de Gram. Definimos, 
ainda, o ângulo entre dois vetores e vimos que dois vetores são 
ortogonais em relação a um produto interno se o produto interno 
entre eles é zero.
Em seguida, apresentamos um procedimento que ortogonaliza 
uma base de um espaço vetorial real de dimensão finita, ou seja, 
que resulta em um conjunto l. i. de geradores do espaço que se-
jam ortogonais dois a dois. Definimos, depois, um conjunto de 
matrizes ditas ortogonais, que são matrizes associadas a opera-
dores lineares, definidos em espaços vetoriais reais com produto 
interno, que preservam ângulos entre vetores (ex.: as reflexões de 
Householder).
Por fim, terminamos o capítulo dando uma caracterização às ma-
trizes de um produto interno em relação a uma base — matrizes 
simétricas definidas positivas.
31
Bibliografia Comentada
HOFFMAN, Kenneth; KUNZE, Ray. Álgebra Linear. São Paulo: 
Polígono, 1970.
Lício H. Bezerra: esse livro é um dos meus livros prediletos de 
Álgebra Linear. Infelizmente, ele está esgotado. Foi lançada uma 
segunda edição desse livro no Brasil, com muitas alterações, mas 
prefiro a primeira edição. Procure-no em sebos e compre-o. O 
tratamento é rigoroso e as provas são elaboradas. Contém muitos 
exercícios, alguns não muito fáceis de resolver.
LIMA, Elon L. Álgebra Linear. 3ª ed. Rio de Janeiro: SBM, 1998.
Há edições mais recentes desse livro, que apresenta a Álgebra 
Linear de forma clássica, como o livro de Hoffman e Kunze (1970). 
Recomendo esse livro para uma biblioteca de Matemática. Tem 
muitos exercícios.
ANTON, Howard; RORRES, Chris. Álgebra Linear com Aplicações. 8ª 
ed. Porto Alegre: Bookman, 2001.
Esse é um livro moderno com tratamento clássico. É um livro 
muito bom para você, leitor que deseja se inserir no mundo 
tecnológico, pois apresenta várias aplicações interessantes da 
Álgebra Linear: digitalização de imagens, programação linear etc.
2 Autovalores e Autovetores 
de um Operador Linear 
35
2 Autovalores e Autovetores de 
um Operador Linear 
Lembramos que um operador linear é uma transformação 
linear :T V V→ , em que V é um espaço vetorial sobre 
um corpo K . Se V é de dimensão n e  é uma base de 
V , então existe uma matriz [ ]T  associada a T com a 
propriedade de que todas as informações sobre T podem 
ser obtidas a partir de cálculos sobre [ ]T  . Neste capítulo 
introduziremos o conceito de autovalores e autovetores de 
operadores lineares, mostrando que a extração de infor-
mações de T pode ser simplificada significativamente des-
de que T admita uma base de autovetores, em cujo caso a 
matriz associada [ ]T  é diagonal. No decorrer do capítulo 
assumiremos que V é um espaço vetorial real, a menos 
quando explicitamente dito em contrário.
2.1 Autovalores e autovetores
Em muitas situações práticas de ciências puras e aplicadas, dado 
um operador linear :T V V→ , deparamo-nos com o problema de 
encontrar vetores não-nulos v tais que o vetor transformado ( )T v 
seja múltiplo de v . Esse é o problema de autovalores, um tópico mui-
to importante da Álgebra Linear. O termo autovalor provém do 
adjetivo germânico eigen, que significa “próprio” ou “característico 
de”. Do ponto de vista teórico, autovalores e autovetores concen-
tram informações sobre a natureza do operador e tornam-se im-
portantes porque nos mostram como o operador funciona.
Definição: Um número real  é um autovalor ou valor próprio do 
operador linear :T V V→ se existe um vetor não-nulo v V∈ tal 
que ( )T v v= . O vetor v é chamado de autovetor ou vetor próprio 
de T associado a  . O conjunto V formado por todos os autove-
tores de T associados a um autovalor  e pelo vetor nulo é um 
subespaço vetorial de V chamado subespaço próprio ou autoespaço 
associado a  .
36
A partir daí, algumas perguntas que surgem de maneira natu-
ral são: quantos autovetores podemos associar a um autovalor? 
Quantos autovalores podemos encontrar? O que podemos fazer 
para encontrar autovalores e autovetores? Com o intuito de res-
ponder a essas e outras perguntas que aparecerão no decorrer do 
capítulo, começamos com a observação de que se v é um auto-
vetor de T associado a  , então o mesmo acontece com v para 
qualquer escalar arbitrário não-nulo  , já que 
( ) ( ) ( ).T v v T v v   = ⇔ =
Ou seja, qualquer múltiplo escalar de v também V é um autove-
tor de T associado a  . 
Para ilustrarmos como achar autovalores e autovetores correspon-
dentes apresentamos alguns exemplos a seguir. 
Exemplo 1: Seja 2 2:T ℜ →ℜ , ( , ) (2 , 3 )T x y x x y= + . Para pro-
curar autovalores e autovetores de T resolvemos a equação 
( , ) ( , )T x y x y= ou (pela definição de T ) (2 , 3 ) ( , )x x y x y+ = . 
Igualando componentes obtemos o sistema de equações:
2
3
x x
x y y


=
 + =
Note que y não pode ser zero, caso contrário obteríamos 0x = e 
daí (x,y) = (0,0) (ou seja, o vetor nulo (0,0)v = ), o que não pode 
acontecer pela definição de autovetor. Agora podemos considerar 
dois casos: 0x ≠ e 0x = . Se 0x ≠ , da primeira equação obtemos 
2 = , e, com esse valor na segunda equação, x y= - . Assim, 2 = 
é um autovalor de T e ( , ) (1, 1)v x x x= - = - , 0x ≠ , é um autove-
tor correspondente. Nesse caso, o subespaço próprio associado a 
2 = é =2V { (1, 1) / } [(1, 1)]x x = - ∈ℜ = - ou, em palavras, =2V é o 
subespaço de 2ℜ gerado pelo autovetor (1, 1)v = - que é a reta no 
plano que contém v .
Se 0x = , da segunda equação segue que 3 = e y pode ser 
arbitrário (não-nulo). Portanto, 3 = é outro autovalor de T , 
(0, ) (0,1)v y y= = é um autovetor associado, e 3 [(0,1)]V= = , que 
é a reta que passa pela origem e é perpendicular ao eixo Y , é o 
subespaço próprio associado.
37
O efeito de um operador linear é determinado facilmente e sim-
ples de se interpretar geometricamente em 2ℜ . Como ilustração, 
considere o operador T do exemplo 1 e os vetores ( 1,1)v = - , e 
(1,0)u = . Dessa forma, ( ) ( 2, 2) 2( 1,1)T v = - = - , isto é, v é trans-
formado em um múltiplo de si mesmo, pois v é um autovetor de 
T associado ao autovalor 2 = (ver figura 3 a seguir). O efeito do 
operador sobre u é ( ) (2,1)T u = . Obviamente, u não é autovetor 
do operador, pois ( )T u não é múltiplo de u . 
y
xx
v
u
xx
yT (v) = 2v
T (u)
T
Figura 2.1 - Efeito de um operador linear
Observação: Embora o efeito de um operador em 2ℜ seja simples 
de se calcular, a situação pode ser bem diferente quando a di-
mensão do espaço é elevada. No entanto, se v é uma combinação 
de autovetores 1, , pv v de T , por exemplo, 1 1 p pv v v = + + , e 
se ambos j e jv são disponíveis, o efeito de T sobre v pode 
ser calculado facilmente. De fato, como T é linear, segue que 
1 1( ) ( ) ( )p pT v T v T v = + + e, assim, o efeito do operador pode 
ser calculado como 1 1 1( ) p p pT v v v   = + + , um fato muito 
explorado em aplicações da álgebra linearna resolução de proble-
mas práticos.
Um ponto importante a ser enfatizado é que não é raro encontrar 
operadores lineares que não possuam autovalores. Ilustramos 
isso com o exemplo 2 a seguir:
38
Exemplo 2: Seja 2 2:T ℜ →ℜ , ( , ) ( , )T x y y x= - . Se  é um au-
tovalor de T e ( , )v a b= é um autovetor correspondente, então 
( )T v v= ( , ) ( , )b a a b⇔ - = . Daí segue que 2 1 0 + = , o que é im-
possível em ℜ . Ou seja, como não existe  real tal que ( )T v v= , 
concluímos que o operador T não tem nem autovalores nem auto-
vetores. Outro operador 2 2:T ℜ →ℜ que não possui autovalores é 
aquele que produz rotações no plano, veja a lista de exercícios ao 
final deste capítulo. 
A existência de autovalores de um operador linear não depende 
da dimensão do espaço. Veja o exemplo a seguir.
Exemplo 3: Seja ( )V C= ℜ o espaço das funções contínuas em ℜ . 
Sabemos que V é um espaço vetorial real de dimensão infinita. 
Seja :T V V→ o operador linear definido por | 0( ) ( )
t
tT f f x dx= ∫ . 
Afirmamos que o operador T não possui nenhum autovalor. De 
fato, vamos supor que ∈ℜ é um autovalor de T . Então exis-
te 0f ≠ tal que Tf f= . Isto é, 
0
( ) ( )
t
f t f x dx = ∫ . Agora, já que 
pelo primeiro teorema fundamental do cálculo temos 'f f = , 
segue que 0 ≠ , pois 0f ≠ . Por outro lado, note que a equação 
diferencial 1'f f= tem solução ( )
ctf t e= com 1/c = . Substi-
tuindo essa solução na equação autovalor-autovetor segue que 
0
tct cx cte e dx e  = = -∫ , e assim 0 = , o que contradiz o fato de 
ser 0 ≠ . Logo, fica demonstrado que o operador T não tem au-
tovalores.
Sabemos que toda matriz real A n n× define um operador linear 
1 1: nx nxAT ℜ →ℜ dado por ( )AT v Av= . Note que aqui v denota um 
vetor coluna em 1nxℜ e que a imagem do operador é calculada via 
produto matriz vetor. Assim, os autovalores e autovetores de A 
são, por definição, os autovalores e autovetores do operador AT . 
Logo,  é um autovalor de A se existe um vetor não-nulo v em 
1nxℜ tal que Av v= . Portanto, podemos concluir que:
 é um autovalor de A ⇔ a equação (A - I) x = 0 
em solução não-trivial.
39
Observe que, nessa equação, I denota a matriz identidade n n× .
No entanto, já que o sistema homogêneo ( ) 0A I x- = tem solu-
ção não-trivial se e somente se A I- é uma matriz singular, ou 
equivalentemente, se e somente se det ( ) 0A I- = , temos que:
Os autovalores da matriz são as raízes da equação a) 
det ( ) 0A I- =
chamada equação característica, e ( ) det ( )p A I = - é um po-
linômio em  de grau n chamado polinômio característico de 
A . Para ver que ( )p  é um polinômio de grau n , basta ob-
servar que avaliando o determinante 
11 1
1
( ) det ( ) det
n
n nn
a a
p A I
a a

 

- 
 = - =   - 

 

obtemos 11( ) ( ) ( )nnp a a  = - - + termos de grau menor 
que n. Isso mostra que o polinômio característico de A é 
de grau n . 
É importante observar que, se A é uma matriz real n n× , 
então ( )p  tem coeficientes reais e, portanto, todas as suas 
raízes complexas vêm em pares conjugados. Assim, se 
a ib = + é raiz de ( )p  , seu complexo conjugado a ib = - 
( 1i = - ) também é raiz de ( )p  . Formalmente, as raízes 
complexas de ( )p  são autovalores complexos da matriz 
A interpretada como operador 1 1: ,n nAT
× ×→  dado por 
( )AT x Ax= , 
1nx ×∈ . Dessa forma, se 1 2, , , n   são os au-
tovalores de A (reais ou complexos), então o polinômio ca-
racterístico ( )p  pode ser escrito como
1 2( ) ( ) ( ) ( )np       = - - - .
Considerando agora que ( ) det ( )p A I = - e tomando 0 = 
nessa equação, segue que
1 2 (0) det ( )n p A   = = .
Outra conclusão imediata, que provém de comparar o coefi-
ciente de ( 1n -- ) da expressão, que resulta de avaliar o deter-
minante det ( )A I- , com o coeficiente de ( 1n -- ) que aparece 
após desenvolver os produtos 1 2( ) ( ) ( )n     - - - , é que
40
1 1
n n
j jj
j j
a
= =
=∑ ∑ .
A soma dos elementos da diagonal principal de uma ma-
triz quadrada A é chamada de traço de A e é denotada por 
( )tr A .
Para cada autovalor b)  , os autovetores associados são solu-
ções não-triviais do sistema homogêneo
( ) 0.A I x- =
Observação: Uma dificuldade de ordem prática no cálculo de au-
tovalores para matrizes n n× , 4n > , é que equações polinomiais 
de grau maior que 4 não são solúveis por radicais, ou seja, essas 
equações não podem ser solucionadas usando fórmulas análogas 
àquelas usadas para equações de segundo ou terceiro graus. Por 
isso, na prática, o cálculo de autovalores é feito computacional-
mente através de métodos iterativos. Métodos iterativos que usam 
transformações ortogonais são implementados em muitos siste-
mas interativos como MATLAB, SCILAB, OCTAVE, MAPLE etc. 
Os exemplos a seguir ilustram o procedimento para encontrar au-
tovalores e autovetores associados.
Exemplo 4: Considerando a matriz 
3 2
1 0
A
- =  
 
, a equação carac-
terística é:
3 2
det ( ) 0 (3 ) (0 ) 1( 2) 0.
1 0
A I

  

- -
- = = ⇔ - - - - =
-
Daí vemos que os autovalores da matriz A são raízes da equa-
ção 2 3 2 0 - + = : 1 2 = , e 2 1. = Para encontrar os autovetores 
associados a 1 2 = , devemos encontrar soluções não-triviais do 
sistema homogêneo 1( ) 0A I x- = :
1 1
1 2
3 2 0
1 0 0
x
x


 - -   =    -    
.
Esse sistema reduz-se à expressão 1 22 0x x- = , da qual vemos que 
todas as soluções não-triviais desse sistema, ou seus autovetores 
associados a 1 2 = , são da forma 
2
1
x 
 =  

, em que  é qualquer 
41
escalar não-nulo. Procedendo analogamente, podemos verificar 
que os autovetores associados com 2 1 = são da forma 
1
0
x 
 =  

, 
 sendo qualquer escalar não-nulo.
Exemplo 5: Neste exemplo consideramos a matriz
3 1 0
1 2 1
0 1 3
A
 - 
 = - - 
 - 
.
Para esta matriz, a equação característica é:
3 2
3 1 0
det ( ) 1 2 1 0 8 19 12 0
0 1 3
A I

    

- -
- = - - - = ⇔ - + - + =
- -
.
As raízes da equação característica fornecem os autovalores 1 1 = , 
2 3 = , 3 4 = . Para encontrar o autovetor associado a 1 1 = , re-
solvemos o sistema homogêneo 1( ) 0A I x- = , que nesse caso tem 
a forma
1 1 2
1 1 2 3
2 1 3
(3 ) 0
(2 ) 0
(3 ) 0
x x
x x x
x x



- - =
- + - - =
 - + - =
Escalonando, obtemos o sistema equivalente
1 2 3
2 3
0
2 0
x x x
x x
- + =
 - =
que possui grau de liberdade 1 (ou seja, há uma variável livre). 
Tomando x 3 como variável livre, o autovetor associado a 1 1 = 
tem a forma 
3
3 3
3
1
2 2
3
x
x x x
x
  
  = =  
   
, para x 3 não-nulo e arbitrário. Pro-
cedendo analogamente, para 2 3 = temos que o autovetor asso-
ciado é 
1
0
1
x 
 
 =  
 - 
, sendo  não-nulo, enquanto que para 3 4 = 
o autovetor é 
1
1
1
x 
 
 = - 
  
, para  não-nulo arbitrário.
42
Para cada matriz A n n× , as seguintes propriedades podem ser 
provadas (consulte Noble e Daniel (1998)):
Existe pelo menos um autovetor associado com cada auto-1) 
valor de A .
Se 2) 1{ , , }s  é um conjunto de autovalores distintos e se 
1{ , , }sp p é um conjunto de autovetores associados, então 
1{ , , }sp p é linearmente independente. Conseqüentemente, 
se A tem n autovalores distintos, então existe um conjunto 
linearmente independente de n autovetores e a matriz A 
pode ser decomposta como
1A P P-= Λ ,
em que 1[ , , ]nP p p=  é uma matriz n n× cujas colunas ip 
são autovetoresde A associados aos autovalores i , e Λ
é uma matriz diagonal com os autovalores i na diagonal 
principal. Diferentes maneiras de ordenar os autovetores na 
matriz P levam a diferentes decomposições da matriz A 
e, assim, a decomposição acima não pode ser única. Reci-
procamente, se existe alguma matriz P , não-singular, e a 
decomposição acima vale com Λ diagonal, então as colunas 
de P são autovetores de A associados respectivamente aos 
autovalores i , em que i é a i-ésima entrada da diagonal 
principal de Λ .
Se existe uma matriz P não-singular tal que 1B P AP-= , então 
2 1 1 1 2B P APP AP P A P- - -= = ,
3 2 1 1 2 1 3B BB P APP A P P A P- - -= = = ,

1 1k k kB BB P A P- -= = , 1k ≥ .
Quando A é não-singular, o mesmo ocorre com B , e a proprieda-
de acima vale para qualquer inteiro negativo k . Se, em particu-
lar, B é diagonal (ex.: B = Λ ), então 1k kA P P-= Λ , e o cálculo da 
k -ésima potência de A requer apenas o cálculo das k -ésimas 
potências dos elementos diagonais de Λ . 
43
Definição: Uma matriz quadrada B é dita semelhante a uma ma-
triz A se existe uma matriz não-singular P tal que 1B P AP-= . 
Se B é semelhante a A , é dito que B é obtida de A por meio de 
uma transformação de semelhança.
É imediato observar que matrizes semelhantes têm o mesmo po-
linômio característico, e que a noção de semelhança define uma 
relação de equivalência no conjunto das matrizes quadradas no sen-
tido em que: 
Aa) é semelhante consigo mesma;
Se b) B é semelhante a A , então A é semelhante a B ; e
Se c) C é semelhante a B e B é semelhante a A , então C é se-
melhante a A .
A primeira parte da afirmação será vista no contexto geral de 
operadores lineares; a segunda parte é simples de se demonstrar 
e fica como um exercício para você, leitor.
Se observarmos os autovalores e autovetores correspondentes do 
exemplo 5, na notação do item 2, a matriz A pode ser decompos-
ta como 1A P P-= Λ , com:
1
2
3
0 0 1 0 0
0 0 0 3 0
0 0 0 0 4



   
   Λ = =          
, 1 2 3
1 1 1
[ , , ] 2 0 1
3 1 1
P p p p
 
 = = -  - 
.
Também, como 2 2 1,A P P-= Λ 3 3 1A P P-= Λ etc, obviamente a ma-
triz kA é semelhante a kΛ .
O exemplo 6 a seguir mostra que, no caso de aparecerem autova-
lores repetidos, podem existir autovetores linearmente indepen-
dentes associados ao mesmo autovalor. 
Exemplo 6: Considere agora a matriz 
4 1 6
2 1 6
2 1 8
A
- 
 =  
 - 
.
44
Procedendo como antes podemos ver que a equação característica 
para essa matriz é
3 213 40 36 0  - + - = 
e que os autovalores são 1 2 2 = = e 3 9 = . Agora procuraremos 
o(s) autovetor(es) associados ao autovalor repetido. A equação ho-
mogênea tem a forma
1 1 2 3
1 1 2 3
1 2 1 3
(4 ) 6 0
2 (1 ) 6 0
2 (8 ) 0
x x x
x x x
x x x



- - + =
 + - + =
 - + - = 
.
Após escalonamento, o sistema reduz-se à expressão
1 2 32 6 0x x x- + = .
Daí decorre que o sistema tem dois graus de liberdade (duas va-
riáveis livres). Sendo assim, o conjunto de soluções não-triviais 
pode ser escrito como
1
2 2 3
3
1/ 2 3
1 0
0 1
x
x x x x
x
-     
     = = +     
          
 , 
sendo 2x e 3x arbitrários, e ao menos um deles não-nulo. Assim, 
para o autovalor repetido (duas vezes) 2 = podemos associar 
um autovetor x que resulta de uma combinação linear de dois 
vetores linearmente independentes:
1 [1/ 2 1 0 ]
Tv = , 2 [ 3 0 1]
Tv = - .
Esses por sua vez também são autovetores associados ao mesmo 
autovalor. É possível explicar tal afirmação devido ao fato de que, 
para o autovalor repetido 2 = , podemos associar dois autoveto-
res linearmente independentes. 
Como já sabemos achar os autovalores e autovetores de uma ma-
triz, vamos estudar agora como encontrar os autovalores de um 
operador linear qualquer definido num espaço vetorial real de 
dimensão finita. A chave do assunto vem na proposição a seguir.
Proposição: Seja 1{ , , }nv v =  uma base de um espaço vetorial 
real V e :T V V→ um operador linear, então T e a matriz de T 
na base  , [ ]T  , têm os mesmos autovalores.
45
Prova: Sabemos que para cada v V∈ existem números reais jx tais 
que 1 1 n nv x v x v= + + . Sabemos também que, se 1[ ]
T
v nx x x=  , 
então existe um isomorfismo 1: nxV →ℜ definido por ( ) vv x = 
e que ( ( )) [ ] vT v T x = . Logo, se  é um autovalor de T e v 
um autovetor associado, usando a notação acima e o isomorfis-
mo  segue que [ ] ( ( )) ( )v vT x T v v x    = = = . Daí vemos 
que  é autovalor de [ ]T  e vx um autovetor corresponden-
te, pois vx é não-nulo. Reciprocamente, se  é um autovalor 
de [ ]T  e 
1nxx∈ℜ um autovetor associado, via isomorfismo  
podemos encontrar um único v V∈ tal que ( )v x = . Logo, 
( ( )) [ ] ( ) ( )T v T x x v v     = = = = . Isto é, ( ( )) ( )T v v  = , 
e assim ( )T v v= , pois  é um isomorfismo. 
2.2 Polinômio característico e 
Polinômio minimal
Embora da proposição anterior fique claro que  é autovalor de 
T ⇔  é uma raiz do polinômio característico ( )p  da matriz 
[ ]T  , poderíamos nos perguntar se ( )p  depende da base  es-
colhida. O aspecto fundamental em relação a esse ponto é que o 
polinômio em questão independe da escolha da base. Para ver 
isto, vamos considerar duas bases  e ' e lembrar que existe 
uma matriz inversível P tal que 1 '[ ] [ ]T P T P 
-= (ou seja, [ ]T  é 
semelhante a '[ ]T  ). Logo, usando o fato de que 
1det ( ) det ( ) 1P P- = 
(esse resultado será mostrado no capítulo seguinte), obtemos
1 1
'det ([ ] ) det ( ) det ([ ] ) det ( ) det ( [ ] ) det ([ ] )T I P T I P P T P I T I      - -- = - = - = -
1 1
'det ([ ] ) det ( ) det ([ ] ) det ( ) det ( [ ] ) det ([ ] )T I P T I P P T P I T I      - -- = - = - = - .
Isso mostra que as matrizes [ ]T  e 'T têm o mesmo polinômio 
característico. No que diz respeito aos autovetores, temos a equi-
valência
[ ] v vTv v T x x = ⇔ = ,
em que 1nxvx ∈ℜ é o vetor de coordenadas do autovetor v de T na 
base  . A discussão acima justifica a definição a seguir.
Definição: Seja  uma base de um espaço vetorial V de dimen-
são finita. O polinômio característico de um operador linear 
:T V V→ é o polinômio característico da matriz [ ]T  . 
46
Vejamos agora alguns exemplos que ilustram características as-
sociadas a autovalores e autovetores de operadores lineares ainda 
não observadas nos exemplos anteriores.
Exemplo 7: Seja V o espaço das funções polinomiais de grau me-
nor ou igual a 1 e considere a base 1 2{ , } {1 ,4 }v v x x = = + + . Seja 
o operador linear definido por 1( ) 5 2T v x= + , e 2( ) 2(4 )T v x= - + . 
Assim, já que 1 1 2( )T v v v= + e 2 2( ) 2T v v= - (verifique!), segue que 
a matriz de T na base  é 
1 0
[ ]
1 2
T 
 =  - 
, portanto o polinômio 
característico de T é ( ) det ([ ] ) (1 ) ( 2 )p T I   = - = - - - e os au-
tovalores são 1 1 = e 2 2 = - . A partir daí observamos facilmente 
que o autovetor de [ ]T  associado a 1 1 = é [3 ]Tx b b= , com b 
real não-nulo e arbitrário. Usando o fato de que as componentes 
do autovetor x são os coeficientes do autovetor de T expresso 
como combinação linear dos vetores da base  , o autovetor de T 
associado a 1 1 = é 1 23 (3(1 ) (4 )) (7 4 )v bv bv b x x b x= + = + + + = + , 
com b não-nulo e arbitrário. Procedendo analogamente verifica-
se que o autovetor de [ ]T  associado a 2 2 = - é [0 ] tAx b= , com 
b real não-nulo e arbitrário. Assim, o autovetor de T associado a 
2 2 = - é 1 2 20x v bv bv= + = , b não-nulo, ou seja, o vetor 2v é um 
autovetor do operador associado ao autovalor2 2 = - .
Exemplo 8: Suponha no exemplo anterior que, em lugar de 
2( ) 2(4 )T v x= - + , o operador T satisfaz 2( ) (4 )T v x= + . Proceden-
do da maneira usual, a matriz de T na base  é 
1 0
[ ]
1 1
T 
 =  
 
. 
Logo, o polinômio característico é 2( ) ( 1)p  = - e os autovalores 
são 1 2 1 = = . Ou seja, o operador tem dois autovalores repeti-
dos. Busquemos agora os autovetores associados. Seja [ ]Tx a b= 
o autovetor procurado. Logo,
1
1
1
(1 ) 0 0
([ ] ) 0
1 (1 ) 0
a b
T x
a b



- + =- = ⇔  + - =
e esse sistema se reduz à expressão 0a = . Dessa forma, o au-
tovetor associado a 1 2 1 = = é [0 ]Tx b= , em que b é real e 
não-nulo, e assim o autovetor de T associado a 1 2 1 = = é 
1 20 (4 )v v bv b x= + = + . Note que, diferentemente do exemplo an-
47
terior, aqui vemos que o operador T não possui mais que um 
autovetor linearmente independente. 
A conclusão que podemos tirar do exemplo acima é que o nú-
mero de autovetores linearmente independentes associados a um 
autovalor repetido nem sempre coincide com a multiplicidade do 
autovalor como raiz da equação característica. Esses fatos moti-
vam as definições a seguir.
Definição: A multiplicidade algébrica de um autovalor  é o 
número de vezes que ele aparece como raiz do polinômio carac-
terístico; se  aparece somente uma vez, ou seja, se sua multipli-
cidade algébrica for um, então dizemos que  é um autovalor 
simples. A multiplicidade geométrica de  é a dimensão de V , 
o subespaço próprio associado.
Baseados nessa definição podemos concluir que a multiplicidade 
algébrica e a multiplicidade geométrica de 1 = no exemplo 7 são 
iguais a 1. No entanto, se considerarmos o exemplo 8, enquanto a 
multiplicidade algébrica de 1 = é 2, a sua multiplicidade geométri-
ca é 1, pois a dimensão do subespaço próprio 1V= associado é 1.
Como uma constatação do que foi visto no exemplo anterior, é im-
portante observar que a multiplicidade geométrica de um autova-
lor não pode exceder sua multiplicidade algébrica (ver Boldrini et 
al, 1996). 
Seja V um espaço vetorial real de dimensão n e ( , )T L V V∈ . 
Sabemos que ( , )L V V é um espaço vetorial de dimensão 2m n= . 
Uma conseqüência desse fato é que o conjunto de 1m + vetores 
( 2, , , , mI T T T ) é linearmente dependente em ( , )L V V porque 
nesse espaço não podem existir mais que m vetores linearmente 
independentes (lembrar que 2T T T=  , 3 2T T T=  etc). Assim, 
existem constantes reais 0 1, , , ma a a não todas nulas tais que 
1 0 0
m
ma T a T a I+ + + = , 0 ( , )L V V∈ .
Isto é, o operador T satisfaz ( ) 0p T = , em que 
1 0( )
m
mp x a x a x a= + + + , e nesse caso dizemos que o polinômio 
p anula o operador. Lembramos que um polinômio ( )p x , cujo 
coeficiente da maior potência em x é 1, é chamado de polinômio 
48
mônico. Dentre vários polinômios que anulam o operador T , um 
deles recebe um nome especial, conforme veremos a seguir. 
Definição: Seja V um espaço vetorial real de dimensão finita. O 
polinômio minimal de um operador ( , )T L V V∈ , denotado por 
( )pm  , é o polinômio mônico de menor grau que anula T .
Exemplo 9: Vamos considerar a matriz 
1 1
0 1
A  =  
 
 e achar o polinô-
mio minimal associado. Com efeito, o polinômio característico de 
A é 2 2det ( ) 2 1 ( 1)A I   - = - + = - . Após algumas operações al-
gébricas, observamos que o polinômio característico de A anula a 
matriz A , isto é, a matriz A satisfaz 2 2 ( ) ( ) 0A A I A I A I- + = - - = 
(verifique!). Como 
0 1
0
0 0
A I  - = ≠ 
 
, porém, concluímos que o 
polinômio minimal é 2( ) 2 1pm   = - + .
Exemplo 10: Considere agora a matriz 
48 10 10
90 17 20
135 30 27
B
- - 
 = - -  - - 
. 
Nesse caso, pode-se ver que o polinômio característi-
co é 2( ) ( 2) ( 3)p   = - + - . Pode-se ver também que 
( 2 ) ( 3 ) 0B I B I+ - = , e que ( 2 ) 0B I+ ≠ , e ( 3 ) 0B I- ≠ (ve-
rifique!), portanto o polinômio minimal da matriz B é 
( ) ( 2) ( 3)pm   = + - .
Os exemplos acima sugerem dois fatos:
em geral, 1) ( ) ( )p pm ≠ ;
ambos os polinômios têm as mesmas raízes.2) 
Uma prova formal do item 2 é dada na proposição a seguir.
Proposição: Seja V um espaço vetorial de dimensão 1n ≥ e 
( , )T L V V∈ , então ( )p  e ( )pm  têm as mesmas raízes a menos 
de multiplicidades.
Prova: Sem perda de generalidade, vamos supor que todas as 
raízes do polinômio característico ( )p  são reais. Logo, se  é 
49
raiz de ( )p  , precisamos provar que ( ) 0 ( ) 0p pm = ⇔ = . 
Com efeito, se  é raiz de ( )p  , então  é um autovalor de 
T e, para algum vetor não-nulo v V∈ , temos ( )T v v= . Daí 
decorre que ( )k kT v v= para cada 1k ≥ . Agora, assuma que 
0 1( )
spm x b b x x= + + + . Como ( ) 0pm T = (lembrar a definição 
de polinômio minimal), segue que
0 10 ( ) ( )
spm T v b I bT T v= = + + +
0 1
sb v b v v = + + +
0 1( ) ( )
sb b v pm v  = + + + =
e por conseguinte ( ) 0pm  = , pois 0v ≠ . Logo,  é uma raiz 
de ( )pm  . Reciprocamente, se  é raiz de ( )pm x , pela con-
dição de minimalidade no grau do polinômio ( )pm x segue que 
( ) ( ) ( )pm x x q x= - com ( ) 0q T ≠ e, portanto, existe u V∈ tal 
que ( ) 0v q T u= ≠ . Usando novamente o fato de que ( ) 0pm T = , 
temos
0 ( ) ( ) ( ) ( )pm T v T I q T u T I v = = - = - ,
e, portanto, Tv v= . Isto é,  é um autovalor de T e, assim, 
( ) 0p  = , como queríamos provar.
Análogo ao exemplo 8, em que o polinômio característico da ma-
triz A anula a matriz A , pode-se verificar no exemplo 9 que o 
polinômio característico de B anula B . Esses não são resultados 
devido ao acaso. Eles são conseqüências de um resultado geral 
conhecido como teorema de Cayley-Hamilton. 
Proposição (Teorema de Cayley-Hamilton): Seja V um espaço 
vetorial de dimensão finita e ( , )T L V V∈ . Se ( )p  é o polinômio 
característico de T , então ( ) 0p T = .
Prova: Seja  uma base de V de dimensão n . Para simplificar 
a notação, escrevemos [ ]A T = . A prova está baseada na pro-
priedade
( ) det ( )Adj A A A I=
em que ( )Adj A é a adjunta clássica da matriz A . O conceito em 
questão será apresentado mais adiante. No momento, basta saber 
50
que os elementos de ( )Adj A são obtidos via cálculo do determi-
nante de certas submatrizes de A de ordem 1n - . Continuando a 
prova, seja ( )B Adj A I= - . Da observação acima, segue que os 
elementos ijb de B são polinômios em  de grau no máximo 1n - , 
isto é, para cada par ,i j , temos
(0) (1) ( 1) 1n n
ij ij ij ijb b b b - -= + + + .
Com essa notação a matriz B pode ser escrita como
1
0 1 1
n
nB B B B  --= + + + ,
em que ( ),( )
k
k i j ijB b= , 0 1k n≤ ≤ - . Usando a propriedade da ad-
junta clássica descrita acima, obtemos que
( ) det ( )B A I A I I - = - .
Agora, note que, enquanto o lado esquerdo dessa igualdade pode 
ser escrito como
1
0 1 0 1 2 1( ) ( )
n n
n n nB A B A B B A B B  -- - -+ - + + - - ,
o lado direito é o polinômio característico do operador T vezes 
a matriz identidade: 10 1 1( )
n n
n np I a I a I a I a I   --= + + + + . 
Comparando os coeficientes de ambos os polinômios obtemos o 
seguinte conjunto de igualdades:
0 0
1 1 0
2 2 1
1 1 2
1
( )
( )
( )n n n
n n
a I B A
a I B A B
a I B A B
a I B A B
a I B
- - -
-
=
 = -
 = -


 = -

= -

Multiplicando essas equações por 2, , , , nI A A A , respectivamen-
te, e somando, obtemos 
1
0 1 1( ) 0
n n
n np A a I a A a A a A
-
-= + + + + = ,
como queríamos provar.
Note que, devido ao teorema de Cayley-Hamilton, o polinômio 
característico é um candidato ao polinômio minimal.Mais adian-
te veremos que o polinômio minimal é importante, pois a partir 
da multiplicidade das raízes dele pode-se determinar se o opera-
dor linear possui uma base de autovetores. 
51
Exercícios
1) Mostre que o conjunto formado pelos autovetores de um ope-
rador linear :T V V→ associados a um autovalor  e o vetor nulo 
é um subespaço vetorial de V .
2) Para cada  , seja 2 2:R ℜ →ℜ o operador definido por 
( , ) ( cos , cos )R x y x y sen y x sen   = - + . Mostre que o opera-
dor R não tem nem autovalores nem autovetores.
3) Mostre que a matriz 1 2
3 2
A  =  
 
 é semelhante a 
4 0
0 1
 
 - 
.
4) Sejam 1 1
1 1
A  =  
 
 e 
1
1
a
B
a
 =  
 
. Ache uma matriz não-singu-
lar P tal que 1P AP- e 1P BP- são diagonais.
5) Seja 5 3
3 5
A  =  - 
. Mostre que A e TA têm um autovetor co-
mum.
6) Seja A uma matriz inversível e seja  um autovalor de A . 
Mostre que 1/  é um autovalor de 1A- .
7) No exemplo 7 vimos que os autovalores de uma matriz trian-
gular inferior 2 2× eram os elementos da diagonal principal. Ge-
neralize esse resultado para uma matriz triangular inferior L 
n n× , isto é, prove que os autovalores da matriz L são os elemen-
tos jjL da diagonal principal. Idem para matrizes triangulares 
superiores.
8) Uma matriz A n n× é dita idempotente se 2A A= . 
Mostre que, se a)  é um autovalor de uma matriz idempoten-
te, então  tem que ser igual a 0 ou 1.
Seja b) v um vetor unitário em 1n×ℜ (usando a norma eucli-
deana) e TA vv= . Mostre que A é idempotente e que v é 
52
um autovetor de A . Qual é o autovalor associado? Quantos 
autovalores nulos podemos encontrar?
Seja c) 
3 [1 1 1]
3
Tv = - . Ache os autovalores da matriz 
TA vv= e os autovetores correspondentes.
9) Seja A uma matriz quadrada e seja B A I= + , em que I é a 
matriz identidade e  um escalar. Qual a relação entre os autova-
lores de A e de B ? Explique.
10) Seja A uma matriz quadrada. Mostre que A e TA têm o 
mesmo polinômio característico e, logo, os mesmos autovalores. 
Podemos concluir que A e TA têm os mesmos subespaços pró-
prios?
11) Seja 2 2:T ℜ →ℜ , ( , ) ( 12 19 ,7 11 )T x y x y x y= - - + . Mostre que 
T não tem autovalores em ℜ . Determine os autovalores comple-
xos de T e autovetores correspondentes.
12) Ache a transformação linear 2 2:T ℜ →ℜ , tal que T tenha 
autovalores -2 e 3 respectivamente associados aos autovetores 
(3 , )y y e ( 2 , )y y- .
13) Seja :T V V→ um operador linear. Assim: a) Se 0 = é au-
tovalor de T , mostre que T não é injetora; b) A recíproca é ver-
dadeira?
14) Seja S o subespaço das funções reais gerado pelas funções 
2 ( )xe sen x , 2 cos ( )xe x , 2xe , e considere o operador linear :D S S→ 
definido por ( )D f f ′= . Determine:
A matriz de a) D em relação à base 
2 2 2{ ( ) , cos ( ) , }x x xe sen x e x e = de S .
Os autovalores de b) D e as funções de S que são autovetores 
de D .
53
2.3 Operadores diagonalizáveis
O objetivo desta Seção é procurar condições sob as quais a matriz 
de um operador linear é uma matriz diagonal. Mais especifica-
mente, se :T V V→ é um operador linear, procuramos condições 
sobre T para que exista uma base  de V tal que a matriz [ ]T  
seja diagonal. 
Definição: Seja V um espaço vetorial real de dimensão finita e 
:T V V→ um operador linear. Dizemos que T é um operador 
diagonalizável se existe uma base  de V tal que a matriz [ ]T  é 
diagonal.
Observe que, se conseguirmos uma base de autovetores de T , 
1{ , , }nv v =  , então a partir do conjunto de equações
1 1 1 2
2 1 2 2
1 2
( ) 0 0
( ) 0 0
( ) 0 0
n
n
n n n
T v v v v
T v v v v
T v v v v



= + + +
= + + +
= + + +




temos que a matriz [ ]T  é uma matriz diagonal com os autovalo-
res j na diagonal principal:
1
2
0 0
0 0
[ ]
0 0 n
T 



 
 
 =  
 
 


   

.
Note que, independentemente dos autovalores serem distintos 
ou não, a única exigência imposta para que [ ]T  seja diagonal 
é a de que os autovetores do operador formem um base de V . 
Dito de outra forma, para cada autovalor  com multiplicidade 
algébrica s (ou seja, ( )sx - é um fator do polinômio característi-
co ( )p x ), deve existir um conjunto de s autovetores linearmente 
independentes a ele associados. Reciprocamente, se a matriz [ ]T  
é diagonal e  é uma base formada por vetores 1, , nu u , então 
é fácil ver que esses vetores são necessariamente autovetores de 
T . Deixamos os detalhes da prova dessa afirmação como um 
exercício para você, leitor. 
54
Outro resultado importante que descreve condições sob as quais 
um operador linear é diagonalizável ocorre através do polinômio 
minimal. 
Proposição: Seja  uma base de um espaço vetorial de V de 
dimensão finita e ( , )T L V V∈ . Dessa maneira T será diagonalizá-
vel se e somente se o polinômio minimal ( )pm  não tiver raízes 
repetidas.
A prova dessa proposição precisa da decomposição de um espa-
ço vetorial em soma direta de subespaços. Detalhes dessa prova 
podem ser vistos em Hoffman e Kunze (1970). Outro resultado 
que caracteriza um operador linear diagonalizável é a proposi-
ção a seguir.
Proposição: Considerando 1 2,, , r   os autovalores distintos 
de um operador linear ( , )T L V V∈ , e 
1 2
, ,
r
V V V   os espaços pró-
prios correspondentes, as seguintes sentenças são equivalentes:
Ta) é diagonalizável;
Se o polinômio característico de b) T , ( )p x , satisfaz 
( ) ( ) ( )jmjp x x q x= - , com ( ) 0jq  ≠ , então dim ( )j jV m = ;
1 2 r
V V V V  = ⊕ ⊕ ⊕c) ;
1
dim ( ) dim ( )
r
V V + +d) .
Uma conseqüência importante do item b é que se a multiplicida-
de algébrica de um autovalor difere da dimensão do subespaço 
próprio correspondente, então o operador linear é não diagonali-
zável. Para ilustrarmos esse ponto, assuma que a matriz na base 
canônica de um operador linear T em 3ℜ é: 
1 3 4
4 0 4
3 4 0
A
- - 
 = -  - 
, 
então o polinômio característico de A é 2( ) ( 3) ( 2)p x x x= - - + e, 
assim, os autovalores da matriz são 1 3 = com multiplicidade 1, e 
2 2 = - com multiplicidade 2 (verifique!). Para aplicarmos o item 
b, devemos calcular as dimensões dos espaços próprios 
1
V e 2V . 
Para tanto, vale a pena observar que se  é um autovalor de A , 
então V é o subespaço gerado pelas soluções do sistema homogê-
55
neo de equações lineares ( ) 0A I x- = , ou equivalentemente, V 
é o subespaço nulo de A I- . Isto é:
( ) { / ( ) 0}nV N A I x A I x  = - = ∈ℜ - = .
Feita essa observação, temos:
1
( 3 )V N A I = -1) e 1dim ( ) dim ( ( 3 )) 1V N A I = - = , pois 1 tem 
multiplicidade 1.
2
( 2 )V N A I = +2) com 
1 3 4
2 4 2 4
3 4 2
A I
- 
 + = -  - 
. Como 2A I+
tem posto 2 (existem duas colunas LI), segue que 
2
dim ( ) dim ( ( 2 )) 3 2 1V N A I = + = - = . Logo, como a multipli-
cidade do autovalor 2 é 2 e a dimensão do subespaço pró-
prio 
2
V é 1, baseado no item b concluímos que o operador 
linear não é diagonalizável (observe que a mesma conclusão 
pode ser feita a partir do item (d)). 
Exemplo 11: Seja 3 3:T ℜ →ℜ o operador linear cuja matriz em re-
lação à base canônica é 
14 72 60
9 40 30
6 24 16
A
- - 
 = - -  - - 
. Procedendo na ma-
neira usual podemos ver que o polinômio característico da matriz 
A é 2( ) ( 2) ( 4)p x x x= - - - (verifique!), e que os autovalores dis-
tintos são 1 2 = com multiplicidade 1, e 2 4 = com multiplicida-
de 2. Com relação a 
1
V não há nada a ser analisado, pois 1 é um 
autovalor simples. Analisemos

Continue navegando