Buscar

TEOREMA ESPECTRAL PARA OPERADORES AUTO ADJUNTOS

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 45 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 45 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 45 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

UNIVERSIDADE FEDERAL DOS VALES DO JEQUITINHONHA E MUCURI 
INSTITUTO DE CIÊNCIA E TECNOLOGIA 
BACHARELADO EM CIÊNCIA E TECNOLOGIA 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
TEOREMA ESPECTRAL PARA OPERADORES AUTO-ADJUNTOS 
 
 
 
 
 
 
 
 
 
Pedro Paulo Nunes Costa 
 
 
 
 
 
 
 
 
 
Diamantina 
2013 
 
UNIVERSIDADE FEDERAL DOS VALES DO JEQUITINHONHA E MUCURI 
INSTITUTO DE CIÊNCIA E TECNOLOGIA 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
TEOREMA ESPECTRAL PARA OPERADORES AUTO-ADJUNTOS 
 
 
 
 
 
 
Pedro Paulo Nunes Costa 
 
 
Orientador: 
 
 
Leonardo Gomes 
 
 
 
Trabalho de Conclusão de Curso apresentado 
ao Curso de Bacharelado em Ciência e 
Tecnologia, como parte dos requisitos exigidos 
para a conclusão do curso. 
 
 
 
 
 
 
Diamantina 
2013 
TEOREMA ESPECTRAL PARA OPERADORES AUTO-ADJUNTOS 
 
 
 
Pedro Paulo Nunes Costa 
 
 
 
Orientador: 
 
 
 
Leonardo Gomes 
 
 
 
 
 
 
Trabalho de Conclusão de Curso apresentado 
ao Curso de Bacharelado em Ciência e 
Tecnologia, como parte dos requisitos exigidos 
para a conclusão do curso. 
 
 
 
 
 
APROVADO em 11 / 04 / 2013 
 
 
 
 
 
 
_______________________________ 
Profª Mscª Mônica Valadão – UFVJM 
 
_______________________________ 
Prof. Dr. Anderson Porto - UFVJM 
 
_______________________________ 
Prof Dr. Leonardo Gomes – UFVJM 
 
 
AGRADECIMENTOS 
 
 
 
 
Agradeço em primeiro lugar ao Prof. Dr. Leonardo Gomes orientador, professor, 
amigo, um muito obrigado, por esses meses de trabalho. Agradeço também a Prof. Msc. 
Mônica Valadão e ao Prof. Dr. Anderson Porto pela ajuda complementar que me 
ofereceram. E não deixando de agradecer a meus pais, Dimas e Jussara, a quem a quem 
agradeço todas as noites a minha existência. E por último agradeço ao suporte financeiro 
do CNPq que foi de grande ajuda durante o período em que o trabalho foi executado. 
 
RESUMO
COSTA, P. P. N. Teorema Espectral para Operadores Auto-Adjuntos em Espaços
Vetoriais de Dimensão Finita. 43 p. 2013. Monografia (Bacharelado em Ciência e
Tecnologia). UFVJM. Diamantina. Minas Gerais
O objetivo deste trabalho é demonstrar, de maneira mais fácil do que os tradicionais li-
vros que tratam do assunto, um caminho detalhado para a construção do Teorema Es-
pectral para Operadores Auto-Adjuntos. A teoria dos operadores lineares constitui-se um
capítulo importante da Análise Funcional, e o Teorema Espectral é um dos resultados
fundamentais dessa teoria. Nesse trabalho tratamos de resultados realtivos ao corpo dos
números reais, fazendo algumas observações no caso do corpo dos números complexos.
Palavras-chave: Produto Interno. Espaço Vetorial. Operador Auto-Adjunto. Teorema
Espectral.
ABSTRACT
COSTA, P. P. N. Spectral Theorem for self-adjoint operators in Vector Spaces of
Finite Dimension. 43 p. 2013. Monography (Bachelor of Science and Technology).
UFVJM. Diamantina. Minas Gerais
The objective of this work is to demonstrate, more easily than traditional books dealing
with the subject, a detailed path to build the Spectral Theorem for Self-Adjoint Operators.
The theory of linear operators constitutes an important chapter in Functional Analysis
and the Spectral Theorem is one of the fundamental results of this theory. In this work we
deal with the results realtivos field of real numbers, field with some observations on the
complex field case.
Keywords: Inner Product. Vector Space. Self-adjoint Operator. Spectral Theorem.
SUMÁRIO
1 INTRODUÇÃO 7
2 REVISÃO DE LITERATURA 8
2.1 Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Propriedades do Produto Interno . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Norma de um Vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4 Espaços Complexos com Produto Interno . . . . . . . . . . . . . . . . . 17
2.5 Conjunto Ortonormal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.6 Processo de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.7 Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.8 Adjunta de um Operador Linear . . . . . . . . . . . . . . . . . . . . . . 22
2.9 Matriz da Adjunta em Relação a uma Base Ortonormal . . . . . . . . . . 29
2.10 Operadores Auto-adjuntos . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.11 Matrizes de Operadores Auto-adjuntos . . . . . . . . . . . . . . . . . . . 30
3 METODOLOGIA 33
4 RESULTADOS E DISCUSSÕES 34
4.1 Teorema Espectral para Operadores Auto-adjuntos . . . . . . . . . . . . 34
5 CONCLUSÃO 42
REFERÊNCIAS 43
1 INTRODUÇÃO
Nos últimos anos a álgebra se transformou em uma parte essencial do conheci-
mento matemático necessário aos matemáticos, professores de matemática, engenheiros,
cientistas da computação, físicos, economistas e estatísticos, entre outros. Essa necessi-
dade reflete a importância e o vasto campo de aplicações desse conteúdo. Esse trabalho foi
desenvolvido com o objetivo de revisar e aprofundar em alguns temas da álgebra linear.
A primeira parte do trabalho será um revisão bibliográfica para o estudo da Teoria
Espectral para Operadores Auto-Adjuntos, onde utilizamos algumas ferramentas básicas
de Álgebra Linear. Com essas ferramentas de Álgebra Linear em mãos, poderemos nos
contextualizarmos com o assunto do tema principal. Na revisão estenderemos as noções
de produto escalar (que permite introduzir a idéia de distância, comprimento de um vetor
e ângulo entre dois vetores) para um espaço vetorial arbitrário, obtendo assim uma es-
trutura mais rica, denominada espaço vetorial com produto interno. Em seguida, vemos
que o fato de dotarmos um espaço vetorial com um produto interno permite-nos defi-
nir a noção de conjunto ortogonal, cujo qual sua importância aplica-se na simplificação
da representação de um elemento deste espaço bem como na representação de transfor-
mações lineares sobre este espaço através do uso de bases ortonormais. Nesse intuito,
apresentamos um processo para construir bases ortonormais. Seguindo, vemos a noção
de complemento ortogonal de um subespaço vetorial de um espaço vetorial com produto
interno, permitindo, em alguns casos, decompor este espaço como soma direta entre um
subespaço e seu complemento ortogonal. Este fato possibilita uma melhor compreensão
da estrutura de espaços vetoriais com produto interno. A definição de operador linear
adjunto permite adiante, uma classificação de operadores lineares. Veremos ainda que a
construção da adjunta de uma transformação linear é baseada no fato que para cada funci-
onal linear esteja associado um elemento do espaço vetorial, de forma que este funcional
é representado por um produto interno.
Finalmente veremos os operadores auto-adjuntos. O estudo da teoria desses ope-
radores é importante nos vastos ramos das ciências exatas, onde muitos processos podem
ser descritos por um operador, cujas propriedades variam de acordo com o espaço em
que se define. A partir daí podemos construir o teorema espectral para tais operadores
auto-adjuntos.
7
2 REVISÃO DE LITERATURA
A revisão de literatura tem papel fundamental no trabalho acadêmico, pois através
dela situamos o trabalho dentro da grande área de pesquisa da qual faz parte. Assim,
apresentamos a seguir uma série de definições, exemplos e resultados que servirão como
ponto de partida para o entendimento do resultado principal desse trabalho.
2.1 Produto Interno
Definição 2.1. Seja V um espaço vetorial sobre R. Dizemos que a aplicação 〈., .〉 : V ×
V → R que associa dois vetores u, v ∈ V a um único número〈u, v〉 real, é um produto
interno sobre V , se satisfaz as seguintes condições:
i) Distributividade: 〈u+ w, v〉 = 〈u, v〉+ 〈w, v〉, para todos u, v, w ∈ V ;
ii) 〈Λu, v〉 = Λ〈u, v〉, para todos u, v ∈ V e todo Λ ∈ R;
iii) Comutatividade: 〈u, v〉 = 〈v, u〉, para todos u, v ∈ V ;
iv) Positividade: 〈v, v〉 ≥ 0 para todo v ∈ V ;
v) 〈v, v〉 = 0 se, e somente se, v = 0.
Quando munimos o espaço vetorial V de um produto interno 〈., .〉, dizemos que
V é um espaço vetorial com produto interno 〈., .〉.
Exemplo 2.1. Seja V = R2 o espaço vetorial com a adição de vetores e multiplicação por
escalar usuais, ou seja, (x1, x2) + (y1, y2) = (x1 + y1, x2 + y2) e Λ(x1, x2) = (Λx1,Λx2),
para todo λ ∈ R. Defina 〈., .〉 : R2 × R2 → R por 〈(x1, x2), (y1, y2)〉 = x1y1 + x2y2.
Afirmamos que 〈., .〉 é um produto interno sobre R2. Com efeito, sejam u = (x1, x2),
v = (y1, y2), w = (z1, z2) ∈ R2 e Λ ∈ R. Então:
i)
〈u+ w, v〉 = 〈(x1, x2) + (z1, z2), (y1, y2)〉
= 〈(x1 + z1, x2 + z2), (y1, y2)〉
= (x1 + z1)y1 + (x2 + z2)y2
= x1y1 + z1y1 + x2y2 + z2y2
= (x1y1 + x2y2) + (z1y1 + z2y2)
= 〈(x1, x2), (y1, y2)〉+ 〈(z1, z2), (y1, y2)〉
= 〈u, v〉+ 〈w, v〉;
8
ii)
〈Λu, v〉 = 〈λ(x1, x2), (y1, y2)〉
= 〈(λx1, λx2), (y1, y2)〉
= (λx1)y1 + (λx2)y2
= λ(x1y1 + x2y2)
= λ〈(x1, x2), (y1, y2)〉
= Λ〈u, v〉;
iii)
〈u, v〉 = 〈(x1, x2), (y1, y2)〉
= x1y1 + x2y2 = y1x1 + y2x2
= 〈(y1, y2), (x1, x2)〉
= 〈v, u〉;
iv)
〈v, v〉 = 〈(y1, y2), (y1, y2)〉
= y1y1 + y2y2
= y21 + y
2
2 ≥ 0;
v)
〈v, v〉 = 0
⇔ y1y1 + y2y2 = 0
⇔ y1, y2 = 0
⇔ v = (y1, y2) = (0, 0) = 0.
9
Em particular,
〈(1, 0), (1,−1)〉 = 1 · 1 + 0(−1) = 1
e
〈(1, 0), (0, 1)〉 = 1 · 0 + 0 · 1 = 0.
2.2 Propriedades do Produto Interno
Vejamos algumas propriedades do produto interno que decorrem imediatamente
de sua definição.
Proposição 2.1. Seja V um espaço vetorial sobre R com produto interno 〈., .〉. Então as
seguintes afirmações são verdadeiras:
i) 〈u, λv〉 = λ〈u, u〉 , para todos u, v ∈ V e todo λ ∈ R;
ii) 〈0, v〉 = 〈v, 0〉 = 0, para todo v ∈ V ;
iii)〈u, v + w〉 = 〈u, v〉+ 〈v, w〉, para todos u, v, w ∈ V ;
iv) Se 〈u, v〉 = 0, para todo v ∈ V , então u = 0.
Exemplo 2.2. Demonstraremos as propriedades da proposição anterior. Sejam u, v, w ∈
V :
i) 〈u, λv〉 = 〈λv, u〉 = λ〈v, u〉 = λ〈u, v〉, onde nestas igualdades utilizamos os itens iii),
ii), iii), da Definição 2.1, respectivamente;
ii)〈0, v〉 = 〈v, 0〉 = 〈v, 0 · 0〉 = 0〈v, 0〉 = 0, usando o item i) e a Definição 2.1;
iii) 〈u, v+w〉 = 〈v+w, u〉 = 〈v, u〉+ 〈w, u〉 = 〈u, v〉+ 〈u,w〉, aqui usamos os itens iii),
i), iii), da Definição 2.1, respectivamente;
iv) Se 〈u, v〉 = 0, para todo v ∈ V , 〈u, u〉 = 0 (basta considerar v = u). Utilizando a
Definição 2.1, iten v), obtemos que u = 0.
Exemplos de Espaços Vetoriais com Produto Interno
Exemplo 2.3. Podemos generalizar o resultado do exemplo 2.1 para o espaço vetorial
V = Rn = {(x1, x2, ..., xn) : xi ∈ R, i = 1, ..., n},
com adição de vetores e multiplicação por escalar usuais, isto é,
(x1, x2, ..., xn) + (y1, y2, ..., yn) = (x1 + y1, x2 + y2, ..., xn + yn),
e
λ(x1, x2, ..., xn) = (λx1, λx2, ..., λxn),
para todo λ ∈ R. Defina 〈., .〉 : Rn ×Rn → R por
〈(x1, x2, ..., xn) + (y1, y2, ..., yn)〉 = x1y1 + x2y2 + ...+ xnyn.
10
Seguindo os passos do Exemplo 2.1 é possível provar que 〈., .〉 é um produto
interno sobre Rn(chamado produto interno canônico de Rn). Em particular,
〈(1, 0, ..., 0, 2), (1, 0, ..., 0,−1)〉 = 1 · 1 + 0 · 0 + ...0 + 2(−1) = −1.
Exemplo 2.4. Seja V = C([a, b]) o espaço vetorial das funções reais contínuas em [a, b]
com as operações de adição de funções e multiplicação por escalar usuais, ou seja,
(f + g)(t) = f(t) + g(t) e (λf)(t) = λf(t),
para todo t ∈ [a, b] e λ ∈ R. Defina a seguinte aplicação
〈f, g〉 =
∫ b
a
f(t)g(t)dt,
onde f, g ∈ V . Vamos provar que 〈., .〉 é um produto interno. De fato, se f, g, h ∈
C([a, b]) e λ ∈ R, então,
i)
〈f + g, h〉 =
∫ b
a
[f + g](t)h(t)dt
=
∫ b
a
[f(t) + g(t)]h(t)dt
=
∫ b
a
f(t)h(t)dt+
∫ b
a
g(t)h(t)dt
= 〈f, h〉+ 〈g, h〉;
ii)
〈λf, h〉 =
∫ b
a
(λf)(t)h(t)dt
=
∫ b
a
λf(t)h(t)dt
= λ
∫ b
a
f(t)h(t)dt
= λ〈f, h〉;
iii)
〈f, h〉 =
∫ b
a
f(t)h(t)dt
=
∫ b
a
h(t)f(t)dt
= 〈h, f〉;
11
iv)
〈f, f〉 =
∫ b
a
f(t)f(t)dt
=
∫ b
a
f(t)2dt ≥ 0;
v) 〈f, f〉 = 0 se, somente se, ∫ b
a
f(t)2dt = 0. Mas isto implica que f(t) = 0, para todo
t ∈ [a, b]. Logo, f ≡ 0. Aqui utilizamos o seguinte resultado para integrais: se ϕ é
uma função contínua com ϕ(t) ≥ 0, para todo t ∈ [a, b] e ∫ b
a
ϕ(t)dt = 0, então ϕ ≡ 0
(função identicamente nula). Embora esse resultado pareça razoável, sua prova envolve
ferramentas matemáticas mais complexas e, para tanto, recomendamos a um leitor mais
interessado a referência Lima (2009, cap. 9)
Exemplo 2.5. Seja V = R2 o espaço vetorial com adição de vetores e multiplicação por
escalar usuais. Defina 〈., .〉 : R2 × R2 → R por 〈(x1, x2), (y1, y2)〉 = −2x1y1 + x2y2.
Afirmamos que 〈., .〉 não é um produto interno sobre R2. Com efeito, para v = (1, 0) ∈
R2, temos que 〈v, v〉 = 〈(1, 0), (1, 0)〉 := (−2)1 · 1 + 0 · 0 = −2 < 0, e isto contradiz o
item iv) da Definição 2.1.
Exemplo 2.6 (Espaço das matrizes). Seja M = Mn×m o espaço vetorial de todas as
matrizes reais do tipo n x m. Um produto interno é definido em M por:
〈A,B〉 = tr(BtA),
onde tr(A) é o traço da matriz A, isto é, a soma dos seus elementos diagonais. Se A =
[aij] e B = [bij], então
〈A,B〉 = tr(BtA) =
m∑
i=1
n∑
j=1
aijbij e 〈A,A〉 =
m∑
i=1
n∑
j=1
a2ij.
Isto é, 〈A,B〉 é a soma dos elementos correspondentes de A e B, em particular, 〈A,A〉 é
uma soma dos quadrados dos elementos de A (LIPSCHUTZ, 2004, p. 229).
Exemplo 2.7 (Espaço de Hilbert). Seja V o espaço vetorial de todas as sequências infinitas
de números reais (a1, a2, a3, ...) satisfazendo
∞∑
i=1
a2i = a
2
1 + a
2
2 + ... <∞,
isto é, a soma converge. A adição e a multiplicação por escalar são definidas em V componente
a componente, isto é, se
u = (a1 + a2 + ...) e v = (b1 + b2 + ...),
12
então
u+ v = (a1 + b1, a2 + b2, ...) e ku = (ka1 + ka2 + ...).
O produto interno é definido em V por
〈u, v〉 = a1b1 + a2b2 + ....
A soma acima converge absolutamente para qualquer par de pontos de V , como será
demonstrado no Exemplo 2.19. Desta forma, o produto interno está bem definido. Este
espaço, com produto interno é chamado de espaço-l2 ou espaço de Hilbert. O espaço de
Hilbert é uma espaço que tem propriedades características e pode ser utilizado para vários
objetivos como pode ser visto em Barata (2013, cap. 36).
Exemplo 2.8. Seja A um matriz real simétrica, isto é, At = A. Então, A é dita definida
positiva se, para todo vetor não nulo u ∈ Rn,
〈u,Au〉 = utAu > 0.
onde 〈., .〉 é o produto interno canônico de Rn Existem algoritimos que nos per-
mitem decidir se uma matriz A é definida positiva ou não. Contudo, para matrizes 2x2,
temos um critério simples que está mostrado no teorema abaixo.
Teorema 2.1. A matriz 2x2 real e simétrica A =
[
a b
b d
]
é definida positiva se e só se
seus elementos diagonais a e d são positivos e seu determinante |A| = ad− bc = ad− b2
é positivo.
A demonstração pode ser vista em Lipschutz (2008, p. 254).
Exemplo 2.9. Considere as matrizes simétricas dadas abaixo:
A =
[
1 3
3 4
]
, B =
[
1 −2
−2 −3
]
, C =
[
1 −2
−2 5
]
.
Então A não é definida positiva uma vez que |A| = −5 é negativo. B não é definida
positiva uma vez que um de seus elementos na diagonal -3 é negativo. Contudo, C é
definida positiva, uma vez que seus elementos diagonais são 1 e 5 que são positivos e seu
determinante |C| = 1 também é positivo.
Teorema 2.2. Seja A uma matriz real definida positiva. Então a função 〈u, v〉A = utAv é
um produto interno em Rn .
A demonstração pode ser vista em Lipschutz (2008, p. 254).
Exemplo 2.10 (Representação matricial de um produto interno).O teorema anterior nos
diz que toda matriz real definida positiva determina um produto interno em Rn. Esta
13
seção pode ser vista com sendo um demonstração da recíproca deste resultado. Seja V um
espaço com produto interno real com base S = {u1, u2, ..., un}. A matriz
A = [aij], onde aij = 〈ui, uj〉,
é chamada de representação matricial do produto interno de V em relação à base S. Ob-
serve que A é simétrica, uma vez que o produto interno é simétrico, isto é, 〈ui, uj〉 =
〈uj, ui〉. Temos, também, que A depende tanto do produto interno de V quanto da base S
de V.
Exemplo 2.11. Os vetores u1 = (1, 1, 0), u2 = (1, 2, 3), u3 = (1, 3, 5) formam uma base
S do espaço euclidiano R3. Calcule a matriz A que representa o produto interno de R3 na
base S.
Em primeiro lugar, calcule 〈ui, uj〉 obtendo
〈u1, u1〉 = 2, 〈u1, u2〉 = 3, 〈u1, u3〉 = 4 〈u2, u2〉 = 14, 〈u2, u3〉 = 22, 〈u3, u3〉 = 35.
Então A =
 2 3 43 14 22
4 22 35
. Como era de se esperar, A é simétrica.
Teorema 2.3. Seja A a representação matricial de um produto interno em relação à base
S de V. Então, para quaisquer vetores u, v ∈ V , temos
〈u, v〉 = [u]tA[v],
onde [u] e [v] são o vetor coluna das coordenadas em relação à base S.
Demonstração: Suponha que
u = a1w1 + a2w2 + ...+ anwn e v = b1w1 + b2w2 + ...+ bnwn.
Então
〈u, v〉 =
n∑
i=1
n∑
j=1
aibj〈wi, wj〉.
Por outro lado,
[u]TA[v] = [a1, a2, ..., an]

k11 k12 . . . k1n
k21 k22 . . . k2n
...
... . . .
...
kn1 kn2 . . . knn


b1
b2
...
bn
 =
14
= [
n∑
i=1
aiki1,
n∑
i=1
aiki2, ...,
n∑
i=1
aikin]

b1
b2
...
bn
 =
n∑
j=1
n∑
i=1
aibjkij.
�
Teorema 2.4. Seja A a matriz que representa um produto interno de V. Então A é uma
matriz definida positiva.
Demonstração: Como 〈wi, wj〉 = 〈wj, wi〉 para quaisquer vetores wi e wj de uma base de
V , a matriz A é simétrica. Seja X um vetor não nulo qualquer de Rn. Então [u] = X para
algum vetor não nulo u ∈ V . O Teorema 2.2 nos diz queX tAX = [u]tA[u] = 〈u, u〉 > 0.
Assim, A é definida positiva. �
2.3 Norma de um Vetor
Definição 2.2 (Norma). Seja V um espaço vetorial. Uma aplicação ||.|| : V → R que
satisfaz as três condições
i)||v|| ≥ 0, para todo v ∈ V e ||v|| = 0 se, e somente se, v = 0;
ii)||λv|| = |λ|||v||, para todo v ∈ V e todo λ ∈ R;
iii)(Desigualdade Triangular)||u+ v|| ≤ ||u||+ ||v||, para todos u, v ∈ V ,
é chamada norma sobre V. Quando munimos um espaço vetorial V de uma norma, dizemos
que V é um espaço normado.
Proposição 2.2 (Norma sobre um Espaço Euclidiano). Seja V um espaço vetorial com
produto interno 〈., .〉. Então a aplicação ||.|| : V → R, definida por ||v|| := √〈v, v〉,
é uma norma sobre V. Neste caso, dizemos que a norma ||.|| provém do produto interno
〈., .〉.
Demonstração: Verificaremos as condições estabelecidas na Definição 2.2:
i)Seja v 6= 0. Então, 〈v, v〉 > 0, pela Definição 2.1. Logo ||v|| = √〈v, v〉 > 0.
ii) Sejam v ∈ V e λ ∈ R. Então, utilizamos a Definição 2.1 para concluírmos que
||λv|| =
√
〈λv, λv〉 =
√
λ2〈v, v〉 =
√
λ2
√
〈v, v〉 = |λ|
√
〈v, v〉 = |λ|||v||.
15
iii)Vamos provar a desigualdade triangular. Note que
||u+ v||2 = 〈u+ v, u+ v〉
= 〈u, u〉+ 2〈u, v〉+ 〈v, v〉
≤ ||u||2 + 2|〈u, v〉|+ ||v||2
≤ ||u||2 + 2||u||||v||+ ||v||2
≤ (||u||+ ||v||)2,
onde na última desigualdade usamos o Teorema 2.5. Logo, pelo item i),||u + v|| ≤
||u||+ ||v||, para todo u, v ∈ V . �
Exemplo 2.12 (Norma sobre R2). Seja V = R2 conforme o Exemplo 2.1. Assim, ||.|| :
R2 → R, dada por ||(x, y)|| = √〈(x, y), (x, y)〉 = √x2 + y2 é uma norma.
Exemplo 2.13 (Norma sobre Rn). Seja V = Rn conforme o Exemplo 2.2. Assim ||.|| :
Rn → R, definida por
||(x1, x2, ..., xn)|| =
√
〈(x1, x2, ..., xn), (x1, x2, ..., xn)〉 =
√
(x21 + x
2
2 + ...+ x
2
n).
é uma norma
Exemplo 2.14 (Norma de funções contínuas). Seja V = C([a, b]) conforme o Exemplo
2.3. Logo ||.|| : C([a, b])→ R, dada por ||f || = √〈f, f〉 = (∫ b
a
f(t)2dt)
1
2 , é uma norma.
Exemplo 2.15 (Não-Norma). Seja V = R2. Defina ||.|| : R2 → R por ||(x, y)|| = x2+y4.
Então ||.|| não é uma norma. Basta observar que ||2(1, 0)|| = ||(2, 0)|| = 22 + 02 = 4
e, por outro lado,|2|||(1, 0)|| = 2||(1, 0)|| = 2(12 + 02) = 2, de forma que ||2(1, 0)|| 6=
|2|||(1, 0)||. Isto contradiz o item ii) da Definição 2.2.
Definição 2.3 (Vetor Unitário). Seja V um espaço vetorial normado. Dizemos que um
vetor v ∈ V é unitário se ||v|| = 1.
Podemos transformar qualquer vetor não-nulo v ∈ V em um vetor unitário se
||v|| = 1. Basta escolher u = v||v|| . Para verificar a veracidade deste fato, basta utilizar
o item ii) da Definição 2.2 e obter ||u|| =
∣∣∣∣∣∣ v||v|| ∣∣∣∣∣∣ = ∣∣∣ 1||v|| ∣∣∣ ||v|| = 1||v|| ||v|| = 1. Em
particular, temos os seguintes exemplos:
Exemplo 2.16. Desde que ||(1, 0)|| = √12 + 02 = 1 e ||(1, 1)|| = √12 + 12 = √2,
temos que (1,0) é um vetor unitário e (1,1) não. Para transformar (1,1) em vetor unitário,
basta realizar o seguinte processo (1,1)||(1,1)|| =
(1,1)√
2
=
(
1√
2
, 1√
2
)
.
Exemplo 2.17. Considere V = C([0, 1]), f(t) = 1 e g(t) = t, t ∈ [0, 1]. Assim
||f || =
(∫ 1
0
[f(t)]2dt
) 1
2
=
(∫ 1
0
1dt
) 1
2
= 1,
16
e
||g|| =
(∫ 1
0
[g(t)]2dt
) 1
2
=
(∫ 1
0
t2dt
) 1
2
=
1√
3
.
Segue que f é um vetor unitário e g não. Usando a observação acima, obtemos o vetor
unitário g||g|| =
t
1√
3
= t
√
3.
Teorema 2.5 (Desigualdade de Cauchy-Schwarz). Seja V um espaço vetorial com produto
interno 〈., .〉. Então |〈u, v〉| ≤ ||u||||v||, para todos u, v ∈ V , onde ||u|| := √〈u, u〉.
Demonstração: Utilizamos na demostração deste teorema uma ferramenta auxiliar. Defina
f : R → R por f(x) = ||u − xv||2. Observe que f(x) ≥ 0. Por outro lado, usando a
definição da aplicação ||.||, obtemos
||u− xv||2 = 〈u− xv, u− xv〉 = 〈u, u〉 − 2x〈u, v〉+ x2||u||2
= ||u||2 − 2x〈u, v〉+ x2||v||2.
Logo, ||u||2 − 2x〈u, v〉+ x2||v||2 ≥ 0. Note que o gráfico de f é um parábola, a qual está
acima do eixo das abscissas (o vértice desta parábola pode tocar tal eixo). Portanto, impo-
mos que4 = 4〈u, v〉2 − 4||u||2||v||2 ≤ 0 (discriminante). Ou seja, 〈u, v〉2 ≤ ||u||2||v||2.
Por fim, |〈u, v〉| ≤ ||u||||v|| (aqui usamos√a2 = |a|). O teorema está provado. �
Exemplo 2.18. Seja V = C([1, 0]) com produto interno canônico. Podemos mostrar
que (
∫ 1
0
f(t)g(t)dt)2 ≤ (∫ 1
0
[f(t)]2dt)(
∫ 1
0
[g(t)]2dt). Com efeito, pela desigualdade de
Cauchy-Schwarz, temos que |〈f, g〉| ≤ ||f || · ||g||, para todo f, g ∈ V . Com isso,
|〈f, g〉2| ≤ ||f ||2||g||2. Usando as definições de 〈., .〉 e ||.||, encontramos o resultado
desejado.
Exemplo 2.19. Se (a1, a2, ...) e (b1, b2, ...) são quaisquer par de vetores em um espaço
de Hilbert, a soma
∑∞
i=1 aibi = a1b1 + a2b2 + ... converge absolutamente. Para ver isto,
segundo o Teorema 2.5 (desigualdade de Cauchy-Schwarz),
|a1b1|+ ...+ |anbn| ≤
√√√√ n∑
i=1
ai2
√√√√ n∑
i=1
bi
2 ≤
√√√√ ∞∑
i=1
ai2
√√√√ ∞∑
i=1
bi
2,
vale para todo n. Assim o somatório Sn = |a1b1| + |a2b2| + ... converge. Podemos ver
então que a soma infinita converge absolutamente, para maiores informações sobre séries
convergentes veja Elon (1999, cap. 4). Isto mostra o afirmado no Exemplo 2.7.
2.4 Espaços Complexos com Produto Interno
Esta parte do trabalho considera espaços vetoriais sobre o corpo de C dos com-
plexos. Em primeiro lugar, lembramos de alguma propriedades dos números complexos,
17
especialmente as relações entre um número complexo z = a + bi, onde a, b ∈ R, e seu
conjugado complexo z = a− bi;
zz = a2 + b2, |z| =
√
a2 + b2, z1 + z2 = z1 + z2, z1z2 = z2z1, z = z.
Além disso, z é real se e só se z = z.
Definição 2.4. Seja V um espaço vetorial sobre C. Suponha que a cada par de vetores
u, v ∈ V associamos um número complexo, denotado por 〈u, v〉. Esta função é chamada
produtointerno (complexo) sobre V se satisfaz as propriedades abaixo:
i)(Propriedade linear) 〈au1 + bu2, v〉 = a〈u1, v〉+ b〈u2, v〉;
ii)(Propriedade conjugado simétrico)〈u, v〉 = 〈v, u〉;
iii)(Propriedade definida positiva) 〈u, u〉 ≥ 0; e 〈u, u〉 = 0 se e só se u = 0.
O espaço vetorial V sobre C com um produto interno é chamado de espaço com
produto interno complexo. Observe que um produto interno complexo difere do real
apenas pela propriedade ii).
A propriedade i) é equivalente as duas condições:
〈u1 + u2, v〉 = 〈u1, v〉+ 〈u2, v〉, 〈ku, v〉 = k〈u, v〉
Por outro lado, de i) e ii), temos
〈u, kv〉 = 〈kv, u〉 = k〈v, u〉 = k · 〈v, u〉 = k〈u, v〉.
Isto é, devemos tomar o conjugado de um número complexo quando ele é retirado
da segunda posição de um produto interno complexo. Na verdade, o produto interno é
conjugado linear na segunda posição, isto é,
〈u, av1 + bv2〉 = a〈u, v1〉+ b〈u, v2〉.
Combinando a linearidade da primeira posição com o conjugado linear da se-
gunda, obtemos, por indução
〈
n∑
i=1
aiui,
n∑
j=1
bjvj〉 =
n∑
i=1,j=1
aibj〈ui, vj〉.
As observações abaixo são oportunas.
Observação 2.1. A propriedade i), por si só, implica que 〈0, 0〉 = 〈0v, 0〉 = 0〈v, 0〉 = 0.
Assim i),ii)e iii) são equivalentes a i), ii) e à propriedade abaixo:
iii’) Se u 6= 0, então 〈u, u〉 > 0.
Isto é, uma função que satisfaz i),ii) e iii’) é um produto interno (complexo) em V.
18
Observação 2.2. Por ii),〈u, u〉 = 〈u, u〉. Assim, 〈u, u〉 é real. Por iii), 〈u, u〉 é não
negativo e , portanto, possui raiz quadrada. Assim, como nos espaços com produto interno
real, definimos ||u|| = √〈u, u〉 como sendo norma ou comprimento de u.
2.5 Conjunto Ortonormal
Definição 2.5. Seja V um espaço vetorial com produto interno 〈., .〉. Dizemos que um
subconjunto X ⊆ V é ortonormal se
i) u ⊥ v, ou seja, 〈u, v〉 = 0 para todo u, v ∈ X distintos;
ii) todo vetor de X é unitário, isto é, ||v|| = 1, para todo v ∈ X .
Observação 2.3 (Conjunto Ortogonal). Quando um subconjunto X satisfaz o item i) di-
zemos que X é um conjunto ortogonal.
Observação 2.4. Note que X na definição acima não precisa de ser subespaço de V.
Exemplo 2.20. A base canônica de R2, X = {(1, 0), (0, 1)}, é um conjunto ortonormal,
pois 〈(1, 0), (0, 1)〉 = 0, ||(1, 0)|| = ||(0, 1)|| = 1. O subconjunto Y = {(1, 1), (1,−1)}
é ortogonal, mas não é ortonormal. De fato, 〈(1, 1), (1,−1)〉 = 1 − 1 = 0 e ||(1, 1)|| =√
2 6= 1.
Exemplo 2.21. Se X = {1, 3t2 − 1}, então 〈1, 3t2 − 1〉 = ∫ 1
0
[3t2 − 1]dt = 0, porém
||3t2 − 1|| =
(∫ 1
0
(3t2 − 1)2dt
) 1
2
=
(∫ 1
0
(9t4 − 6t2 + 1)dt
) 1
2
=
9
5
− 1 6= 1.
Por isso concluímos que X é um conjunto ortogonal, mas não ortonormal.
Definição 2.6 (Base Ortonormal). Seja V um espaço vetorial com produto interno e di-
mensão finita. Uma base de V é dita ortonormal se esta for um conjunto ortonormal. Ou
equivalente, se {v1, v2, ..., vn} é base ortonormal de V , então
dij〈vi, vj〉 =
{
1, i = j;
0, i 6= j.
Na matemática, o delta de Kronecker, assim chamado em honra a Leopold Kronecker, é a
notação dij definida acima, note-se que, a rigor, o delta de Kronecker não é uma função,
pois ele pode ser usado com qualquer símbolo matemático.
Exemplo 2.22. Vimos no Exemplo 2.20 acima que que a base canônica deR2 é uma base
ortonormal.
2.6 Processo de Gram-Schmidt
Sempre existe uma base ortonormal para qualquer espaço vetorial com produto
interno de dimensão finita. Qualquer base de um espaço vetorial pode ser convertida numa
19
base ortogonal. Normalizando os vetores dessa nova base, obtemos uma base ortonormal.
Teorema 2.6 (Teorema de Gram-Schmidt). Seja V um espaço vetorial com produto in-
terno 〈., .〉 e dimensão finita n > 0. Seja β = {v1, v2, ..., vn} uma base de V. Então existe
uma base ortogonal γ = {u1, u2, ..., un} de V , onde u1 = v1 e
uj = vj −
j−1∑
1=i
〈vj, ui〉
||ui||2 ui,
para todo j = 2, ..., n.
Demonstração: Faremos a prova de indução sobre n. Se n = 1, então tomamos simples-
mente u1 = v1. Considere agora n > 1 suponhamos que todo espaço vetorial de dimensão
n− 1 possui uma base ortogonal nos moldes do teorema. Assim, se {v1, v2, ...vn} é base
de V então {u1, u2, ...un−1} satisfaz a expressão acima e nos resta verificar que
un = un −
n−1∑
1=i
〈vn, ui〉
||ui||2 ui,
é não-nulo e ortogonal aos demais elementos u1, u2, ..., un−1. Ora, se un = 0, então
implica que os elementos {v1, v2, ..., vn} são linearmente dependentes, o que é impossível,
pois este conjunto é uma base de V. Logo, un 6= 0. Agora, como
〈un, uj〉 = 〈un −
n−1∑
1=i
〈vn, ui〉
||ui||2 ui, uj〉,
= 〈vn, uj〉 − 〈
n−1∑
1=i
〈vn, ui〉
||ui||2 ui, uj〉,
= 〈vn, uj〉 −
n−1∑
1=i
〈vn, ui〉
||ui||2 〈ui, uj〉,
= 〈vn, uj〉 − 〈vn, uj〉,
= 0,
para todo j = 1, .., n − 1, segue que un ⊥ uj , para todo j = 1, 2, ..., n − 1. Na antepe-
núltima igualdade usamos o fato que {u1, u2, ..., un−1} é um conjunto ortogonal. Logo,
γ = {u1, u2, ..., un} é uma base ortogonal de V e isto conclui a prova. �
2.7 Complemento Ortogonal
Definição 2.7. Seja V um espaço vetorial com produto interno 〈., .〉. Seja U ⊆ V um
subconjunto qualquer. Definimos o complemento ortogonal de Uem V como sendo o
conjunto U⊥ = {v ∈ V : 〈u, v〉 = 0, para todo u ∈ U}.
20
Exemplo 2.23. Vamos encontrar o complemento ortogonal do conjunto U = {(1,−1)}
em R2. Seja v = (x, y) ∈ U⊥ qualquer. Se 〈v, (1,−1)〉 = 0 então 〈(x, y), (1,−1)〉 = 0,
e daí x − y = 0. Dessa forma v = (x, y) = (y, y) = y(1, 1) e y ∈ R. Portanto,
U⊥ = [(1, 1)], onde [(1, 1)] significa o espaço gerado pelo vetor (1,1).
Exemplo 2.24. Seja U = (x, y, 0) : x, y ∈ R. Para determinarmos U⊥ tomemos um
elemento arbitrário v = (a, b, c) ∈ U⊥. Então de 〈v, (x, y, 0)〉 = 0, podemos concluir que
〈(a, b, c), (x, y, 0)〉 = 0, para todo x, y ∈ R. Ou seja, ax + by = 0, para todo x, y ∈ R.
Em particular, fazendo x = 1 e y = 0, temos que a = 0, e para x = 0 e y = 1, obtemos
b = 0. Dessa forma, v = (a, b, c) = (0, 0, c) = c(0, 0, 1). Portanto, U⊥ = [(0, 0, 1)].
Note que U não é necessariamente é um subespaço de V , mas U⊥ como nos
Exemplos 2.23 e 2.23, é sempre um subespaço.
Proposição 2.3. Seja V um espaço vetorial com produto interno 〈., .〉 sobre R. Então U⊥
é um subespaço de V.
Demonstração: Com efeito, primeiramente, note que 0 ∈ U⊥, pois 〈0, u〉 = 0, para todo
u ∈ U . Em seguida, sejam v, w ∈ U⊥ e λ ∈ R. Logo, 〈v, u〉 = 0 e 〈w, u〉 = 0, para todo
u ∈ U . Consequentemente,
〈v + λw, u〉 = 〈v, u〉+ λ〈w, u〉 = 0 + λ · 0 = 0,
para todo u ∈ U . Ou seja, v + λw ∈ U⊥. Isto prova que U⊥ é um subespaço de V. �
Observação 2.5. Se o espaço vetorial tem um produto interno complexo, tal proposição
também é válida.
Teorema 2.7. Seja V um espaço vetorial com produto interno 〈., .〉 e seja Uum subespaço
de dimensão finita de V. Então
V = U ⊕ U⊥, (1)
isto é, V = U + U⊥ e U ∩ U⊥ = {0}.
Demonstração: Inicialmente, provemos que U ∩U⊥ = {0}. Ora, se U ∩U⊥, então v ∈ U
e v ∈ U⊥. Usando a Definição 2.7, temos que 〈v, u〉 = 0, para todo u ∈ U . Como
v ∈ U , então, em particular, 〈v, v〉 = 0. Usando a Definição 2.1, concluímos que v = 0.
Provaremos que v é a soma de um vetor de Ucom um vetor de U⊥. Para isso, escolha
u =
∑m
i=1〈v, ui〉ui ui ∈ U . Vamos demonstrar que , 〈v − u, uj〉 = 0, para todo j =
21
1, 2, ...,m..
〈v − u, uj〉 = 〈v, uj〉 − 〈u, uj〉
= 〈v, uj〉 − 〈
m∑
i=1
〈v, ui〉ui, uj〉
= 〈v, uj〉 −
m∑
i=1
〈v, ui〉〈ui, uj〉
= 〈v, uj〉 − 〈v, uj〉 = 0
pois β é uma bse ortonormal. Consequentemente, v − u ∈ U⊥. Mas, v = u + (v − u),
onde u ∈ U e v − u ∈ U⊥. Isto prova que V = U + U⊥. Portanto, V = U ⊕ U⊥. �
Observação 2.6. Sejam w1, ..., wr subespaços de V , e suponhamos que
{w11, ..., w1n1}, ..., {wr1, ..., wrnr}
sejam bases de w1, ..., wr, respectivamente. Então V é a soma direta dos wi se e somente
se a união B = {w11, ..., w1n1 , ..., wr1, ..., wrnr} é uma base de V (LIPSCHUTZ, 1994, p.
525).
Observação 2.7. Sob as hipóteses do Teorema 2.7, temosque dimV = dimU+dimU⊥,
pois V = U ⊕ U⊥.
2.8 Adjunta de um Operador Linear
Definição 2.8 (Funcional Linear). Seja V um espaço vetorial. Dizemos que uma aplica-
ção f : V → R é um funcional linear se f(λu+ v) = λf(u) + f(v), para todos u, v ∈ V
e todo λ ∈ R. O conjunto V ∗ = {f : V → R : f é linear} é um espaço vetorial chamado
espaço dual de V.
Exemplo 2.25. A aplicação f : R2 → R, dada por f(x, y) = 2x + y é um funcional
linear. De fato, tome u = (x1, y1) , v = (x2, y2) ∈ R2 e λ ∈ R, então
f(λu+ v) = f(λ(x1, y1) + (x2, y2))
= f((λx1, λy1) + (x2, y2))
= f((λx1 + x2, λy1 + y2))
= 2λx1 + 2x2 + λy1 + y2
= 2λx1 + λy1 + 2x2 + y2
= λf((x1 + y1) + f(x2, y2))
= λf((u) + f(v)).
Portanto f é um exemplo de funcional linear.
22
Exemplo 2.26 (Funcional não linear). Considere a aplicação f : R2 → R, dada por
f(x, y) = 5. Para quaisquer u = (x1, y1) e v = (x2, y2) ∈ R2 e para λ = 5, temos
f(λu+ v) = f(5(x1, y1) + (x2, y2))
= f((5x1, 5y1) + (x2, y2))
= f(5x1 + x2, 5y1 + y2)
= 5,
e
λf(u) + f(v) = 5f(x1, y1) + f(x2, y2)
= 5 · 5 + 5 = 25 + 5 = 30.
Como, f(5u + v) 6= 5f(u) + f(v) para todos u, v ∈ R2, então a função dada não é um
funcional linear.
Seja V um espaço com produto interno e seja w ∈ V . A função g : V → R
definida por g(v) = 〈v, w〉, para todo v ∈ V , é um funcional linear.
Teorema 2.8 (Teorema da Representação de Riesz). Seja V um espaço vetorial com pro-
duto interno 〈., .〉 de dimensão finita. Dado um funcional linear f : V → R, existe um
único v ∈ V tal que f(u) = 〈u, v〉, para todo u ∈ V .
Demonstração: Pelo Teorema 2.6, sabemos que existe uma base ortogonal de V , que pode
ser normalizada. Digamos que {v1, v2, .., vn} é esta base. Dado u ∈ V , pela definição de
base, temos que existem λ1, ..., λn ∈ R tais que
u = λ1v1 + λ2v2 + ...+ λnvn.
Note que
〈u, v1〉 = λ1〈v1, v1〉+ λ2〈v2, v1〉+ ...+ λn〈vn, v1〉 = λ1.
Analogamente, prova-se que λi = 〈u, vi〉, para todo i = 1, 2, ..., n. Assim sendo,
u = 〈u, v1〉v1 + 〈u, v2〉v2 + ...+ 〈u, vn〉vn.
Consequentemente, usando a Definição 2.8,
f(u) = f(〈u, v1〉v1 + 〈u, v2〉v2 + ...+ 〈u, vn〉vn)
= 〈u, v1〉f(v1) + 〈u, v2〉f(v2) + ...+ 〈u, vn〉f(vn)
= 〈u, f(v1)v1〉+ 〈u, f(v2)v2〉+ ...+ 〈u, f(vn)vn〉
= 〈u, f(v1)v1 + f(v2)v2 + ...+ f(vn)vn〉.
23
Defina v = f(v1)v1 + f(v2)v2 + ... + f(vn)vn. Portanto, f(u) = 〈u, v〉, para todo
u ∈ V . Agora, vamos provar a unicidade de v ∈ V . Suponha que existe w ∈ V tal que
f(u) = 〈u,w〉, para todo u ∈ V Com isso, 〈u,w〉 = f(u) = 〈u, v〉, para todo u ∈ V .
Daí, 〈u,w − v〉 = 0, para todo u ∈ V . Usando o item iv) da Proposição 2.1, chegamos a
w − v = 0. Logo, w = v. Isso prova a unicidade. �
Exemplo 2.27. Seja f(x, y) = 2x+y o funcional visto no Exemplo 2.25. Então podemos
escrever f(x, y) = 〈(x, y), (2, 1)〉, para todo (x, y) ∈ R2. Logo, v = (2, 1) é o vetor
relatado no Teorema 2.8.
Definição 2.9 (Adjunta). Seja T : U → V uma transformação linear, onde Ue V são
espaços vetoriais com produtos internos 〈., .〉U e 〈., .〉V , respectivamente. Dizemos que
uma aplicação T ∗ : V → U é uma adjunta de T se satisfaz
〈v, T (u)〉V = 〈T ∗(v), u〉U ,
para todo u ∈ U , v ∈ V .
Observação 2.8. Quando não houver possibilidade de confusão escreveremos, simples-
mente, 〈., .〉 para representar 〈., .〉U e 〈., .〉V , mas deve estar claro que estes produtos são
definidos sobre Ue V , respectivamente.
Exemplo 2.28. Seja V o espaço dos polinômios sobreR com produto interno canônico de
C([1, 0]). Fixe g ∈ V . Defina T : V → V pondo T (f) = f · g, para todo f ∈ V . Vamos
procurar a adjunta de T (caso esta exista). Observe que
〈f, T (h)〉 = 〈f, h·g〉 =
∫ 1
0
f(t)h(t)g(t)dt =
∫ 1
0
f(t)g(t)h(t)dt = 〈f ·g, h〉 = 〈T (f), h〉,
para todos f, h ∈ V . Portanto, T ∗(f) = T (f) para todo f ∈ V . Ou seja, T ∗ = T.
A adjunta nem sempre existe, mas quando ela existe é única e linear, como vere-
mos nas seguintes proposições.
Proposição 2.4 (Unicidade da Adjunta). Seja T : U → V uma transformação linear,
ondeUe V são espaços vetoriais com produtos internos 〈u, v〉U e 〈u, v〉V , respectivamente.
Caso exista T ∗, esta é única.
Demonstração: Suponha que uma transformação linear S : V → U tal que
〈v, T (u)〉V = 〈S(v), u〉U ,
para todo u ∈ U e v ∈ V . Então,
〈T ∗(v), u〉U = 〈v, T (u)〉V = 〈S(v), u〉U ,
24
para todo u ∈ U e v ∈ V . Ou seja,
〈T ∗(v)− S(v), u〉U = 0,
para todo u ∈ U e v ∈ V . Assim, T ∗(v) − S(v) = 0, para todo v ∈ V e, portanto,
S = T ∗. Isto garante a unicidade de T ∗. �
O próximo resultado nos diz que se T é linear podemos concluir que T ∗ é linear.
Proposição 2.5. Seja T : U → V uma transfonação linear, onde Ue V são espaços
vetoriais com produtos internos 〈., .〉U e 〈., .〉V , respectivamente. Caso exista T ∗, esta é
uma transformação linear.
Demonstração: Sejam v, w ∈ V e λ ∈ R. Então, obtemos
〈T ∗(λv + w), u〉U = 〈λv + w, T (u)〉V
= λ〈v, T (u)〉V + 〈w, T (u)〉V
= λ〈T ∗(v), u〉U + 〈T ∗(w), u〉U
= 〈λT ∗(v) + T ∗(w), u〉U ,
para todo u ∈ U . Ou seja,
〈T ∗(λv + w), u〉U = 〈λT ∗(v) + T ∗(w), u〉U ,
para todo u ∈ U . Portanto,
〈T ∗(λv + w)− (λT ∗(v) + T ∗(w)), u〉U = 0,
para todo u ∈ U . Utilizando o item iv) da Proposição 2.1, concluimos que
T ∗(λv + w)− (λT ∗(v) + T ∗(w)) = 0,
Donde, T ∗(λv + w) = λT ∗(v) + T ∗(w). Isto nos diz que T ∗ é linear. �
Teorema 2.9 (Existência e Unicidade da Adjunta). Seja T : U → V uma transformação
linear, onde Ue V são espaços vetoriais com produtos internos 〈., .〉U e 〈., .〉V , respectiva-
mente, e de dimensões finitas. Então T ∗ existe, é única e linear.
Demonstração: Para cada v ∈ V , definimos fv(u) = 〈v, T (u)〉V , para todo u ∈ U . Note
que f : U → R é um funcional linear. De fato, através da linearidade de T e da Definição
2.1, obtemos
fv(λu+ w) = 〈v, T (λu+ w)〉V = 〈v, λT (u)〉V + 〈v, T (w)〉V
= λ〈v, T (u)〉V + 〈v, T (w)〉V
= λfv(u) + fv(w),
25
para todo u,w ∈ U . Ou seja, fv(λu + w) = λfv(u) + fv(w), para todo u,w ∈ U . Isto
nos diz que fv é linear. Pelo Teorema da Representação de Riesz, existe um único w ∈ U
tal que fv(u) = 〈u,w〉U = 〈w, u〉U , para todo u ∈ U . Daí,
〈v, T (u)〉V = fv(u) = 〈w, u〉U ,
para todo u ∈ U . Defina T ∗(v) = w. Logo,
〈v, T (u)〉V = 〈T ∗(v), u〉U ,
para todo u ∈ U e v ∈ V . Logo, T ∗ é uma adjunta de T. A unicidade está garantida pela
Proposição 2.4 e a linearidade através da Proposição 2.5 �
Observação 2.9. No caso de espaços vetoriais de dimensão infinita pode ocorrer a não
existência da adjunta de certos operadores. Por exemplo: Seja V = P (R) o espaço dos
polnômios sobre R com um produto interno dado por 〈f, g〉 = ∫ 1
0
f(t)g(t). Considere D
como o operador diferencial agindo sobre V , onde D(f(t)) = f ′(t), é possível mostrar
que não existe D∗, isto é, que D não possui adjunta (LIPSCHUTZ, 1994, p.630).
Exemplo 2.29. Seja T : R2 → R3 dado por T (x, y) = (x, 2x + y,−y). Vamos achar a
adjunta da transformação linear T:
〈(a, b, c), T (x, y)〉 = 〈(a, b, c), (x, 2x+ y,−y)〉
= ax+ b(2x+ y)− cy
= (a+ 2b)x+ (b− c)y
= 〈(a+ 2b, b− c), (x, y)〉.
Logo, T ∗(a, b, c) = (a+ 2b, b− c), para todo (a, b, c) ∈ R3, define a adjunta de T.
Exemplo 2.30. Defina T : R2 → R2 por T (x, y) = (−y, x). Daí, para todo (a, b) ∈ R2
e (x, y) ∈ R2
〈(a, b), T (x, y)〉 = 〈(a, b), (−y, x)〉 = −ay + bx = bx+ (−a)y = 〈(b,−a), (x, y)〉.
Logo, T ∗(a, b) = (b,−a),∀(a, b) ∈ R2, define a adjunta de T. Neste caso, T ∗ = −T um
operador chamado de anti-auto-adjunto.
Exemplo 2.31. Seja T : R2 → R2 dada por T (x, y) = (y, x). Note que
〈(a, b), T (x, y)〉 = 〈(a, b), (y, x)〉 = ay + bx = bx+ ay = 〈(b, a), (x, y)〉,
para todo (x, y), (a, b) ∈ R2. Então T ∗(a, b) = (b, a). Logo, T ∗ = T , um operador
auto-adjunto.
26
A seguir será demonstrado algumas propriedades da adjunta.
Proposição 2.6. Sejam T, S : U → V e P : V → W transformações lineares, onde U ,V
e W são espaços vetoriais com produto interno e dimensão finita. Seja λ ∈ R. Então:
i) I∗ = I, onde I é a transformação linear identidade, istoé, I(v)=v, para todo v;
ii)(T + S)∗ = T ∗ + S∗, em palavras, a adjunta de uma soma é a soma das adjuntas;
iii)(λT )∗ = λT ∗, em palavras, a adjunta de uma multiplicação por escalar é multiplicação
por escalar com a adjunta;
iv)(P ◦T )∗ = T ∗◦P ∗, em palavras, a adjunta de uma composta é a composta das adjuntas
com fatores comutados;
v)T ∗∗ := (T ∗)∗ = T , em palavras, a adjunta da adjunta de uma transformação linear é a
própria transformação linear.
Demonstração: A existência e a unicidade destas adjuntas estão garantidas pelo Teorema
2.9. Essas propriedades decorrem imediatamente da Definção 2.9. De fato,
i)I∗ = I segue diretamente do fato que
〈v, I(u)〉V = 〈v, u〉U = 〈I(v), u〉U ,
para todo u, v.
ii) (T + S)∗ = T ∗ + S∗ é uma consequência do fato que
〈v, (T + S)(u)〉 = 〈v, T (u) + S(u)〉
= 〈v, T (u)〉+ 〈v, S(u)〉
= 〈T ∗(v), u〉+ 〈S∗(v), u〉
= 〈T ∗(v) + S∗(v), u〉,
para todo u ∈ U e v ∈ V .
iii) Também concluímos que
〈v, (λT )(u)〉 = 〈v, λT (u)〉 = λ〈v, T (u)〉 = λ〈T ∗(v), u〉 = 〈λT ∗(v), u〉,
para todo u ∈ U e v ∈ V . Assim, (λT )∗ = λT ∗.
iv)
〈w, (P ◦ T )(u)〉 = 〈w,P (T (u))〉
= 〈P ∗(w), T (u)〉
= 〈T ∗(P ∗(w)), u〉
= 〈(T ∗ ◦ P ∗)(w), u〉,
para todo u ∈ U e w ∈ W . Portanto, (P ◦ T )∗ = T ∗ ◦ P ∗.
27
v) Por fim, T ∗∗ = T segue do fato que
〈v, T ∗(u)〉 = 〈T (v), u〉,
para todo u ∈ U e v ∈ V . �
Exemplo 2.32. Seja S : R2 → R3, definido por S(x, y) = (2x, 4x+2y,−2y). Desejamos
encontrar a adjunta de S. Observe que S = 2T , onde T (x, y) = (x, 2x + y,−y). Vimos
no Exemplo 2.30 que T ∗(a, b, c) = (a+ 2b, b− c). Logo, pelo item iii) da Proposição 2.6,
obtemos
S∗(a, b, c) = (2T )∗(a, b, c) = 2T ∗(a, b, c) = 2(a+ 2b, b− c) = (2a+ 4b, 2b− 2c).
Exemplo 2.33. Seja S : R2 → R2 dado por S(x, y) = (x− y, x+ y). Note que,
S(x, y) = (x− y, x+ y) = (x, y) + (−y, x) = I(x, y) + T (x, y) = (I + T )(x, y),
para todo (x, y) ∈ R2, onde T está definida no Exemplo 2.31 e I é a identidade de R2.
Vimos que T ∗(a, b) = (b,−a). Portanto, usando so itens i) e ii) da Proposição 2.6,
encontramos
S∗(a, b) = (I + T )∗(a, b)
= (I∗ + T ∗)(a, b)
= I∗(a, b) + T ∗(a, b)
= (a, b) + (b,−a)
= (a+ b, b− a).
Proposição 2.7 (Adjunta da inversa). Seja T : V → V um isomorfismo, onde V é um
espaço vetorial com produto interno. Então T ∗ (caso exista) também o é. Neste caso,
[T ∗]−1 = [T−1]∗.
Demonstração: Como T é um isomorfismo, existe aplicação linear T−1 : V → V satis-
fazendo T ◦ T−1 = T−1 ◦ T = I , onde I : V → V é a identidade de V . Portanto,
utilizando os itens i) e iv) da Proposição 2.6, obtemos [T ◦T−1]∗ = [T−1 ◦T ]∗ = I∗. Com
isso, [T−1]∗ ◦ T ∗ = T ∗ ◦ [T−1]∗ = I. Isto nos diz que T ∗ é inversível, ou seja, T ∗ é um
isomorfismo. Além disso, [T ∗]−1 = [T−1]∗. �
Proposição 2.8. Seja T : V → V um operador linear, onde V é um espaço vetorial com
produto interno 〈., .〉. Seja U um subespaço T-invariante, isto é, T (U) ⊆ U . Suponha que
T ∗ : V → V existe, então U⊥ é um subespaço T ∗-invariante, ou seja, T ∗(U⊥) ⊆ U⊥.
Demonstração: Seja u ∈ T ∗(U⊥), então existe v ∈ U⊥ tal que u = T ∗(v). Dado w ∈ U,
temos que 〈u,w〉 = 〈T ∗(v), w〉 = 〈v, T (w)〉. Como w ∈ U , então T (w) ∈ U , pois
28
T (U) ⊆ U . Por conseguinte,〈u,w〉 = 〈v, T (w)〉 = 0, pois v ∈ U⊥ e T (w) ∈ U . Assim
sendo, u ∈ U⊥. Portanto T ∗(U⊥) ⊆ U⊥. �
2.9 Matriz da Adjunta em Relação a uma Base Ortonormal
Teorema 2.10. Seja T : V → V uma transformação linear, onde V é um espaço veto-
rial com produto interno 〈., .〉 e de dimensão finita. Seja β = {v1, v2, ..., vn} uma base
ortonormal de V . Então [T ∗]β = [T ]tβ.
Demonstração: Seja [T ]β = (Aij). Note que T (vj) = A1v1 + A2v2 + ...+ Anvn. Conse-
quentemente,
〈T (vj), vi〉 = 〈A1jv1 +A2jv2 + ...Anj, vi〉 = A1j〈v1, vi〉+A2j〈v2, vi〉+ ...+Anj〈vn, vi〉.
Como β é uma base ortonormal, então 〈T (vj), vi〉 = Aij〈vi, vi〉 = Aij . Portanto,
〈T (vj), vi〉 = Aij, para todo i, j = 1, 2, ..., n. Seja [T ∗]β = (Bij). Analogamente ao
que foi feito nesta demonstração, temos que
Bij = 〈T ∗(vj), (vi)〉 = 〈vj, T (vi)〉 = 〈T (vi), vj〉 = Aji,
para todo i,j=1,2,...,n. Isto nos diz que [T ∗]β = [T ]tβ. �
Exemplo 2.34. Seja T(x,y)=(-y,x). Então [T ]c =
(
0 −1
1 0
)
é a matriz de T em relação
à base canônica de R2. Como esta base ortonormal, em relação ao produto interno canô-
nico de R2, usando o Teorema 2.10 para concluirmos que [T ∗]c = [T ]tc =
(
0 1
−1 0
)
.
Portanto, T ∗(a, b) = (b,−a).
2.10 Operadores Auto-adjuntos
Definição 2.10. Seja V um espaço vetorial com produto interno 〈., .〉. Dizemos que um
operador linear T : V → V é auto-adjunto se T = T ∗. Esse operador também pode ser
chamado de Hermitiano.
Exemplo 2.35. Seja T : R2 → R2, dada por T (x, y) = (y, x). Vimos, no Exemplo 2.31,
que T ∗ = T , logo, T é um operador auto-adjunto.
Exemplo 2.36 (Operador não auto-adjunto). Seja T : R2 → R2, dada por T (x, y) =
(−y, x). Vimos que T ∗(a, b) = (b,−a). Em particular,
T ∗(1, 1) = (1,−1) 6= T (1, 1) = (−1, 1).
Ou seja, T ∗ 6= T . Isto nos diz que Tnão é auto-adjunto ou Hermitiano.
29
Exemplo 2.37. Seja V um espaço vetorial com produto interno 〈., .〉. Seja v ∈ V um vetor
fixo. Seja T : V → V definida por T (u) = 〈v, u〉v, para todo u ∈ V . Vamos mostrar que
T é auto-adjunto. De fato,
〈v, T (u)〉 = 〈v, 〈v, u〉v〉 = 〈v, u〉〈v, v〉 = 〈〈v, v〉v, u〉 = 〈T (v), u〉,
ou seja, T ∗ = T . Isto nos diz que T é auto-adjunto.
Proposição 2.9. Seja V um espaço vetorial com produto interno e seja T : V → V um
operador auto-adjunto e um isomorfismo. Então T−1 também o é.
Demonstração: A Proposição 2.6 nos diz que (T−1)∗ = (T ∗)−1 = T−1, já que T é auto-
adjunto. Ou seja, T−1 é auto-adjunto e claramente um isomorfismo. �
Exemplo 2.38. Seja T (x, y) = (x+ y, x− y). Então T é auto-adjunto. De fato,
〈(a, b), T (x, y)〉 = 〈(a, b), (x+ y, x− y)〉
= a(x+ y) + b(x− y)
= x(a+ b) + y(a− b)
= 〈(a+ b, a− b), (x, y)〉
implica que T ∗(a, b) = (a+ b, a− b), e isto mostra que T ∗ = T .
Em um espaço vetorial E com produto interno, seja T : E → E um operador
linear. Supondo que T ∗ exista, dizemos que T é unitário, se T ∗T = TT ∗ = I . Operadores
unitários também são chamados de ortogonais, especialmente no caso ondeE é um espaço
vetorial real, enquanto operadores simétricos, isto é, quando T⊥ = T , são chamados de
hermitianos. Essa última denominação é mais empregada no caso de E ser um espaço
vetorial complexo. Dizemos ainda que T é anti-simétrico se T ∗ = −T . A denominação
anti-hermitiano também é usada para um operador anti-simétrico. Para maiores detalhes
veja Bueno (2009, p.11).
2.11 Matrizes de Operadores Auto-adjuntos
É possível verificar quando um operador é auto-adjunto através da matriz deste
em relação a uma base ortonormal. Lembre que uma matriz A é simétrica se A = At.
Teorema 2.11 (Caracterização de Operadores Auto-adjuntos). Seja V um espaço vetorial
com produto interno 〈., .〉 e de dimensão finita. Seja T : V → V um operador linear.
Então T é auto-adjunto se, e somente se, [T ]β é simétrica, onde β é base ortonormal de V .
Demonstração: Suponha que T é auto-adjunto. Seja β base ortonormal de V. Vimos
no Teorema 2.10 que [T ∗]β = [T ]tβ . Como T é auto-adjunto, então T
∗ = T . Logo,
30
[T ]β = [T
∗]β = [T ]tβ . Isto nos diz que [T ]β é simétrica.
Reciprocamente, suponha que [T ]β = [T ]tβ , onde β = {v1, v2, ..., vn} é uma base ortonor-
mal de V. Consequentemente, 〈T (vi), vj〉 = 〈T (vj), vi〉, para todo i, j variando de 1 a n.
Essas são as entradas das matrizes [T ]β e [T ]tβ , respectivamente. Se u, v ∈ V , então, pela
definição de base, u =
∑n
i=1 xivi e v =
∑n
j=1 yjvj . Portanto,
〈u, t(v)〉 = 〈
n∑
i=1
xivi, T (
n∑
j=1
yjvj〉
=
n∑
i=1
xi
n∑
j=1
yj〈vi, T (vj)〉
=
n∑
i=1
xi
n∑
j=1
yj〈T (vj), vi〉
=
n∑
i=1
xi
n∑
j=1
yj〈T (vi), vj〉,
onde 〈T (vi), vj〉 = 〈vi, T (vj)〉. Por fim,
〈u, T (v)〉 = 〈
n∑
i=1
xiT (vi),
n∑
j=1
yjvj〉 = 〈T (
n∑
i=1
xivi),
n∑
j=1
yivj〉 =〈T (u), v〉.
Logo, usando a Proposição 2.1, temos que T ∗ = T . Pela Definição 2.10, T é auto-adjunto.
�
A hipótese de ortonormalidade da base não pode ser desconsiderada.
Exemplo 2.39. Seja T (x, y, z) = (2x+2z, x+z, x+z) um operador linear sobre V = R3
e seja β = {(1, 1, 0), (1, 0, 0), (0, 0, 1)} uma base de V. Note que
[T ]β =
 1 1 11 1 1
1 1 1
 .
Assim sendo, [T ]β é simétrica mas T não é auto-adjunto. Com efeito,
〈T (1, 0, 0), (0, 1, 0)〉 = 〈(2, 1, 1), (0, 1, 0)〉 = 1
e
〈(1, 0, 0), T (0, 1, 0)〉 = 〈(1, 0, 0), (0, 0, 0)〉 = 0.
Logo, 〈T (1, 0, 0), (0, 1, 0)〉 6= 〈(1, 0, 0), T (0, 1, 0)〉.
31
Exemplo 2.40. Seja T : R2 → R2 dado por T (x, y) = (−y, x). Note que,
[T ]c =
(
0 −1
1 0
)
,
onde c é a base canônica deR2. Veja que [T ]c não é simétrica. Então T não é auto-adjunto,
pelo Teorema 2.11.
Exemplo 2.41. Seja T : R2 → R2 dado por T (x, y) = (y, x). Veja que
[T ]c =
(
0 1
1 0
)
,
é uma matriz simétrica, onde c é a base canônica deR2. Dessa forma, pelo Teorema 2.11,
T é auto-adjunto.
32
3 METODOLOGIA
Este trabalho foi elaborado com as informações obtidas através de documentos
bibliográficos. Com uma pesquisa acurada, empregou-se a maneira tradicional de leitura e
reescrita dos fatos e resultados já existentes buscando um melhor entendimento da referida
matéria, do estudo Teorema Espectral para Operadores Adjuntos. As etapas realizadas
em busca da compreensão dos referidos temas acima relacionados podem ser listados em
ordem cronológica como:
a. Estudo rigoroso das definições e métodos do produto interno e norma em
um espaço vetorial;
b. Estudo rigoroso das definições e métodos sobre complemento ortogonal e
conjunto ortonormal;
c. Estudo rigoroso das definições e métodos da adjunta de um operador linear
e dos operadores auto-adjuntos;
d. Estudo rigoroso das definições e métodos para o entendimento do Teorema
Espectral para operadores auto-adjuntos em um subespaço de dimensão finita;
e. Aplicação do teorema espectral para solucionar alguns exemplos.
33
4 RESULTADOS E DISCUSSÕES
4.1 Teorema Espectral para Operadores Auto-adjuntos
Para operadores auto-adjuntos sobre um espaço vetorial V de dimensão finita existe
uma base ortonormal desse espaço formada por autovetores. Isto garante que a reapre-
sentação matricial do operador é uma matriz diagonal. Tal resultado é conhecido como
Teorema Espectral para o operadores auto-adjuntos.
Lema 4.1. Seja Tum operador linear auto-adjunto sobre um espaço vetorial real V com
um produto interno. Então autovetores associados a autovalores distintos são ortogonais.
Demonstração: Sejam v, w ∈ V autovetores associados a autovalores distintos λ e µ,
respectivamente, ou seja, T (v) = λv e T (w) = µw. Então, por ser T auto-adjunto, segue
que 〈v, T (w)〉 = 〈T (v), w〉. Assim, 〈v, µw〉 = 〈λv, w〉. Consequentemente, µ〈v, w〉 =
λ〈v, w〉 e (λ−µ)〈v, w〉 = 0. Como λ 6= µ temos que 〈v, w〉 = 0. Concluímos que v ⊥ w.
�
Lema 4.2. Seja T um operador auto-adjunto sobre um espaço vetorial com produto in-
terno e de dimensão finita V . Se U é um subespaço T-invariante, então U⊥ também o é
.
Demonstração: Seja u ∈ T ∗(U⊥), então existe v ∈ U⊥ tal que u = T ∗(v). Dado w ∈ U,
temos que 〈u,w〉 = 〈T ∗(v), w〉 = 〈v, T (w)〉. Como w ∈ U , então T (w) ∈ U , pois
T (U) ⊆ U . Por conseguinte,〈u,w〉 = 〈v, T (w)〉 = 0, pois v ∈ U⊥ e T (w) ∈ U . Assim
sendo, u ∈ U⊥. Como T = T ∗, T (U⊥) ⊆ U⊥. �
Lema 4.3. Seja T : V → V um operador linear auto-adjunto sobre um espaço vetorial
real com produto interno e de dimensão finita. Então existe autovalores de T e os mesmos
são números reais.
Demonstração: Seja β uma base ortonormal de V . Considere que dimV = n > 0.
Então, pelo Teorema 2.11, [T ]β = A = (Aij) é simétrica, pois T é um operador auto-
adjunto. Considere o polinômio característico de T , pA(x) = det(xI − A) = 0, onde
I é a matriz identidade n × n. Então λ é autovalor de T se, e somente se, pA(λ) =
det(λI − A) = 0. Pelo Teorema Fundamental da Álgebra, este polinômio tem pelo
menos uma raiz complexa λ. Vamos mostrar que λ ∈ R. Como det(λI − A) = 0, segue
que o sistema linear AX = λX possui infinitas soluções não nulas (X é uma matriz n× 1
com entradas complexas). Digamos que
Y =

y1
y2
...
yn
 ∈ Rn,
34
é uma solução não-nula de AX = λX. Ou seja, AY = λY e Y 6= 0. Escrevendo esta
equação matricial como sistema linear, obtemos as equações
n∑
j=1
Aijyj = λyi, (i = 1, 2..., n).
Com isso, multiplicando por yi, encontramos
n∑
j=1
Aijyjyi = λyiyi, (i = 1, 2, ..., n).
Somando estes resultados, obtemos
n∑
i,j=1
Aijyjyi = λ
n∑
i=1
yiyi = λ
n∑
i=1
|yi|2.
(este síbolo || é o módulo de um número complexo). Observe que esta última soma resulta
em um número real. Vamos, agora, verificar
n∑
i,j=1
Aijyjyi ∈ R. Ou em outras palavras,
vamos mostrar que:
n∑
i,j=1
Aijyjyi =
n∑
i,j=1
Aijyjyi.
De fato,
n∑
i,j=1
Aijyjyi =
n∑
i,j=1
Aijyjyi =
n∑
i,j=1
Aijyjyi,
na última igualdade usamos o fato que A é uma matriz real. Como A é simétrica, então
n∑
i,j=1
Aijyjyi =
n∑
i,j=1
Ajiyjyi =
n∑
i,j=1
Aijyiyj =
n∑
i,j=1
Aijyjyi,
onde na penúltima igualdade fizemos uma mudança de índices de i para j. Consequen-
temente,
n∑
i,j=1
Aijyjyi ∈ R. Como,
∑n
i=1 |yi|2 ∈ R e é não nulo pois yw 6= 0 para algum
indice w ∈ {1, ..., n}, tem-se que
λ =
n∑
i,j=1
Aijyjyi
|yi|2 ∈ R,
como queriamos provar. �
Teorema 4.1 (Teorema Espectral para Operadores Auto-adjuntos). Seja Tum operador
linear sobre espaço vetorial com produto interno e de dimensão finita. Então T é auto-
adjunto se, e somente se, existe uma base ortonormal de V formada por autovetores de
T .
35
Demonstração: Admita que T seja auto-adjunto. Seja dimV = n. Faremos a prova por
indução sobre n. Se n = 1 e {v} é uma base de V , segue que
{
v
||v||
}
é uma base orto-
normal de V formada por um autovetor, pois nesse caso, todo elemento não-nulo de V é
um autovetor já que T (v) ∈ V implica, que pela definição de base, que T (v) = λv para
algum λ ∈ R.
Agora considere n > 1 e suponha que o Teorema seja válido para todo subespaço de
V com dimensão menor que n. Como n > 1, segue do Lema 4.3 que existe v1 ∈ V au-
tovetor unitário de T associado a um autovalor α. Seja U = [v1]. Assim, pela Obervação
2.7, temos que dimU⊥ = dimV − dimU = n − 1 < n. Além disso, para qualquer
elemento w = µv1 em U temos que T (µv1) = µT (v1) = (µα)v1 ∈ U . Isto nos diz que
Ué T-invariante e , em consequência, do Lema 4.2 , concluímos que U⊥ é um subespaço
de dimensão menos que n e T-invariante. Por hipótese de indução, existe uma base or-
tonormal {v2, v3, ..., vn} de U⊥. Logo, pela Observação 2.6, {v1, v2, .., vn} é uma base
ortonormal de V formada por autovetores de T , digamos que T (vi) = λivi, para todo
i = 1, 2, ..., n. Vamos provar que T é auto-adjunta. Como na base β, T tem representação:
[T ]β =

λ1 0 . . . 0
0 λ2 . . . 0
0 0
. . . 0
0 0 . . . λn
 ,
segue que T é uma matriz simétrica, ou seja, [T ]β = [T ]tβ , segue o Teorema 2.11 que T é
auto-adjunto. �
Abaixo uma aplicação do Teorema Espectral para matrizes.
Corolário 4.1 (Teorema Espectral para Matrizes Simétricas). Seja
A ∈Mn(R) = {matrizes n× n com coeficientes reais}
uma matriz simétrica. Então existe P ∈ Mn(R) ortogonal tal que D = P tAP , onde
D é uma matriz diagonal, constituída dos autovalores de A na diagonal (lembre que P é
ortogonal se P−1 = P t, isto é, PP t = P tP = I).
Demonstração: Sejam V = Rn e c a base canônica desse espaço vetorial. Seja T : V → V
o operador linear tal que [T ]c = A. Como c é ortonormal A é simétrica, então, pelo
Teorema 2.11, T é um operador auto-adjunto. Pelo Teorema 4.1, existe base ortonormal
β = {v1, v2, ..., vn} de V formada por autovetores de T , digamos T (vi) = λivi, para todo36
i = 1, 2, ..., n. Logo,
D = [T ]β =

λ1 0 . . . 0
0 λ2 . . . 0
0 0
. . . 0
0 0 . . . λn
 .
Mas,D = [T ]β = P−1AP , onde P é a matriz mudança de base de β para c. Isto é, P possui
como colunas os vetores da base β. Seja vi = (xi1, x
i
2, ..., x
i
n), para todo i = 1, 2, ..., n.
Logo,
P tP =

x11 x
1
2 . . . x
1
n
x21 x
2
2 . . . x
2
n
. . . . . . . . . . . .
xn1 x
n
2 . . . x
n
n


x11 x
2
1 . . . x
n
1
x12 x
2
2 . . . x
n
2
. . . . . . . . . . . .
x1n x
2
n . . . x
n
n

=

〈v1, v1〉 〈v1, v2〉 . . . 〈v1, vn〉
〈v2, v1〉 〈v2, v2〉 . . . 〈v2, vn〉
. . . . . . . . . . . .
〈vn, v1〉 〈vn, v2〉 . . . 〈vn, vn〉

=

1 0 . . . 0
0 1 . . . 0
. . . . . . . . . . . .
0 0 . . . 1
 = I,
a penútima igualdade segue da ortonormalidade de β. Ou seja, P é ortogonal (P−1 = P t),
basta utilizar o Teorema do núcleo e imagem. �
Exemplo 4.1. Seja A =
(
1 2
2 −2
)
. Vamos encontrar An para todo n ∈ N. Note que A
é uma matriz simétrica. Vamos encontrar os autovalores de A. Para isto, basta encontrar
as raízes do polinômio característico. Veja que
pA(x) = det(xI − A) = det
(
x− 1 −2
−2 x+ 2
)
= (x− 1)(x+ 2)− 4
= (x+ 3)(x− 2),
(I é a matriz identidade 2 × 2 ) é o polinômio característico de A. Logo, os autovalores
de A são λ1 = −3 e λ2 = 2. Agora, vamos encontrar os autovetores associados a estes
autovalores. Comecemos com o autovalor λ1 = −3. Seja v =
(
x
y
)
um vetor qualquer
37
de A associado ao autovalor λ1 = −3. Então Av = −3v, ou seja,(
1 2
2 −2
)(
x
y
)
= −3
(
x
y
)
.
Em forma de sistemas lineares, obtemos{
x+ 2y = −3x;
2x− 2y = −3y.
Este sistema é equivalente ao sistema{
4x+ 2y = 0;
2x+ y = 0.
A solução deste sistema é y = −2x, para todo x ∈ R. Desta forma,
v =
(
x
y
)
=
(
x
−2x
)
= x
(
1
−2
)
.
Logo o auto-espaço associado ao autovalor λ1 = −3 é V−3 = [(1,−2)]. Agora, considere
o autovalor λ2 = 2. Seja v =
(
x
y
)
um autovetor qualquer de A associado do autovalor
λ2 = 2. Logo, Av = 2v. Isto é,(
1 2
2 −2
)(
x
y
)
= 2
(
x
y
)
.
Em forma sistema linear, obtemos {
x+ 2y = 2x;
2x− 2y = 2y.
Este sistema é equivalente ao sistema{
−x+ 2y = 0;
2x− 4y = 0.
Portanto, a solução deste sistema é x = 2y, para todo y ∈ R. Assim sendo,
v =
(
x
y
)
=
(
2y
y
)
= y
(
2
1
)
.
Logo o auto-espaço associado ao autovalor é λ2 = 2 é V2 = [(2, 1)]. Consequentemente,
obtemos uma base formada por autovetores {v1 = (1,−2), v2 = (2, 1)} do operador A.
38
Ora, esses autovetores são associados a autovalores distintos, donde pelo Lema 4.1 eles
são ortogonais. Resta então normalizá-los para obtermos uma base ortonormal. Dessa
forma,
{(
1√
5
, −2√
5
)
,
(
2√
5
, 1√
5
)}
é uma base ortonormal formada por autovetores de A.
Colocando estes vetores em coluna encontramos a matriz ortogonal
P =
(
1√
5
2√
5
−2√
5
1√
5
)
.
A matriz diagonal
D =
(
−3 0
0 2
)
,
(autovalores de A na diagonal) satisfaz D = P−1AP , onde P−1 = P t. Consequente-
mente, A = PDP−1. Logo,
A2 = (PDP 1)(PDP−1) = PD2P−1,
A3 = A2A = (PD2P−1)(PDP−1) = PD3P−1
...
An = PDnP−1.
Ou seja,
An = PDnP−1 = PDnP t =
(
1√
5
2√
5
−2√
5
1√
5
)(
(−3)n 0
0 2n
)(
1√
5
−2√
5
2√
5
1√
5
)
.
Exemplo 4.2. Seja
A =
 1 −2 0−2 1 0
0 0 −1
 .
Veja que A é uma matriz simétrica. Vamos encontrar os autovalores de A. Note que
pA(x) = det(xI − A) = det
 x− 1 2 02 x− 1 0
0 0 x+ 1
 = (x+ 1)2(x− 3).
onde (I é a matriz identidade 3× 3) e pA(x) é o polinômio característicos de A. Logo, os
autovalores de A são λ1 = −1 ( com multiplicidade algébrica 2) e λ2 = 3. Agora, vamos
encontrar os autovetores associados a estes autovalores. Comecemos com o autovalor
λ1 = −1. Seja v =
 xy
z
 um autovetor qualquer de A associado ao autovalor λ1 = −1.
39
Daí, Av = −v. Ou seja, 1 −2 0−2 1 0
0 0 −1

 xy
z
 = −
 xy
z
 .
Em forma de sistema linear, obtemos
x− 2y = −x;
−2x+ y = −y;
−z = −z.
Este sistema é equivalente ao sitema{
2x− 2y = 0;
−2x+ 2y = 0.
A solução deste sistema é x = y, para todo y ∈ R. Com isso,
v =
 xy
z
 =
 yy
z
 = y
 11
0
+ z
 00
1
 .
Logo o autoespaço associado ao autovalor λ1 = −1 é V−1 = [(1, 1, 0), (0, 0, 1)]. Agora,
considere o autovalor λ2 = 3. Seja v =
 xy
z
 um autovetor qualquer de A associado
ao autovalor λ2 = 3. Logo, Av = 3v. Isto é, 1 −2 0−2 1 0
0 0 −1

 xy
z
 = 3
 xy
z
 .
Em forma de sistema linear, temos que
x− 2y = 3x;
−2x+ y = 3y;
−z = 3z.
Este sistema é equivalente ao sistema
−2x− 2y = 0;
−2x− 2y = 0;
z = 0.
40
Portanto, a solução deste sistema é x = −y, ∀y ∈ R. Assim sendo,
v =
 −yy
0
 = y
 −11
0
 .
Logo o auto-espaço associado ao autovalor λ2 = 3 é V3 = [(−1, 1, 0)]. Por conseguinte,
{v1 = (1, 1, 0), v2 = (0, 0, 1), v3 = (−1, 1, 0)} é uma base formada por autovetores de A.
Mais uma vez, como v3 é autovetor associado ao autovalor λ2 = 3 e v1 e v2 são autovetores
associados ao autovalor λ1 = −1, segue que v3 ⊥ v1 e v3 ⊥ v2. Agora, 〈v1, v2〉 = 0.
Assim, a base {v1, v2, v3} é ortogonal. Resta então normalizá-la, multiplicando cada vetor
base pelo inverso de sua norma. Dessa forma,
{(
1√
2
, 1√
2
, 0
)
, (0, 0, 1),
(
−1√
2
, 1√
2
, 0
)}
é
uma base ortonormal formada por autovetores de A. Colocando estes vetores em coluna
encontramos a matriz ortogonal
P =

1√
2
0 −1√
2
1√
2
0 1√
2
0 1 0
 .
A matriz diagonal ´D é dada por:
D =
 −1 0 00 −1 0
0 0 3

(autovalores de A estão na diagonal) satisfaz D = P−1AP, onde P−1 = P t.
41
5 CONCLUSÃO
Em geral concluímos que num espaço vetorial com produto interno há modos efi-
cientes de manipular seus elementos possibilitando definir comprimentos e distâncias.
Dessa forma, sempre é possível decompor um espaço vetorial de dimensão finita com
um produto interno numa soma de dois subespaços, e assim definir uma projeção orto-
gonal sobre este espaço. Além disso, para operadores lineares sobre um espaço vetorial
de dimensão finita associamos um outro operador linear, chamado de operador adjunto,
o qual relaciona elementos do espaço dual com elementos do espaço vetorial. Sobre es-
ses operadores, podemos definir ainda os operadores auto-adjuntos: operadores lineares
diagonalizáveis onde o conjunto de autovalores do operador é não vazio e é constituído
por números reais. Como aplicação, esses operadores nos permitem calcular qualquer
potência de uma matriz simétrica real.
42
REFERÊNCIAS
BARATA, J. C. A. Curso de Física-Matemática. 2013. Disponível em:
< http : //denebola.if.usp.br/ jbarata/Notasdeaula/capitulos.html >. Acesso em:
mar. 2013.
BARBOZA, D. F.; MELO, W. G. Álgebra Linear II. 2011. Disponível em:
< http : //www.scribd.com/doc/88493178/Algebra − Linear − II − Livro − de −
Danilo >. Acesso em: jan. 2013.
BOLDRINI, J. L. Álgebra Linear. 3. ed. São Paulo: HARBRA, 1986.
FALEIROS, A. C. Álgebra Linear Aplicada. 2010. Disponível em:
< http : //pt.scribd.com/doc/86591659/043− notasdeaulaalgebralinearaplicada−
faleiros >. Acesso em: jan. 2013.
LIMA, E.L. Curso de Análise.12. ed. Rio de Janeiro: IMPA, 2009. v.1.
LIMA, E. L. Análise Real. 1. ed. Rio de Janeiro: IMPA, 1999.
LIMA, E. L. Álgebra Linear. 7. ed. Rio de Janeiro: IMPA, 2012.
LIPSCHUTZ, S.; LIPSON, M. Álgebra Linear. 3. ed. Porto Alegre: Bookman, 2008.
LIPSCHUTZ, S. Álgebra Lineal. 2. ed. Madrid: McGraw-Hill, 1992.
LIPSCHUTZ,S. Álgebra Linear. 3. ed. São Paulo: Makron Books, 1994.
43
AUTORIZAÇÃO 
 
 
 
 
Autorizo a reprodução e/ou divulgação total ou parcial do presente trabalho, por 
 
qualquer meio convencional ou eletrônico, desde que citada a fonte. 
 
 
 
 
 
 
_________________________________ 
 
Pedro Paulo Nunes Costa 
 
pedrocostasje@hotmail.com 
 
Universidade Federal dos Vales do Jequitinhonha e Mucuri 
 
Diamantina/MG - Rodovia MGT 367 - Km 583, nº 5000 - Alto da Jacuba

Outros materiais