Buscar

Algebra Linear - Wilberclay

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 151 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 151 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 151 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

ÁLGEBRA LINEAR II
WILBERCLAY GONÇALVES MELO
Curso: Licenciatura em Matemática
Durante o desenvolvimento deste trabalho o autor recebeu incentivo moral do DMA-UFS
Aracaju, Setembro de 2011
Sumário
1 Produto Interno em R e Norma de um Vetor 1
1.1 Produto Interno em R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Definição de Produto Interno e Exemplos . . . . . . . . . . . . . . . . 1
1.1.2 Propriedades do Produto Interno . . . . . . . . . . . . . . . . . . . . 5
1.2 Norma de um Vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Definição de Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.2 Resultados Importantes sobre Produto Interno e Norma . . . . . . . . 8
1.2.3 Exemplos de Normas . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3 Exerćıcios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2 Ortogonalidade e Processo de Gram-Schmidt 17
2.1 Ângulo entre Vetores e Ortogonalidade . . . . . . . . . . . . . . . . . . . . . 17
2.1.1 Definição de Ângulo entre Vetores e Exemplos . . . . . . . . . . . . . 17
2.1.2 Definição de Vetores Ortogonais e Exemplos . . . . . . . . . . . . . . 19
2.1.3 Propriedades da Ortogonalidade . . . . . . . . . . . . . . . . . . . . . 19
2.2 Conjuntos Ortonormais e Processo de Gram-Schmidt . . . . . . . . . . . . . 21
2.2.1 Definição de Conjuntos Ortonormais e Exemplos . . . . . . . . . . . . 22
ii
2.2.2 Processo de Gram-Schmidt e Exemplos . . . . . . . . . . . . . . . . . 23
2.3 Exerćıcios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3 Complemento e Projeção Ortogonal 30
3.1 Complemento e Projeção Ortogonal . . . . . . . . . . . . . . . . . . . . . . . 30
3.1.1 Definição de Complemento Ortogonal e Exemplos . . . . . . . . . . . 30
3.1.2 Resultado Importante sobre Complemento Ortogonal . . . . . . . . . 31
3.1.3 Definição de Projeção Ortogonal e Exemplos . . . . . . . . . . . . . . 32
3.2 Exerćıcios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4 A Adjunta de um Operador Linear 38
4.1 Adjunta de um Operador Linear . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.1.1 Definição de Adjunta e Exemplos . . . . . . . . . . . . . . . . . . . . 38
4.1.2 Existência e Unicidade da Adjunta . . . . . . . . . . . . . . . . . . . 40
4.1.3 Propriedades da Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.1.4 Matriz da Adjunta em Relação a uma Base Ortonormal . . . . . . . . 46
4.2 Exerćıcios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5 Operadores Auto-adjuntos e Antiauto-adjuntos 50
5.1 Operadores Auto-adjuntos e Antiauto-adjuntos . . . . . . . . . . . . . . . . . 50
5.1.1 Definições e Exemplos de Operadores Auto-adjuntos e Antiauto-adjuntos 50
5.1.2 Resultados Importantes sobre Operadores Auto-adjuntos e Antiauto-
adjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.1.3 Matrizes de Operadores Antiauto-adjuntos e Auto-adjuntos . . . . . . 53
5.1.4 Teorema Espectral para Operadores Auto-adjuntos . . . . . . . . . . 56
iii
5.2 Exerćıcios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
6 Operadores Unitários, Normais, Definidos e Indefinidos 69
6.1 Operadores Unitários . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.1.1 Definição e Exemplos de Isometrias . . . . . . . . . . . . . . . . . . . 69
6.1.2 Operadores Lineares e Isometrias . . . . . . . . . . . . . . . . . . . . 70
6.1.3 Definição e Exemplos de Operadores Unitários . . . . . . . . . . . . . 71
6.1.4 Alguns Resultados sobre Operadores Unitários . . . . . . . . . . . . . 72
6.1.5 Matrizes de Operadores Unitários . . . . . . . . . . . . . . . . . . . . 74
6.2 Operadores Normais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.2.1 Definição e Exemplos de Operadores Normais . . . . . . . . . . . . . 77
6.2.2 Resultados Importantes sobre Operadores Normais . . . . . . . . . . 78
6.2.3 Matrizes de Operadores Normais . . . . . . . . . . . . . . . . . . . . 79
6.3 Exerćıcios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7 Operadores Definidos, Indefinidos e Ráızes Quadradas 83
7.1 Operadores Definidos e Indefinidos . . . . . . . . . . . . . . . . . . . . . . . 83
7.1.1 Definições e Exemplos de Operadores Definidos e Indefinidos . . . . . 83
7.2 Raiz Quadrada de Operadores Lineares . . . . . . . . . . . . . . . . . . . . . 86
7.2.1 Definição e Exemplos de Raiz Quadrada . . . . . . . . . . . . . . . . 86
7.3 Resultados Importantes sobre Operadores Definidos, Indefinidos e Raiz Quadrada 87
7.4 Exerćıcios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
8 Formas Bilineares 93
iv
8.1 Formas Bilineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
8.1.1 Definição e Exemplos de Formas Bilineares . . . . . . . . . . . . . . . 93
8.1.2 Formas Bilineares Simétrica e Anti-simétrica . . . . . . . . . . . . . . 97
8.1.3 Resultados Importantes sobre Formas Bilineares . . . . . . . . . . . . 98
8.1.4 Matrizes de Formas Bilineares . . . . . . . . . . . . . . . . . . . . . . 99
8.2 Formas Quadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
8.2.1 Resultados Importantes sobre Formas Quadráticas . . . . . . . . . . . 105
8.3 Exerćıcios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
9 Polinômio Mı́nimo e Operadores Nilpotentes 113
9.1 Polinômio Mı́nimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
9.1.1 Definição e Exemplos de Polinômio Mı́nimo . . . . . . . . . . . . . . 113
9.2 Operadores Nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
9.2.1 Definição e Exemplos de Operadores Nilpotentes . . . . . . . . . . . . 123
9.2.2 Resultados Importantes sobre Nilpotência . . . . . . . . . . . . . . . 126
9.2.3 Matrizes de Operadores Nilpotentes . . . . . . . . . . . . . . . . . . . 129
9.3 Exerćıcios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
10 Teorema da Decomposição Primária e Forma Canônica de Jordan 134
10.1 Teorema da Decomposição Primária . . . . . . . . . . . . . . . . . . . . . . . 134
10.1.1 Aplicação do Teorema da Decomposição Primária . . . . . . . . . . . 135
10.2 Forma Canônica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
10.2.1 Definição de Forma Canônica de Jordan e Exemplos . . . . . . . . . 139
10.3 Exerćıcios Propostos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
v
Caṕıtulo 1
Produto Interno em R e Norma de
um Vetor
1.1 Produto Interno em R
Caro aluno, no curso de Vetores e Geometria Anaĺıtica, você estudou um produto especial
entre dois vetores de R2 (ou de R3). Este é denominado produto escalar. Depois de es-
tudarmos Álgebra Linear 1, mostramos como podemos adicionar uma estrutura de espaço
vetorial a um conjunto não-vazio. Nesta disciplina, provaremos que estas idéias podem ser
interligadas para que possamos estender o produto escalar a um espaço vetorial arbitrário.
Veremos que os conceitos de norma de um vetor, ângulo e ortogonalidade entre dois vetores
em R2 (ou de R3) podem ser generalizados.
1.1.1 Definição de Produto Interno e Exemplos
Definição 1.1 (Produto Interno em R). Seja V um espaço vetorial sobre R. Dizemos que
uma aplicação 〈·, ·〉 : V ×V −→ R, que associa dois vetores u, v ∈ V um único número 〈u, v〉
real, é um produto interno sobre V em R, se esta satisfaz as seguintes condições:
i) (Distributividade) 〈u + w, v〉 = 〈u, v〉+ 〈w, v〉, ∀ u, v, w ∈ V ;
ii) 〈λu, v〉 = λ〈u, v〉, ∀ u, v ∈ V, ∀ λ ∈ R;
iii) (Comutatividade) 〈u, v〉 = 〈v, u〉, ∀ u, v ∈ V ;
1
iv) (Positividade) 〈v, v〉 ≥ 0, ∀ v ∈ V ;
v) 〈v, v〉 = 0 se, e somente se, v = 0.
Quando munirmos o espaçovetorial V a um produto interno 〈·, ·〉, dizemos que V é um
espaço vetorial com produto interno 〈·, ·〉 ou que V é um espaço Euclidiano.
Obs 1.1 (Nomenclatura). Quando não houver possibilidade de confusão de quem é o espaço
vetorial, diremos simplesmente produto interno para um produto interno sobre V em R.
Obs 1.2 (Produto Interno sobre C). Podeŕıamos ter definido produto interno sobre um
espaço vetorial V em C (conjunto dos números complexos), chamado produto interno Her-
metiano, como sendo uma aplicação 〈·, ·〉 : V ×V −→ C que verifica os itens i), ii), iv) e v),
mas ao invés do item iii), teŕıamos a seguinte igualdade
iii’) 〈u, v〉 = 〈v, u〉, ∀ u, v ∈ V .
Exemplo 1.1 (Produto Interno Canônico em R2). Seja V = R2 o espaço vetorial com a
soma de vetores e multiplicação por escalar usuais, ou seja,
(x1, x2) + (y1, y2) = (x1 + y1, x2 + y2) e λ(x1, x2) = (λx1, λx2),∀ λ ∈ R.
Defina 〈·, ·〉 : R2×R2 −→ R por 〈(x1, x2), (y1, y2)〉 := x1y1 + x2y2. Afirmamos que 〈·, ·〉 é um
produto interno sobre R2 em R (este produto interno é chamado produto interno canônico
de R2). Com efeito, sejam u = (x1, x2), v = (y1, y2), w = (z1, z2) ∈ R2 e λ ∈ R, então
i)
〈u + w, v〉 = 〈(x1, x2) + (z1, z2), (y1, y2)〉 = 〈(x1 + z1, x2 + z2), (y1, y2)〉
:= (x1 + z1)y1 + (x2 + z2)y2 = x1y1 + z1y1 + x2y2 + z2y2
= (x1y1 + x2y2) + (z1y1 + +z2y2) =: 〈(x1, x2), (y1, y2)〉+ 〈(z1, z2), (y1, y2)〉
= 〈u, v〉+ 〈w, v〉,
na quarta igualdade, usamos a distributividade em R.
ii)
〈λu, v〉 = 〈λ(x1, x2), (y1, y2)〉 = 〈(λx1, λx2), (y1, y2)〉 := (λx1)y1 + (λx2)y2
2
= λ(x1y1 + x2y2) =: λ〈(x1, x2), (y1, y2)〉 = λ〈u, v〉,
na quarta igualdade, usamos a associatividade e a distributividade em R.
iii)
〈u, v〉 = 〈(x1, x2), (y1, y2)〉 := x1y1 + x2y2 = y1x1 + y2x2 =: 〈(y1, y2), (x1, x2)〉 = 〈v, u〉,
na terceira igualdade, usamos a comutatividade em R.
iv)
〈v, v〉 = 〈(y1, y2), (y1, y2)〉 := y1y1 + y2y2 = y21 + y22 ≥ 0.
v)
〈v, v〉 = 0 ⇔ y21 + y22 = 0 ⇔ y1, y2 = 0 ⇔ v = (y1, y2) = (0, 0) = 0,
ver item iv). Em particular, 〈(1, 0), (1,−1)〉 = 1·1+0(−1) = 1 e 〈(1, 0), (0, 1)〉 = 1·0+0·1 =
0. Quando não dissermos o contrário, este produto interno canônico será o produto interno
de R2.
Exemplo 1.2 (Produto Interno Canônico em Rn). Seja V = Rn = {(x1, x2, ..., xn) :
x1, x2, ..., xn ∈ R} o espaço vetorial com a soma de vetores e multiplicação por escalar
usuais, isto é,
(x1, x2, ..., xn) + (y1, y2, ..., yn) = (x1 + y1, x2 + y2, ..., xn + yn)
e
λ(x1, x2, ..., xn) = (λx1, λx2, ..., λxn),∀ λ ∈ R.
Defina 〈·, ·〉 : Rn × Rn −→ R por 〈(x1, x2, ..., xn), (y1, y2, ..., yn)〉 = x1y1 + x2y2 + ... + xnyn.
Seguindo os mesmos passos do exemplo 1.1 é posśıvel provar que 〈·, ·〉 é um produto interno
sobre Rn em R (este produto interno é chamado produto interno canônico de Rn). Em
particular, 〈(1, 0, ..., 2), (1, 0, ...,−1)〉 = 1 ·1+0 ·0+ ...+2(−1) = −1. Quando não dissermos
3
o contrário, este produto interno canônico será o produto interno de Rn.
Exemplo 1.3 (Produto Interno Canônico para as Funções Cont́ınuas). Seja V = C([a, b])
o espaço vetorial das funções reais cont́ınuas em [a, b], isto é, V = C([a, b]) = {f : [a, b] −→
R; f é cont́ınua}, aqui [a, b] ⊆ R é um intervalo, com as operações de soma de vetores e
multiplicação por escalar usuais, ou seja,
(f + g)(t) = f(t) + g(t) e (λf)(t) = λf(t),∀ t ∈ [a, b], λ ∈ R.
Defina a seguinte aplicação 〈f, g〉 =
∫ b
a
f(t)g(t)dt, onde f, g ∈ V (este produto interno é
denominado produto interno canônico de C([a, b])). Vamos provar que 〈·, ·〉 é um produto
interno. De fato, sejam f, g, h ∈ C([a, b]), então
i)
〈f + g, h〉 :=
∫ b
a
[f + g](t)h(t)dt =
∫ b
a
[f(t) + g(t)]h(t)dt =
∫ b
a
[f(t)h(t) + g(t)h(t)]dt
=
∫ b
a
f(t)h(t)dt +
∫ b
a
g(t)h(t)dt =: 〈f, h〉+ 〈g, h〉.
ii)
〈λf, h〉 :=
∫ b
a
(λf)(t)h(t)dt =
∫ b
a
λf(t)h(t)dt = λ
∫ b
a
f(t)h(t)dt =: λ〈f, h〉.
iii)
〈f, h〉 :=
∫ b
a
f(t)h(t)dt =
∫ b
a
h(t)f(t)dt =: 〈h, f〉.
iv)
〈f, f〉 :=
∫ b
a
f(t)f(t)dt =
∫ b
a
f(t)2dt ≥ 0.
v)
〈f, f〉 = 0 ⇔
∫ b
a
f(t)2dt = 0 ⇔ f(t) = 0, ∀ t ∈ [a, b] ⇔ f = 0,
4
ver item iv). Neste ponto, utilizamos o seguinte resultado para integrais: ϕ é cont́ınua
ϕ(t) ≥ 0,∀ t ∈ [a, b] e
∫ b
a
ϕ(t)dt = 0 ⇒ ϕ = 0 (consulte [5]).
Em particular, se f(t) = t e g(t) = 1,∀ t ∈ [0, 1], então
〈f, g〉 :=
∫ 1
0
f(t)g(t)dt =
∫ 1
0
t · 1dt =
∫ 1
0
tdt =
t2
2
∣∣∣
1
0
=
1
2
.
Quando não dissermos o contrário, este produto interno canônico será o produto interno de
C([a, b]).
Exemplo 1.4 (Não é Produto Interno). Seja V = R2 o espaço vetorial com a soma de vetores
e multiplicação por escalar usuais. Defina 〈·, ·〉 : R2 × R2 −→ R por 〈(x1, x2), (y1, y2)〉 :=
−2x1y1 + x2y2. Afirmamos que 〈·, ·〉 não é um produto interno sobre R2 em R. Com efeito,
seja v = (1, 0) ∈ R2, então
iv) 〈v, v〉 = 〈(1, 0), (1, 0)〉 := (−2)1 · 1 + 0 · 0 = −2 < 0.
Isto contradiz o item iv) da Definição 1.1.
1.1.2 Propriedades do Produto Interno
Vejamos algumas propriedades do produto interno herdadas do produto escalar.
Proposição 1.1 (Propriedades do Produto Interno). Seja V um espaço vetorial com produto
interno 〈·, ·〉. Então as seguintes afirmações são verdadeiras:
i) 〈u, λv〉 = λ〈u, v〉, ∀ u, v ∈ V, ∀ λ ∈ R;
ii) 〈0, v〉 = 〈v,0〉 = 0, ∀ v ∈ V e 0 ∈ V é o vetor nulo de V ;
iii) 〈u, v + w〉 = 〈u, v〉+ 〈v, w〉, ∀ u, v, w ∈ V ;
iv) Se 〈u, v〉 = 0, ∀ v ∈ V , então u = 0.
Demonstração. Vamos provar, primeiramente, o item i). Sejam u, v ∈ V , então
〈u, λv〉 = 〈λv, u〉 = λ〈v, u〉 = λ〈u, v〉,
5
nestas igualdades utilizamos os itens iii), ii), iii), da Definição 1.1, respectivamente.
Agora, mostremos que o item ii) é verdadeiro. De fato, usando o item i) e a comutatividade
da Definição 1.1, obtemos
〈0, v〉 = 〈v,0〉 = 〈v, 0 · 0〉 = 0〈v,0〉 = 0, ∀ v ∈ V,
onde 0 ∈ R é o número zero e 0 ∈ V é o vetor nulo de V .
Vejamos a demonstração do item iii). Sejam u, v, w ∈ V , então
〈u, v + w〉 = 〈v + w, u〉 = 〈v, u〉+ 〈w, u〉 = 〈u, v〉+ 〈u,w〉,
aqui usamos os itens iii), i), iii), da Definição 1.1, respectivamente.
Por fim, verifiquemos o item iv). Se 〈u, v〉 = 0, ∀ v ∈ V , então 〈u, u〉 = 0 (basta considerar
v = u). Utilizando a Definição 1.1, item v), obtemos que u = 0. Isto conclui a demonstração.
Obs 1.3 (Propriedades em C). Os itens ii), iii) e iv) da Proposição 1.1 continuam sendo
válidos em espaços vetoriais com produto interno em C, mas o item i) tem uma significante
modificação:
〈u, λv〉 = λ〈u, v〉, ∀ u, v ∈ V, ∀ λ ∈ C.
Pense nisso!!!
Exemplo 1.5. No exemplo 1.1, vimos que 〈(1, 0), (1,−1)〉 = 1. Consequentemente, uti-
lizando o item i) da Proposição 1.1, concluimos que 〈(1, 0), (2,−2)〉 = 2〈(1, 0), (1,−1)〉 =
2 · 1 = 2.
Exerćıcios de Fixação
1. Considerando o espaço vetorial R3, calcular 〈u, v〉 = 1, nos seguintes casos
i) u = (1
2
, 2, 1) e v = (4, 1,−3);
ii) u = (2, 1, 0) e v = (4, 0, 2);
iii) u = (1, 1, 1) e v = (2,−1, 5).
2. Usando o produto interno canônico de C([0, 1]) no espaço vetorial formado por polinômios
de grau menor ou igual a 2. Determine o produto escalar de:
6
i) f(t) = t e g(t) = 1− t2;
ii) f(t) = t− 1
2
e g(t) = 1
2
− (t− 1
2
)
.
3. Seja V um espaço vetorial. Ponhamos por definição 〈u, v〉 = 0,∀ u, v ∈ V. Prove que 〈·, ·〉
é um produto interno sobre V.
4. Seja V = R2. Sendo u = (1, 2) e v = (−1, 1) ∈ R2, determine um vetor w deste espaço
tal que 〈u,w〉 = −1 e 〈v, w〉 = 3.
5. Sendo u = (x1, x2) e v = (y1, y2) ∈ R2, definamos
〈u, v〉 := x1y1
a2
+
x2y2
b2
,
com a, b ∈ R fixos e não-nulos. Prove que 〈·, ·〉 é um produto interno.
6. Sejam u = (x1, x2) e v = (y1, y2) ∈ R2. Para que valores de t ∈ R a função 〈u, v〉 :=
x1y1 + tx2y2 é um produto interno sobre o R2.
7. Sejam f(t) = a0 + a1t + a2t
2 + ... + ant
n e g(t) = b0 + b1t + b2t
2 + ... + bnt
n polinômios.
Defina 〈f, g〉 = a0b0 + a1b1 + ... + anbn. 〈·, ·〉 é um produto interno?
8. Seja V um espaço vetorial com produto interno 〈·, ·〉. (u, v) := λ〈u, v〉, λ ∈ R e u, v ∈ V ,
é um produto interno sobre V.
1.2 Norma de um Vetor
Agora, estudaremos como definir o comprimento de umvetor em um espaço vetorial Eucli-
diano.
1.2.1 Definição de Norma
Definição 1.2 (Norma). Seja V um espaço vetorial. Uma aplicação ‖ · ‖ : V → R que
satisfaz
i) ‖v‖ > 0, ∀ v ∈ V não-nulo;
ii) ‖λv‖ = |λ|‖v‖,∀ v ∈ V, ∀ λ ∈ R;
7
iii) (Desigualdade Triangular) ‖u + v‖ ≤ ‖u‖+ ‖v‖, ∀ u, v ∈ V ,
é chamada norma sobre V . Quando munirmos um espaço vetorial V a uma norma, dizemos
que V é um espaço vetorial normado.
Obs 1.4. Já que estamos estendendo o produto escalar de R2 (ou de R3), adotaremos que,
geometricamente, a norma de um vetor é o comprimento deste.
Obs 1.5. Note que o item i) da Definição 1.2 nos diz que, se ‖v‖ = 0 então v = 0.
A pergunta que surge é: A rećıproca deste fato é verdadeira? A reposta é afirmativa.
Vejamos a justificativa no
Exemplo 1.6. O item ii) da Definição 1.2 nos garante que
‖0‖ = ‖0 · 0‖ = |0|‖0‖ = 0 · ‖0‖ = 0.
Ou seja, resumidamente, temos que ‖v‖ = 0 ⇔ v = 0. Em palavras, o único vetor que tem
comprimento nulo é o vetor nulo.
1.2.2 Resultados Importantes sobre Produto Interno e Norma
Para exemplificar a Definição 1.2 vamos, primeiramente, provar alguns resultados preli-
minares. Começemos com um dos Teoremas mais populares da Matemática.
Teorema 1.1 (Teorema de Pitágoras). Seja V um espaço com produto interno 〈·, ·〉. Então
〈u, v〉 = 0 ⇔ ‖u + v‖2 = ‖u‖2 + ‖v‖2,
onde ‖u‖ :=
√
〈u, u〉,∀ u ∈ V.
Demonstração. Primeiramente, observe que a raiz quadrada acima pode ser calculada com
a justificativa do item iv) da Definição 1.1.
⇒) Suponha que 〈u, v〉 = 0. Segue da Definição 1.1, itens i) e iii), que
‖u + v‖2 := 〈u + v, u + v〉 = 〈u, u〉+ 〈u, v〉+ 〈v, u〉+ 〈v, v〉
=: ‖u‖2 + 〈u, v〉+ 〈u, v〉+ ‖v‖2 = ‖u‖2 + 2〈u, v〉+ ‖v‖2 = ‖u‖2 + ‖v‖2,
8
na última igualdade usamos a hipótese do Teorema.
⇐) Reciprocamente, considere que ‖u + v‖2 = ‖u‖2 + ‖v‖2. Vimos acima que,
‖u + v‖2 = ‖u‖2 + 2〈u, v〉+ ‖v‖2.
Portanto, das duas últimas igualdades, inferimos que ‖u‖2 + ‖v‖2 = ‖u‖2 + 2〈u, v〉 + ‖v‖2.
Cancelando os termos idênticos desta igualdade, obtemos 2〈u, v〉 = 0. Por fim, 〈u, v〉 = 0,
como queŕıamos demonstrar.
Obs 1.6. A rećıproca do Teorema de Pitágoras, isto é, 〈u, v〉 = 0 ⇐ ‖u + v‖2 = ‖u‖2 + ‖v‖2
não é verdadeira no caso do produto interno ser Hermetiano. Tente justificar o por quê!!!
Exemplo 1.7. Seja V = R2 com o produto interno canônico, definido no exemplo 1.1. Seja
‖ · ‖ :=
√
〈·, ·〉. Note que
‖(1, 1)‖2 = 〈(1, 1), (1, 1)〉 = 2, ‖(1, 0)‖2 = 〈(1, 0), (1, 0)〉 = 1 e ‖(0, 1)‖2 = 〈(0, 1), (0, 1)〉 = 1.
Assim sendo, ‖(1, 1)‖2 = ‖(1, 0) + (0, 1)‖2 = ‖(1, 0)‖2 + ‖(0, 1)‖2. Usando o Teorema de
Pitágoras (ver Teorema 1.1), obtemos 〈(1, 0), (0, 1)〉 = 0.
Exemplo 1.8. Seja V = C([−1, 1]) com o produto interno canânico, definido no exemplo
1.3. Seja ‖ · ‖ :=
√
〈·, ·〉. Então, para f(t) = t e g(t) = 1,∀ t ∈ [−1, 1], temos que
‖f‖2 = 〈f, f〉 =
∫ 1
−1
t2dt =
t3
3
|1−1 =
2
3
, ‖g‖2 = 〈g, g〉 =
∫ 1
−1
1dt = t|1−1 = 2
e
〈f, g〉 =
∫ 1
−1
tdt =
t2
2
∣∣∣
1
−1
= 0.
Pelo Teorema de Pitágoras (ver Teorema 1.1), ‖f + g‖2 = ‖f‖2 + ‖g‖2 = 2
3
+ 2 =
8
3
.
Teorema 1.2 (Desigualdade de Cauchy-Schwarz). Seja V um espaço com produto interno
〈·, ·〉. Então
|〈u, v〉| ≤ ‖u‖‖v‖, ∀ u, v ∈ V,
onde ‖u‖ :=
√
〈u, u〉,∀ u ∈ V.
Demonstração. Utilizaremos na demonstração deste Teorema uma ferramenta auxiliar. De-
fina f : R → R por f(x) = ‖u − xv‖2. Observe que f(x) ≥ 0. Por outro lado, usando a
9
definição da aplicação ‖ · ‖, obtemos
f(x) = ‖u−xv‖2 = 〈u−xv, u−xv〉 = 〈u, u〉− 2x〈u, v〉+x2‖v‖2 = ‖u‖2− 2x〈u, v〉+x2‖v‖2.
Logo, ‖u‖2−2x〈u, v〉+x2‖v‖2 ≥ 0. Note que o gráfico de f é uma parábola, a qual está acima
do eixo das abscissas (o vértice desta parábola pode tocar tal eixo). Portanto, ∆ = 4〈u, v〉2−
4‖u‖2‖v‖2 ≤ 0 (discriminante). Ou seja, 〈u, v〉2 ≤ ‖u‖2‖v‖2. Por fim, |〈u, v〉| ≤ ‖u‖‖v‖ (aqui
usamos
√
a2 = |a|). O Teorema está provado.
Obs 1.7. A desigualdade de Cauchy-Shwarz é válida para espaços vetoriais com produto
interno hermetiano. Você aluno está convidado a provar esta afirmação. Sugestão: Use
y = x〈u, v〉 no lugar de x.
Exemplo 1.9. Seja V = C([0, 1]) com o produto interno canônico, definido no exemplo 1.3.
Podemos mostrar que
(∫ 1
0
f(t)g(t)dt
)2
≤
(∫ 1
0
[f(t)]2dt
)(∫ 1
0
[g(t)]2dt
)
. Com efeito, pela
desigualdade de Cauchy-Shwarz (ver Teorema 1.2), temos que |〈f, g〉| ≤ ‖f‖‖g‖, ∀ f, g ∈ V .
Com isso, 〈f, g〉2 ≤ ‖f‖2‖g‖2. Usando as definições de 〈·, ·〉 e ‖ · ‖, encontramos o resultado
desejado.
1.2.3 Exemplos de Normas
Agora, vamos mostrar o primeiro exemplo de norma.
Proposição 1.2 (Norma sobre um Espaço Euclidiano). Seja V um espaço vetorial com
produto interno 〈·, ·〉. Então a aplicação ‖ · ‖ : V → R, definida por ‖v‖ :=
√
〈v, v〉, é uma
norma sobre V. Neste caso, dizemos que a norma ‖ · ‖ provém do produto interno 〈·, ·〉.
Demonstração. Verificaremos os itens expostos na Definição 1.2.
i) Seja v 6= 0. Então, 〈v, v〉 > 0, pela Definição 1.1. Logo, ‖v‖ =
√
〈v, v〉 > 0.
ii) Sejam v ∈ V e λ ∈ R. Então, com a Definição 1.1, conclúımos que
‖λv‖ =
√
〈λv, λv〉 =
√
λ2〈v, v〉 =
√
λ2
√
〈v, v〉 = |λ|
√
〈v, v〉 = |λ|‖v‖.
10
iii) Vamos provar a desigualdade triangular. Note que
‖u + v‖2 := 〈u + v, u + v〉 = 〈u, u〉+ 2〈u, v〉+ 〈v, v〉 = ‖u‖2 + 2〈u, v〉+ ‖v‖2
≤ ‖u‖2 + 2|〈u, v〉|+ ‖v‖2 ≤ ‖u‖2 + 2‖u‖‖v‖+ ‖v‖2 = (‖u‖+ ‖v‖)2,
na última desigualdade usamos o Teorema 1.2. Logo, pelo item i), obtemos
‖u + v‖ ≤ ‖u‖+ ‖v‖,∀ u, v ∈ V.
Exemplo 1.10 (Norma sobre R2). Seja V = R2 com o produto interno canônico, ver exemplo
1.1. Assim, ‖ · ‖ : R2 → R, dada por ‖(x, y)‖ =
√
x2 + y2, é uma norma. Basta observar que
‖(x, y)‖ =
√
〈(x, y), (x, y)〉 =
√
x2 + y2.
Exemplo 1.11 (Norma em Rn). Seja V = Rn com o produto interno canônico, ver exemplo
1.2. Assim, ‖ · ‖ : R2 → R, definida por ‖(x1, x2, ..., xn)‖ =
√
x21 + x
2
2 + ... + x
2
n, é uma
norma. Com efeito,
‖(x1, x2, ..., xn)‖ =
√
〈(x1, x2, ..., xn), (x1, x2, ..., xn)〉 =
√
x21 + x
2
2 + ... + x
2
n.
Exemplo 1.12 (Norma de Funções Cont́ınuas). Seja V = C([a, b]) com o produto interno
canônico, ver exemplo 1.3. Logo, ‖ · ‖ : C([a, b]) → R, dada por
‖f‖ =
√
〈f, f〉 =
√∫ b
a
[f(t)]2dt,
é uma norma.
Exemplo 1.13 (Não-norma). Seja V = R2. Defina ‖ · ‖ : R2 → R por ‖(x, y)‖ = x2 + y2.
‖ · ‖ não é uma norma. Basta observar que
ii) ‖2(1, 0)‖ = ‖(2, 0)‖ = 22 +02 = 4. Por outro lado, |2|‖(1, 0)‖ = 2‖(1, 0)‖ = 2(12+02) = 2.
Assim, ‖2(1, 0)‖ 6= |2|‖(1, 0)‖. Isto contradiz o item ii) da Definição 1.2.
Definição 1.3 (Vetor Unitário). Seja V um espaço vetorial normado. Dizemos que um vetor
v ∈ V é unitário se ‖v‖ = 1.
11
Obs 1.8. Note que v é unitário ⇔ ‖v‖ = 1 ⇔ 〈v, v〉 = 1, onde ‖ · ‖ =
√
〈·, ·〉.
Obs 1.9. Podemos transformar qualquer vetor não-nulo v ∈ V em um vetor unitário. Basta
escolher u =
v
‖v‖ . Para verificar a veracidade deste fato, basta utilizar o item ii) da Definição
1.2 e obter
‖u‖ =
∥∥∥∥
v
‖v‖
∥∥∥∥ =
∣∣∣∣
1
‖v‖
∣∣∣∣ ‖v‖ =
1
‖v‖‖v‖ = 1.
Exemplo 1.14 (Vetor Unitário em R2). Vimos, no exemplo 1.10, que ‖(1, 0)‖ = √12 + 02 =
1 e que ‖(1, 1)‖ = √12 + 12 = √2. Logo, (1, 0) é um vetor unitário e (1, 1) não. Para
transformar (1, 1) em vetor unitário, basta realizar o seguinte processo
(1, 1)
‖(1, 1)‖ =
(1, 1)√
2
=
(
1√
2
,
1√
2
)
,
ver observação 1.9.
Exemplo 1.15 (Vetor Unitário com Funções Cont́ınuas). Seja V = C([0, 1]) com o produto
interno canônico definido no exemplo 1.3. Sejam f(t) = 1 e g(t) = t. Vimos no exemplo 1.12
que ‖f‖ =
√∫ 1
0
[f(t)]2dt =
√∫ 1
0
1dt = 1 e que ‖g‖ =
√∫ 1
0
[g(t)]2dt =
√∫ 1
0
t2dt =
1√
3
.
Logo, f é um vetor unitário e g não. Usando a observação 1.9, obtemos o vetor unitário
g
‖g‖ =
t
1√
3
=
√
3t.
Exerćıcios de Fixação
1. Sejam u, v ∈ V , onde V é um espaço vetorial com produto interno. Se ‖v‖, ‖u‖ = 1, e
‖u− v‖ = 2, determine 〈u, v〉, onde ‖‖ é a norma que provém do produto interno.
2. Seja V um espaço vetorial formado pelos polinômios de grau menor ou igual a 2 com o
produto interno interno canônico para C([0,1]). Calcular ‖f(t)‖ (‖‖ é a norma que provém
do produto interno) nos seguintes casos:
i) f(t) = t;
ii) f(t) = −t2 + 1.
3. Num espaço vetorial com produto interno provar que
i) ‖u‖ = ‖v‖ ⇔ 〈u + v, u− v〉 = 0;
12
ii) ‖u + v‖2 = ‖u‖2 + ‖v‖2 ⇔ 〈u, v〉 = 0.
4. Sejam u = (x1, x2) e v = (y1, y2) ∈ R2.
i) Mostrar que 〈u, v〉 := x1y1 − 2x1y2 − 2x2y1 + 5x2y2 define um produto interno sobre R2;
ii) Determinar a norma de u = (1, 2) em relação ao produto interno usual e também em
relação ao produto definido em i).
5. Considere o espaço R3. Determinar a ∈ R de maneira que ‖u‖ = √41, onde u = (6, a,−1),
onde ‖ · ‖ é a norma que provém do produto interno canônico.
6. Prove que a igualdade na Desigualdade de Cauchy-Schwarz é válida se, e somente se, os
vetores, lá presentes, são l.d. (linearmente dependente).
7. Sejam u = (1, 1, 0) e v = (0, 1, 2) ∈ R3. Determinar os vetores w ∈ R3 tais que ‖w‖ = 1 e
〈u, w〉 = 〈v, w〉 = 0.
8. Sejam u = (1, 2, 0, 1) e v = (3, 1, 4, 2) ∈ R4. Determinar 〈u, v〉, ‖u‖ e ‖v‖, onde ‖ · ‖
provém do produto interno canônico de R4.
9. Sabendo que ‖u‖ = 3, ‖v‖ = 5, com u e v elementos de um espaço vetorial com produto
interno, determine t ∈ R de maneira que 〈u + tv, u− tv〉 = 0.
1.3 Exerćıcios Propostos
Exerćıcios:
1. Encontre um produto interno sobre R2 tal que 〈(1, 0), (0, 1)〉 = 2.
2. Defina 〈(x1, y1), (x2, y2)〉 = 2x1x2 − x1y2 − x2y1 + 2y1y2. Mostre que este é um produto
interno sobre R2.
3. Seja V um espaço vetorial sobre R. Sejam 〈·, ·〉1, 〈·, ·〉2 dois produtos internos sobre V.
Defina 〈·, ·〉3 = 〈·, ·〉1 + 〈·, ·〉2 e 〈·, ·〉4 = λ〈·, ·〉1, onde λ > 0. Prove que 〈·, ·〉3 e 〈·, ·〉4 são
produtos internos sobre V. 〈·, ·〉5 = 〈·, ·〉1 − 〈·, ·〉2 define um produto interno sobre V ?
4. Seja 〈·, ·〉 o produto interno canônico de R2.
i) Seja u = (1, 2) e v = (−1, 1). Se w é um vetor tal que 〈u,w〉 = −1 e 〈v, w〉 = 3, encontre
w;
ii) Mostre que para qualquer vetor v ∈ R2, temos v = 〈v, (1, 0)〉(1, 0) + 〈v, (0, 1)〉(0, 1).
13
5. Seja 〈·, ·〉 o produto interno canônico de R2 e seja T : R2 → R2 dado por T (x, y) = (−y, x).
Mostre que 〈(x, y), T (x, y)〉 = 0, ∀ (x, y) ∈ R2. Encontre todos os produtos internos sobre R2
que satisfazem esta mesma propriedade.
6. Seja A uma matriz 2× 2 com entradas reais. Para X, Y matrizes 2× 1 defina 〈X,Y 〉A :=
Y tAX, onde Y t é a transposta de Y. Mostre que 〈·, ·〉A é um produto interno sobre o espaço
das matrizes 2× 1, com entradas reais, se, e somente se, A = At, A11, A22, det(A) > 0, onde
A = (Aij).
7. Seja V um espaço vetorial com produto interno 〈·, ·〉. Considere sobre V a norma que
provém do produto interno. Prove a seguinte identidade de polarização:
〈u, v〉 = 1
4
‖u + v‖2 − 1
4
‖u− v‖2,∀ u, v ∈ V.
8. Seja V um espaço com produto interno 〈·, ·〉. A distância entre os vetores u e v em V é
dada por d(u, v) := ‖u− v‖. Mostre que:
i) d(u, v) ≥ 0;
ii) d(u, v) = 0 ⇔ u = v;
iii) d(u, v) = d(v, u);
iv) d(u, v) ≤ d(u,w) + d(w, v).
9. Seja V um espaço vetorial com produto interno 〈·, ·〉. Sejam u, v ∈ V . Mostre que
u = v ⇔ 〈u, w〉 = 〈v, w〉,∀ w ∈ V.
10. Seja V um espaço vetorial com produto interno 〈·, ·〉. Seja U um espaço vetorial. Seja
T : U → V uma transformação linear injetora. Mostre que 〈x, y〉U := 〈T (x), T (y)〉V é um
produto interno sobre U. Conclua que qualquer espaço vetorial com dimensão finita possui
um produto interno.
Sugestão: Crie um isomorfismo entre um espaço vetorial de dimensão n e Rn.
11. Seja V um espaço vetorial com dimensão finita. Seja β = {v1, v2, ..., vn}. Seja 〈·, ·〉 um
produto interno sobre V. Sejam λ1, λ2, ..., λn ∈ R. Mostre que existe exatamente um vetor
v ∈ V tal que 〈v, vi〉 = λi,∀ i = 1, 2, ..., n.
12. Seja V um espaço vetorial com produto interno 〈·, ·〉. Considere sobre V a norma que
provém do produto interno. Prove a seguinte lei do paralelogramo
‖u + v‖2 + ‖u− v‖2 = 2(‖u‖2 + ‖v‖2),∀ u, v ∈ V.
14
13. Use a Desigualdade de Cauchy-Schwarz em R3 para mostrar que, dados os números reais
estritamente positivos x1, x2, x3, vale a desigualdade:
(x1 + x2 + x3) ·
(
1
x1
+
1
x2
+
1
x3
)
≥ 9.
15
Referências Bibliográficas
[1] BUENO, H. P., Álgebra Linear - Um Segundo Curso, Primeira Edição, Rio de Janeiro,
SBM, 2006.
[2] CALLIOLI, C. A., DOMINGUES, H. H.,COSTA, R. C. F. Álgebra Linear e
Aplicações, Sexta Edição, São Paulo, Editora Atual, 1995.
[3] COELHO, F. O., LOURENÇO, M. L., Um Curso de Álgebra Linear, Edição 2001,
São Paulo, EdusP, 2004.
[4] HOFFMAN, K., KUNZE, R., Linear Algebra, Second Edition, New Jersey, Prentice-
Hall, Inc., Englewood Cliffs, 1971.
[5] LAGES, E., Curso de Análise vol. 1, Décima Segunda Edição, Rio de Janeiro, IMPA,
2008. 431p.
[6] LANG, S., Álgebra Linear, Primeira Edição, New York, Ed. ciência Moderna, 2003.
[7] LIPSCHUTZ, S., Álgebra Linear, Terceira Edição, São Paulo, Schaum McGraw-Hill
Makron Books, 1994.
[8] SILVA, A., Introdução à Álgebra, Primeira Edição, Editora Universitária UFPB, João
Pessoa, 2007.
Professores Revisores
Professores Paulo de Souza Rabelo e Wilberclay Gonçalves Melo.
16
Caṕıtulo 2
Ortogonalidade e Processo de
Gram-Schmidt
2.1 Ângulo entre Vetores e Ortogonalidade
Prezado aluno, nesta seção, mostraremos como estenter a idéia de vetores ortogonais, vista
no curso de Vetores e Geometria Anaĺıtica. A Desigualdade de Cauchy-Schwarz, vista no
Teorema 1.2, nos permite definir ângulo entre dois vetores quaisquer em um espaço vetorial
com produto interno em R. Procedemos da seguinte maneira:
Considere dois vetores u e v não-nulos em V , então |〈u, v〉| ≤ ‖u‖‖v‖. Portanto,
−‖u‖‖v‖ ≤ 〈u, v〉 ≤ ‖u‖‖v‖ ⇒ −1 ≤ 〈u, v〉‖u‖‖v‖ ≤ 1. (2.1)
Consequentemente, existe θ ∈ [0, π] tal que cos θ = 〈u, v〉‖u‖‖v‖ .
2.1.1 Definição de Ângulo entre Vetores e Exemplos
Através da discussão acima, podemos estabelecer a seguinte
Definição 2.1 (Ângulo entre vetores). Seja V um espaço vetorial com produto interno 〈·, ·〉.
17
Sejam u, v ∈ V vetores não-nulos. Definimos o ângulo entre u e v por
θ = arccos
( 〈u, v〉
‖u‖‖v‖
)
.
Notação: ^(u, v) = θ = arccos
( 〈u, v〉
‖u‖‖v‖
)
.
Obs 2.1. Encontrar ^(u, v) = arccos
( 〈u, v〉
‖u‖‖v‖
)
é equivalente a encontrar o número ^(u, v)
tal que cos(^(u, v)) = 〈u, v〉‖u‖‖v‖ .
Obs 2.2. Quando V é um espaço vetorial com produto interno hermetiano, o módulo de
〈u, v〉 (encontrado no Teorema 1.2) não pode ser tratado como em (2.1), pois neste espaço,
|〈u, v〉| significa o módulo do número complexo 〈u, v〉. Pense nisso!!!
Exemplo 2.1 (Ângulo em R2). Seja V = R2 com o produto interno canônico (ver exemplo
1.1), Sejam u = (1, 0) e v = (1, 1) ∈ V . Vamos encontrar ^(u, v). Note que
〈u, v〉 = 〈(1, 0), (1, 1)〉 = 1, ‖u‖ = ‖(1, 0)‖ =
√
〈(1, 0), (1, 0)〉 =
√
1 = 1
e
‖v‖ = ‖(1, 1)‖ =
√
〈(1, 1), (1, 1)〉 =
√
2.
Portanto, cos(^(u, v)) = 〈u, v〉‖u‖‖v‖ =
1
1 · √2 =
√
2
2
. Logo, ^(u, v) = π
4
. Seja w = (0, 1), então
〈u,w〉 = 〈(1, 0), (0, 1)〉 = 0, ‖u‖ = ‖(1, 0)‖ =
√
〈(1, 0), (1, 0)〉 =
√
1 = 1
e
‖w‖ = ‖(0, 1)‖ =
√
〈(0, 1), (0, 1)〉 =
√
1 = 1.
Com isso, cos(^(u,w)) = 〈u,w〉‖u‖‖w‖ =
0
1 · 1 = 0. Logo, ^(u,w) =
π
2
.
Exemplo 2.2 (Ângulo entre Funções Cont́ınuas). Seja V = C([0, 1]) com o produto interno
canônico (ver exemplo 1.3), Sejam f(t) = t e g(t) = 1 ∈ V . É posśıvel calcular ^(f, g). Veja
que
〈f, g〉 =
∫ 1
0
tdt =
1
2
, ‖f‖ =
√
〈f, f〉 =
√∫ 1
0
t2dt =
1√
3
e ‖g‖ =
√
〈g, g〉 =
√∫ 1
0
1dt = 1.
18
Portanto, ^(f, g) = arccos
( 〈f, g〉
‖f‖‖g‖
)
= arccos
(
1
2
1√
3·1
)
= arccos
(√
3
2
)
=
π
6
.
2.1.2 Definição de Vetores Ortogonais e Exemplos
Agora, estamos prontos para definir quando dois vetores em um espaço vetorial com produto
interno em R formam um ângulo de 90o ou
π
2
radianos. Usando a Definição 2.1 e o fato que
^(u, v) ∈ [0, π], temos que
^(u, v) = π
2
⇔ cos(^(u, v)) = 〈u, v〉‖u‖‖v‖ = 0 ⇔ 〈u, v〉 = 0.
Mais precisamente, podemos adicionar ao conteúdo a seguinte
Definição 2.2 (Vetores Ortogonais). Sejam u, v ∈ V . Dizemos que u e v são ortogonais (ou
perpendiculares) se 〈u, v〉 = 0.Notação: u ⊥ v.
Obs 2.3 (Ortogonalidade em C). Se V é um espaço vetorial com produto interno hermetiano,
não podemos definir ângulo entre dois vetores como na Definição 2.1 (ver observação 2.2).
Porém, podemos definir vetores ortogonais, neste espaço, como na Definição 2.2.
Obs 2.4 (Reformulação do Teorema de Pitágoras). Caro aluno, tente reescrever o Teorema
de Pitágoras 1.1 com esta nova definição de ortogonalidade (Definição 2.2) e interprete
geometricamente!
Exemplo 2.3 (Ortogonalidade em R2). Vimos no exemplo 2.1 que (1, 0) ⊥ (0, 1) e que (1, 0)
e (1, 1) não são ortogonais, pois 〈(1, 0), (0, 1)〉 = 0 e 〈(1, 0), (1, 1)〉 6= 0.
Exemplo 2.4 (Ortogonalidade com Funções Cont́ınuas). Vimos no exemplo 2.2 que f(t) = t
e g(t) = 1 não são ortogonais, pois 〈f, g〉 6= 0.
2.1.3 Propriedades da Ortogonalidade
Vejamos algumas propriedades herdadas da definição de ortogonalidade.
Proposição 2.1 (Propriedades de Ortogonalidade). Seja V um espaço vetorial com produto
interno 〈·, ·〉. Então são válidas as seguintes afirmações:
19
i) 0 ⊥ v, ∀ v ∈ V , em palavras, o vetor nulo é ortogonal a todo vetor;
ii) u ⊥ v ⇒ v ⊥ u;
iii) u ⊥ v, ∀ v ∈ V ⇒ u = 0, em palavras, o único vetor que é ortogonal a todos os vetores
de V é o vetor nulo;
iv) u ⊥ w e v ⊥ w ⇒ (u + v) ⊥ w;
v) u ⊥ v ⇒ (λu) ⊥ v, ∀ λ ∈ R.
Demonstração. Os itens i) e iii) é uma reformulação dos itens ii) e iv) da Proposição 1.1,
repectivamente. Verifique! Vamos verificar os itens que restaram.
ii)
u ⊥ v ⇒ 〈u, v〉 = 0 ⇒ 〈v, u〉 = 〈u, v〉 = 0,
nesta penúltima igualdade usamos a comutatividade da Definição 1.1. Com isso, v ⊥ u.
iv) Se u ⊥ w e v ⊥ w, então 〈u,w〉 = 0 e 〈v, w〉 = 0. Portanto, utilizando a Definição
1.1 (qual item?), obtemos
〈(u + v), w〉 = 〈u,w〉+ 〈v, w〉 = 0 + 0 = 0.
Assim, (u + v) ⊥ w.
v) Se u ⊥ v, então, 〈u, v〉 = 0. Logo,
〈λu, v〉 = λ〈u, v〉 = λ · 0 = 0,
novamente pela Definição 1.1. Ou seja, (λu) ⊥ v, ∀ λ ∈ R.
Obs 2.5. O item i) da Proposição 2.1, nos permite adotar que ^(0, v) = π
2
, ∀ v ∈ V .
Exemplo 2.5. Vimos no exemplo 2.3 que, (1, 0) ⊥ (0, 1). Logo, pelo item v) da Proposição
2.1, (2, 0) ⊥ (0, 1), pois (2, 0) = 2(1, 0).
20
Exerćıcios de Fixação
1. Achar o ângulo entre os seguintes pares de vetores do R3:
i) u = (1, 1, 1) e v = (1
2
,−1, 1
2
);
ii) u = (1,−1, 0) e v = (2,−1, 2).
2. Achar o cosseno do ângulo entre u e v nos seguintes casos:
i) u = (1, 1, 1, 1) e v = (0, 0, 1, 1) com o produto interno canônica em R4;
ii) f(t) = 1 + t− t2 e g(t) = 3t2, com o produto interno canônico para C([0, 1]);
iii) A =
(
1 1
0 0
)
e B =
(
0 1
1 0
)
com o produto interno 〈A,B〉 = tr(AtB), onde tr(X) =
X11 + X22 e A
t é a matriz transposta de A.
3. Seja V um epsaço vetorial com produto interno 〈·, ·〉. Dados u, v ∈ V (v 6= 0) e λ = 〈u, v〉‖v‖2 ,
mostrar que (u− λv) ⊥ v.
4. Determinar m ∈ R a fim de que sejam ortogonais os vetores u = (1,m + 1,m) e v =
(m− 1,m, m + 1) do R3.
5. Mostrar que se u e v são tais que ‖u + v‖ = ‖u− v‖, então u ⊥ v.
6. Em R3 defina o produto interno 〈u, v〉 := x1y1 + 2x2y2, onde u = (x1, x2) e v = (y1, y2).
Verificar se u ⊥ v, em relação a esse produto, nos seguintes casos:
i) u = (1, 1) e v = (2,−1);
ii) u = (2, 1) e v = (−1, 1);
iii) u = (3, 2) e v = (2,−1).
7. Consideremos em V espaço formado pelos polinômios de grau menor ou igual a 2 com
o produto interno canônico de C([0, 1]). Nessas condições, para que valor m ∈ R, (f(t) =
mt2 − 1) ⊥ (g(t) = t)?
8. Determinar todos os vetores do R3 de norma igual a 2 que sejam ortogonais simultanea-
mente a (2, 1, 2) e (−1, 3, 4).
2.2 Conjuntos Ortonormais e Processo de Gram-Schmidt
Prezados alunos, nesta seção, trabalharemos para que uma base qualquer de um espaço ve-
torial, com produto interno, seja transformada em outra base onde os respectivos vetores são
21
dois a dois ortogonais e cada vetor, isoladamente, seja unitário. Esta nova base facilita, em
muitos casos, as demonstrações dos resultados que estão por vir e os cálculos que aparecerão
em vários exerćıcios deste material.
2.2.1 Definição de Conjuntos Ortonormais e Exemplos
Definição 2.3 (Conjunto Ortonormal). Seja V um espaço vetorial com produto interno
〈·, ·〉. Dizemos que um subconjunto X ⊆ V é ortonormal se
i) u ⊥ v, ∀ u, v ∈ X distintos;
ii) todo vetor de X é unitário, isto é, ‖v‖ = 1,∀ v ∈ X.
Obs 2.6 (Conjunto Ortogonal). Quando um subconjunto X satisfaz o item i) dizemos que
X é um conjunto ortogonal.
Obs 2.7. Note que X na Definição 2.3 não precisa ser subespaço de V .
Exemplo 2.6 (Conjunto Ortonormal em R2). A base canônica de R2, X = {(1, 0), (0, 1)}, é
um conjunto ortonormal em R2 (veja o produto interno do exemplo 1.1), pois 〈(1, 0), (0, 1)〉 =
0, ‖(1, 0)‖ = ‖(0, 1)‖ = 1. O conjunto Y = {(1, 1), (1,−1)} é ortogonal, mas não é ortonor-
mal. De fato, 〈(1, 1), (1,−1)〉 = 1 − 1 = 0 e ‖(1, 1)‖ = √2 6= 1. Veja as explicações destes
cálculos no exemplos 1.1, 1.10 e 1.14.
Exemplo 2.7 (Conjunto Ortonormal com Funções Cont́ınuas ). O subconjunto X = {1, 3t2−
1} é um conjunto ortogonal, mas não ortonormal (veja o produto interno do exemplo 1.3),
pois
〈1, 3t2 − 1〉 =
∫ 1
0
[3t2 − 1]dt = 1− 1 = 0
e
‖3t2 − 1‖ =
√∫ 1
0
(3t2 − 1)2dt =
√∫ 1
0
(9t4 − 6t2 + 1)dt = 9
5
− 1 6= 1.
Exemplo 2.8 (Conjunto Ortonormal em Rn). A base canônica de Rn,
X = {(1, 0, ..., 0), (0, 1, 0, ..., 0), ..., (0, ..., 1)},
é um conjunto ortonormal de Rn. Para verificar esta afirmação sigua os mesmos passos do
exemplo 2.6.
22
Definição 2.4 (Base Ortonormal). Seja V um espaço vetorial com produto interno e di-
mensão finita. Uma base de V é dita ortonormal se esta for um conjunto ortonormal. Ou
equivalentemente, se {v1, v2, ..., vn} é base de V , então
〈vi, vj〉 =
{
1, se i = j;
0, se i 6= j.
Exemplo 2.9 (Base Ortonormal de R2). Vimos no exemplo 2.6 que a base canônica de R2
é uma base ortonormal.
Exemplo 2.10 (Base Ortonormal em Rn). O conjunto X do exemplo 2.8 é uma base ortonor-
mal de Rn.
Exemplo 2.11 (Base Não-ortonormal). O conjunto Y do exemplo 2.6 é uma base. Porém
não é ortonormal.
2.2.2 Processo de Gram-Schmidt e Exemplos
A pergunta que surge, neste momento, é a seguinte: sempre existe uma base ortonormal para
qualquer espaço vetorial com produto interno e dimensão finita? A resposta é afirmativa. O
próximo resultado garante esta resposta.
Teorema 2.1 (Teorema de Gram-Schmidt). Seja V um espaço vetorial com produto interno
〈·, ·〉 e dimensão finita n > 0. Seja β = {v1, v2, ..., vn} uma base de V. Então existe uma base
ortonormal γ = {u1, u2, ..., un} de V , onde
u1 =
v1
‖v1‖ e uj =
vj −
j−1∑
i=1
〈vj, ui〉ui
∥∥∥∥∥vj −
j−1∑
i=1
〈vj, ui〉ui
∥∥∥∥∥
, ∀ j = 2, ..., n. (2.2)
Demonstração. Faremos a prova por indução sobre n. Suponha que n = 1, assim, β = {v1}.
Então faça u1 =
v1
‖v1‖ . Logo, γ = {u1} é uma base ortonormal de V . Considere que n > 1,
e que todo subespaço de V de dimensão n − 1 possui uma base ortonormal satsifazendo as
igualdades em (2.2). Como U = [v1, v2, ..., vn−1] é um subespaço de V com dimensão n− 1,
23
então existe {u1, u2, ..., un−1} base ortonormal de U , onde
u1 =
v1
‖v1‖ e uj =
vj −
j−1∑
i=1
〈vj, ui〉ui
∥∥∥∥∥vj −
j−1∑
i=1
〈vj, ui〉ui
∥∥∥∥∥
, ∀ j = 2, ..., n− 1.
Defina
un =
vn −
n−1∑
i=1
〈vn, ui〉ui
∥∥∥∥∥vn −
n−1∑
i=1
〈vn, ui〉ui
∥∥∥∥∥
. (2.3)
Afirmamos que γ = {u1, u2, ..., un−1, un} é a base ortonormal procurada. Para isso, pre-
cisamos verificar que un ⊥ uj,∀ j = 1, 2, ..., n − 1, pois ‖un‖ = 1 (ver observação 1.9).
Vamos primeiramente provar que (vn −
n−1∑
i=1
〈vn, ui〉ui) ⊥ uj,∀ j = 1, 2, ..., n− 1. Com efeito,
utilize a Definição 1.1 para obter
〈
vn −
n−1∑
i=1
〈vn, ui〉ui, uj
〉
= 〈vn, uj〉 −
〈
n−1∑
i=1
〈vn, ui〉ui, uj
〉
= 〈vn, uj〉 −
n−1∑
i=1
〈vn, ui〉 〈ui, uj〉
= 〈vn, uj〉 − 〈vn, uj〉 = 〈vn, uj〉 − 〈vn, uj〉 = 0,∀ j = 1, ..., n− 1,
na antepenúltima igualdade usamos o fato que {u1, u2, ..., un−1} é um conjunto ortonormal,
isto é,
〈ui, uj〉 =
{
1, se i = j;
0, sei 6= j.
Resumidamente, encontramos
〈
vn −
n−1∑
i=1
〈vn, ui〉ui, uj
〉
= 0, ∀ j = 1, ..., n− 1.
Isto nos garante que, un ⊥ uj,∀ j = 1, 2, ..., n−1, já que un é um múltiplo de vn−
n−1∑
i=1
〈vn, ui〉ui
(ver (2.3) e item iv) da Proposição 2.1). Logo, γ = {u1, u2, ..., un} é uma base ortonormal
24
de V . Isto conclui a prova.
Obs 2.8 (Processo de Gram-Schmidt). O processo que descreve como encontar os vetores
u1, u2, ..., un é chamado Processo de Gram-Schmidt. Detalhadamente, podemos obter estes
vetores através das fórmulas:
u1 =
v1
‖v1‖ ;
u2 =
v2 − 〈v2, u1〉u1
‖v2 − 〈v2, u1〉u1‖ ;
u3 =
v3 − 〈v3, u1〉u1 − 〈v3, u2〉u2
‖v3 − 〈v3, u1〉u1 − 〈v3, u2〉u2‖ ;
· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · ·
un =
vn − 〈vn, u1〉u1 − 〈vn, u2〉u2 − 〈vn, u3〉u3 − ...− 〈vn, un−1〉un−1
‖vn − 〈vn, u1〉u1 − 〈vn, u2〉u2 − 〈vn, u3〉u3 − ...− 〈vn, un−1〉un−1‖ .
Caro aluno, vejamos, em exemplos, como aplicar o Processo de Gram-Schmidt.
Exemplo 2.12 (Processo de Gram-Schmidt em R2). Seja V = R2 com o produto interno
do exemplo 1.1. Vamos aplicar o Processo de Gram-Schmidt à base β = {(1, 1), (0, 1)}
(realmente é base? Verifique!). Sejam v1 = (1, 1) e v2 = (0, 1), então
u1 =
v1
‖v1‖ =
(1, 1)
‖(1, 1)‖ =
(
1√
2
,
1√
2
)
,
ver exemplo 1.14. Além disso,
u2 =
v2 − 〈v2, u1〉u1
‖v2 − 〈v2, u1〉u1‖ =
(0, 1)−
〈
(0, 1),
(
1√
2
, 1√
2
)〉(
1√
2
, 1√
2
)
∥∥∥(0, 1)−
〈
(0, 1),
(
1√
2
, 1√
2
)〉(
1√
2
, 1√
2
)∥∥∥
=
(0, 1)− 1√
2
(
1√
2
, 1√
2
)
∥∥∥(0, 1)− 1√
2
(
1√
2
, 1√
2
)∥∥∥
=
(0, 1)− (1
2
, 1
2
)
∥∥(0, 1)− (1
2
, 1
2
)∥∥ =
(−1
2
, 1
2
)
∥∥(−1
2
, 1
2
)∥∥ =
(−1
2
, 1
2
)
1√
2
=
(
−
√
2
2
,
√
2
2
)
.
Logo, γ =
{
u1 =
(
1√
2
,
1√
2
)
, u2 =
(
−
√
2
2
,
√
2
2
)}
é uma base ortonormal de R2.
Exemplo 2.13 (Processo de Gram-Schmidt em Polinômios). Seja V = P2(R) = {a0+a1x+
a2x
2 : a0, a1, a2 ∈ R} = {polinômios com coeficientes em R de grau menor ou igual a 2}.
25
Considere que este espaço vetorial está munido ao produto interno do exemplo 1.3 para o
espaço C([0, 1]). Seja β = {1, x, x2} a base canônica de P2(R) (Verifique que é base!). Vamos
ortonormalizar β através do Processo de Gram-Schmidt. Sejam v1 = 1, v2 = x e v3 = x
2.
Assim, u1 =
1
‖1‖ = 1 (ver exemplo 1.15),
u2 =
v2 − 〈v2, u1〉u1
‖v2 − 〈v2, u1〉u1‖ =
x− 〈x, 1〉1
‖x− 〈x, 1〉1‖ =
x− 1
2
‖x− 1
2
‖ =
x− 1
2√∫ 1
0
(
x− 1
2
)2
dx
=
x− 1
2√∫ 1
0
(
x2 − x + 1
4
)
dx
=
x− 1
2√
1
3
− 1
2
+ 1
4
= 2
√
3x−
√
3
e
u3 =
v3 − 〈v3, u1〉u1 − 〈v3, u2〉u2
‖v3 − 〈v3, u1〉u1 − 〈v3, u2〉u2‖ =
x2 − 〈x2, 1〉1− 〈x2, 2√3x−√3〉(2√3x−√3)
‖x2 − 〈x2, 1〉1− 〈x2, 2√3x−√3〉(2√3x−√3)‖
=
x2 − 〈x2, 1〉+ [−2√3〈x2, x〉+√3〈x2, 1〉](2√3x−√3)
‖x2 − 〈x2, 1〉+ [−2√3〈x2, x〉+√3〈x2, 1〉](2√3x−√3)‖ =
x2 − x + 1
6
‖x2 − x + 1
6
‖
= 6
√
5x2 − 6
√
5x +
√
5.
Por fim, γ = {u1 = 1, u2 = 2
√
3x−√3, u3 = 6
√
5x2 − 6√5x +√5} é uma base ortonormal
de P2(R).
Obs 2.9 (Comunicado). Dedicados alunos, o Processo de Gram-Schmidt é de grande valia
para o nosso curso. Portanto, sugiro que vocês pratiquem bastante como encontrar uma base
ortonormal através deste.
A proposição abaixo mostra um outro caminho de verificar se um conjunto finito é l.i.
(linearmente independente). Mais precisamente,
Proposição 2.2. Seja V um espaço vetorial com produto interno 〈·, ·〉. Seja X ⊆ V um
conjunto ortogonal tal que 0 6∈ X. Então X é l.i..
Demonstração. Sejam v1, v2, ..., vm vetores em X. Considere a combinação linear nula λ1v1+
26
λ2v2 + ... + λmvm = 0. Vamos provar que λ1, λ2, ..., λm = 0. Então
〈λ1v1 + λ2v2 + ... + λmvm, v1〉 = 〈0, v1〉 = 0,
nesta última igualdade usamos a Proposição 1.1. Como X é um conjunto ortogonal, então
〈vi, vj〉 = 0 sempre que i 6= j (ver observação 2.6). Através das propriedades da Proposição
1.2, obtemos
0 = λ1〈v1, v1〉+ λ2〈v2, v1〉+ ... + λm〈vm, v1〉 = λ1〈v1, v1〉. (2.4)
Mas 〈v1, v1〉 > 0, pois 0 6∈ X (ver Definição 1.1). Portanto, de (2.4), conclúımos que λ1 = 0.
Analogamente, prova-se que λ2, λ3, ..., λm = 0. Isto garante que X é l.i..
Obs 2.10. Se X é um conjunto ortogonal de V com n vetores, onde dim V = n (dimensão
de V ), então pela Proposição 2.2 temos que X é uma base de V (pois, X é l.i.).
Exemplo 2.14. O conjunto X = {(1, 1), (1,−1)} é l.i., pois X é ortogonal (ver exemplo
2.6). Usando a observação 2.10, X é uma base de R2, já que dimR2 = 2.
Exerćıcios de Fixação
1. Ortonormalizar a base {(1, 1, 1), (1,−1, 1), (−1, 0, 1)} do R3, pelo Processo de Gram-
Schmidt.
2. Seja W = {(x, y, z) : x− 2y = 0}. Determinar uma base ortonormal de W.
3. Seja V o espaço formado pelos polinômios de grau menor ou igual a 2 munido pelo produto
interno canônico de C([0, 1]). Ortonormalizar utilizando o Processo de Gram-Schmidt a base
canônica {1, t, t2}.
4. Determinar uma base ortonormal de cada um dos seguintes subespaços do R4 utilizando
o Processo de Gram-Schmidt:
i) W = [(1, 1, 0, 0), (0, 1, 2, 0), (0, 0, 3, 4)];
ii) W = [(2, 0, 0, 0), (1, 3, 3, 0), (3,−3,−3, 0)].
5. Determinar uma base ortonormal do subespaço W = {(x, y, z, t) : x−y−z = 0 e z−2t =
0}.
6. Determinar uma base ortonormal do subespaço W = [(1, 1, 1), (1,−2, 3)] em relação ao
produto interno dado por 〈u, v〉 := x1y1 + 2x2y2 + x3y3,∀ u = (x1, x2, x3) e v = (y1, y2, y3).
27
2.3 Exerćıcios Propostos
Exerćıcios:
1. Considere agora o espaço vetorial C([−π, π]) com o produto interno canônico. Mostre
que {1, sen t, cos t, sen 2t, cos 2t, ...} é um conjunto ortogonal. Este conjunto é ortonormal?
2. Sejam V um espaço vetorial com produto interno 〈·, ·〉 e β = {v1, v2, ..., vn} uma base
ortonormal de V . Sejam u, v ∈ V tais que u = x1v1 + x2v2 + ... + xnvn e v = λ1v1 + λ2v2 +
... + λnvn. Mostre que
i) v = 〈v, v1〉v1 + 〈v, v2〉v2 + ... + 〈v, vn〉vn.;
ii) 〈u, v〉 = 〈u, v1〉〈v, v1〉+ 〈u, v2〉〈v, v2〉+ ... + 〈u, vn〉〈v, vn〉;
iii) ‖u‖2 = 〈u, v1〉2 + 〈u, v2〉2 + ... + 〈u, vn〉2.
3. Seja R4 com o produto interno canônico. Seja W o subespaço de R4 consistindo de todos
os vetores que são ortogonais aos vetores u = (1, 0,−1, 1) e v = (2, 3,−1, 2). Encontre uma
base ortonormal para W.
4. Aplique o Processo de Gram-Schmidt aos vetores u = (1, 0, 1) e v = (1, 0,−1), w =
(0, 3, 4), para obter uma base ortonormal de R3.
5. Seja V um espaço vetorial com produto interno 〈·, ·〉. Seja W um subespaço de V. Seja
{v1, v2, ..., vn} uma base ortonormal de W . Mostre que ∀ v ∈ V , vale a desigualdade de
Bessel
n∑
j=1
〈v, vj〉2 ≤ ‖v‖2.
6. Seja V um espaço vetorial de dimensão finita com produto interno 〈·, ·〉. Seja β =
{v1, v2, ..., vn} uma base ortonormal de V . Seja T : V → V um operador linear. Seja
[T ]β = (Aij). Prove que Aij = 〈Tvj, vi〉.
7. Determinar uma base ortonormal do subespaço W de R3 dado por W = {(x, y, z) : x−y =
0}.
8. Seja {v1, v2, v3} base ortonormal de R3, definem-se os cossenos diretores de u em relação
à base dada por cos α =
〈u, v1〉
‖u‖ , cos β =
〈u, v2〉
‖u‖ e cos γ =
〈u, v3〉
‖u‖ . Provar que:
i) u = ‖u‖((cos α)v1 + (cos β)v2 + (cos γ)v3);
ii) cos2 α + cos2 β + cos2 γ = 1.
28
Referências Bibliográficas
[1] BUENO, H. P., Álgebra Linear - Um Segundo Curso, Primeira Edição, Rio de Janeiro,
SBM, 2006.
[2] CALLIOLI, C. A., DOMINGUES, H. H.,COSTA, R. C. F. Álgebra Linear e
Aplicações, Sexta Edição, São Paulo, Editora Atual, 1995.
[3] COELHO, F. O., LOURENÇO, M. L., Um Curso de Álgebra Linear, Edição 2001,
São Paulo, EdusP, 2004.
[4] HOFFMAN, K., KUNZE, R., Linear Algebra, Second Edition, New Jersey, Prentice-
Hall, Inc., Englewood Cliffs, 1971.
[5] LANG, S., Álgebra Linear, Primeira Edição, New York, Ed. ciência Moderna, 2003.
[6] LIPSCHUTZ, S., Álgebra Linear, Terceira Edição, São Paulo, Schaum McGraw-Hill
Makron Books, 1994.
[7] SILVA, A., Introdução à Álgebra, Primeira Edição, Editora Universitária UFPB, João
Pessoa, 2007.
Professores Revisores
Professores Paulo de Souza Rabelo e Wilberclay Gonçalves Melo.
29
Caṕıtulo 3
Complemento e Projeção Ortogonal
3.1 Complemento e Projeção Ortogonal
Caroaluno, nesta seção, discutiremos quando é posśıvel que um subespaço complemente
outro em um determinado espaço Euclidiano. Este complemento é denominado complemento
ortogonal.
3.1.1 Definição de Complemento Ortogonal e Exemplos
Definição 3.1 (Complemento Ortogonal). Seja V um espaço vetorial com produto interno
〈·, ·〉. Seja U ⊆ V um subconjunto qualquer. Definimos o complemento ortogonal de U em
V como sendo o conjunto {v ∈ V : 〈v, u〉 = 0,∀ u ∈ U}.
Notação: U⊥ = {v ∈ V : 〈v, u〉 = 0,∀ u ∈ U}.
Exemplo 3.1 (Complemento Ortogonal em R2). Vamos encontrar o complemento ortogonal
do conjunto U = {(1,−1)} em R2. Seja v = (x, y) ∈ U⊥, então 〈v, (1,−1)〉 = 0. Portanto,
〈(x, y), (1,−1)〉 = 0, isto é, x− y = 0. Por conseguinte, x = y. Ou seja, v = (x, y) = (y, y) =
y(1, 1). Dessa forma,
U⊥ = {v = (x, y) ∈ R2 : 〈(x, y), (1,−1)〉 = 0} = {y(1, 1) : y ∈ R} = [(1, 1)].
30
Por fim, U⊥ = [(1, 1)].
Exemplo 3.2 (Complemento Ortogonal em R3.). Seja U = {(x, y, 0) : x, y ∈ R} ⊆ R3. É
fácil ver que U é subespaço de R3 e que dim U = 2 (Verifique!). Vamos encontrar U⊥.
Seja v = (a, b, c) ∈ U⊥, então 〈v, (x, y, 0)〉 = 0,∀ x, y ∈ R (ver exemplo 1.2). Logo,
〈(a, b, c), (x, y, 0)〉 = 0,∀ x, y ∈ R. Ou seja, ax + by = 0,∀ x, y ∈ R. Com isso, fazendo
x = 1 e y = 0, temos que a = 0. Para x = 0 e y = 1, obtemos b = 0. Dessa forma,
v = (a, b, c) = (0, 0, c) = c(0, 0, 1). Portanto, U⊥ = [(0, 0, 1)].
Note que U não, necessariamente, é um subespaço de V , mas o que podemos afirmar
sobre U⊥? Nos exemplos 3.1 e 3.2, encontramos um subespaço para o conjunto U⊥. A
pergunta que surge é: isto é sempre verdade? A resposta é afirmativa. Veja a
Proposição 3.1 (O Subespaço Complemento Ortogonal). Seja V um espaço vetorial com
produto interno 〈·, ·〉. Então U⊥ é um subespaço de V .
Demonstração. Com efeito, primeiramente, note que 0 ∈ U⊥, pois 〈0, u〉 = 0, ∀ u ∈ U (ver
Proposição 1.1). Em seguida, sejam v, w ∈ U⊥ e λ ∈ R. Logo, 〈v, u〉, 〈w, u〉 = 0,∀ u ∈ U.
Consequentemente,
〈v + λw, u〉 = 〈v, u〉+ λ〈w, u〉 = 0 + λ · 0 = 0,∀ u ∈ U,
ver Definição 1.1. Ou seja, v + λw ∈ U⊥. Isto prova que U⊥ é um subespaço de V.
3.1.2 Resultado Importante sobre Complemento Ortogonal
Prezado aluno, no caso em que U é um subespaço de dimensão finita, o Teorema a seguir
nos permite definir projeção ortogonal.
Teorema 3.1. Seja V um espaço vetorial com produto interno 〈·, ·〉. Seja U um subespaço
de dimensão finita. Então
V = U ⊕ U⊥, isto é, V = U + U⊥ e U ∩ U⊥ = {0}.
Demonstração. Primeiramente vamos provar que U ∩ U⊥ = {0}. Seja v ∈ U ∩ U⊥, então
v ∈ U e v ∈ U⊥. Usando a Definição 3.1, temos que 〈v, u〉 = 0,∀ u ∈ U. Como v ∈ U ,
31
então, em particular, 〈v, v〉 = 0. Usando a Definição 1.1, encontramos v = 0. Logo,
U ∩ U⊥ = {0}. Agora, verificaremos que V = U + U⊥. Como dim U é finita, então,
pelo Teorema 2.1, existe uma base ortonormal β = {u1, u2, ..., um} de U . Seja v ∈ V um
vetor qualquer. Provaremos que v é a soma de um vetor de U com um vetor de U⊥. Para isso,
escolha u =
m∑
i=1
〈v, ui〉ui ∈ U. Vimos na demonstração do Teorema 2.1 que, 〈v − u, uj〉 = 0,
∀ j = 1, 2, ..., m. Para comodidade do leitor, faremos a prova desta afirmação novamente.
〈v − u, uj〉 = 〈v, uj〉 − 〈u, uj〉 = 〈v, uj〉 −
〈
m∑
i=1
〈v, ui〉ui, uj
〉
= 〈v, uj〉 −
m∑
i=1
〈v, ui〉〈ui, uj〉
= 〈v, uj〉 − 〈v, uj〉 = 0,
pois β é ortonormal. Consequentemente, v − u ∈ U⊥. Mas, v = u + (v − u), onde u ∈ U e
v − u ∈ U⊥. Isto prova que V = U + U⊥. Por fim, V = U ⊕ U⊥.
Obs 3.1. Sob as hipóteses do Teorema 3.1, temos que dim V = dim U + dim U⊥, pois
V = U ⊕ U⊥.
Exemplo 3.3. No exemplo 3.2, vimos que se U = {(x, y, 0) : x, y ∈ R}, então U⊥ =
[(0, 0, 1)]. O Teorema 3.1, nos garante que R3 = {(x, y, 0) : x, y ∈ R} ⊕ [(0, 0, 1)].
3.1.3 Definição de Projeção Ortogonal e Exemplos
Definição 3.2 (Projeção Ortogonal). Sob as mesmas hipóteses do Teorema 3.1. Seja v ∈
V = U ⊕ U⊥. Definimos, a projeção ortogonal de v em U como sendo o vetor u, onde
v = u + u⊥, u ∈ U, u⊥ ∈ U⊥.
Notação: PU(v) = u, onde v = u + u
⊥, u ∈ U, u⊥ ∈ U⊥.
Obs 3.2. Quando não houver possibilidade de confusão com o subespaço U , escreveremos,
simplesmente, P (v) = PU(v).
Obs 3.3 (Como Encontrar P (v)). Vimos na demonstração do Teorema 3.1 que
PU(v) = u =
m∑
i=1
〈v, ui〉ui = 〈v, u1〉u1 + 〈v, u2〉u2 + ... + 〈v, um〉um,
onde {u1, u2, ..., um} é uma (não importa qual) base ortonormal de U .
32
Exemplo 3.4 (Projeção Ortogonal de um Vetor). Seja U = {(x, y, 0) : x, y ∈ R}. Vamos
encontrar a projeção ortogonal de (1, 1, 1) em U . Note que
U = {(x, 0, 0) + (0, y, 0) : x, y ∈ R} = {(x, y, 0) : x, y ∈ R}
= {x(1, 0, 0) + y(0, 1, 0) : x, y ∈ R} = [(1, 0, 0), (0, 1, 0)].
Note que U é subespaço de R3 e dim U = 2. Além disso, {u1 = (1, 0, 0), u2 = (0, 1, 0)} é uma
base ortonormal de U. Logo, usando a observação 3.3, obtemos
P (1, 1, 1) = 〈(1, 1, 1), u1〉u1 + 〈(1, 1, 1), u2〉u2 = 〈(1, 1, 1), (1, 0, 0)〉(1, 0, 0)
+ 〈(1, 1, 1), (0, 1, 0)〉(0, 1, 0) = (1, 1, 0).
Ou seja, P (1, 1, 1) = (1, 1, 0).
Obs 3.4. No exemplo 3.4 a base encontrada para U é ortonormal. Nem sempre isso ocorre!
Quando encontrarmos uma base, a qual não é ortonormal, devemos, primeiramente, aplicar o
Processo de Gram-Schmidt para ortonormalizá-la. Depois do processo realizado, procuramos
a projeção ortogonal usando a observação 3.3. Veja o exemplo a seguir.
Exemplo 3.5 (Projeção Ortogonal de R2). Seja V = R2. Seja U = [(1, 1), (0, 1)]. Logo,
β = {(1, 1), (0, 1)} é uma base U . Vamos encontrar P (1, 2). Para isso, precisamos de uma
base ortonormal de U. Vimos, no exemplo 2.12, que γ =
{
u1 =
(
1√
2
, 1√
2
)
, u2 =
(
−
√
2
2
,
√
2
2
)}
é uma base ortonormal de U. Logo, pela observação 3.3,
P (1, 2) = 〈(1, 2), u1〉u1 + 〈(1, 2), u2〉u2
=
〈
(1, 2),
(
1√
2
,
1√
2
)〉(
1√
2
,
1√
2
)
+
〈
(1, 2),
(
−
√
2
2
,
√
2
2
)〉(
−
√
2
2
,
√
2
2
)
= (1, 2).
Definição 3.3 (Aplicação Projeção Ortogonal). Sob as mesmas hipóteses do Teorema 3.1
definimos a projeção ortogonal de V em U , P : V → U , a função que associa cada v ∈ V o
vetor PU(v) (projeção de v em U).
Proposição 3.2 (Linearidade da Projeção Ortogonal). Considere que estamos sob as mes-
mas hipóteses do Teorema 3.1. Então a projeção ortogonal de V em U é uma aplicação
linear.
33
Demonstração. Sejam v1, v2 ∈ V . Como V = U ⊕ U⊥, então existem únicos u1, u2 ∈ U e
u⊥1 , u
⊥
2 ∈ U⊥ tais que v1 = u1 + u⊥1 e v2 = u2 + u⊥2 . Portanto, para λ ∈ R, temos que
v1 + λv2 = (u1 + λu2) + (u
⊥
1 + λu
⊥
2 ),
onde u1 + λu2 ∈ U e u⊥1 + λu⊥2 (esta é a única maneira de escrever v1 + λv2, ver Teorema
3.1), pois U e U⊥ são subespaços de V (ver Teorema 3.1 e Proposição 3.1). Com isso,
P (v1) = u1, P (v2) = u2 e P (v1 + λv2) = u1 + λu2.
Dessa forma,
P (v1 + λv2) = u1 + λu2 = P (v1) + λP (v2),
isto é, P (v1 + λv2) = P (v1) + λP (v2), ou seja, P é linear.
Exemplo 3.6 (Projeção Ortogonal de R3). Seja U = {(x, y, 0) : x, y ∈ R}. Vamos en-
contrar a projeção ortogonal de R3 em U , isto é, P (x, y, z). Vimos no exemplo 3.4 que
U = [(1, 0, 0), (0, 1, 0)] e {u1 = (1, 0, 0), u2 = (0, 1, 0)} é uma base ortonormal de U. Logo,
usando a observação 3.3, obtemos
P (x, y, z) = 〈(x, y, z), u1〉u1 + 〈(x, y, z), u2〉u2 = 〈(x, y, z), (1, 0, 0)〉(1, 0, 0)
+ 〈(x, y, z), (0, 1, 0)〉(0, 1, 0) = x(1, 0, 0) + y(0, 1, 0) = (x, y, 0).
Logo, P (x, y, z) = (x, y, 0) define a projeção ortogonal de R3 em U
Exerćıcios de Fixação
1. Achar uma base do subespaço V ⊥, onde V = [(1, 0, 1, 1), (1, 1, 2, 0)]. Ortonormalize esta
base.
2. Determinar a projeção ortogonal de u = (1, 1) no subespaço U = [(1, 3)].
3. Achar a projeção ortogonal de (1, 1, 1, 1) no subespaço U = [(1, 1, 0, 0), (0, 0, 1, 1)].
4. Determinar a projeção ortogonal de f(t) = 2t − 1 no subespaço U = [t], em relação ao
produto interno canônico de C([0, 1]).
5. Determinar uma base ortonormal de U⊥, onde U = {(x, y, z, t) : x + y = 0 e 2x + z = y}.
34
6. Seja V o espaço formado pelos polinômios degrau menor ou igual a 2 com o produto
interno canônico de C([0, 1]).
i) Ortonormalize {1, 1 + t, 2t2};
ii) Achar o complemento ortogonal do subespaço U = [5, 1 + t].
7. Mostre que a projeção ortogonal, P : V → U , de V em U satisfaz:
i) P 2 := P ◦ P = P ;
ii) ker(P ) = U⊥ (núcleo de P ) e Im(P ) = U ;
iii) V = ker(P )⊕ Im(P ).
8. Seja u = (1, 1, 1, 1). Encontre {u}⊥. Determine uma base ortonormal para {u}⊥.
3.2 Exerćıcios Propostos
Exerćıcios:
1. Seja V o espaço vetorial formado pelos polinômios com grau ≤ 3. Equipe V com o produto
interno 〈f, g〉 =
∫ 1
0
f(t)g(t)dt.
i) Encontre o complemento ortogonal do subespaço formado pelos polinômios constantes;
ii) Aplique o processo de Gram-Schmidt à base {1, x, x2, x3}.
2. Seja V o espaço vetorial de toads as matrizes n × n sobre R. Verifique que 〈A,B〉 =
tr(ABt), onde tr(X) = X11 + X22 + ... + Xnn (traço de X), é um produto interno sobre V .
Encontre o complemento ortogonal do subespaço formado pelas matrizes diagonais.
3. Seja V um espaço vetorial com produto interno 〈·, ·〉. Seja W um subespaço de V
com dimensão finita. Seja P a projeção ortogonal de V em W . Mostre que 〈P (u), v〉 =
〈u, P (v)〉, ∀ u, v ∈ V .
4. Considere o espaço vetorial C([−1, 1]) com o produto interno canônico. Seja P ⊆
C([−1, 1]) o subespaço formado por todas as funções pares e I ⊆ C([−1, 1]) o subespaço
formado pelas funções ı́mpares. Mostre que P⊥ = I.
5. Mostre que se U for um subespaço de dimensão infinita de um espaço vetorial V com
produto interno 〈·, ·〉, então não é verdade, em geral, que V = U ⊕ U⊥. Portanto, se reti-
rarmos a hipótese de dimensão finita do subespaço, no Teorema 3.1, o Teorema deixa de ser
35
verdadeiro.
Sugestão: Considere que V = l2(R) =
{
(xn) ⊆ R :
∞∑
n=1
x2n < ∞
}
com o produto interno
〈(xn), (yn)〉 :=
∞∑
n=1
xnyn (verifique!). Seja U = [(1, 0, ...), (0, 1, 0, ...), ..., (0, 0, ..., 1, 0, ...), ...].
Prove que U⊥ = {(0, 0, ...)}. Para concluir, mostre que V 6= U.
6. Seja W = [(3, 4)]. Seja 〈·, ·〉 o produto interno canônico de R2. Encontre a projeção
ortogonal P de R2 em W, a matriz de P (em relação à base canônica), W⊥, uma base
ortonormal β tal que [P ]β =
(
1 0
0 0
)
.
7. Sejam U1, U2 subespaços de dimensão finita de um espaço vetorial com produto interno
〈·, ·〉. Mostre que (U1 + U2)⊥ = U⊥1 ∩ U⊥2 e (U1 ∩ U2)⊥ = U⊥1 + U⊥2 .
8. Seja V um espaço vetorial com produto interno 〈·, ·〉. Seja U um subespaço de dimensão
finita de V. Então, para cada v ∈ V , tem-se
‖v − P (v)‖ ≤ ‖v − u‖, ∀ u ∈ U,
em palavras, P (v) é o vetor de menor distância a v.
9. Seja V um espaço vetorial com produto interno 〈·, ·〉. Seja U ⊆ V. Mostre que [U ] ⊆ U⊥⊥,
onde [U ] é o subespaço gerado por U e U⊥⊥ = (U⊥)⊥. Prove que se V tem dimensão finta,
então [U ] = U⊥⊥. Conclua que se V tem dimensão finta e U é subespaço de V , então
U = U⊥⊥.
36
Referências Bibliográficas
[1] BUENO, H. P., Álgebra Linear - Um Segundo Curso, Primeira Edição, Rio de Janeiro,
SBM, 2006.
[2] CALLIOLI, C. A., DOMINGUES, H. H.,COSTA, R. C. F. Álgebra Linear e
Aplicações, Sexta Edição, São Paulo, Editora Atual, 1995.
[3] COELHO, F. O., LOURENÇO, M. L., Um Curso de Álgebra Linear, Edição 2001,
São Paulo, EdusP, 2004.
[4] HOFFMAN, K., KUNZE, R., Linear Algebra, Second Edition, New Jersey, Prentice-
Hall, Inc., Englewood Cliffs, 1971.
[5] LANG, S., Álgebra Linear, Primeira Edição, New York, Ed. ciência Moderna, 2003.
[6] LIPSCHUTZ, S., Álgebra Linear, Terceira Edição, São Paulo, Schaum McGraw-Hill
Makron Books, 1994.
[7] SILVA, A., Introdução à Álgebra, Primeira Edição, Editora Universitária UFPB, João
Pessoa, 2007.
Professores Revisores
Professores Paulo de Souza Rabelo e Wilberclay Gonçalves Melo.
37
Caṕıtulo 4
A Adjunta de um Operador Linear
4.1 Adjunta de um Operador Linear
Caro aluno, nesta aula, mostraremos como, em alguns casos, é posśıvel obter, a partir de
um operador linear, uma aplicação linear chamada Adjunta. Veremos que propriedades este
novo operador satisfaz. A adjunta será responsável pela definição de operadores de grande
relevância para a Álgebra Linear.
4.1.1 Definição de Adjunta e Exemplos
O Teorema a seguir caracteriza todos os funcionais lineares reais sobre um espaço vetorial
com produto interno e dimensão finita. Antes de enunciá-lo relembre a definição de funcional
linear real.
Definição 4.1 (Funcional Linear). Seja V um espaço vetorial. Dizemos que uma aplicação
f : V → R é um funcional linear se f(λu+v) = λf(u)+f(v),∀ u, v ∈ V e λ ∈ R. O conjunto
V ∗ = {f : V → R : f é linear} é um espaço vetorial chamado espaço dual de V.
Exemplo 4.1. A aplicação f : R2 → R, dada por f(x, y) = 2x + y, é um exemplo de
funcional linear.
Teorema 4.1 (Teorema da Representação de Riesz). Seja V um espaço vetorial com produto
interno 〈·, ·〉 e dimensão finita. Dado um funcional linear f : V → R, existe único v ∈ V tal
que f(u) = 〈u, v〉,∀ u ∈ V.
38
Demonstração. Pelo Teorema 2.1, sabemos que existe uma base ortonormal de V . Digamos
que {v1, v2, ..., vn} é esta base. Dado u ∈ V , pela definição de base, temos que
u = λ1v1 + λ2v2 + ... + λnvn.
Note que
〈u, v1〉 = 〈λ1v1 + λ2v2 + ... + λnvn, v1〉.
Portanto, pela Definção 2.4,
〈u, v1〉 = λ1〈v1, v1〉+ λ2〈v2, v1〉+ ... + λn〈vn, v1〉 = λ1.
Logo, λ1 = 〈u, v1〉. Analogamente, prova-se que λi = 〈u, vi〉,∀ i = 1, 2, ..., n. Assim sendo,
u = 〈u, v1〉v1 + 〈u, v2〉v2 + ... + 〈u, vn〉vn.
Consequentemente, usando a Definição 4.1,
f(u) = f(〈u, v1〉v1 + 〈u, v2〉v2 + ... + 〈u, vn〉vn)
= 〈u, v1〉f(v1) + 〈u, v2〉f(v2) + ... + 〈u, vn〉f(vn)
= 〈u, f(v1)v1〉+ 〈u, f(v2)v2〉+ ... + 〈u, f(vn)vn〉
= 〈u, f(v1)v1 + f(v2)v2 + ... + f(vn)vn〉.
Defina v = f(v1)v1 + f(v2)v2 + ... + f(vn)vn. Portanto, f(u) = 〈u, v〉,∀ u ∈ V. Agora, vamos
provar a unicidade de v ∈ V. Suponha que existe w ∈ V tal que f(u) = 〈u,w〉,∀ u ∈ V. Com
isso, 〈u,w〉 = f(u) = 〈u, v〉,∀ u ∈ V . Dáı, 〈u,w − v〉 = 0,∀ u ∈ V . Usando o item iv) da
Proposição 1.1, chegamos a w − v = 0. Logo, w = v. Isto porva a unicidade.
Exemplo 4.2 (Funcional Linear em R2). Seja f(x, y) = 2x+y o funcional visto no exemplo
4.1. Dáı, f(x, y) = 〈(x, y), (2, 1)〉,∀ (x, y) ∈ R2. Logo, v = (2, 1) é o vetor relatado no
Teorema 4.1.
Corolário 4.2 (Isomorfismo entre V e V ∗). Seja V um espaço vetorial com produto interno
〈·, ·〉. e dimensão finita. Então V ∗ é isomorfo a V, isto é, existe um isomorfismo entre V ∗ e
V.
Demonstração. Defina T : V ∗ → V por T (f) = v, onde f(u) = 〈u, v〉, ∀ u ∈ V (ver Teorema
4.1). Como dim V ∗ = dim V , então, pelo Teorema do núcleo e imagem, basta provar que T é
39
linear e injetora, ou seja, que T é linear e ker(T ) = {0}, para provar que T é um isomorfismo.
Primeiramente, vamos provar que T é linear. Com efeito, sejam f, g ∈ V ∗ e λ ∈ R. Então,
pelo Teorema 4.1, existem únicos v, w ∈ V tais que f(u) = 〈u, v〉 e g(u) = 〈u,w〉,∀ u ∈ V.
Portanto,
(λf + g)(u) = λf(u) + g(u) = λ〈u, v〉+ 〈u,w〉 = 〈u, λv + w〉, ∀ u ∈ V.
Ou seja, T (λf + g) = λv + w (ver unicidade no Teorema 4.1). Consequentemente,
T (λf + g) = λv + w = λT (f) + T (g).
Assim, T é linear. Agora, considere que f ∈ ker(T ). Dáı, T (f) = 0. Logo, v = T (f) = 0.
Por fim, f(u) = 〈u, v〉 = 0,∀ u ∈ V. Isto é, f = 0. Isto mostra que ker(T ) = {0}.
Definição 4.2 (Adjunta). Seja T : U → V uma transformação linear, onde U e V são
espaços vetoriais com produtos internos 〈·, ·〉U e 〈·, ·〉V , respectivamente. Dizemos que uma
aplicação T ∗ : V → U é a adjunta de T se esta satisfaz
〈v, T (u)〉V = 〈T ∗(v), u〉U ,∀ u ∈ U, v ∈ V.
Obs 4.1. Quando não hover possibilidade de confusão escreveremos, simplesmente, 〈·, ·〉
para representar 〈·, ·〉U e 〈·, ·〉V , mas deve estar claro que estes produtos estão sobre U e V ,
respectivamente.
Exemplo 4.3 (Adjunta com Polinômios). Seja V o espaço dos polinômios sobre R com o
produto interno canônico de C([0, 1]) (ver exemplo 1.3). Fixe g ∈ V. Defina T : V → V
pondo T (f) = f · g, ∀ f ∈ V. Vamos procurar aadjunta de T (caso esta exista). Observe
que
〈f, T (h)〉 = 〈f, h · g〉 =
∫ 1
0
f(t)[h(t)g(t)]dt =
∫ 1
0
[f(t)g(t)]h(t)dt = 〈f · g, h〉 = 〈T (f), h〉,
∀ f, h ∈ V. Portanto, T ∗(f) = T (f) ∀ f ∈ V. Ou seja, T ∗ = T.
4.1.2 Existência e Unicidade da Adjunta
As perguntas que surgem no exemplo 4.3 são: a adjunta existe sempre? E se existe, esta
é única? A resposta para a primeira pergunta é negativa, veremos um exemplo na lista de
40
exerćıcios propostos. A resposta para a segunda pergunta está na seguinte
Proposição 4.1 (Unicidade da Adjunta). Seja T : U → V uma transformação linear, onde
U e V são espaços vetoriais com produtos internos 〈·, ·〉U e 〈·, ·〉V , respectivamente. Caso
exista T ∗, esta é única.
Demonstração. Suponha que existe S : V → U tal que
〈v, T (u)〉V = 〈S(v), u〉U ,∀ u ∈ U, v ∈ V.
Então,
〈T ∗(v), u〉U = 〈v, T (u)〉V = 〈S(v), u〉U ,∀ u ∈ U, v ∈ V,
ou seja,
〈T ∗(v)− S(v), u〉U = 0,∀ u ∈ U, v ∈ V,
isto é, T ∗(v) − S(v) = 0, ∀ v ∈ V (ver item iv) da Proposição 1.1). Por fim, S = T ∗. Isto
garante a unicidade de T ∗.
Note que, no exemplo 4.3 vimos que T ∗ = T , então como T é linear podemos concluir
que T ∗ é linear. Isto sempre ocorre? Ou seja, quando a adjunta existe, além de ser única,
esta é uma transformação linear? Confira a resposta na
Proposição 4.2 (Linearidade da Adjunta). Seja T : U → V uma transformação linear,
onde U e V são espaços vetoriais com produtos internos 〈·, ·〉U e 〈·, ·〉V , respectivamente.
Caso exista T ∗, esta é linear.
Demonstração. Sejam v, w ∈ V e λ ∈ R. Então, usando a Proposição 1.1, obtemos
〈T ∗(λv + w), u〉U = 〈λv + w, T (u)〉V = 〈λv + w, T (u)〉V = λ〈v, T (u)〉V + 〈w, T (u)〉V
= λ〈T ∗(v), u〉V + 〈T ∗(w), u〉V = 〈λT ∗(v) + T ∗(w), u〉V ,∀ u ∈ U,
ou seja,
〈T ∗(λv + w), u〉U = 〈λT ∗(v) + T ∗(w), u〉V , ∀ u ∈ U.
Portanto,
〈T ∗(λv + w)− (λT ∗(v) + T ∗(w)), u〉U = 0,∀ u ∈ U.
41
Utilizando o item iv) da Proposição 1.1, chegamos a
T ∗(λv + w)− (λT ∗(v) + T ∗(w)) = 0.
Ou equivalentemente, T ∗(λv + w) = λT ∗(v) + T ∗(w). Isto nos diz que T ∗ é linear.
Prezado aluno, será que existe alguma condição que estabelece a existência da adjunta?
Teorema 4.3 (Existência e Unicidade da Adjunta). Seja T : U → V uma transformação li-
near, onde U e V são espaços vetoriais com produtos internos 〈·, ·〉U e 〈·, ·〉V , respctivamente,
e dimensão finita. Então T ∗ existe, é única e linear.
Demonstração. Defina, para cada v ∈ V , f(u) = 〈v, T (u)〉V ,∀ u ∈ U. Note que f : U → R é
um funcional linear. De fato, através da linearidade de T e da definição 1.1, obtemos
f(λu + w) = 〈v, T (λu + w)〉V = 〈v, λT (u)〉V + 〈v, T (w)〉V = λ〈v, T (u)〉V + 〈v, T (w)〉V
= λf(u) + f(w), ∀ u,w ∈ U.
Ou seja, f(λu + w) = λf(u) + f(w),∀ u,w ∈ U. Isto nos diz que f é linear. Pelo Teorema
4.1, exite um único w ∈ U tal que f(u) = 〈u,w〉U = 〈w, u〉U , ∀ u ∈ U. Dáı,
〈v, T (u)〉V = f(u) = 〈w, u〉U ,∀ u ∈ U.
Por isso, defina T ∗(v) = w. Logo,
〈v, T (u)〉V = 〈T ∗(v), u〉U ,∀ u ∈ U, v ∈ V.
T ∗ é adjunta de T . A unicidade está garantida pela Proposição 4.1 e a linearidade através
da Proposição 4.2.
Exemplo 4.4 (Adjunta em Rn). Seja T : R2 → R3 dado por T (x, y) = (x, 2x + y,−y).
Sabemos que a adjunta de T existe, pelo Teorema 4.3, então vamos procurá-la. Usando a
definição 4.2, obtemos
〈(a, b, c), T (x, y)〉 = 〈(a, b, c), (x, 2x + y,−y)〉 = ax + b(2x + y)− cy
= (a + 2b)x + (b− c)y = 〈(a + 2b, b− c), (x, y)〉.
Logo, T ∗(a, b, c) = (a + 2b, b− c), ∀ (a, b, c) ∈ R3, define a adjunta de T .
42
Exemplo 4.5 (Adjunta em R2). Defina T : R2 → R2 por T (x, y) = (−y, x). Dáı,
〈(a, b), T (x, y)〉 = 〈(a, b), (−y, x)〉 = −ay + bx = bx + (−a)y = 〈(b,−a), (x, y)〉.
Logo, T ∗(a, b) = (b,−a), ∀ (a, b) ∈ R2, define a adjunta de T . Neste caso, T ∗ = −T.
Exemplo 4.6 (Adjunta em R2). Seja T : R2 → R2 dada por T (x, y) = (y, x). Note que
〈(a, b), T (x, y)〉 = 〈(a, b), (y, x)〉 = ay + bx = bx + ay = 〈(b, a), (x, y)〉, ∀ (x, y), (a, b) ∈ R2.
Então T ∗(a, b) = (b, a). Logo, T ∗ = T.
4.1.3 Propriedades da Adjunta
Caros alunos, sabemos que a soma de duas transformações lineares é uma transformação
linear. Faz sentido, então, perguntar se existe ligação entre a adjunta de uma soma e as
adjuntas de cada uma das parcelas. O mesmo pode ser indagado sobre composição, multi-
plicação por escalar envolvendo transformações lineares. O próximo resultado estabelece as
propriedades da adjunta.
Proposição 4.3 (Propriedades da Adjunta). Sejam T, S : U → V e P : V → W trans-
formações lineares, onde U, V e W são espaços vetoriais com produto interno e dimensão
finita. Seja λ ∈ R. Então:
i) I∗ = I, onde I é a transformação linear identidade, isto é, I(v) = v, ∀ v;
ii) (T + S)∗ = T ∗ + S∗, em palavras, a adjunta de uma soma é a soma das adjuntas;
iii) (λT )∗ = λT ∗, em palavras, a adjunta de uma multiplicação por escalar é a multiplicação
por escalar com a adjunta;
iv) (P ◦ T )∗ = T ∗ ◦P ∗, em palavras, a adjunta de uma composta é a composta das adjuntas
com os fatores comutados;
v) T ∗∗ := (T ∗)∗ = T , em palavras, a adjunta da adjunta de uma transformação linear é a
própria transformação.
43
Demonstração. A existência e a unicidade destas adjuntas estão garantidas pelo Teorema
4.3.
i) Note que, usando a Definição 4.2, temos que
〈v, I(u)〉V = 〈v, u〉U = 〈I(v), u〉U ,∀ u, v,
logo, I∗ = I.
ii) Através, novamente, da Definição 4.2, obtemos
〈v, (T + S)(u)〉 = 〈v, T (u) + S(u)〉 = 〈v, T (u)〉+ 〈v, S(u)〉 = 〈T ∗(v), u〉+ 〈S∗(v), u〉
= 〈T ∗(v) + S∗(v), u〉,∀ u ∈ U, v ∈ V.
Dáı, (T + S)∗ = T ∗ + S∗.
iii) Da Definição 4.2, conclúımos que
〈v, (λT )(u)〉 = 〈v, λT (u)〉 = λ〈v, T (u)〉 = λ〈T ∗(v), u〉 = 〈λT ∗(v), u〉,∀ u ∈ U, v ∈ V.
Assim, (λT )∗ = λT ∗.
iv) Novamente pela Definição 4.2, encontramos
〈w, (P ◦ T )(u)〉 = 〈w,P (T (u))〉 = 〈P ∗(w), T (u)〉 = 〈T ∗(P ∗(w)), u〉
= 〈(T ∗ ◦ P ∗)(w), u〉,∀ u ∈ U,w ∈ W.
Portanto, (P ◦ T )∗ = T ∗ ◦ P ∗.
v) Por fim, novamente pela Definição 4.2,
〈v, T ∗(u)〉 = 〈T (v), u〉,∀ u ∈ U, v ∈ V.
Dessa forma, T ∗∗ = T.
Exemplo 4.7 (Adjunta da Multiplicação por Escalar). Seja S : R2 → R3, definido por
S(x, y) = (2x, 4x + 2y,−2y). Desejamos encontrar a adjunta de S. Observe que S = 2T ,
onde T (x, y) = (x, 2x + y,−y). Vimos no exemplo 4.4 que T ∗(a, b, c) = (a + 2b, b− c). Logo,
44
pelo item iii) da Proposição 4.3, obtemos
S∗(a, b, c) = (2T )∗(a, b, c) = 2T ∗(a, b, c) = 2(a + 2b, b− c) = (2a + 4b, 2b− 2c),
isto é, S∗(a, b, c) = (2a + 4b, 2b− 2c).
Exemplo 4.8 (Adjunta da soma). Seja S : R2 → R2 dado por S(x, y) = (x−y, x+y). Note
que,
S(x, y) = (x− y, x + y) = (x, y) + (−y, x) = I(x, y) + T (x, y) = (I + T )(x, y),∀ (x, y) ∈ R2,
onde T está definida no exemplo 4.5 e I é a identidade de R2. Vimos que T ∗(a, b) = (b,−a).
Portanto, usando os itens i) e ii) da Proposição 4.3, encontramos
S∗(a, b) = (I+T )∗(a, b) = (I∗+T ∗)(a, b) = I∗(a, b)+T ∗(a, b) = (a, b)+(b,−a) = (a+b, b−a),
isto é, S∗(a, b) = (a + b, b− a).
Veremos que a inversa da adjunta de um isomorfismo é a adjunta da inversa desta
aplicação.
Proposição 4.4 (Adjunta da Inversa). Seja T : V → V um isomorfismo, onde V é um
espaço vetorial com produto interno. Então T ∗ (caso exista) também o é. Neste caso,
[T ∗]−1 = [T−1]∗.
Demonstração. Como T é um isomorfismo, existe T−1 : V → V linear tal que T ◦ T−1 =
T−1 ◦ T = I, onde I : V → V é a identidade de V . Portanto, utilizando os itens i) e iv) da
Proposição 4.3, obtemos [T ◦T−1]∗ = [T−1◦T ]∗ = I∗. Com isso, [T−1]∗◦T ∗ = T ∗◦ [T−1]∗ = I.
Isto nos diz que T ∗ é inverśıvel, ou seja, T ∗ é um isomorfismo (ver Proposição 4.2). Além
disso, [T ∗]−1 = [T−1]∗.
Exemplo 4.9 (Inversa da Adjunta em R2). Seja T (x, y) = (−y, x). Vamos mostrar que
[T−1]∗ = −T−1. Vimos no exemplo 4.5, que T ∗ = −T. Logo, pela Proposição 4.4,
[T−1]∗ = [T ∗]−1 = [−T ]−1 = −T−1.
Por que T é inverśıvel?
45
Proposição 4.5 (Adjunta e Subespaço). Seja T : V → V um operador linear, onde V é um
espaço vetorial com produto interno 〈·, ·〉. Seja U um subespaçoT -invariante, isto é, T (U) ⊆
U . Suponha que T ∗ : V → V existe, então U⊥ é T ∗-invariante, ou seja, T ∗(U⊥) ⊆ U⊥.
Demonstração. Seja u ∈ T ∗(U⊥), então existe v ∈ U⊥ tal que u = T ∗(v). Dado w ∈ U,
temos que 〈u,w〉 = 〈T ∗(v), w〉 = 〈v, T (w)〉. Como w ∈ U, então T (w) ∈ U, pois T (U) ⊆ U.
Por conseguinte, 〈u,w〉 = 〈v, T (w)〉 = 0, pois v ∈ U⊥ e T (w) ∈ U. Assim sendo, u ∈ U⊥. Ou
seja, T ∗(U⊥) ⊆ U⊥.
Exemplo 4.10. Seja T : V → V uma transformação linear tal que T = T ∗ (caso exista),
onde V é um espaço vetorial com produto interno 〈·, ·〉. Seja U um subespaço T -invariante,
então U⊥ é um subespaço T -invariante (ver Proposição 4.5).
4.1.4 Matriz da Adjunta em Relação a uma Base Ortonormal
Caros alunos, será que existe uma relação entre a matriz de uma transformação linear e a
matriz de sua adjunta, em relação a uma base qualquer? A resposta é negativa, mas se a
base for ortonormal obtemos o seguinte resultado.
Teorema 4.4 (Matriz da Transformação e da Adjunta). Seja T : V → V uma transformação
linear, onde V é um espaço vetorial com produto interno 〈·, ·〉 e dimensão finita. Seja
β = {v1, v2, ..., vn} uma base ortonormal de V. Então [T ∗]β = [T ]tβ.
Demonstração. Seja [T ]β = (Aij). Note que T (vj) = A1jv1 + A2jv2 + ... + Anjvn. Conse-
quentemente,
〈T (vj), vi〉 = 〈A1jv1 + A2jv2 + ... + Anjvn, vi〉 = A1j〈v1, vi〉+ A2j〈v2, vi〉+ ... + Anj〈vn, vi〉.
Como β é uma base ortonormal, então 〈T (vj), vi〉 = Aij〈vi, vi〉 = Aij (ver Definição 2.4).
Logo, 〈T (vj), vi〉 = Aij,∀ i, j = 1, 2, ..., n. Seja [T ∗]β = (Bij). Analogamente ao que foi feito
nesta demonstração, temos que
Bij = 〈T ∗(vj), vi〉 = 〈vj, T (vi)〉 = 〈T (vi), vj〉 = Aji,
ver Definição 4.2, isto é, Bij = Aji,∀ i, j = 1, 2, ..., n. Isto nos diz que [T ∗]β = [T ]tβ.
46
Exemplo 4.11 (Matriz da Transformação e da Adjunta em R2). Seja T (x, y) = (−y, x).
Dáı, [T ]c =
(
0 −1
1 0
)
é a matriz de T em relação à base canônica de R2. Como esta base
é ortonormal, em relação ao produto interno canônico de R2, então, usando o Teorema 4.4,
[T ∗]c = [T ]tc =
(
0 1
−1 0
)
. Portanto, T ∗(a, b) = (b,−a).
Exerćıcios de Fixação
1. Seja T : R2 → R2 dado por T (x, y) = (10x− y, y). Encontre T ∗.
2. Seja T : R2 → R2 dado por T (x, y) = (√3x, x− 4y). Encontre T ∗.
3. Seja T : R3 → R3 dado por T (x, y, z) = (x− y, z, y + z). Encontre T ∗.
4. Seja T : R3 → R3 dado por T (x, y, z) = (0, 0, z). Encontre T ∗.
5. Em R3 verifique que 〈(x1, x2, x3), (y1, y2, y3)〉 = 2x1y1 + 3x2y2 + 4x3y3 define um produto
interno. Encontre a adjunta da aplicação linear T dada por
T


x
y
z

 =


1 0 1
2 −1 3
3 −1 4




x
y
z


com relação a esse produto interno.
6. Seja T : V → V um operador linear sobre um espaço vetorial V com produto interno.
Suponha que existe T ∗ e que T (v) = λv e T ∗(w) = µw, com λ 6= µ. Mostre que 〈v, w〉 = 0.
7. Sejam U, V espaços vetoriais com produto interno e dimensão finita e T : U → V linear.
Mostre que
i) T é injetora ⇔ T ∗ é sobrejetora;
ii) T é sobrejetora ⇔ T ∗ é injetora.
8. Seja V um espaço vetorial com produto interno e u, v ∈ V vetores fixos. Mostre que
T (x) = 〈x, u〉v define uma aplicação linear. Mostre que T ∗ existe e obtenha sua expressão.
9. Seja T : U → V uma transformação linear entre espaços vetoriais de dimensão finita com
produto interno. Se dim U < dim V , prove que o operador T ◦ T ∗ : V → V não é invert́ıvel.
Mas se ker T = {0}, prove que T ∗ ◦ T : U → U é invert́ıvel.
47
4.2 Exerćıcios Propostos
Exerćıcios:
1. Sejam U, V espaços vetoriais com produto interno e dimensão finita. Seja T : U → V
linear. Mostre que T ∗ ◦ T : U → U e T ◦ T ∗ : V → V têm o mesmo posto de T . Lembre que
posto(T ) = dim Im(T ).
2. Sejam U, V espaços vetoriais com produto interno. Mostre que U ⊕ V é um espaço
vetorial com produto interno se definirmos 〈(x1, y1), (x2, y2)〉 := 〈x1, x2〉U + 〈y1, y2〉V . Defina
T : U ⊕ V → V ⊕ U por T (x, y) = (y,−x). Mostre que T ∗ existe e obtenha sua expressão.
3. Seja V um espaço vetorial com produto interno e dimensão finita. Para cada u, v ∈ V
defina Tu,v(x) = 〈x, v〉u. Mostre que T ∗u,v = Tv,u.
4. Sejam U, V espaços vetoriais com produto interno. Mostre que U ⊕ V é um espaço
vetorial com produto interno se definirmos 〈(x1, y1), (x2, y2)〉 := 〈x1, x2〉U + 〈y1, y2〉V . Defina
T : U ⊕ V → V ⊕ U por T (x, y) = (y,−x). Mostre que T ∗ existe e obtenha sua expressão.
5. Seja V um espaço vetorial com produto interno e dimensão finita. Para cada u, v ∈ V
defina Tu,v(x) = 〈x, v〉u. Mostre que T ∗u,v = Tv,u.
48
Referências Bibliográficas
[1] BUENO, H. P., Álgebra Linear - Um Segundo Curso, Primeira Edição, Rio de Janeiro,
SBM, 2006.
[2] CALLIOLI, C. A., DOMINGUES, H. H.,COSTA, R. C. F. Álgebra Linear e
Aplicações, Sexta Edição, São Paulo, Editora Atual, 1995.
[3] COELHO, F. O., LOURENÇO, M. L., Um Curso de Álgebra Linear, Edição 2001,
São Paulo, EdusP, 2004.
[4] HOFFMAN, K., KUNZE, R., Linear Algebra, Second Edition, New Jersey, Prentice-
Hall, Inc., Englewood Cliffs, 1971.
[5] LANG, S., Álgebra Linear, Primeira Edição, New York, Ed. ciência Moderna, 2003.
[6] LIPSCHUTZ, S., Álgebra Linear, Terceira Edição, São Paulo, Schaum McGraw-Hill
Makron Books, 1994.
[7] SILVA, A., Introdução à Álgebra, Primeira Edição, Editora Universitária UFPB, João
Pessoa, 2007.
Professores Revisores
Professores Paulo de Souza Rabelo e Wilberclay Gonçalves Melo.
49
Caṕıtulo 5
Operadores Auto-adjuntos e
Antiauto-adjuntos
5.1 Operadores Auto-adjuntos e Antiauto-adjuntos
Caro aluno, nesta aula, trabalharemos com operadores denominados auto-adjuntos e antiauto-
adjuntos. Mostraremos a estreita relação existente entre o estudo dos autovetores, realizado
em Álgebra Linear 1, com tais operadores.
5.1.1 Definições e Exemplos de Operadores Auto-adjuntos e Anti-
auto-adjuntos
Prezado aluno, nosso principal interesse no estudo de operadores auto-adjuntos é estabele-
cer e aplicar o Teorema Espectral para tais operadores. Para isto precisamos percorrer o
prazeroso caminho que descreve esta teoria.
Definição 5.1 (Operadores Auto-adjuntos). Seja V um espaço vetorial com produto interno
〈·, ·〉. Dizemos que um operador linear T : V → V é auto-adjunto se T = T ∗.
Exemplo 5.1 (Operador Auto-adjunto em R2). Seja T : R2 → R2, dada por T (x, y) = (y, x).
Vimos, no exemplo 4.6, que T ∗ = T. Logo, T é um operador auto-adjunto.
50
Exemplo 5.2 (Operador Não-auto-adjunto). Seja T : R2 → R2, dada por T (x, y) = (−y, x).
Vimos, no exemplo 4.5, que T ∗(a, b) = (b,−a). Em particular,
T ∗(1, 1) = (1,−1) e T (1, 1) = (−1, 1).
Ou seja, T ∗ 6= T. Isto nos diz que T não é auto-adjunto (ver definição 5.1).
Exemplo 5.3 (Operador Auto-adjunto no Espaço dos Polinômios). Seja V o espaço dos
polinômios sobre R com o produto interno canônico de C([0, 1]) (ver exemplo 1.3). Fixe
g ∈ V. Defina T : V → V pondo T (f) = f · g, ∀ f ∈ V. Vimos, no exemplo 4.3, que T = T ∗.
Com isso, T é auto-adjunto (ver definição 5.1).
Exemplo 5.4 (Operador Auto-adjunto). Seja V um espaço vetorial com produto interno
〈·, ·〉. Seja v ∈ V um vetor fixo. Seja T : V → V definida por T (u) = 〈v, u〉v, ∀ u ∈ V .
Vamos mostrar que T é auto-adjunto. De fato,
〈v, T (u)〉 = 〈v, 〈v, u〉v〉 = 〈v, u〉〈v, v〉 = 〈〈v, v〉v, u〉 = 〈T (v), u〉,
ou seja, T ∗ = T. Isto nos diz que T é auto-adjunto (ver definição 5.1).
Exemplo 5.5 (Identidade Auto-adjunto). Seja V um espaço vetorial com produto interno
〈·, ·〉. Seja I : V → V definida por I(v) = v, ∀ v ∈ V. Vimos, no item i) da Proposição 4.3,
que I∗ = I. Logo, I é auto-adjunto.
Definição 5.2 (Operadores Antiauto-adjuntos). Seja V um espaço vetorial com produto
interno 〈·, ·〉. Dizemos que um operador linear T : V → V é antiauto-adjunto se T ∗ = −T.
Exemplo 5.6 (Operadores Antiauto-adjuntos em R2). Seja T : R2 → R2, dado por T (x, y) =
(−y, x). Vimos, no exemplo 4.5, que T ∗ = −T . Logo, T é antiauto-adjunto.
Exemplo 5.7 (Operadores Não-antiauto-adjuntos

Continue navegando