Buscar

Algebra Linear - Vitor Goncalves Elias

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 140 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 140 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 140 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Álgebra Linear
Victor Gonçalves Elias
5 de dezembro de 2011
SUMÁRIO 3
Sumário
1 Introdução 7
1.1 Exercícios de Revisão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Espaços Vetoriais 11
2.1 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.1 Soma de Subespaços . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Combinações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Espaços Vetoriais Finitamente Gerados . . . . . . . . . . . . . . . . . . . . 18
2.4 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5 Dependência Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.1 Propriedades da Dependência Linear . . . . . . . . . . . . . . . . . 23
2.6 Base de um Espaço Vetorial Finitamente Gerado . . . . . . . . . . . . . . . 23
2.7 Dimensão de um Espaço Vetorial . . . . . . . . . . . . . . . . . . . . . . . 24
2.7.1 Dimensão da soma de subespaços . . . . . . . . . . . . . . . . . . . 26
2.8 Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.9 Mudança de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.10 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3 Produto Interno 33
3.1 Definição e primeiras propriedades . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Norma e Distância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.4.1 Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4.2 Teorema da Projeção . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.5 Produto Interno para Espaços Vetoriais Complexos . . . . . . . . . . . . . 44
3.6 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4 Transformações Lineares 49
4.1 A Imagem e o Núcleo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2 Isomorfismos e Automorfismos . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3 Espaço das Transformações Lineares . . . . . . . . . . . . . . . . . . . . . 54
4.4 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.5 Matriz de uma Transformação Linear . . . . . . . . . . . . . . . . . . . . . 59
4.6 Espaço Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
Victor Gonçalves Elias
4 SUMÁRIO
4.7 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.8 Isometria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.9 Operadores adjuntos e auto-adjuntos . . . . . . . . . . . . . . . . . . . . . 69
4.10 Mudança de base e semelhança de matrizes . . . . . . . . . . . . . . . . . . 71
4.11 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5 Autovalores e Autovetores 77
5.1 Definição e primeiras propriedades . . . . . . . . . . . . . . . . . . . . . . . 77
5.2 Polinômio Característico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.3 Diagonalização de Operadores . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.3.1 Diagonalização de Operadores Auto-adjuntos . . . . . . . . . . . . . 84
5.3.2 Diagonalização de Operadores Ortogonais . . . . . . . . . . . . . . 85
5.4 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.5 Aplicações da Diagonalização . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.5.1 Potências de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . 88
5.5.2 Diagonalização e Cônicas . . . . . . . . . . . . . . . . . . . . . . . . 88
5.5.3 Exponencial de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . 90
5.6 Forma Canônica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.6.1 Obtenção da Forma Canônica de Jordan . . . . . . . . . . . . . . . 94
5.6.2 Polinômio Mínimo . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.6.3 Aplicações da Forma Canônica de Jordan . . . . . . . . . . . . . . . 97
5.7 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6 Equações Diferenciais Ordinárias 103
6.1 Classificação de Equações Diferenciais . . . . . . . . . . . . . . . . . . . . . 103
6.1.1 Solução de uma EDO . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.2 Primeiras Propriedades das EDOL’s . . . . . . . . . . . . . . . . . . . . . . 105
6.3 EDOL de Primeira Ordem . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.4 EDOLH de Segunda Ordem . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6.4.1 Wronskiano e Propriedades . . . . . . . . . . . . . . . . . . . . . . 107
6.4.2 Médoto de Redução de Ordem . . . . . . . . . . . . . . . . . . . . . 109
6.4.3 Coeficientes Constantes . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.5 EDOLH de Ordem n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.5.1 Método de Redução de Ordem . . . . . . . . . . . . . . . . . . . . . 112
6.5.2 Coeficientes Constantes . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.6 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.7 SEDOLH de Primeira Ordem . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.7.1 Matriz Fundamental . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.7.2 Coeficientes Constantes . . . . . . . . . . . . . . . . . . . . . . . . . 121
6.8 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
7 Respostas aos exercícios 129
7.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
7.2 Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
7.3 Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
Victor Gonçalves Elias
SUMÁRIO 5
7.4 Transformações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
7.5 Autovalores e Autovetores . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
7.6 Equações Diferenciais Ordinárias . . . . . . . . . . . . . . . . . . . . . . . 138
Victor Gonçalves Elias
7
Capítulo 1
Introdução
1.1 Exercícios de Revisão
Exercício 1.1 Verificar quais das seguintes matrizes são inversíveis e determinar as
inversas respectivas:
A =
[
1 2
2 2
]
, B =
 1 0 11 1 0
0 −1 1
 , C =

0 0 1 1
1 0 0 1
1 1 1 −1
0 2 0 3
 .
Exercício 1.2 Existe alguma matriz inversível A tal que A2 = O (matriz nula)? Justi-
fique.
Exercício 1.3 Determinar x, y e z de modo que a matriz 1 0 00 1√
2
1√
2
x y z

seja ortogonal.
Exercício 1.4 Considere a matriz:
A =
[
1 2
2 1
]
.
Sendo X uma matriz real 2 × 1, quais os valores de λ tal que existe X não nulo que
satisfaz a
AX = λX?
Exercício 1.5 Seja A a seguinte matriz (complexa)
A =
 0 0 i0 1 0
−i 0 0
 ,
Victor Gonçalves Elias
8 CAPÍTULO 1. INTRODUÇÃO
onde i2 = −1.
1. A é uma matriz hermitiana?1
2. Obtenha A−1.
3. Calcule A2.
4. Deduza uma expressão para A2n e A2n+1, sendo n um natural.
5. Sabendo que, para um certo x ∈ R, exA é a matriz dada pela série (que pode se
mostrar ser convergente):
∞∑
n=0
(xA)n
n!
= I + xA+
x2A2
2
+
x3A3
3!
+ . . .
obtenha exA. Aqui, por convenção, A0 = I.
Exercício 1.6 Considere {v1, v2, . . . , vn} um conjunto de matrizes coluna de ordem n e
seja M = [v1 v2 . . . vn] a matriz n × n cujas colunas são dadas justamente pelas
matrizes v1, v2, . . . , vn. Mostre que:
1. [λ1v1 λ2v2 . . . λnvn] = MD, onde D = diag(λ1, λ2, . . . , λn) é a matriz diagonal
cujos elementos são λ1, λ2, . . . , λn (nestaordem).
2. AM = [Av1 Av2 . . . Avn], onde A é uma matriz n× n.
Exercício 1.7 Mostre que não existem matrizes A e B quadradas de ordem n de modo
que AB −BA seja a matriz identidade.
Exercício 1.8 Seja A uma matriz quadrada cujos elementos são funções deriváveis na
variável real t. Se A é inversível (para um certo t), então mostre que:
dA−1
dt
= −A−1dA
dt
A−1
Exercício 1.9 Pode-se definir a convergência de uma sequência de matrizes analisando a
convergência elemento por elemento. Da mesma forma, pode-se definir a convergência de
uma série de matrizes. Supondo que a série de Neumann para uma certa matriz quadrada
A: ∞∑
n=0
(I − A)n,
seja convergente, mostre que ela converge para A−1. Numericamente, pode-se obter uma
aproximação para a inversa da matriz truncando a série acima.
1Uma matriz é hermitiana quando A = A†, sendo A† a matriz complexo-conjugada da transposta de
A.
Victor Gonçalves Elias
1.1. EXERCÍCIOS DE REVISÃO 9
Exercício 1.10 O traço de uma matriz quadrada P é definido como a soma dos elementos
da diagonal principal de P e denotado por tr(P ).
1. Sendo A e B matrizes de ordem m × n e n × m, respectivamente, mostre que
tr(AB) = tr(BA) (mesmo quando as matrizes AB e BA são diferentes).
2. Sendo A e B matrizes ambas de ordem m × n, mostre que tr(ABT ) = tr(ATB) =
tr(BTA) = tr(BAT ).
3. Se A, B e C são matrizes quadradas de mesma ordem, então mostre a propriedade
cíclica do traço: tr(ABC) = tr(BCA) = tr(CAB).
Exercício 1.11 Sejam A, U , B e V matrizes reais de ordem p× p, p× q, q × q e q × p,
respectivamente. Se A e B + BV A−1UB são não singulares, mostre o teorema binomial
da inversa:
(A+ UBV )−1 = A−1 − A−1UB(B +BV A−1UB)−1BV A−1.
Exercício 1.12 Seja A uma matriz n×n que tem todos os elementos da diagonal principal
iguais a zero e os demais elementos iguais a −1. Obtenha o determinante de A.
Exercício 1.13 Considere uma matriz A quadrada de ordem n com todos os elementos
inteiros, de tal modo que os elementos da diagonal principal de A são ímpares e os demais
elementos são pares. Mostre que A é inversível.
Exercício 1.14 Seja M uma matriz 5× 5 com todos os elementos inteiros e pares.
1. É possível que o determinante de M seja igual a 120?
2. Nas condições do problema, seja M tal que det(M) = 160. Certamente, M−1 será
composta exclusivamente por números racionais. Suponha que os números racionais
estejam simplificados ao máximo. Para cada matriz M , denote por d(M) o maior
valor do denominador que aparece na sua inversa (supondo que esta já esteja ao
máximo simplificada). De todas as matrizes M que satisfazem estas condições, qual
o maior valor de d(M)?
Exercício 1.15 Considere M uma matriz quadrada com todos os elementos inteiros. Se
além disso, a soma de cada linha de M é igual a k, mostre que o determinante de M é
um múltiplo de k.
Victor Gonçalves Elias
11
Capítulo 2
Espaços Vetoriais
Definição 2.1 Seja um conjunto V diferente do vazio e um corpo K (em geral R ou C),
para os quais podemos definir as operações de adição e multiplicação por escalar.
+ : V × V → V
(u, v) 7→ u+ v ∈ V
· : K × V → V
(α, u) 7→ αu ∈ V
Dizemos que V é um espaço vetorial sobre K quando, e apenas quando, as seguintes
propriedades forem satisfeitas:
1. Comutativa: u+ v = v + u,∀u, v ∈ V
2. Associativa: u+ (v + w) = (u+ v) + w,∀u, v, w ∈ V
3. Elemento Neutro: ∃ΘV ∈ V tal que u+ ΘV = u,∀u ∈ V
4. Elemento Oposto: para cada u ∈ V , existe um elemento oposto (indicado por −u)
tal que u+ (−u) = ΘV
5. α(βu) = (αβ)u,∀α, β ∈ K, ∀u ∈ V
6. α(u+ v) = αu+ αv, ∀α ∈ K, ∀u, v ∈ V
7. (α + β)u = αu+ βu, ∀α, β ∈ K, ∀u ∈ V
8. O elemento unitário do corpo 1 é tal que 1 · u = u,∀u ∈ V
Nota 2.2 Se K = R, dizemos que V é um espaço vetorial real, se K = C, dizemos que
V e um espaço vetorial complexo.
Nota 2.3 Os elementos de um espaço vetorial são chamados de vetores, e os elementos
do corpo são chamados de escalares.
Exemplo 2.4 O conjunto R, com as operações usuais de soma e multiplicação é um
espaço vetorial sobre R.
Victor Gonçalves Elias
12 CAPÍTULO 2. ESPAÇOS VETORIAIS
Exemplo 2.5 O conjunto dos números complexos C, com as operações usuais, é um
espaço vetorial sobre R. Por outro lado, C também é um espaço vetorial sobre C.
Exemplo 2.6 O espaço Rn com as operações:
(u1, u2, . . . , un) + (v1, v2, . . . , vn) = (u1 + v1, u2 + v2, . . . , un + vn)
α(u1, u2, . . . , un) = (αu1, αu2, . . . , αun)
é um espaço vetorial sobre R.
Prova. Para tal, basta mostrarmos que o conjunto satisfaz os oito axiomas de espaço
vetorial:
1. u+ v = (u1 + v1, u2 + v2, . . . , un + vn)
= (v1 + u1, v2 + u2, . . . , vn + un)
= v + u,∀u, v ∈ Rn
2. u+ (v + w) = (u1 + (v1 + w1), u2 + (v2 + w2), . . . , un + (vn + wn))
= ((u1 + v1) + w1, (u2 + v2) + w2, . . . , (un + vn) + wn)
= (u+ v) + w,∀u ∈ Rn
3. Existe ΘV = (0, 0, . . . , 0), tal que
u+ Θv = (u1 + 0, u2 + 0, . . . , un + 0)
= (u1, u2, . . . , un)
= u,∀u ∈ Rn
4. Para cada u ∈ Rn, existe um elemento oposto
−u = (−u1,−u2, . . . ,−un)⇒
u+ (−u) = (u1 + (−u1), u2 + (−u2), . . . , un + (−un))
= (0, 0, . . . , 0) = ΘV
5. α(βu) = α(βu1, βu2, . . . , βun)
= (αβu1, αβu2, . . . , αβun)
= (αβ)(u1, u2, . . . , un)
= (αβ)u,∀α, β ∈ R,∀u ∈ Rn
6. α(u+ v) = α(u1 + v1, u2 + v2, . . . , un + vn)
= (αu1 + αv1, αu2 + αv2, . . . , αun + αvn)
= αu+ αv, ∀α ∈ R,∀u, v ∈ Rn
7. (α + β)u = ((α + β)u1, (α + β)u2, . . . , (α + β)un)
= (αu1 + βu1, αu2 + βu2, . . . , αun + βun)
= αu+ βu, ∀α, β ∈ R,∀u ∈ Rn
8. 1 · u = (1 · u1, 1 · u2, . . . , 1 · un)
= (u1, u2, . . . , un)
= u,∀u ∈ Rn
�
Victor Gonçalves Elias
13
Exemplo 2.7 O espaço Cn, com operações análogas às do Rn no Exemplo 2.6, é um
espaço vetorial tanto sobre C, como sobre R.
Exemplo 2.8 O conjunto de todas as matrizes reais de ordem m×n é um espaço vetorial
sobre R (considerando as operações usuais). Este espaço é denotado porMm×n(R).
Exemplo 2.9 O conjunto de polinômios de grau menor ou igual a n, é um espaço vetorial
sobre R. É representado por Pn(R).
Exemplo 2.10 Seja V = C[a, b] o conjunto de todas as funções contínuas f : [a, b]→ R,
definindo as operações de soma e multiplicação por escalar como:
(f + g)(x) = f(x) + g(x),∀x ∈ [a, b]
(αf)(x) = αf(x),∀x ∈ [a, b]
V é um espaço vetorial sobre R.
Exemplo 2.11 O conjunto R∗+ não é espaço vetorial sobre R (com as operações usuais).
Exemplo 2.12 O conjunto R∗+, munido das operações:
u⊕ v = uv
α� u = uα
é um espaço vetorial sobre R.
Veremos agora algumas propriedades dos espaços vetoriais derivadas diretamente da
definição, mas que não podem ser enxergadas tão facilmente.
Proposição 2.13 Seja um espaço vetorial V sobre K, satisfazendo todos os axiomas de
espaço vetorial. Então:
1. ∀α ∈ K,αΘV = ΘV
2. ∀u ∈ V, 0u = ΘV
3. αu = ΘV ⇒ α = 0 ∨ u = ΘV
4. ∀α ∈ K, ∀u ∈ V, (−α)u = α(−u) = −(αu)
5. ∀α, β ∈ K, ∀u ∈ V : (α− β)u = αu− βu
6. ∀α ∈ K, ∀u, v ∈ V : α(u− v) = αu− αv
7. ∀β, α1, α2, . . . , αn ∈ K, ∀u1, u2, . . . , un ∈ V : β(
n∑
j=1
αjuj) =
n∑
j=1
(βαj)uj
8. O vetor ΘV de V é único.
Victor Gonçalves Elias
14 CAPÍTULO 2. ESPAÇOS VETORIAIS
9. O elemento oposto, para cada u ∈ V , é único.
10. u+ v = u+ w ⇒ v = w (lei do cancelamento)
Nota 2.14 Com a propriedade 4 da proposição anterior podemos definir a operação de
subtração:
u− v = u+ (−v)
2.1 Subespaços Vetoriais
Definição 2.15 Seja V um espaço vetorial sobre o corpo K. Um subespaço vetorial de
V é um subconjunto W ⊂ V , tal que:
(a) ΘV ∈ W
(b) ∀u, v ∈ W ⇒ u+ v ∈ W
(c) ∀α ∈ K, u ∈ W ⇒ αu ∈ W
Nota 2.16 Podemos reduzir as duas últimas condições para apenas uma: ∀α ∈ K, ∀u, v ∈
W ⇒ u+ αv ∈ W .
Exemplo 2.17 Os conjuntos {ΘV } e o próprio V são subespaços de V . Esses são cha-
mados de subespaços impróprios ou triviais.
Exemplo 2.18 W = {(x, y, z) ∈ R3 : x− y = 0} é subespaço do R3.
Prova. Basta demonstrarmos que satisfaz as 3 condições desubespaço vetorial:
(a) (0, 0, 0) ∈ W , pois 0
x
− 0
y
= 0
(b) Sejam u = (u1, u2, u3) ∈ W, v = (v1, v2, v3) ∈ W
u+ v = (u1 + v1, u2 + v2, u3 + v3) ∈ W, pois
u1 + v1 − (u2 + v2) = (u1 − u2)︸ ︷︷ ︸
0
pois u∈W
+ (v1 − v2)︸ ︷︷ ︸
0
pois v∈W
= 0
(c) Seja u = (u1, u2, u3) ∈ W e seja α ∈ K
Notamos que αu ∈ W , pois αu = (αu1, αu2, αu3) e
αu1 − αu2 = α (u1 − u2)︸ ︷︷ ︸
0, pois u∈W
= 0
�
Exemplo 2.19 W = {A ∈Mn(R) : At = A} é subespaço deMn(R).
Victor Gonçalves Elias
2.1. SUBESPAÇOS VETORIAIS 15
Exemplo 2.20 A solução de um sistema linear homogêneo é um subespaço do Rn.
a11x1 + a12x2 + . . . + a1nxn = 0
...
...
...
am1x1 + am2x2 + . . . + amnxn = 0
Proposição 2.21 A intersecção de dois subespaços U,W ⊂ V também é um subespaço
vetorial de V.
Prova. Mais uma vez, basta demonstrar as 3 condições de subespaço vetorial.
(a)
ΘV ∈ W
ΘV ∈ U
por hip.
ΘV ∈ U ∩W
(b) Sejam u, v ∈ U ∩W
{
u, v ∈ U ⇒ u+ v ∈ U
u, v ∈ W ⇒ u+ v ∈ W
}
u+ v ∈ U ∩W
(c) Seja u ∈ U ∩ V e seja λ ∈ K
{
u ∈ U ⇒ λu ∈ U
u ∈ W ⇒ λu ∈ W
}
⇒ λu ∈ U ∩W
�
Nota 2.22 Apesar da proposição anterior, a união de subespaços nem sempre é um su-
bespaço.
Z = {(x, 0) ∈ R2 : x ∈ R} é subespaço do R2.
W = {(0, y) ∈ R2 : y ∈ R} é subespaço do R2.
Z ∪W não é subespaço.
Proposição 2.23 Se W é subespaço de V (espaço vetorial sobre K), então W também é
espaço vetorial sobre K.
2.1.1 Soma de Subespaços
Definição 2.24 Sejam U e W subespaços de V , definimos a soma de U com W como o
seguinte subconjunto de V : U +W = {u+ w : u ∈ U,w ∈ W}
É evidente que:
• U +W = W + U
• U + {ΘV } = U
• U ⊂ U +W
• W ⊂ U +W
Teorema 2.25 Se U e W são subespaços de um espaço vetorial V , então U +W também
é subespaço de V .
Victor Gonçalves Elias
16 CAPÍTULO 2. ESPAÇOS VETORIAIS
Prova. Temos de demonstrar as 3 condições de subespaço vetorial.
(a) ΘV ∈ U +W pois ΘV ∈ U e ΘV ∈ V . Logo, ΘV + ΘV = ΘV ∈ U +W .
(b) Sejam v1, v2 dois elementos da U + W . Então existem u1, u2 ∈ U e w1, w2 ∈ W tal
que:
v1 = u1 + w1
v2 = u2 + w2
} considerando
z = v1 + v2
= (u1 + u2) + (w1 + w2)
Logo, z ∈ U +W , ou seja v1 + v2 ∈ U +W .
(c) Seja v ∈ U + W . Nesse caso existem u ∈ U,w ∈ W tal que: v = u + w Mas
αv = αu︸︷︷︸
∈U
pois U e´ sub.
+ αw︸︷︷︸
∈W
pois W e´ sub.
. Assim, αv ∈ U +W
�
Nota 2.26 Quando subespaços U e W são tais que U ∩W = {ΘV } então dizemos que a
soma U +W é direta e denotamos por U ⊕W .
Nota 2.27 Se U⊕W = V dizemos que U eW são suplementares, ou que U é suplementar
de W , ou que W é suplementar de U .
Teorema 2.28 Sejam U,W subespaços de um espaço vetorial V . Então U ⊕W = V se,
e somente se, cada vetor v ∈ V admite uma única decomposição v = u + w, u ∈ U e
w ∈ W .
Prova. (⇒) Tomemos u1, u2 ∈ U e w1, w2 ∈ W tal que u1 +w1 = u2 +w2 = v, v ∈ V .
Temos então que u1 − u2︸ ︷︷ ︸
∈U
= w2 − w1︸ ︷︷ ︸
∈W
. Como a intersecção entre U e V é {ΘV }, pois a
soma entre eles é direta, então u1−u2 = w2−w1 = ΘV , i.e. u1 = u2 e w1 = w2. Portanto,
∀v ∈ V , @u ∈ U e @w ∈ W tal que v = u+ w.
(⇐) Se cada vetor v ∈ V admite decomposição da forma v = u + w, u ∈ U,w ∈ W ,
então é óbvio que U +W = V . Vamos provar que a soma é direta. Seja z ∈ U ∩W . Note
que:
u+ w = (u+ z)︸ ︷︷ ︸
∈U
+ (w − z)︸ ︷︷ ︸
∈W
Da unicidade da decomposição:
u+ z = u
w − z = w
}
z = ΘV
ou seja, U ∩W = {ΘV }. �
Victor Gonçalves Elias
2.2. COMBINAÇÕES LINEARES 17
2.2 Combinações Lineares
Definição 2.29 Seja V um espaço vetorial sobre K. Tomemos um subconjunto S =
{u1, u2, . . . , un} ⊂ V . Indiquemos por [S] o seguinte subconjunto construído a partir de
S: [S] = {α1u1 + α2u2 + . . . + αnun;α1, α2, . . . , αn ∈ K}. Temos então que [S] é um
subespaço vetorial:
Prova. Temos de demonstrar as 3 condições de subespaço vetorial:
(a) ΘV = 0u1 + 0u2 + . . .+ 0un ∈ [S]
(b) u, v ∈ [S]⇒ ∃α1, α2, . . . αn ∈ K, ∃β1, β2, . . . , βn ∈ K :
u = α1u1 + α2u2 + . . .+ αnun
v = β1u1 + β2u2 + . . .+ βnun
u+ v = (α1 + β1)︸ ︷︷ ︸
∈K
u1 + . . .+ (αn + βn)︸ ︷︷ ︸
∈K
un ⇒ u+ v ∈ [S]
(c) Seja u ∈ [S]. Então existem α1, α2, . . . , αn ∈ K tal que:
u = α1u1 + . . .+ αnun
λu = (λα1)
∈K
u1 + . . .+ (λαn)
∈K
un ⇒ λu ∈ [S]
�
Nota 2.30 O subespaço [S] recebe o nome de subespaço gerado por S, e também pode ser
denotado por [u1, u2, . . . , un]. Diz-se também que u1, u2, . . . , un geram [S], ou então que
são um sistema de geradores de [S].
Nota 2.31 Cada vetor u ∈ [S] é dito ser uma combinação linear de u1, u2, . . . , un.
Nota 2.32 Por convenção, se S = ∅, [S] = {ΘV }.
Nota 2.33 Se S for infinito, então definimos [S] mediante a sentença: u ∈ [S] ⇔
∃v1, v2, . . . , vn ∈ S,∃α1, α2, . . . , αn ∈ K tal que u = α1v1 + . . .+ αnvn.
Proposição 2.34 Seja S um subconjunto de V . Temos que S possui as seguintes propri-
edades:
1. S ⊂ [S]
2. S1 ⊂ S2 ⇒ [S1] ⊂ [S2]
3. [S] = [[S]]
4. [S1 ∪ S2] = [S1] + [S2]
Exemplo 2.35 Se V = R3, u = (−1, 1) e v = (1, 1), determinemos então [u, v]. Note
que [u, v] = {(−α + β, α + β);α, β ∈ R} = R2 pois cada par (x, y) ∈ R2 se escreve como
(x, y) = (y−x)
2
(−1, 1) + (y+x)
2
(1, 1).
Victor Gonçalves Elias
18 CAPÍTULO 2. ESPAÇOS VETORIAIS
2.3 Espaços Vetoriais Finitamente Gerados
Definição 2.36 Dizemos que um espaço vetorial V é finitamente gerado se existe S ⊂ V ,
S finito, tal que V = [S].
Exemplo 2.37 O espaço E3 dos vetores da geometria é gerado pelo conjunto {ıˆ, ˆ, kˆ},
pois qualquer u ∈ E3 se escreve como u = aıˆ+ bˆ+ ckˆ.
Exemplo 2.38 Sendo ΘV o vetor nulo de V , então {ΘV } é finitamente gerado, pois
{ΘV } = [{ΘV }].
Exemplo 2.39M2(R) é finitamente gerado, pois o conjunto S =
{[
1 0
0 0
]
,
[
0 1
0 0
]
,[
0 0
1 0
]
,
[
0 0
0 1
]}
geraM2(R), já que qualquer matriz deM2(R) se escreve como:[
a b
c d
]
= a
[
1 0
0 0
]
+ b
[
0 1
0 0
]
+ c
[
0 0
1 0
]
+ d
[
0 0
0 1
]
Exemplo 2.40 Rn é finitamente gerado pois temos que um conjunto gerador é:
S = {(1, 0, . . . , 0); (0, 1, . . . , 0); . . . ; (0, 0, . . . , 1)}
Exemplo 2.41Mm×n(R) é finitamente gerado. De fato, considere as matrizes
Ak` : aij =
{
1, se i = k e j = `
0, caso contrário
A11 =

1 0 0 · · · 0
0 0 0 · · · 0
0 0 0 · · · 0
...
...
... . . .
...
0 0 0 · · · 0
 A12 =

0 1 0 · · · 0
0 0 0 · · · 0
0 0 0 · · · 0
...
...
... . . .
...
0 0 0 · · · 0

Então S = {A11, A12, . . . , A1n, A21, A22, . . . , A2n, . . . , Am1, Am2, . . . , Amn} é um gerador
deMm×n(R).
Exemplo 2.42 Pn(R) é finitamente gerado. De fato, considerando:
f0(x) = 1
f1(x) = x
...
...
fn(x) = x
n
Temos que um polinômio qualquer de Pn(R) se escreve como:
p(x) = a0 + a1x+ a2x
2 + . . .+ anx
n : p = a0fo + a1f1 + . . .+ anfn
Victor Gonçalves Elias
2.4. LISTA DE EXERCÍCIOS 19
2.4 Lista de Exercícios
Exercício 2.43 Para cada um dos conjuntos de operações a seguir, diga se o conjunto
V = {(x, y) : x, y ∈ R} é um espaço vetorial sobre R. Caso não o seja, diga quais dos 8
axiomas não se verificam.
1. (x1, y1) + (x2, y2) = (x1 + x2, 0) e a(x, y) = (ax, ay).
2. (x1, y1) + (x2, y2) = (x1 + x2, y1 + y2) e a(x, y) = (ax, 0).
3. (x1, y1) + (x2, y2) = (x1 + x2, y1 + y2) e a(x, y) = (x, ay).
4. (x1, y1) + (x2, y2) = (x1, y1) e a(x, y) = (ax, ay).
5. (x1, y1) + (x2, y2) = (2x1 − 2y1,−x1 + y1) e a(x, y) = (3ay,−ax).
Exercício 2.44 Mostrar que todo espaço vetorial sobre C também é espaço vetorial sobre
R.
Exercício 2.45 Seja u = (1 + i, i), v = (1 − i, 2i) e w = (2, 3 + i) vetores do espaço
vetorial C2
(a) Calcular (3 + i)u− iv − (2− i)w;
(b) Existe z ∈ C tal que v = zu?
Exercício 2.46 No espaço vetorial P3(R) sejam dados os vetores f(t) = t3 − 1, g(t) =
t2 + t− 1 e h(t) = t+ 2.
(a) Calcular 2f(t) + 3g(t)− 4h(t);
(b) Existe k ∈ R de maneira que f(t) + kg(t) = h(t)?
(c) Existemk1, k2 ∈ R tais que f(t) = k1g(t) + k2h(t)?
Exercício 2.47 No R2 consideremos os vetores u = (1, 1), v = (3,−2) e w = (3,−2).
(a) Resolver a equação:
x+ u
2
+
v + x
3
= w,
na incógnita x ∈ R2;
(b) Resolver o seguinte sistema de equações:
x+ y + z = u
2x− y + z = v
x+ y − 2z = w
nas incógnitas x, y, z ∈ R2.
Victor Gonçalves Elias
20 CAPÍTULO 2. ESPAÇOS VETORIAIS
Exercício 2.48 Quais dos seguintes conjuntos W abaixo são subespaços do R3?
1. W = {(x, y, z) ∈ R3 : x = 0}
2. W = {(x, y, z) ∈ R3 : x ∈ Z}
3. W = {(x, y, z) ∈ R3 : y /∈ Q}
4. W = {(x, y, z) ∈ R3 : x− 3z = 0}
5. W = {(x, y, z) ∈ R3 : ax+ by + cz = 0, a, b, c ∈ R}
Exercício 2.49 Quais dos conjuntos abaixo são subespaços do espaço P(R) de todos os
polinômios reais?
1. W = {f(t) ∈ P(R) : f(t)tem grau maior que 2}
2. W = {f(t) ∈ P(R) : f(0) = 2f(1)}
3. W = {f(t) ∈ P(R) : f(t) > 0,∀t ∈ R}
4. W = {f(t) ∈ P(R) : f(t) + f ′(t) = 0}
Exercício 2.50 Seja I = [0, 1]. Verificar se são subespaços vetoriais de C(I):
1. {f ∈ C(I) : f(0) = 0}
2. {f ∈ C(I) :
1∫
0
f(t)dt = 0}
3. {f ∈ C(I) : f(0) = f(1)}
4. {f ∈ C(I) : f(0) = 0 em todos os pontos de I, exceto em um número finito deles}
Exercício 2.51 Mostrar que os polinômios 1− t, (1− t)2, (1− t)3 e 1 geram P3(R).
Exercício 2.52 Dar um sistema de geradores para cada um dos seguintes subespaços do
R3:
1. U = {(x, y, z) : x− 2y = 0}
2. V = {(x, y, z) : x+ z = 0 e x− 2y = 0}
3. W = {(x, y, z) : x+ 2y − 3z = 0}
4. U ∩ V
5. V +W
Exercício 2.53 Sejam U e V sub-espaços vetoriais do espaço W . Provar que:
Victor Gonçalves Elias
2.5. DEPENDÊNCIA LINEAR 21
1. U ⊂ V ⇒ U + V = V ;
2. U ⊂ V ⇒ U ∩ V = U ;
3. U + V = U ⇒ U ⊃ V ;
4. U ∩ V = U ⇒ U ⊂ V .
Exercício 2.54 Sejam u e v dois vetores não nulos do R2. Se não existe nenhum t ∈ R
tal que u = tv, mostrar que R2 é soma direta dos subespaços [u] e [v].
Exercício 2.55 Se U , V e W são subespaços vetoriais do mesmo espaço, mostrar que
(U ∩V ) + (U ∩W ) ⊂ U ∩ (V +W ). Descubra um exemplo para o qual o primeiro membro
dessa relação é diferente do segundo e um exemplo onde ocorre igualdade.
Exercício 2.56 Mostrar que os números complexos 2+3i e 1−2i geram o espaço vetorial
C sobre R.
Exercício 2.57 Mostrar que geram o mesmo subespaço vetorial os dois subconjuntos do
R3: {(1,−1, 2); (2, 0, 1)} e {(−1,−2, 3); (3, 3,−4)}.
Exercício 2.58 Considere os seguintes vetores do R3: (−1, 0, 1) e (3, 4,−2). Determi-
nar um sistema de equações homogêneas para o qual o espaço solução seja exatamente o
subespaço gerado por esses vetores.
Exercício 2.59 Mostrar que os dois conjuntos abaixo formados de funções contínuas reais
definidas em R geram o mesmo subespaço vetorial de C(R):{
sin2 t, cos2 t, sin t cos t
}
e {1, sin 2t cos 2t}
2.5 Dependência Linear
Definição 2.60 Um conjunto S = {u1, u2, . . . , un} contido num espaço vetorial é dito ser
linearmente independente se, e somente se, uma igualdade do tipo α1u1 + α2u2 + . . . +
αnun = ΘV com αi ∈ K, admitir como única solução α1 = α2 = . . . = αn = 0, do
contrário, o conjunto S é dito ser linearmente dependente (LD).
Nota 2.61 Por convenção, S = ∅ é linearmente independente (LI).
Exemplo 2.62 O conjunto S = {(−1, 1, 1); (1,−1, 1); (1, 1,−1)} é LI. De fato, se:
α(−1, 1, 1) + β(1,−1, 1) + γ(1, 1,−1) = (0, 0, 0)

−α + β + γ = 0
α− β + γ = 0
α + β − γ = 0
⇒

α = 0
β = 0
γ = 0
Victor Gonçalves Elias
22 CAPÍTULO 2. ESPAÇOS VETORIAIS
Exemplo 2.63 O conjunto S = {p0, p1, p2} ⊂ P2(R) é LD (em que p0(x) = x2, p1(x) =
2x, p2(x) = 4x2+7x). De fato αp0+βp1+γp2 = ΘV ⇔ αx2+2βx+4γx2+7γx = 0,∀x ∈ R{
α + 4γ = 0
2β + 7γ = 0
é um SPI (e por isso admite solução não trivial).
Exemplo 2.64 Seja C[0, 1] o conjunto das funções contínuas [0, 1]. Considere o subcon-
junto S = {ex, e2x, e3x}. S é LI, pois:
αex + βe2x + γe3x = 0
ex(α + βex + γe2x) = 0
α + βex + γe2x = 0, ∀x ∈ [0, 1]
(α + βex + γe2x)′ = (0)′
βex + 2γe2x = 0
ex(β + 2γex) = 0
β + 2γex = 0,∀x ∈ [0, 1]
(β + 2γex)′ = (0)′
2γex = 0
γ = 0,∀x ∈ [0, 1]

α = β = γ = 0
Exemplo 2.65 Seja L = {(1, 2, 3); (1, 4, 9); (1, 8, 27)}. Teremos α, β, γ ∈ R tais que:
α(1, 2, 3) + β(1, 4, 9) + γ(1, 8, 27) = (0, 0, 0)
α + β + γ = 0
2α + 4β + 8γ = 0
3α + 9β + 27γ = 0
Como
∣∣∣∣∣∣
1 1 1
2 4 8
3 9 27
∣∣∣∣∣∣ 6= 0 o sistema é possível e determinado, e a única solução é α =
β = γ = 0. Logo L é LI.
Exemplo 2.66 Seja L = {1, sin t, cos t} ⊂ C[0, 2pi]. Tomemos α, β, γ ∈ R tais que α +
β sin t+ γ cos t = 0, ∀t ∈ [0, 2pi]. Tomando alguns valores de t:
t = 0
t = pi/2
t = pi
α + γ = 0
α + β = 0
α− γ = 0
 ∴ α = β = γ = 0
Logo, L é LI.
Exemplo 2.67 Seja L = {(x+ 1)ex, (x2 + 1)ex} ⊂ C[0, 1]. Tomando α, β ∈ R tais que:
α(x+ 1)ex + β(x2 + 1)ex = 0,∀x ∈ [0, 1]
α(x+ 1) + β(x2 + 1)]ex = 0
α(x+ 1) + β(x2 + 1) = 0,∀x ∈ [0, 1]

α = 0
β = 0
α + β = 0
⇒
o conjunto é LI.
Victor Gonçalves Elias
2.6. BASE DE UM ESPAÇO VETORIAL FINITAMENTE GERADO 23
Nota 2.68 Veja que no Exemplo 2.67, a técnica de escolher x = 0 e x = 1 não daria
resultado.
2.5.1 Propriedades da Dependência Linear
Proposição 2.69 Seja L = {ui ∈ V : i ∈ N, 0 < i ≤ n} um subconjunto do espaço
vetorial V . Então:
1. L = {u1, u2, . . . , un} ⊃ {ΘV } ⇒ L é LD.
2. L = {u}, u 6= ΘV ⇒ L é LI.
3. L = {u1, u2, . . . , un} é LD se, e somente se, um dos vetores é combinação linear dos
demais.
4. Sejam S1, S2 finitos, com S1 ⊂ S2. Se S1 é LD, então S2 é LD.
5. Sejam S1, S2 finitos, com S1 ⊂ S2. Se S2 é LI, então S1 é LI.
6. Se {u1, u2, . . . , un} é LI e {u1, u2, . . . , un, v} é LD, então v é combinação linear de
u1, u2, . . ., un.
7. Se S = {u1, u2, . . . , uj, . . . , un} é tal que uj ∈ [S\{uj}], então [S] = [S\{uj}].
2.6 Base de um Espaço Vetorial Finitamente Gerado
Definição 2.70 Uma base B de um espaço vetorial V finitamente gerado é um conjunto
B ⊂ V , satisfazendo a duas propriedades:
1. V = [B]
2. B é LI.
Exemplo 2.71 B = {p0, p1, . . . , pn}, onde pj(t) = tj é base de Pn(R).
Exemplo 2.72 B = {e1, e2, . . . , en}, sendo ej vetores do Rn tais que a componente j é 1
e as demais são zero é base do Rn.
Exemplo 2.73 B = {A11, A12, . . . , A1n, A21, . . . , Amn} é base de Mm×n(R), onde Ak` =
(aij)m×n, aij =
{
1, se i = k e j = `
0, caso contrário .
Nota 2.74 Todas essas bases são denominadas bases canônicas.
Nota 2.75 Convenciona-se que o vazio é base de {ΘV }.
Teorema 2.76 Todo espaço vetorial finitamente gerado possui uma base.
Victor Gonçalves Elias
24 CAPÍTULO 2. ESPAÇOS VETORIAIS
Prova. O conjunto {ΘV } possui a base ∅. No caso de um espaço vetorial diferente do
espaço nulo, existe um conjunto S finito contido em V , tal que V é gerado por S. Seja
S = {u1, . . . , un}. O conjunto S possui 2n sub-conjuntos. Dentre todos os subconjuntos
LI, tomemos um que possua o maior número de vetores. Seja B este conjunto. Por
escolha, B é LI. Provemos que B gera V :
Seja u ∈ S\B. Como B ∪ {u} é LD, então u ∈ [B]. Assim S\B ⊂ [B]. Logo
V = [S] = [(S\B) ∪B] = [S\B] + [B] ⊂ [B] + [B] = [B].
V ⊂ [B], mas V ⊃ [B]. Logo V = [B]. �
A seguir, veremos um processo prático para determinar bases do Rn.
Proposição 2.77 Seja V um subespaço do Rn. Consideremos um conjunto de geradores
de V : V = [u1, u2, . . . , ur]. Note que:
1. O conjunto V não se altera se trocarmos a posição de dois vetores do conjunto de
geradores.
V = [u1, u2, . . . , ur]
= [u1, . . . , ui, . . . , uj, . . . , ur]
= [u1, . . . , uj, . . . , ui, . . . , ur]
2. Uma combinação linear de vetores de V não vai alterar o conjunto gerado por V.
V = [u1, . . . , ui, . . . , uj + αui, . . . , uk]
3. Se [u1, u2, . . . , ur] está na forma escalonada, então é um conjunto LI (desde que
nenhum seja nulo).
Exemplo 2.78 Determinar uma base e a dimensão de:
U = [(1, 0, 2,−1); (1, 2, 5, 1); (4, 6, 17, 2)] 1 0 2−11 2 5 1
4 6 17 2
 ∼
 1 0 2 −10 2 3 2
0 6 9 6
 ∼
 1 0 2 −10 2 3 2
0 0 0 0

uma base de U é: {(1, 0, 2,−1); (0, 2, 3, 2)}
2.7 Dimensão de um Espaço Vetorial
Proposição 2.79 Todo sistema linear e homogêneo cujo número de incógnitas é maior
que o número de equações admite uma solução não trivial.
Proposição 2.80 Se um conjunto {v1, v2, . . . , vm} gera o espaço vetorial V , então qual-
quer conjunto com mais de m vetores é LD.
Victor Gonçalves Elias
2.7. DIMENSÃO DE UM ESPAÇO VETORIAL 25
Prova. Consideremos {u1, u2, . . . , un} ⊂ V tal que n > m. Desde que {v1, . . . , vm}
gera V : 
u1 = α11v1 + α12v2 + . . .+ α1mvm
u2 = α21v1 + α22v2 + . . .+ α2mvm
...
un = αn1v1 + αn2v2 + . . .+ αnmvm
Consideremos o problema x1u1 + . . .+ xnun = ΘV :
x1
(
m∑
j=1
α1jvj
)
+ . . .+ xn
(
m∑
j=1
αnjvj
)
= ΘV
n∑
i=1
(
xi
m∑
j=1
αijvj
)
= ΘV
m∑
j=1
(
n∑
i=1
αijxi
)
vj = ΘV
⇒

α11x1 + α21x2 + . . .+ αn1xn = 0
...
α1mx1 + α2mx2 + . . .+ αnmxn = 0
Sistema homogêneo com m equações e n incógnitas. Sabendo que n > m, pela Pro-
posição 2.79, existe solução não trivial ⇒ {u1, u2, . . . , un} é LD. �
Proposição 2.81 Se um conjunto de n vetores gera um espaço vetorial V , então qualquer
conjunto LI possui, no máximo, n vetores.
Prova. Suponha um conjunto LI de m vetores. Duas coisas podem acontecer: ou
n > m ou n ≤ m. No primeiro caso, pela Proposição 2.80, o conjunto seria LD, então
n ≤ m. �
Teorema 2.82 (Teorema da Invariância): Se um espaço vetorial V admite uma base
com n vetores, então qualquer outra base de V também possui n vetores.
Prova. Sejam B = {b1, b2, . . . , bn} e C = {c1, c2, . . . , cm} duas bases de V . Como
V = [B] e C é LI, então m ≤ n. Analogamente, como V = [C] e B é LI, então n ≤ m.
Portanto, temos que n = m. �
Definição 2.83 Diz-se que o espaço vetorial V tem dimensão finita quando admite uma
base B com um número finito de vetores. Este número é o mesmo para todas as bases de
V e chama-se dimensão do espaço vetorial V : n = dimV .
Nota 2.84 Por extensão, diz-se que o espaço vetorial {ΘV } tem dimensão 0.
Teorema 2.85 Se a dimensão de V é n, então um conjunto de n vetores gera V se, e
somente se, é LI.
Victor Gonçalves Elias
26 CAPÍTULO 2. ESPAÇOS VETORIAIS
Prova. Se um conjunto gera V e possui n elementos, ele não pode ser LD, pois se
fosse, haveria um vetor v que é combinação linear dos demais e V = [B\{v}]. Mas B\{v}
tem n− 1 elementos. Isso é incompatível com o fato de uma base ter n elementos. �
Teorema 2.86 Seja V um espaço vetorial de dimensão finita n. Então:
1. Todo conjunto X de geradores de V contém uma base.
2. Todo conjunto LI {v1, v2, . . . , vm} ⊂ V está contido numa base.
3. Todo subespaço de V tem dimensão finita e menor ou igual a n.
4. Se a dimensão do subespaço U ⊂ V é n, então U = V .
Prova. Demonstremos cada uma das propriedades separadamente.
1. Seja Y = {v1, . . . , vm} um conjunto que gera V . Se Y é LI, então Y é uma base, e
a propriedade é trivial. Se Y é LD então existe um vetor v que é combinação linear
dos outros. Logo, [Y ] = [Y \{v}] = V . Se Y \{v} for LD, repetimos o processo
até acharmos Y \{v1, . . . , vm} LI. Portanto Y ⊃ Y \{v1, . . . , vm}, que é uma base,
portanto ∀Y ⊂ V : [Y ] = V ⇒ Y contém uma base de V .
2. Seja Y = {v1, . . . , vm, vm+1, . . . , vk} um conjunto LI com o máximo número de ele-
mentos e contendo o conjunto de m vetores dado (k ≤ n). Todo elemento de V é
uma combinação linear dos vetores de Y (pois se existir um u ∈ V que viola isto,
Y ∪ {u} é LI, um absurdo). Logo V = [Y ] e Y é LI ⇒ Y é base de V .
3. Seja U ⊂ V um subespaço. Seja B uma base de U .
U = [B]
B é LI ⇒ B tem no máximo n vetores, ou seja, dimU ≤ n.
4. Seja B uma base de U . Então como B tem n elementos e é LI ⇒ V = [B]. Como
U = [B], segue que V = U .
�
2.7.1 Dimensão da soma de subespaços
Teorema 2.87 Se U e V são dois subespaços de um espaço vetorial de dimensão finita,
então dim(U + V ) = dimU + dimV − dim(U ∩ V ).
Prova. Consideremos {w1, . . . , wr} uma base de U ∩V , e completemos esta base para
obter uma base de U e uma base de V :
BU = {w1, . . . , wr} ∪ {u1, . . . , un} é base de U .
BV = {w1, . . . , wr} ∪ {v1, . . . , vm} é base de V .
Mostraremos que B = {w1, . . . , wr, u1, . . . , un, v1, . . . , vm} é base de U + V .
Victor Gonçalves Elias
2.8. COORDENADAS 27
B = BU ∪BV
[B] = [BU ] + [BV ]
[B] = U + V
Além disso, se:
α1w1 + . . .+ αrwr + β1u1 + . . .+ βnun + θ1v1 + . . .+ θmvm = ΘV
α1w1 + . . .+ αrwr + β1u1 + . . .+ βnun︸ ︷︷ ︸
u
= −(θ1v1 + . . .+ θmvm)︸ ︷︷ ︸
v
u = v
Como:
u ∈ U, v ∈ V
u = v ∈ U ∩ V
u = δ1w1 + . . .+ δrwr = α1w1 + . . .+ αrwr + β1u1 + . . .+ βnun
δ1 = α1, . . . , δr = αr
β1 = 0, . . . , βn = 0
Analogamente, chega-se a: θ1 = . . . = θm = 0
α1 = . . . = αr = 0
Ou seja, B é LI. Assim:
dimU = n+ r
dimV = m+ r
dim(U ∩ V ) = r
dim(U + V ) = m+ n+ r
E finalmente: dim(U + V ) = dimU + dimV − dim(U ∩ V ) �
2.8 Coordenadas
Definição 2.88 Dada uma base de um espaço vetorial B = {u1, . . . , un}, um vetor v pode
ser escrito como:
v = α1u1 + α2u2 + . . .+ αnun
Os coeficientes α1, . . . , αn são univocamente determinados, pois se v = β1u1 + β2u2 +
. . .+βnun, então (α1−β1)u1+(α2−β2)u2+. . .+(αn−βn)un = ΘV , e ∴ α1 = β1, . . . , αnf =
βn.
Se impusermos uma ordem aos vetores de B (i.e., se B estiver ordenado), então os
escalares α1, . . . , αn serão chamados de coordenadas do vetor v em relação à base B.
Costuma-se representar as coordenadas na forma matricial:
[v]B =

α1
α2
...
αn
 é dita ser a matriz de coordenadas do vetor v, com respeito à base B.
Exemplo 2.89 Considere o vetor v = (1, 1, 1) ∈ R3. Tomando a base ordenada: B =
{(−1, 1, 1); (1,−1, 1); (1, 1,−1)}. Determinemos a matriz de coordenadas [v]B.
v = α(−1, 1, 1) + β(1,−1, 1) + γ(1, 1,−1)
Victor Gonçalves Elias
28 CAPÍTULO 2. ESPAÇOS VETORIAIS

−α + β + γ = 1
α− β + γ = 1
α + β − γ = 1
⇒ α = β = γ = 1 ∴ [v]B =
 11
1

2.9 Mudança de Base
Definição 2.90 Consideremos duas bases ordenadas de um espaço vetorial: B = {b1, b2,
. . . , bn} e C = {c1, c2, . . . , cn}. Podemos escrever, portanto: [c1]B =
 α11...
αn1
 , . . . , [cn]B = α1n...
αnn
.
A matriz MB←C dada a seguir é denotada matriz de mudança de base de (a base) B
para (a base) C:
MB←C =

α11
α21
...
αn1
. . .
. . .
. . .
. . .
α1n
α2n
...
αnn

↑ ↑
[c1]B [cn]B
Teorema 2.91 Sendo [u]C a matriz de coordenadas de um vetor u na base C, e [u]B as
coordenadas desse mesmo vetor na base B, temos que [u]B = MB←C [u]C.
Prova. Consideremos a matriz de coordenadas de um vetor u do espaço vetorial em
relação à base C:
[u]C =

ξ1
ξ2
...
ξn
. Vamos obter [u]B =

η1
η2
...
ηn
:
Inicialmente temos que u =
n∑
j=1
ξjcj e que cj =
n∑
i=1
αijbi.
Logo u =
n∑
j=1
n∑
i=1
ξjαijbi =
n∑
i=1
(
n∑
j=1
αijξj)bi. Ou seja, [u]B = MB←C [u]C . �
Teorema 2.92 Dadas as matrizes de mudança de base MB←C e MC←D, temos que a
matriz de mudança de base MB←D é dada por MB←CMC←D.
Prova. Consideremos agora, uma terceira base ordenada: D = {d1, d2, . . . , dn}. De-
Victor Gonçalves Elias
2.10. LISTA DE EXERCÍCIOS 29
sejamos provar que: MB←D = MB←CMC←D. Para tanto, note que:
[d1]B = MB←C [d1]C
...
[dn]B = MB←C [dn]C
MB←D =
[
[d1]B [d2]B . . . [dn]B
]
=
[
MB←C [d1]C MB←C [d2]C . . . MB←C [dn]C
]⇒
⇒MB←D = MB←C
[
[d1]C [d2]C . . . [dn]C
]⇒MB←D = MB←CMC←D �
Nota 2.93 A partir do Teorema 2.92 podemos notar que uma matriz de mudança de base
é sempre inversível, pois MB←B = MB←CMC←B︸ ︷︷ ︸
inversa
.
Exemplo 2.94 Determinar as coordenadas de (1, 1, i) ∈ C3 em relação à base ordenada
(1,0, 0); (0, i, 0); (1, i, 1 + i).
A matriz é
 1−i2−1−3i
2
1+i
2
.
Exemplo 2.95 A matriz de mudança da base {1 + t, 1− t2} para uma base C do mesmo
subespaço de P2(R) é:
[
1 2
2 −1
]
. Podemos determinar então a base C:
C1(t) = 1(1 + t) + 2(1− t2) = 3 + t− 2t2
C2(t) = 2(1 + t)− 1(1− t2) = 1 + 2t+ t2
2.10 Lista de Exercícios
Exercício 2.96 Diga quais dos subconjuntos abaixo do R3 são linearmente independentes.
1. {(1, 0, 0); (0, 1, 0); (0, 0, 1); (2, 3, 5)}
2. {(1, 1, 1); (1, 0, 1); (1, 0,−2)}
3. {(0, 0, 0); (1, 2, 3); (4, 1,−2)}
4. {(1, 1, 1); (1, 2, 1); (3, 2,−1)}
Exercício 2.97 Diga quais dos subconjuntos abaixo do P4(R) são linearmente indepen-
dentes.
1. {1, x− 1, x2 + 2x+ 1, x2}
2. {2x, x2 + 1, x+ 1, x2 − 1}
3. {x(x− 1), x3, 2x3 − x2, x}
Victor Gonçalves Elias
30 CAPÍTULO 2. ESPAÇOS VETORIAIS
4. {x4 + x− 1, x3 − x+ 1, x2 − 1}
Exercício 2.98 Demonstrar que os seguintes conjuntos são LI:
1. {1, ex, e2x} ⊂ C[0, 1]
2. {1, ex, xex} ⊂ C[0, 1]
3. {1, (x− a), (x− a)2, . . . , (x− a)n−1} ⊂ Pn−1(R), onde a é um número arbitrário.
Exercício 2.99 Mostrar que o subconjunto {x1, x2, . . . , xn} de vetores de um espaço ve-
torial V é LD se, e somente se, existe um inteiro k (1 ≤ k ≤ n) tal que xk é combinação
linear dos demais vetores do conjunto.
Exercício 2.100 Determinar m e n para que os conjuntos de vetores do R3 dados abaixo
sejam LI.
1. {(3, 5m, 1); (2, 0, 4); (1,m, 3)}
2. {(1, 3, 5); (2,m+ 1, 10)}
3. {(6, 2, n); (3,m+ n,m− 1)}
Exercício 2.101 Quais dos seguintes subconjuntos do C3 são LI sobre C?
1. {(i, 1, 0); (1 + i, 2, 0); (3, 1, 0)}
2. {(i, 1, 0); (0, 1, i); (0, i, i)}
3. {(i, 1, 0); (2 + i, 3i, 5− i); (2, 4 + 4i, 4− 6i)}
Exercício 2.102 Sejam α1, . . . , αn números reais distintos 2 a 2. Provar que o conjunto
de funções {eα1t, . . . , eαnt} é LI.
Exercício 2.103 Provar que o conjunto de funções {eat cos bt, eat sin bt}, onde a e b são
números reais e b 6= 0, é LI.
Exercício 2.104 Dar uma base e a dimensão do subespaço W = {(x, y, z, t) ∈ R4 :
x− y = y e x− 3y + t = 0} do R4.
Exercício 2.105 Sendo W e U subespaços do R4 de dimensão 3, que dimensões pode
ter W + U se (1, 2, 1, 0), (−1, 1, 0, 1), (1, 5, 2, 1) é um sistema de geradores de W ∩ U?
Exercício 2.106 No espaço vetorial R3 consideremos os seguintes subespaços:
U = {(x, y, z) : x = 0}
V = {(x, y, z) : y − 2z = 0} e
W = [(1, 1, 0); (0, 0, 2)]
Victor Gonçalves Elias
2.10. LISTA DE EXERCÍCIOS 31
Determinar uma base e a dimensão de cada um dos seguintes subespaços: U , V , W ,
U ∩ V , V +W e U + V +W .
Exercício 2.107 Determinar uma base e a dimensão do subespaço deM3(R) constituído
das matrizes anti-simétricas.
Exercício 2.108 Para que valores de a ∈ R o conjunto B = {(a, 1, 0), (1, a, 1), (0, 1, a)}
é uma base de R3?
Exercício 2.109 Considere o seguinte subespaço vetorial de C3:
W = [(1, 0, i), (1, 1 + i, 1− i), (1,−1− i,−1 + 3i)]
Determinar uma base desse subespaço.
Exercício 2.110 Determinar a dimensão dos seguintes subespaços deMn(R):
(a) Subespaço das matrizes simétricas;
(b) Subespaço das matrizes anti-simétricas;
(c) Subespaço das matrizes A tais que A = 2At;
(d) Subespaço das matrizes A = (aij) tais que
n∑
i=1
aij = 0.
Exercício 2.111 Determinar as coordenadas do vetor u = (4,−5, 3) ∈ R3, em relação
às seguintes bases:
(a) canônica;
(b) {(1, 1, 1); (1, 2, 0); (3, 1, 0)};
(c) {(1, 2, 1); (0, 3, 2); (1, 1, 4)};
Exercício 2.112 Determinar as coordenadas de 1 − 2i ∈ C em relação à seguinte base
de C sobre R: {1− i, 1 + i}.
Exercício 2.113 Determinar as coordenadas do polinômio t3 em relação à seguinte base
de P3(R): {1, 2− t, t2 + 1, 1 + t+ t3}.
Exercício 2.114 A matriz de mudança de base {1 + t, 1 − t2} para uma base C ambas
do mesmo subespaço de P2(R) é: (
1 2
1 −1
)
Determinar a base C.
Victor Gonçalves Elias
32 CAPÍTULO 2. ESPAÇOS VETORIAIS
Exercício 2.115 Considere as bases B = {e1, e2, e3} e C = {g1, g2, g3} de R3 assim
relacionadas:
g1 = e1 − e2 − e3
g2 = 2e2 + 3e3
g3 = 3e1 + e3
(a) Determinar as matrizes de mudança de base de B para C e de C para B.
(b) Se um vetor de u de R3 apresenta coordenadas 1, 2, e 3, em relação a B, quais as
coordenadas de u relativamente a C?
Exercício 2.116 Seja B = {u1, . . . , un} uma base do espaço vetorial V e seja C =
{u1, u1 − u2, . . . , u1 − un}. Mostrar que C é também uma base de V . Achar as matrizes
de mudança de base de B para C e de C para B.
Victor Gonçalves Elias
33
Capítulo 3
Produto Interno
3.1 Definição e primeiras propriedades
Definição 3.1 Consideremos V um espaço vetorial sobre R. Um produto interno é uma
aplicação de V×V → R (que obedece às condições de simetria, bilinearidade e positividade,
dadas a seguir:
1. Simetria: 〈u, v〉 = 〈v, u〉 ,∀u, v ∈ V
2. Bilinearidade:
• 〈u, v + w〉 = 〈u, v〉+ 〈u, w〉 ,∀u, v, w ∈ V
• 〈u, αv〉 = α 〈u, v〉 ,∀u, v ∈ V, ∀α ∈ R
3. Positividade: 〈u, u〉 ≥ 0, ∀u ∈ V e 〈u, u〉 = 0⇔ u = ΘV
Nota 3.2 Quando um espaço vetorial real possui um produto interno, dizemos que ele é
um espaço euclidiano.
Exemplo 3.3 Um produto interno (usual) do Rn é:
u = (u1, u2, . . . , un)
v = (v1, v2, . . . , vn)
〈u, v〉 = u1v1 + u2v2 + . . .+ unvn
Não é difícil verificar que esta operação satisfaz as 3 exigências anteriores.
Exemplo 3.4 Um produto interno usual no espaço C[a, b] é: 〈f, g〉 = ∫ b
a
f(x)g(x)dx.
Prova. As propriedades de simetria e bilinearidade são de verificação imediata. Veja-
mos a positividade:
〈f, f〉 =
∫ b
a
f 2(x)
≥0
dx ≥ 0
E se 〈f, f〉 = 0, então f(x) ≡ 0. De fato, suponha que ∃x0 ∈ [a, b] em que f 2(x0) > 0.
Pelo Teorema da Conservação do Sinal, f 2(x) > 0 numa vizinhança V de x0.
Victor Gonçalves Elias
34 CAPÍTULO 3. PRODUTO INTERNO
∫ b
a
f 2(x)dx =
∫
V
f 2(x)dx
︸ ︷︷ ︸
>0
+
∫
[a,b]\V
f 2(x)dx
︸ ︷︷ ︸
≥0
> 0
O que contraria nossa hipótese. Portanto, f(x) ≡ 0, e o produto interno em questão
satisfaz a condição de bilinearidade. �
Proposição 3.5 Seja um produto interno do espaço vetorial V , satisfazendo as 3 exi-
gências da Definição 3.1. Temos que:
1. 〈ΘV , u〉 = 〈u, ΘV 〉 = 0,∀u ∈ V (note que ΘV = 0u)
2. 〈αu, v〉 = α 〈u, v〉 , ∀u, v ∈ V, ∀α ∈ R
〈u+ v, w〉 = 〈u, w〉+ 〈v, w〉 ,∀u, v, w ∈ V
3.
〈
n∑
i=1
αiui, v
〉
=
n∑
i=1
αi 〈ui, v〉 ,∀ui, v ∈ V, ∀αi ∈ R〈
u,
n∑
j=1
βjvj
〉
=
n∑
j=1
βj 〈u, vj〉 ,∀u, vj ∈ V, ∀βj ∈ R
4.
〈
n∑
i=1
αiui,
n∑
j=1
βjvj
〉
=
n∑
i=1
n∑
j=1
αiβj 〈ui, vj〉 ,∀ui, vj ∈ V, ∀αi, βj ∈ R
Teorema 3.6 (Desigualdade de Cauchy-Schwarz): Para quaisquer dois vetores de
um espaço euclidiano, tem-se: 〈u, v〉2 ≤ 〈u, u〉 〈v, v〉 e, além disso, a igualdade é válida
se, e somente se, {u, v} é LD.
Prova. Se v = ΘV , então a prova é imediata. Se v 6= ΘV , considerando o vetor:
w = u− v 〈u, v〉〈v, v〉
Como 〈w, w〉 ≥ 0 segue a desigualdade. �
3.2 Norma e Distância
Definição 3.7 Uma função mede a distância entre dois elementos de um conjunto E
quando:
1. d(x, x) = 0 e d(x, y) > 0 se x 6= y
2. d(x, y) = d(y, x)
3. d(x, y) ≤ d(x, z) + d(z, y)
Esta função é conhecida como métrica.
Victor Gonçalves Elias
3.2. NORMA E DISTÂNCIA 35
Nota 3.8 Um espaço vetorial munido de uma métrica é chamado de espaço métrico.
Definição 3.9 Há outra função, a norma, que mede o comprimento de um vetor. A
norma é uma função que obedece à:
1. ‖ΘV ‖ = 0 e ‖u‖ > 0 se u 6= ΘV
2. ‖λu‖ = |λ| ‖u‖
3. ‖u+ v‖ ≤ ‖u‖+ ‖v‖
Nota 3.10 É possível provar que uma norma sempre induz uma métrica
d(u, v) = ‖u− v‖
.
Nota 3.11 No caso do produto interno, temos a seguinte norma: ‖u‖ = √〈u, u〉. Nesse
caso também é possível definir a distância entre dois vetores de V : d(u, v) = ‖u− v‖ =√〈u− v, u− v〉.
Definição 3.12 Podemos definir um ângulo entre dois vetores usando o produto interno.
Da desigualdade de Cauchy-Schwarz: −‖u‖ ‖v‖ ≤ 〈u, v〉 ≤ ‖u‖ ‖v‖ . Assim, paraquais-
quer vetores não nulos:
−1 ≤ 〈u, v〉‖u‖ ‖v‖ ≤ 1
Sendo possível associar um ângulo θ ∈ [0, pi] tal que cos θ = 〈u, v〉‖u‖‖v‖ . θ é chamado de ângulo
entre os vetores u e v.
Exemplo 3.13 O ângulo entre as matrizes A =
[ −1 2
3 0
]
e B =
[
2 0
0 −3
]
conside-
rando o produto interno usual 〈A, B〉 = tr(AtB) = tr(ABt) = tr(BtA) = tr(BAt) =
n∑
i=1
m∑
j=1
aijbij é: arccos(−1/91).
Teorema 3.14 Dois vetores u e v não nulos são LD se, e somente se, θ = 0 ou θ = pi
(i.e., se vale a igualdade na desigualdade de Cauchy-Schwarz).
Prova. (⇒) Como ∃α, β 6= 0 tal que αu+ βv = ΘV , temos que v = −αβu. Então:
cos θ = 〈u, v〉‖u‖‖v‖ =
〈u,−αβ u〉
‖u‖‖−αβ u‖ =
−α
β
〈u, u〉
|αβ |‖u‖2 =
−α
β
|αβ |
cos θ = ±1
θ = 0 ou pi
(⇐) Como θ = 0 ou θ = pi, cos θ = ±1. Caso ‖u‖ = 0 ou ‖v‖ = 0, os dois vetores já
são LD trivialmente. Considerando então o caso em que ‖u‖ 6= 0 e ‖v‖ 6= 0. Tomamos
αu+ βv = ΘV e fazemos o produto interno dos dois lados da equação por u. Assim:
Victor Gonçalves Elias
36 CAPÍTULO 3. PRODUTO INTERNO
α 〈u, u〉 = −β 〈u, v〉 ∴ α ‖u‖2 = −β 〈u, v〉 , como ‖u‖ 6= 0‖v‖ 6= 0 ⇒ α
‖u‖
‖v‖ = −β
〈u, v〉
‖u‖ ‖v‖︸ ︷︷ ︸
cos θ=±1
α = ± ‖v‖‖u‖β
Portanto, o problema αu + βv = ΘV admite uma solução não trivial, i.e. u e v são
LD. �
3.3 Lista de Exercícios
Exercício 3.15 Sejam u = (x1, x2) e v = (y1, y2) vetores genéricos do R2. Para que
valores de t ∈ R a função 〈u, v〉 = x1y1 + tx2y2 é um produto interno sobre o R2?
Exercício 3.16 Mostrar que se 〈u, v〉 = 0, para todo vetor v, então u = Θ.
Exercício 3.17 No espaço V = P3(R) consideremos o produto interno 〈f(t), g(t)〉 =∫ 1
0
f(t)g(t)dt.
Calcular 〈f(t), g(t)〉, ||f(t)||, ||g(t)|| e ||f(t) + g(t)|| quando f(t) = t3 − 1 − 1 e
g(t) = t2 + 1. Repita o exercício com f(t) = 2 e g(t) = t3 + t+ 1
Exercício 3.18 Sejam f(t) = a0 +a1t+ ...+antn e g(t) = b0 + b1t+ ...+ bntn polinômios
quaisquer de Pn(R). A função (f(t), g(t)) → a0b0 + a1b1 + ... + anbn ∈ R é um produto
interno no espaço Pn(R)?
Exercício 3.19 Seja V um espaço vetorial euclideano. Dada uma base {e1, ..., en} de V
definamos A = (aij) ∈Mn(R) por aij = 〈ei, ej〉 (i, j = 1, ..., n).
1. Provar que A é uma matriz simétrica.
2. Mostrar que se u =
∑n
i=1 xiei e v =
∑n
i=1 yiei, então o produto escalar em V pode
ser expresso na forma matricial seguinte: 〈u, v〉 = (x1 x2 ... xn)A(y1 y2 ... yn)t.
Exercício 3.20 Seja V um espaço euclideano com produto interno 〈u, v〉. Para que
valores de α ∈ R a aplicação :
(u, v)→ α 〈u, v〉
também é um produto interno sobre V ?
Exercício 3.21 Chama-se traço de uma matriz A = (aij) quadrada de ordem n a soma
dos termos da sua diagonal principal (tr(A) = a11 +a22 + ...+ann). Sendo V =Mm×n(R),
mostre que 〈A, B〉 = tr(ABt) define um produto interno sobre V .
Victor Gonçalves Elias
3.3. LISTA DE EXERCÍCIOS 37
Exercício 3.22 Sejam u e v dois vetores não nulos de um espaço vetorial euclideano.
Sendo θ o ângulo de u e v, mostrar que ||u + v|| = ||u||2 + ||v||2 + 2||u||||v|| cos θ. (Esta
igualdade é conhecida como lei dos cossenos na geometria elementar.)
Exercício 3.23 Seja u = (x1, x2) e v = (y1, y2) vetores genéricos do R2 e
M =
[
a11 a12
a21 a22
]
∈M2(R)
Definamos 〈u, v〉 = a11x1y1 + a12x1y2 + a21x2y1 + a22x2y2.
1. Mostrar que o produto assim definido satisfaz as duas primeiras condições da defi-
nição de produto interno: 〈u+ v, w〉 = 〈u, w〉+ 〈v, w〉 e 〈αu, v〉 = α 〈u, v〉.
2. Mostrar que a condição 〈u, v〉 = 〈v, u〉 ,∀u, v ∈ R2 é válida se, e seomente se, M é
uma matriz simétrica.
3. Qual matriz M que leva ao produto interno usual do R2?
4. Quais das seguintes matrizes define produtos internos do R2 segundo a definição de
〈u, v〉 que foi dada acima:
[
2 1
1 1
]
,
[ −1 0
1 0
]
,
[
1 1
1 1
]
.
Exercício 3.24 Use a desigualdade de Cauchy-Schwarz no espaço euclideano R3 (produto
interno usual) para mostar que, dados os números reais estritamente positivos a1, a2ea3,
vale a desigualdade:
(a1 + a2 + a3)
(
1
a1
+
1
a2
+
1
a3
)
≥ 9
Exercício 3.25 Sendo a, b e c números reiais estritamente positivos tais que a+b+c = 1,
utilize a desigualdade de Cauchy-Schwarz no R3 para provar que:(
1
a
− 1
)(
1
b
− 1
)(
1
c
− 1
)
≥ 8
Exercício 3.26 Encontrar a distância de u a v e o cosseno do ângulo entre u e v nos
seguintes casos:
1. u = (1, 1, 1, 1) e v = (0, 0, 1, 1) com o produto interno usual do R4;
2. u = 1 + t− t2 e v = 3t2 com o produto interno 〈f(t), g(t)〉 = ∫ 1
0
f(t)g(t)dt;
3. A =
[
1 1
0 0
]
e
[
0 1
1 0
]
com o produto interno 〈A, B〉 = tr(ABt)
Victor Gonçalves Elias
38 CAPÍTULO 3. PRODUTO INTERNO
Exercício 3.27 Sejam u e v vetores de um espaço vetorial euclideano. Prove que 〈u, v〉 =
0, se, e somente se, ||u+ αv|| ≥ ||u||,∀α ∈ R.
Exercício 3.28 Seja f : R → R∗+ uma função contínua e periódica. Mostre que, para
todo α real, vale a desigualdade: ∫ T
0
f(x)
f(x+ α)
dx ≥ T,
onde T é o período da função.
3.4 Ortogonalidade
Uma vez definido o ângulo θ entre vetores, é imediato extender o conceito de ortogonali-
dade já aprendido em geometria. Dizemos, assim, que dois vetores são ortogonais quando
o ângulo entre eles é pi/2, ou, de forma equivalente, quando 〈u, v〉 = 0.
Definição 3.29 Um conjunto de vetores S = {u1, u2, . . . , un} é dito ser ortonormal
quando:
• Todos os vetores de S tiverem norma unitária ‖ui‖ = 1, i = 1, . . . , n.
• Quaisquer dois vetores distintos de S forem ortogonais.
De modo compacto, isso pode ser escrito como 〈ui, uj〉 = δij, onde δij é o delta de
Kronecker, definido como δij =
{
1, i = j
0, i 6= j .
Exemplo 3.30 O conjunto S =

 10
0
 ,
 01
0
 ,
 00
1
 é ortonormal, considerando-se
o produto interno usual.
Exemplo 3.31 A base canônica do Rn é uma base ortonormal, considerando-se o produto
interno usual.
Trabalhar com bases ortonormais (isto é, bases que são conjuntos ortonormais) facilita
muito o trabalho de decompor um vetor do espaço em termos dos vetores da base.
Teorema 3.32 Todo conjunto ortonormal S = {u1, u2, . . . , um} é LI.
Prova. α1u1 + α2u2 + . . .+ αmum = ΘV
α1 〈u1, u1〉+ α2 〈u2, u1〉︸ ︷︷ ︸
0
+ . . .+ αm 〈um, u1〉︸ ︷︷ ︸
0
= 〈ΘV , u1〉︸ ︷︷ ︸
0
α1 = 0
De forma análoga, αj = 0, j = 2, . . . ,m. Logo, S é LI. �
Victor Gonçalves Elias
3.4. ORTOGONALIDADE 39
Teorema 3.33 Seja S = {u1, u2, . . . , um} um conjunto ortonormal. Então para qualquer
v do EV, o vetor w = v − 〈v, u1〉u1 − 〈v, u2〉u2 − . . . − 〈v, um〉um é ortonormal a todo
vetor de [S].
Prova. 〈w, uj〉 = 〈v, uj〉 −
m∑
i=1
〈v, ui〉 〈ui, uj〉︸ ︷︷ ︸
0,∀i 6=j
〈w, uj〉 = 〈v, uj〉 − 〈v, uj〉 = 0
Logo, é fácil perceber que
〈
w,
m∑
j=1
αjuj
〉
=
m∑
j=1
αj 〈w, uj〉 = 0. �
Teorema 3.34 (Processo de Ortonormalização de Gram-Schmidt): Todo espaço
vetorial euclidiano finitamente gerado com dimensão não nula admite uma base ortonor-
mal.
Prova. Consiste em expor um processo de ortonormalização de bases. Seja, pois,
B = {v1, v2, . . . vn} uma base do espaço. Definimos u1 = v1‖v1‖ e com isso ‖u1‖ = 1. Seja,
agora, w2 = v2 − 〈v2, u1〉u1. Assim 〈w2, u1〉 = 0 e fazemos u2 = w2‖w2‖ . Com isso, {u1, u2}
é ortonormal. Tomando w3 = v3−〈v3, u1〉u1−〈v3, u2〉u2. Temos 〈w3, u1〉 = 〈w3, u2〉 = 0
e fazemos u3 = w3‖w3‖ . {u1, u2, u3} é ortonormal e o processo se repete de modo análogo. �
‘
Exemplo 3.35 Obtendo uma base ortonormal a partir de B = {(1, 1, 0); (0, 1, 0); (0, 0, 1)}.
u1 =
(1,1,0)
‖(1,1,0)‖ =
(
1√
2
, 1√
2
, 0
)
w2 = (0, 1, 0)−
〈(
1√
2
, 1√
2
, 0
)
, (0, 1, 0)
〉(
1√
2
, 1√
2
, 0
)
=
(−1
2
, 1
2
, 0
)⇒
⇒ u2 = w2‖w2‖ =
(
− 1√
2
, 1√
2
, 0
)
w3 = (0, 0, 1)−
〈(
1√
2
, 1√
2
, 0
)
, (0, 0, 1)
〉(
1√
2
, 1√
2
, 0
)
=0
−
〈(
− 1√
2
, 1√
2
, 0
)
, (0, 0, 1)
〉(
− 1√
2
,1√
2
, 0
)
=0
∴
w3 = (0, 0, 1)⇒ u3 = w3‖w3‖ = (0, 0, 1)
Assim, uma base ortonormal a partir de B será
{(
1√
2
, 1√
2
, 0
)
;
(
− 1√
2
, 1√
2
, 0
)
; (0, 0, 1)
}
.
Exemplo 3.36 Seja B uma base ortonormal. Então qualquer vetor do espaço se escreve
como v = 〈v, b1〉 b1 + . . .+ 〈v, bn〉 bn onde B = {b1, . . . , bn}.
Prova. Como B é base, qualquer vetor do espaço se escreve como v = α1b1+. . .+αnbn.
Assim, 〈v, bj〉 =
n∑
i=1
αi 〈bi, bj〉 = αj. �
Victor Gonçalves Elias
40 CAPÍTULO 3. PRODUTO INTERNO
Teorema 3.37 A matriz de mudança de base entre duas bases ortonormais é uma matriz
ortogonal.
Prova. Sejam B = {b1, b2, . . . , bn} e C = {c1, c2, . . . , cn} duas bases ortonormais.
Fazendo:
cj =
n∑
k=1
αkjbk ⇒MB←C =

α11 α12 · · · α1n
α21 α22 · · · α2n
...
... . . .
...
αn1 αn2 · · · αnn
 (3.1)
E também:
bj =
n∑
k=1
βijci ⇒MC←B =

β11 β12 · · · β1n
β21 β22 · · · β2n
...
... . . .
...
βn1 βn2 · · · βnn
 (3.2)
Já vimos que MB←CMC←B = I. Por (3.1), como B é ortonormal: αkj = 〈bk, cj〉. Por
(3.2), como C é ortonormal: βij = 〈bj, ci〉. Ou seja, αji = βij, portanto: MC←B =
MB←Ct ⇒MB←C−1 = MB←Ct, ou seja, MB←C é ortogonal. �
Teorema 3.38 (Fatoração QR): Dada uma matriz Am×n, com colunas LI, é possível
encontrar uma matriz Qm×n com colunas ortonormais e uma matriz Rn×n triangular
superior, inversível, de modo que A = QR.
Exemplo 3.39 Seja a matriz A =
 0 2 30 3 2
2 0 1
. Obteremos a fatoração QR. Para isso
basta considerarmos os vetores formados pelas colunas de A, e aplicar o processo de or-
tonormalização de Gram-Schmidt.
v1 = (0, 0, 2)⇒ u1 = (0, 0, 1)⇒ v1 = 2u1
v2 = (2, 3, 0)⇒ u2 =
(
2√
13
, 3√
13
, 0
)
⇒ v2 =
√
13u2
v3 = (3, 2, 1)⇒ u3 =
(
3√
13
,− 2√
13
, 0
)
⇒ v3 = u1 + 12√13u2 + 5√13u3
A =
 0 2√13 3√130 3√
13
− 2√
13
1 0 0
 2 0 10 √13 12√
13
0 0 5√
13

Exemplo 3.40 A fatoração QR da matriz A =

1 1 1
0 1 1
2 4 1
2 0 3
 é:
A =

1
3
0 0
0 1
3
4
18
2
3
2
3
− 1
18
2
3
−2
3
1
18

 3 3 30 3 −1
0 0 6

Victor Gonçalves Elias
3.4. ORTOGONALIDADE 41
.
3.4.1 Complemento Ortogonal
Definição 3.41 Dado um subconjunto U de um espaço vetorial V munido do produto
interno, definimos seu complemento ortogonal U⊥ como o conjunto de todos os vetores de
V que são ortogonais aos vetores de U : U⊥ = {w ∈ V : 〈w, u〉 = 0, ∀u ∈ U}.
O conjunto U⊥ é um subespaço vetorial, pois:
1. ∀u ∈ U, 〈ΘV , u〉 = 0⇒ ΘV ∈ U⊥
2. ∀u ∈ U,∀v1, v2 ∈ V, ∀α ∈ R ⇒ 〈αv1 + v2, u〉 = α 〈v1, u〉︸ ︷︷ ︸
=0,v1∈U⊥
+ 〈v2, u〉︸ ︷︷ ︸
=0,v2∈U⊥
= 0 ⇒ αv1 +
v2 ∈ U⊥
Teorema 3.42 Dado um espaço vetorial V euclidiano de dimensão finita e um subespaço
U ⊂ V , então V = U ⊕ U⊥.
Prova. Seja B uma base de U . Se B = ∅, a prova é imediata. Caso contrário,
tomando-se B ortonormal, tem-se que ∀v ∈ V, ∃w ∈ V,w = v−〈v, b1〉 b1− . . .−〈v, bn〉 bn
tal que w é um vetor normal a todo vetor u ∈ U (Teorema 3.33). Logo w ∈ U⊥. Assim
é fácil ver que v = w + 〈v, b1〉 b1 + . . .+ 〈v, bn〉 bn︸ ︷︷ ︸
∈U
⇒ v = w
∈U⊥
+ u
∈U
⇒ V = U + U⊥. Por
outro lado, se v ∈ U ∩U⊥ então v é ortogonal a si mesmo, ou seja, 〈v, v〉 = 0⇒ v = ΘV .
Ou seja, U ∩ U⊥ = {ΘV } ⇒ V = U ⊕ U⊥. �
Exemplo 3.43 No caso em que V = R3 e U = {(x, y, 0) ∈ R3 : x, y ∈ R} temos que
U⊥ = {(0, 0, z) ∈ R3 : z ∈ R}.
3.4.2 Teorema da Projeção
Consideremos o seguinte problema: dado um vetor v pertencente a V , devemos aproximá-
lo a um vetor u do subespaço U , de forma a minimizar o erro cometido pela aproximação.
Para isso usamos o teorema da projeção, visto a seguir.
Teorema 3.44 (Teorema da Projeção): Seja v ∈ V e seja U um subespaço de V . De
todos os elementos de U , aquele que minimiza ‖v − u‖2, u ∈ U é a projeção de v em U
(denotada por projUv = vU).
Prova. Consideremos v ∈ V . Como V = U ⊕ U⊥, v pode ser escrito de forma única
Victor Gonçalves Elias
42 CAPÍTULO 3. PRODUTO INTERNO
como v = vU
∈U
+ w
∈U⊥
. Sendo u um vetor qualquer do subespaço U :
‖v − u‖2 = 〈v − u, v − u〉
= 〈vU − u+ w, vU − u+ w〉
= 〈vU − u, vU − u〉+ 2 〈vU − u, w〉︸ ︷︷ ︸
0, pois w∈U⊥
+ 〈w, w〉 = ‖vU − u‖2 + ‖w‖2
> ‖w‖2, ou = ‖w‖2 ⇔ u = vU
�
Exemplo 3.45 (Série de Fourier): Seja V = C[0, 2pi] com o produto interno definido
por 〈f, g〉 = ∫ 2pi
0
f(x)g(x)W (x)︸ ︷︷ ︸
≡1
dx. Definamos nesse espaço o conjunto ortonormal B ={
1√
2pi
, sinx√
pi
, cosx√
pi
, sin 2x√
pi
, cos 2x√
pi
, . . . , sinmx√
pi
, cosmx√
pi
}
. Dada uma função f ∈ V , obtenhamos sua
melhor aproximação em termos das funções de U = [B].
Seja B = {ϕ0, ϕ1, . . . , ϕ2m}. A projeção de f em U é: projUf = fU = 〈f, ϕ0〉ϕ0 +
〈f, ϕ1〉ϕ1 + . . .+ 〈f, ϕ2m〉ϕ2m . Definamos agora:
a0 =
1
pi
∫ 2pi
0
f(x)dx
ak =
1
pi
∫ 2pi
0
f(x) cos(kx)dx
bk =
1
pi
∫ 2pi
0
f(x) sin(kx)dx
Temos então que: 〈f, ϕ0〉 = 1√2pi
∫ 2pi
0
f(x)dx = a0
√
pi√
2
〈f, ϕ1〉 = 1√pi
∫ 2pi
0
f(x) sinxdx = b1
√
pi
〈f, ϕ2〉 = 1√pi
∫ 2pi
0
f(x) cosxdx = a1
√
pi
fU(x) =
a0
2
+ b1 sinx+ a1 cosx+ . . .+ bm sin(mx) + am cos(mx)
fU(x) =
a0
2
+
m∑
k=1
(bk sin kx+ ak cos kx)
Para m → ∞, a expressão anterior dá origem à série de Fourier (alvo de estudo de
MAT-42).
Exemplo 3.46 (Método dos Mínimos Quadrados): Consideremos um experimento
no qual foram realizadas N medidas Xi e Yi, i = 1, . . . , n.
æ
æ
æ
æ
æ
æ
æ
æ
æ
æ
æ
æ
2 4 6 8 10 12
2
4
6
8
10
12
Victor Gonçalves Elias
3.4. ORTOGONALIDADE 43
Desejamos ajustar os pontos para uma reta, isto é, desejamos obter a e b de modo que
y(x) = ax + b seja uma boa aproximação para o conjunto de pontos experimentais. Para
tanto, para cada ponto (Xi, Yi) definimos um desvio δi = Yi− (aXi + b) e definimos o erro
de ajuste como E =
n∑
i=1
δi
2 =
n∑
i=1
[Yi − (aXi + b)]2.
Definimos Y =

Y1
Y2
...
Yn
 , X =

X1
X2
...
Xn
 , W =

1
1
...
1
 ∴ E = ‖Y − aX − bW‖2.
Caso todos os pontos estivessem alinhados, seria possível conseguirmos E = 0, e para
achar a e b bastaria resolvermos o sistema M
[
a
b
]
= Y , onde M =

X1 1
X2 1
...
...
Xn 1
 =
[
X W
]
.
Como os pontos não estão alinhados, precisamos minimizar E. Para isso, usando o
teorema da projeção com v = Y e u = aX + bW , basta projetar Y no subespaço gerado
por {X,W}, de modo que aX + bW = proj[X,W ]Y , e assim Y − aX − bW ∈ [X,W ]⊥,
portanto:
〈Y − aX − bW, X〉 = 0
〈Y − aX − bW, W 〉 = 0
Desenvolvendo o sistema ficamos com:
{
a 〈X, X〉+ b 〈X, W 〉 = 〈X, Y 〉
a 〈X, W 〉+ b 〈W, W 〉 = 〈W, Y 〉 ⇒
[ 〈X, X〉 〈X, W 〉
〈X, W 〉 〈W, W 〉
] [
a
b
]
=
[ 〈X, Y 〉
〈W, Y 〉
]
(3.3)
A partir do sistema inicial M
[
a
b
]
= Y , temos que o que foi obtido em (3.3) seria o
mesmo caso tivéssemos feito: M tM
[
a
b
]
= M tY , pois temos que:
M tM =
[
X1 · · · Xn
1 · · · 1
] X1 1... ...
Xn 1
 =

n∑
i=1
Xi
2
n∑
i=1
1Xi
n∑
i=1
1Xi
n∑
i=1
12
 = [ 〈X, X〉 〈X, W 〉〈X, W 〉 〈W, W 〉
]
M tY =
[
X1 · · · Xn
1 · · · 1
] Y1...
Yn
 =

n∑
i=1
XiYi
n∑
i=1
1Yi
 = [ 〈X, Y 〉〈W, Y 〉
]
Para resolver essa equação mais facilmente, basta fazer a fatoração QR de M : M =
Victor Gonçalves Elias
44 CAPÍTULO 3. PRODUTO INTERNO
QR.
(RtQtQ︸︷︷︸
I
R)
[
a
b
]
= RtQtY
(RtR)
[
a
b
]
= (RtQt)Y
R
[
a
b
]
= QtY
Em que R é uma matriz escalonada, ficando a resolução do sistema imediata.
3.5 Produto Interno para Espaços Vetoriais Complexos
São inúmeros exemplos de espaços vetoriais complexos de utilidade prática: o uso de C3
para representar campos eletromagnéticos (
⇀
E e
⇀
H) e o conjuntode funções complexas
na mecânica quântica são apenas alguns exemplos. Vejamos então, como a definição de
produto interno fica estabelecida nesses casos.
Definição 3.47 Seja V um espaço vetorial complexo. Um produto interno é uma aplica-
ção de V × V → C (que a cada par u, v ∈ V associa um número complexo 〈u, v〉) que
obedece às seguintes condições:
1. Simetria hermitiana: 〈u, v〉 = 〈v, u〉∗, ∀u, v ∈ V
2. Bilinearidade: 〈u, v + w〉 = 〈u, v〉+ 〈u, w〉 ,∀u, v, w ∈ V
〈u, αv〉 = α 〈u, v〉 ,∀u, v ∈ V, ∀α ∈ C
3. Positividade: 〈u, u〉 ≥ 0,∀u ∈ V
〈u, u〉 = 0⇔ u = ΘV
Nota 3.48 Para produtos internos complexos, costuma-se usar a notação bra-ket 〈u, v〉 =
〈u | v〉. Ela é muito usada para descrever estados quânticos na mecânica quântica. Leva
esse nome pois pode ser representada como o produto de duas partes diferentes: o bra, que é
o complexo conjugado da transposta da matriz coluna do vetor 〈u| = [ u∗1 u∗2 · · · u∗n ];
e o ket, que é o vetor representado na forma de uma matriz coluna |v〉 =

v1
v2
...
vn
. Foi
introduzida por Paul Dirac, e também é conhecida como notação de Dirac.
Nota 3.49 Um espaço vetorial complexo com produto interno é também chamado de
espaço hermitiano.
Nota 3.50 〈αu | v〉 = α∗ 〈u | v〉 , ∀u, v ∈ V, ∀α ∈ C
Victor Gonçalves Elias
3.6. LISTA DE EXERCÍCIOS 45
Exemplo 3.51 O produto interno usual do Cn é 〈u | v〉 = u1∗v1 + u2∗v2 + . . . + un∗vn,
dado u = (u1, u2, . . . , un) e v = (v1, v2, . . . , vn).
Exemplo 3.52 O produto interno usual de funções contínuas f : [a, b]→ C é:
〈f | g〉 =
∫ b
a
f ∗(x)g(x)dx
.
3.6 Lista de Exercícios
Exercício 3.53 Considere no R2 o produto interno dado por 〈u, v〉 = x1y1 + 2x2y2 −
x1y2 − x2y1 para todos os vetores u = (x1, y1) e v = (x2, y2) de R2.
1. Determinar m a fim de que os vetores (1 +m, 2) e (3,m− 1) sejam ortogonais.
2. Determinar todos os vetores do R2 ortogonais a (2, 1).
3. Determinar todos os vetores (m,m− 1) de norma igual a 1.
Exercício 3.54 Determinar todos os vetores do R2 de normas iguais a 2 que sejam or-
togonais simultaneamente a (2, 1, 2) e (−1, 3, 4).
Exercício 3.55 Determinar uma base ortonormal de cada um dos seguintes sub-espaços
do R4 utilizando o porcesso de Grahm-Schmidt:
1. W = [(1, 1, 0, 0), (0, 1, 2, 0), (0, 0, 3, 4)]
2. W = [(2, 0, 0, 0), (1, 3, 3, 0), (3,−3,−3, 0)]
Exercício 3.56 Determinar uma base ortonormal do sub-espaço W de R3 dado por
W = {(x, y, z) ∈ R3 | x− y = 0}.
Exercício 3.57 Seja {g1, ..., gn} um subconjunto de um espaço euclideano V cujos vetores
são ortogonais dois a dois. Prove que ||∑ni=1 gi||2 = ∑ni=1 ||gi||2(teorema de Pitágoras
generalizado).
Exercício 3.58 Em P2(R) com produto interno definido por:
〈f(t), g(t)〉 =
∫ 1
0
f(t)g(t)dt
1. Ortonormalize a base {1, 1 + t, 2t2};
2. Achar o complemento ortogonal do sub-espaço W = [5, 1 + t].
Victor Gonçalves Elias
46 CAPÍTULO 3. PRODUTO INTERNO
Exercício 3.59 Determinar um vetor unitário do R3 que seja ortogonal a todos os vetores
do sub-espaço W = [(1, 2,−1), (−1, 0, 2)].
Exercício 3.60 Determinar a projeção ortogonal do vetor (1, 1, 0, 1) ∈ R4 sobre o sub-
espaço W = {(x, y, z, t) ∈ R4 | x− y − z = 0 e z − 2t = 0}.
Exercício 3.61 Sejam u e v vetores linearmente independentes do R3. Mostrar que exis-
tem dois, e apenas dois, vetores de norma igual a 1 que são ortogonais simultaneamente
a u e v.
Exercício 3.62 Resolva Ax = b utilizando o método dos mínimos quadrados:
A =
 1 00 1
1 1
 b =
 11
0
 .
Exercício 3.63 Encontre o quarto polinômio de Legendre. Ele é uma expressão cúbica
5
2
x3 + ax2 + bx+ c ortogonal a 1, x, 1
2
(3x2 − 1) no intervalo −1 ≤ x ≤ 1.
Exercício 3.64 Encontre as funções f(x) mais próximas da função g(x) = sin(2x) no
intervalo [−pi, pi], considerando:
1. f(x) = a cosx+ b sinx.
2. f(x) = c+ dx.
Exercício 3.65 Expresse a matriz A como o produto de duas matrizes QR, de modo que
QTQ = I e R seja uma matriz triangular superior.
1. A =
 1 1 01 0 1
0 1 1
 .
2. A =
 3 14 1
0 1
 .
Exercício 3.66 Prove as seguintes desigualdades:
1. Se A é uma matriz real n×n formada pelas matrizes coluna u1, u2, . . . , un, de modo
que A =
[
u1 u2 . . . un
]
, então:
| det(A)| ≤ ||u1||||u2|| . . . ||un||,
sendo ||uj|| =
√
uTj uj.
Victor Gonçalves Elias
3.6. LISTA DE EXERCÍCIOS 47
2. Se A é uma matriz real n× n cujos elementos são em módulo iguais a 1, então:
| det(A)| ≤ nn/2.
Exercício 3.67 Em R4, sejam W = [(3, 2,−3,−1); (2, 0,−2,−2); (1,−1,−1,−2)] e v =
(1, 2, 2,−1). Obter a projeção ortogonal de v em W e a projeção ortogonal de v em W⊥,
considerando o produto interno usual.
Exercício 3.68 Considere as operações de adição e multiplicação por escalar usuais em
cada espaço vetorial abaixo.
1. Se α, β ∈ C, verifique se 〈α, β〉 = α∗β (produto de números complexos) define um
produto interno em C espaço vetorial sobre o corpo C. Notação: z∗ é o complexo
conjugado de z.
2. Se (a + ib), (c + id) ∈ C, mostre que 〈a+ ib, c+ id〉 = ac + bd define um produto
interno em C espaço vetorial sobre o corpo R.
3. Se (z1, z2); (w1, w2) ∈ C2,verifique se 〈(z1, z2), (w1, w2)〉 = z∗1w1 + z∗2w2 define um
produto interno em C2 espaço vetorial sobre o corpo C.
Exercício 3.69 Seja V = C[0, 1] com o produto interno 〈f, g〉 =
1∫
0
f(t) g(t) dt. Se g(t) =
√
t e h(t) = et, determine as projeções ortogonais de g e h sobre P2(R).
Exercício 3.70 Seja V = C[−pi, pi] com o produto interno 〈f, g〉 =
pi∫
−pi
f(t) g(t) dt.
1. Mostre que, com relação a este produto interno, o conjunto S = {sin(t), sin(2t),
. . . , sin(kt)}, k ∈ N, é ortogonal.
2. Se W = [S] e f(t) = cos(mt),m ∈ N, obtenha a projeção ortogonal de f sobre W.
Exercício 3.71 Seja V = C[0, 2pi] com o produto interno 〈f, g〉 =
2pi∫
0
f(t) g(t) dt.
1. Mostre que, com relação a este produto interno, o conjunto S∞ = {u0(x), u1(x),
u2(x), ...}, onde u0(x) = 1, u2k−1(x) = sin(kx), u2k(x) = cos(kx), k ∈ N, é
ortogonal.
2. Ortonormalize S2n = {u0(x), ..., u2n(x)}.
3. Mostre que a melhor aproximação de f ∈ C[0, 2pi] em [S2n] é dada por:
1
2
a0 +
n∑
k=1
(ak cos(kx) + bk sin(kx)) ,
onde ak = 1pi
2pi∫
0
f(x) cos(kx)dx e bk = 1pi
2pi∫
0
f(x) sin(kx)dx .
Victor Gonçalves Elias
48 CAPÍTULO 3. PRODUTO INTERNO
Exercício 3.72 Considere os vetores de C3 (espaço vetorial sobre C):
ψ = iφ1 + 3iφ2 − φ3 χ = φ1 − iφ2 + 5iφ3,
onde {φ1, φ2, φ3} é uma base ortonormal de C3.
1. Calcule 〈ψ | χ〉, 〈χ | ψ〉, 〈ψ | ψ〉 e 〈χ | χ〉.
2. A partir do resultado anterior, deduza 〈ψ + χ | ψ + χ〉.
Exercício 3.73 Obtenha uma base ortonormal de C3 (espaço vetorial sobre C) a partir
da base (i, i, 1 + i), (1, i, 0), (1,−i, 0).
Exercício 3.74 Sejam U e V sub-epaços vetoriais de um espaço euclideano de dimensão
finita. Provar que (U ∩ V )⊥ = U⊥ + V ⊥.
Exercício 3.75 Considere os seguintes vetores do R3: u = (2, 2, 2) e v = (3, 3, 1).
1. Determinar dois vetores v1 e v2, tais que v = v1 + v2; v é ortogonal a u e v2 = λu
(λ ∈ R).
2. Se w = (−5, 1,−1) decompor v em uma parcela W = [u,w] e uma parcela de W⊥.
3. Determinar uma base ortonormal de W .
Exercício 3.76 Mostrar que a matriz de mudança de base de um espaço euclideano de
dimensão finita é uma matriz ortogonal.
Victor Gonçalves Elias
49
Capítulo 4
Transformações Lineares
O conceito de transformação linear, juntamente com o conceito de matrizes, são os mais
básicos da Álgebra Linear. As transformações lineares, pela simplicidade – e ao mesmo
tempo rijeza – de suas exigências, possuem propriedades bastante interessantes do ponto
de vista prático.
Definição 4.1 Sejam U e V dois espaços vetoriais sobre um corpo K. Uma aplicação
T : U → V é dita ser uma transformação linear, quando respeitar duas condições:
1. T (u1 + u2) = T (u1) + T (u2),∀u1, u2 ∈ U
2. T (αu) = αT (u),∀u ∈ U,∀α ∈ K
Nota 4.2 No caso em que U = V , uma transformação linearde T : U → U é também
chamada de operador linear.
Exemplo 4.3 A transformação nula O : U → V , O(u) = Θ, ∀u ∈ U é linear.
Exemplo 4.4 O operador identidade I : U → U , I(u) = u é linear.
Exemplo 4.5 A transformação T : C[a, b]→ R, T (f) = ∫ b
a
f(x)dx é linear.
Exemplo 4.6 A transformação D : Pn(R) → Pn(R), Dp(x) = p′(x) é um operador
linear.
Exemplo 4.7 A transformada de Laplace L[f ](s) = ∫∞
0
e−stf(t)dt é linear.
Exemplo 4.8 A transformação T : R2 → R, T (x, y) = αx + βy, α e β reais fixados, é
linear.
Veremos a seguir algumas propriedades oriundas diretamente da definição de trans-
formação linear, mas que não podem ser enxergadas imediatamente.
Victor Gonçalves Elias
50 CAPÍTULO 4. TRANSFORMAÇÕES LINEARES
Proposição 4.9 Seja uma transformação linear T : U → V satisfazendo as condições da
Definição 4.1, temos que:
1. T (ΘU) = ΘV
2. T (−u) = −T (u)
3. T (u1 − u2) = T (u1)− T (u2)
4. T
(
n∑
i=1
αiui
)
=
n∑
i=1
αiT (ui)
5. Se W é subespaço de U , então T (W ) é subespaço de V .
Prova. As 4 primeiras proposições são consequência direta da definição, portanto
provaremos apenas a última. Temos que mostrar que T (W ) é subespaço de V , ∀W
subespaço de U . Basta mostrar que T (W ) atende às condições de subespaço vetorial:
(a) ΘV ∈ T (W ), pois ΘU ∈ W , e T (ΘU) = ΘV
(b) Dados v1, v2 ∈ T (W ), então ∃w1, w2 ∈ W tal que T (w1) = v1 e T (w2) = v2. Tomando
w = w1 + αw2 ∈ W tem-se:
v = T (w) ∈ T (W )
v = T (w1 + αw2) ∈ T (W )
v = v1 + αv2 ∈ T (W )
�
4.1 A Imagem e o Núcleo
Definição 4.10 Sejam U e V dois espaços vetoriais, e seja T : U → V uma transforma-
ção linear. A imagem de T é definida como o conjunto Im(T ) = T (U) = {T (u), u ∈ U}.
Definição 4.11 O núcleo da transformação linear é definido como o conjunto Ker(T ) =
{u ∈ U, tal que T (u) = ΘV }.
Nota 4.12 A palavra kernel é derivada do termo cyrnel com a forma da palavra corn,
significando semente ou grão. Tal como um grão de milho, o kernel de uma transformação
linear é o seu núcleo ou semente, no sentido de que é ele que carrega as informações sobre
muitas propriedades importantes da transformação linear. Isso explica porque usamos a
notação Ker(T ) para denotar o núcleo de T .
Teorema 4.13 Seja T : U → V uma transformação linear. Então:
1. O núcleo de T é um subespaço de U .
2. A imagem de T é um subespaço de V .
Victor Gonçalves Elias
4.1. A IMAGEM E O NÚCLEO 51
Prova. Provemos cada propriedade separadamente:
1. Temos que Ker(T ) = {u ∈ U : T (u) = ΘV }. Para mostrar que é um subespaço ve-
torial, precisamos provar que o conjunto satisfaz as condições de subespaço vetorial.
(a) ΘU ∈ Ker(T ), pois T (ΘU) = ΘV .
(b) Sejam u1, u2 ∈ Ker(T ) e α ∈ K, então:
T (u1 + αu2) = T (u1) + T (αu2)
= T (u1) + αT (u2)
= ΘV + αΘV = ΘV
Logo, u1 + αu2 ∈ Ker(T )
2. Temos que U é subespaço vetorial dele mesmo (subespaço impróprio ou trivial).
Portanto, pela Proposição 4.9, temos que T (U) = Im(T ) é subespaço de V .
�
Exemplo 4.14 Seja S : P1(R)→ R a transformação linear definida por:
S(p) =
1∫
0
p(t)dt
Um polinômio de P1(R) tem a forma p(t) = at+ b.
1∫
0
(at+ b)dt = 0
a
2
+ b = 0 ∴ a = −2b
Portanto, Ker(S) = [p(t)], sendo p(t) = 2t− 1.
Teorema 4.15 (Teorema do Núcleo e da Imagem): Sejam U e V espaços vetoriais
sobre K de dimensão finita. Seja uma transformação linear: T : U → V .
Então: dimU = dim Ker(T ) + dim Im(T )
Prova. Seja B = {u1, u2, . . . , un} uma base de Ker(T ). Completando esta base, é
possível encontrar uma base C = {u1, . . . , un, w1, . . . , wm} de U . Por enquanto, temos:
dim Ker(T ) = n
dimU = n+m
Provemos que D = {T (w1), . . . , T (wm)} é uma base de Im(T ) = {T (u) : u ∈ U}.
Seja, pois, v ∈ Im(T ). Nesse caso, ∃u ∈ U tal que v = T (u). Escrevendo u em termos
dos vetores de C:
u = α1u1 + . . .+ αnun + β1w1 + . . .+ βmwm
Victor Gonçalves Elias
52 CAPÍTULO 4. TRANSFORMAÇÕES LINEARES
Assim: v = α1T (u1) + . . .+ αnT (un)︸ ︷︷ ︸
ΘV
+β1T (w1) + . . .+ βmT (wm).
v = β1T (w1) + . . .+ βmT (wm)⇒ Im(T ) = [D]
Provemos agora que D é LI.
θ1T (w1) + . . .+ θmT (wm) = ΘV
T (θ1w1 + . . .+ θmwm) = ΘV ∴
θ1w1 + . . .+ θmwm ∈ Ker(T )⇒
⇒ θ1w1 + . . .+ θmwm = γ1u1 + . . .+ γnun
−γ1u1 − . . .− γnun + θ1w1 + . . .+ θmwm = ΘV ∴
γ1 = . . . = γn = 0
θ1 = . . . = θm = 0
Portanto, D é LI. Assim, a dimensão da imagem de T é m ⇒ dimU = dim Ker(T ) +
dim Im(T ). �
Nota 4.16 A dimensão do núcleo de uma TL é chamada de nulidade da transformação
linear, ao passo que a dimensão da imagem de uma TL é chamada de posto da transfor-
mação linear.
Teorema 4.17 Uma transformação linear é injetiva se, e somente se, sua nulidade for
igual a zero.
Prova. (⇒) Considerando a transformação linear T : U → V injetiva ⇒ ∀v ∈ V
existe um único u ∈ U tal que T (u) = v. Portanto, tomando v = ΘV , temos que @u ∈ U
tal que T (u) = ΘV . Como T (ΘU) = ΘV , temos que Ker(T ) = {ΘU}, ou seja, a nulidade
de T é zero.
(⇐) Se Ker(T ) = {ΘU}, então provemos que T é injetiva. Sejam u1, u2 ∈ U tal que
T (u1) = T (u2):
T (u1)− T (u2) = ΘV
T (u1 − u2) = ΘV
u1 − u2 = ΘU
u1 = u2
Ou seja, T é injetiva. �
Exemplo 4.18 Seja T : Mn(R) →Mn(R) o operador linear que a cada matriz associa
a sua transposta T (A) = At. Então:
Ker(T ) = {Θ} e Im(T ) =Mn(R)
Prova. At = Θ ⇒ Ker(T ) = {Θ}
Aplicando o teorema do núcleo e da imagem: dim Im(T ) = n2, dimMn(R) = n2.
Assim, Im(T ) =Mn(R). �
Victor Gonçalves Elias
4.2. ISOMORFISMOS E AUTOMORFISMOS 53
Exemplo 4.19 Seja D : Pn(R)→ Pn(R) o operador de derivação Dp(t) = p′(t). Temos
que p0(t) = 1 ∈ Ker(D). Assim Ker(D) 6= {Θ} ⇒ D não é injetiva.
Exemplo 4.20 Seja T : R2 → P1(R) dada por: T (a, b) = a+ (a+ b)t. T é bijetiva.
Prova. De fato, analisando o Ker(T ), temos: (a, b) ∈ Ker(T ) ⇔ a + (a + b)t ≡ Θ ⇔
a = b = 0. Ker(T ) = {(0, 0)} ⇒ T é injetiva. Pelo teorema do núcleo e da imagem:
dim Im(T ) = 2. Como dimP1(R) = 2 então Im(T ) = P1(R) ⇒ T é sobrejetiva. Por fim,
como T é injetiva e sobrejetiva ⇒ T é bijetiva. �
Teorema 4.21 Sejam U e V espaços vetoriais finitamente gerados de mesma dimen-
são, e seja T : U → V uma transformação linear. Então as seguintes afirmações são
equivalentes:
1. T é sobrejetiva.
2. T é bijetiva.
3. T é injetiva.
4. T transforma base de U em uma base de V .
Prova. Basta provar que 1⇒ 2⇒ 3⇒ 4⇒ 1. Na ordem:
(1⇒ 2) Hipótese: Im(T ) = V .
A partir do teorema do núcleo e da imagem: dimU = dim Ker(T ) + dim Im(T )
=dimV=dimU
⇒
dim Ker(T ) = 0⇒ T é injetiva.
(2⇒ 3) Decorrente da definição de bijeção.
(3⇒ 4) Hipótese: T é injetiva ⇒ Ker(T ) = {ΘU}.
Seja B = {u1, . . . , un} uma base de U . Provemos que C = {T (u1), . . . , T (un)} é base
de V . Para isso, basta mostrarmos que C é LI, pois temos que C tem o mesmo número
de vetores da dimensão de V .
α1T (u1) + . . .+ αnT (un) = ΘV
T (α1u1 + . . .+ αnun) = ΘV
Assim: α1u1 + . . .+αnun = ΘU . Como B é LI, segue que α1 = . . . = αn = 0. Portanto,
C também é LI.
(4⇒ 1) Seja B = {u1, . . . , un} uma base de U .
Por hipótese, o conjunto C = {T (u1), . . . , T (un)} é uma base de V .
Desde que Im(T ) = [C] ⇒ dim Im(T ) = n e dimV = n ∴ Im(T ) = V , ou seja, T é
sobrejetiva. �
4.2 Isomorfismos e Automorfismos
Definição 4.22 Uma transformação linear T : U → V , U e V espaços vetoriais sobre
um corpo K, é um isomorfismo quando é bijetiva. Quando U = V , uma transformação
linear bijetiva T : U → U é chamada de automorfismo.
Victor Gonçalves Elias
54 CAPÍTULO 4. TRANSFORMAÇÕES LINEARES
Nota 4.23 Quando existe um isomorfismo entre U e V , dizemos que esses espaços são
isomorfos (notação U ∼ V ). Neste caso, podemos, através do isomorfismo, identificar
cada elemento de U com um único elemento de V .
Exemplo 4.24 O operador identidade é um automorfismo de U .
Exemplo 4.25 Dada uma transformação linear T : Pn(R)→ Rn+1 definida como:
p(t) = a0

Outros materiais

Materiais relacionados

Perguntas relacionadas

Perguntas Recentes