Buscar

Notas de aula Álgebra Linear (versão 4)

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 66 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 66 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 66 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

UFRJ - Campus Macaé
Notas de aula de Álgebra Linear: versão 3
Jefferson Ribeiro Nogueira
Pretendo aqui organizar notas de aula da
disciplina MCG120 Álgebra Linear, cur-
sada por alunos do 2o período dos cursos
de Engenharia Civil, Engenharia de Pro-
dução e Engenharia Mecânica do Campus
Macaé da UFRJ. Divirta-se!
Macaé, 2017-202?
Sumário
1 Matrizes e sistemas lineares 3
1.1 Corpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Matrizes e suas operações . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Matrizes inversíveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4 Sistemas lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5 Operações elementares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6 Matrizes inversíveis: revisitado . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.7 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.8 Exercícios do capítulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2 Espaços vetoriais sobre um corpo 36
2.1 Espaços e subespaços vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.2 Dependência e independência linear . . . . . . . . . . . . . . . . . . . . . . 41
2.3 Base e dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.4 Coordenadas e mudança de base . . . . . . . . . . . . . . . . . . . . . . . . 54
2.5 Exercícios do Capítulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3 Transformações lineares 61
3.1 Definição e propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2 Teorema do núcleo e da imagem . . . . . . . . . . . . . . . . . . . . . . . . 65
3.3 Matriz de uma transformação linear . . . . . . . . . . . . . . . . . . . . . . 65
2
Capítulo 1
Matrizes e sistemas lineares
(...)
1.1 Corpos
Definição 1.1.1. Um conjunto K munido de uma operação adição +: K × K −→ K
e de uma operação multiplicação . : K × K −→ K é dito um corpo comutativo, ou
simplesmente corpo, se valem as seguintes propriedades:
1. A adição é comutativa: x+ y = y + x, para todo x, y ∈ K.
2. A adição é associativa: x+ (y + z) = (x+ y) + z, para todo x, y, z ∈ K.
3. Existe um único elemento 0 ∈ K tal que x+ 0 = x, para todo x ∈ K.
4. Para cada x ∈ K, existe um único elemento y ∈ K tal que x + y = 0. Denotamos
este elemento y por −x.
5. A multiplicação é comutativa: x.y = y.x, para todo x, y ∈ K.
6. A multiplicação é associativa: x.(y.z) = (x.y).z, para todo x, y, z ∈ K.
7. Existe um único elemento não-nulo 1 ∈ K tal que x.1 = x, para todo x ∈ K.
8. Para cada x ∈ K\{0}, existe um único elemento y ∈ K tal que x.y = 1. Denotamos
este elemento y por x−1.
9. A multiplicação é distributiva: x.(y + z) = x.y + x.z, para todo x, y, z ∈ K.
3
4 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
Exemplo 1.1.1. 1. O conjunto N de todos os números naturais, com as operações
usuais de adição e de multiplicação, não é um corpo.
2. Os conjuntos Q dos números racionais, R dos números reais e C dos números
complexos, com as operações usuais de adição e de multiplicação, são corpos, e tem-
se:
Z ⊂ Q ⊂ R ⊂ C.
3. Q(
√
2) = {x+
√
2y;x, y ∈ Q} é um corpo com as operações de adição e de multipli-
cação análogas as operações usuais de C.
4. Consideremos o conjunto Z2 = {0, 1} com as operações de adição e de multiplicação
dadas respectivamente pelas tabelas abaixo:
+ 0 1
0 0 1
1 1 0
e
. 0 1
0 0 0
1 0 1
Verifique que Z2, com essas operações, é um corpo.
5. Fixado m ∈ N, consideremos o conjunto Zm = {0, 1, . . . ,m− 1}, com as operações
de adição e de multiplicação definidas abaixo:
x⊕ y = menor resto positivo da divisão x+ y
m
e
x� y = menor resto positivo da divisão x.y
m
.
Por exemplo, em Z12, temos 3⊕ 11 = 2 e 3� 11 = 9.
Para alguns valores diferentes de m, reflita se Zm é ou não um corpo! Verifique,
por exemplo, que Z3 é um corpo e que Z4 não o é.
Exercícios
1. O conjunto de todos os números inteiros é um corpo? E o conjunto Q \ {0}?
Justifique!
2. Seja F = {(x, y);x, y ∈ R} (conjunto de todos os pares ordenados (x, y) de números
reais, ou seja, o plano cartesiano R2).
1.2. MATRIZES E SUAS OPERAÇÕES 5
(a) Com as operações de adição e de multiplicação definidas por
(x1, y1) + (x2, y2) = (x1 + x2, y1 + y2)
e
(x1, y1).(x2, y2) = (x1x2, y1y2),
F é um corpo?
(b) Agora, com as operações de adição e de multiplicação definidas por
(x1, y1) + (x2, y2) = (x1 + x2, y1 + y2)
e
(x1, y1).(x2, y2) = (x1x2 − y1y2, x1y2 + x2y1),
verifique que F é um corpo.
Este é o corpo C! Você acredita nisso? Pense nas operações usuais do corpo C
e compare com as definidas acima.
1.2 Matrizes e suas operações
Seja K um corpo. Uma matriz sobre K é uma tabela de elementos em K dispostos
em linhas e em colunas. Representamos uma matriz de m linhas e n colunas por
Am×n = (aij) =

a11 a12 . . . a1n
a21 a22 . . . a2n
... ... . . . ...
am1 am2 . . . amn

onde, para cada i = 1, 2, . . . ,m e j = 1, 2, . . . , n, aij ∈ K é o termo na i-ésima linha e na
j-ésima coluna.
Uma matriz sobre K será chamada simplesmente matriz ou, quando não houver dúvi-
das sobre o corpo em questão, ou quando não for importante diferenciar.
Exemplo 1.2.1. Para a matriz A =
 1 2 3
6 5 4
, temos a13 = 3, a21 = 6 e a23 = 4.
Dizemos que duas matrizes Am×n = (aij) e Br×s = (bij) são iguais se m = r, n = s e
aij = bij para todo i, j.
6 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
Exemplo 1.2.2. As matrizes A =
 32 cos(0) log2(1)
2 23 (
√
5)2
 e B =
 9 1 0
2 8 5
 são
iguais.
Definição 1.2.1. Tipos de matrizes:
1. Uma matriz Am×n é dita quadrada quando o seu número de linhas é igual ao seu
número de colunas, isto é, m = n.
A diagonal principal de uma matriz quadrada A é a diagonal que contém os
elementos da forma aii.
2. Uma matriz Am×n = (aij) é dita nula se aij = 0 para todo i = 1, 2, . . . ,m e
j = 1, 2, . . . , n.
Quando não houver dúvidas sobre a ordem da matriz nula, a denotaremos simples-
mente por 0.
3. Uma matriz Am×n = (aij) é dita matriz-coluna quando n = 1, isto é, possui uma
única coluna.
4. Uma matriz Am×n = (aij) é dita matriz-linha quando m = 1, isto é, possui uma
única linha.
5. Uma matriz quadrada Am×m = (aij) é dita diagonal se aij = 0 para todo i 6= j.
6. A matriz quadrada Am×m = (aij) cujo todo elemento da diagonal principal é igual
a 1 é chamada identidade ou matriz unidade, a qual denotamos por Im, ou
simplesmente por I.
7. Uma matriz quadrada Am×m = (aij) é dita triangular superior se aij = 0 para
todo i > j, ou seja, todos os elementos abaixo da diagonal principal são nulos.
8. Uma matriz quadrada Am×m = (aij) é dita triangular inferior se aij = 0 para
todo i < j, ou seja, todos os elementos acima da diagonal principal são nulos.
9. Dada uma matriz Am×n = (aij), real ou complexa, definimos:
(a) A matriz n×m At = (bij) cujas linhas são as colunas de A, ou seja, bij = aji
para todo i = 1, 2, . . . ,m e j = 1, 2, . . . , n. At é chamada matriz transposta
de A.
1.2. MATRIZES E SUAS OPERAÇÕES 7
(b) A matriz n ×m A∗ = At, onde a barra representa a conjugação complexa, ou
seja, se A = (aij) então A∗ = (bij) com bij = aji para todo i = 1, 2, . . . ,m e
j = 1, 2, . . . , n. A∗ é chamada matriz transposta Hermitiana de A.
10. Uma matriz quadrada Am×m = (aij), real ou complexa, é dita simétrica se At = A,
ou seja, se aji = aij para todo i, j = 1, 2, . . . ,m.
11. Uma matriz quadrada Am×m = (aij), real ou complexa, é dita anti-simétrica se
At = −A, ou seja, se aji = −aij para todo i, j = 1, 2, . . . ,m.
12. Uma matriz complexa quadrada Am×m = (aij) é dita Hermitiana se A∗ = A, ou
seja, se aji = aij para todo i, j = 1, 2, . . . ,m.
13. Uma matriz complexa quadrada Am×m = (aij) é dita anti-Hermitiana se A∗ =
−A, ou seja, se aji = −aij para todo i, j = 1, 2, . . . ,m.
Exemplo 1.2.3. 1. A =
 2 i
−i 0
 e B =

1 −2 0
3 0 i
i 5 6
são matrizes quadradas.
2. A2×1 =
 0
0
, B1×3 = ( 0 0 0 ), C2×2 =
 0 0
0 0
 e D3×4 =

0 0 0 0
0 0 0 0
0 0 0 0

são matrizes nulas.
3.
 1
i
 e

a
b
c
 são matrizes-coluna.
4.
(
1 i
)
e
(
a b c
)
são matrizes-linha.
5. A =
 0 0
0 0
, B =
 i 0
0 1
, C =

1 0 0
0 2 0
0 0 3
 são matrizes diagonais.
6. I2 =
 1 0
0 1
 e I3 =

1 0 0
0 1 0
0 0 1
 são matrizes identidade.
8 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
7. A =
 1 2
0 3
 e B =

a b 0
0 c d
0 0 e
 são matrizes triangulares superiores.
8. A =
 1 0
2 3
 e B =

a 0 0
b c 0
0 d e
 são matrizes triangulares inferiores.
9. Para A =

2 −i
0 3
−1 + i 4
 temos At =
 2 0 −1 + i
−i 3 4
 e A∗ =
 2 0 −1− i
i 3 4
.
Em particular, vemos que, em geral, At 6= A∗.
10. A =
 1 0
0 2
 e B =

4 3 −i
3 2 0
−i 0 5
 e C =

a b c d
b e f g
c f h i
d g i j

são matrizes simétri-
cas.
11. A =
 0 −1
1 0
 e B =

0 2− i −3
−2 + i 0 i
3 −i 0
 são matrizes anti-simétricas.
12. A =

1 1− i 2
1 + i 3 i
2 −i 0
 é uma matriz Hermitiana.
13. A =

i 1− i 2
−1− i 3i i
−2 i 0
 é uma matriz anti-Hermitiana.
Observação 1.2.1. 1. Os elementos da diagonal principal de uma matriz anti-simétrica
são todos nulos.
2. Os elementos da diagonal principal de uma matriz Hermitiana são todos reais.
3. Os elementos da diagonal principal de uma matriz anti-Hermitiana são ou nulos ou
imaginários puros.
1.2. MATRIZES E SUAS OPERAÇÕES 9
Demonstração. 1. Se A = (aij) é uma matriz anti-simétrica então aji = −aij para todo
i, j. Em particular, aii = −aii para todo i, portanto 2aii = 0 para todo i, e logo
aii = 0 para todo i, ou seja, os elementos da diagonal principal de A são todos nulos.
2. Exercício.
3. Exercício.
Proposição 1.2.1. Dada uma matriz qualquer A, valem as seguintes propriedades:
1. (At)t = A; 2. (A∗)∗ = A.
Demonstração. 1. Se A = (aij) então At = (aji), e portanto (At)t = (aji)t = (aij) = A.
2. Exercício.
Operações entre matrizes
A adição de duas matrizes de mesma ordem m× n A = (aij) e B = (bij) é a matriz
de ordem m× n cujos elementos são somas dos elementos correspondentes, ou seja
A+B = (aij + bij).
Exemplo 1.2.4. Para as matrizes A =
 1 3 5
2 4 6
 e B =
 1 0 1
0 1 1
 temos
A+B =
 1 + 1 3 + 0 5 + 1
2 + 0 4 + 1 6 + 1
 =
 2 3 6
2 5 7
 .
A diferença de duas matrizes de mesma ordem é definida de maneira análoga à soma.
A multiplicação de um número α por uma matriz A = (aij) é definida por
α.A = (α.aij).
Exemplo 1.2.5. Para a unidade imaginária i e a matriz A =
 1 i
i −3
 temos
i.A = i
 1 i
i −3
 =
 i −1
−1 −3i
 .
10 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
Dadas as matrizes de A = (aij) de ordem m×n e B = (brs) de ordem n×p, definimos
a multiplicação A.B como a matriz de ordem m× p definida por
A.B = (cuv),
onde
cuv =
n∑
k=1
aukbkv = au1b1v + au2b2v + · · ·+ aunbnv,
para u = 1, . . . ,m e v = 1, . . . , p.

c11 c12 . . . c1p
c21 c22 . . . c2p
... ... . . . ...
cm1 cm2 . . . cmp

=

a11 a12 . . . a1n
a21 a22 . . . a2n
... ... . . . ...
am1 am2 . . . amn

.

b11 b12 . . . b1p
b21 b22 . . . b2p
... ... . . . ...
bn1 bn2 . . . bnp

Exemplo 1.2.6. Para as matrizes A =

2 1
4 2i
5 3
 e B =
 1 −1
0 4i
 temos
A.B =

2.1 + 1.0 2.(−1) + 1.(4i)
4.1 + (2i).0 4.(−1) + (2i).(4i)
5.1 + 3.0 5.(−1) + 3.(4i)
 =

2 −2 + 4i
4 −12
5 −5 + 12i
 .
Neste caso, não faz sentido considerar a multiplicação B.A.
Observação 1.2.2. 1. A multiplicação de matrizes, em geral, não é comutativa.
Por exemplo, para as matrizes A =
 1 1
−1 0
 e B =
 0 3
0 5
 tem-se
A.B =
 0 8
0 −3
 e B.A =
 −3 0
−5 0
 .
2. Pode ocorrer A.B = 0 sem que A e B sejam nulas.
Por exemplo, as matrizes A =
 9 0
0 0
 e B =
 0 0
0 8
 são não-nulas, e tem-se
A.B =
 0 0
0 0
.
1.2. MATRIZES E SUAS OPERAÇÕES 11
Proposição 1.2.2. Sejam A, B e C matrizes de ordens adequadas, 0 a matriz nula, I a
matriz identidade e números α, β ∈ C. Então valem as seguintes propriedades:
1. A+B = B + A.
2. A+ (B + C) = (A+B) + C.
3. A+ 0 = A.
4. (A+B)t = At +Bt.
5. 0.A = 0.
6. α.(A+B) = α.A+ α.B.
7. (α + β).A = α.A+ β.A.
8. α.(β.A) = (α.β).A.
9. (α.A)t = α.At e (α.A)∗ = α.A∗.
10. A.I = A e I.A = A.
11. A.(B + C) = A.B + A.C.
12. (A+B).C = A.C +B.C.
13. A.(B.C) = (A.B).C.
14. (A.B)t = Bt.At e (A.B)∗ = B∗.A∗.
Demonstração. Exercício.
Exercícios
1. Determine as matrizes A = (aij) e B = (bij), de ordem 5, onde
aij =

1, se |i− j| > 1
−1, se |i− j| ≤ 1
e bij =

1, se |i− j| < 2
0, se |i− j| ≥ 2
.
2. Dadas as matrizes
A =
 a+ 2b 2a− b
2c+ d c− 2d
 e B =
 9 −2
4 7
 ,
existem números a, b, c, d tais que A = B?
12 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
3. Determine todas as matrizes X tais que Y X = 0, onde
X =

a
b
c
 e Y =
(
1 1 −1
)
.
4. Dadas as matrizes
A(t) =
 cos(t) − sen(t)
sen(t) cos(t)
 , X =
 1
1
 e Y =
 −1
1
 ,
existem números t tais que A(t).X = Y ?
Agora, para uma matriz-coluna arbitrária X =
 x
y
, determine os produtos
A(π/4).X e A(−π/2).X
Com base nos resultados encontrados acima, para cada t ∈ R fixo, qual será o
significado geométrico de multiplicar a matriz A(t) à esquerda por uma matriz
coluna?
5. Dadas as matrizes
A =
 −2 3
2 −3
 , B =
 −1 3
2 0
 e C =
 −4 −3
0 −4
 ,
verifique que AB = AC. Esse exercício mostra que, em geral, não vale a lei do
cancelamento para o produto de matrizes.
6. Dada a matriz A =
 2 1
1 2
, determine, se possível, as matrizes B, de ordem 2,
tais que AB −BA = 0.
7. Verdadeiro ou falso? Prove quando a afirmação for verdadeira, e justifique ou apre-
sente um contra-exemplo, quando for falsa.
(a) Se AB = 0 então A = 0 ou B = 0;
(b) (aA)(bB) = (ab)AB;
(c) Se AB = 0 então BA = 0;
(d) (−A)t = −(At);
1.3. MATRIZES INVERSÍVEIS 13
(e) (A+B)t = Bt + At;
(f) Se A e B são matrizes simétricas, então AB = BA;
8. Mostre que as matrizes
A =
 1 −1
2 −1
 e B =
 1 1
4 −1

são anti-comutativas (isto é, AB = −BA). Conclua que vale a relação (A+B)2 =
A2 +B2.
9. Sejam A e B matrizes de ordem n. Qual a condição para que
(A+B)(A−B) = A2 −B2
e
(A+B)2 = A2 + 2AB +B2?
10. Para t ∈ R fixado, consideremos a matriz A =
 cos(t) − sen(t)
sen(t) cos(t)
.
(a) Determine A2 e A3;
(b) Descreva, se possível, uma expressão para Ak com k ∈ N (Dica: Simplifique
utilizando uma identidade trigonométrica).
11. Para uma matriz complexa quadrada, ser Hermitiana é o mesmo que ser simétrica?
Pense em exemplos!
12. Sejam A e B matrizes quadradas de ordem n. Se A é Hermitiana então B∗AB
também o é.
1.3 Matrizes inversíveis
Definição 1.3.1. Seja A uma matriz quadrada de ordem m×m.
Dizemos que A possui uma inversa à esquerda se existir uma matriz B, de mesma
ordem, tal que B.A = Im.
Dizemos que A possui uma inversa à direita se existir uma matriz C, de mesma
ordem, tal que A.C = Im.
14 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
Dizemos que A é inversível quando possuir uma inversa à esquerda e uma inversa
à direita.
Lema 1.3.1. Se A possuir uma inversa à esquerda B e uma inversa à direita C, então
B = C.
Demonstração. Por hipótese, temos B.A = Im e A.C = Im, portanto
B = B.Im = B.(A.C) = (B.A).C = Im.C = C.
Com o raciocínio acima mostra-se que, se A é inversível então a sua inversa é única, e
a denotaremos por A−1.
Exemplo 1.3.1. A matriz B =
 3 −5
−1 2
 é a matriz inversa de A =
 2 5
1 3
.
Verifique!
Observação 1.3.1. Nem toda matriz é inversível!
Vejamos, por exemplo, que A =
 0 2
0 1
 não possui uma inversa.
De fato, suponhamos que existauma matriz B =
 a b
c d
 tal que
 1 0
0 1
 =
 0 2
0 1
 .
 a b
c d
 =
 2c 2d
c d
 ,
portanto c = 12 , d = 0, c = 0 e d = 1, o que é uma contradição! Logo, não existe uma tal
matriz B.
Proposição 1.3.1. Sejam A e B duas matrizes quadradas de ordem m.
1. Se A é uma matriz inversível, então A−1 também o é, e (A−1)−1 = A.
2. Se A e B são matrizes inversíveis, então a matriz multiplicação A.B também o é,
e (A.B)−1 = B−1.A−1.
Demonstração. 1. Segue diretamente da definição de inversibilidade de uma matriz.
1.3. MATRIZES INVERSÍVEIS 15
2. Sejam A e B são matrizes inversíveis. Para verificar que a matriz produto A.B
possui inversa, e a inversa é B−1.A−1, basta verificar que, ao multiplicar esta à
esquerda e depois à direita pela matriz A.B obtemos a matriz identidade.
Temos
(A.B).(B−1.A−1) = A.(B.B−1).A−1 = A.I.A−1 = A.A−1 = I
e
(B−1.A−1).(A.B) = B−1.(A−1.A).B = B−1.I.B = B−1.B = I.
Corolário 1.3.1. A multiplicação de um número finito de matrizes inversíveis é também
uma matriz inversível.
Agora, como saber se uma matriz quadrada possui ou não uma matriz inversa? E, em
caso afirmativo, como será possível encontrar a tal matriz inversa? Nas próximas seções
veremos como responder a essas perguntas.
Exercícios
1. Determine a inversa da matriz A =
 1 3
2 8
.
2. Considere a matriz A =
 a b
c d
, com ad− bc 6= 0. Mostre que
A−1 = 1
ad− bc
 d −b
−c a
 .
3. Verdadeiro ou falso? Prove quando a afirmação for verdadeira, e justifique ou apre-
sente um contra-exemplo, quando for falsa.
(a) Se A é uma matriz inversível, então (A−1)t = (At)−1;
(b) Se A é uma matriz de ordem 3 triangular superior inversível, então A−1 também
é uma matriz triangular superior.
16 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
1.4 Sistemas lineares
Um sistema linear com m equações e n incógnitas é um conjunto de equações
da forma:
(S)

a11x1 + a12x2 + · · ·+ a1nxn = b1
a21x1 + a22x2 + · · ·+ a2nxn = b2
...
am1x1 + am2x2 + · · ·+ amnxn = bm
,
onde aij, bj são números fixados em um conjunto numérico (em geral, o conjunto dos
números reais ou o conjunto dos números complexos), para todo i, j.
Quando os números b1, b2, . . . , bm são todos nulos, dizemos que o sistema linear é
homogêneo.
Uma solução de um sistema linear (S) é uma n-upla (ou seja, um vetor de n
coordenadas) de números (x1, x2, . . . , xn) que satisfazem a todas as m equações simulta-
neamente. O conjunto-solução de um sistema linear (S) consiste de todas as soluções
do sistema.
Exemplo 1.4.1. {(0, 0)} é o conjunto-solução do sistema linear

x1 + x2 = 0
x1 − x2 = 0
.
Dois sistemas de equações lineares são ditos equivalentes quando eles possuem o
mesmo conjunto-solução.
Podemos reescrever um sistema linear (S) como a equação matricial
A.X = B,
onde
A =

a11 a12 . . . a1n
a21 a22 . . . a2n
... ... . . . ...
am1 am2 . . . amn

, X =

x1
x2
...
xn

e B =

b1
b2
...
bm

.
1.5. OPERAÇÕES ELEMENTARES 17
Além disso, a um sistema linear (S), ou à equação matricial correspondente, associa-
mos a seguinte matriz de ordem m× (n+ 1)
a11 a12 . . . a1n b1
a21 a22 . . . a2n b2
... ... . . . ... ...
am1 am2 . . . amn bm

a qual denominamos matriz aumentada (ou ampliada) do sistema, e a denotamos por
(A|B).
Um sistema linear (S) pode ser classificado de uma das seguintes maneiras:
• Sistema possível e determinado, se possuir uma única solução;
• Sistema possível e indeterminado, se possuir infinitas soluções;
• Sistema impossível, se não possuir solução.
Na próxima seção veremos como determinar,quando possível, de maneira algorítmica,
o conjunto-solução de um sistema de equações lineares.
1.5 Operações elementares
Dada uma matriz Am×n, para cada i = 1, 2, . . . ,m, denotemos por Li a i-ésima linha
de A. Consideremos as operações elementares sobre as linhas de A da seguinte
forma:
1. Multiplicação da linha Li por um número não-nulo c: Li −→ c.Li;
2. Substituição de Li por Li + c.Lj (j 6= i e c não-nulo): Li −→ Li + c.Lj;
3. Permutação de linhas: Li ←→ Lj.
Diremos que duas matrizes A e B, de ordem m × n, são linha-equivalentes (ou
equivalentes por linhas) quando B puder ser obtida de A através de um número finito
de operações elementares sobre as linhas.
Exemplo 1.5.1. As matrizes

1 0
2 1
−2 3
 e

1 0
0 1
0 0
 são linha-equivalentes.
18 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
De fato, 
1 0
2 1
−2 3
 −→

1 0
0 1
−2 3
 −→

1 0
0 1
0 3
 −→

1 0
0 1
0 0
 .
Adicionalmente, ao considerar os sistemas lineares homogêneos correspondentes:
x1 = 0
2x1 + x2 = 0
−2x1 + 3x2 = 0
e

x1 = 0
x2 = 0
,
observamos que ambos têm o mesmo conjunto-solução, a saber {(0, 0)}.
Como veremos em seguida, o fato ocorrido no exemplo anterior vale em geral. Ou seja,
ao efetuar operações elementares em uma matriz, visando obter uma matriz mais simples
(em um sentido que ficará claro em breve), o conjunto-solução dos sistemas linearaes
homogêneos associados às matrizes será o mesmo.
Teorema 1.5.1. Sejam A e B duas matrizes m×n linha-equivalentes. Então os sistemas
lineares homogêneos A.X = 0 e B.X = 0 possuem as mesmas soluções.
Demonstração. Dar a ideia da prova em aula.
Exemplo 1.5.2. Determine o conjunto-solução real do sistema linear homogêneo
(S)

2x1 − x2 + 3x3 + 2x4 = 0
x1 + 4x2 − x4 = 0
2x1 + 6x2 − x3 + 5x4 = 0
.
A estratégia será, utilizando o teorema anterior, efetuar uma sequência finita de ope-
rações elementares nas linhas da matriz dos coeficientes de modo que a matriz resultante
corresponda a um sistema linear homogêneo de fácil resolução.
A matriz dos coeficientes associada ao sistema linear homogêneo (S) é

2 −1 3 2
1 4 0 −1
2 6 −1 5
.
Afirmamos que as matrizes

2 −1 3 2
1 4 0 −1
2 6 −1 5
 e

1 0 0 17/3
0 1 0 −5/3
0 0 1 −11/3
 são linha-
equivalentes.
1.5. OPERAÇÕES ELEMENTARES 19
De fato,
2 −1 3 2
1 4 0 −1
2 6 −1 5
 −→

0 −9 3 4
1 4 0 −1
2 6 −1 5
 −→

0 −9 3 4
1 4 0 −1
0 −2 −1 7
 −→

0 −9 3 4
1 4 0 −1
0 1 1/2 −7/2
 −→

0 −9 3 4
1 0 −2 13
0 1 1/2 −7/2
 −→

0 0 15/2 −55/2
1 0 −2 13
0 1 1/2 −7/2
 −→

0 0 1 −11/3
1 0 −2 13
0 1 1/2 −7/2
 −→

0 0 1 −11/3
1 0 0 17/3
0 1 1/2 −7/2
 −→

0 0 1 −11/3
1 0 0 17/3
0 1 0 −5/3
 −→

1 0 0 17/3
0 0 1 −11/3
0 1 0 −5/3
 −→

1 0 0 17/3
0 1 0 −5/3
0 0 1 −11/3

Agora o sistema linear homogêneo correspondente à matriz

1 0 0 17/3
0 1 0 −5/3
0 0 1 −11/3
 é
(S ′)

x1 + 173 x4 = 0
x2 − 53x4 = 0
x3 +−113 x4 = 0
,
cujo conjunto-solução é:{(
−173 α,
5
3α,−
11
3 α, α
)
;α ∈ R
}
=
{
α.
(
−173 ,
5
3 ,−
11
3 , 1
)
;α ∈ R
}
.
Logo, pelo Teorema 1.5.1, os sistemas lineares homogêneos (S) e (S ′) possuem o mesmo
o conjunto-solução.
Definição 1.5.1. Uma matriz R de ordem m × n é dita linha-reduzida à forma
escada (ou escalonada) quando satisfaz simultaneamente as quatro condições abaixo:
1. O primeiro elemento não-nulo em cada linha não-nula da matriz R é igual a 1;
2. Cada coluna da matriz R que contém o primeiro elemento não-nulo de alguma linha
têm todos os seus outros elementos nulos;
20 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
3. Toda linha nula da matriz R ocorre abaixo de todas as linhas não-nulas;
4. Se as linhas 1, 2, . . . , r são as linhas não-nulas da matriz R, e se o primeiro elemento
não-nulo da linha i ocorrer na coluna ki, para i = 1, 2, . . . , r, então k1 < k2 < · · · <
kr.
Exemplo 1.5.3. As matrizes abaixo são linha-reduzidas à forma escada:
1. Matriz nula;
2. Matriz identidade;
3.

1 0
0 1
0 0
;
4.
1 2 0 0
0 0 1 0
0 0 0 1
;
5.

0 1 −3 0 1
0 0 0 1 2
0 0 0 0 0

Exemplo 1.5.4. As matrizes abaixo não são linha-reduzidas à forma escada:
1.

0 2 1
1 0 −3
0 0 0
; 2.

1 0 0 0
0 1 −1 0
0 0 1 0
; 3.

0 1 −3 0 1
0 0 0 0 0
0 0 0 −2 1

Teorema 1.5.2. Toda matriz A de ordem m×n é linha-equivalente a uma matriz linha-
reduzida à forma escada.
Demonstração. Vamos começar mostrando que a matriz A é linha-equivalente a uma
matriz satisfazendo as duas primeiras condições da definição de matriz linha-reduzida à
forma escada.
Se todo elemento na primeira linha da matriz A é nulo, não há o que fazer. Senão,
se L1 tem um elemento não-nulo, seja a1k1 o seu primeiro (da esquerda para a direita)
elemento não-nulo, e apliquemos a A a operação elementar L1 −→ 1a1k1 .L1.

0 . . . 0 a1k1 . . . a1n
a21 . . . . . . a2k1 . . . a2n
... ... ... ... ... ...
am1 . . . . . . amk1 . . . amn

−→

0 . . . 0 1 . . . a1n
a1k1
a21 . . . . . . a2k1 . . . a2n
... ... ... ... ... ...
am1 . . . . . . amk1 . . . amn

1.5. OPERAÇÕES ELEMENTARES 21
Para anular todos os outros elementos da coluna k1, efetuemos, para cada i = 2, 3, . . . ,m,
a operação elementar Li −→ Li − aik1L1.
0 . . . 0 1 . . . a1n
a1k1
a21 . . . . . . a2k1 . . . a2n
... ... ... ... ... ...
am1 . . . . . . amk1 . . . amn

−→

0 . . . 0 1 . . . a1n
a1k1
a21 . . . . . . 0 . . . a2n − a2k1 .a1n1k1
... ... ... ... . . . ...
am1 . . . . . . 0 . . . amn − amk1 .a1n1k1

Vamos a próxima linha. Se todo elemento de L2 for nulo, não há o que fazer. Senão,
seja a2k2 o seu primeiro (da esquerda para a direita) elemento não-nulo, e apliquemos a
A a operação elementar L2 −→ 1a2k2 .L2. Em seguida, para i = 1, 3, 4, . . . ,m, apliquemos
à A a operação elementar Li −→ Li − aik2L2. Assim, o elemento a2k2 passará a ser 1, e
todo outro elemento da coluna k2 passará a ser nulo.
Repetindo esse processo até a última linha, obtemos uma matriz satisfazendo as pro-
priedades (1) e (2) da definição de matriz linha-reduzida à forma escada.
Agora, efetuando uma série de permutações entre linhas, passará a satisfazer também
as propriedades (3) e (4).
Observação 1.5.1. Seja R uma matriz de ordem m× n linha-reduzida à forma escada.
Se o número r de linhas não-nulas da matriz R é menor do que n, então o sistemas linha
homogêneo correspondente R.X = 0 possui uma solução (e portanto infinitas) não-trivial.
Para simplificar o entendimento do que ocorre no caso geral, vejamos inicialmente o
exemplo da matriz R =

0 1 −3 0 1
0 0 0 1 2
0 0 0 0 0
, a qual é linha-reduzida à forma escada e
o número de linhas não-nulas é menor do que o número de colunas, e corresponde ao
sistema linear homogêneo 
x2 − 3x3 + x5 = 0
x4 + 2x5 = 0
.
Para cada α, β, γ ∈ R, se x1 = α, x3 = β e x5 = γ então x2 = 3β − γ e x4 = −2γ,
portanto o conjunto-solução do sistema é:
{(α, 3β − γ, β,−2γ, γ) ;α, β, γ ∈ R} .
22 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
Teorema 1.5.3. Um sistema linear homogêneo com mais incógnitas do que equações
sempre possui solução não-trivial (e portanto infinitas). Precisamente, se A é uma matriz
de ordem m× n com m < n, então o sistema linear homogêneo correspondente A.X = 0
possui uma solução não-trivial.
Demonstração. Seja R uma matriz linha-reduzida à forma escada linha-equivalente a ma-
triz A.
Se r é o número de linhas não-nulas de R, então r ≤ m < n, portanto, pela observação
acima, o sistema linear R.X = 0 possui uma solução não-trivial, digamos (x1, x2, . . . , xn)
com xj 6= 0, para pelo menos um j = 1, 2, . . . , n. Por outro lado, pelo Teorema 1.5.1,
os sistemas lineares A.X = 0 e R.X = 0 possuem as mesmas soluções, em particular,
(x1, x2, . . . , xn) é uma solução não-trivial do sistema linear A.X = 0.
Teorema 1.5.4. Seja A uma matriz quadrada de ordem m × m. Então a matriz A é
linha-equivalente a matriz Im se, e somente se, o sistema linear homogêneo correspondente
A.X = 0 possui apenas a solução trivial.
Demonstração. Suponhamos que a matriz A seja linha-equivalente à matriz identidade
Im. Então, pelo Teorema 1.5.1, os sistemas lineares homogêneos A.X = 0 e Im.X = 0
possuem o mesmo conjunto-solução, a saber apenas a solução trivial.
Reciprocamente, suponhamos que o sistema linear A.X = 0 possua apenas a solução
trivial.
Seja R uma matriz quadrada de ordem m linha-reduzida à forma escada, linha-
equivalente à matriz A, e seja r o número de linhas não-nulas de R. Vejamos que r = m.
Como a matriz R possui m linhas, temos r ≤ m.
Por outro lado, como R.X = 0 possui apenas a solução trivial (ocntrapositiva do
teorema anterior), tem-se r ≥ m. Logo r = m e, pela definição de matriz linha-reduzida
à forma escada, R = Im.
A seguir veremos como resolver, quando possível, um sistema linear não-homogêneo
A.X = Y , para matrizes A de ordem m × n e Y de ordem m × 1, utilizando operações
elementares sobre as linhas da matriz aumentada (A|Y ).
Seja R uma matriz m × n linha-reduzida à forma escada, linha-equivalente à matriz
A, e seja Z a matriz m × 1 obtida da matriz Y atráves das mesmas operações elemen-
tares aplicadas à matriz A para obter a matriz R. Analogamente a demonstração do
1.5. OPERAÇÕES ELEMENTARES 23
Teorema 1.5.1 mostra-se que os sistemas lineares não-homogêneos A.X = Y e R.X = Z
possuem o mesmo conjunto-solução.
Para a conveniência do leitor, vejamos isto no seguinte exemplo concreto. Escrever
um simples mas instrutivo!
Exemplo 1.5.5. Consideremos o sistema linear não-homogêneo
x1 − 2x2 + x3 = a
2x1 + x2 + x3 = b
5x2 − x3 = c
,
onde a, b, c ∈ K são constantes fixadas. Este sistema linear sempre possui solução? Senão,
quando possível, descreva o conjunto-solução (em termos das constantes a, b e c).
Para responder a pergunta vamos efetuar operações elementares à matriz aumentada
deste sistema linear:

1 −2 1 a
2 1 1 b
0 5 −1 c
.

1 −2 1 a
2 1 1 b
0 5 −1 c
 −→

1 −2 1 a
0 5 −1 b− 2a
0 5 −1 c
 −→

1 −2 1 a
0 5 −1 b− 2a
0 0 0 c− b+ 2a
 −→

1 −2 1 a
0 1 −1/5 (b− 2a)/5
0 0 0 c− b+ 2a
 −→

1 0 3/5 (a+ 2b)/5
0 1 −1/5 (b− 2a)/5
0 0 0 c− b+ 2a
 ,
cujo sistema linear não-homogêneo correspondente é
x1 + 35x3 =
a+2b
5
x2 − 15x3 =
b−2a
5
0 = c− b+ 2a
,
e este é um sistema possível se, e somente se, 2a− b+ c = 0.
Para valores fixados a, b, c ∈ K satisfazendo 2a − b + c = 0, pondo x3 = γ tem-se
x1 =
−3γ + a+ 2b
5 e x2 =
γ + b− 2a
5 , portanto o conjunto-solução do sistema linear
original é: {(
−3γ + a+ 2b
5 ,
γ + b− 2a
5 , γ
)
; γ ∈ K
}
.
24 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
Exercícios
1. Descreva todas as possíveis matrizes de ordem 2, que são linha-reduzidas à forma
escada.
2. Sabemos que toda matriz é linha-equivalente a uma (única) matriz na forma escada
reduzida por linhas. Para cada uma das matrizes abaixo, encontre a forma escada
reduzida por linhas:
(a) A =

1 −2 3 −1
2 −1 2 3
3 1 2 3
;
(b) B =

0 1 3 −2
2 1 −4 3
2 3 2 −1
;
(c) C =

2 0 i
1 −3 −i
i 1 1
.
1.6 Matrizes inversíveis: revisitado
Teorema 1.6.1. Para uma matriz A quadrada de ordem m são equivalentes as seguintes
afirmações:
1. A é uma matriz inversível;
2. A é linha-equivalente à matriz identidade Im;
3. O sistema linear homogêneo A.X = 0 possui apenas a solução trivial;
4. Para cada matriz Y de ordem m × 1, o sistema linear não-homogêneo A.X = Y
possui solução única.
Demonstração. (1←→ 2) SejaR uma matriz linha-reduzida à forma escada linha-equivalente
à A. Então podemos escrever R = P.A, sendo P um produto de matrizes inversíveis, uma
para cada operação elementar: P = Ek . . . E1, onde, para cada i, Ei é a matriz obtida de
Im pela i-ésima operação elementar feita em A para obter R. Portanto a matriz P é in-
versível (Para maioresdetalhes, veja a demonstração do Teorema 9 em Hoffman/Kunze).
Assim, A é inversível se, e somente se, R é inversível. Agora, sendo R inversível e linha-
reduzida à forma escada, necessariamente R = Im.
1.6. MATRIZES INVERSÍVEIS: REVISITADO 25
(2 −→ 3) Conteúdo do Teorema ??, provado anteriormente.
(1 −→ 4) Como A é inversível temos A.A−1 = A−1.A = Im. Então, multiplicando à
esquerda por A−1 ambos os membros da igualdade A.X = Y , obtemos
X = Im.X = (A−1.A).X = A−1.(A.X) = A−1.Y,
a solução procurada do sistema linear não-homogêneo.
(4 −→ 1) Suponhamos que, para cada matriz Y , o sistema linear não-homogêneo
A.X = Y possui uma solução.
Seja R uma matriz linha-reduzida à forma escada, linha-equivalente à A. Vamos
mostrar que R = Im. Para isso, basta mostrar que que a última linha de R é não-nula já
que, estando na forma escada, todas as linhas anteriores também serão não-nulas.
Como vimos acima, podemos escrever R = P.A, onde P é uma matriz inversível.
Consideremos a matriz E =

0
...
0
1

. Notemos que o sistema linear não-homogêneo
R.X = E possui solução se, e somente se, a última linha da matriz R for não-nula. Mas
os sistemas lineares R.X = E e A.X = P−1.E são equivalentes (Por quê?), e este último
possui solução por hipótese, logo temos o desejado.
Corolário 1.6.1. Se A é uma matriz de ordem m × m inversível, uma sequência de
operações elementares sobre linhas reduz A a Im, então a mesma sequência de operações
elementares aplicada à Im produz A−1.
Demonstração. Exercício.
Exemplo 1.6.1. Verifique que a matriz A

1 0 2
2 −1 3
4 1 8
 é inversível, e determine a sua
inversa.
Vejamos que a matriz A é inversível verificando que esta é linha-equivalente à I3.

1 0 2
2 −1 3
4 1 8
 −→

1 0 2
0 −1 −1
0 1 0
 −→

1 0 2
0 1 0
0 −1 −1
 −→
26 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

1 0 2
0 1 0
0 0 −1
 −→

1 0 2
0 1 0
0 0 1
 −→

1 0 0
0 1 0
0 0 1
 .
Agora vamos determinar a matriz A−1.

1 0 0
0 1 0
0 0 1
 −→

1 0 0
−2 1 0
−4 0 1
 −→

1 0 0
−4 0 1
−2 1 0
 −→

1 0 0
−4 0 1
−6 1 1
 −→

1 0 0
−4 0 1
6 −1 −1
 −→

−11 2 2
−4 0 1
6 −1 −1
 .
Corolário 1.6.2. Uma matriz quadrada que possui inversa à esquerda ou que possui
inversa à direita, é inversível.
Demonstração. Seja A uma matriz quadrada de ordem m.
Suponhamos que A possui inversa à esquerda. Então existe uma matriz B de mesma
ordem tal que B.A = Im, e portanto o sistema linear homogêneo A.X = 0 possui apenas
a solução trivial.
De fato, se X é uma solução do sistema A.X = 0 então
X = Im.X = (B.A).X = B.(A.X) = B.0 = 0.
Logo, pelo Teorema ??, A é uma matriz inversível.
Suponhamos agora que A possui inversa à direita, ou seja, existe uma matriz C,
de ordem m tal que A.C = Im. Em particular, C possui A como inversa à esquerda,
portanto, pelo exposto acima, C é inversível e C−1 = A. Logo, A é uma matriz inversível
com A−1 = (C−1)−1 = C.
Corolário 1.6.3. Sejam A1, . . . , Ak matrizes quadradas de ordem m, e A = A1. . . . .Ak.
Então a matriz A é inversível se, e somente se, cada matriz Ai é inversível.
Demonstração. Exercício para k = 2. Generalize!
Exercícios
1.7. DETERMINANTE 27
1. Prove que
 2 −1
1 3
 é uma matriz inversível (sem usar determinantes!).
2. Consideremos a matriz inversívelA =

a b c
d e f
g h i
 cuja inversa éA−1 =

2 0 0
0 3 0
−1 0 5
.
Determine, se possível, o conjunto-solução do sistema linear
ax+ by + cz = 2
dx+ ey + fz = 1
gx+ hy + iz = 0
.
1.7 Determinante
Motivação para a definição de determinante
Recordemos que o determinante de uma matriz de ordem 2
 a11 a12
a21 a22
 é definido
por a11.a22 − a12.a21.
O determinante de uma matriz de ordem 3 A =

a11 a12 a13
a21 a22 a23
a31 a32 a33
 é definido por
detA = a11a22a33 + a12a23a31 + a13a21a32 − a31a22a13
− a32a23a11 − a33a21a12
= a11(a22a33 − a23a32)− a12(a21a33 − a23a31)
+ a13(a21a32 − a22a31)
= a11(−1)1+1 det
 a22 a23
a32 a33
+ a12(−1)1+2 det
 a21 a23
a31 a33

+ a13(−1)1+3 det
 a21 a22
a31 a32
 .
Definição 1.7.1. Dada uma matriz quadrada de ordem m A = (aij), denotemos por Aij
a matriz de ordem m − 1 obtida de A omitindo-se a sua i-ésima linha e a sua j-ésima
coluna. Definimos o cofator de A na linha i e coluna j por
∆ij = (−1)i+j detAij.
28 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
Definimos o determinante de A recursivamente por
detA =
m∑
j=1
a1j∆1j = a11∆11 + a12∆12 + · · ·+ a1m∆1m.
Exemplo 1.7.1. Verifique que det

0 1 1 −1
3 0 1 0
1 −1 0 −2
2 −1 −1 1

= 6.
Proposição 1.7.1. (Propriedades do determinante): O determinante de uma matriz qua-
drada satisfaz as seguintes propriedades:
1. detAt = detA;
2. Se a matriz B é obtida da matriz A por meio da operação elementar Li −→ k.Li,
onde k 6= 0, então detB = k. detA;
3. Se a matriz B é obtida da matriz A por meio da operação elementar Li −→ Li+k.Lj,
onde k 6= 0 e i 6= j, então detB = detA;
4. Se a matriz B é obtida da matriz A por meio da operação elementar Li ←→ Lj,
onde i 6= j, então detB = (−1). detA;
5. Se A possui uma linha (ou uma coluna) nula, então detA = 0;
6. Dadas duas matrizes A e B de mesma ordem, tem-se det(A.B) = detA. detB.
Demonstração. Exercício: demonstre todas as propridades para matrizes de ordem 2.
Exemplo 1.7.2. Utilizando as propriedades acima, calcule det

−1 2 3 0
4 2 0 0
−1 2 −3 0
2 5 3 1

.
1.7. DETERMINANTE 29
det

−1 2 3 0
4 2 0 0
−1 2 −3 0
2 5 3 1

= det

−1 2 3 0
4 2 0 0
0 0 −6 0
2 5 3 1

= (−1). det

0 0 −6 0
4 2 0 0
−1 2 3 0
2 5 3 1

= (−1).(−6) det

4 2 0
−1 2 0
2 5 1

= 60.
Teorema 1.7.1. (Laplace) Seja A = (aij) uma matriz quadrada de ordem m. Então:
1. Para cada i = 1, . . . ,m,
detA =
m∑
k=1
aik∆ik = ai1∆i1 + ai2∆i2 + · · ·+ aim∆im;
2. Para cada j = 1, . . . ,m,
detA =
m∑
k=1
akj∆kj = a1j∆1j + a2j∆2j + · · ·+ amj∆mj.
Este teorema nos permite calcular o determinante do exemplo acima diretamente,
escolhendo adequadamente uma linha ou uma coluna.
Definição 1.7.2. Seja A = (aij) uma matriz quadrada.
Definimos a matriz de cofatores de A por
cof(A) = (∆ij) = ((−1)i+j detAij).
Definimos a adjunta clássica de A por
adj(A) = (cof(A))t = (∆ji).
30 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
Exemplo 1.7.3. Para a matriz

2 1 −3
0 2 1
5 1 3
, tem-se
cof(A) = (∆ij) =

5 5 −10
−6 21 −2
−10 3 4
 ,
portanto
adj(A) = (cof(A))t = (∆ji) =

5 5 −10
−6 21 −2
−10 3 4
 ,
e det(A) = 45.
Logo, vale a seguinte relação:
A.
( 1
detA.adj(A)
)
= I3.
Teorema 1.7.2. Seja A = (aij) uma matriz quadrada de ordem m.
1. Vale a relação A.adj(A) = (detA).Im;
2. A é uma matriz inversível se, e somente se, detA 6= 0.
Demonstração. Para a parte (1), denotemos por (cij) o resultado da matriz produto
A.adj(A) =

a11 a12 . . . a1m
a21 a22 . . . a2m
... ... . . . ...
am1 am2 . . . amm

.

∆11 ∆21 . . . ∆m1
∆12 ∆22 . . . ∆m2
... ... . . . ...
∆1m ∆2m . . . ∆mm

.
Vamos mostrar que
cij =

detA, se j = i
0, se j 6= i
.
1.7. DETERMINANTE 31
De fato, para j = i, temos
cii =
(
ai1 ai2 . . . aim
)
.

∆i1
∆i2
...
∆im

= ai1∆i1 + ai2∆i2 + · · ·+ aim∆im
= detA,
onde a última igualdade segue do Teorema de Laplace (pelo desenvolvimento da i-ésima
linha).
Por outro lado, para j 6= i, temos
cij =
(
ai1 ai2 . . . aim
)
.

∆j1
∆j2
...
∆jm

= ai1∆j1 + ai2∆j2 + · · ·+ aim∆jm
= det

a11 a12 . . . a1m
... ... ...
ai1 ai2 . . . aim
... ... ...
ai1 ai2 . . . aim
... ... . . . ...
am1 am2 . . . amm

= 0,
sendo a penúltima igualdadedecorrente do Teorema de Laplace (pelo desenvolvimento da
j-ésima linha).
Logo,
A.adj(A) =

detA 0 . . . 0
0 detA . . . 0
... ... . . . ...
0 0 . . . detA

= (detA).Im.
32 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
Agora, para a parte (2), suponhamos inicialmente que a matriz A seja inversível. Então
existe uma matriz A−1, de ordem m, tal que A.A−1 = Im, portanto
1 = det Im = det(A.A−1) = detA. detA−1,
logo detA 6= 0.
Reciprocamente, se detA 6= 0, então podemos reescrever a relação da parte (1) como
A.
( 1
detA.adj(A)
)
= Im,
isto é, A possui uma inversa à direita, e portanto é inversível.
Exercícios
1. Verdadeiro ou falso? Prove quando a afirmação for verdadeira, e justifique ou apre-
sente um contra-exemplo, quando for falsa.
(a) det(A.B) = det(B.A);
(b) det(A+B) = detA+ detB;
(c) det(A∗) = detA;
(d) det(3.A) = 3. detA;
(e) det(A3) = (detA)3;
(f) Se detA = 1 então A−1 = A;
(g) Se detA 6= 0 então det(A−1) = 1detA ;
(h) O determinante de uma matriz diagonal é igual ao produto de todos os ele-
mentos da sua diagonal principal.
2. SejaD uma matriz diagonal com todos os elementos da diagonal principal não-nulos.
D é inversível? Se sim, qual é a sua inversa?
3. Mostre que o determinante de uma matriz triangular (superior ou inferior) é igual
ao produto de todos os elementos da sua diagonal principal. Comece provando para
matrizes de ordem 3 e generalize.
4. Mostre que det

1 1 1
a b c
a2 b2 c2
 = (a− b)(b− c)(c− a).
Dica: Aplique operações elementares à matriz e utilize propriedades de determinante.
1.8. EXERCÍCIOS DO CAPÍTULO 33
1.8 Exercícios do capítulo
1. Seja B uma matriz quadrada de ordem m. Mostre que:
(a) B +Bt é uma matriz simétrica;
(b) B −Bt é uma matriz anti-simétrica;
(c) Toda matriz de ordem m pode ser escrita como soma de uma matriz simétrica
com uma matriz anti-simétrica;
(d) A escrita do item anterior é única.
2. Determine a inversa da matriz A =
 cos(t) − sen(t)
sen(t) cos(t)
, para t ∈ R fixado. Uti-
lizando propriedades das funções seno e coseno, escreva A−1 em termos de (−t).
Qual o significado geométrico desta matriz?
3. Determine a inversa das matrizes abaixo:
A =

1 12
1
3
1
2
1
3
1
4
1
3
1
4
1
5
 e B =

1 1 1 1
0 1 1 1
0 0 1 1
0 0 0 1

.
4. Dada a matriz A =

2 1 −3
0 2 1
5 1 3
, determine:
(a) adj A; (b) detA; (c) A−1.
5. Mostre que a área do triângulo de vértices (x1, y1), (x2, y2) e (x3, y3) é igual a
1
2 det

x1 y1 1
x2 y2 1
x3 y3 1
 .
Dica: Sem perda de generalidade, podemos supor que os três vértices do triângulo
estão no primeiro quadrante do plano cartesiano, e que dois desses vértices estão
sob uma reta horizontal.
34 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
6. Dizemos que duas matrizes A e B, de mesma ordem, são semelhantes se existir
uma matriz inversível P tal que B = P−1AP . Mostre que:
(a) Toda matriz é sempre semelhante a ela mesma;
(b) Se A é semelhante a B então B é semelhante a A;
(c) Se A é semelhante a B e B é semelhante a C, então A é semelhante a C;
(d) Matrizes semelhantes têm o mesmo determinante.
Os itens (a), (b) e (c) mostram que a relação de semelhança entre matrizes
define uma relação de equivalência.
7. Dada uma matriz A de ordem n, considere o polinômio PA, na variável λ, definido
por
PA(λ) = det(λIn − A).
Este é chamado polinômio característico de A.
(a) Determine o polinômio característico das matrizes
A =
 1 i
i −2
 , B =
 2 4
5 3
 e C =

1 1 −1
0 1 0
1 0 1

(b) Encontre todas as raizes dos polinômios encontrados no item anterior;
(c) Seja D uma matriz diagonal com todos os elementos da diagonal principal não-
nulos. Escreva a decomposição em fatores lineares do polinômio característico
de D;
(d) Seja E uma matriz triangular (superior ou inferior) com todos os elementos da
diagonal principal não-nulos. O que pode ser dito sobre a decomposição em
fatores lineares do polinômio característico de E;
(e) Mostre que duas matrizes semelhantes têm o mesmo polinômio característico.
8. Determine o conjunto-solução de cada um dos sistemas lineares abaixo, e classifique-
os:
1.8. EXERCÍCIOS DO CAPÍTULO 35
(a)

x− 2y + z = 0
2x− 5y + z = 0
;
(b)

x− 2y + z − t = 1
2x− 3y + z + 2t = 3
3x− 9y + 6z − 15t = 5
;
(c)

x− 2y + z − t = −1
2x− 3y + z = −3
x+ 4y + 2z = 7
.
9. Determine os valores de k, para que cada um dos sistemas lineares
x+ y − z = 1
2x+ 3y + kz = 3
x+ ky + 3z = 2
e

x+ y + kz = 2
3x+ 4y + 2z = k
2x+ 3y − z = 1
,
seja:
(a) possível e determinado;
(b) possível e indeterminado;
(c) impossível.
Capítulo 2
Espaços vetoriais sobre um corpo
2.1 Espaços e subespaços vetoriais
Definição 2.1.1. Seja K um corpo. Um espaço vetorial sobre K consiste dos seguintes
dados, satisfazendo as propriedades discriminadas abaixo:
• Um conjunto V cujos elementos são chamados vetores;
• Uma operação, chamada adição de vetores, satisfazendo:
1. A adição é comutativa: u+ v = v + u para todo u, v ∈ V ;
2. A adição é associativa: u+ (v + w) = (u+ v) + w para todo u, v, w ∈ V ;
3. Existe um único vetor 0 ∈ V , chamado vetor nulo, tal que u + 0 = u para
todo u ∈ V ;
4. Para cada vetor u ∈ V , exsite um único vetor v ∈ V tal que u + v = 0.
Denotaremos este vetor v por −u;
• Uma operação, chamada multiplicação por escalar, entre elementos de K e ele-
mentos de V , satisfazendo:
1. 1.v = v para todo v ∈ V ;
2. (λ.µ).v = λ.(µ.v) para todo λ, µ ∈ K e todo v ∈ V ;
3. λ.(u+ v) = λ.u+ λ.v para todo λ ∈ K e todo u, v ∈ V ;
4. (λ+ µ).v = λ.v + µ.v para todo λ, µ ∈ K e todo v ∈ V ;.
36
2.1. ESPAÇOS E SUBESPAÇOS VETORIAIS 37
Exemplo 2.1.1. Dado um corpo K, os conjuntos abaixo são exemplos de espaços vetoriais
sobre K.
1. Fixado n ∈ N, consideremos o conjunto de n-uplas em K:
Kn = {(x1, x2, . . . , xn);xi ∈ K para i = 1, 2, . . . , n}
com as operações
(x1, x2, . . . , xn) + (y1, y2, . . . , yn) = (x1 + y1, x2 + y2, . . . , xn + yn)
e
λ.(x1, x2, . . . , xn) = (λ.x1, λ.x2, . . . , λ.xn),
para todo (x1, x2, . . . , xn), (y1, y2, . . . , yn) ∈ Kn e todo λ ∈ K.
2. Mm×n(K) = {matrizes de ordem m×n com entradas em K}, com as operações usu-
ais entre matrizes (definidas no capítulo anterior).
3. F(K;K) = {funções K −→ K}, com as operações usuais (comumente definidas nos
cursos de Cálculo, para K = R)
(f + g)(t) = f(t) + g(t), para todo f, g ∈ F(K;K)
e
(λ.f)(t) = λ.f(t), para todo λ ∈ K e todo f ∈ F(K;K).
Com as mesmas operações, consideremos ainda os conjuntos
K[t] = {polinômios na variável t com coeficientes em K}
= {a0 + a1.t+ · · ·+ am.tm;m ∈ N e a0, a1, . . . , am ∈ K}
e
Kn[t] = {polinômios de grau ≤ n na variável t com coeficientes em K}.
Tem-se Kn[t] ⊂ K[t] ⊂ F(K;K).
Proposição 2.1.1. (Propriedades) Seja V um espaço vetorial sobre um corpo K. Então:
1. λ.0 = 0 para todo λ ∈ K;
2. Se λ.u = 0 com λ ∈ K \ {0}, então u = 0;
38 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO
3. Para todo u ∈ V , tem-se −u = (−1).u.
Demonstração. Exercício.
Interpretação geométrica de vetores
No espaço vetorial R2, vetores são segmentos orientados com ponto inicial na origem
(0, 0).
Existe uma correspondência biunívoca pares ordenadosde números reais
 ←→
 vetoresem R2

P = (x, y) 7−→
segmento −→OP
comprimento
e sentido
únicos
No espaço vetorial R3, temos uma correspondência biunívoca análoga:
 ternas ordenadasde números reais
 ←→
 vetoresem R3

P = (x, y, z) 7−→
segmento −→OP com
comprimento, direção
e sentido únicos
Soma de vetores: Sejam P = (x1, x2, x3), Q = (y1, y2, y3) ∈ R3 de modo que
−→
OP não
sejam paralelos. Então P +Q corresponde, geometricamente, ao segmento −→OS, a diagonal
do paralelogramo obtido de O, P e Q.
Figura!
Multiplicação escalar por um vetor: Se λ ∈ R (λ 6= 0) e P = (x1, x2, x3) ∈ R3, então
λ.
−→
OP é o segmento que inicia na origem(0, 0, 0), tem comprimento |λ| multiplicado pelo
comprimento de −→OP , mesma direção que −→OP e sentido de

de −→OP, se λ > 0
oposto de −→OP, se λ < 0
.
Figura!
2.1. ESPAÇOS E SUBESPAÇOS VETORIAIS 39
Definição 2.1.2. Seja V um espaço vetorial sobre um corpo K. Dizemos que um subcon-
junto não-vazio W ⊂ V é um subespaço vetorial de V , ou simplesmente subespaço
de V , se:
1. Para todo u, v ∈ W tem-se u+ v ∈ W ;
2. Para todo λ ∈ K e todo u ∈ W tem-se λ.u ∈ W .
Observação 2.1.1. 1. Todo subespaço de V contém o vetor nulo de V ;
2. W é um subespaço de V se, e somente se, para todo u, v ∈ W e todo λ ∈ K, tem-se
λ.u+ v ∈ W .
Exemplo 2.1.2. Seja K um corpo.
1. Dado um espaço vetorial V sobre K, os conjuntos {0} e V são subespaços (triviais)
de V .
2. No espaço vetorial Kn, consideremos os subconjuntos W1 = {(x1, x2, . . . , xn) ∈
Kn;xn = 0} e W2 = {(x1, x2, . . . , xn) ∈ Kn;x1 = 1 + x2}.
Afirmamos que W1 é um subespaço de Kn.
De fato, dados (x1, . . . , xn−1, 0), (y1, . . . , yn−1, 0) ∈ W1 e λ ∈ K, tem-se
(x1, . . . , xn−1, 0) + (y1, . . . , yn−1, 0) = (x1 + y1, . . . , xn−1 + yn−1, 0) ∈ W1
e
λ.(x1, . . . , xn−1, 0) = (λ.x1, . . . , λ.xn−1, 0) ∈ W1.
Por outro lado, W2 não é um subespaço de Kn, pois, para, (2, 1, 1, . . . , 1, 1) ∈ W2 e
(1, 0, 0, . . . , 0, 0) ∈ W2 tem-se
(2, 1, 1, . . . , 1, 1) + (1, 0, 0, . . . , 0, 0) = (3, 1, 1, . . . , 1, 1) /∈ W2.
3. No espaço vetorial Mm×m(K), são subespaços os subconjuntos
W1 = {matrizes de ordem m triangulares inferiores},
W2 = {matrizes de ordem m triangulares superiores},
W3 = {matrizes de ordem m diagonais}.
e
W4 = {matrizes de ordem m simétricas}.
40 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO
4. Consideremos o conjunto M2×2(C). Este é um espaço vetorial tanto sobre C quanto
sobre R.
Seja W = {A ∈M2×2(C);A∗ = A}.
Sobre o corpo C, W não é um subespaço de M2×2(C).
De fato, uma matriz A complexa Hermitiana tem apenas números reais na sua
diagonal principal, portanto i.A /∈ W .
Sobre o corpo R, W é um subespaço de M2×2(C). Verifique!
5. Seja A ∈ Mm×n(K), e consideremos o sistema linear homogêneo correspondente
A.X = 0. Então o conjunto-solução deste sistema linear é um subespaço deMn×1(K).
De fato, dados X1 e X2 soluções do sistema linear A.X = 0 e λ ∈ K, tem-se
A.(X1 +X2) = A.X1 + A.X2 = 0 + 0 = 0
e
A.(λ.X1) = λ.(A.X1) = λ.0 = 0,
ou seja, X1 +X2 e λ.X1 são soluções do sistema A.X = 0.
O mesmo resultado não é verdadeiro para sistemas lineares não-homogêneos. Por
quê?
6. No espaço vetorial R2:
(a) Qualquer reta que não passa pela origem, não é um subespaço (justifique geo-
metricamente!);
(b) O conjunto {(x, x2);x ∈ R} não é um subespaço. Por quê?
7. No espaço vetorial F(R;R), para cada k ∈ N, consideremos o conjunto
Ck(R) =
 f : R −→ R funções k vezesdiferenciável tal que f (k) é contínua
 .
Temos:
C0(R) ⊃ C1(R) ⊃ · · · ⊃ Ck(R) ⊃ Ck+1(R) ⊃ · · · ⊃ C∞(R)
e cada um desses subconjuntos é um subespaço de F(R;R).
Exercícios
2.2. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 41
1. Quais dos seguintes subconjuntos são subespaços vetoriais?
(a) O conjunto formado pelos vetores de Rn cujas primeiras k coordenadas são
iguais;
(b) W1 = {(x, y) ∈ R2;x2 + 3x = y2 + 3y};
(c) W2 =

 a11 a12
a21 a22
 ∈M2×2(K); a11 + a22 = 0
;
(d) W3 = {f ∈ C∞(R); f ′′ − 2f ′ + f = 0};
(e) W4 = {f ∈ F(R;R); f(0) = f(1) = 0};
(f) W5 = {f ∈ F(R;R); f(0) = 1};
(g) W6 =
{
f ∈ F(R;R);
∫ 1
0
f(t)dt = 0
}
;
(h) W7 =
{
f ∈ F(R;R);
∫ 1
0
f(t)dt = 1
}
;
2.2 Dependência e independência linear
Definição 2.2.1. Seja V um espaço vetorial sobre K. Dizemos que v ∈ V é uma com-
binação linear de vetores v1, v2, . . . , vm ∈ V quando existirem c1, c2, . . . , cm ∈ K tais
que
v =
m∑
i=1
ci.vi = c1.v1 + c2.v2 + · · ·+ cm.vm.
Seja S ⊂ V um subconjunto não-vazio de vetores (não necessariamente um subespaço).
O subsespaço gerado por S, denotado por [S], é o conjunto de todas as combinações
lineares de vetores em S:
[S] =
{
r∑
i=1
ci.vi; vi ∈ S e ci ∈ K para todo i
}
.
Verifique que [S] é um subespaço de V !
Quando S for um conjunto finito, digamos S = {v1, . . . , vm}, denotamos [S] também
por [v1, . . . , vm].
Exemplo 2.2.1. 1. Dado v ∈ R3, v 6= 0, [v] = {a.v; a ∈ R}, a reta que contém o
vetor v.
Figura!
42 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO
2. Dados v1, v2 ∈ R3, não-nulos e nem múltiplos um do outro, [v1, v2] = {a1.v1 +
a2.v2; a1, a2 ∈ R}, o plano que contém os vetores v1 e v2.
Figura!
3. [(1, 0), (0, 1)] = R2.
Por definição, temos [(1, 0), (0, 1)] ⊂ R2.
Vejamos que também vale a inclusão oposta.
De fato, seja (a, b) ∈ R2. Temos
(a, b) = (a, 0) + (0, b) = a.(1, 0) + b.(0, 1) ∈ [(1, 0), (0, 1)].
Logo temos a igualdade dos conjuntos.
Mais geralmente, por um raciocínio análogo, vale que:
[e1, e2, . . . , en] = Rn.
4. [(2, 1), (−1, 3)] = R2.
Por definição, temos [(2, 1), (−1, 3)] ⊂ R2.
Para a inclusão oposta, seja (a, b) ∈ R2. Note que, teremos (a, b) ∈ [(2, 1), (−1, 3)]
se, e somente se, existirem x, y ∈ R tais que
(a, b) = x.(2, 1) + y.(−1, 3) = (2x− y, x+ 3y),
o qual ocorre se, e somente se, o sistema linear

2x− y = a
x+ 3y = b
for possível.
Como det
 2 −1
1 3
 = 7 6= 0, o sistema linear acima possui solução única, a saber
{(
3a+ b
7 ,
2b− a
7
)}
. Portanto,
(a, b) =
(
3a+ b
7
)
.(2, 1) +
(
2b− a
7
)
.(−1, 3) ∈ [(2, 1), (−1, 3)].
Logo temos a igualdade dos conjuntos.
2.2. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 43
5. No espaço vetorial M2×2(R), tem-se
 1 0
0 0
 ,
 0 0
0 1

 =

 a 0
0 b
 ; a, b ∈ R
 .
6. No espaço vetorial K5 (K = R ou C), descreva, algebricamente, o subespaço [v1, v2, v3],
onde v1 = (1, 2, 0, 3, 0), v2 = (0, 0, 1, 4, 0) e v3 = (0, 0, 0, 0, 1).
Proposição-definição 2.2.1. Seja V um espaço vetorial sobre K.
1. A interseção de uma coleção arbitrária de subespaços de V também o é. Preci-
samente, se {Wα}α∈L é uma coleção de subespaços de V , onde L é um conjunto
qualquer de índices, então
⋂
α∈L
Wα é um subespaço de V ;
2. (Soma de subespaços) Se W1 e W2 são dois subespaços de V , então a soma
W1 +W2 = {v ∈ V ; v = w1 + w2 com w1 ∈ W1 e w2 ∈ W2}
também é um subespaço de V .
Demonstração. 1. Sejam u, v ∈
⋂
α∈L
Wα e λ ∈ K. Então u, v ∈ Wα para todo α ∈ L
e, como cada Wα é um subespaço de V , tem-se λ.u + v ∈ Wα para todo α ∈ L,
portanto λ.u+ v ∈
⋂
α∈L
Wα. Logo,
⋂
α∈L
Wα é um subespaço de V
2. Sejam u, v ∈ W1 +W2 e λ ∈ K. Então podemos escrever u = u1 + u2 e v = v1 + v2
com u1, v2 ∈ W1 e u2, v2 ∈ W2. Como W1 e W2 são subespaços de V , tem-se
λ.u1 + v1 ∈ W1 e λ.u2 + v2 ∈ W2, portanto
λ.u+ v = λ.(u1 + u2) + (v1 + v2) = (λ.u1 + v1) + (λ.u2 + v2) ∈ W1 +W2.
Logo, W1 +W2 é um subespaço de V .
Observação 2.2.1. Seja V um espaço vetorial sobre K.
1. SeW1 eW2 são subespaços de V tais queW1∩W2 = {0}, o subespaço somaW1+W2 é
chamado soma direta de W1 com W2, e o denotamos especialmente por W1⊕W2.
44 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO
2. De maneira análoga à Proposição-definição acima, para um número finito de subes-
paços W1,W2, . . . ,Wk ⊂ V , definimos a sua soma como sendo:
W1 + · · ·+Wk = {v ∈ V ; v = w1 + · · ·+ wk com wi ∈ Wi para cada i }.
Verifique que este também é um subespaço de V .
3. Dado S ⊂ V um subconjunto não-vazio, o subespaço [S] pode ser caracterizado
como sendo a interseção de todos os subsespaços de V que contém S. Este é o
menor subespaço de V que contém o conjunto S.
4. Para dois subsespaçosW1 eW2 de V , a uniãoW1∪W2, em geral, não é um subespaço
de V .
Apresente um contra-exemplo!
5. Para dois subsespaços W1 e W2 de V , tem-se [W1 ∪W2] = W1 +W2.
Demonstre!
Exemplo 2.2.2. Seja K um corpo.
1. No espaço vetorial K4, sejam W1 = [e1, e3] e W2 = [e2, e4]. Determine os subespaços
W1 ∩W2 e W1 +W2.
Tem-se W1 ∩W2 = {(0, 0, 0, 0)} e
W1 +W2 = [W1 ∪W2] = [e1, e2, e3, e4] = K4.
Logo, concluímos que K4 = W1 ⊕W2.
2. No espaço vetorial M2×2(K), consideremos os subespaços
W1 =

 x y
z 0
 ;x, y, z ∈ K
 =

 1 0
00
 ,
 0 1
0 0
 ,
 0 0
1 0

 ,
W2 =

 x 0
0 w
 ;x,w ∈ K
 =

 1 0
0 0
 ,
 0 0
0 1


e
W3 =

 0 y
z 0
 ; y, z ∈ K
 =

 0 1
0 0
 ,
 0 0
1 0

 .
2.2. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 45
Tem-se:
M2×2(K) = W1 +W2 = W2 ⊕W3 e W1 +W3 =?
Exercício!
Teorema 2.2.1. Sejam V um espaço vetorial sobre K, e W1 e W2 subespaços de V tais
que V = W1 + W2. Então V = W1 ⊕W2 se, e somente se, todo vetor v ∈ V se escreve,
de maneira única, como soma v = w1 + w2 com w1 ∈ W1 e w2 ∈ W2.
Demonstração. (=⇒) Suponhamos que V = W1 ⊕W2. Dado v ∈ V , sejam w1 + w2 =
u1 + u2 duas escritas de v com w1, u1 ∈ W1 e w2, u2 ∈ W2. Vejamos que w1 = u1 e que
w2 = u2.
De fato, como w1 + w2 = v = u1 + u2 tem-se
w1 − u1︸ ︷︷ ︸
∈W1
= u2 − w2︸ ︷︷ ︸
∈W2
∈ W1 ∩W2 = {0},
portanto w1 − u1 = 0 e u2 − w2 = 0, e logo, w1 = u1 e w2 = u2. Isto é, a escrita é única!
(⇐=) Suponhamos que todo vetor v ∈ V possa ser escrito de maneira única como
soma v = w1 + w2, com w1 ∈ W1 e w2 ∈ W2.
Afirmamos que W1 ∩W2 = {0}.
De fato, seja w ∈ W1 ∩W2. Podemos escrever
w = w + 0 e w = 0 + w,
mas, por hipótese, toda escrita é única, então w = 0. Logo, W1 ∩W2 = {0}, e temos
V = W1 ⊕W2.
Exemplo 2.2.3. Exercício!
1. Mostre que
Mm×m(K) =
 matrizes triangularessuperiores em K
+
 matrizes triangularesinferiores em K
 .
2. Mostre que
Mm×m(K) =
 matrizes simé-tricas em K
⊕
 matrizes anti-simé-tricas em K
 .
46 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO
Definição 2.2.2. Seja V um espaço vetorial sobre K.
Dizemos que um subconjunto S ⊂ V é linearmente dependente (L.D.) se exis-
tirem vetores v1, v2, . . . , vm ∈ S distintos e escalares c1, c2, . . . , cm ∈ K, não todos nulos,
tais que
c1.v1 + c2.v2 + · · ·+ cm.vm = 0.
Um conjunto S ⊂ V que não é linearmente dependente é dito linearmente indepen-
dente (L.I.), isto é, para toda coleção de vetores distintos v1, v2, . . . , vm ∈ S e escalares
c1, c2, . . . , cm ∈ K, vale a implicação:
c1.v1 + c2.v2 + · · ·+ cm.vm = 0 =⇒ c1 = c2 = · · · = cm = 0.
Observação 2.2.2. Seja V um espaço vetorial sobre K.
1. Todo subconjunto S ⊂ V que contém o vetor nulo é L.D.!
2. Todo conjunto que contém um conjunto L.D também é L.D.!
3. Todo subconjunto de um conjunto L.I. também é L.I.!
4. S ⊂ V é um conjunto L.D. se, e somente se, algum vetor de S for uma combinação
linear de outros vetores em S.
Exemplo 2.2.4. 1. {(1, 0), (0, 1)} é um conjunto L.I. em R2.
Generalizando, {e1, e2, . . . , en} é um conjunto L.I. em Rn.
2. {(2, 1), (−1, 3)} é um conjunto L.I. em R2.
3. {(0, 1), (0, 2)} é um conjunto L.D. em R2.
4. Se λ, µ ∈ R com λ 6= µ, então {eλx, eµx} é um conjunto L.I. em F(R;R).
5. Dado λ ∈ R, tem-se que {eλx, x.eλx} é um conjunto L.I. em F(R;R).
Exercícios
1. Se existir, determine k ∈ R de modo que (3, k, 7) ∈ [(−1, 3, 1), (1,−2, 4)];
2. Seja V um espaço vetorial sobre K. Mostre que, se u+v+w = 0, então [u, v] = [v, w].
3. (a) Mostre que, se ad− bc = 0, então {(a, b), (c, d)} é linearmente dependente;
2.3. BASE E DIMENSÃO 47
(b) Mostre que, se ad− bc 6= 0, então {(a, b), (c, d)} é linearmente independente.
4. Se f ∈ C∞(R) é combinação linear de outras funções, então suas derivadas suces-
sivas são combinações lineares (com os mesmos coeficientes) das derivadas dessas
outras. Use este fato para mostrar que {ex, e2x, x3, x2, x} é um conjunto linearmente
independente.
5. Prove que, se os vetores {v1, v2, . . . , vm} são linearmente independentes, então {v1, v2−
v1, . . . , vm − v1} também o são. Vale a recíproca?
6. Considere os subespaços V = [(1, 0, 0)] e W = [(1, 1, 0), (0, 1, 1)] no espaço vetorial
K3. Mostre que K3 = V ⊕W .
2.3 Base e dimensão
Definição 2.3.1. Seja V um espaço vetorial sobre K. Dizemos que um conjunto S ⊂ V
é uma base de V se:
1. S é um conjunto L.I.
2. S gera V , isto é, [S] = V .
Um subconjunto {v1, v2, . . . , vn} ⊂ V é uma base de V se, e somente se, todo vetor
v ∈ V se escreve, de modo único, como uma combinação linear dos vetores v1, v2, . . . , vn,
isto é, existem escalares únicos c1, c2, . . . , cn K tais que v = c1.v1 + c2.v2 + · · · + cn.vn
(Verifique!).
Exemplo 2.3.1. 1. {(2, 1), (−1, 3)} é uma base de R2.
Vimos que este conjunto é L.I. e também que [(2, 1), (−1, 3)] = R2
2. {e1, e2} é uma base de R2.
Mais geralmente, {e1, e2, . . . , en} é uma base de Kn, chamada a base canônica de
Kn.
3. {e1, e2} não é uma base de R3.
Apesar de {e1, e2} ser um conjunto L.I., não ocorre [e1, e2] = R3, pois, por exemplo,
e3 /∈ [e1, e2].
48 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO
4.

 1 0
0 0
 ,
 0 1
0 0
 ,
 0 0
1 0
 ,
 0 0
0 1

 é uma base de M2×2(K).
Quantos elementos uma base de Mm×n(K) deve ter?
5. Seja P ∈Mm×m(K) uma matriz inversível, e denotemos por P1, P2, . . . , Pm as suas
colunas. Então {P1, P2, . . . , Pm} formam uma base de Mm×1(K).
De fato, primeiramente {P1, P2, . . . , Pm} é L.I. pois se
c1.P1 + c2.P2 + · · ·+ cm.Pm = 0
então
P.

c1
c2
...
cm

=

0
0
...
0

=⇒

c1
c2
...
cm

= P−1.

0
0
...
0

=

0
0
...
0

.
Por outro lado, dada uma matriz Y ∈Mm×1(K) temos
Y = P.X = x1.P1 + · · ·+ xm.Pm ∈ [P1, . . . , Pm],
onde X = P−1.Y .
6. {1, x, x2, . . . , xn} é uma base de Kn[x].
Mais geralmente, {1, x, x2, . . . , xn, . . . } é uma base de K[x].
Teorema 2.3.1. Seja V um espaço vetorial sobre K tal que V = [v1, v2, . . . , vm]. Então
todo conjunto L.I. de vetores em V é finito e possui no máximo m elementos. Equivalen-
temente, qualquer conjunto com mais do que m vetores é necessariamente L.D.
Demonstração. Seja S = {w1, w2, . . . , wn} ⊂ V um conjunto com n vetores, onde n > m.
Afirmamos que S é um conjunto L.D.
De fato, por hipótese V = [v1, v2, . . . , vm], portanto cada wi pode ser escrito como uma
combinação linear desses vetores:
w1 = A11.v1 + A21.v2 + · · ·+ Am1.vm
w2 = A12.v1 + A22.v2 + · · ·+ Am2.vm
...
wn = A1n.v1 + A2n.v2 + · · ·+ Amn.vm
,
2.3. BASE E DIMENSÃO 49
com Aij para todo i, j.
Agora, dados x1, x2, . . . , xn ∈ K, temos
x1.w1 + x2.w2 + · · ·+ xn.wn = x1.(A11.v1 + A21.v2 + · · ·+ Am1.vm) + · · ·+
+ xn.(A1n.v1 + A2n.v2 + · · ·+ Amn.vm)
= (x1.A11 + · · ·+ xn.A1n).v1 + · · ·+
+ (x1.Am1 + · · ·+ xn.Amn).vm
e este será o vetor nulo precisamente quando o sistema linear homogêneo
A11.x1 + A12.x2 + · · ·+ A1n.xn = 0
A21.x1 + A22.x2 + · · ·+ A2n.xn = 0
...
Am1.x1 + Am2.x2 + · · ·+ Amn.xn = 0
possuir solução.
Agora, como m < n (número de equações menor do que o número de incógnitas), pelo
teorema ??, o sistema acima possui solução não-trivial (x1, x2, . . . , xn). Logo S é L.D..
Exemplo 2.3.2. O conjunto
{(1, 0, 0, 0), (1, 2, 0, 0), (1, 2, 3, 0), (1, 2, 3, 4), (1, 1, 1, 1)}
é L.D. em R4.
Poderíamos ou verificar a definição ou aplicar diretamente o teorema anterior.
Definição 2.3.2. Dizemos que um espaço vetorial V tem dimensão finita quando pos-
suir uma base com um número finito de elementos.
Corolário 2.3.1. Seja V um espaço vetorial sobre K de dimensão finita. Então duas
bases quaisquer de V têm o mesmo número de elementos. A este número chamamos
dimensão de V
Demonstração. Sejam {v1, . . . , vn} e {w1, . . . , wm} duas bases de V . Afirmamos que n =
m.
De fato, como V = [v1, . . . , vn] e {w1, . . . , wm} é um conjunto L.I., pelo teorema acima,
m ≤ n. Por outro lado, como V = [w1, . . . , wm] e {v1, . . . , vn} é um conjunto L.I., pelo
mesmo teorema, n ≤ m. Logo, n = m.
Exemplo 2.3.3.
50 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO
1. dim{0} = 0.
2. dimR2 = 2.
3. dimM2×2(R) = 4.
4. dimMm×n(R) = m.n.
5. dimRn[x] = n+ 1.
6. dimR[x] =∞.
Com a noção de dimensão de espaço vetorial podemos reformular o teorema ?? como:
Corolário 2.3.2. Seja V um espaço vetorial sobre K de dimensão finita n. Então:
1. Todo subconjunto de V commais do que n vetores é L.D.
2. Nenhum subconjunto de V com menos do que n vetores pode gerar V .
Vamos, a partir de agora, ver como é possível determinar uma base para um espaço
vetorial.
Lema 2.3.1. Seja S um subconjunto L.I. de um espaço vetorial V . Se v ∈ V \ [S] então
S ∪ {v} é L.I.
Demonstração. Sejam v1, v2, . . . , vm ∈ S (necessariamente distintos). Afirmamos que o
conjunto {v1, v2, . . . , vm, v} é L.I.
De fato, suponhamos que
a1.v1 + a2.v2 + · · ·+ am.vm + a.v = 0
com a1, a2, . . . , am, a ∈ K. Então a = 0 pois, caso contrário, se a 6= 0 teríamos
v = (a−1a1).v1 + (a−1a2).v2 + · · ·+ (a−1am).vm ∈ [S],
uma contradição! Como a = 0, temos a1.v1 + a2.v2 + · · · + am.vm = 0, e uma vez que
v1, v2, . . . , vm é L.I, segue que a1 = a2 = · · · = am = 0.
Logo, {v1, v2, . . . , vm, v} é L.I..
Teorema 2.3.2. (Obtendo uma base a partir de um conjunto L.I.) Qualquer conjunto
L.I. de vetores de um espaço vetorial V de dimensão finita pode ser completado de modo
a formar uma base de V .
Demonstração. Sejam n = dimV e {v1, v2, . . . , vr} um conjunto L.I.. Então r ≤ n.
Se [v1, v2, . . . , vr] = V , não há nada a fazer (e, neste caso, r = n). Agora, se
[v1, v2, . . . , vr] ⊂ V então existe algum vr+1 ∈ V tal que vr+1 /∈ [v1, v2, . . . , vr]. Pelo
Lema acima, {v1, v2, . . . , vr, vr+1} é um conjunto L.I..
2.3. BASE E DIMENSÃO 51
Se [v1, v2, . . . , vr, vr+1] = V , não há nada a fazer, senão [v1, v2, . . . , vr, vr+1] ⊂ V então
existe algum vr+2 ∈ V tal que vr+2 /∈ [v1, v2, . . . , vr]. Novamente pelo Lema acima,
{v1, v2, . . . , vr, vr+1, vr+2} é um conjunto L.I..
Como V tem dimensão finita, este raciocínio recursivo terminará, e aí teremos uma
base de V construída a partir do conjunto L.I. {v1, v2, . . . , vr}.
Corolário 2.3.3. Se W é um subespaço próprio de um espaço vetorial V de dimensão
finita n, então W tem dimensão finita e dimW < dim V .
Demonstração. Se W = {0} então não há o que fazer.
Agora, se W 6= {0} então existe w1 ∈ W não-nulo. Pelo Teorema anterior, podemos
completar o conjunto L.I. {w1} de modo a obter uma base de W com no máximo n
elementos, digamos {w1, w2, . . . , wr} (r ≤ n). EntãoW tem dimensão finita com dimW =
r ≤ n = dimV .
Mas, uma vez que W ⊂ V , existe algum v ∈ V \ [w1, w2, . . . , wr], e consequentemente
{w1, w2, . . . , wr, v} é um conjunto L.I.. Logo, dimW < dim V .
Exemplo 2.3.4. 1. Obtenha uma base de R3 contendo os vetores v1 = (1,−1, 2) e
v2 = (−1, 2, 1).
Como {v1, v2} é um conjunto L.I., para obter uma base de R3 contendo esses vetores,
basta escolhermos v3 /∈ [v1, v2], por exemplo, v3 = (1, 0, 0) (Verifique!).
Afirmamos que {v1, v2, v3} é uma base de R3.
Exercício!
2. Construa uma outra base de R3 (uma para chamar de sua).
Corolário 2.3.4. Seja A uma matriz quadrada de ordem m sobre K, e suponhamos que
os vetores-linha de A formem um conjunto L.I. em Km. Então A é uma matriz inversível.
Demonstração. Sejam v1, v2, . . . , vm os vetores-linha da matriz A e W = [v1, v2, . . . , vm].
Como {v1, v2, . . . , vm} é L.I. e dimW = m, pelo Corolário acima, W = Km (Por quê?).
Então podemos, por exemplo, escrever os vetores da base canônica de Km como uma
52 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO
combinação linear dos vetores v1, v2, . . . , vm:
e1 = b11.v1 + b12.v2 + · · ·+ b1m.vm
e2 = b21.v1 + b22.v2 + · · ·+ b2m.vm
...
em = bm1.v1 + bm2.v2 + · · ·+ bmm.vm
,
onde bij ∈ K para todo i, j. Essas equações nos dizem que a matriz B = (bij) satisfaz a
igualdade B.A = Im (Verifique!), isto é, B é uma inversa à esquerda de A, portanto A é
uma matriz inversível.
Vale a recíproca do corolário anterior? Sim! Demonstre, e use à vontade!
A equivalência acima também é verdadeira trocando a palavra “linha” por “coluna”
no enunciado.
Teorema 2.3.3. (Dimensão do subespaço soma) Sejam W1 e W2 subespaços de um espaço
vetorial de dimensão finita V . Então o subespaço W1 +W2 tem dimensão finita, e vale a
fórmula
dim(W1 +W2) = dimW1 + dimW2 − dim(W1 ∩W2).
Demonstração. Seja {v1, . . . , vk} uma base de W1 ∩W2. Pelo Teorema ??, podemos com-
pletar esse conjunto de modo a obter bases de W1 e de W2, respectivamente:
{v1, . . . , vk, u1, . . . , um} e {v1, . . . , vk, w1, . . . , wn}.
Temos W1 +W2 = [W1 ∪W2] = [v1, . . . , vk, u1, . . . , um, w1, . . . , wn].
Afirmamos que {v1, . . . , vk, u1, . . . , um, w1, . . . , wn} é L.I.
De fato, suponhamos que
a1.v1 + · · ·+ ak.vk + b1.u1 + · · ·+ bm.um + c1.w1 + · · ·+ cn.wn = 0. (4)
Então
k∑
i=1
ai.vi +
m∑
j=1
bj.uj︸ ︷︷ ︸
∈W1
= −
n∑
l=1
cl.wl︸ ︷︷ ︸
∈W2
∈ W1 ∩W2,
portanto existem d1, . . . , dk ∈ K tais que
−
n∑
l=1
cl.wl = d1.v1 + · · ·+ dk.vk =⇒ c1.w1 + · · ·+ cn.wn + d1.v1 + · · ·+ dk.vk = 0
2.3. BASE E DIMENSÃO 53
e, uma vez que {v1, . . . , vk, w1, . . . , wn} é L.I., tem-se c1 = · · · = cn = 0 (e também
d1 = · · · = dk = 0).
Com isso, a igualdade (4) se torna
a1.v1 + · · ·+ ak.vk + b1.u1 + · · ·+ bm.um = 0 =⇒ a1 = · · · = ak = b1 = · · · = bm = 0
já que {v1, . . . , vk, u1, . . . , um} é L.I.. Isto prova a afirmação.
Daí concluímos que dim(W1 +W2) = k +m+ n. Por outro lado,
dimW1 + dimW2 = (k +m) + (k + n)
= (k +m+ n) + k
= dim(W1 +W2) + dim(W1 ∩W2).
Exemplo 2.3.5. No espaço vetorial R3, consideremos os subespaços W1 = {(x, y, z);x+
y − z = 0} e W2 = {(x, y, z);x = y}. Determine as dimensões dos subespaços W1, W2,
W1 ∩W2 e W1 +W2. R3 = W1 ⊕W2?
Se (x, y, z) ∈ W1 então z = x+ y, portanto
(x, y, z) = (x, y, x+ y) = (x, 0, x) + (0, y, y) = x.(1, 0, 1) + y.(0, 1, 1),
logo W1 = [(1, 0, 1), (0, 1, 1)], e como {(1, 0, 1), (0, 1, 1)} é um conjunto L.I., dimW1 = 2.
Por outro lado, se (x, y, z) ∈ W2 então x = y, portanto
(x, y, z) = (x, x, z) = (x, x, 0) + (0, 0, z) = x.(1, 1, 0) + z.(0, 0, 1),
logo W2 = [(1, 1, 0), (0, 0, 1)], e como {(1, 1, 0), (0, 0, 1)} é um conjunto L.I., dimW2 = 2.
Agora, se (x, y, z) ∈ W1 ∩W2 então z = x+ y e x = y, portanto
(x, y, z) = (x, x, 2x) = x.(1, 1, 2),
logo W1 ∩W2 = [(1, 1, 2)], e tem-se dim(W1 ∩W2) = 1.
Pelo Teorema acima, dim(W1 +W2) = 2 + 2− 1 = 3, e sendo W1 +W2 um subespaço
de R3, devemos ter W1 +W2 = R3.
Por fim, como o subespaço interseção W1 ∩W2 não é o trivial, na decomposição R3 =
W1 +W2, a soma não é direta.
Exercícios
54 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO
1. Encontre uma base para cada um dos seguintes subsespaços de R4:
(a) F = {(x1, x2, x3, x4) ∈ R4;x1 = x2 = x3 = x4};
(b) G = {(x1, x2, x3, x4) ∈ R4;x1 = x2 e x3 = x4};
(c) H = {(x1, x2, x3, x4) ∈ R4;x1 = x2 = x3};
(d) K = {(x1, x2, x3, x4) ∈ R4;x1 + x2 + x3 + x4 = 0};
2. Verifique que o conjunto {(1, 1,−1), (1,−1, 1), (−1, 1, 1)} é uma base de R3
3. Considere o subespaço U = {(x, y, z) ∈ R3;x− 2y + 4z = 0} de R3. Obtenha uma
base {u1, u2, u3} de R3 tal que u1 e u2 pertençam a U .
4. Verifique que {1, x−1, x2−3x+ 1} é uma base de R2[x]. Escreva 2x2−5x+ 6 como
combinação linear dos elementos dessa base.
5. No espaço vetorial R3, considere os subconjuntos
V = {(x, y, z) ∈ R3; z = −x− 3y} e W = {(x, y, z) ∈ R3;x = y = 0}.
(a) Verifique que V e W são subespaços de R3;
(b) Encontre conjuntos de geradores para V e para W , e dê a dimensão de cada
subespaço;
(c) Determine os subespaços V ∩W e V +W ;
(d) R3 = V ⊕W?
6. Sejam c1, c2, . . . , cn ∈ Kn as colunas de uma matriz A ∈ Mn×n(K). Mostre que
detA = 0 se, e somente se, os vetores c1, c2, . . . , cn são linearmente dependentes.
A equivalência continua verdadeira trocando a palavra coluna por linha. Por quê?
2.4 Coordenadas e mudança de base
Sejam V um espaço vetorial de dimensão finita n sobre K e α = {vi, . . . , vn} uma
base ordenada de V . Dado v ∈ V , existem escalares únicos a1, . . . , an ∈ K tais que
2.4. COORDENADAS E MUDANÇA DE BASE 55
v = a1.v1 + · · ·+ an.vn. Esses escalares são chamados coordenadas de v em relação à
base α, e denotaremos [v]α =

a1
a2
...
an

.
Exemplo 2.4.1. No espaço vetorial R3, consideremos as bases ordenadas α = {e1, e2, e3},
β = {e1, e2, (1, 1, 1)} e γ = {e2, e1, e3}.
Para v = (1, 2, 1) temos:
(1, 2, 1)= 1.(1, 0, 0) + 2.(0, 1, 0) + 1.(0, 0, 1) =⇒ [v]α =

1
2
1
 ,
(1, 2, 1) = 0.(1, 0, 0) + 1.(0, 1, 0) + 1.(1, 1, 1) =⇒ [v]β =

0
1
1

e
(1, 2, 1) = 2.(0, 1, 0) + 1.(1, 0, 0) + 1.(0, 0, 1) =⇒ [v]γ =

2
1
1
 .
Pelo que vimos (e era esperado), a ordem dos vetores em uma base é importante para
determinar as coordenadas de uma vetor.
Agora, sejam α = {v1, . . . , vn} e β = {w1, . . . , wn} duas bases ordenadas do espaço
vetorial V de dimensão n. Dado v ∈ V , podemos escrevê-lo como
v = x1.v1 + · · ·+ xn.vn = y1.w1 + · · ·+ yn.wn, (∗)
onde x1, . . . , xn, y1, . . . , yn ∈ K, portanto
[v]α =

x1
x2
...
xn

e [v]β =

y1
y2
...
yn

.
56 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO
Além disso, como α = {v1, . . . , vn} é uma base de V , podemos escrever cada vetor
w1, . . . , wn como uma combinação linear dos vetores de α:
w1 = A11.v1 + A21.v2 + · · ·+ An1.vn
w2 = A12.v1 + A22.v2 + · · ·+ An2.vn
...
wn = A1n.v1 + A2n.v2 + · · ·+ Ann.vn
,
com Aij ∈ K para todo i, j.
Substituindo as equações acima em (∗) obtemos:
x1.v1 + · · ·+ xn.vn = y1.w1 + · · ·+ yn.wn
= y1.(A11.v1 + A21.v2 + · · ·+ An1.vn) + · · ·+
+ yn.(A1n.v1 + A2n.v2 + · · ·+ Ann.vn)
= (y1.A11 + · · ·+ yn.A1n).v1 + · · ·+
+ (y1.An1 + · · ·+ yn.Ann).vn
portanto (pela unicidade da escrita)
x1 = A11.y1 + · · ·+ A1n.yn
...
xn = An1.y1 + · · ·+ Ann.yn
,
ou equivalentemente 
x1
...
xn
 =

A11 . . . A1n
... . . . ...
An1 . . . Ann
 .

y1
...
yn
 .
A matriz [I]βα := (Aij) é chamada matriz de mudança da base β para a base α,
a qual, pelo desenvolvimento acima, satisfaz
[v]α = [I]βα.[v]β (I)
para cada v ∈ V .
Afirmamos que [I]βα é uma matriz inversível.
De fato, mostraremos que o sistema linear homogêneo [I]βα.X = 0 possui apenas a
solução trivial.
2.4. COORDENADAS E MUDANÇA DE BASE 57
Seja X =

x1
...
xn
 uma solução do sistema [I]βα.X = 0, e seja
v = x1.w1 + · · ·+ xn.wn = y1.v1 + · · ·+ yn.vn.
Então
[v]α = [I]βα.[v]β = [I]βα.X = 0 =⇒ y1 = · · · = yn = 0
e consequentemente
0 = v = x1.w1 + · · ·+ xn.wn =⇒ x1 = · · · = xn = 0
uma vez que {w1, . . . , wn} é L.I., logo X =

0
...
0
. Isso prova a afirmação.
Agora, notemos que, se no desenvolvimento inicial, tivéssemos escrito cada vetor
v1, . . . , vn como uma combinação linear dos vetores de β, teríamos uma matriz [I]αβ , a
matriz de mudança da base α para a base β, satisfazendo
[v]β = [I]αβ .[v]α (II)
para cada v ∈ V .
As relações (I) e (II) implicam que
(
[I]βα
)−1
= [I]αβ .
Exemplo 2.4.2. No espaço vetorial R2, consideremos as bases ordenadas α = {(2,−1), (3, 4)}
e β = {e1, e2}. Determine [I]βα, e posteriormente encontre as coordenadas em relação à
base α de um vetor arbitrário (x, y).
Exercícios
1. Sejam α = {(1, 0), (0, 1)}, β = {(−1, 1), (1, 1)} e γ = {(
√
3, 1), (
√
3,−1)} bases
ordenadas de R2.
(a) Enocntre as matrizes de mudança de base:
i. [I]βα; ii. [I]αβ ; iii. [I]αγ ; iv. [I]
γ
β.
(b) Quais são as coordenadas do vetor v = (3,−2) em relação à base:
58 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO
i. α; ii. β; iii. γ.
(c) As coordenadas de um vetor v em relação a base β são dadas por
[v]β =
 4
0
 .
Determine as coordenadas de v em relação à base:
i. α; ii. γ.
2. Sejam α e β bases do espaço vetorial R3 tais que
[I]βα =

1 1 0
0 −1 1
1 0 −1
 .
Determine:
(a) [v]α, onde [v]β =

−1
2
3
; (b) [v]β, onde [v]α =

−1
2
3
.
3. Se α é base de um espaço vetorial de dimensão finita, qual é a matriz de mudança
de base [I]αα?
2.5 Exercícios do Capítulo
1. Verdadeiro ou falso? Prove quando a afirmação for verdadeira, e justifique ou apre-
sente um contra-exemplo, quando for falsa.
(a) Para qualquer matriz A ∈M2×2(R), o conjunto {I, A,A2, A3, A4} é linearmente
independente;
(b) Se {u, v, w} é um conjunto linearmente independente, então o conjunto {u +
v, v + w,w + u} também o é;
(c) É possível encontrar três vetores em R3 que sejam linearmente dependentes de
modo que dois quaisquer deles sejam linearmente independentes;
2.5. EXERCÍCIOS DO CAPÍTULO 59
(d) Dados dois subespaços W1 e W2 de um espaço vetorial V , tem-se W1 + W2 =
W1 ∪W2;
(e) Dados dois espaços vetoriais U e W , dimU ⊕W = dimU + dimW .
2. Mostre que {(1, 0,−i), (1 + i, 1 − i, 1), (i, i, i)} é uma base de C3. Quais são as
coordenadas do vetor (a, b, c) em relação a esta base?
3. No espaço vetorial M2×2(R), consideremos os subconjuntos
W1 =

 x −x
y z
 ;x, y, z ∈ R

e
W2 =

 a b
−a c
 ; a, b, c ∈ R
 .
(a) Mostre W1 e W2 são subespaços de M2×2(R).
(b) Determine bases para os subespaços W1, W2, W1 + W2 e W1 ∩ W2, e suas
respectivas dimensões.
4. No espaço vetorial Mn×n(R), considere os subconjuntos
S = {matrizes reais de ordem n simétricas}
e
A = {matrizes reais de ordem n anti-simétricas}.
(a) Verifique que S e A são subsespaços de Mn×n(R);
(b) Mostre que Mn×n(R) = S ⊕ A;
(c) Encontrando uma base para S e para A, mostre que
dimS = n(n+ 1)2 e dimA =
n(n− 1)
2 .
Comece pensando em n = 2 e n = 3, e generalize!
(d) Existe uma decomposição em soma direta análoga a acima para o espaço ve-
torial Mn×n(C)?
60 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO
5. No espaço vetorial F(R;R), considere os subconjuntos
F1 = {funções f : R −→ R que se anulam em todo ponto de [0, 1]}
e
F2 = {funções f : R −→ R que se anulam em todo ponto de [2, 3]}.
(a) Verifique que F1 e F2 são subsespaços de F(R;R);
(b) Mostre que F(R;R) = F1 + F2, mas não se tem F(R;R) = F1 ⊕ F2.
6. Seja V o espaço vetorial real gerado pelas linhas da matriz
A =

3 21 0 9 0
1 7 −1 −2 −1
2 14 0 6 1
6 42 −1 13 0

.
(a) Determine uma base de V ;
(b) Que vetores (x1, x2, x3, x4, x5) são elementos de V ?
(c) Se (x1, x2, x3, x4, x5) ∈ V , quais serão as suas coordenadas em relação à base
escolhida no item (a)?
(d) Seja W o espaço vetorial real gerado pelas colunas da matriz A. Verifique
que, apesar de V e W serem subespaços de espaços vetoriais diferentes, tem-se
dim V = dimW .
Veremos que este fato vale em geral!
7. Seja V um espaço vetorial de dimensão finita. Dado um subespaço U ⊂ V , prove
que existe um subespaço W ⊂ V tal que V = U ⊕W . Qual deve ser a dimensão de
W?
Este subespaço W é chamado complemento de U em V .
Capítulo 3
Transformações lineares
3.1 Definição e propriedades
Definição 3.1.1. Sejam V e W espaços vetoriais sobre um corpo K. Uma transforma-
ção linear de V em W é uma função T : V −→ W satisfazendo:
1. T (u+ v) = T (u) + T (v) para todo u, v ∈ V ;
2. T (λ.v) = λ.T (v) para todo v ∈ V e λ ∈ K.
Observação 3.1.1. 1. Verificar os dois itens da definição acima é equivalente a veri-
ficar a seguinte condição:
T (λ.u+ v) = λ.T (u) + T (v) para todo u, v ∈ V e λ ∈ K;
2. Se T : V −→ W é uma transformação linear então T (0) = 0;
Portanto, se T é uma função com T (0) 6= 0, então já saberemos que esta não
é uma transformação linear. Por exemplo, a função T : R2 −→ R3 definida por
T (x, y) = (x, y, x+ y + 3) não é uma transformação linear.
3. Com as operações usuais de adição e multiplicação escalar, o conjunto
L(V,W ) = {transformações lineares de V em W}
é um espaço vetorial sobre K.
Quando temos W = V , a transformação T : V −→ V é chamado um operador de
V .
61
62 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES
Agora, quando W = K, a transformação T : V −→ K é chamado um funcional
linear de V .
Exemplo 3.1.1. São transformações lineares:
1. a função T : R −→ R definida por T (x) = a.x (fixado a ∈ R);
2. a função T : R2 −→ R definida por T (x, y) = x+ y;
3. a função T : R3 −→ R2 definida por T (x, y, z) = (x− y, y − z);
4. a função 0 : V −→ W definida por 0(v) = 0;
5. a função I : V −→ V definida por I(v) = v;
6. a função D : K[x] −→ K[x] definida por D(p) = p′;
7. a função T : C0(R) −→ C0(R) definida por (Tf)(x) =
∫ x
0
f(t)dt;

Outros materiais