Buscar

Introducao a Algebra Linear - Abramo Hefez

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 3, do total de 308 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 6, do total de 308 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 9, do total de 308 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Prévia do material em texto

1
1
Livro: Introdução à Álgebra Linear
Autores: Abramo Hefez
Cecília de Souza Fernandez
Capítulo 1: Sistemas Lineares e Matrizes
Sumário
1 O que é Álgebra Linear? . . . . . . . . . . . . . . . 2
1.1 Corpos . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Espaços Vetoriais . . . . . . . . . . . . . . . . . . . 4
1.3 Sistemas de Equações Lineares . . . . . . . . . . . 9
2 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1 A Definição de Matriz . . . . . . . . . . . . . . . . 14
2.2 Operações com Matrizes . . . . . . . . . . . . . . . 16
2.3 Matriz Inversa . . . . . . . . . . . . . . . . . . . . 23
2 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
1 O que é Álgebra Linear?
Os espaços em que trabalharemos são os Rn, com n ≥ 2, isto é, o produto
cartesiano de n cópias da reta real R. Para n ≥ 4, este espaço generaliza
o espaço R2 dos vetores do plano e o espaço R3 dos vetores no espaço. A
diferença crucial entre os casos n = 2 e n = 3 e os casos em que n ≥ 4
é que, para estes últimos, não se dispõe de uma representação geométrica.
O fato não diminui a importância desses espaços, pois basta pensar que o
R4 é o espaço-tempo da Física, em que os pontos são quaternos (x, y, z, t),
com as três primeiras coordenadas representando a posição no espaço de uma
partícula ideal e a última representando o instante t em que esta partícula
ocupa tal posição. Por não existir uma representação geométrica para os
pontos de Rn com n ≥ 4, seremos obrigados a tratá-los algebricamente, sem
o recurso da visualização geométrica, tão fundamental em R2 e R3.
Portanto, trataremos os elementos de Rn como vetores, onde a soma de
dois vetores (x1, x2, . . . , xn) e (y1, y2, . . . , yn) é dada por
(x1, x2, . . . , xn) + (y1, y2, . . . , yn) = (x1 + y1, x2 + y2, . . . , xn + yn),
e a multiplicação do vetor (x1, x2, . . . , xn) pelo número real a, chamado de
escalar, é definida por
a(x1, x2, . . . , xn) = (ax1, ax2, . . . , axn).
Os espaços Rn são utilizados de modo essencial em quase todos os ramos
do conhecimento e, por este motivo, são estudados em Matemática sob os
mais variados pontos de vista e com as mais diversas estruturas. Por exem-
plo, no Cálculo Diferencial, são considerados como espaços normados; em
Geometria, como espaços com produto interno.
A estrutura de Rn estudada em Álgebra Linear é a induzida pela estrutura
de corpo da reta real R. Essa é a estrutura mínima apropriada para se estudar
sistemas de equações lineares com várias incógnitas. Além disso, é aquela
sobre a qual se constroem o Cálculo Diferencial e a Geometria Diferencial,
entre outros.
1. O QUE É ÁLGEBRA LINEAR? 3
Como a estrutura de corpo de R desempenhará papel fundamental, vamos
definir formalmente este conceito.
1.1 Corpos
Um conjunto K será chamado de corpo se for munido de uma operação
de adição (+) e uma operação de multiplicação (×), verificando as condições
a seguir.
A1 A adição é associativa:
(a+ b) + c = a+ (b+ c), para todos a, b, c ∈ K.
A2 A adição é comutativa:
a+ b = b+ a, para todos a, b ∈ K.
A3 A adição possui elemento neutro:
existe 0 ∈ K, tal que a+ 0 = a, para todo a ∈ K.
A4 A adição possui simétricos:
para todo a ∈ K, existe −a ∈ K tal que a+ (−a) = 0.
M1 A multiplicação é associativa:
(a× b)× c = a× (b× c), para todos a, b, c ∈ K.
M2 A multiplicação é comutativa:
a× b = b× a, para todos a, b ∈ K.
M3 A multiplicação possui elemento neutro:
existe 1 ∈ K \ {0}, tal que a× 1 = a, para todo a ∈ K.
M4 A multiplicação possui inversos:
para todo a ∈ K \ {0}, existe a−1 ∈ K tal que a× a−1 = 1.
AM A multiplicação é distributiva com relação à adição:
a× (b+ c) = a× b+ a× c, para todos a, b, c ∈ K.
Portanto, são corpos os conjuntos Q, R e C, com as suas respectivas
adições e multiplicações.
A operação de multiplicação em um corpo muitas vezes é denotada por
(·), escrevendo a · b, ou mesmo ab, no lugar de a× b, notação que adotaremos
ao longo deste livro.
4 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
Existem exemplos de corpos que à primeira vista parecem exóticos, como
o corpo de Galois
1 F2, que consiste dos dois elementos 0 e 1 com as seguintes
operações:
+ 0 1
0 0 1
1 1 0
× 0 1
0 0 0
1 0 1
Note que este é o corpo com o menor número possível de elementos,
pois todo corpo deve possuir os dois elementos distintos 0 e 1. Apesar de
parecerem apenas curiosidades, os corpos com um número finito de elementos
têm as mais variadas aplicações em quase toda a Matemática e são essenciais
na tecnologia e na computação.
1.2 Espaços Vetoriais
Os espaços Rn, por serem constituídos por vetores que podem ser soma-
dos e multiplicados por escalares, como vimos antes, são chamados espaços
vetoriais.
Como os espaços vetoriais são os objetos principais de estudo da Álgebra
Linear, vamos defini-los formalmente a seguir.
Um conjunto V será dito um espaço vetorial sobre um corpo K, se possui
uma adição (+) com as mesmas propriedades da adição em um corpo; ou
seja,
A1 A adição é associativa:
(u+ v) + w = u+ (v + w), para todos u, v, w ∈ V .
A2 A adição é comutativa:
u+ v = v + u, para todos u, v ∈ V .
A3 A adição possui elemento neutro (elemento zero):
existe 0 ∈ V , tal que v + 0 = v, para todo v ∈ V .
1
Em homenagem a Évariste Galois (França, 1811-1832), considerado um dos grandes
gênios da Matemática.
1. O QUE É ÁLGEBRA LINEAR? 5
A4 A adição possui simétricos:
para todo v ∈ V , existe −v ∈ V tal que v + (−v) = 0.
E além disso, existe uma operação chamada de multiplicação por escalar, que
associa a um elemento a ∈ K e a um elemento v ∈ V , um elemento av ∈ V ,
tal que
ME1 a(u+ v) = au+ av, para todos a ∈ K e u, v ∈ V .
ME2 (a1 + a2)v = a1v + a2v, para todos a1, a2 ∈ K e v ∈ V .
ME3 (a1a2)v = a1(a2v), para todos a1, a2 ∈ K e v ∈ V .
ME4 1v = v, para todo v ∈ V .
Os elementos de V serão chamados de vetores e os elementos de K de
escalares. Assim, o elemento 0 de V será chamado de vetor nulo e o elemento
−v de vetor oposto de v.
O primeiro matemático a dar uma definição abstrata para um espaço
vetorial foi Giuseppe Peano (Itália, 1858 - 1932) em seu livro Calcolo Geo-
metrico, de 1888. No Capítulo IX, Peano dá uma definição do que ele chama
de um sistema linear. Para Peano, um sistema linear consistia de quantidades
com operações de adição e multiplicação por escalar. A adição deveria satis-
fazer as leis comutativa e associativa, enquanto a multiplicação por escalar
deveria satisfazer duas leis distributivas, uma lei associativa e a lei de que
1 · v = v para toda quantidade v. Além disso, Peano incluiu como parte de
seu sistema de axiomas a existência de uma quantidade 0 (zero) satisfazendo
v + 0 = v, para todo v, assim como v + (−1)v = 0 para todo v. Peano
também definiu a dimensão de um sistema linear como o máximo número de
quantidades linearmente independentes do sistema (veja esta noção na Seção
2 do Capítulo 3). Peano verificou que o conjunto das funções polinomiais em
uma variável forma um sistema linear, mas não existia um tal número má-
ximo de quantidades linearmente independentes, portanto, a dimensão deste
sistema deveria ser infinito.
O fato a seguir decorre da definição de espaço vetorial. Para a ∈ K e
6 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
v ∈ V , tem-se que
a = 0 ou v = 0 ⇐⇒ av = 0.
De fato, sejam a ∈ K e 0 ∈ V . Como 0 + 0 = 0, pela propriedade ME1,
segue-se que
a 0 = a(0 + 0) = a 0 + a 0.
Somando o simétrico −a 0 de a 0 a ambos os lados da igualdade acima e
utilizando as propriedades A4, A1 e A3, temos que
0 = a 0 + (−a 0) = (a 0 + a 0) + (−a 0) = a 0 + [a 0 + (−a 0)] = a 0 + 0 = a 0.
De modo semelhante, mostra-se (faça-o) que para 0 ∈ K e v ∈ V tem-se
0 v = 0, onde o elemento 0 da direita é o elemento zero de V .
Reciprocamente, suponhamos que av = 0 e a 6= 0, então,multiplicando
ambos os lados da igualdade acima pelo escalar a−1, temos que
0 = a−10 = a−1(av) = (a−1a)v = 1v = v.
Dois vetores u e v em um espaço vetorial V serão ditos colineares, se
existir um elemento a em K tal que v = au. Portanto, são colineares os
vetores u e au, para todo a ∈ K. Note que o vetor 0 é colinear com qualquer
vetor v, pois 0 = 0v.
É um exercício fácil mostrar que Rn é um espaço vetorial sobre o corpo
R, com as operações de adição de vetores e a multiplicação por escalares
que definimos anteriormente, onde o elemento zero é o vetor (0, 0, . . . , 0) e o
simétrico de (x1, x2, . . . , xn) é o vetor
−(x1, x2, . . . , xn) = (−x1,−x2, . . . ,−xn).
Observe que não há nada de especial sobre os reais, além de sua estrutura
de corpo para que Rn seja um espaço vetorial sobre R. Mais geralmente,
dado um corpo qualquer K, o espaço Kn é um espaço vetorial sobre K, com
1. O QUE É ÁLGEBRA LINEAR? 7
operações semelhantes às de adição de vetores e de multiplicação de vetores
por escalares que definimos no caso em que K = R.
Por exemplo, os espaços vetoriais Fn2 sobre F2, por mais inócuos que
possam parecer, são de extrema utilidade em várias aplicações, dentre elas
na construção de códigos corretores de erros (veja a referência [3] para maiores
detalhes sobre esta teoria).
Outros exemplos importantes de espaços vetoriais são os espaços R e C
sobre o corpo Q e o espaço C sobre o corpo R.
Como sucede com frequência em Matemática, ao introduzir um conceito
para lidar com determinado problema, cria-se um instrumento que muitas
vezes transcende o problema inicial e se constitui em um conceito central em
vários outros contextos. Isto ocorreu com a noção de espaço vetorial, que
inicialmente foi introduzida para tratar de alguns tipos de problemas em Rn,
como a resolução de sistemas de equações lineares cuja discussão iniciaremos
na próxima subseção, e se desenvolveu em uma teoria com vida própria.
Pode-se sinteticamente dizer que a Álgebra Linear é a parte da Matemática
que se dedica ao estudo dos espaços vetoriais e de certas funções entre esses
espaços, chamadas de transformações lineares.
Embora muitas das ferramentas básicas da Álgebra Linear, particular-
mente as que estão relacionadas com sistemas lineares, datem da antigui-
dade, o assunto começou a tomar sua forma atual em meados dos século
XIX. A partir desta época, muitas noções estudadas em séculos anteriores
foram abstraídas e muitos métodos generalizados.
A Álgebra Linear tem várias aplicações fora da Matemática. Por exemplo,
citamos a teoria da relatividade e a mecânica quântica na Física e a teoria
de análise de regressão na Estatística.
A seguir, daremos alguns exemplos diferentes de Rn para ilustrar situações
onde aparecem os espaços vetoriais e que, muitas vezes, quando tratadas
dessa forma ganham clareza.
Exemplo 1 O conjunto das funções de um conjunto não vazio A em R
forma um espaço vetorial sobre R, onde a soma é a soma usual de funções
8 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
com valores reais
(f + g)(x) = f(x) + g(x), para todo x ∈ A,
e a multiplicação de uma função f por um escalar a ∈ R é definida como
sendo
(a f)(x) = a f(x), para todo x ∈ A.
Em particular, se I = [a, b] é um intervalo em R, sabe-se do Cálculo Dife-
rencial e Integral que o conjunto das funções contínuas, bem como o conjunto
das funções integráveis, de I em R, são espaços vetoriais sobre R.
Exemplo 2 De acordo com o Exemplo 1, o conjunto S das sequências de
números reais, isto é, o conjunto das funções de N \ {0} em R é um espaço
vetorial sobre R. É fácil verificar (leitor, faça-o) que o conjunto R(a, b) das
sequências (un) em S que satisfazem a recorrência
un+1 = aun + bun−1, n ≥ 2,
onde a e b são dois números reais fixados, é um espaço vetorial sobre R. Em
particular, o conjunto R(1, 1), que contém a sequência de Fibonacci2 (aquela
para a qual u1 = u2 = 1), é um espaço vetorial. Veremos no Capítulo 5
como esta informação nos ajudará a achar todas as sequências em R(1, 1),
determinando suas fórmulas fechadas.
Exemplo 3 (Peano) O conjunto K[x] dos polinômios com coeficientes em
um corpo K forma um espaço vetorial sobre K. Para n ∈ N, os conjuntos
K[x]n = {p(x) ∈ K[x] ; grau(p(x)) ≤ n} ∪ {0}
também são espaços vetoriais sobre K. Em particular, o conjunto
R[x]2 = {a0 + a1x+ a2x2; a0, a1, a2 ∈ R}
é um espaço vetorial sobre R.
2
Apelido de Leonardo de Pisa (Itália, ∼ 1170 - ∼ 1250). Foi o primeiro grande mate-
mático europeu da Idade Média.
1. O QUE É ÁLGEBRA LINEAR? 9
1.3 Sistemas de Equações Lineares
Desde a antiguidade, em diversas áreas do conhecimento, muitos pro-
blemas são modelados matematicamente por sistemas de equações lineares.
Damos a seguir um exemplo de sistema de equações lineares:{
x+ y = 36
x− y = 2, (1)
onde se subentende que estamos buscando dois números reais cuja soma
vale 36 e cuja diferença vale 2. Portanto, as soluções procuradas podem ser
representadas por pares de números reais (a, b) tais que, se substituírmos x
por a e y por b, nas equações, elas se tornam igualdades de fato. Por exemplo,
o par (x, y) = (19, 17) é uma solução, pois obtemos as igualdades:{
19 + 17 = 36
19− 17 = 2.
Os sistemas com duas equações lineares, como o acima, já eram consi-
derados pelos babilônios por volta de 1800 a.C. e resolvidos por um método
que chamamos hoje de método de eliminação gaussiana
3
.
Por exemplo, para resolver o sistema de equações (1), ao somarmos a
segunda equação à primeira, o transformamos no �sistema equivalente�,{
2x = 38
x− y = 2,
que seguimos transformando até obtermos um sistema onde as soluções são
trivialmente encontradas:{
2x = 38
x− y = 2 ⇔
{
x = 19
x− y = 2 ⇔
{
x = 19
x− y − x = 2− 19 ⇔
{
x = 19
y = 17.
3
Em homenagem a Carl Friedrich Gauss (Alemanha, 1777 - 1855), considerado um dos
maiores matemáticos de todos os tempos.
10 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
Esse método será generalizado e sistematizado para sistemas de equações
lineares com m equações e n incógnitas do tipo
a11x1 + a12x2 + · · ·+ a1nxn = b1
a21x1 + a22x2 + · · ·+ a2nxn = b2
.
.
.
am1x1 + am2x2 + · · ·+ amnxn = bm ,
(2)
onde os aij's e os bi's, para 1 ≤ i ≤ m e 1 ≤ j ≤ n, são números reais dados,
ou, mais geralmente, elementos de um corpo K dado.
Seja
S = {(c1, c2, . . . , cn) ∈ Rn ; ai1c1 + ai2c2 + · · ·+ aincn = bi, 1 ≤ i ≤ m}.
Esse subconjunto de Rn é chamado de conjunto solução do sistema (2). É
precisamente este conjunto que queremos determinar ou descrever o mais
explicitamente possível.
Note que para resolver o sistema (1), do exemplo acima, o modificamos
gradativamente, por meio de uma sequência de transformações elementares,
em um sistema mais simples de resolver, onde por transformação elementar
de um sistema entendemos uma das seguintes transformações:
1) Trocar a posição relativa de duas equações do sistema;
2) Trocar uma equação pela soma membro a membro da própria equação
com um múltiplo de outra;
3) Trocar uma equação dada por um de seus múltiplos (i.e., a equação obtida
multiplicando ambos os membros da equação dada por um número real não
nulo).
Diremos que dois sistemas de equações lineares são sistemas equivalentes,
se pudermos obter um sistema do outro a partir de uma sequência finita de
transformações elementares.
Esta relação entre sistemas é efetivamente uma relação de equivalência.
De fato, ela é claramente reflexiva, pois basta multiplicar uma das equações
1. O QUE É ÁLGEBRA LINEAR? 11
do sistema por 1; é transitiva, pois basta concatenar uma sequência de trans-
formações elementares com uma outra; e é simétrica, pois podemos desfazer
uma transformação elementar com outra.
Assim, é imediato verificar que:
Sistemas de equações linearesequivalentes possuem mesmo conjunto solução.
Dentre os sistemas de equações lineares, ocupam lugar de destaque os
sistemas homogêneos, ou seja, aqueles sistemas como em (2), porém com os
bi's todos nulos: 
a11x1 + a12x2 + · · ·+ a1nxn = 0
a21x1 + a22x2 + · · ·+ a2nxn = 0
.
.
.
am1x1 + am2x2 + · · ·+ amnxn = 0.
(3)
Esses sistemas possuem peculiaridades não compartilhadas pelos sistemas
mais gerais. Por exemplo, o vetor (0, 0, . . . , 0) pertence ao conjunto Sh de
soluções do sistema. Além disso, se os vetores u = (c1, c2, . . . , cn) e u
′ =
(c′1, c
′
2, . . . , c
′
n) são soluções do sistema, e se a ∈ R, então os vetores
u+ u′ = (c1 + c′1, c2 + c
′
2, . . . , cn + c
′
n) e au = (ac1, ac2, . . . , acn)
também são soluções do sistema (3) (leitor, verifique).
Assim, resulta que o espaço Sh das soluções do sistema (3) é um espaço
vetorial sobre R De fato, as propriedades A1 e A2 da definição são satisfeitas
para todos os vetores de Rn e em particular para os de Sh. Por outro lado,
(0, 0, . . . , 0) ∈ Sh e se (c1, c2, . . . , cn) ∈ Sh, então
−1(c1, c2, . . . , cn) = (−c1,−c2, . . . ,−cn) ∈ Sh,
o que mostra que a adição em Sh possui também as propriedades A3 e A4.
Além disso, as propriedades ME1�ME4 da multiplicação por escalar são fa-
cilmente verificadas para Sh.
Note que o que há de essencial em um sistema de equações lineares
(2) são os coeficientes das equações que o formam além dos números que
12 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
compõem os segundos membros das equações. Consideremos os vetores
(ai1, ai2, . . . , ain, bi) de Rn+1 que representam os coeficientes das equações do
sistema (2) acrescidos dos segundos membros e os organizemos como linhas
de uma tabela, chamada de matriz ampliada do sistema (2), como segue:
a11 a12 · · · a1n b1
a21 a22 . . . a2n b2
.
.
.
.
.
.
.
.
.
.
.
.
am1 am2 · · · amn bm
 . (4)
Quando o sistema de equações é homogêneo, a ele associamos a matriz
a11 a12 · · · a1n
a21 a22 . . . a2n
.
.
.
.
.
.
.
.
.
am1 am2 · · · amn
 ,
eliminando a coluna de zeros da direita na matriz (4).
As matrizes surgiram por volta do ano 200 a.C. com os chineses, motiva-
dos pelo interesse em calcular soluções de sistemas com mais de quatro equa-
ções lineares. De fato, no Capítulo 8 do texto intitulado Jiuzhang suanshu, de
autor desconhecido, que significa �Nove capítulos sobre a Arte Matemática" ,
fica claro que o procedimento de resolução de sistemas lineares usado pelos
chineses é semelhante ao método de escalonamento, que discutiremos ainda
neste capítulo, e é apresentado na forma de matrizes. Cabe observar que os
chineses só consideravam sistemas lineares com o mesmo número de equa-
ções e incógnitas, não constando em seus escritos o motivo desses sistemas
produzirem sempre uma única solução e como o algoritmo chinês funcionava.
Problemas
1.1 Verifique que o conjunto das funções de um conjunto não vazio A nos
reais é um espaço vetorial sobre R, com as operações definidas no Exemplo
1. O QUE É ÁLGEBRA LINEAR? 13
1. Verifique também que, para cada par de números reais (a, b), o conjunto
das recorrências R(a, b), definido no Exemplo 2, é um espaço vetorial sobre
R.
1.2 Seja v um elemento não nulo de um espaço vetorial V sobre R. Mostre
que é injetora a função
R → V
t 7→ tv.
1.3 Sejam v1 e v2 elementos de um espaço vetorial V sobre R. Mostre que a
função
R2 → V
(a1, a2) 7→ a1v1 + a2v2
é injetora se, e somente se, v1 e v2 não são colineares.
1.4 Diga, em cada caso, por que o conjunto com as operações indicadas não
satisfaz à definição de espaço vetorial, onde a ∈ R.
a) R2, com as operações:
(x, y) + (x′, y′) = (x+ x′, y + y′) e a(x, y) = (3ax, 3ay).
b) R2, com as operações:
(x, y) + (x′, y′) = (xx′, yy′) e a(x, y) = (ax, 0).
c) R3, com as operações:
(x, y, z) + (x′, y′, z′) = (0, 0, 0) e a(x, y, z) = (ax, ay, az).
1.5 Sejam U e W dois espaços vetoriais sobre um corpo K. Considere o
produto cartesiano V = U ×W desses dois conjuntos. Defina as seguintes
operações em V :
(u1, w1) + (u2, w2) = (u1 + u2, w1 + w2) e a(u1, w1) = (au1, aw1),
onde u1, u2 ∈ U , w1, w2 ∈ W e a ∈ K. Mostre que V com as operações de
adição e de mutiplicação por escalar, acima definidas, é um espaço vetorial
sobre K. Este espaço vetorial é chamado de espaço produto de U por W .
14 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
2 Matrizes
As matrizes são ferramentas básicas da Álgebra Linear, pois além de for-
necerem meios para a resolução dos sistemas de equações lineares, elas tam-
bém representarão as transformações lineares entre espaços vetoriais, como
veremos no Capítulo 6.
2.1 A Definição de Matriz
Dados m e n em N \ {0}, definimos uma matriz real de ordem m por n,
ou simplesmente uma matriz m por n (escreve-se m× n), como uma tabela
formada por elementos de R distribuídos em m linhas e n colunas. Estes
elementos de R são chamados entradas da matriz4. Por exemplo, a matriz
[3] é uma matriz 1× 1, ao passo que[
2 1 0
−1 −2 4
]
é uma matriz 2×3. As entradas da primeira linha da matriz são dadas pelos
números reais 2, 1 e 0 e as entradas da segunda linha da matriz são dadas
pelos números reais −1, −2 e 4.
É usual indicarmos as entradas de uma matriz arbitrária A pelos sím-
bolos Aij, ou ainda aij , onde os índices indicam, nessa ordem, a linha e a
coluna onde o elemento se encontra. Assim, uma matriz m×n é usualmente
representada por
A =

a11 a12 . . . a1n
a21 a22 . . . a2n
.
.
.
.
.
.
.
.
.
am1 am2 . . . amn
 ,
4
As entradas de uma matriz não precisam ser necessariamente números reais, podem
ser números complexos ou, mais geralmente, elementos de um corpo K.
2. MATRIZES 15
ou por A = [aij]m×n , ou simplesmente por A = [aij], quando a ordem da
matriz estiver subentendida. O símbolo M(m,n) denota o conjunto das
matrizes m× n.
Dependendo dos valores de m e n, uma matriz m × n recebe um nome
especial. De fato, toda matriz 1× n é chamada de uma matriz linha e toda
matriz m×1 é chamada de uma matriz coluna. Uma matriz n×n é chamada
de matriz quadrada de ordem n. Por exemplo, a matriz[
1 −3 1 0 4
]
é uma matriz linha de ordem 1× 5 e a matriz2 −1 00 1 2
3 1 4

é uma matriz quadrada de ordem 3.
Se A = [aij] é uma matriz quadrada de ordem n, as entradas aii , com
1 ≤ i ≤ n, formam a diagonal principal de A.
Uma matriz diagonal de ordem n é uma matriz quadrada de ordem n em
que os elementos que não pertencem à diagonal principal são iguais a zero:
a11 0 . . . 0
0 a22 . . . 0
.
.
.
.
.
.
.
.
.
0 0 . . . ann
 .
A matriz diagonal de ordem n cujas entradas da diagonal principal são
iguais ao número real 1, 
1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
0 0 . . . 1
 ,
é chamada matriz identidade de ordem n e denotada usualmente por In. Em
alguns casos, representaremos por simplicidade In apenas por I.
16 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
Uma matriz triangular superior de ordem n é uma matriz quadrada de
ordem n em que todos os elementos abaixo da diagonal principal são iguais
a zero: 
a11 a12 . . . a1n
0 a22 . . . a2n
.
.
.
.
.
.
.
.
.
0 0 . . . ann
 .
Portanto, uma matriz quadrada A = [aij] de ordem n é triangular superior
se aij = 0 sempre que i > j.
Analogamente, uma matriz triangular inferior de ordem n é uma matriz
quadrada de ordem n em que todos os elementos acima da diagonal principal
são iguais a zero: 
a11 0 . . . 0
a21 a22 . . . 0
.
.
.
.
.
.
.
.
.
an1 an2 . . . ann
 .
Portanto, uma matriz quadrada A = [aij] de ordem n é triangular inferior seaij = 0 sempre que i < j.
Uma matriz m × n cujas entradas são todas iguais a zero é chamada de
uma matriz nula. Por exemplo, a matriz[
0 0 0
0 0 0
]
é uma matriz nula de ordem 2× 3.
2.2 Operações com Matrizes
Dizemos que duas matrizes A = [aij]m×n e B = [bij]m×n, de mesma ordem,
são iguais, escrevendo A = B, quando aij = bij para todo 1 ≤ i ≤ m e para
todo 1 ≤ j ≤ n.
2. MATRIZES 17
Por exemplo, se x e y denotam números reais, temos que as matrizes[
x 0
1 y
]
e
[
−1 0
1 2
]
são iguais quando x = −1 e y = 2.
Definimos a seguir uma operação de adição no conjunto M(m,n) das
matrizes m× n.
Se A = [aij] e B = [bij] são duas matrizes de mesma ordem m × n, a
soma de A e B, denotada A + B, é a matriz C = [cij] de ordem m× n tal
que cij = aij + bij para todo 1 ≤ i ≤ m e para todo 1 ≤ j ≤ n.
Por exemplo,[
2 3 −1
0 −2 1
]
+
[
−2 −3 1
0 2 −1
]
=
[
0 0 0
0 0 0
]
.
Dada uma matriz A = [aij], define-se a matriz oposta de A, como a matriz
−A = [−aij].
A adição de matrizes tem propriedades semelhantes à adição nos números
reais, ou à adição de elementos em espaços vetoriais, como mostra o resultado
a seguir.
Proposição 1.2.1. Se A, B e C são matrizes de mesma ordem, então :
(i) A+ (B + C) = (A+B) + C (associatividade da adição);
(ii) A+B = B + A (comutatividade da adição);
(iii) A+ 0 = A, onde 0 denota a matriz nula m× n (elemento neutro);
(iv) A+ (−A) = 0.
Demonstração As propriedades acima decorrem diretamente das defini-
ções de igualdade e adição de matrizes. Por esta razão, provaremos apenas
o item (i) e deixaremos (ii), (iii) e (iv) como exercício (veja Problema 2.5).
(i): Se A = [aij], B = [bij] e C = [cij], então
A+ (B + C) = [aij] + [bij + cij] = [aij + (bij + cij)] =
[(aij + bij) + cij] = [aij + bij] + [cij] = (A+B) + C,
18 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
onde usamos a associatividade da adição de números reais. �
Uma outra operação importante com matrizes é a multiplicação por es-
calar. Dada a matriz A = [aij]m×n, definimos o produto de A pelo número
real a, como aA = [aaij]m×n.
Por exemplo,
−3
2 01 1
0 −1
 =
−6 0−3 −3
0 3
 .
Tendo definido as operações de adição e multiplicação por escalar em
M(m,n), definimos a operação de subtração da maneira usual: dada as
matrizes A e B emM(m,n),
A−B = A+ (−B).
Proposição 1.2.2. As seguintes propriedades se verificam para quaisquer A
e B ∈M(m,n), e a, a′ ∈ R:
(i) a(A+B) = aA+ aB;
(ii) (a+ a′)A = aA+ a′A;
(iii) a(a′A) = (aa′)A;
(iv) 1A = A.
Demonstração Provaremos apenas (i) e deixaremos a demonstração das
demais propriedades ao leitor (veja Problema 2.5).
(i): De fato, sejam A = [aij], B = [bij] elementos deM(m,n) e a um elemento
de R, então
a(A+B) = a[aij + bij] = [a(aij + bij)] = [aaij + abij] =
[aaij] + [abij] = a[aij] + a[bij] = aA+ aB,
onde usamos a distributividade da multiplicação em relação à adição de nú-
meros reais. �
2. MATRIZES 19
Assim, com as Proposições 1.2.1 e 1.2.2, provamos que o conjuntoM(m,n)
é um espaço vetorial sobre R.
O conjunto das matrizes tem uma estrutura muito mais rica do que a de
simples espaço vetorial, obtida com a noção de produto de matrizes, noção
esta, fundamental para a resolução de sistemas de equações lineares com o
uso de matrizes.
Nosso próximo objetivo é, portanto, definir a multiplicação de matrizes e
mostrar algumas de suas propriedades. A definição de produto de matrizes
foi apresentada por Arthur Cayley (Inglaterra, 1821-1895), no trabalho inti-
tulado �A Memoir on the Theory of Matrices�, publicado em 1858 na revista
Philosophical Transactions of the Royal Society of London. Neste trabalho,
Cayley notou que a multiplicação de matrizes, como foi definida, simplifica
em muito o estudo de sistemas de equações lineares. Também observou que
esta multiplicação deixava de apresentar propriedades importantes, como a
comutatividade e a lei do corte, e que uma matriz não nula não é necessaria-
mente invertível.
Sejam A = [aij]m×n e B = [bij]n×p duas matrizes. Definimos o produto
AB de A por B, denotado por AB, como a matriz C = [cij]m×p tal que
cij =
n∑
k=1
aik bkj = ai1 b1j + · · ·+ ain bnj
para todo 1 ≤ i ≤ m e para todo 1 ≤ j ≤ p.
Vamos explicar esta fórmula para obter o elemento da matriz AB que se
encontra na i-ésima linha e j-ésima coluna:
Na matriz A, destaque a i-ésima linha, e na matriz B, a j-ésima coluna.
Feito isto, multiplique ordenadamente o primeiro elemento da linha com o
primeiro elemento da coluna, o segundo elemento da linha com o segundo
elemento da coluna, etc., o último elemento da linha com o último elemento
da coluna e finalmente some esses números todos.
20 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
Por exemplo, 2 40 0
−1 3
 [−1 1
1 −1
]
=
 2(−1) + 4(1) 2(1) + 4(−1)0(−1) + 0(1) 0(1) + 0(−1)
−1(−1) + 3(1) −1(1) + 3(−1)
 =
2 −20 0
4 −4
 .
Note que para o produto de A por B estar definido, o número de colunas
de A deve ser igual ao número de linhas de B. Assim, se A e B são matrizes
2 × 3 e 3 × 1, respectivamente, o produto AB está definido e é uma matriz
2 × 1. Porém, o produto BA não está definido. Uma condição necessária
para que AB = BA é que A e B sejam matrizes quadradas de mesma ordem.
Contudo, esta condição não é suficiente. Por exemplo, as matrizes
A =
[
0 1
2 0
]
e B =
[
0 1
1 0
]
são matrizes quadradas de ordem 2, mas AB 6= BA. Assim, vemos que a
multiplicação de matrizes não possui a propriedade comutativa.
Observe que [
1 1
1 1
] [
1 1
−1 −1
]
= 0,
sem que nenhuma das duas matrizes seja nula. Portanto, na multiplicação de
matrizes, podemos ter AB = 0 sem que necessariamente A ou B seja nula.
Lembremos que isto não ocorre com a multiplicação de números reais, pois
dados dois números reais x e y tais que xy = 0, tem-se obrigatoriamente que
x = 0 ou y = 0.
Os sistemas lineares como em (2) da Seção 1 se expressam de modo per-
feito pela equação matricial
AX = B,
onde
A =

a11 a12 . . . a1n
a21 a22 . . . a2n
.
.
.
.
.
.
.
.
.
am1 am2 . . . amn
 , X =

x1
x2
.
.
.
xn
 e B =

b1
b2
.
.
.
bm
 .
2. MATRIZES 21
As matrizes A, X e B são chamadas, respectivamente, de matriz dos
coeficientes do sistema, matriz das incógnitas e matriz dos termos indepen-
dentes.
Na seguinte proposição apresentamos algumas propriedades da multipli-
cação de matrizes.
Proposição 1.2.3. Desde que as operações sejam possíveis, temos:
(i) A(B + C) = AB + AC (distributividade à esquerda da multiplicação
em relação à adição);
(ii) (A+B)C = AC +BC (distributividade à direita da multiplicação em
relação à adição);
(iii) (AB)C = A(BC) (associatividade);
(iv) A I = IA = A (existência de elemento identidade).
Demonstração Provaremos a propriedade (iii) e deixaremos a demons-
tração das demais propriedades ao leitor (veja Problema 2.5).
(iii): Suponhamos que as matrizes A, B e C sejam de ordens n× r, r × s e
s×m, respectivamente. Temos que(
(AB)C
)
ij
=
∑s
k=1(AB)ikckj =
∑s
k=1
(∑r
l=1 ailblk
)
ckj =
∑r
l=1 ail
(∑s
k=1 blkckj
)
=
∑r
l=1 ail(BC)lj =
(
A(BC))ij.
Isto mostra que a propriedade (iii) é válida. �
Tendo definido a multiplicação de matrizes, definimos a potenciação da
maneira usual: dados A emM(n, n) e k ∈ N \ {0},
A0 = In e A
k = A A · · ·A︸ ︷︷ ︸
k fatores
.
Dada uma matriz A = [aij]m×n, chamamos de transposta de A, e denota-
mos por At, a matriz [bij]n×m, onde
bij = aji,
22 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
para todo 1 ≤ i ≤ n e para todo 1 ≤ j ≤ m.
Por exemplo, −4 0−1 2
0 3

t
=
[
−4 −1 0
0 2 3
]
.
Uma matriz quadradaA é chamada simétrica se At = A e antissimétrica
se At = −A.
Por exemplo, dadas as matrizes
A =
 2 −1 3−1 1 0
3 0 5
 e B =
 0 1 −3−1 0 2
3 −2 0
 ,
a matriz A é simétrica e B é antissimétrica.
Terminamos esta seção apresentando o conceito de matriz em blocos.
Uma matriz A é dita ser uma matriz em blocos se A está subdividida em ma-
trizes menores, chamadas blocos. Esta subdivisão é, geralmente, apresentada
por linhas horizontais e/ou linhas verticais, como mostra o seguinte exemplo:[
2 1 1 0
6 4 0 1
]
=
[
2 1 | 1 0
6 4 | 0 1
]
.
Uma matriz pode ser subdividida em blocos de várias maneiras. Por
exemplo,
0 1 0 21 4 2 1
0 0 5 3
=

0 1 | 0 2
1 4 | 2 1
−− −− −− −− −−
0 0 | 5 3
=

0 | 1 | 0 2
−− −− −− −− −− −−
1 | 4 | 2 1
0 | 0 | 5 3
 .
Uma propriedade interessante da partição em blocos é que os resultados
das operações de adição e multiplicação com matrizes em blocos podem ser
obtidos efetuando o cálculo com os blocos, como se eles fossem simplesmente
elementos das matrizes.
2. MATRIZES 23
2.3 Matriz Inversa
Dada uma matriz quadrada A de ordem n, chamamos de inversa de A a
uma matriz quadrada B de ordem n tal que
AB = BA = In .
Por exemplo, dada a matriz
A =
[
2 5
1 3
]
,
temos que a matriz
B =
[
3 −5
−1 2
]
é uma inversa de A, já que AB = BA = I2 .
Note que uma matriz quadrada não possui necessariamente uma inversa.
Por exemplo, seja A =
[
0 0
0 0
]
. Dada qualquer matriz B =
[
a b
c d
]
, temos
que
AB =
[
0 0
0 0
] [
a b
c d
]
=
[
0 0
0 0
]
6= I2 .
Logo, A não tem inversa.
Mesmo que uma matriz não seja nula, ela pode não ter inversa. Por
exemplo, a matriz A =
[
1 1
1 1
]
não possui inversa, já que não existe uma
matriz quadrada B de ordem 2 tal que AB = I2 (verifique).
Uma matriz quadrada A é dita invertível se A admite uma matriz inversa.
Se uma matriz A possui uma inversa, então essa inversa é única. De fato,
suponhamos que B e C são duas inversas de uma matriz A de ordem n× n.
Então AB = In e CA = In . Assim, por (iii) e (iv) da Proposição 1.2.3,
C = C In = C(AB) = (CA)B = InB = B.
24 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
Já que a inversa, no caso de existir, é única, escrevemos A−1 para denotar a
inversa de A. Se k ∈ N\{0} e A é uma matriz invertível, definimos A−k por:
A−k = A−1A−1 · · ·A−1︸ ︷︷ ︸
k fatores
.
Vejamos algumas propriedades das matrizes inversas.
Proposição 1.2.4. Sejam A e B matrizes quadradas de ordem n.
(i) Se A é invertível, então A−1 é também invertível e (A−1)−1 = A.
(ii) Se A e B são invertíveis, então AB também é invertível e
(AB)−1 = B−1A−1.
Deixamos a demonstração desta proposição ao leitor (veja Problema 2.12),
bem como a generalização do item (ii) para um número arbitrário de fatores.
O interesse das matrizes invertíveis reside no fato de que dado um sistema
linear de equações com n equações e n incógnitas, AX = B, se soubermos
que a matriz A é invertível e soubermos como calcular sua inversa, então o
sistema se resolve efetuando apenas a multiplicação da matriz A−1 com B,
pois
AX = B =⇒ X = (A−1A)X = A−1(AX) = A−1B.
Vimos que uma matriz quadrada não nula não possui necessariamente
inversa. Uma pergunta natural é se podemos caracterizar as matrizes qua-
dradas invertíveis, ou seja, se podemos apresentar uma condição necessária
e suficiente para que uma matriz quadrada seja invertível. Também esta-
mos interessados em obter um método para o cálculo da inversa de uma
matriz invertível. No próximo capítulo, apresentaremos uma caracterização
de matrizes invertíveis e um método para inversão de matrizes que utiliza as
transformações elementares nas linhas de uma matriz e a forma escalonada.
No Capítulo 8, Proposição 8.3.1(iii), veremos um outro modo bem diferente
de atacar este problema pelo uso dos determinantes.
Problemas
2. MATRIZES 25
2.1* Sejam A=
[
1 −2 3
4 1 0
]
e B=
[
−1 2 0
1 −2 0
]
.
Calcule 2A, 3B e 2A−3B.
2.2 Determine os valores de x, y e z em R para que as matrizes A e B dadas
sejam iguais:
A =
[
x+ y 0
z x− 2y
]
e B =
[
13 0
1 4
]
.
2.3 Dadas as matrizes
A =
[
−1 4 −2
2 0 −1
]
, B =
[
0 1 −2
0 1 −1
]
, C =
11
3
 e D = [−1 1],
determine:
(a) A+B; (b) −2C; (c) AC; (d) CD; (e) BC; (f) DA.
2.4* Considere as matrizes
A = [aij]4×5 com aij = i− j,
B = [bij]5×9 com bij = j e
C = [cij] com C = AB.
(a) É possível determinar c63? Justifique a resposta.
(b) Determine c36.
2.5 Conclua as demonstrações das Proposições 1.2.1, 1.2.2 e 1.2.3.
2.6* Dada uma matriz A, dizemos que uma matriz X comuta com A se
AX = XA. Determine todas as matrizes que comutam com
A =
[
1 0
0 3
]
.
2.7 a) Mostre que a matriz c In, onde c ∈ R, comuta com toda matriz X ∈
M(n, n).
26 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
b) Ache todas as matrizes M =
[
x y
z t
]
que comutam com a matriz
[
1 1
0 1
]
.
2.8 Verdadeiro ou falso? Justifique.
(a) Se A e B são matrizes quadradas de mesma ordem, então
(A−B)(A+B) = A2 −B2.
(b) Se A, B e C são matrizes quadradas de mesma ordem tais que AB = AC,
então B = C.
2.9 Mostre que se A é uma matriz triangular superior, então A2 também é
uma matriz triangular superior.
2.10* (a) Obtenha At, onde A =
[
1 2 3
0 −1 4
]
.
(b) Verifique que a transposta de uma matriz triangular superior é uma
matriz triangular inferior.
(c) Mostre que (A+B)t = At +Bt e (kA)t = kAt, onde A e B são matrizes
de mesma ordem e k ∈ R.
(d) Se A é uma matriz m × n e B é uma matriz n × p, prove que
(AB)t = BtAt.
(e) Mostre que (At)t = A para toda matriz A de ordem m× n.
2.11* Mostre que se B é uma matriz quadrada, então:
(a) B +Bt e BBt são simétricas;
(b) B −Bt é antissimétrica.
(c) Observando que
B =
B +Bt
2
+
B −Bt
2
,
conclua que toda matriz quadrada se escreve como soma de uma matriz
simétrica e de uma matriz antissimétrica.
2. MATRIZES 27
(d) Mostre que a escrita em (c) é o único modo possível de escrever uma
matriz quadrada como soma de uma matriz simétrica e de uma matriz an-
tissimétrica.
2.12 Prove a Proposição 1.2.4.
2.13 Demonstre que:
(a) se A tem uma linha nula, então AB tem uma linha nula;
(b) se B tem uma coluna nula, então AB tem uma coluna nula;
(c) qualquer matriz quadrada com uma linha ou uma coluna nula não é
invertível.
2.14 Mostre que uma matriz A é invertível se, e somente se, At é invertível.
Conclua que as operações de inversão e de transposição comutam; isto é,
(At)−1 = (A−1)t, quando A é invertível.
2.15 Sejam a = (a1, . . . , an), b = (b1, . . . , bn) ∈ Rn. Definamos
Diag(a) =

a1 0 · · · 0
0 a2 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 · · · an
 .
Mostre que:
(a) Diag(a) + cDiag(b) = Diag(a+ cb) onde c ∈ R;
(b) Diag(a) ·Diag(b) = Diag(b) ·Diag(a) = Diag(a1b1, . . . , anbn);
(c) Diag(a)m = Diag(am1 , . . . , a
m
n ), onde m ∈ N \ {0};
(d) Em que condições a matriz Diag(a) é invertível e qual é a sua inversa?
Este problema mostra que somar, multiplicar, calcular potências e inver-
ter matrizes diagonais é muito simples.
2.16 Supondo que as matrizes A,B e C são matrizes quadradas de mesma
ordem e invertíveis, resolva as seguintes equações matriciais nas quais X é a
incógnita:
28 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES
(a) CX + 2B = 3B; (b) CAX t = C; (c) ABX = C.
2.17 Dada uma matriz A =
[
a b
c d
]
, mostre que :
a) se ad− bc 6= 0, então A é invertível e
A−1 =
1
ad− bc
[
d −b
−c a
]
;
b) se ad− bc = 0, então A não é invertível.
Bibliografia
[1] H. P. Bueno, Álgebra Linear, um segundocurso, Coleção Textos Univer-
sitários, SBM, 2006.
[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,
2001.
[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-
mática e Aplicações, IMPA, 2008.
[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção
PROFMAT, SBM, 2012.
[5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins
College Publishers, 1993.
[6] S. Lang, Introduction to Linear Algebra, 2
nd
edition, Undergraduate Texts
in Mathematics, Springer, 1986.
[7] E.L. Lima, Álgebra Linear , 3
a
edição, Coleção Matemática Universitária,
IMPA, 1998.
[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2
a
edição, Coleção
Matemática Universitária, IMPA, 2010.
300
2
29
Livro: Introdução à Álgebra Linear
Autores: Abramo Hefez
Cecília de Souza Fernandez
Capítulo 2: Transformação de Matrizes
e Resolução de Sistemas
Sumário
1 Transformação de Matrizes . . . . . . . . . . . . . . 30
1.1 Transformações Elementares de Matrizes . . . . . . 30
1.2 Forma Escalonada de uma Matriz . . . . . . . . . . 32
1.3 Matrizes Elementares e Aplicações . . . . . . . . . 35
2 Resolução de Sistemas Lineares . . . . . . . . . . . 42
30CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
O método de eliminação em sistemas de equações lineares consiste em e-
fetuar repetidamente transformações elementares sobre um sistema de equa-
ções lineares, de modo a ir obtendo sistemas equivalentes, até reduzir o sis-
tema original a um sistema de fácil resolução. Neste capítulo, reinterpreta-
remos na matriz ampliada associada a um sistema de equações lineares as
transformações que se efetuam nos sistemas de equações ao longo do processo
de eliminação, explicitando seu caráter algorítmico, ou seja, de procedimento
sistemático e efetivo. Esse método é essencialmente devido a Gauss e foi
aperfeiçoado por Camille Jordan (França, 1838 - 1922) e, por este motivo, é
chamado de eliminação de Gauss-Jordan.
1 Transformação de Matrizes
1.1 Transformações Elementares de Matrizes
Seja A uma matriz m × n. Para cada 1 ≤ i ≤ m, denotemos por Li a
i-ésima linha de A. Definimos as transformações elementares nas linhas da
matriz A como se segue:
1) Permutação das linhas Li e Lj, indicada por Li ↔ Lj .
2) Substituição de uma linha Li pela adição desta mesma linha com c
vezes uma outra linha Lj, indicada por Li → Li + cLj .
3) Multiplicação de uma linha Li por um número real c não nulo, indicada
por Li → cLi .
Por exemplo, vamos efetuar algumas transformações elementares nas li-
nhas da matriz 2 1 2 32 1 4 0
0 −1 2 3
 .
1. TRANSFORMAÇÃO DE MATRIZES 31
Temos 2 1 2 32 1 4 0
0 −1 2 3
 −→
L1 ↔ L3
0 −1 2 32 1 4 0
2 1 2 3
 ,
2 1 2 32 1 4 0
0 −1 2 3
 −→
L2 → 12 L2
2 1 2 31 1/2 2 0
0 −1 2 3

e 2 1 2 32 1 4 0
0 −1 2 3
 −→
L2 → L2 − L1
2 1 2 30 0 2 −3
0 −1 2 3
 .
Sejam A e B matrizes de ordem m×n. A matriz A é dita ser equivalente
por linhas à matriz B se B pode ser obtida de A pela aplicação sucessiva de
um número finito de transformações elementares sobre linhas.
Por exemplo, as matrizes 1 02 1
−2 3
 e
1 00 1
0 0

são equivalentes por linhas já que 1 02 1
−2 3
 −→
L2 → L2 − 2L1
 1 00 1
−2 3
 −→
L3 → L3 + 2L1
1 00 1
0 3
 −→
L3 → L3 − 3L2
1 00 1
0 0
 .
Observe que a noção de equivalência de matrizes por linhas corresponde
à noção de equivalência de sistemas lineares quando se efetuam as respec-
tivas transformações sobre as equações. De fato, a sistemas equivalentes,
correspondem matrizes associadas equivalentes, e vice-versa.
32CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
Note que se A é equivalente por linhas a uma matriz B, então B é equiva-
lente por linhas à matriz A, já que toda transformação elementar sobre linhas
é reversível. Mais precisamente, se e representa uma das transformações
elementares nas linhas de uma matriz A de ordem m×n, denotando por e(A)
a matriz obtida de A aplicando-lhe a transformação e, temos o resultado a
seguir.
Proposição 2.1.1. Toda transformação elementar e nas linhas de matri-
zes em M(m,n) é reversível, no sentido de que existe uma transformação
elementar e′ tal que e′(e(A)) = A e e(e′(A)) = A, para todo A ∈M(m,n).
Demonstração Se e é uma transformação elementar do tipo Li ↔ Lj , tome
e′ = e. Se e é uma transformação elementar do tipo Li → cLi , tome e′ como
a tranformação Li → 1c Li . Finalmente, se e é uma transformação elementar
do tipo Li → Li + cLj , tome e′ como a tranformação Li → Li − cLj . �
Não é difícil o leitor se convencer de que, em cada caso na demonstra-
ção anterior, e′ é a única transformação elementar com a propriedade que
e′(e(A)) = A para toda matriz A ∈M(m,n).
Se A é uma matriz equivalente por linhas a uma matriz B (e, então, B é
equivalente por linhas a A), dizemos simplesmente que A e B são matrizes
equivalentes.
1.2 Forma Escalonada de uma Matriz
Nesta subseção mostraremos que toda matriz pode ser transformada por
meio de uma sequência de transformações elementares sobre linhas numa
matriz em uma forma muito especial, a forma escalonada, que será utilizada
na próxima seção para resolver sistemas de equações lineares.
Uma matriz m×n será dita estar na forma escalonada se for nula, ou se:
1) o primeiro elemento não nulo de cada linha não nula é 1;
2) cada coluna que contém o primeiro elemento não nulo de alguma linha
tem todos os seus outros elementos iguais a zero;
1. TRANSFORMAÇÃO DE MATRIZES 33
3) toda linha nula ocorre abaixo de todas as linhas não nulas;
4) se L1, . . . , Lp são as linhas não nulas, e se o primeiro elemento não nulo
da linha Li ocorre na coluna ki , então k1 < k2 < · · · < kp .
Por exemplo, a matriz 0 1 2 0 10 0 0 1 3
0 0 0 0 0

está na forma escalonada, pois todas as condições da definição anterior são
satisfeitas, mas as matrizes1 0 0 00 1 −2 0
0 0 1 0
 e
0 3 11 0 −1
0 0 0

não estão na forma escalonada, pois a primeira não satisfaz a condição 2,
enquanto a segunda não satisfaz a condição 1 (observe que ela também não
satisfaz a condição 4).
Cabe aqui uma observação acerca da terminologia que utilizamos. Usu-
almente, na literatura, o termo �forma escalonada de uma matriz� refere-se
a uma forma menos especial do que a nossa, a qual vários autores chamam
de forma escalonada reduzida. A nossa justificativa para o uso dessa ter-
minologia é que não há razão para adjetivarmos a forma escalonada, pois
utilizaremos apenas uma dessas noções.
O resultado que apresentaremos a seguir nos garantirá que toda matriz é
equivalente por linhas a uma matriz na forma escalonada. O interesse desse
resultado reside no fato que ao reduzir a matriz ampliada associada a um
dado sistema de equações lineares à forma escalonada, encontramos um outro
sistema equivalente ao sistema dado que se encontra em sua expressão mais
simples. Quando aplicado aos sistemas de equações lineares, este resultado
é chamado de processo de eliminação de Gauss-Jordan.
34CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
Vejamos agora um algoritmo que reduz por linhas uma matriz dada não
nula qualquer a uma matriz na forma escalonada. O termo reduzir por linhas
significa transformar uma matriz usando as transformações elementares sobre
linhas. Este processo é também chamado de escalonamento de matrizes.
Passo 1. Seja k1 a primeira coluna da matriz dada com algum elemento não
nulo. Troque as linhas entre si de modo que esse elemento não nulo apareça
na primeira linha, isto é, de modo que na nova matriz a1k1 6= 0.
Passo 2. Para cada i > 1, realize a transformação
Li → Li − aik1a1k1
L1 .
Repita os Passos 1 e 2 na matriz assim obtida, ignorando a primeira linha.
Novamente, repita os Passos 1 e 2 nessa nova matriz, ignorando as duas
primeiras linhas etc., até alcançar a última linha não nula.
Passo 3. Se L1, . . . , Lp são as linhas não nulas da matriz obtida após termi-
nar o processo acima e se ki é a coluna na qual aparece o primeiro elemento
não nulo aiki da linha Li, aplique as transformações
Li → 1
aiki
Li para todo 1 ≤ i ≤ p.
Passo 4. Realize na matriz obtida até então as transformações
L` → L` − a`ki Li , ` = 1, . . . , i− 1,
para i = 2. Depois para i = 3, e assim por diante, até i = p. Dessa forma,
obteremos uma matriz na forma escalonada que é equivalente por linhas à
matriz dada.
Estabelecemos assim o seguinte resultado:
Teorema 2.1.2. Toda matriz é equivalente a uma matriz na forma escalo-
nada.
Por exemplo, a matriz 1 2 −3 00 0 4 2
0 0 0 1/2

1. TRANSFORMAÇÃO DE MATRIZES 35
é transformada numa matriz na forma escalonada com a seguinte sequência
de transformações sobre suas linhas:1 2 −3 00 0 4 2
0 0 0 1/2
 −→
L2 → 14 L2
1 2 −3 00 0 1 1/2
0 0 0 1/2
 −→
L3 → 2L3
1 2 −3 00 0 1 1/2
0 0 0 1

−→
L1 → L1 + 3L2
1 2 0 3/20 0 1 1/2
0 0 0 1
 −→L1 → L1 − 32 L3
L2 → L2 − 12 L3
1 2 0 00 0 1 0
0 0 0 1
 .
Pelo algoritmo acima, deduzimos que qualquer matriz é equivalente a pelo
menos uma matriz na forma escalonada. Como em cada passo do algoritmo
temos certa margem de escolhas de transformações elementares sobre as li-
nhas da matriz, não há aparentemente nenhum motivo para poder afirmar
que a forma escalonada de uma dada matriz seja única. Fato é que, não
importando qual a sequência de transformações elementares que efetuemos
nas linhas de uma dada matriz, no final do processo chegamos a uma mesma
matriz na forma escalonada que é equivalente à matriz dada. Este resultado
será provado na última seção do capítulo
1.3 Matrizes Elementares e Aplicações
Uma matriz elementar de ordem n é uma matriz quadrada de ordem n
obtida da matriz identidade In a parir da aplicação de uma transformação
elementar, isto é, trata-se de uma matriz da forma
E = e(In),
onde e é uma transformação elementar. Por exemplo, a matriz identidade é
uma matriz elementar e as matrizes
e(I2) =
[
0 1
1 0
]
, onde e : L1 ↔ L2,
36CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
e
e(I3) =
1 1 00 1 0
0 0 1
 , onde e : L1 → L1 + L2,
são matrizes elementares de ordem 2 e de ordem 3, respectivamente.
Sejam A ∈ M(m,n) e e uma transformação elementar. O próximo re-
sultado, cuja demonstração fica como exercício para o leitor (veja Problema
1.3), nos diz que a matriz e(A) pode ser obtida como o produto da matriz
elementar e(Im) pela matriz A. Por exemplo, consideremos
A =
1 20 1
2 1
 .
Se e1 : L1 ↔ L2 , e2 : L1 → 2L1 e e3 : L1 → L1 + 2L2 , uma rápida verificação
nos mostra que e1(A) = e1(I3)A, e2(A) = e2(I3)A e e3(A) = e3(I3)A.
Teorema 2.1.3. Seja e uma transformação elementar sobre matrizes de
M(m,n). Considere a matriz elementar E = e(Im). Então
e(A) = EA, para todo A ∈M(m,n).
Como consequência do Teorema 2.1.3, temos
Corolário 2.1.4. Sejam A e B em M(m,n). Então, A é equivalente a B
se, e somente se, existem matrizes elementares E1, . . . , Es de ordem m tais
que
Es · · ·E2 E1 A = B.
Demonstração Por definição, A é equivalente a B quando existem trans-
formações elementares e1, . . . , es tais que
es(. . . (e2(e1(A))) . . . ) = B.
Mas, pelo teorema anterior, a igualdade acima equivale a
Es · · ·E2 E1 A = B,
1. TRANSFORMAÇÃO DE MATRIZES 37
onde Ei = ei(Im), para cada 1 ≤ i ≤ s. �
Corolário 2.1.5. Toda matriz elementar é invertível e sua inversa também
é uma matriz elementar.
Demonstração Seja E uma matriz elementar. Seja e a transformação
elementar tal que E = e(I). Se e′ é a transformação elementar inversa de e e
se E ′ = e′(I), pelo Teorema 2.1.3 temos
I = e′(e(I)) = e′(E) = e′(I)E = E ′E
e
I = e(e′(I)) = e(E ′) = e(I)E ′ = E E ′ .
Logo, E é invertível e E−1 = E ′. �
Pelo Corolário 2.1.5 sabemos como inverter uma matriz elementar. Por
exemplo, se considerarmos as matrizes
A =
0 1 01 0 0
0 0 1
 e B =
1 2 00 1 0
0 0 1
 ,
podemos concluir que A e B são invertíveis, já que A e B são matrizes
elementares. De fato, A = e1(I3) com e1 : L1 ↔ L2 e B = e2(I3) com
e2 : L1 → L1 + 2L2 . Pelo Corolário 2.1.5, A−1 = e′1(I3), onde e′1 é a trans-
formação elementar inversa de e1 e B
−1 = e′2(I3), onde e
′
2 é a transformação
elementar inversa de e2 . Mais precisamente,
A−1 =
0 1 01 0 0
0 0 1
 e B−1 =
1 −2 00 1 0
0 0 1
 .
A seguir, apresentamos o resultado central desta seção que caracteriza as
matrizes invertíveis.
Teorema 2.1.6. Para uma matriz quadrada A de ordem n, são equivalentes
as seguintes afirmações:
(i) A é invertível;
38CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
(ii) Se B é uma matriz na forma escalonada equivalente a A, então B = In;
(iii) A é uma matriz elementar ou um produto de matrizes elementares.
Demonstração Vamos começar provando a implicação (i) ⇒ (ii). Com
efeito, como B é equivalente a A, pelo Corolário 2.1.4, existem matrizes
elementares E1, E2, . . . , Es tais que
Es · · ·E2 E1 A = B.
Como, pelo Corolário 2.1.5, cada Ei é invertível e A, por hipótese, é inver-
tível, temos que B é invertível (cf. Proposição 1.2.4). Por outro lado, pelo
Problema 1.7, temos que B = In.
A implicação (ii) ⇒ (iii) é evidente, já que A = E−11 E−12 · · ·E−1s B, onde
B = In e cada E
−1
i é uma matriz elementar (cf. Corolário 2.1.5).
A implicação (iii) ⇒ (i) é evidente, pois matrizes elementares são invertíveis
e produtos de matrizes invertíveis são invertíveis (cf. Proposição 1.2.4). �
Observe, como decorrência do resultado acima, que uma matriz quadrada
invertível é equivalente a uma única matriz na forma escalonada (a matriz
identidade), ficando estabelecida, neste caso, a unicidade da forma escalo-
nada.
Finalizamos esta seção apresentando um método para inversão de matri-
zes por meio de transformações elementares.
Proposição 2.1.7. Sejam A uma matriz invertível e e1, . . . , es uma sequên-
cia de transformações elementares tais que es(. . . (e2(e1(A))) . . . ) = I, onde
I é a matriz identidade. Então essa mesma sequência de transformações
elementares aplicada a I produz A−1; isto é, es(. . . (e2(e1(I))) . . . ) = A−1.
Demonstração Para cada 1 ≤ i ≤ s, seja Ei a matriz elementar corres-
pondente à transformação ei . Então
Es · · ·E2 E1 A = I .
Assim,
(Es · · ·E2 E1 I)A A−1 = I A−1,
1. TRANSFORMAÇÃO DE MATRIZES 39
donde
Es · · ·E2 E1 I = A−1.
�
Para ilustrarmos o uso do Teorema 2.1.6 e da Proposição 2.1.7, conside-
remos a matriz
A =
1 0 22 −1 3
4 1 8
 .
Se aplicarmos uma sequência de transformações elementares em A até obter-
mos uma matriz B na forma escalonada, pelo Teorema 2.1.6, A é invertível
se, e somente se, B = I3 . Se B = I3 , pela Proposição 2.1.7, essa mesma
sequência de transformações elementares aplicada a I3 resultará em A
−1
. As-
sim, vamos formar a matriz em blocos
[
A | I3
]
e vamos reduzir esta matriz
3× 6 a uma matriz na forma escalonada. De fato,
[
A | I3
]
=
1 0 2 | 1 0 02 −1 3 | 0 1 0
4 1 8 | 0 0 1
 −→L2 → L2 − 2L1
L3 → L3 − 4L1
1 0 2 | 1 0 00 −1 −1 | −2 1 0
0 1 0 | −4 0 1

−→
L2 → −L2
1 0 2 | 1 0 00 1 1 | 2 −1 0
0 1 0 | −4 0 1
 −→
L3 → L3 − L2
1 0 2 | 1 0 00 1 1 | 2 −1 0
0 0 −1 | −6 1 1

−→
L3 → −L3
1 0 2 | 1 0 00 1 1 | 2 −1 0
0 0 1 | 6 −1 −1
 −→L1 → L1 − 2L3
L2 → L2 − L3
1 0 0 | −11 2 20 1 0 | −4 0 1
0 0 1 | 6 −1 −1
 .
Como obtemos uma matrizna forma
[
I3 |C
]
, temos que A é invertível e
C = A−1. Assim,
A−1 =
−11 2 2−4 0 1
6 −1 −1
 .
40CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
Consideremos agora a matriz
A =
1 0 10 2 1
3 0 3
 .
Ao reduzirmos a matriz em blocos
[
A | I3
]
a uma matriz na forma esca-
lonada, obtemos a matriz
[
B | C], onde B =
1 0 10 1 1/2
0 0 0
 e, portanto,
diferente de I3 . Logo, A não é invertível por ser equivalente a uma matriz
com uma linha nula (cf. Problema 1.7).
Problemas
1.1* Seja A =
[
2 1
−1 3
]
.
(a) Obtenha a forma escalonada de A.
(b) A é invertível? Justifique.
(c) Se A for invertível, escreva a matriz A−1 como um produto de matrizes
elementares.
1.2 Determine a matriz inversa de cada uma das matrizes dadas:
(a) A =
[
12 7
5 3
]
;
(b) B =
 −2 3 −11 −3 1
−1 2 −1
;
(c) C =

−2 −1 0 2
3 1 −2 −2
−4 −1 2 3
3 1 −1 −2
.
1.3 Demonstre o Teorema 2.1.3.
1. TRANSFORMAÇÃO DE MATRIZES 41
1.4 Determine a forma escalonada das matrizes:
(a) A =
0 1 3 −22 1 −4 3
2 3 2 −1
; (b) B =
1 2 −1 2 12 4 1 −2 3
3 6 2 −6 5
;
(c) C =

1 3 −1 2
0 11 −5 3
2 −5 3 1
4 1 1 5
.
1.5 Uma certa sequência de transformações elementares aplicadas a uma
matriz A produz uma matriz B. A mesma sequência aplicada a AB produzirá
que matriz? Justifique sua resposta.
1.6 Descreva todas as possíveis matrizes 2×2 que estão na forma escalonada.
1.7 Seja A uma matriz quadrada na forma escalonada. Mostre que são
equivalentes as seguintes asserções:
(a) A matriz A não tem linhas nulas.
(b) A é a matriz identidade.
(c) A é invertível.
Sugestão Use o Problema 2.13(c), do Capítulo 1.
1.8* Sejam A e B matrizes quadradas de mesma ordem.
(a) Mostre que, se AB = I, então A é invertível e A−1 = B. Assim AB = I
se, e somente se, BA = I.
(b) Mostre que AB é invertível se, e somente se A e B são invertíveis.
Por definição, uma matriz quadrada A é invertível quando existe uma
matriz quadrada B tal que AB = I e BA = I. No entanto, pelo problema
acima, no contexto das matrizes quadradas, basta encontrar B tal que AB = I
ou tal que BA = I para que A seja invertível. Ou seja, se uma das duas
igualdades é satisfeita, então a outra é automaticamente satisfeita.
1.9 Sejam E1, E2 e E3 as matrizes elementares de ordem n obtidas da identi-
dade pelas transformações elementares Li ↔ Lj, Li → Li + kLj e Li → cLi,
42CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
onde j 6= i, respectivamente. Mostre que Et1 = E1, Et2 = E ′2 e Et3 = E3,
onde E ′2 é a matriz elementar obtida da identidade mediante a transforma-
ção Lj → Lj + kLi.
2 Resolução de Sistemas Lineares
Finalmente, nesta seção, poremos em funcionamento a maquinária desen-
volvida com as matrizes para a resolução de sistemas de equações lineares,
culminando com o Teorema do Posto. Trata-se de um resultado central
dessa teoria que descreve a resolubidade dos sistemas de equações lineares
gerais. Este teorema é também conhecido no Ensino Médio como Teorema de
Rouché-Capelli, em homenagem aos matemáticos Eugène Rouché (França,
1832�1919) e Alfredo Capelli (Itália, 1855�1910).
Quanto a suas soluções, um sistema linear se classifica como impossí-
vel, ou possível e determinado, ou possível e indeterminado. Um sistema
linear é chamado impossível , quando não tem solução, possível e determi-
nado, quando tem uma única solução e possível e indeterminado, quando
tem mais de uma solução. .
Já foi observado anteriormente que um sistema linear homogêneo com n
incógnitas é sempre possível, pois admite como solução a n-upla (0, 0, . . . , 0),
2. RESOLUÇÃO DE SISTEMAS LINEARES 43
chamada solução trivial . Qualquer outra solução, se existir, é dita solução
não trivial do sistema.
Dado um sistema linear AX = B, o sistema linear AX = 0 é chamado
de sistema linear homogêneo associado. A relação fundamental entre um
sistema linear e seu sistema linear homogêneo associado é apresentada na
proposição a seguir.
Proposição 2.2.1. Seja AX = B um sistema linear. Suponhamos que X1
seja uma solução do sistema AX = B e que Sh seja o conjunto solução do
sistema linear homogêneo associado AX = 0. Então
S = {X1 + Z ; Z ∈ Sh} (1)
é o conjunto solução do sistema AX = B.
Demonstração Para demonstrarmos (1), usaremos algumas propriedades
já vistas da adição e da multiplicação por escalar de matrizes.
De fato, se X2 ∈ S, podemos escrever X2 = X1 + Z com Z ∈ Sh. Como
X1 é uma solução particular de AX = B e Z ∈ Sh, segue que AX1 = B e
AZ = 0. Logo,
AX2 = A(X1 + Z) = AX1 + AZ = B + 0 = B,
mostrando que X2 é uma solução do sistema AX = B.
Por outro lado, tomemos uma solução X2 do sistema AX = B e defina-
mos Z = X2 −X1. Temos, então, que
AZ = A(X2 −X1) = AX2 − AX1 = B −B = 0;
logo Z = X2 −X1 ∈ Sh. Portanto, X2 = X1 + Z ∈ S. �
Observamos que o resultado acima é apenas de interesse teórico, pois não
nos ajuda a obter o conjunto solução de um sistema linear. Um método bem
eficaz para se resolver um sistema linear é o método do escalonamento. Este
consiste em se tomar a matriz ampliada de um sistema linear e aplicar uma
sequência de transformações elementares a esta matriz, de modo a obtermos
44CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
uma matriz equivalente que seja a matriz ampliada de um sistema linear
�fácil� de se resolver.
Exemplo 1. Resolvamos o sistema linear
x+ y − 2z + 3w = 4
2x+ 3y + 3z − w = 3
5x+ 7y + 4z + w = 5 .
(2)
Observemos que1 1 −2 3 | 42 3 3 −1 | 3
5 7 4 1 | 5
 −→L2 → L2 − 2L1
L3 → L3 − 5L1
1 1 −2 3 | 40 1 7 −7 | −5
0 2 14 −14 | −15
 −→
L3 → L3 − 2L2
1 1 −2 3 | 40 1 7 −7 | −5
0 0 0 0 | −5
 ,
(3)
sendo que esta última matriz é a matriz ampliada do sistema linear
x+ y − 2z + 3w = 4
y + 7z − 7w = −5
0x+ 0y + 0z + 0w = −5 .
(4)
Note que o sistema (4) é impossível. A pergunta que fazemos é: qual
a relação do sistema (4) com o originalmente proposto? A resposta é que
eles têm o mesmo conjunto solução, já que (2) e (4) têm matrizes ampliadas
equivalentes. Mais precisamente, temos o resultado a seguir.
Proposição 2.2.2. Dois sistemas lineares com matrizes ampliadas equiva-
lentes têm o mesmo conjunto solução.
Demonstração É só lembrar que efetuar transformações elementares sobre
as linhas da matriz ampliada do sistema, equivale a efetuar transformações
elementares no sistema de equações, obtendo um sistema equivalente. �
2. RESOLUÇÃO DE SISTEMAS LINEARES 45
A matriz ampliada do sistema linear (2) poderia ter sido reduzida por
linhas a uma matriz na forma escalonada. Porém, a equação
0x+ 0y + 0z + 0w = −5
obtida da última linha da matriz final em (3) já garante, pela Proposição
2.2.2, que o sistema (2) é impossível. De fato, dado um sistema linear nas in-
cógnitas x1, x2, . . . , xn, se após uma sequência de transformações elementares
ocorrer uma equação da forma
0x1 + 0x2 + · · ·+ 0xn = b, com b 6= 0,
então o sistema é impossível; ou seja, não tem solução.
Quando aplicarmos a Proposição 2.2.2 a um sistema homogêneo não é ne-
cessário tomar a matriz ampliada, basta considerar a matriz dos coeficientes
do sistema.
Exemplo 2. Determinemos o conjunto solução do sistema linear homogêneo
x+ 2y + 3z − 5w = 0
2x+ 4y + z + 2w = 0
x+ 3y + 4z = 0
3x+ 5y + 8z − 10w = 0.
Ora, basta considerarmos a matriz dos coeficientes do sistema. Assim,

1 2 3 −5
2 4 1 2
1 3 4 0
3 5 8 −10

−→
L2 → L2 − 2L1
L3 → L3 − L1
L4 → L4 − 3L1

1 2 3 −5
0 0 −5 12
0 1 1 5
0 −1 −1 5
 −→L4 → L4 + L3

1 2 3 −5
0 0 −5 12
0 1 1 5
0 0 0 10
 ,
sendo esta última matriz, a matriz dos coeficientes dosistema linear homo-
gêneo 
x+ 2y + 3z − 5w = 0
−5z + 12w = 0
y + z + 5w = 0
10w = 0,
46CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
que admite apenas a solução (0, 0, 0, 0). Assim, o conjunto solução do sistema
originalmente dado é S = {(0, 0, 0, 0)}.
Para apresentarmos o resultado central deste capítulo, necessitaremos de
alguns resultados que estabeleceremos a seguir.
Lema 2.2.3. Seja dada uma matriz A = [A′ | A′′] na forma escalonada, onde
A′ é uma matriz m× (n− 1) e A′′ é uma matriz m× 1. Sejam k1, . . . , kp as
posições das colunas de A onde ocorrem os primeiros elementos não nulos das
linhas não nulas L1, . . . , Lp, respectivamente. O sistema A
′X = A′′ admite
solução se, e somente se, kp 6= n.
Demonstração Observe que como A está na forma escalonada, a matriz
A′ também está na forma escalonada.
Se kp = n, então a p-ésima linha da matriz A é (0 0 · · · 0 1). Assim,
o sistema A′X = A′′ tem uma equação da forma 0x1 + · · · + 0xn−1 = 1, que
não tem solução.
Se kp 6= n, temos que p ≤ kp < n. Assim, se os ai's são as entradas de
A′′, temos que ap+1 = · · · = am = 0. Se denotarmos por Ai a i-ésima coluna
da matriz A, temos que
A′k1 = Ak1 =

1
0
.
.
.
0
.
.
.
0

, A′k2 = Ak2 =

0
1
.
.
.
0
.
.
.
0

, . . . , A′kp = Akp =

0
0
.
.
.
1
.
.
.
0

,
onde cada matriz acima tem as últimas m − r entradas nulas. O sistema
A′X = A′′ se escreve, em blocos, da seguinte forma:
a = [A1 | A2 | . . . | An−1]X = A1x1 + A2x2 + · · ·+ An−1xn−1.
Para achar uma solução do sistema basta tomar xki = ai e xj = 0, se j 6= ki,
para todo i = 1, . . . , p. �
2. RESOLUÇÃO DE SISTEMAS LINEARES 47
A seguir, daremos a prova da unicidade da forma escalonada de uma
matriz.
Teorema 2.2.4. (Unicidade da forma escalonada) Existe uma única
matriz na forma escalonada equivalente por linhas a uma dada matriz.
Demonstração Basta mostrar que dadas duas matrizes A e B na forma
escalonada e equivalentes por linhas, então A = B (justifique). O resultado
será provado por indução sobre o número n de colunas da matriz. Para n = 1,
as únicas matrizes na forma escalonada são
0
0
.
.
.
0
 e

1
0
.
.
.
0
 .
Como qualquer transformação aplicada às linhas da primeira matriz não a
altera, as duas matrizes acima não são equivalentes, daí decorre a unicidade,
nesse caso.
Admitamos o resultado verdadeiro para matrizes com n−1 colunas, onde
n ≥ 2. Sejam A e B duas matrizes m × n, ambas na forma escalonada e
equivalentes. Escrevamos A = [A′ | A′′] e B = [B′ | B′′], onde A′ e B′ são os
blocos formados com as n− 1 colunas de A e de B, e A′′ e B′′ são as últimas
colunas de A e de B, respectivamente. É imediato verificar pela definição
que A′ e B′ estão na forma escalonada; e que A′ é equivalente a B′, pois as
mesmas operações elementares que transformam A em B, transformam A′
em B′. Portanto, pela hipótese de indução, temos que A′ = B′. Estamos
então reduzidos a duas matrizes A = [A′ | A′′] e B = [A′ | B′′] na forma
escalonada e equivalentes. Vamos desdobrar a nossa análise em dois casos.
Caso 1) A matriz A é tal que kp = n. Assim, a matriz A
′
tem as primeiras
p − 1 linhas não nulas e a p-ésima linha nula e as entradas ai de A′′ são
tais que ai = 0, se i 6= p e ap = 1. Pelo Lema 2.2.3, o sistema A′X = A′′
não tem solução. Como as matrizes A = [A′ | A′′] e B = [A′ | B′′] são
equivalentes, pela Proposição 2.2.2, os sistemas A′X = A′′ e A′X = B′′
48CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
são também equivalentes, o que implica que o segundo sistema também não
admite solução. Aplicando novamente o Lema 2.2.3 ao sistema A′X = B′′,
temos que bp = 1 e bi = 0, se i 6= p, o que nos diz que A′′ = B′′.
Caso 2) A matriz A é tal que kp 6= n. Pelo Lema 2.2.3 tem-se que o sistema
A′X = A′′ tem uma solução X0. Como os sistemas são equivalentes, temos
que X0 é solução do sistema A
′X = B′′, logo A′′ = A′X0 = B′′. �
A demonstração do Teorema 2.2.4, acima, foi inspirada em [1], o qual
recomendamos para estudos mais avançados de Álgebra Linear.
Seja A uma matriz de ordem m×n. Pelo Teorema 2.2.4, A é equivalente
a uma única matriz A˜, de ordem m×n, na forma escalonada. Dizemos que A˜
é a forma escalonada de A. Portanto, faz sentido definir o posto p da matriz
A como o número de linhas não nulas de sua forma escalonada A˜.
Por exemplo, se
A =
 1 2 1 0−1 0 3 5
1 −2 1 1
 ,
sua forma escalonada é a matriz
A˜ =
1 0 0 −7/80 1 0 −1/4
0 0 1 11/8
 .
Portanto, o posto p de A é igual a 3, pois o número de linhas não nulas de
A˜ é 3.
Para matrizes quadradas temos o seguinte resultado:
Corolário 2.2.5. Uma matriz quadrada de ordem n é invertível se, e so-
mente se, ela tem posto n.
Demonstração Se a matriz é invertível, então pelo Teorema 2.1.6, sua
forma escalonada é In, logo tem posto n.
Reciprocamente, seja dada uma matriz quadrada de ordem n e seja A˜ sua
forma escalonada. Se A tem posto n, então A˜ não tem linhas nulas, logo,
2. RESOLUÇÃO DE SISTEMAS LINEARES 49
pelo Problema 1.7, A˜ = In. Pelo Corolário 2.1.4, temos que
A = Es . . . E1A˜ = Es . . . E1,
onde E1, . . . , Es são matrizes elementares, logo invertíveis (cf. Corolário
2.1.5). Daí decorre que A é invertível por ser produto de matrizes inver-
tíveis (cf. Proposição 1.2.4(ii)). �
Observe que o Lema 2.2.3 pode ser reinterpretado com a noção de posto
do seguinte modo:
Um sistema de equações lineares AX = B admite solução se, e somente
se, o posto da matriz aumentada [A | B] do sistema tiver posto igual ao da
matriz A do sistema.
De fato, o que mostramos foi que o sistema possui solução se, e somente se,
a última linha não nula da forma escalonada da matriz ampliada do sistema
não for da forma (0 0 . . . 0 1).
Isto é parte do Teorema de Rouché-Capelli, resultado central deste capí-
tulo e que apresentamos na íntegra a seguir.
Teorema 2.2.6. (Teorema do Posto) Consideremos um sistema linear
com m equações e n incógnitas AX = B. Sejam pAB o posto da matriz
ampliada do sistema e pA o posto da matriz dos coeficientes do sistema.
Então
(i) O sistema é possível se, e somente se, pAB = pA.
(ii) O sistema é possível e determinado se pAB = pA = n.
(iii) O sistema é possível e indeterminado se pAB = pA < n. Neste caso,
n− pA é o número de incógnitas livres do sistema, ou seja, incógnitas
que podem assumir qualquer valor real.
Demonstração Seja AX = B um sistema linear com n incógnitas. Seja
C = [A | B] a matriz ampliada do sistema e seja C˜ = [A˜ | B˜] a forma
escalonada de C. Denotaremos A˜ = [a˜ij] e B˜ = [b˜i].
50CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
Claramente A˜ é a forma escalonada de A e como A˜ é um bloco de C˜,
temos que
pA = pA˜ < pC˜ = pAB ou pA = pA˜ = pC˜ = pAB.
Vamos considerar os dois casos anteriores separadamente.
Caso 1. Se pA < pAB, então C˜ tem uma linha do tipo
(0 · · · 0 0 1).
Portanto, o sistema A˜X = B˜ é impossível e, então, pela Proposição 2.2.2,
AX = B é impossível.
Caso 2. Se pA = pAB, então C˜ e A˜ têm o mesmo número de linhas não
nulas.
Dividiremos este caso em dois subcasos.
Subcaso 2.1. pAB = pA = n.
Sendo A˜ uma matriz com n colunas, com pA˜ = pA = n, e estando A˜ na
forma escalonada, ela é uma matriz em blocos da forma
A˜ =
[
In
0
]
.
Como pA = pAB = n, segue que B˜ é tal que bn+1 = · · · = bm = 0.
Portanto, A˜X = B˜ é possível e determinado com a única solução x1 =
b˜1, . . . , xn = b˜n. Consequentemente, AX = B também é determinado com
mesma solução.
Subcaso 2.2. pA = pAB < n.
Ponhamos p = pA = pAB. Neste caso, A˜ (assim como C˜) tem p linhasnão nulas L1, . . . , Lp, tais que o primeiro elemento não nulo de Li está na
coluna ki e k1 < · · · < kp. Além disso, temos b˜p+1 = · · · = b˜m = 0.
2. RESOLUÇÃO DE SISTEMAS LINEARES 51
Temos então que a equação A˜X = B˜ se escreve como
xk1 + a˜1k1+1xk1+1 + · · ·+ a˜1nxn
xk2 + a˜2k2+1xk2+1 + · · ·+ a˜2nxn
.
.
.
xkp + a˜pkp+1xkp+1 + · · ·+ a˜pnxn
0
.
.
.
0

=

b˜1
b˜2
.
.
.
b˜p
0
.
.
.
0

.
A igualdade matricial acima, juntamente com o fato da matriz A˜ estar na
forma escalonada, nos fornece o sistema de equações
xk1 = −
∑
j>k1
a˜1jxj + b˜1, onde a˜1ki = 0, se i > 1,
xk2 = −
∑
j>k2
a˜2jxj + b˜2, onde a˜2ki = 0, se i > 2,
. . .
xkp−1 = −
∑
j>kp−1 a˜p−1,jxj + b˜p−1, onde a˜p−1,ki = 0, se i = kp,
xkp = −
∑
j>kp
a˜pjxj + b˜p.
Isto mostra que podemos escolher arbitrariamente valores para as incó-
gnitas no conjunto
{x1, . . . , xn} \ {xk1 , . . . , xkp} (5)
e com esses determinar valores para xk1 , . . . , xkp .
Como o conjunto em (5) tem n − p elementos, o sistema A˜X = B˜ tem
n− p incógnitas livres e, consequentemente, o mesmo ocorre para o sistema
AX = B. �
Particularizando o Teorema do Posto para os sistemas homogêneos, ob-
temos o corolário a seguir.
Corolário 2.2.7. Seja dado um sistema linear homogêneo com m equações
e n incógnitas AX = 0.
(i) Se A tem posto n, então o sistema possui apenas a solução nula. Em
particular, isto ocorre quando m = n e A é invertível.
52CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
(ii) Se A tem posto p < n, então o sistema possui infinitas soluções. Em
particular, isto sempre ocorre quando m < n.
A seguir, daremos um exemplo da aplicação do Teorema do Posto.
Exemplo 3. Com o auxílio do Teorema do Posto, resolvamos o sistema
linear 
x+ 2y − 2z + 3w = 2
2x+ 4y − 3z + 4w = 5
5x+ 10y − 8z + 11w = 12 .
Ora, 1 2 −2 3 | 22 4 −3 4 | 5
5 10 −8 11 | 12
 −→L2 → L2 − 2L1
L3 → L3 − 5L1
1 2 −2 3 | 20 0 1 −2 | 1
0 0 2 −4 | 2

−→
L1 → L1 + 2L2
L3 → L3 − 2L2
1 2 0 −1 | 40 0 1 −2 | 1
0 0 0 0 | 0
 .
Como pAB = pA = 2 < 4 = n, onde n é o número de incógnitas do sistema,
o sistema linear é possível e indeterminado. Existem então duas incógnitas
livres, digamos y e w, às quais podemos atribuir quaisquer valores reais a e
b, respectivamente. Assim, temos y = a e w = b. Substituindo w = b na
segunda equação obtemos z = 1 + 2b. Pondo y = a, z = 1 + 2b e w = b
na primeira equação, segue-se que x = 4 − 2a + b. Portanto, as soluções do
sistema são os elementos do conjunto
{(4− 2a+ b, a, 1 + 2b, b) ; a, b ∈ R}.
Observamos que, pelo Teorema do Posto, o número de incógnitas livres
está bem determinado. Porém, as incógnitas livres podem ser escolhidas com
alguma liberdade. No exemplo anterior, escolhemos y e w como incógnitas
livres, mas, poderíamos ter escolhido x e t como incógnitas livres.
2. RESOLUÇÃO DE SISTEMAS LINEARES 53
Problemas
2.1* Resolva o sistema linear homogêneo
y + 3z − 2t = 0
2x+ y − 4z + 3t = 0
2x+ 3y + 2z − t = 0
−4x− 3y + 5z − 4t = 0 .
2.2* Que condições devem ser impostas a m,n e p para que o sistema linear
x+ 2y − 3z = m
2x+ 6y − 11z = n
x− 2y + 7z = p
tenha solução?
2.3 Determine X tal que AX −B = C, onde
A =
[
1 3
1 4
]
, B =
[
2 2 −1
3 0 1
]
e C =
[
8 4 3
10 8 2
]
.
2.4 Resolva o sistema linear
1 2 1
3 1 −2
4 −3 −1
2 4 2

xy
z
 =

2
1
3
4
 .
2.5 Dadas as matrizes
A =
 1 2 1 0−1 0 3 5
1 −2 1 1
 , B1 =
21
0
 e B2 =
12
1
 ,
resolva:
54CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
(a) os sistemas AX = B1 e AX = B2;
(b) o sistema AX = 3B1−B2, utilizando soluções particulares já encontradas
no item (a).
2.6 Dada uma matriz A de ordem m× n, raciocine com a forma escalonada
para mostrar que:
(a) a equação AC = I pode ser resolvida ⇔ o sistema linear AX = B tem
solução para qualquer B ⇔ posto de A é m;
(b) a equação CA = I pode ser resolvida ⇔ o sistema linear AX = 0 tem
solução única ⇔ posto de A é n.
2.7 Na matriz A de ordem 5× 5 temos a seguinte relação entre as linhas:
L1 + L2 − 2L4 + 3L5 = 0.
Encontre uma matriz C, de posto 3, tal que CA tenha linhas L1, L4, 0.
2.8 Como devem ser escolhidos os coeficientes a, b e c para que o sistema
ax+ by − 3z = −3
−2x− by + cz = −1
ax+ 3y − cz = −3
tenha a solução x = 1, y = −1 e z = 2?
2.9 Determine os valores de k ∈ R para que os sistemas abaixo
(a)

x+ y + kz = 2
3x+ 4y + 2z = k
2x+ 3y − z = 1
, (b)

kx+ y + z = 1
x+ ky + z = 1
x+ y + kz = 1
, (c)

x+ kz = 0
y = 0
kx+ z = 0
tenham:
(i) solução única;
(ii) nenhuma solução;
(iii) mais de uma solução.
Determine a solução do sistema quando esta existir.
2. RESOLUÇÃO DE SISTEMAS LINEARES 55
2.10 Que condições devem ser impostas a a, b e c para que o sistema abaixo
nas incógnitas x, y e z tenha solução?
x+ 2y − 3z = a
2x+ 6y − 11z = b
x− 2y + 7z = c .
2.11 Determine os valores de a, de modo que o seguinte sistema nas incógni-
tas x, y e z tenha: (a) nenhuma solução, (b) mais de uma solução, (c) uma
única solução: 
x+ y − z = 1
2x+ 3y + az = 3
x+ ay + 3z = 2 .
2.12 Considere o sistema linear 2× 2 nas incógnitas x e y:ax+ by = ecx+ dy = f.
Mostre que:
(a) se
a
c
6= b
d
, isto é, se ad− bc 6= 0, então o sistema tem solução única
x =
de− bf
ad− bc e y =
af − ce
ad− bc ;
(b) se
a
c
=
b
d
6= e
f
, então o sistema não tem solução;
(c) se
a
c
=
b
d
=
e
f
, então o sistema tem mais de uma solução.
2.13 Suponha que, num sistema linear homogêneo, os coeficientes de uma
das incógnitas são todos iguais a zero. Mostre que o sistema tem solução não
nula.
56CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS
2.14 Seja A uma matriz quadrada de ordem n. Prove que as seguintes
afirmações são equivalentes:
(a) A é invertível;
(b) O sistema linear homogêneo AX = 0 só admite a solução trivial;
(c) Para toda matriz B de ordem n× 1, o sistema linear AX = B é possível
e determinado.
Bibliografia
[1] H. P. Bueno, Álgebra Linear, um segundo curso, Coleção Textos Univer-
sitários, SBM, 2006.
[2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna,
2001.
[3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate-
mática e Aplicações, IMPA, 2008.
[4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção
PROFMAT, SBM, 2012.
[5] V. J. Katz, A History of Mathematics - an Introduction, HarperCollins
College Publishers, 1993.
[6] S. Lang, Introduction to Linear Algebra, 2
nd
edition, Undergraduate Texts
in Mathematics, Springer, 1986.
[7] E.L. Lima, Álgebra Linear , 3
a
edição, Coleção Matemática Universitária,
IMPA, 1998.
[8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2
a
edição, Coleção
Matemática Universitária, IMPA, 2010.
300
3
57
Livro: Introdução à Álgebra Linear
Autores: Abramo Hefez
Cecília de Souza Fernandez
Capítulo 3: Espaços Vetoriais
Sumário
1 Subespaços Vetoriais . . . . . . . . . . . . . . . . . 58
1.1 Caracterização dos Subespaços Vetoriais . . . . . . 58
1.2 Operações com Subespaços . . . . . . . . . . . . . 61
1.3 Subespaços Gerados . . . . . . . . . . . . . . . . . 63
2 Dependência e Independência Linear . . . . . . . . 69
3 Bases e Dimensão . . . . . . . . . . . . . . . . . . . 75
3.1 Bases . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.2 Dimensão . . . . . . . . . . . . . . . . . . . . . . . 82
4 Espaço Linha de uma Matriz .

Outros materiais

Materiais relacionados

Perguntas relacionadas

Perguntas Recentes