Buscar

Al3-2011.2_SistemasLineares

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 72 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 72 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 72 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

1 
 
ALAp 3 - SISTEMAS DE EQUAÇÕES LINEARES 
 
Acreditamos que você já tenha, em alguma medida, trabalhado a resolução de sistemas de 
equações lineares passíveis de serem resolvidas na mão, ou seja, de sistemas com poucas equações 
lineares e poucas incógnitas. Na seção 3.1 relembramos um pouco do que usualmente se faz com 
sistemas de equações lineares nos primeiro e segundo graus. 
Sistemas de equações lineares são fundamentais para tudo o que se segue, e mais ainda nas 
aplicações da Álgebra Linear a problemas concretos. Teremos a oportunidade de trabalhar alguns deles 
neste capítulo. A lista de problemas que podem ser modelados empregando sistemas de equações lineares 
é gigantesca, e vai desde sistemas com duas equações e duas variáveis, até problemas de grande porte 
com milhões de equações e variáveis aos quais se pode chegar, por exemplo, na procura de imagens do 
cérebro numa tomografia médica, ou em problemas de otimização numa grande companhia de aviação. 
Num curso introdutório de Álgebra Linear como este cabe-nos tratar problemas de “pequeno” e “médio 
porte”, num sentido que tentaremos esclarecer melhor ao final deste capítulo, mas que, grosso modo, 
inclui os sistemas de equações lineares com centenas de equações e de variáveis. As técnicas para 
resolver sistemas de equações lineares de “grande porte” usualmente não fazem mais parte do conteúdo 
relativo a um curso introdutório de Álgebra Linear. De qualquer modo, nossa preocupação neste capítulo 
é, fundamentalmente, com a compreensão teórica do que pode acontecer quando tentamos resolver um 
sistema de equações lineares e somente tangenciaremos as dificuldades computacionais que podem surgir. 
Nos preocupamos ainda de incluir algumas aplicações relevantes na modelagem de problemas reais com 
sistemas de equações lineares. 
 
A seção 3.1 tem o sentido de uma introdução ao tema. Nela trabalhamos informalmente o método 
da eliminação de Gauss em casos particulares, bem como introduzimos a notação matricial para sistemas 
de equações lineares, com a qual trabalharemos ao longo de todo o texto. Na seção 3.2 apresentamos o 
algoritmo da eliminação de Gauss com detalhes, bem como os principais resultados deste capítulo. Na 
seção 3.3 discutimos a resolução de sistemas de equações lineares e a seção 3.4 é dedicada às matrizes na 
forma escada reduzida. Na seção seguinte saldamos uma dívida do capítulo anterior estabelecendo que as 
matrizes invertíveis são exatamente as quadradas de posto máximo. Estas cinco seções iniciais são básicas 
para tudo o que se segue. Nas demais concentramos material que julgamos muito relevante, mas que não 
são prerequisitos para o resto do livro, pelo menos teoricamente. Neste ponto, apresentamos alguns 
exercícios suplementares de reforço às seções 3.1-3.5. Na seção 3.6 apresentamos a “popular” fatoração 
LU de uma matriz , que corresponde a uma forma mais sintética e moderna de tratar com sistemas de 
equações lineares. Na seção 3.7 discutimos um exemplo de aplicação de resolução de sistemas de 
equações lineares à obtenção de soluções numéricas de equações diferenciais. Infelizmente, falta ainda 
neste capítulo trabalhar mais com bons exemplos de aplicações, sobretudo nesta seção 3.7. Fica para a 
próxima edição. O ótimo acaba, frequentemente, inimigo do possível. Na seção 3.8, fazemos algumas 
observações de natureza computacional, bem como colocamos exercícios a serem resolvidos com o 
auxílio de um computador. 
 
3.1 INTRODUÇÃO 
 
Certamente, desde o primeiro grau você vem tendo contato com sistemas de equações lineares. O 
problema abaixo foi retirado de um livro da sétima série: 
 
 
2 
 
 
Exemplo 3.1 - Maria pagou uma conta de R$ 100,00 com 13 notas, algumas de R$ 5,00 e outras de 
R$10,00. Quantas notas de cada tipo Maria deu para pagar a conta? 
 
 Ao equacionar este problema, chamando de x1 o número de notas de R$ 5,00 e de x2 o número de 
notas de R$ 10,00, encontra-se duas equações a serem resolvidas simultaneamente: 
 
 
100x10x5
13xx
21
21
 (3.1) 
 
Cada uma das duas equações acima é dita linear.
1
 Quando procuramos x1 e x2 que satisfaçam a 
ambas simultaneamente, temos um sistema de equações lineares. Um tal par ordenado de números 
reais que, simultaneamente, satisfaça ambas as equações é dito uma solução de sistema. Portanto, as 
soluções do sistema (3.1) são pares ordenados de números, ou seja, pontos do 
2
. . 
 
Na verdade, não há um único método para resolver sistemas de equações lineares. Para o problema 
(3.1), você provavelmente já viu três maneiras diferentes de resolvê-lo. A mais ingênua corresponderia a 
tirar o valor de x1 na primeira equação (x1 =13 – x2) e levá-lo na outra equação, obtendo: 
 
 5(13 – x2) + 10x2 = 100 x2 = 7 , x1 = 13 – x2 = 6 
 
Apesar de funcionar bem neste caso, quando o número de variáveis cresce um pouco, este método 
fica muito inadequado. Uma maneira mais sofisticada de resolver o probleminha acima seria usando a 
regra de Cramer, usualmente introduzida no ensino médio. Ela também torna-se inviável para problemas 
com muitas variáveis, mas tem alguma importância teórica. Pouco falaremos dela neste livro. A terceira 
maneira de resolver (3.1) é denominada método de eliminação de Gauss. Em geral, ele é mais explorado 
no ensino médio, embora seja introduzido ainda no ensino fundamental. Corresponde a substituir o 
sistema (3.1) por um sistema equivalente, no qual trocamos a segunda equação por ela mesma menos 5 
vezes a primeira, obtendo: 
 
 
6x13x,7x
3513*5100x5
13xx
212
2
21
 
 
Em muitas situações, o método ideal depende fortemente do problema e teremos oportunidade de 
citar alguns deles, ainda neste livro. No entanto, para problemas de pequeno e médio portes, o grande 
campeão é, sem dúvida, o método da eliminação de Gauss. A idéia geral do método consiste em 
substituir o sistema original por um fácil de resolver, usando operações nas linhas do sistema. 
 
Tem nos chamado a atenção o fato que um número considerável de alunos, talvez por terem 
passado vários anos resolvendo sistemas de duas equações lineares usando o método de substituição (o 
primeiro dos três acima), terminam se apegando a ele na hora de fazer as suas contas na mão. Além de ser 
mais trabalhoso, no caso geral, ele induz a erros com bem mais frequência do que o método de 
 
1 Formalmente, uma equação linear com n variáveis e coeficientes reais se escreve como a1x1+ +anxn = b, ou seja, é uma 
equação polinomial do 1o grau nas n variáveis x1, ,xn e coeficientes a1 , ,an ,b em . 
 
 
3 
 
eliminação de Gauss, e insistimos para que você desista desta tentação, mesmo em sistemas de 
equações com apenas três variáveis, no caso geral. Com uma exceção importante, qual seja, a dos 
sistemas dito triangulares. Um exemplo de sistema triangular superior seria: 
 
4x2
1x3x
4x3x2x5
3
32
321
 
 
 Neste caso, o método “ingênuo” da substituição cai como uma luva. É só ir resolvendo “de baixo 
para cima”. Ou seja, na última equação encontramos x3=2. Substituindo este valor de x3 na segunda 
equação, encontramos 
 
 x2 = 1 –3x3 = -5 
 
 Substituindo estes valores de x2 e x3 na primeira equação, encontramos: 
 
 
4
5
x3x24
x 321
 
 Veja que obtemos x3=2, x2=-5 e x1=4 como única solução para o sistema, com muita facilidade. 
O nome sistema triangular superior é uma alusão óbvia ao fato que ele pode ser escrito na forma de um 
triângulo na forma acima. A correspondente matriz, formada pelos coeficientes do sistema é dita uma 
matriz triangular superior. 
 
 
200
310
325
U
 
 
. Em geral, uma matriz é dita triangular superior, se for quadrada e todas as suas entradas abaixo 
da diagonal principal forem nulas. Analogamente,uma matriz quadrada é triangular inferior se todas 
as suas entradas acima da diagonal principal forem nulas. 
 
 Como vimos acima, é fácil resolver um sistema triangular superior, sem zeros na diagonal. No caso 
geral, um sistema triangular superior com n variáveis, teria a forma: 
 
nnnn
2nn2222
1nn1212111
bxU
bxUxU
bxUxUxU



 (3.1) 
 
Se todas entradas U11, U22 , , Unn na sua diagonal forem não nulos, o procedimento para 
resolvê-lo é exatamente o mesmo. Registramos o algoritmo TRIASUP, que encontra, “de baixo para 
cima”, as soluções de um tal sistema triangular nxn, e sem zeros na diagonal: 
 
 
 
4 
 
Algoritmo 3.1 - TRIASUP - 
 
Dado um sistema triangular superior nxn, e sem zeros na diagonal, como em 3.1: 
Passo 1 – Resolva a última equação, fazendo xn = 
nn
n
U
b
 
 
Passo 2 - Para i valendo, sucessivamente, n-1,n-2, ,1 , resolva i-ésima equação de 3.1, substituindo os 
valores das soluções já encontrados na i-ésima equação. Ou seja, faça: 
 
 xi = 
ii
nin1i)1i(ii
U
xUxUb  
 
O método da eliminação de Gauss, essencialmente, consiste em reduzir o problema de resolver um 
sistema de equações lineares qualquer ao problema “fácil” de resolver sistemas triangulares. 
Basicamente, no caso de matrizes quadradas, consiste em ir substituindo equações do sistema, de modo a 
ir zerando as entradas abaixo da diagonal, sem alterar as soluções do sistema original, como no exemplo 
abaixo. 
 
Exemplo 3.2 - Vamos começar a resolver o sistema 
8x6x4x2
5x4x2x
7x2x4x
321
321
321
 
de forma a zerar (“eliminar”) os coeficientes de x1 nas equações abaixo da primeira linha. Para tanto, 
substituiremos sua segunda equação por ela própria menos a primeira, bem como a terceira por ela 
própria menos o dobro da primeira. 
 
6x2x4
2x2x2
7x2x4x
8x6x4x2
5x4x2x
7x2x4x
32
32
321
Eq2EqEq
EqEqEq
321
321
321
133
122
 
 
 É muito importante que você se convença que, ao substituirmos a segunda equação por ela 
própria menos a primeira, o novo sistema terá exatamente as mesmas soluções que o anterior (vide 
exercício 3.6). O passo seguinte consiste em zerar (“eliminar”) o coeficiente de x2, abaixo da segunda 
equação. Para tanto, substituímos a terceira equação do novo sistema por ela própria, menos duas vezes a 
segunda: 
 
2x2
2x2x2
7x2x4x
6x2x4
2x2x2
7x2x4x
3
32
321
Eq2EqEq
32
32
321
233
 
 
 Desta forma chegamos a um sistema triangular superior, “fácil” de resolver por substituição. De 
baixo para cima, obtemos primeiramente x3=-1 na terceira equação. Levando x3=-1 na segunda equação, 
obtemos x2 = (2-2x3)/2= 2. Com x3=-1 e x2 = 2 obtemos, na primeira equação, x1 = -7 +4x2 –2x3 = 3. 
Uma maneira definitiva de nos certificarmos que x1=3, x2=2 e x3= -1 constituem uma solução do sistema 
original, neste caso, seria checarmos que estes valores das variáveis resolvem o sistema original. De fato: 
 
 
5 
 
 
8)1(*62*43*2
5)1(*42*23
7)1(*22*43
 
 
Em geral, é altamente recomendável verificar se não cometemos erros ao resolver um dado 
problema, checando se as soluções obtidas na sua resolução, de fato, funcionam. No entanto, a pergunta 
importante aqui é saber se foi uma coincidência o fato das soluções do sistema triangular também serem 
soluções do sistema original. A resposta é que não foi uma coincidência, uma vez que, ao 
substituirmos uma das equações de um dado sistema por ela própria somada a um múltiplo de 
qualquer outra, isto não altera as soluções do sistema (vide exercício 3.6). 
 
3.1.1 - Interseção de duas retas no 
2
 
 
Exemplo 3.3 - Ache a interseção das retas r1 e r2 , dadas pelas equações: 
 
 r1 : x1 - 2x2 + 1 = 0 e r2 : x1 - x2 - 1 = 0 
 
Sua interseção corresponde a resolver o sistema linear de duas equações 
 
1xx
1x2x
21
21
 
 
Equivalentemente, (substituindo a 2
a
 equação pela sua 
diferença com a 1
a
), obtemos 
 
2x
1x2x
2
21
 x1 = 3 e x2 = 2 
 
 ( 3 2)
T
 é o único ponto de interseção entre r1 e r2 
 
 
 
Exemplo 3.4 - Ache a interseção das retas r1 e r2 , dadas pelas equações: 
 
 r1 : x1 - 2x2 + 1 = 0 e r2 : -2x1 + 4x2 - 8 = 0 
Sua interseção corresponde a resolver o sistema linear de duas equações x x
x x
1 2
1 2
2 1
2 4 8
 
 
 
 
6 
 
 
 
Equivalentemente, (substituindo a 2
a
 equação pela sua soma 
com o dobro da 1
a
), obtemos 
 
60
1x2x 21
 O sistema não tem solução . 
 
Portanto, as retas não se intersectam. Ou seja, são paralelas. 
 
Exemplo 3.5 - Ache a interseção das retas r1 e r2 , dadas pelas equações: 
 
 r1 : x1 - 2x2 + 1 = 0 e r2 : -2x1 + 4x2 - 2 = 0 
 
 Sua interseção corresponde a resolver o sistema linear 
x x
x x
1 2
1 2
2 1
2 4 2
 
 A 2
a
 equação é -2 vezes a 1
a
. Na prática só temos a equação x1 - 2x2 = -1: 
 
Há várias soluções, que escrevemos como 
 
(-1+2 )
T
, para todo . 
 
 Geometricamente, as duas retas coincidem. 
 
 
 
3.1.2 - Interseções de planos no 
3 
 
 Nesta subseção, partimos do princípio que você já sabe que uma equação linear em três variáveis 
representa um plano do 
3
. 
 
Exemplo 3.6 Considere os planos 1, 2 e 3, definidos por: 
 
1 = {x 
3
| x1 - 2x2 - 5x3 = 2}; 2 = {x 
3
 | 2x1 -x2 - 6x3 = 2}; 
3 = {x 
3
 | x1 - x2 - 4x3 = 1} 
Se x é um ponto que está na interseção dos três planos então satisfará simultaneamente às 
equações dos planos, ou seja, será uma solução do sistema 
 
 
1x4xx
2x6xx2
2x5x2x
321
321
321
 (3.2) 
 
 Procedendo a eliminação de Gauss como no exemplo anterior, começamos zerando os 
coeficientes de x1 nas duas últimas equações, para em seguida “eliminar” o coeficiente em x2 na terceira 
equação: 
 
 
 
 
 
7 
 
1x
2x4x3
2x5x2x
1xx
2x4x3
2x5x2x
1x4xx
2x6xx2
2x5x2x
3
32
321
Eq3EqEq
32
32
321
EqEqEq
Eq2EqEq
321
321
321
233
133
122
 
 
Resolvendo o sistema triangular à direita obtemos: 
 
 x3= 1; x2= -1-x3 = -2 e x1 = 2 +2x2+5x5 = 3. 
 
 Observe que o sistema triangular tem exatamente 
as mesmas soluções que o sistema original 
(vide exercício 3.6). 
 
 Ou seja, apenas x=(3 –2 1)T . 
 
 Geometricamente, isto significa que os três 
planos se intersectam num único ponto x, 
 
 
Exemplo 3.7 Considere os planos 1, 2 e 3, definidos por: 
 
1 = {x 
3
| x1 - 2x2 - 5x3 = 2}; 2 = {x 
3
 | 2x1 -x2 - 6x3 = 2}; 
3 = {x 
3
 | x1 + x2 - x3 = 1} 
 
Ou seja, mantivemos os dois primeiros planos do exemplo anterior e trocamos o terceiro. Do 
mesmo jeito que antes, os pontos da interseção dos três planos são exatamente as soluções de: 
 
1xxx
2x6xx2
2x5x2x
321
321
321
 (3.3) 
 
 Procedendo a eliminação de Gauss como no exemplo anterior, mais uma vez começamos 
eliminando os coeficientes de x1 nas duas últimas equações, para em seguida eliminar o coeficiente em x2 
na terceira equação: 
 
20
3x4x3
2x5x2x
1x4x3
3x4x3
2x5x2x
1xxx
1x6xx2
2x5x2x
32
321
EqEqEq
32
32
321
EqEqEq
Eq2EqEq
321
321
321
233
133
122
 
 
 
 
 
 
 
 
 
 
 
x
 
 
Observe que o sistema à direita, acima, é triangular 
e não pode ter solução, já que isto implicaria 0=2. Como 
as soluções do sistema original também são soluções do 
sistema triangular (por quê?), isto significa que os três 
planos considerados não têm nenhum ponto em comum. 
Observe ainda que a interseção dos planos 1 e 2 são as 
soluções de um sistema formado pelas duas primeiras 
equações do sistema acima. Portanto, também é formado 
pelas soluções das duas primeiras equações do sistema que 
está no meio da passagem acima. Ou seja: 
 
 
3x4x3
2x5x2x
32
321
 (3.4) 
 
 
 
8 
 
Fazendo x3 = no sistema 3.4, obtemos x2 = -1- 
3
4
 na segunda equação e x1 = 
3
7
, na 
primeira. Observe que x( ) = (
3
7 -1 - 
3
4 )
T
 é a parametrização de uma reta, ou seja a reta de 
interseção de 1 e 2 . Podemos concluir que 3 deve ser um plano paralelo a esta reta, conforme 
indica a figura acima. 
 
Exemplo 3.8 Mantenhamos os planos 1 e 2 dos exemplos anteriores e substituamos 3 por 3 = {x 
 
3
 | 5x1 + x2 +13x3 = 1}. A interseção dos três planos será descrita , neste caso, pelas soluções do 
correspondente sistema, ou seja: 
 
00
3x4x3
2x5x2x
9x12x9
3x4x3
2x5x2x
113xx5
1x6xx2
2x5x2x
32
321
Eq3EqEq
32
32
321
Eq5EqEq
Eq2EqEq
321
321
321
233
133
122
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Observação 3.1 Estes exemplos acima são típicos do que se pode obter ao resolver um sistema de 
equações lineares, no caso geral. Conforme veremos na seção 3.3, em algumas situações, podemos não 
encontrar nenhuma solução para o sistema, como nos exemplos 3.4 e 3.7. Em outras, podemos ainda 
encontrar uma única solução como nos exemplos 3.3 e 3.6. Finalmente temos ainda situações nas quais há 
mais de uma solução, como nos exemplos 3.5 e 3.8, todas passíveis de serem descritas em função de um 
certo número de parâmetros adequados. 
 
3.1.3 Forma matricial dos sistemas de equações lineares 
 
Considere o sistema do exemplo 3.3 e observe que podemos escrevê-lo mais concisamente na forma 
Ax=b, onde A = 
111
612
521
 e b = 
1
2
2
. Nesta notação: 
 
Observe que, neste caso, a terceira equação do 
sistema triangular à direita ficou redundante. Isto nos 
diz que a interseção dos três planos é como na figura 
ao lado, ou seja, coincide com a interseção de 1 e 
2. Vale dizer, igualmente podem ser descritos pela 
parametrização 
 
 x( ) = (
3
7 -1 - 
3
4 )
T
 
 
 
 
 
9 
 
b
1
2
2
xxx
x6xx2
x5x2x
Ax
321
321
321
 (3.3’) 
Observe que 3.3’ é o mesmo sistema de equações 3.3, reescrito num formato matricial. Neste 
caso, A é a matriz dos coeficientes, uma vez que armazena os coeficientes do sistema, b é o termo 
independente, uma vez que armazena os termos independentes e x é a incógnita, por armazenar o vetor 
de incógnitas. 
 
Em (3.3’) fica ainda mais explícito que devemos pensar nas soluções dos sistemas de equações 
lineares como pontos de algum 
n
. No caso acima, como pontos do 
3. A forma (3.3’) tem sobre (3.3) 
duas vantagens importantes. Por um lado, é bem mais sintética. Do outro, nos facilita bastante a 
manipulação algébrica. Daquí em diante denotaremos um sistema de m equações lineares nas n 
incógnitas x1, x2, ,xn , pela equação matricial 
 
 Ax=b 
 
onde A é uma matriz mxn de números reais e b um vetor coluna do 
m
. 
 
Usaremos ainda a denominação de matriz ampliada do sistema Ax = b à matriz mx(n+1), formada 
a partir de A, adicionando-lhe a coluna b. Por exemplo, a matriz ampliada do sistema (3.3’) se escreveria 
como: 
 
(A |b) = 
1
1
2
311
612
521
 
 
 A matriz ampliada é neste caso 3x4. O traço colocado antes da última coluna pode perfeitamente 
ser omitido. É conveniente apenas no sentido de lembrar a correspondente partição que a caracteriza. 
Observe que o método da eliminação de Gauss, na verdade, é um método que opera sobre as linhas da 
matriz ampliada (A |b ). Ao substituirmos uma das equações por ela própria menos um múltiplo de outra, 
em termos da matriz ampliada, o que fazemos é substituir uma linha de A por uma combinação linear dela 
própria com um múltiplo de outra. Para que você se acostume com a notação, repetiremos abaixo, nas 
duas notações, as operações realizadas com o método da eliminação de Gauss, no exemplo 3.7. 
 
20
1xx
2x5x2x
1x4x3
3x4x3
2x5x2x
1xxx
1x6xx2
2x5x2x
32
321
EqEqEq
32
32
321
EqEqEq
Eq2EqEq
321
321
321
233
133
122
 
 
2
3
2
000
430
521
1
3
2
430
430
521
1
1
2
311
612
521
233
133
122 AAA
AAA
A2AA
 
 
 Observe que este segundo formato limpa a escrita ao eliminar a repetida referência às incógnitas 
x1, x2 e x3, perfeitamente dispensável. 
 
 
 
10 
 
Daquí em diante, operaremos sempre com matrizes ampliadas, ao invés de escrevermos, por 
extenso, os sistemas de equações aos quais correspondem. É fundamental que você tenha sempre em 
mente que, ao operar com matrizes ampliadas, estamos correspondentemente operando com as equações 
do sistema. 
 
Exercícios da subseção 3.1 
 
Exercício 3.1 - Em cada um dos casos abaixo, considere os planos do 
3
 descritos por suas respectivas 
equações, e descreva sua interseção, tanto geometricamente, como analiticamente: 
 
i - 1: x1 + 2x2 - 3x3 -1 = 0 ; 2: 2x1 + 3x2 - 5x3 -2 = 0; 3: -x1 + 2x3 - 2 = 0 
 
ii - 1: x1 + 2x2 - 3x3 -1 = 0 ; 2: 2x1 + 3x2 - 5x3 -2 = 0; 
 
iii - 1: x1 + 2x2 - 3x3 -1 = 0 ; 2: 2x1 + 3x2 - 5x3 -2 = 0; 3: -x2 + x3 = 0 
 
iv - 1: x1 + 2x2 - 3x3 -1 = 0 ; 2: 2x1 + 3x2 - 5x3 -2 = 0; 3: -x2 + x3 = 1 
 
v - 1: x1 + 2x2 - 3x3 -1 = 0 ; 2: 3x1 + 6x2 - 9x3 - 3 = 0; 3: -x1 - 2x2 + 3x3 +1 = 0 
 
vi - 1: x1 + 2x2 - 3x3 -1 = 0 ; 2: 3x1 + 6x2 - 9x3 - 3 = 0; 3: -x1 - 2x2 + 3x3 +2 = 0 
 
Exercício 3.2 As idades de 4 irmãos formam uma PA e o mais velho tem 3 anos a mais que a soma das 
idades dos 2 mais jovens e o segundo mais velho tem 12 anos a menos que a soma dos demais. Quais as 
suas idades? 
 
Exercício 3.3 – Ache as equações das medianas (retas que contêm um vértice e o ponto médio da aresta 
oposta) do triângulo formado por P1 = (0 2)
T
 , P2 = (2 3)
T
 e P3 = (-1 4)
T
. Verifique que as três medianas 
se intersectam num mesmo ponto (baricentro). 
 
Exercício 3.4- Encontre um polinômio do 2
0
 grau tal que P(-1) = -6, P’(-1) = -6, P’(1) = 2 
 
Exercício 3.5 Considere uma chapa triangular de alumínio, com seus vértices nas posições A = ( 1 1)
T
 , B 
= (-2 2)
T
 e C = (1 -2)
T
 . 
i - Como deve uma massa total de 10 kg ser distribuída em seus três vértices, de tal modo que seu centro 
de massa fique na origem (0 0 )
T
 (Despreze a massa da chapa e veja o exemplo 1.2.iv para uma 
definição de centro de massa de pontos materiais) 
ii - Tente agora distribuir os 10 kg nos 3 vértices de modo que seu centro de massa fique em (0 -2)
T
. 
Explique o resultado. 
 
Exercício 3.6 + - 
i - Verifique, sem usar a solução encontrada, que ao substituir, no sistema do exemplo 3.2, a segunda 
equação por ela mesma menos a segunda, o novo sistema terá exatamente as mesmas soluções que o 
primeiro. 
 
ii - Mostre que, no caso geral, ao substituirmos uma linha de uma matriz ampliada por ela própria menos 
um múltiplo de outra, o novo sistema de equações lineares correspondente terá exatamente o mesmo 
conjunto de soluções que o anterior. (Sugestão: Verifique primeiramente que as soluções do novo 
 
 
11 
 
sistema satisfarão o sistema original, mas não se esqueça de argumentar que, vice versa, todas as 
soluções do novo sistema igualmente já eram soluções do anterior) 
 
Exercício 3.7 +- Considere a matriz triangular 
200
310
325
U . 
 
i - Resolva os três sistemas de equações lineares, Ux = I
(i)
 , para i = 1,2 e 3, onde I é a matriz identidade 
3x3. Denote por X
(1)
, X
(2)
 e X
(3)
 as respectivas soluções encontradas. 
 
ii - Verifique que X = (X
(1)
 X
(2)
 X
(3) 
)
 
é uma inversa à direita de U e explique por quê a obtivemos. 
 
Exercício 3.8 +- Considere a mesma matriz U do exercício anterior. 
 
i - Resolva os mesmos três sistemas de equações lineares para a matriz transposta U
T
, ou seja, U
T
x = I
(i)
 , 
para i = 1,2 e 3. Denote por Y
(1)
, Y
(2)
 e Y
(3)
 as respectivas soluções encontradas. 
 
ii - Verifique que a transposta de Y = (Y
(1)
 Y
(2)
 Y
(3) 
) coincide com a matriz X do exercício anterior. 
Foi coincidência, ou você sabe explicar por quê isto se deu? 
(Sugestão: Verifique queas equações UTY(i) = I(i) , para i =1,2 e implicam que YT é uma inversa à esquerda de U. Use um 
argumento como no exercício 2.23.x, para verificar que isto garante X = Y) 
 
Exercício 3.9+ - Mostre que se A e B são matrizes nxn, triangulares inferior, então A*B também é 
triangular inferior. 
 
Exercício 3.10+: Escreva um algoritmo TRIAGINF para resolver Lx=b, para o caso no qual L é 
triangular inferior e sem zeros na diagoanl. 
 
Exercício 3.11-Aplique TRIAGINF a L =
2 0 0 0
4 1 0 0
3 2 5 0
3 2 1 1
e b =
1
1
1
0
, para resolver Lx=b. 
 
Exercício 3.12+ - O objetivo deste exercício é que você se certifique que matrizes triangulares sem zero 
na diagonal são invertíveis. Seja L uma matriz nxn, triangular inferior e sem zeros na diagonal. 
 
i - Para cada i = 1,2, , n, denote por X
(i)
 a solução do sistema Lx = I
(i)
 dada por TRIAGINF e forme a 
matriz X = (X
(1)
 , X
(2)
, , X
(n)
). Mostre que X é uma inversa à direita de L. 
ii - Verifique que L
T
 é triangular superior e sem zeros na diagonal. 
 
iii - Para cada i = 1,2, , n, denote por Y
(i)
 a solução do sistema L
T
x = I
(i)
 dada por TRIASUP (vide 
exerc. 3.5) e forme a matriz Y = (Y
(1)
 , Y
(2)
, , Y
(n)
). Mostre que Y
T
 é uma inversa à esquerda de de L. 
 
iv - Conclua que L tem uma inversa mostrando que X = Y
T
. (Sugestão: Veja o exercício 2.23.x) 
 
Exercício 3.13 - Certo ou errado? Justifique: 
i - Se E1 e E2 são triangulares, sem zero na diagonal e A = E1 E2 então A é invertível. 
ii - Se U e V são matrizes triangulares superior então UV também é triangular superior. 
 
 
12 
 
iii - A matriz A = 0 1
1 0
 pode ser fatorada como um produto A= LU, onde L é triangular inferior e 
U é triangular superior. 
 
3.2 ALGORITMO DA ELIMINAÇÃO DE GAUSS 
 
Esta seção é dedicada a sistematizar o método da eliminação de Gauss. A idéia essencial de como 
ele funciona já está colocada nos exemplos 3.1-3.7. Basicamente, cada iteração do método usa um 
elemento não nulo de uma linha, para zerar todos os elementos da mesma coluna e que estão abaixo 
dele. Vale dizer, se pensamos no sistema de equações correspondente, para eliminar uma das variáveis de 
todas as equações que estão abaixo dele. Em basquete e futebol de salão, o jogador que arma as jogadas 
de ataque é denominado de pivô. Por analogia, no método de eliminação de Gauss, dá-se o nome de pivô 
ao elemento não nulo que é usado para zerar a coluna abaixo dele. A posição que ele ocupa na matriz é 
denominada de posição de pivô, e sua coluna leva o nome de coluna de pivô. No exemplo 3.8, as colunas 
de pivô foram a primeira e a segunda. O primeiro pivô foi 1, na posição (1,1), e o segundo pivô foi 3 na 
posição (2,2). 
 
Com a exceção dos exemplos 3.7 e 3.8, nos casos de matrizes quadradas do capítulo anterior, 
chegamos a sistemas triangulares, sem zeros na diagonal, fáceis de resolver por substituição. No caso 
geral, de matrizes que não são quadradas, não podemos esperar chegar a sistemas triangulares. Ainda 
assim, a idéia de ir usando pivôs em colunas cada vez mais à direita da matriz para, sucessivamente, ir 
eliminando variáveis nas equações abaixo dos pivôs continua válida. Vamos fazê-lo no exemplo abaixo, 
para um sistema de 3 equações, com 5 incógnitas. 
 
Exemplo 3.9 - Eliminação de Gauss para resolver Ax = 
34563
26542
13321
x =
0
0
1
 
 
A matriz ampliada do sistema se escreve: Â= (A |b)= 
0
0
1
34563
26542
32321
. Devemos pensá-la como 
uma matriz que vai variar a cada iteração, sem mudar de nome. 
 
Primeira iteração: Eliminando x1 das duas últimas equações, usando como pivô Â11 = 1. 
 
0
0
1
34563
26542
32321
 
133
122
Aˆ3AˆAˆ
Aˆ2AˆAˆ 3
2
1
62400
42100
32321
 
 
 
 
13 
 
Segunda iteração: Queremos eliminar uma variável na última equação, sem mexer com o que já está 
feito. x2 já foi automaticamente eliminada das duas últimas equações. Mas x3 pode ser eliminada da 
terceira equação usando como pivô Â23 = -1. 
2
 
 
3
2
1
62400
42100
32321
233 Aˆ4AˆAˆ
 
 
A matriz a que chegamos acima corresponde ao sistema de equações: 
 
5x10x10
1x4x2x
1x3x2x3x2x
54
543
54321
 
 
Observe que mantendo, nas equações acima, as variáveis correspondentes aos pivôs onde estão, e 
passando as demais para o outro lado, obtemos: 
 
 
54
543
52431
x105x10
x41x2x
x3x21x2x3x
 
 
 Analogamente ao que já havia acontecido no exemplo 3.8, chegamos a um sistema triangular 
superior, cujas soluções podem ser explicitadas em forma paramétrica. Por exemplo, fazendo-se x2= 1 e 
x5 = 2, obtemos, “de baixo para cima”: 
 
 x4 = 
10
1
(5 – 10 2) = –1/2 + 2; 
 
 x3 = – (1+4x5-2x4) = –2 –2 2 
 
 x1 = 1 – 2x2 –3x5 +3x3 – 2x4 = – 4 – 2 1 – 11 2 
 
Temos aí um exemplo típico do que faz o método de eliminação de Gauss, no caso de um sistema 
Ax = b, que tem soluções. Elimina sucessivamente variáveis do sistema, de modo a chegar num novo 
sistema Ux = 
bˆ
, fácil de resolver por substituição, de “baixo para cima”. Observe que a matriz U, a qual 
chegamos, tem a forma de uma escada, com as seguintes características: 
 
i - Abaixo dela só tem zeros 
ii - Em cada degrau fica um pivô. 
iii - Em cada linha não nula a escada desce apenas um degrau. 
 
Formalmente, isto corresponde a seguinte definição: 
 
 
2 Cuidado: Trata-se aí de  conforme obtida depois da primeira iteração e não mais a original . 
5
2
1
1010000
42100
32321
 
 
 
14 
 
Definição 3.1 Matriz na forma escada. 
3
 
 
 Diz-se que uma matriz U tem a forma escada, caso: 
 
i - As linhas nulas, se existirem, estejam abaixo de todas as não nulas. 
ii - O primeiro elemento não nulo de cada linha esteja sempre numa coluna à esquerda do primeiro 
elemento não nulo da linha seguinte. 
 
 
Exemplo 3.10 A matriz abaixo é mais um exemplo de matriz na forma escada. Nos “degraus”, 
temos números não-nulos p1, , p4 (pivôs), demarcando a escada. Abaixo dela, todas as entradas são 
nulas. Nas demais entradas, representadas por x, temos números reais quaisquer. 
 
 
 
 
 
 
 
 
 
 
O método da eliminação de Gauss para resolver Ax = b, consiste em substituir a equação 
original por outra Ux = 
bˆ
, que tenha as mesmas soluções, e cuja matriz ampliada (U | 
bˆ
) esteja na 
forma escada. 
 
 
Definição 3.2 Posição de pivô e coluna de pivô de uma matriz na forma escada 
 
Se U é uma matriz na forma escada, mantemos a denominação de pivô para os primeiros 
elementos não nulos de cada linha. As posições que ocupam (degraus da escada), bem como suas 
colunas continuam levando a denominação de posições e colunas de pivôs. 
 
Nos exemplos de sistemas 2x2 e 3x3 com os quais trabalhamos na seção anterior, sempre 
conseguimos encontrar os pivôs na diagonal, de modo a ir zerando abaixo da diagonal. Nada nos garante 
que isto sempre venha a ocorrer, como no exemplo 3.10 abaixo. A saída nestes casos é trocar linhas de 
modo a sempre garantir um pivô na posição correta, conforme veremos a seguir. 
Exemplo 3.11 - Ao empregar a eliminação de Gauss para resolver 
1
0
1
x
321
542
321
, começamos 
naturalmente com o pivô 1, na posição (1,1) da matriz ampliada, fazendo: 
 
 
3 Muitos autores preferem denominá-las de matrizes na forma escalonada, ao invés de na forma escada. 
 0 p1 x x x x x x x x x x x 
 0 0 p2 x x x x x x x x x x 
 0 0 0 0 0 p3 x x x x x x x 
 0 0 0 0 0 0 0 0 p4 x x x x 
 0 0 0 0 00 0 0 0 0 0 0 0 
 
 
 
15 
 
0
2
1
010
100
321
1
0
1
311
542
321
133
122
AAA
A2AA
 
 
O passo seguinte seria tentar chegar num sistema triangular, zerando o número -1 na posição Â32, 
usando um pivô em Â22. Só que neste caso, não dispomos de um pivô na posição desejada. O jeito aí é 
trocar as linhas 2 e 3, chegando a: 
 
2
0
1
100
010
321
0
2
1
010
100
321
23 AA
 
 
 Convença-se que esta operação corresponde a uma mera troca na posição de duas das equações 
do sistema Ax = b. Portanto, tampouco altera as soluções do sistema Ax = b. Desta forma, chegamos a 
um sistema triangular, com as mesmas soluções do original, e fácil de resolver com a substituição “ de 
baixo para cima”. 
 
Com isto temos uma lista de operações elementares suficientes para operar com o método da 
eliminação de Gauss: 
 
Definição 3.3 Operações elementares nas linhas de uma matriz A 
 
O1 - Substituir uma das linhas de A por uma combinação linear dela própria com um múltiplo de 
outra linha de A. 
 
O2 - Trocar a posição de duas linhas entre si 
 
Definição 3.4 Matrizes linha-equivalentes 
 
 Diz-se que duas matrizes mxn, A e B, são linha-equivalentes , se B for obtida de A por uma 
sequência de operações elementares nas linhas. 
 
Observação 3.2 Se duas matrizes ampliadas são linha-equivalentes, então os sistemas que 
representam têm conjuntos de soluções idênticos 
 
No exercício 3.6 pedimos a você que verifique ao operar com O1 o conjunto de soluções de um 
sistema não se altera. Obviamente, tampouco trocando de linhas com a operação O2. A propriedade 
fundamental das operações elementares O1 e O2 é a de não alterarem as soluções de um sistema Ax 
= b, caso operadas sobre as linhas da matriz ampliada (A |b). Isto signifca, em particular, que dois 
sistemas de equações lineares, com matrizes ampliadas linha-equivalentes entre si, têm exatamente as 
mesmas soluções. 
 
Nossa preocupação agora é em descrever o algoritmo de um jeito que possa funcionar num caso 
bem geral, no sentido de poder ser programado para operar com qualquer sistema de equações lineares de 
“médio porte”. 
 
 
 
16 
 
Antes de descrever o algoritmo da eliminação de Gauss em geral, preferimos exemplificar 
como ele opera num caso particular. O algoritmo da eliminação de Gauss começa com uma matriz  e a 
atualiza sucessivamente, de modo a chegar numa matriz Û, na forma escada. Em cada iteração, o 
algoritmo obtem uma das linhas de Û, e usa os pivôs que vão sendo encontrados, em colunas cada vez 
mais à esquerda de Â, para zerar os elementos nas colunas dos pivôs que estão abaixo deles. Por 
exemplo: 
Exemplo 3.12 Ache as soluções de Ax = b, com A = 
45572
16262
11511
01221
 e b = 
2
0
1
1
, usando o 
método da eliminação de Gauss. 
 
Primeira Iteração:
 
Na primeira coluna da matriz ampliada dispomos do pivô 1 na primeira linha. Com 
isto, podemos operar na primeira coluna da matriz ampliada Â, fazendo: 
 
 = (A |b) = 
122
144
133
2
2
2
0
1
1
45572
16262
11511
01221
AˆAˆAˆ
AˆAˆAˆ
AˆAˆAˆ
 
 
Isto conclui a primeira iteração e não se mexe mais na primeira linha de Â. 
 
Segunda Iteração: Como na segunda coluna há um elemento não nulo na segunda linha, êle vai 
funcionar como pivô da segunda coluna. Desta forma: 
 
 
 
 
 
 
 
 
Com isto termina a segunda iteração e não se mexe mais na segunda linha de Â. 
 
Terceira Iteração: Desta vez, toda a terceira coluna abaixo da segunda linha é nula. Portanto, não há 
nada a zerar aí. Na quarta coluna, temos um elemento não nulo na última linha (Â44= -3) , mas não temos 
um pivô corretamente posicionado na terceira linha desta coluna (Â34=0) . A solução neste caso é trocar a 
quarta linha com a terceira. 
 
 
 
 
 
 
 
0
2
2
1
43930
14620
12310
01221
 
1 2 -2 1 0 |1 
 
 0 
 0 0 0 -3 1 2 
 0 0 0 0 -1 2 
 1 2 -2 1 0 1 
 1 3 2 1 2 
 
 0 
 0 0 0 0 -1 -6 
 0 0 0 -3 1 -6 
 1 2 -2 1 0 1 
 1 3 2 1 2 
-3 1 -6 
 -1 -6 
A4 A3 
0
2
2
1
43930
14620
12310
01221
 
 
 
1 2 -2 1 0 | 1 
 
 0 
 0 0 0 0 -1 -6 
 0 0 0 -3 1 -6 
 1 2 -2 1 0 1 
 1 3 2 1 2 
244
233
3
2
AˆAˆAˆ
AˆAˆAˆ
 
 
 
17 
 
Algoritmo 3.2 Algoritmo da eliminação de Gauss: 
 
Dada uma matriz mxn A, começando com i =1, faça: 
 
Passo 1 - Critério de parada do algoritmo na i-ésima iteração: 
 
 Considere a submatriz Aux, formada pelas linhas i, i+1, , m de A. 
 Se i=m, ou se Aux for toda nula, pare. 
 
Passo 2 - Escolha do pivô da i-ésima iteração: 
 
Denote por ji a primeira coluna não nula de Aux e garanta-lhe um pivô (número real não-
nulo) na sua primeira linha, possivelmente trocando a primeira linha de Aux com alguma linha 
abaixo. 
 
Passo 3 - Eliminação na coluna do pivô e término da i-ésima iteração: 
 
 Anule os coeficientes da coluna ji de Aux que estiverem abaixo de sua primeira linha, 
usando operações de substituição O1, (substituição das linhas de Aux, por elas mesmas 
menos múltiplos adequados da primeira). 
 
 Substitua i por i+1 e volte para o primeiro passo. 
 
 
Exemplo 3.13 Imaginemos o algoritmo 3.2 aplicado a uma matriz 5x13, como a que resultou na 
escada do exemplo 3.10. Após duas iterações já teríamos encontrado as duas primeiras linhas da escada. 
No começo da terceira iteração, estaríamos dispondo de algo como, por exemplo: 
 
Passo 1 Aux é a submatriz formada pelas linhas 3, 4 e 5, visto que não são todas nulas. Portanto, o 
algoritmo continua a operar com: 
 
 
 
 
 
 
 
 
 
 
 
Passo 2 A coluna do pivô nesta iteração resulta j3 = 6. Como na posição do pivô desta iteração tem um 
zero, somos obrigados a trocar de linhas. Trocaremos a primeira linha de Aux com a terceira, obtendo: 
 
 
 
 
 
 
 
 0 p1 x x x x x x x x x x x 
 0 0 p2 x x x x x x x x x x 
 0 0 0 0 0 0 0 0 3 -1 0 0 1 
 Aux 0 0 0 0 0 2 4 4 5 -1 2 -1 3 
 0 0 0 0 0 1 2 2 1 0 1 0 1 
 Coluna do pivô j3 =6 
 
0 
2 
1 
 0 p1 x x x x x x x x x x x 
 0 0 p2 x x x x x x x x x x 
 0 0 0 0 0 0 2 2 1 0 1 0 1 
Aux1 Aux3 0 0 0 0 0 2 4 4 5 -1 2 -1 3 
 0 0 0 0 0 0 0 3 -1 0 0 1 
 Coluna do pivô j3 =6 
 
1
2
0 
1 
 
 
18 
 
Passo 3 Só falta zerar um elemento na coluna j3 de Aux. Basta fazer Aux2 Aux2 – 2 Aux1 
 
 
 
 
 
 
 
 
 
 
 
Ao final da iteração, completa-se o terceiro degrau da escada e faz-se i =4. A matriz A começa a 
próxima iteração na forma: 
 
 
 
 
 
 
 
 
 
 
 
 
Observação 3.3 No passo 3 do algoritmo, para zerar os elementos abaixo de um pivô pi =Aij 0, numa 
coluna j=ji, ele manda substituir as linhas Ak por Ak – LkjAi, para k = i+1, i+2, ,m. Estes números Lkj são 
denominados de multiplicadorese terão um papel importante na seção 3.7. A condição que amarra o valor 
de Lkj,, é tornar nula a entrada de Ak – LkjAi na coluna j. Ou seja, 
0 = Akj -LkjAij = Akj -Lkjpi Lkj = 
i
kj
p
A , onde pi é o pivô da coluna j = ji 
 
A “esperteza” do algoritmo é fazer com que, em cada iteração, não se mexa com o pedaço da 
escada que havia sido construído nas iterações anteriores. Ou seja, nem com as entradas acima da escada, 
nem com os zeros já construídos em iterações anteriores, nas colunas à esquerda do degrau a ser 
construído em cada iteração. Resumimos esta “esperteza” no seguinte teorema: 
 
Teorema-chave 3.1 - O algoritmo da eliminação de Gauss nunca fracassa. 
 
 De fato, o algoritmo da eliminação de Gauss tem todos os seus passos bem definidos e sempre 
termina em, no máximo, m iterações, devolvendo uma matriz na forma escada linha-equivalente à 
original. 
 
Observação 3.4 - O teorema chave 1 é muito importante pois nos garante a possibilidade teórica de 
reduzir a resolução de um sistema de equações lineares qualquer ao problema bem mais simples de 
resolver um sistema na forma escada. Do ponto de vista computacional, na prática, o método também 
 0 p1 x x x x x x x x x x x 
 0 0 p2 x x x x x x x x x x 
 0 0 0 0 0 0 2 2 1 0 1 0 1 
Aux2 Aux2 –2 Aux1 0 0 0 0 0 2 0 0 3 -1 0 -1 1 
 0 0 0 0 0 0 0 3 -1 0 0 1 
 Coluna do pivô j3 =6 
 
1
0
0 
1 
 0 p1 x x x x x x x x x x x 
 0 0 p2 x x x x x x x x x x 
 A = 0 0 0 0 0 p3 x x x x x x x 
 0 0 0 0 0 0 0 0 3 -1 0 -1 1 
 Aux 0 0 0 0 0 0 0 0 3 -1 0 0 1 
 
 
 
19 
 
funciona razoavelmente bem, (pelo menos em sistemas de “médio porte”), mas há cuidados numéricos 
importantes a se tomar, visto que os softwares usualmente empregados fazem contas com erros de 
arredondamento. O mais importante deles consiste em evitar pivôs muito pequenos, em função da 
estabilidade numérica do método. A grande maioria dos softwares escolhe, como default, trocar de 
linhas no passo 2 do algoritmo, de modo a sempre garantir para pivô o maior elemento disponível na 
coluna do pivô. 
 
Chegamos agora a um resultado fundamental para tudo o que se segue. Corresponde ao fato que, 
essencialmente, “só há uma forma-escada para cada matriz A”, no sentido que: 
 
TEOREMA-CHAVE 3.2 – 
 
Se duas matrizes escada forem linha-equivalentes a A, então as colunas de seus pivôs 
coincidem. Em particular, também o número de linhas não-nulas. 
 
Observe que, no passo 2 do algoritmo da eliminação de Gauss, temos a liberdade de escolher a 
linha onde estará o pivô de cada iteração. Em geral, isto pode conduzir a diferentes matrizes na forma 
escada, e linha-equivalentes a matriz ampliada original. (vide exercício 3.21). Ainda assim, o teorema 
chave 3.2 está nos garantindo que, independentemente de como se escolham os pivôs no passo 2 do 
algoritmo, os degraus das escadas sempre ficam nas mesmas posições. Ou seja, podem variar os pivôs, 
mas não as suas posições. É possível demonstrar este teorema-chave usando apenas a descrição do 
algoritmo. No entanto preferimos uma demonstração de sabor mais geométrico, a ser feita no capítulo 4. 
Uma de suas consequências mais importantes é permitir que definamos o posto de uma matriz, bem 
como estender o conceito de posição e coluna de pivô a uma matriz qualquer. 
 
Definição-chave 3.5- Posto, posição e coluna de pivô, variáveis pivotais e livres 
 
 Posto de A é o número de linhas não nulas de qualquer matriz escada linha-equivalente a A. 
 Do mesmo jeito, as colunas de pivô, bem como as posições de pivô de A são as correspondentes 
colunas e posições de pivô de qualquer matriz na forma escada linha-equivalente a A. 
 Observe que a cada variável de Ax = b, corresponde uma coluna de A Denominamos de pivotais às 
variáveis correspondentes às colunas de pivôs e de livres às demais. 
 
Olhando para o que aconteceu nos sistemas Ax = b dos exemplos 3.5, 3.8 e 3.9, podemos perceber 
que as soluções daqueles sistemas foram obtidas explicitando as variáveis nas colunas dos pivôs, em 
função das demais variáveis, em matrizes linha equivalentes a A e na forma escada Na verdade, o que o 
teorema chave 3.2 nos garante é que as colunas dos pivôs independem de qual matriz na forma escada 
linha-equivalente a A tenham sido obtidas, e permite que, igualmente, classifiquemos as variáveis de 
Ax =b em dependentes (pivotais ) e nas demais, livres. 
 
Observação 3.5 Significado do posto de uma matriz. 
 
Praticamente tudo o que dissermos neste capítulo e no próximo, estará relacionado ao conceito de 
posto. Vamos arriscar uma primeira interpretação para o significado de posto de uma matriz, baseando-
nos num exemplo particular. Considere o sistema de equações Ax = 0, dado por 
 
 
20 
 
A = 
1211109
8765
4321
 
 
 Para achar o posto da matriz A, aplicamos o algoritmo 3.2, obtendo: 
 
1211109
8765
4321
133
122
9
5
AAA
AAA 241680
12840
4321
233 2AAA
0000
12840
4321
 
 
Portanto, tendo em vista nossa definição-chave deste capítulo, a matriz A tem posto 2, apesar 
de ter três linhas. Verifique que a terceira linha de A é uma combinação linear das duas primeiras, já 
que A3 = 2A2 – A1. Se pensamos no sistema de equações lineares correspondente, 
 
0x12x11x10x9
0x8x6x6x5
0x4x3x2x
4321
4321
4321
 
isto significa que a terceira equação pode ser obtida fazendo a diferença entre o dobro da segunda e a 
primeira. Ou seja, todas as soluções das duas primeiras também satisfazem a terceira das equações do 
sistema. Neste sentido, ela é redundante e perfeitamente dispensável. Ou seja, o sistema formado pelas 
duas primeiras equações terá exatamente as mesmas soluções que o original. Por outro lado se 
eliminarmos duas das três equações, a equação resultante obviamente, admitirá mais soluções do que o 
sistema original Ax = 0. (vide exercício 3.14). Podemos dizer que, neste caso, o posto de A mede a 
quantidade mínima de equações do sistema Ax = 0 que não são redundantes entre si, mas admitem 
exatamente as mesmas soluções de Ax = 0. Ou seja, a quantidade mínima de equações que devem ser 
mantidas, caso desejamos cortar equações do sistema sem alterar seu conjunto de soluções. No capítulo 4 
teremos a oportunidade de verificar que esta interpretação vale em geral, no contexto de uma 
interpretação mais abrangente para o conceito de posto. Do ponto de vista numérico, como em geral se 
trabalha com erros de arredondamento, há complicações importantes para caracterizar numericamente o 
posto de uma matriz, mas isto escapa aos objetivos de um livro introdutório como este. Tangenciaremos 
esta questão nos exercícios para computador da seção 3.8. 
 
Exercícios da seção 3.2 
 
Exercício 3.14 – Encontre, para cada uma das 3 equações do sistema na observação 3.5, consideradas 
isoladamente, uma solução que não satisfaça às demais. 
 
Exercício 3.15 - Use o algoritmo da eliminação de Gauss para tentar encontrar matrizes triangulares 
superior linha-equivalentes a A, nos seguintes casos: 
 
i - A = 
12
21 ii – A = 
120
432
321
 iii - 
7654
6543
5432
432121 
 
Exercício 3.16 - Ache, em cada um dos casos, uma solução de Ax = b, sempre que exista, aplicando o 
método da eliminação de Gauss à matriz ampliada (A |b) e calculando, em seguida, a solução do sistema 
linear triangular superior correspondente. 
i - A = 
12
21
, b = 
0
1 ; ii – A = 
120
432
321
, b =
1
0
1
; iii - 
7654
6543
5432
4321
 e b = 
0
0
0
1
 
Exercício 3.17 - Certo ou errado. Justifique: 
i - Se U é uma matriz-escada nxn de posto n, então U é invertível 
ii - Se A é uma matriz 30x20 então o posto de A é menor que o número de linhas de A 
iii - Se A é nxn de posto n e b 
n
 , então Ax = b tem sempre uma única solução. 
iv - Se A for mxn de posto menor que m então Ax = b nem sempre terá solução. 
v - Se A for mxn de posto m então Ax = b sempre terá solução. 
vi - Se A for mxn de posto n então Ax = b nunca tem mais de uma solução. 
vii - Se A for mxn de posto menor que m então Ax=0 sempre terá uma solução não-trivial 
 
Exercício 3.18 - Considere a matriz A = 
1 2 1 1 0
2 4 2 1 1
1 1 1 1 1
2 3 0 1 2
 . 
 
i - Encontre uma matriz-escada linha-equivalente a A. 
 
ii - Ache duas soluções de Ax = 0, de tal modo que uma não seja múltipla da outra. 
 
Exercício 3.19 Diga os postos das matrizes usadas nos exercícios 3.15 e 3.18 
 
Exercício 3.20 - Certo ou errado? Justifique: 
i - Toda matriz triangular é invertível. 
ii - Se o algoritmo da eliminação de Gauss é bem sucedido e U não tem zeros na diagonal, então A é 
invertível. 
iii - Se A não é invertível, e o algoritmo da eliminação é bem sucedido então U tem zero em alguma das 
entradas da diagonal. 
iv - As soluções de Ax = b não se alteram ao multiplicarmos uma de suas linhas por um número real 
não-nulo. 
v – As soluções de Ax = b não se alteram ao multiplicarmos uma de suas linhas por um número inteiro. 
vi – As soluções de Ax = b se alteram ao multiplicarmos uma de suas linhas por um número inteiro. 
 
Exercício 3.21 - Considere a matriz A = 
1 1 2 0
2 3 1 2
4 0 1 1
 
i - Ache uma matriz escada U, linha-equivalente a A, sem fazer permutação de linhas. 
ii - Ache uma outra matriz escada U’, linha-equivalente a A, escolhendo em cada coluna o maior pivô 
possível. 
iii - Veja que U e U’ têm a mesma forma escada. Ache as soluções de Ux = 0, bem como de U’x = 0 e 
verifique diretamente que coincidem com as soluções de Ax = 0 
 
 
22 
 
3.3 Soluções de um sistema de equações lineares. 
 
Dado que o algoritmo da eliminação de Gauss nunca fracassa, encontrar as soluções de um 
sistema de equações lineares se reduz ao problema de encontrar as soluções de um sistema na forma 
escada. 
 
Ao longo de toda esta seção 3.3, vamos denotar por (U |b) uma matriz ampliada na forma escada e 
analisar o conjunto das soluções de Ux = b. Para fixar idéias, começamos analisando um destes sistemas 
no próximo exemplo, para em seguida discutir o caso geral: 
 
Exemplo 3.14 - Considere o sistema Ux = 
000000
300000
101200
312312
4
3
2
1
6
5
4
3
2
1
b
b
b
b
x
x
x
x
x
x
 
 
I - Obviamente Ux = b não admitirá solução, se b4 0 (vide ainda exemplos 3.4 e 3.7) 
 
II - Se b4= 0, a última equação é redundante. Podemos eliminá-la e trabalhar com o sistema Ûx = bˆ = 
3
2
1
b
b
b
, de 3 equações abaixo. 
36
2643
1654321
bx3
bx1xx2
bx3xx2x3xx2
36
4263
5421631
bx3
xbxx2
xx2x.bx3x3x2
(3.5) 
 
 Do mesmo modo que nos exemplos 3.5, 3.8 e 3.9, mantivemos acima as variáveis dependentes 
(pivotais) onde estavam e passamos as variáveis livres para o outro lado. Recaímos num sistema 
triangular superior e sem zeros na diagonal, a ser resolvido em função das variáveis livres, isto é, tendo as 
variáveis livres como parâmetros a serem arbitrados. Do ponto de vista matricial, observe que o sistema 
acima se escreve como: 
 

LLDD
x
5
4
2
Ûx
6
3
1
Uˆ
x
x
x
000
010
121
b
~
x
x
x
300
120
332
 
Observação 3.6 No exemplo acima reescrevemos Ûx = 
bˆ
, na forma 
 
 (3.6) 
onde, 
 
ÛD xD = bˆ -ÛLxL 
 
 
23 
 
 xD é um vetor que armazena as variáveis dependentes (pivotais) de Ûx = bˆ 
 xL armazena as variáveis livres de Ûx = bˆ 
 As colunas de ÛD são as colunas pivotais de Û, na mesma ordem que surgem em Û. 
 As colunas de ÛL são as demais colunas Û, igualmente na mesma ordem. 
 
Veja que (3.5) e (3.6) representam exatamente o mesmo sistema de equações. (3.6) é apenas uma 
forma matricial interessante de reescrever (3.5). Observe que podemos fazer o mesmo com qualquer 
sistema de equações, de uma maneira até mais geral. Ou seja, dada uma matriz A qualquer, 
armazenamos em AD algumas das colunas de A e as demais em AL , ao escrevermos Ax como 
combinação linear das colunas de A, sempre podemos reagrupar o produto matriz-vetor, na forma (vide 
exercício 2.42). 
 
Ax = 
  

  

LL
pn
pn
1
1
DD
p
p
1
1
xA
)L(
L
)L(
L
xA
)D(
D
)D(
D
)n(
n
)2(
2
)1(
1 AxAxAxAxAxAxAx
 
 
Portanto Ax = b ADxD = b - ALxL (3.6’) 
 
A vantagem de olhar para um sistema na forma 3.6 reside no fato dela ser bem mais econômica e 
passível de manipulação algébrica do que 3.5. O exemplo 3.14 é representativo do que acontece no caso 
geral. Dele extraímos dois procedimentos para o que se segue: 
 
i - Vamos dispensar as linhas nulas da matriz ampliada (U |b), pois correspondem a equações 
redundantes, da forma 0x1 +0x2+ + 0xn = 0 
 
Basta portanto estudarmos sistemas na forma escada cujo posto é igual ao número de linhas. 
Daqui por diante, no restante desta seção, vamos denotar por (Û |
bˆ
) uma matriz na forma escada, sem 
linhas nulas, com Û sendo pxn. 
 
ii - Passamos a adotar ainda a notação definida na observação 3.14 para o sistema Ûx = 
bˆ
, ou seja, xD 
denota o vetor das variáveis dependentes (pivotais), xL é o vetor das variáveis livres, UD uma matriz 
cujas colunas são as colunas pivotais de Û e ÛL armazena as demais colunas de Û. Do mesmo modo 
que antes, chegamos a: 
 
 Ûx = ÛDxD + ÛLxL 
 
Na subseção 3.3.1 analisamos o que podemos esperar das soluções de um sistema de equações 
lineares Ûx = 
bˆ
, com (U |
bˆ
) na forma escada e sem linhas nulas. Nos exemplos 3.5, 3.8 e 3.9 obtivemos 
famílias de soluções, dependendo de parâmetros, e que continham todas as soluções das equações 
lineares em questão. Uma tal descrição das soluções é denominada de solução geral . Elas são muito 
úteis e vamos nos ocupar de obtê-las nas subseções 3.3.2 e 3.3.3. Na subseção 3.3.4, sintetizamos um 
algoritmo para obter as soluções de um sistema Ax = b. 
 
3.3.1 Resolução de Ûx = 
bˆ
 
 
 Estamos supondo que a matriz ampliada (Û |
bˆ
) está na forma escada, não tem linhas nulas, é 
px(n+1) e de posto p. Segue daí que ou bem posto de Û vale p-1 ou então vale p. Do mesmo jeito que 
no exemplo 3.14, cada uma das duas possibilidades correspondem a casos bem distintos: 
 
 
 
24 
 
I - Posto(Û) = p-1 Ûx = 
bˆ
 não tem solução. (sistema impossível) 
 
 Nos exemplos 3.4 e 3.7 esta situação já havia aparecido. Dizer que o posto de Û vale p-1 e que o 
da matriz ampliada vale p, é sinônimo de dizer que a última linha da matriz ampliada (Û |
bˆ
) é da 
forma: 
 
 (Û |
bˆ
)p = (0 0 bˆ p) (3.7) 
 
 
Ou seja, representa a equação 
 
 0x1 +0x2+ + 0xn = bˆ p, com bˆ p 0 (3.7’) 
 Uma tal equação não tem soluções. Portanto, tampouco o sistema Ûx = 
bˆ
 
 
II – Posto(Û) = p Ûx = b tem solução (sistema possível) 
Dizer que o posto de Û vale p significa dizer que a última linha da matriz ampliada não é da forma 
3.7. Vamos verificar que, neste caso, o sistema Ûx = b sempre tem solução e vamos indicar maneiras 
convenientes de obtê-las. Observe que o número de colunasde Û não pode ser inferior ao seu posto, 
implicando p n, e que, neste caso: 
 O vetor xD das variáveis dependentes está no 
p
. 
 A matriz das variáveis dependentes UD é pxp, triangular superior e com os pivôs de Û na sua 
diagonal. Em particular ÛD não tem zeros na diagonal e é, portanto, invertível. 
 Se l = n – p > 0, há l variáveis livres e o vetor das variáveis livres xL está em 
l
 . Neste caso a 
matriz das variáveis livres UL é pxl 
 
Vamos distinguir duas situações, neste caso II: 
 
II.1 - Não há variáveis livres (p=n) (sistema possível e determinado) 
 
Neste caso, Û = ÛD,. Portanto , Ûx = b é um sistema triangular sem zeros na diagonal. e admite 
solução única, “fácil” de encontrar com TRIASUP. 
 
II.2 - Há variáveis livres (l = n-p > 0) (sistema possível e indeterminado) 
 
 Neste caso, para cada xL que se fixe em 
l
, existe uma única solução x, tendo xL nas posições 
das variáveis livres e, nas posições das variáveis pivotais, a solução única de 
 
 ÛDxD = b - ÛLxL 
 
3.3.2 Solução geral da equação homogênea Ûx = 0 
 
Nesta subseção trataremos de algumas propriedades das soluções do caso particular muito 
importante de sistemas de equações lineares homogêneos, ou seja, nos quais o termo independente é b 
= 0. Neste caso sempre há pelo menos a solução x = 0, uma vez que Û*0 = 0. Em especial, 
descreveremos uma solução geral de Ûx = 0, vale dizer, uma família parametrizada de soluções, que 
inclui todas as soluções do sistema. Vamos começar com um exemplo particular: 
 
 
 
25 
 
Exemplo 3.15 Obter todas as soluções de Ux = 0, tais que uma de suas variáveis livres valha 1 e as 
demais valha zero, para a mesma Û = 
2 1 3 2 1 3
0 0 2 1 0 1
0 0 0 0 0 3
 do exemplo anterior. 
 
 
Se xL = 
0
0
1
x
x
x
5
4
2
 , obtemos xD = 
0
0
2/1
. Ou seja, a solução S
(1)
 = 
 
 
 
 
Se xL = 
0
1
0
x
x
x
5
4
2
 , obtemos xD = 
0
2/1
4/1
. Ou seja, a solução S
(2)
 = 
 
 
 
Se xL = 
1
0
0
5
4
2
x
x
x
 , obtemos xD = 
0
0
2/1
. Ou seja, a solução S
(3)
 = 
 
 
 Considere agora uma combinação linear qualquer das três soluções, digamos 
 
y = 1S
(1)
 + 2 S
(2)
 e+ 3S
(3)
 = 
0
2
242
3
2
2
1
321
= 
000
100
010
02/10
001
2/14/12/1
3
2
1
 = S 
 
 Observe que: 
 
I – y também é solução de Ax = 0, já que, pela linearidade do produto matriz-vetor: 
 
 Ay = A( 1S
(1)
 + 2 S
(2)
 e+ 3S
(3)
) = 1 

0
)1(AS
 + 2 

0
)3(
3
0
)2( ASAS
 = 0 
 
Ii – Todas as soluções de Ax = 0 são combinações lineares de S(1) , S
(2)
 e S
(3)
 
 
0
0
0
0
1
2/1
 
0
0
1
2/1
0
4/1
 
0
1
0
0
0
2/1
 
 
 
26 
 
Seja z uma solução qualquer de Ax = 0. Queremos verificar que z também é combinação linear 
de S
(1)
 , S
(2)
 e S
(3)
. Considere o vetor de variáveis livres zL, digamos zL =( 1 2 3 )
T
. Observe que, neste 
caso, y = 1S
(1)
 + 2S
(2)
 + 3S
(3)
 e z têm exatamente o mesmo vetor de variáveis livres. Na subseção 
anterior vimos que há uma única solução possível de Ûx = b, para cada vetor de variáveis livres que se 
arbitre. Isto significa que z = y, e portanto, que z é uma combinação linear das soluções S
(1)
 , S
(2)
 e S
(3)
. 
 
Podemos dizer que x = 1S
(1)
 + 2 S
(2)
 + 3S
(3)
 =S , é uma família a três parâmetros de soluções, e 
que contem todas as soluções de Ûx = 0. Ou seja, é uma solução geral de Ûx=0. 
 
O esquema acima se generaliza naturalmente, e provoca a seguinte definição: 
 
Definição 3.6: Soluções canônicas de Ûx = 0 
 
Dizemos que S
(i)
 é a i-ésima solução canônica de Ûx = 0, se o vetor das variáveis livres de S
(i)
 
valer 1 na posição i, e zero nas demais. 
 
 No exemplo anterior, as soluções canônicas de Ûx = 0 eram S
(1)
 , S
(2)
 e S
(3)
. Em geral, teremos l = 
n-p soluções canônicas. Do mesmo jeito que no exemplo 3.15: 
 
Observação 3.6 Combinações lineares de soluções de Ûx = 0 também são soluções 
 
 Para verificá-lo, considere soluções Y
(1)
 ,Y
(2)
 , ,Y
(l)
 de Ûx = 0, bem como números reais 1 , 2 , 
, l. Da linearidade do produto matriz-vetor, obtemos: 
 
 Û( 1Y
(1)
 + 2Y
(2)
 + + lY
(l)
 ) = 

0
)l(
l
0
)2(
2
0
)1(
1 YUˆYUˆYUˆ
 = 0 
 
Ou seja, Y = 1Y
(1)
 + 2Y
(2)
 + + lY
(l)
 também é solução de Ûx=0 
 
Observação 3.7 Uma solução geral de Ûx=0 
Da observação anterior, dadas as soluções canônicas S
(1)
 ,S
(2)
 , ,S
(l)
, então 
x = S = 1S
(1)
 + 2S
(2)
 + + lS
(l)
 (3.8) 
 
é uma família a l parâmetros de soluções de Ûx = 0. Na verdade, uma tal x = S é também uma solução 
geral. A justificativa para tanto é a mesma do exemplo 3.15. Parte da observação que o vetor de 
variáveis livres de x = S é exatamente . (Por quê? Vide ainda exercício 3.23.vii-ix). Mas neste caso, 
se z é uma solução qualquer de Ûx = 0, e seu vetor de variáveis livres for zL, então SzL igualmente é 
solução de Ûx = 0, com o mesmo vetor de variáveis livres zL. Pela unicidade da solução para tal vetor 
de variáveis livres, temos que z=SzL. Ou seja, toda solução z pode ser escrita na forma 3.8 
 
3.3.3 Solução Geral de Ûx =b 
 Começamos com um exemplo, usando a mesma Û do exemplo 3.14: 
 
 
27 
 
Exemplo 3.16 Encontrar solução geral para Ûx= 2 1 3 2 1 3
0 0 2 1 0 1
0 0 0 0 0 3
x = b, onde b=
3
3
4
 
Renomeando as variáveis livres por x2 = 1, x4 = 2 e x5= 3 e resolvendo de baixo para cima, 
obtemos, para as variáveis dependentes: 
3x3
2xx2
2.2x3x3x2
6
263
321631
 
1x
2
1
1x
2
1
4
1
2
1
2x
6
23
3211
 
 Ou seja, obtemos todas as soluções do sistema na forma: 
x = 
1
0
0
1
0
2
+
000
100
010
02/10
001
2/14/12/1
3
2
1
 = xp + S 
 Observe que, na relação acima, xp é uma solução particular de Ûx = b, e S é a solução geral de 
Ûx = 0 obtida no exemplo 3.3.15. 
Observação 3.8 No exemplo acima, a solução geral de Ûx = b consistiu de uma solução particular, 
somada com a solução geral da equação homogênea Ûx = 0. Isto, na verdade, acontece em geral, devido 
ao fato que 
Duas soluções de Ûx = b diferem por uma solução da equação homogênea. 
Sejam x e xp soluções de Ûx = b, e considere sua diferença xH= x –xp . Então xH é solução de 
Ûx = 0, visto que: 
ÛxH = Û(x –xp) = Ûx - Ûxp = b – b = 0 
 Em particular, se xp é uma solução de Ûx = b, então todas as demais soluções são da forma x = xp + 
xH, onde xH é alguma solução de Ûx = 0. Ou seja, a solução geral de Ûx =b é: 
 
 x = xp + S 
 
 
28 
 
Exemplo 3.17 Solução geral de Ûx = 
2
1
x
2200
1321 , usando a observação 3.8 
 
Passo 1 - Obtendo uma solução particular xP do sistema: 
 
Se arbitramos as variáveis livres x2 = x4= 0, obtemos x3 = 1 e x1 = -2. 
 
Ou seja xp = ( -2 0 1 0)
T
. 
 
Passo 2 - Solução geral da equação homogênea. 
 As soluções canônicas de Ûx = 0 são S
(1)
 = (-2 1 0 0)
T 
e S
(2)
 = (2 0 –1 1 )T . 
 
Uma solução geral (canônica) de Ûx = 0: S = 
10
10
01
22
 
Passo 3 - Somando as duas 
Uma solução geral de Ûx = b: x = xp + S = 
0
1
0
2
 
10
10
01
22
 
 
3.3.4 Algoritmo para resolver Ax = b 
 
 Podemos resumir a busca de soluções para Ax = b, onde A é mxn a três passos: 
 
1
o
 Passo - 
 
i - Encontre uma matriz escada ( U |b ) linha-equivalente a( A |b) 
ii - Obtenha (Û |
bˆ
), eliminando as linhas nulas de (U |b) e seja p o posto de (Û |
bˆ
). 
iii - Considere a matriz ÛD formada pelas colunas pivotais de Û 
iv - Se p < n, considere a matriz ÛL, formada pelas demais colunas de Û. 
 
2
o
 Passo - 
 
 Se a última linha de (Û |
bˆ
) for (0 0 ... 0 |
bˆ n+1), então Ax = b não tem solução. 
 
3
o
 Passo - Caso contrário: 
 
i - Se p = n, obtenha a solução resolvendo ÛD x = bˆ 
 
ii - Se p < n ,e xL for o vetor de variáveis livres de uma solução x, obtenha o vetor de variáveis 
dependentes xD resolvendo: 
 UD xD = bˆ - ULxL 
 
 
 
29 
 
No caso 3.ii, alternativamente, obtenha uma solução geral x = xp + S , calculando: 
 
 Uma solução xp , com xL = 0, resolvendo ÛDxD= bˆ , para as variáveis dependentes de x. 
 
 As soluções canônicas S(1), S(2), ... , S(n-p) de Ûx = 0. 
 
Exemplo 3.18 Voltamos ao exemplo do circuito elétrico 2.14, com uma diferença. Neste caso, vamos 
supor que a resistência do ramo da bateria é desprezível, ou seja, que R1 = 0 e que as demais valem todas 
100 . Suponhamos ainda que a bateria vale e1 = 12 V. 
 
 Lembramos que, no exemplo 2.14, o equacionamento do circuito se fez com duas equações 
matriciais: 
 
)Kirchoffdelei2(eRipM
)Kirchoffdelei1(0Mi
aT
a 
onde, 
M = 
11110000
10001001
01001100
00100110
00010011
 - Matriz de incidência 
 
. i =(i1, i2 ,...., i8) 
T
 - vetor das correntes nos ramos. 
 
p = (p1, p2,p3,p4,p5)
T
 - vetor dos potenciais elétricos em cada nó. 
R = 
100
0
0100
0


 Matriz das resistências (Diagonal, com os Ri na diagonal). 
 
e = (12, 0 , ......., 0)
T
 - Fontes de tensão em cada um dos ramos. 
 
No exemplo 2.14, a matriz R resultava invertível, e isto nos permitia explicitar a solução na forma 
de um sistema determinado na forma 
 
M R
-1
 M
T
 p = - M R
-1
 e 
 
Neste caso, isto não ocorre mais, pois R continua sendo uma matriz diagonal, porém com um zero 
na sua diagonal. O jeito é trabalhar com o sistema 3.10, nas 13 incógnitas armazenadas em i e p, com as 
13 equações que reescrevemos na forma: 
 
 
epMRi
0Mi
T
 (3.10) 
 
 
 
30 
 
 Uma maneira de resolver tal sistema seria aplicando o algoritmo da eliminação diretamente ao 
sistema acima. Olhando o sistema como particionado em blocos, teremos: 
 
 
 
 
Ou seja, a matriz ampliada se escreve: 
 
 
 
 
 
 
 
A 
 
 
 
 
 
 
 
 
 
 
 
 
Ao aplicar o algoritmo da eliminação de Gauss à matriz acima, obtemos a seguinte matriz na forma 
escada, linha equivalente a A: 
 
 
 
 
 
 
 
Como Posto(ÛD) = Posto( (ÛD | bˆ ) = n
0
 de colunas de A, o sistema tem solução única, a ser 
obtida resolvendo: 
 
 ÛD 
p
i = bˆ 
 Ao aplicar TRIASUP ao sistema acima, obtemos: 
 
 
 
 
TMR
0M
e
0
p
i 
-1 1 0 0 1 0 0 0 0 0 0 0 0 0 
 0 -1 1 0 0 -1 0 0 0 0 0 0 0 0 
 0 0 -1 1 0 0 -1 0 0 0 0 0 0 0 
 0 0 0 -100 0 100 100 0 1 -1 0 0 0 0 
 0 0 0 0 -1 1 -1 -1 0 0 0 0 0 0 
 0 0 0 0 0 -100 0 0 -1 2 -1 0 0 -12 
 0 0 0 0 0 0 -2 -2 0 0 0 0 0 0 
 0 0 0 0 0 0 0 100 0 -1 2 -1 0 0 
 0 0 0 0 0 0 0 0 -1 0 0 1 0 -12 
 0 0 0 0 0 0 0 0 0 -2 1 2 -1 -24 
 0 0 0 0 0 0 0 0 0 0 -0.5 -2 2.5 24 
 0 0 0 0 0 0 0 0 0 0 0 12 -14 -132 
 0 0 0 0 0 0 0 0 0 0 0 0 -3.5 -15 
 
 
 Û = ÛD bˆ 
 M 0 e 
 
 
 M 
 
 
A = 
 
 R 
 
 
 
 
 
 R MT 
 
-1 0 0 1 0 
 1 -1 0 0 0 
 0 1 -1 0 0 
 0 0 1 -1 0 
 1 0 0 0 -1 
 0 -1 0 0 1 
 0 0 -1 0 -1 
 0 0 0 -1 1 
 
 0 0 0 0 0 
 0 0 0 0 0 
 0 0 0 0 0 
 0 0 0 0 0 
 0 0 0 0 0 
 
0 0 0 0 0 0 0 0 
0 -100 0 0 0 0 0 0 
0 0 -100 0 0 0 0 0 
0 0 0 -100 0 0 0 0 
0 0 0 0 -100 0 0 0 
0 0 0 0 0 -100 0 0 
0 0 0 0 0 0 -100 0 
0 0 0 0 0 0 0 -100 
-1 1 0 0 1 0 0 0 
 0 -1 1 0 0 -1 0 0 
 0 0 -1 1 0 0 -1 0 
 1 0 0 -1 0 0 0 -1 
 0 0 0 0 -1 1 -1 -1 
 
 0 
 0 
 0 
 0 
 0 
 
 
-12 
 0 
 0 
 0 
 0 
 0 
 0 
 0 
 
 
31 
 
 Resulta: 
 
 i = (-0.0514 -0.0343 -0.0514 -0.0343 -0.0171 -0.0171 0.0171 -0.0171)
T
 
 
 p = ( -6 -2.5714 2.5714 6 -4.2857)
T 
 
Observação 3.9 Uma alternativa mais “barata” para resolver 3.10 
 
Uma maneira alternativa de resolver o sistema 3.10, parte da observação que as cinco primeiras 
equações não envolvem as variáveis em p, mas apenas as relativas à corrente i. Ou seja, a matriz do 
sistema 3.10 é diagonal em blocos. Isto nos permite atacar primeiro a equação MI = 0, explicitar sua 
solução geral na forma i = S e levar este valor nas demais equações do sistema (vide exercício 3.34). 
Este tipo de procedimento alternativo pode ser importante em problemas “grandes” . Ou seja, encontrar 
alternativas para “baratear computacionalmente” a resolução de Ax = b, usando informações sobre a 
estrutura do problema. 
 
 Observe que o critério para distinguir se Ax = b tem ou não solução, depende apenas de saber se 
Posto(Û)= Posto (Û |
bˆ
), para uma matriz (Û |
bˆ
) na forma escada e linha equivalente à matriz 
ampliada (A |b). Como, neste caso, Posto(U) = Posto(A) e Posto((Û | 
bˆ
)) = Posto(A |b), podemos dizer 
que: 
 
Observação 3.10 Seja A uma matriz mxn e b 
n
. 
 
i – Posto(A) < Posto(A |b) se e somente se Ax = b não tem solução 
ii – Posto(A) = Posto(A |b) se e somente se Ax = b tem solução 
iii – Posto(A) = Posto(A |b) = n se e somente se Ax = b tem uma única solução 
 
 Em particular, se Posto(A) = m, então Ax = b tem sempre solução, para todo b 
n
, já que neste 
caso Posto(A)=Posto(A |b) = m para todo b 
n.
. 
 
E
 
 vice-versa, se Posto(A) < m, é possivel exibir um 
b para o qual Ax = b não tem solução. Basta tomar uma matriz U na forma escada e considerar o sistema 
Ux = I
(m)
, onde I representa a matriz identidade mxm. Um tal sistema não pode ter solução, já que a 
última linha de U é nula, se Posto(A) < m. Como (U |I
(m)
) tem de ser linha equivalente a (A |Î
(m)
) para 
algum vetor Î
(m)
 que resulte da equivalência por linhas que leva U de volta a A, em particular, Ax = Î
(m)
 é, 
igualmente, um sistema sem solução. Ou seja: 
 
iv - Posto(A) = m se e somente se Ax = b tem solução para todo b 
n.
 
 
 Observe que, se posto(A) = n, o sistema Ax = b pode até nem ter solução. No entanto, se tiver 
solução, será única, pois neste caso, o sistema Ax = b não terá variáveis livres ( n=p ). E vice versa, se 
Ax = b nunca tem mais de uma solução, isto significa que Ax = 0 só tem a solução trivial x = 0. Mas 
então, pelo que vimos na resolução da seção 3.3.1, A não pode ter variáveis livres e Posto(A) = n. Em 
resumo: 
 
v - Posto(A) = n se e somente se Ax = b nunca admite mais de uma solução. 
 
 Em palavras, dizer que o posto de A iguala seu número de linhas é sinônimo de dizer que Ax = 
b tem sempresolução, para todo b. Dizer que o posto de A iguala o número de colunas é sinônimo de 
garantir unicidade para as soluções de Ax = b, quando existirem. 
 
 
 
32 
 
Exercícios da seção 3.3 
 
Exercício 3.22 : Considere a equação Ax = 0, com a mesma matriz A do exemplo 3.17 
 
i - Ache a solução S
(1)
 de Ax = 0 que tem por vetor das variáveis livres xL = x
x
2
4
 = 1
0
 
 
ii - Ache a solução S
(2)
 de Ax = 0 que tem por vetor das variáveis livres xL = x
x
2
4
 = 0
1
 
 
iii - Verifique que toda solução de Ax=0 se escreve como combinação linear de S
(1)
 e S
(2) 
 
iv - Verifique que toda solução de Ax = 0 se escreve como na forma S , onde 
2 
 e S é uma matriz 
4x2 cujas colunas são S
(1)
 e S
(2)
 . 
 
Exercício 3.23 - Sejam A = 2 1
1 1
, b = 1
0
 e C uma matriz mxn qualquer. Certo ou errado? Justifique: 
 
i - Se x e y forem soluções de Ax = 0, então x + y também é. 
ii - Se x e y forem soluções de Ax =b, então x + y também é. 
iii - Se x for solução de Ax =b, e y for solução de Ax=0, então x+y também é solução de Ax=b. 
iv - Se x é solução de Cx = 0, então 3x também é . 
v - Se x e y forem soluções de Cx = 0, então (x+2y) também é . 
vi - Se x e y forem soluções de Cx = 0, então toda combinação linear de x e y também é 
vii – Se x = S é uma solução geral de Ax =0 então é o seu vetor das variáveis livres. viii – Se uma 
solução geral x = S de Ax =0 tiver como vetor das variáveis livres, então x é uma solução geral 
canônica. 
ix – Se S(1), S(2) , , S(p) são as soluções canônicas de Ax = 0, então 1S
(1)
 + 2S
(2)
 + + 
(p)
S
(p)
 é uma 
solução de Ax = 0 cujo vetor de variáveis livres é xL = ( 1, 2, , 
(p) 
) 
 
Exercício 3.24 - Ache as soluções gerais da equação Ax = 0, em cada um dos seguintes casos: 
 
i - A = 
1 1
2 1
0 1
 ii - A = 
1 2
2 4
3 6
4 8
 iii - A = 1 0 2 0
2 1 0 1
1 1 1 0
 iv - A = 0 1 2 0 2
1 0 1 1 0
1 1 1 0 1
 
 
Exercício 3.25 - Considere U = 1 2 4 0 1
0 0 2 0 1
 . Observe que U está na forma escada 
i - Diga quais são as variáveis básicas de U e quais as variáveis livres. 
ii - Encontre as soluções canônicas de Ux=0. 
iii - Encontre uma solução de Ux = 0 e tal que x2 = 1, x4 = 0 e x5 = 0. 
iv - É possível encontrar uma solução de Ux = 0 tal que x3 = 1, x4 = 0 e x5 = 0. 
v - É possível encontrar uma solução de Ux = 0 tal que x1 = 1, x4 = 0 e x5 = 0?. 
 
 
 
33 
 
Exercício 3.26 - Considere A = 1 3 0 2 1
2 6 1 1 0
1 3 1 3 2
 . 
i - Encontre uma matriz escada U, linha equivalente a A. 
ii - Diga quais são as variáveis básicas de U e quais suas variáveis livres. 
iii - Encontre as soluções canônicas de Ux = 0. 
iii - Descreva uma solução geral de Ax = 0 
iv - Encontre uma soluçào de Ax=0 tal que x2 = 1, x4 = 0 e x5 = 0. 
v - É possível encontrar uma solução de Ax=0 tal que x3 = 1, x4 = 1 e x5 = 1. 
vi - É possível encontrar uma solução de Ax = 0 tal que x1 = 1, x4 = 0 e x5 = 0?. 
 
Exercício 3.27 – Encontre as soluções gerais da equação Ax = 0, em cada um dos seguintes casos: 
 
i - A = 1 1
2 1
0 1
 ii - A = 
1 2
2 4
3 6
4 8
 iii - A = 1 0 2 0
2 1 0 1
1 1 1 0
 iv - A = 0 1 2 0 2
1 0 1 1 0
1 1 1 0 1
 
 
Exercício 3.28 - Sejam A = 
1 3 1 2 1
2 4 2 1 0
1 0 1 2 0
 e b = 
1
0
1
 
i - Ache o posto de A, diga quais variáveis de Ax = b são básicas e quais são livres. 
ii - Ache todas as soluções canônicas de Ax=0 
iii - Ache uma solução particular de Ax = b 
iv - Descreva todas as soluções de Ax = b 
v - Ache uma solução de Ax = b tal que x4=1 e x5 = 2 
vi - É possível encontrar uma solução particular de Ax = b tal que x2 = x3 = x4 = x5 ? 
 
3.4 Matriz Escada na Forma Canônica 
 
Na subseção 3.1 vimos que a resolução de Ax = b se reduz, com a eliminação de Gauss, a 
resolver sistemas de equações triangulares superior na forma UDxD = b~ - ULxL , para obter as variáveis 
básicas de uma solução cujas variáveis livres são arbitradas em xL. Veremos a seguir que é possível 
melhorar um pouco esta resolução, “esticando” o método da eliminação de Gauss de forma a transformar 
a matriz UD na matriz identidade. Para tanto, usaremos precisamos de uma terceira operação elementar 
sobre as linhas de uma matriz, qual seja: 
 
O3 – Trocar uma linha de uma matriz por um múltiplo não nulo dela mesma. 
Obviamente, substituir uma linha de uma matriz ampliada (A |b) por um múltiplo não nulo de si 
própria também não altera as soluções de Ax = b. (vide exerc. 3.16.iv). Começamos com um exemplo: 
 
Exemplo 3.19 Considere nossa matriz U = 2 1 3 2 1 3
0 0 2 1 0 1
0 0 0 0 0 3
, do exemplo 3.14. Vamos realizar 
operações elementares nas linhas de U, de forma a transformar cada coluna de pivô de U, numa coluna da 
matriz identidade. Dividimos o procedimento em três iterações: 
 
 
 
34 
 
Iteração 1: Transformando a última coluna de pivô em (0 0 1 )
T
 
Passo 1 - Divida a última linha de U pelo pivô p3 = 3 
Passo 2 - Anule U16 e U26, usando a operação elementar O1, tendo como pivô U36=1 
 
300000
101200
312312
3
3
3
U
U 100000
101200
312312
311
322
2UUU
UUU
100000
001200
012312
 
 
Iteração 2 Transformando a penúltima coluna de pivô em (0 1 0)
T 
Passo 1 - Divida a penúltima linha de U pelo pivô p2 = 2 
Passo 2 - Anule U13, usando a operação elementar O1, tendo como pivô U23=1 
100000
001200
012312
2
2
2
U
U 100000
002/1100
012312
211 3UUU
100000
002/1100
012/1012
 
 
Iteração 3 Transformando a primeira coluna de pivô em (1 0 0)
T 
Passo 1 - Divida a primeira linha de U pelo pivô p1 = 2 
 
100000
002/1100
012/1012
2
1
1
U
U 100000
002/1100
02/14/102/11
 
 Chamemos de 
U
~ a nova matriz Observe que a equação original Ux = 0 terá as mesmas soluções 
que 
 Ux = 
100000
002/1100
02/14/102/11
x = 0 
 A vantagem é que agora a matriz das variáveis dependentes resultou 
U
~ D = 
100
010
001
. 
 Em particular as variáveis dependentes se obtêm de graça em função das livres xL = : 
 
 xD = U~ DxD = - U~ LxL = 
000
02/10
2/14/12/1
3
2
1
 
 A matriz da solução geral canônica resulta S = (S
(1)
 S
(2)
 S
(3)
 ) = 
000
100
010
02/10
001
2/14/12/1
 
 Ou seja, as variáveis livres das soluções canônicas resultam ser as colunas de -UL 
 
 
35 
 
Este procedimento motiva a seguinte definição: 
 
Definição 3.7: Matriz na forma escada reduzida 
 
Dizemos que uma matriz U tem a forma escada reduzida (canônica) se, além de ter U a forma 
escada, a sua matriz de colunas pivotais UD for a identidade. Equivalentemente, se todos os seus pivôs 
valerem 1, e nas colunas dos pivôs todas as demais entradas forem nulas. 
 
O algoritmo a seguir imita o procedimento do exemplo 3.19 e, às vezes, é designado como fase 
regressiva da eliminação de Gauss. Essencialmente, parte de uma matriz U na forma escada e, 
começando pela última coluna de pivô, vai sucessivamente transformando cada uma das colunas de pivô 
em correspondentes colunas da identidade. Formalmente temos: 
 
Algoritmo 3.4 Algoritmo da eliminação regressiva de Gauss (Fase regressiva) 
 
Dada uma matriz pxn na forma escada U, de posto p, começando com i = p, faça: 
 
Passo 1 - Atribuindo o valor 1 ao pivô na i-ésima linha e finalização do algoritmo: 
 
 Divida a linha Ui pelo correspondente pivô da linha. 
 Se i = 1, pare 
 
Passo 2 - Eliminação na coluna do i-ésima pivô de U e fim i-ésima iteração: 
 
 Anule os coeficientes da coluna do i-ésimo pivô de U que estiverem acima da posição do pivô 
usando operações de substituição O1. 
 
 Substitua i por i-1 e volte para o primeiro passo. 
 
Tipicamente, a terceira iteração do algoritmo aplicada a uma matriz na forma escada 5x7, com 
pivôs nas colunas 2, 3, 4, 5 e 7, seria algo do tipo: 
 
 
 
 
 
 
 
 
 
Observação 3.11 Para resolver sistemas Ax = b pequenos, na mão, frequentemente

Outros materiais