Buscar

Algebra

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 175 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 175 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 175 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Ana Paula Santana
Joa˜o Filipe Queiro´
A´LGEBRA LINEAR E GEOMETRIA ANALI´TICA
(versa˜o de 2003)
Departamento de Matema´tica - Universidade de Coimbra
Indice
0. Os nu´meros complexos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Apeˆndice: Histo´ria dos nu´meros complexos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1. Matrizes
1.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2 Operac¸o˜es com matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 Inversa de uma matriz quadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4 Transposic¸a˜o de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5 Matrizes elementares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2. Sistemas de equac¸o˜es lineares
2.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 O algoritmo de eliminac¸a˜o de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 O algoritmo de Gauss-Jordan para inversa˜o de matrizes . . . . . . . . . . . . . . . . . . . . . 37
3. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4. O espac¸o Rn, subespac¸os, dimensa˜o
4.1 Subespac¸os . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.2 Dependeˆncia e independeˆncia linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.3 Base e dimensa˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.4 Mudanc¸a de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.5 Caracter´ıstica e nulidade de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.6 Soma e soma directa de subespac¸os . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5. Aˆngulos e distaˆncias em Rn
5.1 Produto interno em Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.2 Projecc¸a˜o ortogonal sobre um subespac¸o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.3 Mı´nimos quadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.4 Complemento ortogonal de um subespac¸o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.5 Determinantes e volumes de paralelip´ıpedos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5.6 Produto externo em R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6. Planos em Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
1
7. Espac¸os vectoriais
7.1 Corpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
7.2 Espac¸os vectoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
7.3 Subespac¸os . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
7.4 Dependeˆncia e independeˆncia linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
7.5 Base e dimensa˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
7.6 Mudanc¸a de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
8. Transformac¸o˜es lineares
8.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
8.2 Representac¸a˜o matricial de transformac¸o˜es lineares . . . . . . . . . . . . . . . . . . . . . . . . . 135
8.3 Equac¸o˜es com transformac¸o˜es lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
9. Valores pro´prios e vectores pro´prios
9.1 Valores pro´prios e vectores pro´prios de transformac¸o˜es lineares . . . . . . . . . . . . . 144
9.2 Valores pro´prios e vectores pro´prios de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
9.3 Matrizes diagonaliza´veis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
9.4 O caso das matrizes sime´tricas reais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
9.5 Curvas e superf´ıcies do 2o grau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
10. Espac¸os vectoriais com produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
2
0 Os nu´meros complexos
Os conjuntos de nu´meros mais conhecidos e habituais sa˜o os seguintes: o conjunto dos
nu´meros naturais
N = {1, 2, 3, . . .},
o conjunto dos nu´meros inteiros
Z = {. . . ,−3,−2,−1, 0, 1, 2, 3, . . .},
o conjunto dos nu´meros racionais
Q =
{m
n
: m,n ∈ Z, n 6= 0
}
e o conjunto dos nu´meros reais, para o qual usaremos o s´ımbolo R.
Tem-se a seguinte cadeia de incluso˜es:
N ⊂ Z ⊂ Q ⊂ R .
Exemplos de nu´meros reais que na˜o sa˜o racionais sa˜o
√
2 ,
√
3 , e e pi . A melhor
maneira de “visualizar” o conjunto R e´ pensar nos pontos de uma recta, o “eixo real”.
Marcando no eixo dois pontos para representar os nu´meros 0 e 1, obte´m-se uma corres-
pondeˆncia perfeita entre R e o conjunto dos pontos do eixo.
0 1 α
R
Supor-se-a˜o conhecidas as propriedades ba´sicas destes nu´meros.
No se´culo XVI, a propo´sito da descoberta da fo´rmula resolvente das equac¸o˜es do 3o
grau, “descobriu-se” um novo conjunto de nu´meros contendo R. Essa histo´ria e´ recordada
em apeˆndice.
O novo conjunto de nu´meros e´ o conjunto dos nu´meros complexos
C = {a+ ib : a, b ∈ R}
onde i satisfaz i2 = −1. As operac¸o˜es com nu´meros complexos realizam-se tratando-os
como nu´meros como os outros e usando as propriedades habituais das operac¸o˜es, bem
como a igualdade i2 = −1. Assim, por exemplo,
(a+ ib) + (c+ id) = (a+ c) + i(b+ d)
(a+ ib)(c+ id) = (ac− bd) + i(ad+ bc) .
3
Estas operac¸o˜es gozam das mesmas propriedades alge´bricas que as correspondentes
no conjunto dos nu´meros reais: comutatividade, associatividade, distributividade da mul-
tiplicac¸a˜o relativamente a` adic¸a˜o.1 Os nu´meros complexos 0 = 0 + i0 e 1 = 1 + i0 sa˜o
elementos neutros para, respectivamente, a adic¸a˜o e a multiplicac¸a˜o. O inverso do nu´mero
complexo a+ ib 6= 0 e´
a
a2 + b2
+ i
−b
a2 + b2
.
Note-se que todos os nu´meros reais sa˜o tambe´m nu´meros complexos (sa˜o aqueles em
que b = 0), pelo que a cadeia de incluso˜es acima referida pode ser completada:
N ⊂ Z ⊂ Q ⊂ R ⊂ C .
A melhor maneira de “visualizar” o conjunto C e´ pensar nos pontos de um plano,
o “plano complexo”. Trac¸ando no plano um sistema de dois eixos perpendiculares,e
identificando o nu´mero complexo a+ ib com o ponto de coordenadas (a, b), obte´m-se uma
correspondeˆncia entre C e o conjunto dos pontos do plano.
C
.a+ ib
0 a
ib
Se pensarmos na fo´rmula resolvente para equac¸o˜es do 2o grau, vemos que, com a
introduc¸a˜o dos nu´meros complexos, qualquer equac¸a˜o do 2o grau com coeficientes reais
tem soluc¸a˜o em C: o aparecimento de ra´ızes quadradas de nu´meros negativos deixa de
ser problema. Por exemplo, a equac¸a˜o x2 − 2x+ 5 = 0 tem as soluc¸o˜es 1 + 2i e 1− 2i.
Mas pode dizer-se muito mais: com a introduc¸a˜o dos nu´meros complexos, qualquer
equac¸a˜o de qualquer grau, com coeficientes reais ou mesmo complexos, tem soluc¸a˜o em
1 Uma diferenc¸a ba´sica entre R e C e´ que no conjunto dos nu´meros complexos na˜o existe uma relac¸a˜o
de ordem < compat´ıvel com as operac¸o˜es, isto e´, satisfazendo, para quaisquer z1, z2, w ∈ C, as implicac¸o˜es
z1 < z2 ∧ w > 0 ⇒ z1w < z2w e z1 < z2 ⇒ z1 + w < z2 + w.
4
C. Este e´ o conteu´do do chamado Teorema Fundamental da A´lgebra, demonstrado pela
primeira vez de forma completa por Gauss em 1799.2
Do Teorema Fundamental da A´lgebra tira-se uma importante conclusa˜o: um polino´mio
com coeficientes reais ou complexos pode sempre escrever-se como produto de factores de
grau 1:
anx
n + an−1xn−1 + · · ·+ a1x+ a0 = an(x− α1)(x− α2) . . . (x− αn)
(α1, α2, . . . , αn sa˜o as ra´ızes do polino´mio).
O conjunto C e´ portanto muito rico do ponto de vista alge´brico. Vamos ilustrar essa
riqueza mostrando que, dado n ∈ N, qualquer nu´mero complexo na˜o nulo tem n ra´ızes de
ı´ndice n em C. Antes disso, introduzimos mais alguma terminologia.
Seja z = x+ iy ∈ C. Chamamos a x parte real de z e escrevemos x = Re z. Chamamos
a y parte imagina´ria de z e escrevemos y = Im z. Se x = 0 dizemos que z e´ imagina´rio
puro. O conjugado de z e´ z = x − iy. O mo´dulo de z e´ o nu´mero real na˜o negativo
|z| = √x2 + y2. (A func¸a˜o mo´dulo em C estende a func¸a˜o mo´dulo conhecida em R.)
Geometricamente, |z| e´ a distaˆncia do ponto z do plano complexo a` origem (isto e´, ao
ponto 0).3
Seja z um nu´mero complexo na˜o nulo, identificado com um ponto do plano. A` medida
do aˆngulo que a semi-recta que vai de 0 para z faz com a parte positiva do eixo real
chamamos argumento de z (notac¸a˜o: arg z). Cada nu´mero complexo z 6= 0 tem uma
infinidade de argumentos, diferindo uns dos outros por mu´ltiplos inteiros de 2pi.
©©
©©
©©
©©
©©
©* z
0
θ
Ponhamos |z| = r. Seja θ um argumento de z. Enta˜o Re z = r cos θ e Im z = r sen θ
e podemos escrever
z = r(cos θ + i sen θ).
2 Para provar este teorema, sa˜o necessa´rios conhecimentos de Ana´lise que esta˜o para ale´m do 1o ano
da Universidade. Note-se que o teorema apenas afirma a existeˆncia de soluc¸o˜es. A determinac¸a˜o delas
para cada equac¸a˜o e´ um problema diferente.
3 Mais geralmente, |z − w| e´ a distaˆncia entre os pontos z e w.
5
Esta e´ a chamada forma polar ou trigonome´trica de z, por oposic¸a˜o a` forma alge´brica
z = x+ iy. Para cos θ + i sen θ usa-se por vezes a abreviatura cis θ.4
Calculando o produto de dois nu´meros complexos escritos na forma trigonome´trica
tem-se
(r1 cis θ1)(r2 cis θ2) = r1r2 cis(θ1 + θ2)
(verifique). Segue-se a seguinte fo´rmula para as poteˆncias de um nu´mero complexo:
(r cis θ)n = rncis(nθ) , n ∈ N
(“fo´rmula de De Moivre”).
Daqui tira-se que, sendo z = r cis θ e n ∈ N, z tem n ra´ızes de ı´ndice n. O racioc´ınio
e´ o seguinte. Vamos procurar os nu´meros complexos w que satisfazem wn = z. Escreva-
-se w na forma trigonome´trica, w = ρ cisφ. Enta˜o, pela fo´rmula de De Moivre, tem-se
ρncis(nφ) = r cis θ donde
ρn = r e nφ− θ = 2kpi, k ∈ Z
o que e´ equivalente a
ρ = r1/n e φ =
θ + 2kpi
n
, k ∈ Z .
Enta˜o w pode tomar exactamente os seguintes valores:
r1/ncis
(
θ + 2kpi
n
)
, k = 0, 1, . . . , n− 1.
(Em princ´ıpio dever´ıamos escrever k ∈ Z mas facilmente se veˆ que as ra´ızes so´ teˆm n
valores distintos, que se obteˆm dando a k os valores indicados.)
4 Note-se que, se se tiver r cis θ = r′ cis θ′, enta˜o r = r′ mas, quanto aos argumentos, so´ se pode
concluir que θ − θ′ e´ um mu´ltiplo inteiro de 2pi.
6
Apeˆndice: Histo´ria dos nu´meros complexos
Como se disse, foi no se´culo XVI, a propo´sito da descoberta da fo´rmula resolvente das
equac¸o˜es do 3o grau, que se “descobriram” os nu´meros complexos. Recorda-se aqui essa
histo´ria.
A equac¸a˜o a resolver e´ a seguinte:5
x3 + bx+ c = 0.
Os matema´ticos italianos do se´culo XVI que trataram deste assunto tiveram a ideia
de escrever a inco´gnita x na forma x = u + v, com u e v nu´meros a determinar. Ora,
como
(u+ v)3 = u3 + 3u2v + 3uv2 + v3,
tem-se, passando tudo para o primeiro membro,
(u+ v)3 − 3uv(u+ v)− (u3 + v3) = 0.
Comparando com a equac¸a˜o proposta, veˆ-se que, se se encontrarem nu´meros u e v satis-
fazendo as condic¸o˜es
−3uv = b e − (u3 + v3) = c ,
enta˜o x = u+ v sera´ uma soluc¸a˜o da equac¸a˜o.
Da primeira condic¸a˜o tira-se v = − b
3u
. Substituindo v por este valor na segunda
condic¸a˜o obte´m-se
−u3 + b
3
27u3
= c ,
o que e´ o mesmo que
u6 + cu3 − b
3
27
= 0 .
Ora isto, que e´ uma equac¸a˜o do 6o grau em u, e´ de facto uma equac¸a˜o do 2o grau em u3,
que se sabe resolver:
u3 =
−c±
√
c2 + 4
b3
27
2
= − c
2
±
√
c2
4
+
b3
27
.
Escolhendo para u3 por exemplo o valor
u3 = − c
2
+
√
c2
4
+
b3
27
,
5 Se se conseguir resolver uma equac¸a˜o desta forma consegue-se resolver qualquer equac¸a˜o do 3o grau:
primeiro, se o coeficiente de x3 na˜o for 1, podemos dividir ambos os membros por esse coeficiente o que
na˜o altera as soluc¸o˜es da equac¸a˜o; segundo, se o coeficiente de x2, chamemos-lhe a, na˜o for 0, procede-se
a uma mudanc¸a de inco´gnita substituindo x por y − a3 . Na˜o e´ dif´ıcil ver que na nova equac¸a˜o assim
obtida, em que a inco´gnita e´ y, e que continua a ser de grau 3, o coeficiente de y3 e´ 1 e o coeficiente de
y2 e´ 0. As soluc¸o˜es da primeira equac¸a˜o podem obter-se das da segunda simplesmente subtraindo-lhes a3 .
7
de −(u3 + v3) = c tira-se
v3 = − c
2
−
√
c2
4
+
b3
27
.
E vem, finalmente,
x =
3
√
− c
2
+
√
c2
4
+
b3
27
+
3
√
− c
2
−
√
c2
4
+
b3
27
o que e´ o mesmo que
x =
3
√√√√− c
2
+
√( c
2
)2
+
(
b
3
)3
+
3
√√√√− c
2
−
√( c
2
)2
+
(
b
3
)3
.
Esta e´ a fo´rmula resolvente encontrada no se´culo XVI por del Ferro, Cardano e
Tartaglia.
Algum tempo depois da descoberta da fo´rmula, outro italiano, Bombelli, aplicou-a a`
equac¸a˜o
x3 − 15x− 4 = 0.
Note-se que esta equac¸a˜o tem a soluc¸a˜o x = 4, como se veˆ imediatamente. Mas a fo´rmula
resolvente da´
x =
3
√
2 +
√−121 + 3
√
2−√−121 .
Aparece aqui a raiz quadrada de um nu´mero negativo, o que torna a expressa˜o sem
sentido. Mas Bombelli teve um “pensamento louco” (nas suas pro´prias palavras) e fez
contas com essas ra´ızes como se elas existissem, e usando as propriedades habituais das
operac¸o˜es com nu´meros.
Como 121 = 112, devera´ ser
√−121 = 11√−1, pelo que
3
√
2 +
√−121 = 3
√
2 + 11
√−1 e 3
√
2−√−121 = 3
√
2− 11√−1 .
Como entre os radicandos das ra´ızes cu´bicas 3
√
2 + 11
√−1 e 3
√
2− 11√−1 so´ ha´ uma
diferenc¸a de sinal, ocorreu a Bombelli que essas ra´ızes cu´bicas se possam tambe´m escrever
na forma
3
√
2 + 11
√−1 = a+ b√−1 e 3
√
2− 11√−1 = a− b√−1
com a e b nu´meros reais. E, de facto, das condic¸o˜es(
a+ b
√−1)3 = 2 + 11√−1 e (a− b√−1)3 = 2− 11√−1
tira-se, fazendo os ca´lculos usando as propriedades habituais das operac¸o˜es com nu´meros
(e tambe´m (
√−1)2 = −1), que a = 2 e b = 1 sa˜o soluc¸o˜es poss´ıveis, isto e´,(
2 +
√−1)3 = 2 + 11√−1 e (2−√−1)3 = 2− 11√−1 .
8
(Exerc´ıcio: fac¸aos ca´lculos que comprovam isto.)
Enta˜o
3
√
2 + 11
√−1 = 2 +√−1 e 3
√
2− 11√−1 = 2−√−1
e vem, para a soluc¸a˜o da equac¸a˜o,
x = 2 +
√−1 + 2−√−1 = 4 .
Portanto, trabalhando com estas quantidades imagina´rias — as ra´ızes quadradas de
nu´meros negativos — Bombelli chegou a um resultado real correcto.
A partir deste episo´dio, os nu´meros da forma a+ b
√−1, com a e b reais — designados
por nu´meros imagina´rios, nome que continuou ate´ hoje, embora seja mais vulgar chamar-
-lhes nu´meros complexos— passaram a ser usados nas mais variadas questo˜es e aplicac¸o˜es
da Matema´tica, e foram-se impondo pela sua utilidade.
Durante mais de dois se´culos, a questa˜o da natureza dos nu´meros complexos — que
nu´meros sa˜o estes ao certo? — permaneceu um pouco misteriosa. (A partir do se´culo
XVIII, com Euler, tornou-se habitual usar a letra i para designar
√−1.) So´ durante o
se´culo XIX foram apresentadas respostas satisfato´rias para essa questa˜o e foram justifi-
cadas as propriedades destes nu´meros. Como? Definindo os nu´meros complexos a` custa de
entidades conhecidas — por exemplo, como pontos num plano ou, o que e´ quase a mesma
coisa, como pares ordenados de nu´meros reais — sendo as operac¸o˜es definidas da maneira
conveniente. Depois mostra-se que as operac¸o˜es gozam das propriedades desejadas e que
no conjunto ha´ um subconjunto que e´ uma “co´pia” dos nu´meros reais.
9
1 Matrizes
1.1 Generalidades
Ao longo dos primeiros cap´ıtulos deste texto, trabalharemos com nu´meros reais. Prati-
camente tudo o que veremos e´ tambe´m va´lido, sem alterac¸a˜o, para nu´meros complexos,
mas em geral so´ faremos refereˆncia ao caso dos nu´meros reais. Por vezes, em vez da
palavra “nu´meros”, tambe´m se usa “escalares”.
Definic¸a˜o 1.1 Chama-se matriz do tipo m × n sobre R (ou C) a todo o quadro
que se obte´m dispondo mn nu´meros segundo m linhas e n colunas
A =

a11 a12 . . . a1n
a21 a22 . . . a2n
...
...
. . .
...
am1 am2 . . . amn
 .
Os nu´meros aij dizem-se os elementos da matriz.
Para cada i e j, aij e´ o elemento de A situado na linha i e coluna j. Tal elemento
e´ tambe´m referido como o elemento de A na posic¸a˜o (i, j), ou apenas por elemento
(i, j) de A.
Uma matriz diz-se real ou complexa consoante os seus elementos forem nu´meros
reais ou complexos.
O conjunto de todas as matrizes do tipo m×n sobre R representa-se por Mm×n(R).
Usamos a notac¸a˜o Rm para Mm×1(R).
E´ costume usarem-se letras maiu´sculas para designar matrizes. Exceptua-se o caso das
matrizes-coluna, isto e´, matrizes so´ com uma coluna, para as quais, frequentemente, se
utilizam letras minu´sculas.
A matriz A da definic¸a˜o pode tambe´m ser apresentada na forma A = [aij]m×n, ou
simplesmente A = [aij] se o tipo for conhecido do contexto ou na˜o for importante na
questa˜o que esteja em estudo.
Exemplo 1.1 Sejam A =
[
1 2 7
−5 3 8
]
; B =
 0 −2 71 2 3
12 5 8
 e u =
 24
9
 .
A matriz A e´ uma matriz real do tipo 2× 3. Dizemos, portanto, que A ∈ M2×3(R).
O elemento de A na posic¸a˜o (2, 1) e´ −5 . B e´ uma matriz real 3 × 3 e u e´ uma
matriz-coluna pertencente a R3.
10
Na definic¸a˜o seguinte registamos terminologia e notac¸o˜es ba´sicas relativas a matrizes.
Definic¸a˜o 1.2 1. Duas matrizes A = [aij] e B = [bij] ∈Mm×n(R) sa˜o iguais se
aij = bij, para i = 1, . . . ,m, j = 1, . . . , n.
2. A ∈ Mm×n(R) diz-se quadrada de ordem n se m = n, e rectangular se
m 6= n.
3. Os elementos diagonais de A = [aij] ∈ Mn×n(R) sa˜o a11, a22, . . . , ann.
A sequeˆncia ordenada (ou n-uplo) constitu´ıda por estes elementos
diz-se diagonal principal de A. O n-uplo constitu´ıdo pelos elementos da
outra diagonal recebe o nome de diagonal secunda´ria.
4. Seja A = [aij] quadrada. A diz-se triangular superior se aij = 0 quando
i > j, triangular inferior se aij = 0 quando i < j, e diagonal se aij = 0
quando i 6= j.
5. A matriz identidade de ordem n, In, e´ a matriz diagonal, de ordem n, com
os elementos diagonais iguais a 1.
In =

1 0 . . . 0
0 1 . . . 0
...
...
. . .
...
0 0 . . . 1
 .
E´ usual denotar-se o elemento (i, j) de In por δij. Assim, δij toma o valor 1
se i = j, e 0 se i 6= j. Chamaremos “s´ımbolo de Kronecker” a δij.
6. A matriz nula m × n e´ a matriz m × n cujos elementos sa˜o todos iguais a
zero. Representa-se por 0m×n, ou simplesmente por 0 se o tipo estiver claro
do contexto.
7. Sendo A = [aij]m×n, define-se −A = [− aij]m×n.
8. Sendo A uma matriz, uma submatriz de A e´ uma matriz que se obte´m por
supressa˜o de linhas e/ou colunas de A.
11
Exemplo 1.2 As matrizes
[
1 2 7
−5 3 8
]
e
[
a 2 7
−5 b 8
]
sa˜o iguais se a = 1 e b = 3.
Estas duas matrizes sa˜o rectangulares, enquanto a matriz A =
 10 5 −78 2 3
15 6 5
 e´ quadrada
de ordem 3. Os elementos diagonais de A sa˜o 10, 2 e 5, a sua diagonal principal e´ (10, 2, 5)
e a sua diagonal secunda´ria e´ (−7, 2, 15) .
As matrizes  1 2 −70 2 1
0 0 −2
 ,
 1 0 07 3 0
5 0 5
 e
 2 0 00 2 0
0 0 7

sa˜o, respectivamente, triangular superior, triangular inferior e diagonal.
As matrizes
[
10 −7
15 5
]
e
 5 −72 3
6 5
 sa˜o exemplos de submatrizes deA=
 10 5 −78 2 3
15 6 5
.
1.2 Operac¸o˜es com matrizes
Definic¸a˜o 1.3 Sendo A = [aij] , B = [bij] ∈Mm×n(R) e α ∈ R, define-se:
1. A + B como sendo a matriz do tipo m × n cujo elemento (i, j) e´ aij + bij.
Assim A+B = [aij + bij]m×n.
2. αA como sendo a matriz do tipo m × n cujo elemento (i, j) e´ α aij. Tem-se
enta˜o αA = [α aij]m×n.
Exemplo 1.3 Sendo A =
[
1 0 −6
−2 1 8
]
e B =
[
10 3 8
1 6 4
]
, tem-se
A+B =
[
11 3 2
−1 7 12
]
e
1
2
A =
[
1
2
0 −3
−1 1
2
4
]
.
Teorema 1.1 Sejam A, B e C matrizes em Mm×n(R). Enta˜o verifica-se:
1. (A+B) + C = A+ (B + C) (associatividade da adic¸a˜o).
2. A+B = B + A (comutatividade da adic¸a˜o).
3. A+ 0 = 0 + A = A (0 e´ elemento neutro da adic¸a˜o).
4. A+ (−A) = (−A) + A = 0 (−A e´ o elemento sime´trico ou oposto de A).
12
Demonstrac¸a˜o. Apenas demonstramos a primeira destas propriedades, deixando as
restantes como exerc´ıcio.
Sejam A = [aij] , B = [bij] , C = [cij] ∈ Mm×n(R) . Sejam D = (A + B) + C = [dij]
e E = A + (B + C) = [eij] . Note-se que D e E sa˜o matrizes m × n. Por outro lado, da
definic¸a˜o de adic¸a˜o de matrizes, tem-se dij = (aij + bij)+ cij e eij = aij +(bij + cij). Mas
a associatividade da adic¸a˜o em R diz-nos que estas duas somas sa˜o iguais. Logo, dij = eij
para i = 1, . . . ,m, j = 1, . . . , n, e portanto D = E.
Teorema 1.2 Sejam A e B matrizes em Mm×n(R) e α, β ∈ R. Enta˜o verifica-se:
1. α(A+B) = αA+ αB.
2. (α+ β)A = αA+ βA.
3. (αβ)A = α(βA).
4. 1A = A.
Demonstrac¸a˜o. Demonstremos a propriedade 3, sendo as restantes deixadas como
exerc´ıcio. Seja A = [aij] ∈ Mm×n(R) e α, β ∈ R. Enta˜o (αβ)A e α(βA) sa˜o matrizes
do mesmo tipo e o elemento (i, j) de (αβ)A e´ (αβ)aij. Como α, β e aij sa˜o elementos
de R, da associatividade da multiplicac¸a˜o em R, sabemos que (αβ)aij = α(βaij). Mas o
segundo membro desta igualdade na˜o e´ mais que o elemento (i, j) de α(βA). Como i e j
sa˜o quaisquer, obtemos a igualdade das matrizes consideradas.
Definic¸a˜o 1.4 Sendo A = [aij] ∈ Mm×n(R) e B = [bij] ∈ Mn×p(R), define-se AB
como sendo a matriz do tipo m×p cujo elemento (i, j) e´ ai1b1j+ai2b2j+ · · ·+ainbnj.
Assim
AB =
[
n∑
k=1
aikbkj
]
m×p
.
Como se pode ver pela definic¸a˜o, o produto AB da matriz A pela matriz B apenas
esta´ definido se o nu´mero de colunas de A for igual ao nu´mero de linhas de B. Neste caso
o nu´mero de linhas da matriz AB e´ igual ao nu´mero de linhas de A e o nu´mero de colunas
e´ igual ao de B. O elemento de AB situado na linha i e coluna j obte´m-se a partir da
linha i de A e da coluna j de B:
 . . . . . .. . . . . .ai1 ai2 . . . ain
. . . . . . . . . . . .


. . . b1j . . .
. . . b2j . . .
...
...
...
. . . bnj . . .
 =
 . . . . . . . . .. . . ai1b1j + ai2b2j + . . .+ ainbnj . . .
. . . . . . . . .
 .
13
Vemos assim que:
1. a linha i de AB se obte´m multiplicando a linha i de A pela matriz B;
2. a coluna j de AB se obte´m multiplicando a matriz A pela coluna j de B;
3. AB obte´m-se multiplicando a matriz A pelas colunas de B, ou multiplicando as
linhas de A pela matriz B.
Exemplo 1.4 1. Sejam A =
[
1 2 7
9 3 8
]
e B =
 5 4 38 0 6
1 2 9
 . Enta˜o
AB =
[
1× 5 + 2× 8 + 7× 1 1× 4 + 2× 0 + 7× 2 1× 3 + 2× 6 + 7× 9
9× 5 + 3× 8 + 8× 1 9× 4 + 3× 0 + 8× 2 9× 3 + 3× 6 + 8× 9
]
=
[
28 18 78
77 52 117
]
Note-se que neste caso o produto BA na˜o esta´ definido, visto o nu´mero de colunas
de B ser diferente do nu´mero de linhas de A.
2. Sejam A =
[
3 1 5
]
e B =
 27
4
 . Enta˜o
AB =
[
3× 2 + 1× 7 + 5× 4 ] = [ 33 ] ;
e
BA =
 2× 3 2× 1 2× 57× 3 7× 1 7× 5
4× 3 4× 1 4× 5
 =
 6 2 1021 7 35
12 4 20
 .
3. Sendo A =
[
1 2
−1 −2
]
e B =
[
4 −6
−2 3
]
, tem-se
AB =
[
0 0
0 0
]
; BA =
[
10 20
−5 −10
]
.
Exerc´ıcio 1.1 Designe-se por cj a coluna j de Am×n, j = 1, . . . , n. Dada a matriz-coluna
x =

x1
x2
...
xn
 ,
verifique que Ax = x1c1 + x2c2 + . . .+ xncn. Dizemos que Ax e´ uma combinac¸a˜o linear
das colunas de A.
Note-se que, uma vez que AB se obte´m multiplicando A pelas colunas de B, podemos
concluir que as colunas de AB sa˜o combinac¸o˜es lineares das colunas de A.
Veja se algo de semelhante se passa com as linhas de AB.
14
Teorema 1.3 Sejam A,A′∈Mm×n(R), B,B′∈Mn×p(R), C∈Mp×q(R) e α∈R.Enta˜o tem-se:
1. A0 = 0, 0A = 0 , AIn = ImA = A.
2. (AB)C = A(BC) (associatividade da multiplicac¸a˜o).
3. A(B + B′) = AB + AB′ , (A + A′)B = AB + A′B (distributividades do produto
em relac¸a˜o a` adic¸a˜o).
4. α(AB) = (αA)B = A(αB).
5. AB = 0 6⇒ (A = 0 ou B = 0).
6. (AB = AB′ e A 6= 0) 6⇒ B = B′, e tambe´m (AB = A′B e B 6= 0) 6⇒ A = A′.
7. A multiplicac¸a˜o de matrizes na˜o e´ comutativa.
Demonstrac¸a˜o. Demonstremos a propriedade 2. As outras ficam como exerc´ıcio (note
que as propriedades 5 e 7 seguem do exemplo 1.4).
Sejam A = [aij] ∈ Mm×n(R), B = [bij] ∈ Mn×p(R) e C = [cij] ∈ Mp×q(R). Enta˜o
(AB)C e A(BC) sa˜o ambas matrizes do tipo m × q. Da definic¸a˜o de produto sabemos
que o elemento (i, j) de AB e´
n∑
k=1
aikbkj . Assim, o elemento (i, l) de (AB)C sera´
p∑
t=1
(
n∑
k=1
aikbkt
)
ctl.
De modo ana´logo, o elemento (i, l) de A(BC) e´
n∑
k=1
aik
(
p∑
t=1
bktctl
)
.
Utilizando as propriedades distributiva da multiplicac¸a˜o em relac¸a˜o a` adic¸a˜o, associativa
da multiplicac¸a˜o e da adic¸a˜o e comutativa da adic¸a˜o em R, tem-se
n∑
k=1
aik
(
p∑
t=1
bktctl
)
=
n∑
k=1
p∑
t=1
aik(bktctl) =
p∑
t=1
n∑
k=1
(aikbkt)ctl =
p∑
t=1
(
n∑
k=1
aikbkt
)
ctl.
Observac¸a˜o. Da associatividade do produto de matrizes conclu´ımos que na˜o temos que
nos preocupar com pareˆnteses quando lidarmos com mais de dois factores. Em particular,
fica bem definido o significado da expressa˜o Ak, onde A e´ uma matriz quadrada e k ∈ N.
Exerc´ıcio 1.2 Prove que o produto de duas matrizes triangulares superiores (resp. infe-
riores) da mesma ordem e´ ainda uma matriz triangular superior (resp. inferior).
A que sa˜o iguais os elementos diagonais do produto neste caso?
15
Exerc´ıcio 1.3 Sejam A e B matrizes m × n. Prove que, se Av = Bv para todo o vector
coluna n× 1 v, enta˜o A = B.
(Sugesta˜o: O que conclui se v for uma das colunas da matriz In?)
Exerc´ıcio 1.4 (Produto por blocos.) Sejam A m×n e B n×p duas matrizes. Suponhamos
que as particionamos em “blocos” (ou submatrizes) assim
A =

A11 A12 . . . A1s
A21 A22 . . . A2s
...
...
. . .
...
Ar1 Ar2 . . . Ars
 , B =

B11 B12 . . . B1t
B21 B22 . . . B2t
...
...
. . .
...
Bs1 Bs2 . . . Bst
 ,
de forma que, para todos os poss´ıveis valores de i, j, e k, o nu´mero de colunas de Aik seja
igual ao nu´mero de linhas de Bkj . Mostre que, enta˜o, o produto AB se pode calcular do
seguinte modo (note-se que o nu´mero de colunas de blocos de A e´ igual ao nu´mero de linhas
de blocos de B):
AB =

∑s
k=1A1kBk1
∑s
k=1A1kBk2 . . .
∑s
k=1A1kBkt∑s
k=1A2kBk1
∑s
k=1A2kBk2 . . .
∑s
k=1A2kBkt
...
...
. . .
...∑s
k=1ArkBk1
∑s
k=1ArkBk2 . . .
∑s
k=1ArkBkt
 .
( Sugesta˜o: Talvez ajude comec¸ar por considerar o caso s = 2, r = t = 1.)
1.3 Inversa de uma matriz quadrada
Dado um nu´mero na˜o nulo, real ou complexo, podemos falar do seu inverso multiplica-
tivo. O que se passara´ com matrizes?
Definic¸a˜o 1.5 Seja A uma matriz quadrada de ordem n. Dizemos que A e´ invert´ıvel
se existir uma matriz X, quadrada de ordem n, tal que AX = XA = In.
Teorema 1.4 Seja A uma matriz quadrada de ordem n. Enta˜o existe no ma´ximo uma
matriz X quadrada de ordem n tal que AX = XA = In. (Nestas condic¸o˜es X diz-se a
inversa de A e representa-se por A−1.)
Demonstrac¸a˜o. Sejam X e Y matrizes quadradas de ordem n tais que AX = XA = In
e AY = Y A = In. Enta˜o Y = Y In = Y (AX) = (Y A)X = InX = X. Logo, existe no
ma´ximo uma matriz X nas condic¸o˜es referidas.
16
Exemplo 1.5 Amatriz
[
1 2
1 1
]
e´ invert´ıvel, sendo a sua inversa a matriz
[ −1 2
1 −1
]
.
De facto tem-se[
1 2
1 1
] [ −1 2
1 −1
]
= I2 e
[ −1 2
1 −1
] [
1 2
1 1
]
= I2.
Teorema 1.5 Sejam A e B matrizes quadradas de ordem n invert´ıveis. Enta˜o AB e´
invert´ıvel e (AB)−1 = B−1A−1.
Demonstrac¸a˜o. (AB)(B−1A−1) = A(BB−1)A−1 = AInA−1 = AA−1 = In. De modo
ana´logo, (B−1A−1)(AB) = B−1(A−1A)B = B−1InB = B−1B = In. Podemos assim
concluir que AB e´ invert´ıvel e a sua inversa e´ B−1A−1.
Exerc´ıcio 1.5 Generalize o resultado do teorema anterior para mais do que duas matrizes.
Adiante estudaremos me´todos para determinar se uma matriz quadrada e´ ou na˜o
invert´ıvel, e, no caso afirmativo, calcular a sua inversa.
1.4 Transposic¸a˜o de matrizes
Definic¸a˜o 1.6 Dada uma matriz A = [aij] do tipo m × n, define-se a trans-
posta de A como sendo a matriz AT = [bij], do tipo n ×m, onde bij = aji, para
i = 1, . . . , n, j = 1, . . . ,m. A matriz A diz-se sime´trica se A = AT .
Observac¸o˜es. 1. Os elementos da coluna i de AT sa˜o precisamente os da linha i de A,
para i = 1, . . . ,m.
2. Uma matriz e´ sime´trica se e so´ se for quadrada e forem iguais os elementos situados
em posic¸o˜es sime´tricas relativamente a` diagonal principal.
17
Exemplo 1.6 A transposta da matriz A =
[
1 2 0
1 5 3
]
e´ a matriz AT =
 1 12 5
0 3
 .
A matriz  3 2 52 1 7
5 7 9

e´ sime´trica, mas a matriz  3 1 52 1 7
5 7 9

ja´ o na˜o e´, uma vez que os elementos nas posic¸o˜es (1, 2) e (2, 1) na˜o sa˜o iguais.
Proposic¸a˜o 1.1 A transposic¸a˜o de matrizes goza das seguintes propriedades:
1. (AT )T = A;
2. (A+B)T = AT +BT ;
3. (αA)T = αAT , sendo α um nu´mero;
4. (AB)T = BTAT ;
5. (Ak)T = (AT )k, sendo k um nu´mero natural;
6. Se A for invert´ıvel, AT tambe´m e´, tendo-se (AT )−1 = (A−1)T .
Demonstrac¸a˜o. As propriedades 1, 2, 3 e 5 ficam como exerc´ıcio. Provemos 4 e 6. Sejam
A = [aij] e B = [bij] , dos tipos m× n e n× p , respectivamente. Enta˜o BTAT e (AB)T
sa˜o do tipo p×m. Sendo bki e ajk os elementos (i, k) e (k, j) de BT e AT , respectivamente,
tem-se que o elemento (i, j) de BTAT e´
n∑
k=1
bkiajk =
n∑
k=1
ajkbki, que e´ o elemento
(i, j) de (AB)T , para i = 1, . . . , p, j = 1, . . . ,m.
Seja agora A = [aij] invert´ıvel de ordem n. Enta˜o, usando a propriedade 4, tem-se
AT (A−1)T = (A−1A)T = ITn = In e (A
−1)TAT = (AA−1)T = ITn= In.
Logo (AT )−1 = (A−1)T .
Exerc´ıcio 1.6 Seja A uma matriz m×n. Prove que as matrizes ATA e AAT sa˜o sime´tricas.
Deˆ um exemplo que mostre que estes dois produtos podem ser diferentes, mesmo que A seja
quadrada.
18
Exerc´ıcio 1.7 Prove o seguinte:
1. A soma de duas matrizes sime´tricas da mesma ordem e´ ainda uma matriz sime´trica.
2. O produto de duas matrizes sime´tricas da mesma ordem e´ uma matriz sime´trica se e
so´ se as duas matrizes comutarem.
3. A inversa de uma matriz sime´trica invert´ıvel e´ tambe´m sime´trica.
Exerc´ıcio 1.8 Seja M =
[
A B
C D
]
uma matriz particionada em blocos. Mostre que
MT =
[
AT CT
BT DT
]
.
Definic¸a˜o 1.7 Uma matriz quadrada diz-se ortogonal se for invert´ıvel e a sua
inversa coincidir com a sua transposta.
Exemplo 1.7 A matriz AT =
[ √
2
2
−
√
2
2√
2
2
√
2
2
]
e´ ortogonal.
Exerc´ıcio 1.9 Mostre que:
1. O produto de duas matrizes ortogonais e´ ainda uma matriz ortogonal.
2. A inversa de uma matriz ortogonal e´ tambe´m uma matriz ortogonal.
3. Uma matriz real 2× 2 e´ ortogonal se e so´ se for de uma das duas seguintes formas:[
cos θ −sen θ
sen θ cos θ
]
,
[
cos θ sen θ
sen θ − cos θ
]
, θ ∈ R.
Exerc´ıcio 1.10 Seja A n× n e designemos por v1, . . . , vn as suas colunas. Prove que A e´
ortogonal se e so´ se, para i, j = 1, . . . , n, se tiver vTi vj = δij .
Definic¸a˜o 1.8 Uma matriz n× n diz-se uma matriz de permutac¸a˜o se tiver as
mesmas linhas que a matriz identidade In mas na˜o necessariamente pela mesma
ordem.
19
Exemplo 1.8 As matrizes
 0 1 00 0 1
1 0 0
 e
 0 1 01 0 0
0 0 1
 sa˜o matrizes de permutac¸a˜o.
Que trocas se efectuaram sobre as linhas de I3 para as obter?
Exerc´ıcio 1.11 Mostre que toda a matriz de permutac¸a˜o e´ ortogonal.
Exerc´ıcio 1.12 Seja A =
[
B C
0 D
]
uma matriz particionada em blocos com B e D
quadradas. Mostre que, se A for ortogonal, enta˜o B e D tambe´m sa˜o ortogonais e C = 0.
Definic¸a˜o 1.9 Sendo A = [aij]m×n uma matriz complexa, define-se a conjugada
de A como sendo A = [aij]m×n. Escrevemos A
∗ = A T . A matriz A diz-se hermı´tica
se A = A∗.
Observac¸o˜es. 1. Os elementos da coluna i de A∗ sa˜o precisamente os conjugados dos da
linha i de A, para i = 1, . . . ,m.
2. Uma matriz e´ hermı´tica se e so´ se for quadrada e forem conjugados os elementos
situados em posic¸o˜es sime´tricas relativamente a` diagonal principal.
Exemplo 1.9 A conjugada de A =
[
1 2 + i
5 + 3i 4i
]
e´ a matriz A =
[
1 2− i
5− 3i −4i
]
.
Tem-se A∗=
[
1 5− 3i
2− i −4i
]
. Esta matriz na˜o e´ hermı´tica, mas a matriz
[
1 3−i
3+i 7
]
ja´ o e´.
Proposic¸a˜o 1.2 As matrizes complexas gozam das seguintes propriedades:
1. (A∗)∗ = A;
2. (A+B)∗ = A∗ +B∗;
3. (αA)∗ = αA∗, sendo α um nu´mero complexo;
4. (AB)∗ = B∗A∗;
5. (Ak)∗ = (A∗)k, sendo k um nu´mero natural;
6. Se A for invert´ıvel, A∗ tambe´m e´, tendo-se (A∗)−1 = (A−1)∗.
Demonstrac¸a˜o. Exerc´ıcio.
20
1.5 Matrizes elementares
Dedicamos agora a nossa atenc¸a˜o a uma classe especial de matrizes, as matrizes ele-
mentares, que aparecera˜o no estudo dos sistemas de equac¸o˜es lineares. Para estudarmos
esta classe de matrizes e´ u´til conhecer certo tipo de operac¸o˜es sobre as linhas de uma
matriz, ditas operac¸o˜es elementares, que passamos a definir:
1. Substituic¸a˜o de uma linha da matriz pela sua soma com um mu´ltiplo de outra.
2. Troca entre si de duas linhas da matriz.
3. Multiplicac¸a˜o de uma linha da matriz por um nu´mero diferente de zero.
Definic¸a˜o 1.10 Chama-se matriz elementar de ordem n a toda a matriz que se
obte´m de In por aplicac¸a˜o de uma operac¸a˜o elementar a`s suas linhas.
Obtemos assim treˆs tipos de matrizes elementares de ordem n:
1. Para i 6= j e α ∈ R temos a matriz
Eij(α) =

1 0 . . . 0 . . . 0 . . . 0
0 1 . . . 0 . . . 0 . . . 0
...
...
. . .
...
. . .
...
. . .
...
0 0 . . . 1 . . . α . . . 0
...
...
. . .
...
. . .
...
. . .
...
0 0 . . . 0 . . . 1 . . . 0
...
...
. . .
...
. . .
...
. . .
...
0 0 . . . 0 . . . 0 . . . 1

.
Eij(α) obte´m-se de In adicionando a` linha i a linha j previamente multiplicada por
α. Assim Eij(α) difere da matriz identidade apenas pelo elemento (i, j), que e´ α
(se α = 0, tem-se Eij(α) = In).
2. Para i 6= j, temos a matriz
Pij =

1 0 . . . 0 . . . 0 . . . 0
0 1 . . . 0 . . . 0 . . . 0
...
...
. . .
...
. . .
...
. . .
...
0 0 . . . 0 . . . 1 . . . 0
...
...
. . .
...
. . .
...
. . .
...
0 0 . . . 1 . . . 0 . . . 0
...
...
. . .
...
. . .
...
. . .
...
0 0 . . . 0 . . . 0 . . . 1

.
Pij obte´m-se de In trocando a linha i com a linha j.
21
3. Finalmente, para α ∈ R na˜o nulo e 1 ≤ i ≤ n, temos a matriz
Di(α) =

1 0 . . . 0 . . . 0
0 1 . . . 0 . . . 0
...
...
. . .
...
. . .
...
0 0 . . . α . . . 0
...
...
. . .
...
. . .
...
0 0 . . . 0 . . . 1

.
Di(α) obte´m-se de In multiplicando a linha i por α.
As matrizes Pij sa˜o matrizes de permutac¸a˜o especiais (obtidas de In pela troca de
duas linhas).
Exemplo 1.10 As matrizes seguintes sa˜o exemplos de matrizes elementares de ordem 3 :
E21(5) =
 1 0 05 1 0
0 0 1
 ; P13 =
 0 0 10 1 0
1 0 0
 ; D2(8) =
 1 0 00 8 0
0 0 1
 .
Exerc´ıcio 1.13 Seja A ∈Mm×n(R), i 6= j e α ∈ R. Mostre que:
1. Eij(α)A e´ a matriz que se obte´m de A adicionando a` linha i a linha j previamente
multiplicada por α.
2. Pij(α)A e´ a matriz que se obte´m de A trocando a linha i com a linha j.
3. Di(α)A e´ a matriz que se obte´m de A multiplicando a linha i por α.
Em resumo, se E for uma matriz elementar, EA e´ a matriz que se obte´m de A
aplicando-lhe a`s linhas as mesmas operac¸o˜es elementares que foram aplicadas a`s linhas
de Im para obter E. Mostre ainda que um resultado ana´logo e´ va´lido para o produto
AE, reflectindo-se agora o efeito da multiplicac¸a˜o nas colunas de A: AE e´ a matriz
obtida de A aplicando-lhe a`s colunas as mesmas operac¸o˜es elementares que foram
aplicadas a`s colunas de In para obter E.
Exerc´ıcio 1.14 Generalize 2. e 3. do exerc´ıcio anterior provando que, se A for uma matriz
m× n, se tem o seguinte:
1. Multiplicar A a` esquerda por uma matriz de permutac¸a˜o P equivale a efectuar em A as
mesmas trocas de linhas feitas em Im para obter P . Qual sera´ o efeito de multiplicar
A a` direita por uma matriz de permutac¸a˜o?
2. Multiplicar A a` esquerda por uma matriz diagonal de elementos diagonais µ1, . . . , µm
equivale a multiplicar a primeira linha de A por µ1, a segunda linha por µ2, etc.
Multiplicar A a` direita por uma matriz diagonal de elementos diagonais µ1, . . . , µn
equivale a multiplicar a primeira coluna de A por µ1, a segunda coluna por µ2, etc.
22
Exerc´ıcio 1.15 Seja 1 ≤ j ≤ n − 1, e defina-se Ej como sendo o seguinte produto de
matrizes elementares Ej+1,j(αj+1,j)Ej+2,j(αj+2,j) · · ·En,j(αn,j).
1. Mostre que se tem
Ej =

1 0 . . . 0 0 0 . . . 0
0 1 . . . 0 0 0 . . . 0
...
...
. . .
...
...
. . .
...
0 0 . . . 1 0 0 . . . 0
0 0 . . . αj+1,j 1 0 . . . 0
0 0 . . . αj+2,j 0 1 . . . 0
...
...
. . .
...
...
...
. . .
...
0 0 . . . αnj
...
... . . . 1

.
2. Mostre que se tem
E1E2 · · ·En−1 =

1 0 0 . . . 0
α21 1 0 . . . 0
α31 α32 1 . . . 0
...
...
...
. . .
...
αn1 αn2 αn3 . . . 1
 .
3. Como pode observar, a matriz E1E2 · · ·En−1 obte´m-se imediatamente das matrizes
E1, E2, · · · , En−1, sem necessidade de ca´lculos. Verifique que o mesmo na˜o se passa
com En−1 · · ·E2E1, matriz para cujos elementos na˜o existe uma expressa˜o simples a
partir dos elementosdas matrizes Ej .
Exerc´ıcio 1.16 Prove que as matrizes elementares Eij(α), Pij e Di(β), onde β 6= 0, sa˜o
invert´ıveis e tem-se
(Eij(α))−1 = Eij(−α), P−1ij = Pij e (Di(β))−1 = Di(1/β).
23
2 Sistemas de equac¸o˜es lineares
2.1 Generalidades
Os sistemas de equac¸o˜es lineares constituem hoje um relevante tema de estudo devido
a` sua importaˆncia em Matema´tica Aplicada. Muitos problemas, por exemplo, nas a´reas
de Engenharia conduzem a` necessidade de resolver sistemas de equac¸o˜es lineares.
Os sistemas de equac¸o˜es lineares ligados a questo˜es de Matema´tica Aplicada podem ter
um elevado nu´mero de equac¸o˜es e inco´gnitas. Na˜o se pode portanto pensar em resolveˆ-los
“a` ma˜o”. O que se faz e´ usar computadores para esse efeito, na˜o aplicando “fo´rmulas”
mas sim utilizando algoritmos, isto e´, sequeˆncias organizadas de passos que conduzem a`
soluc¸a˜o ou soluc¸o˜es.
Neste cap´ıtulo estudaremos o mais importante algoritmo geral para resolver sistemas
de equac¸o˜es lineares, o algoritmo de eliminac¸a˜o de Gauss, e veremos como a linguagem
das matrizes permite descreveˆ-lo de forma muito simples e abreviada.
Para sistemas muito grandes e de tipos especiais ha´ outros algoritmos mais econo´micos
do que o algoritmo de eliminac¸a˜o de Gauss. Esses algoritmos teˆm em geral um nu´mero
infinito de passos e sa˜o estudados em disciplinas mais avanc¸adas.
Definic¸a˜o 2.1 Uma equac¸a˜o linear nas inco´gnitas x1, . . . , xn e´ uma equac¸a˜o do
tipo
a1x1 + . . .+ anxn = b
onde a1, . . . , an e b sa˜o nu´meros. A b costuma chamar-se segundo membro ou
termo independente da equac¸a˜o.
Um sistema de equac¸o˜es lineares e´ uma colecc¸a˜o finita de equac¸o˜es lineares
(todas nas mesmas inco´gnitas) consideradas em conjunto. Um sistema gene´rico
com m equac¸o˜es e n inco´gnitas
a11x1 + . . .+ a1nxn = b1
a21x1 + . . .+ a2nxn = b2
. . .
am1x1 + . . .+ amnxn = bm
apresenta-se abreviadamente na forma
Ax = b
onde
A =

a11 a12 . . . a1n
a21 a22 . . . a2n
...
...
. . .
...
am1 am2 . . . amn
 , x =

x1
x2
...
xn
 , b =

b1
b2
...
bm
 .
A e´ a matriz do sistema, x e´ a matriz-coluna das inco´gnitas e b e´ a matriz-coluna
dos segundos membros ou, abreviadamente, o segundo membro do sistema.
24
Definic¸a˜o 2.2 Uma soluc¸a˜o de um sistema de equac¸o˜es lineares nas inco´gnitas
x1, . . . , xn e´ uma sequeˆncia ordenada (α1, . . . , αn) de nu´meros tais que as substi-
tuic¸o˜es xi = αi, i = 1, ..., n, transformam todas as equac¸o˜es do sistema em iden-
tidades verdadeiras. Uma soluc¸a˜o tambe´m se pode apresentar na forma de uma
matriz-coluna n× 1: 
α1
α2
...
αn
 .
Resolver um sistema de equac¸o˜es lineares e´ determinar todas as suas soluc¸o˜es ou
provar que na˜o existe nenhuma.
Um sistema de equac¸o˜es lineares que tenha pelo menos uma soluc¸a˜o diz-se poss´ıvel
(determinado se so´ tiver uma, indeterminado se tiver mais do que uma). Um
sistema de equac¸o˜es lineares que na˜o tenha nenhuma soluc¸a˜o diz-se imposs´ıvel.
Exemplo 2.1 Considere o sistema de equac¸o˜es lineares{
2x1 + 5x2 = 3
4x1 + 9x2 = 7
.
A matriz do sistema e´
[
2 5
4 9
]
, enquanto que x =
[
x1
x2
]
e b =
[
3
7
]
sa˜o, respec-
tivamente, as matrizes-coluna das inco´gnitas e dos segundos membros. Este sistema e´
poss´ıvel determinado, sendo a sua soluc¸a˜o
[
4
−1
]
.
O exemplo seguinte e´ de novo de um sistema poss´ıvel determinado. Qual a sua soluc¸a˜o?
x1 + 2x2 = 1
4x1 + 3x2 = 3
5x1 + 5x2 = 4
.
O sistema {
2x1 + 4x2 = 12
4x1 + 8x2 = 24
e´ poss´ıvel indeterminado, com soluc¸a˜o
[
6− 2α
α
]
, para qualquer α ∈ R ; mas
{
2x1 + 4x2 = 5
4x1 + 8x2 = 7
ja´ e´ um sistema imposs´ıvel.
Qual a interpretac¸a˜o geome´trica destes sistemas?
25
Definic¸a˜o 2.3 Um sistema em que os segundos membros das equac¸o˜es sa˜o todos
iguais a 0 diz-se homoge´neo. Note-se que um sistema homoge´neo e´ sempre poss´ıvel
(possui sempre, pelo menos, a chamada soluc¸a˜o nula).
Definic¸a˜o 2.4 Dois sistemas com o mesmo nu´mero de equac¸o˜es e de inco´gnitas
dizem-se equivalentes se tiverem exactamente as mesmas soluc¸o˜es.
Teorema 2.1 Seja Ax = b um sistema de equac¸o˜es lineares, com A m× n. Seja E uma
matriz m×m invert´ıvel. Enta˜o, o sistema EAx = Eb e´ equivalente ao sistema Ax = b.
Demonstrac¸a˜o. Claramente, qualquer soluc¸a˜o do sistema Ax = b e´ tambe´m soluc¸a˜o do
sistema EAx = Eb. Reciprocamente, seja u uma soluc¸a˜o do sistema EAx = Eb. Tem-
se EAu = Eb. Multiplicando a` esquerda ambos os membros desta igualdade por E−1,
obtemos Au = b, isto e´, u e´ soluc¸a˜o do sistema Ax = b.
2.2 O algoritmo de eliminac¸a˜o de Gauss
Um me´todo geral de resolver sistemas de equac¸o˜es lineares e´ o chamado algoritmo de
eliminac¸a˜o de Gauss. Este algoritmo consiste numa sequeˆncia de passos “elementares”
que transformam o sistema dado num sistema muito fa´cil de resolver.
Um passo elementar do me´todo de eliminac¸a˜o de Gauss consiste na adic¸a˜o membro a
membro a uma equac¸a˜o de um mu´ltiplo de outra, de forma que, na equac¸a˜o obtida, seja
nulo o coeficiente de certa inco´gnita. Com isto dizemos que se “eliminou” essa inco´gnita
da equac¸a˜o.
Para exemplificar, consideremos o sistema Ax = b com A = [aij] m × n. Enta˜o,
supondo a11 6= 0, a adic¸a˜o a` segunda equac¸a˜o da primeira multiplicada por −a21
a11
elimina
a inco´gnita x1 da segunda equac¸a˜o (verifique).
Os passos elementares sa˜o conduzidos de maneira a eliminar a inco´gnita x1 de todas
as equac¸o˜es a partir da segunda — para o que e´ necessa´rio ter-se a11 na˜o nulo —, depois
eliminar a inco´gnita x2 de todas as equac¸o˜es a partir da terceira — para o que e´ necessa´rio
ter-se a′22 (o novo coeficiente de x2 na segunda equac¸a˜o) na˜o nulo —, etc. Este processo
repete-se ate´ na˜o ser poss´ıvel continua´-lo mais. Os nu´meros a11, a
′
22, ... chamam-se os
pivots da eliminac¸a˜o.
Teorema 2.2 Cada um destes passos elementares do me´todo de eliminac¸a˜o de Gauss
transforma um sistema noutro equivalente.
Demonstrac¸a˜o. Basta observar que cada passo elementar do tipo descrito corresponde
a multiplicar ambos os membros do sistema (escrito na forma matricial) por uma matriz
elementar do tipo Eij(α) e que estas matrizes sa˜o invert´ıveis.
26
Sempre que surja um zero na posic¸a˜o em que devia estar um pivot, procura-se resolver
o problema mediante a troca dessa equac¸a˜o com a que se lhe segue. Se tambe´m essa
tiver um zero na posic¸a˜o em causa tenta-se a seguinte, etc. Se nenhuma troca resolver o
problema, o pivot passa a ser procurado entre os coeficientes da inco´gnita seguinte.
E´ o´bvio que uma troca na ordem das equac¸o˜es transforma um sistema noutro equiva-
lente. Isso tambe´m se pode concluir observando que uma troca de duas equac¸o˜es entre si
corresponde a multiplicar ambos os membros do sistema (escrito na forma matricial) por
uma matriz elementar do tipo Pij e que estas matrizes sa˜o invert´ıveis.
Deste processo resulta um novo sistema, digamos Ux = c, equivalente ao sistema
original, e cuja matriz U , que e´ ainda m× n, tem uma forma especial, a que se costuma
chamar matriz em escada:
Definic¸a˜o 2.5 Uma matriz diz-se umamatriz em escada se satisfizer as seguintes
condic¸o˜es:
i) Se o primeiro elemento na˜o nulo numa linha esta´ na coluna j, enta˜o a linha
seguinte comec¸a com pelo menos j elementos nulos.
ii) Se houver linhas totalmente constitu´ıdas por zeros, elas aparecem depois das
outras.
Exemplo 2.2 Exemplos do aspecto de uma matriz em escada (os s´ımbolos • representam
os pivots):
 • ∗ ∗0 • ∗
0 0 •
 ,

• ∗ ∗ ∗ ∗ ∗ ∗
0 0 • ∗ ∗ ∗ ∗
0 0 0 • ∗ ∗ ∗
0 0 0 0 0 0 •
0 0 0 0 0 0 0
 ,

• ∗ ∗
0 • ∗
0 0 0
0 0 0
 .
As matrizes
A =
[
2 5 0
0 0 6
]
, B =
 1 50 2
0 0
 e C =

3 7 04
0 1 5 2
0 0 0 6
0 0 0 0
0 0 0 0

sa˜o matrizes em escada. A matriz A tem pivots 2 e 6, os pivots de B sa˜o 1 e 2 e os de
C sa˜o 3, 1 e 6.
As matrizes  1 5 00 0 6
0 0 2
 ,
 1 0 5 70 0 6 2
0 0 2 4
 e
 2 3 00 0 0
0 0 1

na˜o sa˜o em escada. Porqueˆ?
27
Com a obtenc¸a˜o de uma matriz em escada U termina a parte “descendente” do me´todo
de eliminac¸a˜o de Gauss. Neste momento verifica-se se o sistema obtido, Ux = c, e´ poss´ıvel,
isto e´, se na˜o ha´ equac¸o˜es com o primeiro membro nulo e o segundo na˜o nulo.
Se o sistema for poss´ıvel, resolve-se “de baixo para cima” (parte “ascendente” do
algoritmo), se necessa´rio obtendo algumas inco´gnitas — aquelas que esta˜o a multiplicar
por pivots — em func¸a˜o das outras.
A`s primeiras inco´gnitas chamamos inco´gnitas ba´sicas, e a`s outras, que podem tomar
qualquer valor em R, chamamos inco´gnitas livres. Se houver inco´gnitas livres, o sistema
e´ indeterminado. Se so´ houver inco´gnitas ba´sicas, o sistema e´ determinado.
O que governa o me´todo de eliminac¸a˜o e´ a matriz A do sistema, e podemos olhar para
os sucessivos passos do algoritmo como respeitando apenas a` matriz: o primeiro passo
consiste em adicionar a` segunda linha a primeira multiplicada por −a21
a11
, etc.
Definic¸a˜o 2.6 A caracter´ıstica de A — abreviadamente, car(A) — e´ o nu´mero de
pivots que aparecem quando se aplica a A o me´todo de eliminac¸a˜o. Equivalente-
mente, car(A) e´ o nu´mero de linhas na˜o nulas da matriz em escada U produzida
pelo algoritmo de eliminac¸a˜o aplicado a A. Uma matriz quadrada A n × n diz-se
na˜o-singular se tiver caracter´ıstica n. Se car(A) < n, a matriz A diz-se singular.
Exemplo 2.3 Considere as matrizes A, B e C do exemplo anterior. Tem-se car(A) = 2,
car(B) = 2 e car(C) = 3.
Exemplo 2.4 Considere a matriz A =
 1 1 21 3 3
2 8 12
 . Apliquemos a A o me´todo de
eliminac¸a˜o de Gauss. Comec¸amos por adicionar a` segunda e terceira linhas de A a
primeira linha multiplicada por −1 e −2, respectivamente. A matriz resultante sera´
A′ =
 1 1 20 2 1
0 6 8
. Esta matriz na˜o e´ ainda uma matriz em escada. Prosseguimos adicio-
nando a` terceira linha de A′ a segunda linha multiplicada por −3. A matriz que obtemos
e´ a matriz em escada U =
 1 1 20 2 1
0 0 5
 . Tem-se car(A) = 3 (pois ha´ treˆs pivots : 1, 2 e
5) e A e´ na˜o-singular.
Considere-se agora B =
 1 1 22 6 6
2 2 4
 . Adicionando a` segunda e terceira linhas de B
a primeira linha multiplicada por −2 obtemos a matriz em escada U =
 1 1 20 4 2
0 0 0
 . Ha´
apenas dois pivots, 1 e 4. Logo car(B) = 2 e B e´ singular.
28
O algoritmo de eliminac¸a˜o de Gauss pode ser descrito de forma muito abreviada usando
a linguagem das matrizes:
Consideremos o sistema Ax = b, e denotemos por Ux = c o sistema obtido apo´s a
parte descendente do algoritmo. Suponhamos primeiro que na˜o houve necessidade de
trocas de linhas.
O efeito das sucessivas operac¸o˜es elementares aplicadas a A pode ser descrito pela
multiplicac¸a˜o sucessiva de A, a` esquerda, por matrizes elementares do tipo Eij(α), onde os
nu´meros α sa˜o os “multiplicadores” usados na eliminac¸a˜o. Designemos por M o produto
de todas essas matrizes elementares. Enta˜o M e´ uma matriz triangular inferior com
elementos diagonais iguais a 1 (ex. 1.2), e tem-se MA = U . Como as operac¸o˜es levadas a
cabo com o segundo membro do sistema foram precisamente as mesmas, tem-se Mb = c.
Designemos M−1 por L (donde A = LU e b = Lc). Sendo a inversa de M , a matriz
L e´ igual ao produto das matrizes Eij(−α) pela ordem inversa a`quela em que as matrizes
Eij(α) figuram em M . Enta˜o, dos exerc´ıcios 1.15 e 1.16 (primeira igualdade), sabe-se que
L e´ uma matriz triangular inferior com elementos diagonais iguais a 1 e os elementos sob a
diagonal de L sa˜o precisamente os sime´tricos dos “multiplicadores” usados na eliminac¸a˜o,
cada um na posic¸a˜o em que figura na respectiva matriz elementar. (E, portanto, a matriz
L e´ muito fa´cil de escrever.)
Exemplo 2.5 Considere-se o sistema Ax = b, onde A =
 1 1 21 3 3
2 8 12
 e´ a matriz
considerada no Exemplo 2.4, e b =
 1−2
−12
 . Ja´ vimos como obter uma matriz triangular
superior U por aplicac¸a˜o do me´todo de eliminac¸a˜o de Gauss a A. Utilizando matrizes
elementares, este processo pode ser descrito do seguinte modo:
U = E32(−3)E31(−2)E21(−1)A =
 1 1 20 2 1
0 0 5
 .
Efectuando as mesmas operac¸o˜es ao segundo membro do sistema, obtemos
c = E32(−3)E31(−2)E21(−1)b =
 1−3
−5
 .
A matriz L sera´
L = [E32(−3)E31(−2)E21(−1)]−1 = E21(1)E31(2)E32(3) =
 1 0 01 1 0
2 3 1
 ,
e tem-se A = LU e b = Lc.
29
Se houver necessidade de trocas de linhas, a u´nica diferenc¸a e´ que o algoritmo deve
ser visto como aplicado, na˜o a A, mas a PA, onde P e´ uma matriz de permutac¸a˜o (P e´ o
produto das matrizes de permutac¸a˜o correspondentes a`s va´rias trocas de linhas feitas na
matriz durante o algoritmo), e ao segundo membro Pb.
Exemplo 2.6 Aplique-se o algoritmo de eliminac¸a˜o de Gauss ao sistema Ax = b, onde
A =
 2 6 24 12 −2
−6 −12 −10
 .
Ao adicionarmos a` segunda e terceira linhas de A a primeira multiplicada por −2 e 3,
respectivamente, obtemos a matriz
E31(3)E21(−2)A =
 2 6 20 0 −6
0 6 −4
 .
O passo seguinte seria utilizar o elemento (2, 2) como pivot, mas este elemento e´ zero.
Temos que trocar entre si as linhas 2 e 3 desta matriz. Este passo e´ equivalente a trocar
estas linhas em A antes de termos iniciado o processo de eliminac¸a˜o, isto e´, a fazer a
eliminac¸a˜o na˜o em A mas na matriz P2,3A. Teremos enta˜o (atenc¸a˜o a`s novas matrizes
Eij(α) )
E31(−2)E21(3)P2,3A =
 2 6 20 6 −4
0 0 −6
 .
Esta ja´ e´ uma matriz em escada, a matriz U desejada. Tomando L = [E31(−2)E21(3)]−1=
E21(−3)E31(2), temos P2,3A = LU.
Regressando ao sistema Ax = b, teremos que efectuar no segundo membro as mesmas
trocas de linhas que foram efectuadas em A, ou seja, iremos trabalhar na˜o com Ax = b
mas com o sistema equivalente P2,3Ax = P2,3b.
Note que na˜o e´ necessa´rio iniciar o processo de eliminac¸a˜o de cada vez que precisar
de efectuar uma troca de linhas. Pense quais sera˜o as alterac¸o˜es que tais trocas implicam
na matriz L que esta´ a ser constru´ıda.
Resumindo, temos:
Teorema 2.3 (Factorizac¸a˜o LU .) Sendo A m× n arbitra´ria, existe uma matriz de per-
mutac¸a˜o P tal que PA se pode factorizar na forma LU , onde L e´ triangular inferior com
elementos diagonais iguais a 1 e U e´ uma matriz em escada. Os elementos sob a diagonal
de L sa˜o os sime´tricos dos “multiplicadores” usados no me´todo de eliminac¸a˜o aplicado a
A, e U e´ a matriz produzida pelo algoritmo (e portanto o primeiro elemento na˜o nulo em
cada linha na˜o nula de U e´ um pivot).
30
No caso quadrado n × n na˜o-singular, U e´ triangular superior, com os elementos
diagonais na˜o nulos (sa˜o os n pivots).6
Podemos agora apresentar a descric¸a˜o matricial do algoritmo de eliminac¸a˜o de Gauss.
Comecemos pelo caso de sistemas com matrizes quadradas na˜o-singulares.
Algoritmo. Resoluc¸a˜o do sistema Ax = b com A n× n na˜o singular:
1o passo) Factorizac¸a˜o PA = LU .
2o passo) Resoluc¸a˜o do sistema Lc = Pb (para achar o novo segundo membro c).
3o passo) Resoluc¸a˜o do sistema Ux = c.
Exemplo 2.7 Retomemos o sistema Ax = b considerado no Exemplo 2.5. Temos A = 1 1 21 3 3
2 8 12
 e b =
 1−2
−12
 . Ja´ conhecemos a decomposic¸a˜o LU de A:
A =
 1 0 01 1 0
2 3 1
 1 1 20 2 1
0 0 5
 .
Passemos enta˜o ao segundo passo do algoritmo: resoluc¸a˜o do sistema triangular inferior
Lc = b. 
c1 = 1
c1 + c2 = −2
2c1 + 3c2 + c3 = −12
Este e´ um sistema poss´ıvel determinado com soluc¸a˜o c =
 1−3
−5
 .
6No caso na˜o-singular, uma variante desta factorizac¸a˜o LU e´ a chamada factorizac¸a˜oLDU , que se
obte´m da outra escrevendo U como produto de uma matriz diagonal — onde os elementos diagonais sa˜o
os pivots — e uma matriz triangular superior com os elementos diagonais iguais a 1. Exemplo:[
2 3
4 11
]
=
[
1 0
2 1
] [
2 3
0 5
]
=
[
1 0
2 1
] [
2 0
0 5
] [
1 32
0 1
]
.
31
Resta-nos agora resolver, por substituic¸a˜o ascendente, o sistema triangular superior
Ux = c: 
x1 + x2 + 2x3 = 1
2x2 + x3 = −3
5x3 = −5
⇐⇒

x1 = 4
x2 = −1
x3 = −1
A soluc¸a˜o do sistema inicial Ax = b e´ enta˜o x =
 4−1
−1
 .
Exemplo 2.8 Seja agora A =
 2 6 24 12 −2
−6 −12 −10
 , a matriz da matriz considerada no
Exemplo 2.6. Pretendemos resolver o sistema Ax = b, onde b =
 −1022
58
 .
Sabemos que P2,3A tem a decomposic¸a˜o LU
P2,3A =
 1 0 0−3 1 0
2 0 1
 2 6 20 6 −4
0 0 −6
 .
Para calcular o novo segundo membro c temos de resolver o sistema Lc = P2,3b. Ora
P2,3b =
 −1058
22
 , logo
Lc = P2,3b ⇐⇒

c1 = −10
−3c1 + c2 = 58
2c1 + c3 = 22
⇐⇒ c =
 −1028
42
 .
Agora
Ux = c ⇐⇒

2x1 + 6x2 + 2x3 = −10
6x2 − 4x3 = 28
− 6x3 = 42
⇐⇒ x =
 20
−7
 .
A soluc¸a˜o de Ax = b e´ enta˜o x =
 20
−7
 .
32
Exerc´ıcio 2.1 O objectivo deste exerc´ıcio e´ avaliar o custo computacional do me´todo de
eliminac¸a˜o de Gauss. Seja dada uma matriz A n × n na˜o-singular. Vai-se aplicar a A o
me´todo de eliminac¸a˜o de Gauss com o objectivo de resolver o sistema Ax = b mediante a
sua transformac¸a˜o num sistema triangular Ux = c.
1. Quantas adic¸o˜es, multiplicac¸o˜es e diviso˜es e´ necessa´rio efectuar para passar de A para
U? (R.: n(n
2−1)
3 ,
n(n2−1)
3 ,
n(n−1)
2 .)
2. E para passar de b para c? (R.: n(n−1)2 ,
n(n−1)
2 , 0.)
3. E para resolver o sistema Ux = c? (R.: n(n−1)2 ,
n(n−1)
2 , n.)
Exerc´ıcio 2.2 Suponha que dispo˜e de um computador cujo processador consegue fazer,
num segundo, 100000 operac¸o˜es (uma “operac¸a˜o” = uma adic¸a˜o + uma multiplicac¸a˜o +
uma divisa˜o). Quanto tempo de ca´lculo do processador exigiria a resoluc¸a˜o, pelo me´todo
de eliminac¸a˜o de Gauss, de um sistema 100× 100? E de um 1000× 1000?
Passemos agora a sistemas com matrizes quaisquer. Vale a pena estudar separada-
mente o caso dos sistemas homoge´neos, que, recorde-se, sa˜o sempre poss´ıveis.
Definic¸a˜o 2.7 Sendo A ∈ Mm×n(R), o conjunto das soluc¸o˜es do sistema Ax = 0,
designado por N(A), diz-se o nu´cleo ou espac¸o nulo de A.
Algoritmo. Resoluc¸a˜o do sistema Ax = 0 com A m× n:
1o passo) Determinac¸a˜o da matriz em escada U . Seja car(A) = r.
2o passo) No sistema Ux = 0, que e´ equivalente ao primeiro, separam-se as inco´gnitas
em ba´sicas (correspondentes a`s colunas com pivots, que sa˜o em nu´mero de r) e
livres. Se na˜o houver inco´gnitas livres, o sistema e´ determinado: so´ tem a soluc¸a˜o
nula.
3o passo) Para cada inco´gnita livre, da´-se o valor 1 a essa inco´gnita livre e 0 a`s restantes,
e resolve-se o sistema (com r equac¸o˜es) resultante. As n − r colunas n × 1 assim
obtidas geram o conjunto N(A) das soluc¸o˜es (isto e´, qualquer soluc¸a˜o e´ combinac¸a˜o
linear dessas n− r).
Da ana´lise deste algoritmo segue-se imediatamente a seguinte observac¸a˜o:
33
Teorema 2.4 Um sistema homoge´neo com mais inco´gnitas do que equac¸o˜es e´ indetermi-
nado.
Demonstrac¸a˜o. Seja o sistema Ax = 0, onde A e´ m × n e m < n. Seja car(A) = r.
Como r ≤ m (porque o nu´mero de pivots na˜o pode exceder o nu´mero de linhas), tem-se
r < n e portanto ha´ necessariamente inco´gnitas livres (em nu´mero de n− r).
Exemplo 2.9 Apliquemos este algoritmo a` resoluc¸a˜o do sistema homoge´neo
A =
 2 4 6 8−2 −2 −4 −6
4 8 12 8


x1
x2
x3
x4
 =
 00
0
 .
Adicionando a` segunda e terceira linhas de A a primeira linha multiplicada por 1 e −2,
respectivamente, obtemos a matriz em escada
U =
 2 4 6 80 2 2 2
0 0 0 −8
 .
Tem-se car(A) = 3. As colunas de U com pivot correspondem a`s inco´gnitas x1, x2 e x4.
Sera˜o portanto estas as inco´gnitas ba´sicas, ficando x3 como inco´gnita livre.
Da´-se o valor 1 a` inco´gnita x3 e resolve-se, por substituic¸a˜o ascendente, o sistema
3× 3 resultante:
2x1 + 4x2 + 8x4 = −6
2x2 + 2x4 = −2
− 8x4 = 0
⇐⇒

x1 = −1
x2 = −1
x4 = 0
.
Assim

−1
−1
1
0
 sera´ uma soluc¸a˜o de Ax = 0 . As restantes soluc¸o˜es sera˜o combinac¸o˜es
lineares desta, isto e´,
N(A) =


−α
−α
α
0
 : α ∈ R
 .
Para o estudo de sistemas quaisquer, interessa o seguinte resultado, que diz que o
conjunto completo das soluc¸o˜es de um sistema poss´ıvel Ax = b se pode obter a partir de
uma soluc¸a˜o particular e do conjunto N(A) das soluc¸o˜es do sistema homoge´neo Ax = 0:
34
Teorema 2.5 Se o sistema Ax = b e´ poss´ıvel e y e´ uma soluc¸a˜o dele, enta˜o o conjunto
das suas soluc¸o˜es e´ {y + u : u ∈ N(A)}.
Demonstrac¸a˜o. E´ evidente que qualquer elemento da forma y + u, com u ∈ N(A), e´
soluc¸a˜o do sistema Ax = b, porque A(y + u) = Ay + Au = b + 0 = b. Reciprocamente,
seja z uma soluc¸a˜o qualquer do sistema Ax = b. Ponhamos u = z − y. Enta˜o Au =
A(z − y) = Az − Ay = b− b = 0, o que significa que u ∈ N(A). E, claro, z = y + u.
E temos finalmente o algoritmo para sistemas arbitra´rios.
Algoritmo. Resoluc¸a˜o do sistema Ax = b com A m× n:
1o passo) Factorizac¸a˜o PA = LU . Seja car(A) = r.
2o passo) Resoluc¸a˜o do sistema Lc = Pb (para achar o novo segundo membro c). Se
os u´ltimos m − r elementos da coluna c na˜o forem todos 0, o sistema inicial e´
imposs´ıvel.
3o passo) No sistema Ux = c, que e´ equivalente ao primeiro, separam-se as inco´gnitas
em ba´sicas e livres.
4o passo) Da´-se o valor 0 a`s inco´gnitas livres e resolve-se o sistema (com r equac¸o˜es)
resultante. A coluna n× 1 x′ assim obtida e´ uma soluc¸a˜o de Ax = b (sera´ a u´nica
se na˜o houver inco´gnitas livres).
5o passo) Resolve-se o sistema Ax = 0, obtendo-se o conjunto N(A).
6o passo) O conjunto das soluc¸o˜es de Ax = b e´ {x′ + u : u ∈ N(A)}.
Exemplo 2.10 Pretendemos resolver o sistema Ax = b, sendo
A =
 2 4 6 8−2 −2 −4 −6
4 8 12 8
 e b =
 −44
0
 .
Do Exemplo 2.9, sabemos que car(A) = 3 e A = LU, onde
L =
 1 0 0−1 1 0
2 0 1
 e U =
 2 4 6 80 2 2 2
0 0 0 −8
 .
Resolvendo Lc = b obtemos c =
 −40
8
 (verifique!). Como car(A) = 3 = nu´mero de
linhas de A, o sistema inicial e´ poss´ıvel.
35
No sistema Ux = c as inco´gnitas ba´sicas sa˜o x1, x2 e x4 (correspondem a`s colunas de
U com pivot), sendo x3 inco´gnita livre. Fac¸a-se x3 = 0 e resolva-se o sistema resultante

2x1 + 4x2 + 8x4 = −4
2x2 + 2x4 = 0
− 8x4 = 8
⇐⇒

x1 = 0
x2 = 1
x4 = −1
.
Obtemos assim

0
1
0
−1
 uma soluc¸a˜o particular de Ax = b.
Do Exemplo 2.9, temos
N(A) =


−α
−α
α
0
 : α ∈ R
 .
Logo, o conjunto das soluc¸o˜es de Ax = b e´

0
1
0
−1
+

−α
−α
α
0
 : α ∈ R
 =


−α
1− α
α
−1
 : α ∈ R
 .
Da ana´lise deste algoritmo seguem-se as seguintes observac¸o˜es:
Teorema 2.6 Seja A m× n.
1) Sendo Ax = b poss´ıvel, e´ determinado se e so´ se car(A) = n.
2) Ax = b e´ poss´ıvel para todo o b se e so´ se car(A) = m.
Demonstrac¸a˜o. 1) O sistema Ax = b e´ determinado se na˜o houver inco´gnitas livres, isto
e´, se todas as n inco´gnitas forem ba´sicas, e isto e´ equivalente a dizer que car(A) = n.
2) O sistema Ax = b so´ pode ser poss´ıvel qualquer que seja o segundo membro b se, apo´s a
fase descendente do algoritmo de eliminac¸a˜o, conduzindo a` matriz U , nunca houver linhas
nulas em U , o que quer dizer precisamente que car(A) = m.
36
2.3 O algoritmo de Gauss-Jordan para inversa˜o de matrizes
Teorema 2.7Uma matriz quadrada A e´ invert´ıvel se e so´ se for na˜o-singular.
Demonstrac¸a˜o. Seja A n×n. Suponhamos primeiro que A e´ invert´ıvel. Enta˜o qualquer
sistema Ax = b cuja matriz seja A e´ poss´ıvel e determinado (tem a soluc¸a˜o u´nica A−1b)
e portanto A tem de certeza n pivots, ou seja e´ na˜o-singular.
Reciprocamente, suponhamos que A e´ na˜o-singular. Como vimos na secc¸a˜o anterior,
multiplicando A a` esquerda por matrizes elementares da forma Eij(α) e Pij, obte´m-se
uma matriz triangular superior U com elementos diagonais na˜o nulos (que sa˜o os n pivots
de A). Continue-se agora o processo de “criac¸a˜o de zeros”, de baixo para cima: usa-se o
u´ltimo pivot para “anular” o u´ltimo elemento das linhas 1, 2, . . . , n−1, depois o penu´ltimo
pivot para anular o penu´ltimo elemento das linhas 1, 2, . . . , n − 2, etc. Estas operac¸o˜es
elementares correspondem a multiplicar U a` esquerda por matrizes elementares da forma
Eij(α), onde agora i < j. No fim disto chega-se a uma matriz diagonal D com elementos
diagonais na˜o nulos.
Resumindo, o que se mostrou foi que existe uma sequeˆncia de matrizes elementares
que, multiplicadas a` esquerda de A, produzem D. Designemos o produto de todas essas
matrizes elementares por E. Tem-se portanto
EA = D.
Mas a matriz E e´ invert´ıvel, porque e´ um produto de matrizes elementares, que sa˜o todas
invert´ıveis. Logo, podemos multiplicar a igualdade anterior a` esquerda por E−1, obtendo
A = E−1D.
Enta˜o A e´ invert´ıvel, porque e´ igual a E−1D, que e´ invert´ıvel.
Como sabe, o produto de duas matrizes invert´ıveis e´ tambe´m invert´ıvel. Seguidamente
demonstramos a afirmac¸a˜o rec´ıproca.
Corola´rio 2.1 Sejam A e B matrizes quadradas da mesma ordem. Se o produto AB
for invert´ıvel, enta˜o A e B sa˜o ambas invert´ıveis. Em particular, se AB = In, enta˜o
B = A−1.
Demonstrac¸a˜o. Suponhamos AB invert´ıvel, mas B na˜o-invert´ıvel. Pelo teorema ante-
rior, B e´ singular e, portanto, o sistema Bx = 0 e´ poss´ıvel indeterminado. Mas enta˜o o
sistema ABx = 0 tambe´m e´ indeterminado (uma vez que qualquer soluc¸a˜o do primeiro
sistema e´ tambe´m soluc¸a˜o do segundo). Tal na˜o pode acontecer, pois sendo AB invert´ıvel
tem-se AB na˜o-singular e, consequentemente, ABx = 0 e´ poss´ıvel determinado. Conclui-
se assim que B e´ invert´ıvel. Note que agora podemos escrever A = (AB)B−1, isto e´, A
e´ o produto de duas matrizes invert´ıveis. Logo A e´ invert´ıvel.
Suponhamos agora AB = In. Pela primeira parte do corola´rio, sabemos que A e B sa˜o
ambas invert´ıveis. Tem-se enta˜o A−1 = A−1In = A−1(AB) = (A−1A)B = InB = B.
37
O teorema e corola´rio anteriores sugerem um processo para achar a inversa de uma
matriz quadrada (se essa inversa existir). O processo baseia-se no facto de que, se A
for na˜o-singular, a sua inversa vai ser a matriz X que satisfaz AX = I. Designando as
colunas de X por x1,x2, . . . ,xn e as colunas da matriz identidade por e1, e2, . . . , en, isto
e´,
e1 =

1
0
...
0
 , e2 =

0
1
...
0
 , . . . , en =

0
0
...
1

devera´ ter-se
A [x1 x2 . . . xn] = [e1 e2 . . . en]
o que (pela maneira como se calcula o produto de matrizes) e´ o mesmo que ter as n
igualdades
Ax1 = e1 , Ax2 = e2 , . . . , Axn = en.
Temos portanto, para achar as colunas da inversa de A, de resolver n sistemas, todos
com a mesma matriz A. A ideia do chamado algoritmo de Gauss-Jordan e´ levar a cabo
a eliminac¸a˜o em todos os n sistemas ao mesmo tempo e na˜o parar na matriz triangular
U , continuando com a “eliminac¸a˜o ascendente”, usando os pivots para “criar” zeros por
cima da diagonal, e finalmente, para achar os valores das inco´gnitas, dividindo cada linha
pelo correspondente pivot. Os sucessivos passos sa˜o aplicados ao quadro n× 2n que tem
a matriz do(s) sistema(s) a` esquerda e todos os segundos membros a` direita.
Algoritmo. Ca´lculo da inversa de uma matriz: Seja dada A n × n. Para calcular a
inversa de A (se existir) leva-se a cabo com a matriz n × 2n [A|I] a parte descendente
do me´todo de eliminac¸a˜o de Gauss aplicado a A. Se houver menos de n pivots, A na˜o e´
invert´ıvel. Se houver n pivots, usando-os pela ordem contra´ria, anulam-se com operac¸o˜es
elementares todos os elementos por cima da diagonal da matriz a` esquerda. Finalmente,
divide-se cada linha pelo respectivo pivot. No fim deste processo, a matriz obtida e´ [I|A−1].
Exemplo 2.11 Seja A =
 1 1 42 5 4
1 4 −2
 . Pretendemos verificar se A e´ invert´ıvel e, em
caso afirmativo, calcular a sua inversa.
Para tal, comec¸amos por aplicar a parte descendente do me´todo de eliminac¸a˜o de
38
Gauss a` matriz
[A|I] =
 1 1 4 | 1 0 02 5 4 | 0 1 0
1 4 −2 | 0 0 1
 .
O primeiro passo consiste em adicionarmos a` segunda e terceira linhas de [A|I] a primeira
linha multiplicada por −2 e −1, respectivamente. Na matriz obtida, adiciona-se a` terceira
linha a segunda multiplicada por −1 :
[A|I] −→
 1 1 4 | 1 0 00 3 −4 | −2 1 0
0 3 −6 | −1 0 1
 −→
 1 1 4 | 1 0 00 3 −4 | −2 1 0
0 0 −2 | 1 −1 1
 .
Como podemos observar, ha´ treˆs pivots, 1, 3 e −2, logo A e´ invert´ıvel. Iniciamos agora
a eliminac¸a˜o ascendente. Obtemos uma nova matriz, usando o pivot −2 para anular os
restantes elementos da terceira coluna (adiciona-se a` segunda e primeira linhas a terceira
multiplicada por −2 e 2, respectivamente). Nesta nova matriz, adicionamos a` primeira
linha a segunda multiplicada por −1
3
: 1 1 0 | 3 −2 20 3 0 | −4 3 −2
0 0 −2 | 1 −1 1
 −→
 1 0 0 | 133 −3 830 3 0 | −4 3 −2
0 0 −2 | 1 −1 1
 .
Ja´ temos do lado esquerdo uma matriz diagonal. Resta-nos dividir a segunda linha por 3
e a terceira por −2:
[I|A−1] =
 1 0 0 | 133 −3 830 1 0 | −4
3
1 −2
3
0 0 1 | −1
2
1
2
−1
2
 .
Conclu´ımos assim que A e´ invert´ıvel e a sua inversa e´ A−1 =
 133 −3 83−4
3
1 −2
3−1
2
1
2
−1
2
 .
Exerc´ıcio 2.3 (Inversas de matrizes triangulares.) Se A for uma matriz triangular superior
(resp. inferior) de elementos diagonais na˜o nulos, mostre que enta˜o A e´ invert´ıvel, A−1
tambe´m e´ triangular superior (resp. inferior) e os elementos diagonais de A−1 sa˜o os inversos
dos elementos diagonais de A.
Observac¸a˜o. Poderia pensar-se que, de posse deste algoritmo para calcular a inversa de
uma matriz, o caminho mais ra´pido para resolver um sistema Ax = b com A na˜o-singular
e´ simplesmente escrever x = A−1b. Na˜o e´ assim: na˜o e´ necessa´rio conhecer A−1 para
resolver o sistema e o algoritmo baseado na factorizac¸a˜o LU e´ computacionalmente mais
econo´mico. De facto, o algoritmo de Gauss-Jordan e´ apenas um processo co´modo e su-
gestivo de inverter “a` ma˜o” pequenas matrizes que aparec¸am. Na pra´tica computacional
39
real, se por qualquer raza˜o for necessa´rio conhecer a inversa de uma matriz A, o que se faz
e´ tambe´m usar a factorizac¸a˜o LU : escreve-se PA = LU , calcula-se L−1 e U−1 (inversas
fa´ceis de encontrar — pelo algoritmo de Gauss-Jordan! — porque se trata de matrizes
triangulares) e tira-se A−1 = U−1L−1P .
Mas geralmente na˜o e´ A−1 que se procura, e sim um produto da forma A−1b. Nestes
casos na˜o e´ necessa´rio o ca´lculo da inversa de A pois o vector A−1b pode ser obtido atrave´s
da resoluc¸a˜o do sistema de equac¸o˜es lineares Ax = b.
Uma aplicac¸a˜o interessante do exerc´ıcio 2.3 e´ o seguinte resultado:
Teorema 2.8 (Unicidade da factorizac¸a˜o LU no caso quadrado na˜o-singular.) Se A e´
na˜o-singular, enta˜o a factorizac¸a˜o LU de A (ou de PA) e´ u´nica.
Demonstrac¸a˜o. Suponhamos que PA = LU e tambe´m PA = L1U1, com L e L1
triangulares inferiores com elementos diagonais iguais a 1 e U e U1 matrizes triangulares
superiores com elementos diagonais na˜o nulos. Enta˜o LU = L1U1, donde L
−1
1 L = U1U
−1.
Nesta igualdade tem-se, no primeiro membro, uma matriz triangular inferior com elemen-
tos diagonais a 1,e no segundo membro uma matriz triangular superior. Como estas duas
matrizes sa˜o iguais, teˆm que ser diagonais, e os elementos diagonais teˆm que ser iguais a
1 (porque o sa˜o os do primeiro membro). Logo
L−11 L = I , U1U
−1 = I
ou seja
L1 = L , U1 = U .
40
3 Determinantes
Um nu´mero e´ invert´ıvel se e so´ se for na˜o nulo. Portanto uma matriz 1× 1 e´ invert´ıvel se
e so´ se for na˜o nula. No entanto, para matrizes de ordem superior tal ja´ na˜o se verifica.
Por exemplo, a matriz A =
[
1 2
2 4
]
na˜o e´ invert´ıvel: basta notar que[
1 2
2 4
] [
2 6
−1 −3
]
=
[
0 0
0 0
]
;
seA fosse invert´ıvel, poder´ıamos multiplicar ambos os membros desta igualdade a` esquerda
por A−1 e viria
[
2 6
−1 −3
]
=
[
0 0
0 0
]
, o que e´ falso.
Sera´ poss´ıvel associar a cada matriz quadrada um nu´mero, que dependa apenas dos
elementos da matriz, e que nos permita decidir da sua invertibilidade? A resposta a esta
questa˜o e´ afirmativa.
Antes de estudarmos o assunto, vale a pena analisar em pormenor o caso 2× 2.
Consideremos a matriz A =
[
a11 a12
a21 a22
]
. Como vimos atra´s, A e´ invert´ıvel se e so´
se for na˜o-singular. Vejamos que condic¸o˜es devem satisfazer os nu´meros a11, a12, a21, a22
para que isso acontec¸a. Apliquemos portanto o me´todo de eliminac¸a˜o a A, supondo para
ja´ que a11 e´ diferente de 0:[
a11 a12
a21 a22
]
−→
[
a11 a12
0 a22 − a21a11a12
]
=
[
a11 a12
0 a11a22−a12a21
a11
]
.
Conclu´ımos assim que A e´ invert´ıvel se e so´ se o nu´mero a11a22−a12a21 for diferente de 0.
Facilmente se veˆ que a mesma conclusa˜o e´ va´lida no caso de a11 ser igual a 0.
Existe assim um nu´mero, constru´ıdo a partir dos elementos da matriz, que nos diz se
ela e´ ou na˜o invert´ıvel. A este nu´mero chamamos o determinante de A e escrevemos
det(A) = a11a22 − a12a21 .
Propriedades imediatas desta func¸a˜o sa˜o as seguintes:
det
[
a11+a
′
11 a12+a
′
12
a21 a22
]
=det
[
a11 a12
a21 a22
]
+det
[
a′11 a
′
12
a21 a22
]
(e analogamente para a 2a linha);
Sendo α ∈ R, det
[
αa11 αa12
a21 a22
]
= α det
[
a11 a12
a21 a22
]
(e analogamente para a 2a linha);
Se as duas linhas de A forem iguais, det(A) = 0;
det(I2) = 1 .
Usamos estas propriedades como motivac¸a˜o para a definic¸a˜o no caso geral.
41
Definic¸a˜o 3.1 Determinante de ordem n e´ uma func¸a˜o
det : Mn×n(R) −→ R
A = [aij] 7−→ det(A)
que a cada matriz quadrada A de ordem n sobre R faz corresponder um nu´mero real,
det(A), de tal modo que as seguintes condic¸o˜es sejam satisfeitas:
(d1) Para i = 1, . . . , n, e α ∈ R tem-se:
det

a11 . . . a1n
...
. . .
...
ai1 + a
′
i1 . . . ain + a
′
in
...
. . .
...
an1 . . . ann
 = det

a11 . . . a1n
...
. . .
...
ai1 . . . ain
...
. . .
...
an1 . . . ann
+det

a11 . . . a1n
...
. . .
...
a′i1 . . . a
′
in
...
. . .
...
an1 . . . ann
;
det

a11 . . . a1n
...
. . .
...
αai1 . . . αain
...
. . .
...
an1 . . . ann
 = α det

a11 . . . a1n
...
. . .
...
ai1 . . . ain
...
. . .
...
an1 . . . ann
 .
(d2) Se A tiver duas linhas iguais, tem-se det(A) = 0.
(d3) det(In) = 1.
Outra notac¸a˜o para det(A) e´ |A|.
Duas questo˜es surgem imediatamente: Existira´ alguma func¸a˜o nestas condic¸o˜es? Caso
exista, sera´ u´nica? Ver-se-a´ que a resposta e´ afirmativa em ambos os casos. Antes, pore´m,
provemos algumas propriedades que decorrem imediatamente da definic¸a˜o de func¸a˜o
determinante.
Teorema 3.1 Seja A ∈Mn×n(R). Enta˜o tem-se:
1. Se uma linha de A for mu´ltipla de outra linha de A enta˜o det(A) = 0. Em particular,
det(A) = 0 se A tiver uma linha nula.
2. O determinante muda de sinal quando se trocam entre si duas linhas de A.
3. Se P for uma matriz de permutac¸a˜o, tem-se det(P ) = ±1.
4. O determinante na˜o se altera se a uma linha de A adicionarmos um mu´ltiplo de
outra linha de A.
42
Demonstrac¸a˜o. Designe-se por Lk a linha k da matriz A, k = 1, . . . , n. Suponha-se,
sem perda de generalidade, 1 ≤ i < j ≤ n.
1. Seja Li = αLj, para algum α ∈ R. Enta˜o, por (d1) e (d2), tem-se
det(A) = det

L1
...
αLj
...
Lj
...
Ln

= α det

L1
...
Lj
...
Lj
...
Ln

= α0 = 0.
2. Usando repetidamente (d1) e (d2), obte´m-se
0 = det

L1
...
Li + Lj
...
Li + Lj
...
Ln

= det

L1
...
Li
...
Li
...
Ln

+ det

L1
...
Li
...
Lj
...
Ln

+ det

L1
...
Lj
...
Li
...
Ln

+ det

L1
...
Lj
...
Lj
...
Ln

=
= 0 + det

L1
...
Li
...
Lj
...
Ln

+ det

L1
...
Lj
...
Li
...
Ln

+ 0.
Logo, pode concluir-se que
det

L1
...
Li
...
Lj
...
Ln

= − det

L1
...
Lj
...
Li
...
Ln

.
43
3. Seja P uma matriz de permutac¸a˜o de ordem n. Enta˜o P obte´m-se de In por troca
de linhas. Como, por (d3), det(In) = 1, da propriedade anterior conclui-se que
det(P ) = 1 ou −1, consoante P for obtida de In atrave´s de, respectivamente, um
nu´mero par ou ı´mpar de trocas de linhas.
4. Seja α ∈ R. Enta˜o, por (d1), tem-se
det

L1
...
Li + αLj
...
Lj
...
Ln

= det

L1
...
Li
...
Lj
...
Ln

+ α det

L1
...
Lj
...
Lj
...
Ln

= det(A),
uma vez que, por (d2), a segunda parcela desta soma e´ nula.
Temos usado a palavra “permutac¸a˜o” com o seu significado usual de “troca”. Em
Matema´tica este termo tem um significado preciso que passamos a definir.
Definic¸a˜o 3.2 Uma permutac¸a˜o do conjunto {1, . . . , n} e´ uma func¸a˜o bijectiva
deste conjunto nele pro´prio. Designa-se por Sn o conjunto de todas as permutac¸o˜es
do conjunto {1, . . . , n}. A permutac¸a˜o identidade designa-se por id.
Dada σ ∈ Sn, e´ usual representa´-la da seguinte forma:
σ =
(
1 2 3 . . . n
σ1 σ2 σ3 . . . σn
)
ou, simplesmente, σ = (σ1, σ2, σ3, . . . , σn),
onde σ1 = σ(1), σ2 = σ(2), σ3 = σ(3), . . . , σn = σ(n).
Como e´ fa´cil de ver, o cardinal de Sn e´ n!.
Dada uma matriz de permutac¸a˜o P , sabemos que P pode ser obtida de In por trocas
de linhas. Existem, possivelmente, va´rias estrate´gias de trocas para o fazer. E´ no entanto
poss´ıvel provar7 que P na˜o pode ser simultaneamente obtida de In por um nu´mero par e
ı´mpar de trocas de linhas. Podemos enta˜o apresentar a seguinte definic¸a˜o:
7A demonstrac¸a˜o deste facto esta´ fora do aˆmbito deste curso.
44
Definic¸a˜o 3.3 Dada uma permutac¸a˜o σ = (σ1, . . . , σn) ∈ Sn, seja P(σ1,...,σn) a ma-
triz de permutac¸a˜o obtida por aplicac¸a˜o da permutac¸a˜o σ a`s linhas de In. Dizemos
que σ tem sinal 1 ou −1 (abreviadamente, sgn(σ) = ±1) consoante P for obtida de
In por um nu´mero par ou ı´mpar de trocas de linhas, respectivamente.
Exemplo 3.1 Seja σ a permutac¸a˜o de {1, 2, 3} definida por σ(1)=2, σ(2)=3 e σ(3)=1.
Na nossa notac¸a˜o, σ = (2, 3, 1). A matriz de permutac¸a˜o que lhe corresponde e´
P(2,3,1) =
 0 1 00 0 1
1 0 0
 .
O sinal de σ e´ +1, porque P(2,3,1) se pode obter de I3 atrave´s de duas trocas de linhas.
Regressemos aos determinantes. Usando apenas a definic¸a˜o e as propriedades ime-
diatas dela resultantes, vamos mostrar que, se a func¸a˜o determinante de ordem n existir,
e´ u´nica e dada por
det([aij]) =
∑
σ=(σ1,...,σn)∈Sn
sgn(σ) a1σ1a2σ2 . . . anσn .
Ilustremos o caso geral com o caso n = 2. Seja f : M2×2(R) −→

Outros materiais