Buscar

Apostila de Algebra Linear

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 93 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 93 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 93 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

UNIVERSIDADE DA BEIRA INTERIOR
Apontamentos Teóricos
de
Álgebra Linear e Geometria Anaĺıtica
Cristina Gama
Jorge Gama
Ano Lectivo 2001/2002
1 ESTRUTURAS ALGÉBRICAS
Os conceitos que se seguem servirão de suporte aos objectivos da disciplina. Esses conceitos
são as estruturas de grupo, anel e corpo. No final do caṕıtulo faremos um estudo mais
aprofundado do corpo dos números complexos.
Definição 1.1 Seja A um conjunto não vazio. Chama-se operação binária ou lei de
composição interna no conjunto A a qualquer aplicação definida do conjunto A×A (produto
cartesiano de A por A) em A, isto é, se representarmos por θ essa aplicação, então
θ : A× A → A
(a, b) 7→ θ(a, b)
No caso das operações binárias é usual escrever-se aθb no lugar de θ(a, b). Passaremos
a usar essa notação.
Exemplos:
1. No conjunto N, a adição e a multiplicação usuais são operações binárias.
2. No conjunto Z a adição e a multiplicação usuais são operações binárias.
3. Em Q ou R a adição e a multiplicação usuais são operações binárias.
4. A subtracção é uma operação binária em N? E em Z?
5. A divisão é uma operação binária em N, Z, Q, ou R? E em Q \ {0} ou R \ {0}?
6. Se em N0 definirmos ∗ : N0×N0 → N0 tal que a∗ b = a+ b+1, ∗ é uma operação binária.
Definição 1.2 Seja A um conjunto, não vazio, e θ uma operação binária definida em A.
Diz-se que (A, θ) é um grupo quando se verificam os seguintes axiomas:
G1. ∀a, b, c ∈ A, (aθb)θc = aθ(bθc) (Associatividade)
G2. ∃u ∈ A : ∀a ∈ A, aθu = uθa = a (Existência de elemento neutro)
G3. ∀a ∈ A,∃a′ ∈ A : aθa′ = a′θa = u (Existência de elemento oposto)
No caso em que a operação é também comutativa, isto é,
G4. ∀a, b ∈ A, aθb = bθa
o grupo (A, θ) diz-se comutativo ou abeliano.
Observações:
1
1. É usual designarem-se as operações binárias por adição ou multiplicação, representadas
respectivamente por + e · (não é necessário que tenham alguma coisa a ver com a adição
e multiplicação usuais).
2. No contexto da observação anterior, o elemento neutro designa-se por zero (0), se a
operação é uma adição, e designa-se por identidade (1), se a operação é uma multi-
plicação. Analogamente, se a operação é uma adição, o oposto de um elemento a chama-se
simétrico (representa-se por −a), se a operação é uma multiplicação, o oposto chama-se
inverso (representa-se por a−1).
Exerćıcio: Seja A um conjunto e θ uma operação binária definida em A. Em (A, θ), com θ
associativa, mostre que
a) quando existe elemento neutro, ele é único.
b) quando um elemento tem oposto, este é único.
Exemplos de Grupos:
(Z, +), (Q, +), (R, +), (R \ {0}, ·), (F , ◦), com F o conjunto de todas as funções bijectivas
de um conjunto nele próprio (em particular, o conjunto S3 das permutações de {1, 2, 3} com
a composição), etc.
Observação: No caso (S3, ◦), os elementos de S3 são
I =
(
1 2 3
1 2 3
)
T1 =
(
1 2 3
1 3 2
)
T2 =
(
1 2 3
2 1 3
)
T3 =
(
1 2 3
2 3 1
)
T4 =
(
1 2 3
3 1 2
)
T5 =
(
1 2 3
3 2 1
)
e, por exemplo,
T1 ◦ T2 =
(
1 2 3
1 3 2
)
◦
(
1 2 3
2 1 3
)
= T4.
Outro exemplo: (Z2, +), onde Z2 = {0, 1} e + está definida por
+ 0 1
0 0 1
1 1 0
Definição 1.3 Seja (A, θ) um grupo e B um subconjunto não vazio de A. Diz-se que (B, θ)
é um subgrupo de (A, θ) se (B, θ) é um grupo em relação à operação binária definida em
A.
Exerćıcio: Nos exemplos anteriores, verifique quais os grupos que são subgrupos de algum
dos outros grupos.
2
Homomorfismos de Grupos
Definição 1.4 Sejam (A, θ) e (A′, σ) dois grupos. Uma aplicação f : A → A′ diz-se um
homomorfismo se
∀a, b ∈ A, f(aθb) = f(a)σf(b).
Observações: Se f : A → A′ é um homomorfismo, então
i) f(u) = u′ (u elemento neutro de (A, θ) e u′ elemento neutro de (A′, σ))
ii) (f(a))−1 = f(a−1).
Exemplos:
1. Seja
f : R+ → R
x 7→ ln(x).
f é um homomorfismo do grupo (R+, ·), no grupo (R, +), já que ln(x · y) = ln(x) + ln(y).
2. A aplicação
g : R → R+
x 7→ ex
é um homomorfismo de (R, +) no grupo (R+, ·), já que ex+y = ex · ey.
Definição 1.5 Um terno (A, +, ·), com A um conjunto, não vazio, e + e · operações binárias
definidas em A, é um anel se:
A1. (A, +) é um grupo abeliano;
A2. A operação · é associativa;
A3. A operação · é distributiva relativamente à operação +, isto é,
∀a, b, c ∈ A, a · (b + c) = (a · b) + (a · c) ∧ (a + b) · c = (a · c) + (b · c).
O elemento neutro da primeira operação chama-se zero do anel.
Se a segunda operação for comutativa, então o anel diz-se comutativo.
Caso o anel A tenha elemento unidade, isto é, se (A, ·) tiver elemento neutro, A diz-se anel
com elemento unidade ou anel unitário.
Exemplos de Anéis:
1. (Z, +, ·) é um anel comutativo unitário.
2. O conjunto R2 = {(a, b) : a, b ∈ R} com as operações definidas por
(a, b) + (c, d) = (a + c, b + d)
(a, b) · (c, d) = (ac, bd)
é um anel.
3
Definição 1.6 Um terno (K, +, ·) diz-se um corpo se (K, +, ·) é uma anel comutativo com
identidade e todos os elementos de K \{0} têm inverso, isto é, (K, +, ·) é um corpo se (K, +)
e (K \ {0}, ·) são grupos comutativos e · é distributiva relativamente a +.
Exemplos de Corpos: (Q, +, ·), (R, +, ·), com + e · as operações usuais, e (Z2, +, ·), com
+ 0 1
0 0 1
1 1 0
· 0 1
0 0 0
1 0 1
Propriedades 1.7 Num corpo são válidas as seguintes proposições:
1. a · 0 = 0 · a = 0 (0 é elemento absorvente da multiplicação)
2. a · b = 0 ⇔ a = 0 ∨ b = 0 (lei do anulamento do produto)
Definição 1.8 Sejam (K, +, ·) e (K ′, θ, ∗) dois corpos. A aplicação f : K → K ′ diz-se um
homomorfismo de corpos se, para todos x, y ∈ K,
f(x + y) = f(x)θf(y) e f(x · y) = f(x) ∗ f(y).
Se f é bijectiva, f diz-se um isomorfismo. Se K = K ′, f diz-se um endomorfismo. E um
endomorfismo bijectivo diz-se um automorfismo.
Depois de definirmos todas estas estruturas, podemos estudar mais profundamente um
corpo muito importante: Corpo dos Complexos, isto é,
C = {(a, b) : a, b ∈ R}
munido com as operações:
(a, b) + (c, d) = (a + c, b + d)
(a, b) · (c, d) = (ac− bd, ad + bc)
Exerćıcio: Mostre que (C, +, ·) é um corpo.
Observações:
1. Não é dif́ıcil verificar que (0, 0) é o zero de C e (1, 0) é a unidade de C.
2. Seja S = {(a, 0) : a ∈ R}, subconjunto de C. (S, +, ·) é um corpo para as operações
definidas em C. Dado que a aplicação
f : (R, +, ·) → (S, +, ·)
a 7→ (a, 0)
é um isomorfismo de corpos, podemos simplificar a escrita identificando os complexos
(a, 0) com o correspondente número real a.
4
Da definição dada para a multiplicação em C, resulta
(0, 1)2 = (0, 1) · (0, 1) = (0− 1, 0 + 0) = (−1, 0).
Deste modo, o número complexo (0, 1) é solução da equação x2 = −1.
O complexo (0, 1) denomina-se unidade imaginária e representa-se pelo śımbolo i.
Atendendo-se à identificação de (a, 0) com a e (0, 1) com i, é consequência das operações
definidas em C a seguinte representação:
∀(a, b) ∈ C : (a, b) = (a, 0) + (0, b) = a + (0, 1) · (b, 0) = a + ib,
em que a será chamado parte real do complexo e b parte imaginária do complexo. Em
śımbolos, se z = a + bi, a = Re(z) e b = Im(z). Os números complexos da forma ib, com
b 6= 0, chamam-se imaginários puros.
Observe-se que
i2 = −1, i3 = −i, i4 = 1, i5 = i, . . . ,
(a + bi) + (c + di) = (a + c) + (b + d)i,
(a + bi) · (c + di) = (ac− bd) + (ad + bc)i.
Definição 1.9 Seja z = a+bi um número complexo. Chama-se conjugado de z ao número
complexo z = a− bi. Chama-se módulo de z ao número real
|z| =
√
z · z =
√
a2 + b2.
Propriedades 1.10 Para todo z, w ∈ C,
1. Re(z) =
z + z
2
, 2. Im(z) =
z − z
2i
,
3. z + w = z + w, 4. z · w = z · w,
5. |z| = |z|, 6. z−1 = z
|z|2
=
a
a2 + b2
− i b
a2 + b2
, com z 6= 0,
7.
( z
w
)
=
z
w
Exerćıcio: Calcule:
a) (1− i)(3− 2i)− (2− i)(3 + 4i);
b)
(2− i)2 − 2
1 + 3i
.
5
Representação Trigonométrica dos Números Complexos
Já sabemos que dada uma recta orientada, existe uma correspondênciabiuńıvoca entre
cada ponto da recta e o conjunto dos números reais, R. Assim, como identificamos o número
complexo (a, 0) com o número real a, os complexos da forma a + i0 serão representados na
recta.
Como representar, por exemplo, os imaginários puros? Repare-se que uma rotação de
180o em torno da origem corresponde a uma multiplicação por −1. Ora, uma rotação de
90o deverá corresponder a multiplicar por k de modo que k2 = −1. Logo, k terá que ser
a unidade imaginária i. Convencionaremos que o sentido positivo das rotações é o sentido
contrário ao dos ponteiros do relógio. Portanto, passaremos a representar os números reais
num eixo horizontal (eixo real) e os imaginários puros num eixo vertical (eixo imaginário).
Assim, um ponto P do plano de abcissa a e ordenada b será a imagem do complexo z = a+bi.
-
6
�
�
�
�
�
�
�
��
r
O
P
a
b
ρ
θ
Plano de Argand
Sabemos que o comprimento OP é o número real |z| =
√
a2 + b2 (Teorema de Pitágoras).
Representemos este número por ρ. Repare-se que o ponto P fica bem definido se consider-
armos ρ e o ângulo θ que o segmento [OP ] faz com a parte positiva do eixo real.
Chama-se argumento principal ao ângulo θ ∈]− π, π]. Assim, a imagem do complexo
z fica bem definida se conhecermos ρ := |z| e θ := arg(z). Observe-se que se fizermos
θ = arg(z) + 2kπ, k ∈ Z, obtemos sempre a mesma imagem. Portanto, a cada complexo
podemos associar uma infinidade de argumentos. Além do principal, o argumento positivo
mı́nimo de z = a + bi é tal que θ ∈ [0, 2π[ e tg θ = b
a
.
Observe a figura anterior para concluir que para todo o complexo z = a + bi,{
a = ρ cos θ
b = ρ sen θ
Assim, a forma trigonométrica de z é
z = ρ(cos(θ) + i sen(θ)).
Abreviadamente, z = ρ cis(θ).
Se z ∈ C é tal que z = a + bi = ρ cis(θ), então z = a− bi = ρ cis(−θ).
6
-
6
�
�
�
�
�
�
��
r
Z
Z
Z
Z
Z
Z
ZZr
O
z
z
ρ
θ
−θ
Exerćıcio: Escreva na forma trigonométrica:
a) −3i;
b) −1− i;
c) 1− i
√
3;
d) 2 + 3i.
Operações com Complexos na Forma Trigonométrica
Adição: Usa-se a regra do paralelogramo
-
6
�
�
�
�
�
�
�
�
��
r
O
z1 + z2 = z
�
��
�
��
�
r z1
�
�
�
�
�
��
rz2
��
��
��
��
��
��
��
��
z = ρ cis(θ) = z1+z2 = ρ1 cis(θ1)+ρ2 cis(θ2) = ρ1 cos(θ1)+ρ2 cos(θ2)+i(ρ1 sen(θ1)+ρ2 sen(θ2))
e
|z|2 = ρ2 = (ρ1 cos(θ1)+ρ2 cos(θ2))2 +(ρ1 sen(θ1)+ρ2 sen(θ2))2 = ρ21 +ρ22 +2ρ1ρ2 cos(θ1−θ2).
Multiplicação: Se z1 = ρ1 cis(θ1) e z2 = ρ2 cis(θ2), então
z1 · z2 = (ρ1 cis(θ1))(ρ2 cis(θ2)) = ρ1ρ2 cis(θ1 + θ2).
7
∴ |z1 · z2| = |z1| · |z2| e arg(z1 · z2) = arg(z1) + arg(z2).
Divisão: Se z2 6= 0, então
1
z2
=
1
ρ2
cis(−θ2). Logo,
z1
z2
=
ρ1
ρ2
cis(θ1 − θ2).
∴
∣∣∣∣z1z2
∣∣∣∣ = |z1||z2| e arg
(
z1
z2
)
= arg(z1)− arg(z2).
Potenciação: Se z = ρ cis(θ) e n ∈ Z, então
zn = ρn cis(nθ) (Fórmula de De Moivre).
∴ |zn| = |z|n e arg (zn) = n arg(z).
Radiciação: Seja z = ρ cis(θ) e n ∈ N. Se w = ρ1 cis(θ1) é uma raiz de ı́ndice n de z, então
wn = z. Logo,
(ρ1 cis(θ1))
n = ρ cis(θ) ⇔ ρn1 cis(nθ1) = ρ cis(θ) ⇔

ρn1 = ρ
cos(nθ1) = cos(θ)
sen(nθ1) = sen(θ)
⇔
{
ρ1 = n
√
ρ
nθ1 = θ + 2kπ,
com k ∈ Z, isto é,
ρ1 = n
√
ρ ∧ θ1 =
θ + 2kπ
n
, k ∈ Z.
Assim, e atendendo-se às repetições, w = n
√
ρ cis
(
θ + 2kπ
n
)
, com k = 0, 1, . . . , n− 1.
As ráızes de ı́ndice n de um complexo z têm imagens que formam os vértices de um
poĺıgono regular de n lados:
-
6
r
r
r
H
HH
H
HH
H
���
����
-
6
r r
r
r
@
@
@�
�
�
@
@
@�
�
�
No caso do expoente racional, isto é, do tipo
p
q
, com p, q ∈ N, tem-se, por definição, para
z = ρ cis(θ),
zp/q =
(
z1/q
)p
=
[
ρ1/q cis
(
θ + 2kπ
q
)]p
= ρp/q cis
(
p
q
(θ + 2kπ)
)
.
8
Observe-se que
8
12
=
2
3
e assim z8/12 = z2/3, tem 3 ráızes distintas, enquanto
12
√
z8 tem
12 ráızes distintas. Em C, (zp)1/q pode ser diferente de
(
z1/q
)p
.
Exerćıcios:
1. Utilize a forma trigonométrica para calcular:
a)
i55 −
√
3
(1− i)6
;
b)
i66(
√
3− i)4
(1 + i
√
3)8
.
2. Resolva, em C, a equação
z3 − (1 + i)z2 + iz = 0.
Lugares Geométricos
- Circunferência de centro z0 e raio r ≥ 0.
Por definição, uma circunferência de centro z0 e raio r é o conjunto dos pontos z tais que
|z − z0| = r
ou, equivalentemente,
(z − z0) (z − z0) = r2 ⇔ zz − zz0 − z0z + |z0|2 = r2.
Se |z0|2 = r2, a circunferência passa pela origem.
Se |z0|2 6= r2, a circunferência não passa pela origem.
- Equação da recta.
A equação geral de uma recta em R2 é da forma
Ax + By + C = 0.
Tomando-se z0 = A + iB e z = x + iy, obtém-se que
Re(z0)Re(z) + Im(z0)Im(z) + C = 0 ⇔
⇔ z0 + z0
2
· z + z
2
+
z0 − z0
2i
· z − z
2i
+ C = 0
⇔ (z0 + z0) (z + z)− (z0 − z0) (z − z) + 4C = 0
⇔ 2z0z + 2z0z + 4C = 0
⇔ z0z + z0z + R = 0 (Equação Geral da Recta)
Se R = 0, a recta passa pela origem.
Se R 6= 0, a recta não passa pela origem.
9
2 MATRIZES. RESOLUÇÃO DE SISTEMAS. INVERSÃO DE
MATRIZES.
Definição 2.1 Sejam m,n ∈ N e K um corpo. Chama-se matriz do tipo m × n (ou
de ordem (m, n)) sobre o corpo K, ou simplesmente, matriz do tipo m × n, a uma
função A definida no conjunto {(i, j) ∈ N× N : 1 ≤ i ≤ m, 1 ≤ j ≤ n} e com valores em K.
As componentes ou elementos ou entradas da matriz A designam-se por aij = A(i, j).
É usual usar-se um quadro rectangular para dispor os elementos de K.

a11 a12 · · · a1n
a21 a22 · · · a2n
... · · · · · · · · ·
am1 am2 · · · amn
 ou

a11 a12 · · · a1n
a21 a22 · · · a2n
... · · · · · · · · ·
am1 am2 · · · amn

Abreviadamente, uma matriz representa-se por
[aij](m,n) (1 ≤ i ≤ m, 1 ≤ j ≤ n)
ou, apenas, por A.
Duas matrizes A = [aij] e B = [bij] dizem-se iguais se, e somente se, são do mesmo tipo
e aij = bij, para todos os valores de i e j.
Designa-se por MK(m, n) o conjunto de todas as matrizes sobre o corpo K e de ordem
(m, n) (m linhas, n colunas).
Se K = R, a matriz diz-se real. Se K = C, a matriz diz-se complexa.
Matrizes Especiais
Seja A = [aij] ∈ MK(m, n).
1. Se n = 1, a matriz A diz-se matriz coluna.
a11
a21
...
am1

2. Se m = 1, a matriz A diz-se matriz linha.
[
a11 a12 · · · a1n
]
10
3. Se m = n, a matriz A diz-se quadrada de ordem n.
a11 a12 · · · a1n
a21 a22 · · · a2n
... · · · · · · · · ·
an1 an2 · · · ann

Numa matriz quadrada, os elementos a11, a22, . . . , ann dizem-se elementos principais
ou diagonais e formam a primeira diagonal ou diagonal principal. Os elementos
a1n, a2,n−1, . . . , an1 formam a segunda diagonal ou diagonal secundária. � �
�
  ��
�

Diagonal Principal Diagonal Secundária
3.1 Uma matriz quadrada A diz-se triangular superior se aij = 0, para i > j.
Exemplo:  −2 1 30 4 −1
0 0 −5

3.2 Uma matriz quadrada A diz-se triangular inferior se aij = 0, para i < j.
Exemplo:  2 0 0−1 3 0
7 4 −2

3.3 Uma matriz quadrada A diz-se diagonal se aij = 0, para i 6= j.
Exemplo: 
−1 0 0 0
0 3 0 0
0 0 5 0
0 0 0 −1

3.4 Uma matriz quadrada A diz-se escalar se é diagonal e aii = a 6= 0, para todo o i.
Exemplo: 
3 0 0 0
0 3 0 0
0 0 3 0
0 0 0 3

Utilizando-se o śımbolo de Kronecker, δij, definido por
δij =
{
0, se i 6= j,
1, se i = j,
uma matriz escalar pode representar-se apenas por [aδij].
11
Exemplo: 
3 0 0 0
0 3 0 0
0 0 3 0
0 0 0 3
 = [3δij]
A matriz identidade é a matriz escalar [δij]. Designa-se, em geral, por In.
I1 = [1] I2 =
[
1 0
0 1
]
I3 =
 1 0 00 1 0
0 0 1
 I4 =

1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
 . . .
4. Uma matriz formada por r linhas (r ≤ m) e s colunas (s ≤ n) de uma matriz A diz-se
uma submatriz de A do tipo r × s.
Exemplo:
A matriz
[
2 0
−1 4
]
é submatriz de
 2 0 4 1−1 4 −3 0
5 −6 8 1/2
.
5. A matriz A diz-se matriz nula se todos os elementos são nulos (aij = 0, para todos
os valores de i e j). Designa-se a matriz nula por 0m×n, ou simplesmente por 0, se não
houver ambiguidade quanto ao seu tipo.
Exemplo:  0 0 00 0 0
0 0 0

6. A matriz oposta da matriz A = [aij](m,n) é uma matriz do mesmo tipo definida por
−A = [−aij] .
Exemplo:A =
 −1 23 5
1/2 −
√
2
 − A =
 1 −2−3 −5
−1/2
√
2

7. Denomina-se matriz transposta de A a matriz AT que se obtém de A trocando orde-
nadamente as linhas por colunas e as colunas por linhas. Se A é do tipo m× n, AT é do
tipo n×m.
Exemplo:
A =
[
2 −5 7
−3 2 1
]
AT =
 2 −3−5 2
7 1

Propriedade 2.2
(
AT
)T
= A.
12
8. A matriz A diz-se simétrica se é igual à sua transposta, isto é, A = AT . Logo, os seus
elementos verificam a relação
aij = aji,
para todos os valores de i e j.
Desta forma, uma matriz simétrica é necessariamente quadrada e os elementos colocados
simetricamente em relação à diagonal principal são iguais.
Exemplo:  3 4 −14 −2 7
−1 7 −5

9. A matriz A diz-se anti-simétrica ou hemi-simétrica se
AT = −A ou A = −AT .
Os elementos verificam a relação aij = −aji. Assim, para i = j, tem-se
aii = −aii ⇔ aii = 0.
Desta forma, uma matriz anti-simétrica é uma matriz quadrada cujos elementos principais
são nulos e os elementos colocados simetricamente em relação à diagonal principal são
simétricos.
Exemplo:  0 2 −7−2 0 5
7 −5 0

10. Se a matriz A é complexa, chama-se matriz conjugada de A à matriz A que se obtém
substituindo cada elemento de A pelo seu conjugado.
Exemplo:
A =
[
5 3 + 2i 2
−i 7i 9− i
]
A =
[
5 3− 2i 2
i −7i 9 + i
]
Propriedades 2.3
1. Se A = A, então A é uma matriz real.
2. A = A.
11. Denomina-se matriz associada de A (complexa) a matriz A∗ que é igual à transposta
da conjugada de A, ou, o que é o mesmo, à conjugada da transposta de A, isto é,
A∗ = A
T
= (AT ).
Exemplo:
A =
[
5 3 + 2i 2
−i 7i 9 + i
]
A∗ =
 5 i3− 2i −7i
2 9− i

13
Propriedades 2.4
1. (A∗)T = A.
2. (A∗) = AT .
3. (A∗)∗ = A.
12. Uma matriz A diz-se hermı́tica ou hermitiana se é igual à sua associada, isto é, se
A = A∗.
Logo, os seus elementos verificam a relação aij = aji e é uma matriz quadrada.
Em particular, para i = j, tem-se aii = aii = a ∈ R, isto é, aii é um número real.
Exemplo: 
5 5 + 2i 3i 0
5− 2i −1 9 2− i
−3i 9 7 7 + 2i
0 2 + i 7− 2i −4

13. Uma matriz A diz-se hemi-hermı́tica ou hemi-hermitiana se satisfaz a relação
A = −A∗.
Logo, os seus elementos verificam a relação aij = −aji e é uma matriz quadrada.
Em particular, para i = j, tem-se aii = −aii, isto é, Re(aii) = 0.
Exemplo: 
5i 5 5− i 3− 2i
−5 −2i 2 + i 9i
−5− i −2 + i 7i 9
−3− 2i 9i −9 −i

Operações com Matrizes
1. Adição: Sejam A = [aij], B = [bij] ∈ MK(m, n). Define-se adição de A com B como
sendo a matriz S = A + B ∈ MK(m, n) cujos elementos são obtidos pela relação
sij = aij + bij.
Exemplo: [
2 6 0
−1 4 7
]
+
[
1 0 4
−4 1 −3
]
=
[
3 6 4
−5 5 4
]
Propriedades 2.5 (Adição de Matrizes)
a) A adição de matrizes é comutativa, isto é,
∀A, B ∈ MK(m, n), A + B = B + A.
14
b) A adição de matrizes é associativa, isto é,
∀A, B, C ∈ MK(m, n), (A + B) + C = A + (B + C).
c) A adição de matrizes tem elemento neutro, a matriz nula 0 · · · 0... · · · ...
0 · · · 0

(m,n)
d) Todas as matrizes em MK(m, n) têm oposto. O elemento oposto de A ∈ MK(m, n) é
a matriz −A ∈ MK(m,n).
∴ (MK(m, n), +) é um grupo abeliano.
e) Sejam A1, A2, . . . , Ap ∈ MK(m,n). Então
(A1 + A2 + · · ·+ Ap)T = AT1 + AT2 + · · ·+ ATp .
f) Se A ∈ MC(n, n), então A + A∗ é hermı́tica e A− A∗ é hemi-hermı́tica.
g) Se A ∈ MK(n, n), então A + AT é simétrica e A− AT é anti-simétrica.
2. Multiplicação de uma Matriz por um Escalar:
Sejam A = [aij] ∈ MK(m,n) e λ ∈ K. É usual denominar qualquer elemento de um
corpo por escalar. Define-se produto do escalar λ pela matriz A como sendo a matriz
λA = [λaij].
Exemplo:
Se A =
[
2 5 7
1 0 −2
]
e λ = 2, então λA =
[
4 10 14
2 0 −4
]
.
Propriedades 2.6 Sejam A, B ∈ MK(m, n) e α, β ∈ K.
i) 1 · A = A;
ii) α(βA) = (αβ)A = β(αA);
iii) (α + β)A = αA + βA;
iv) α(A + B) = αA + αB;
v) Se K = C e m = n, uma matriz A pode exprimir-se como soma de uma matriz
hermı́tica e uma hemi-hermı́tica, ou de uma matriz simétrica e outra anti-simétrica.
3. Multiplicação de Matrizes:
Sejam A = [aik] ∈ MK(m, p) e B = [blj] ∈ MK(p, n). As matrizes A e B dizem-
-se encadeadas porque o número de colunas de A é igual ao número de linhas de B.
Define-se multiplicação da matriz A pela matriz B como sendo uma matriz C do tipo
m× n, cujos elementos cij satisfazem a igualdade
cij =
p∑
k=1
aikbkj,
15
com i = 1, . . . ,m e j = 1, . . . , n.
Exemplo:
A =
[
2 −1
0 3
]
B =
[
3 −1 0
1 2 −4
]
AB =
[
5 −4 4
3 6 −12
]
Observe que não é posśıvel a multiplicação BA. Desta forma, a multiplicação não é
comutativa. Mesmo que A seja do tipo m× n e B do tipo n×m, AB é diferente de BA,
para m 6= n, dado as matrizes AB e BA não serem da mesma ordem. Observe o seguinte
exemplo: [
0 1 2 3
3 2 1 0
]
0 3
1 2
2 1
3 0
 = [ 14 44 14
]

0 3
1 2
2 1
3 0
[ 0 1 2 33 2 1 0
]
=

9 6 3 0
6 5 4 3
3 4 5 6
0 3 6 9

No caso particular m = n, se AB = BA, então as matrizes A e B dizem-se permutáveis.
Exemplo: [
2 0
0 2
] [
3 0
0 3
]
=
[
6 0
0 6
]
=
[
3 0
0 3
] [
2 0
0 2
]
As matrizes
[
2 0
0 2
]
e
[
3 0
0 3
]
são permutáveis.
Propriedades 2.7
i) Se A, B e C são matrizes do tipo m× p, p× q e q × n, respectivamente, então
(A ·B) · C = A · (B · C) (Associatividade).
ii) Se A, B e C são matrizes do tipo m× p, p× n e p× n, respectivamente, então
A · (B + C) = A ·B + A · C (Distributividade à Esquerda).
Se D, E e F são matrizes do tipo m× p, m× p e p× n, respectivamente, então
(D + E) · F = D · F + E · F (Distributividade à Direita).
iii) O conjunto MK(n, n), das matrizes quadradas de ordem n com elementos no corpo
K, munido com as operações adição e multiplicação de matrizes é um anel não
comutativo com elemento unidade (matriz identidade de ordem n).
16
Observações:
1. Um produto AB pode ser a matriz nula sem que A ou B sejam a matriz nula.
Por exemplo:  1 2 01 1 0
1 4 0
 0 0 00 0 0
1 4 9
 =
 0 0 00 0 0
0 0 0
 .
2. A igualdade AB = AC não implica necessariamente B = C. Por exemplo:
AB =
 1 2 01 1 0
−1 4 0
 1 2 31 1 −1
2 2 2
 =
 3 4 12 3 2
3 2 −7

AC =
 1 2 01 1 0
−1 4 0
 1 2 31 1 −1
1 1 1
 =
 3 4 12 3 2
3 2 −7

iv) Se as matrizes A e B são do tipo m× p e p× n, respectivamente, então
1. (AB)T = BT AT ;
2. AB = A ·B;
3. (AB)∗ = B∗A∗.
No caso das matrizes quadradas, An, para todo n ∈ N, existe, já que A é encadeada com
A, A2, A3, . . ..
Ainda no caso das matrizes quadradas de ordem n, se AB = BA = In, B é a matriz
inversa de A em MK(n, n), isto é, B = A
−1 e A = B−1. Neste caso, as matrizes A e B
dizem-se regulares ou invert́ıveis. Se A ∈ MK(n, n) não é regular, diz-se singular.
Operações Elementares com as Filas de uma Matriz. Condensação
Definição 2.8 Numa matriz, duas filas paralelas dizem-se dependentes se são iguais ou se
uma é igual ao produto da outra por um escalar. Ainda, se uma fila é igual à soma de outras
filas paralelas ou à soma dos produtos de outras filas paralelas por escalares, diremos que
essas filas paralelas são dependentes. Caso contrário, as filas dizem-se independentes.
Definição 2.9 Chama-se caracteŕıstica de uma matriz A à ordem máxima da submatriz
de A constitúıda pelas filas independentes.
Para se encontrar a caracteŕıstica de uma matriz é necessário ter em conta o seguinte:
1.
Teorema 2.10 A dependência ou independência das linhas ou colunas de uma matriz
não é alterada por alguma das seguintes operações ditas elementares:
O1 Troca entre si de duas filas paralelas.
17
O2 Multiplicação dos elementos de uma fila por um escalar de K \ {0}.
O3 Adição, aos elementos de uma fila, dos produtos dos elementos correspondentes de
uma fila paralela por um mesmo escalar de K.
2. Uma matriz que tenha uma submatriz triangular (ou diagonal), com elementos principais
não nulos, e as restantes filas com elementos todos nulos tem caracteŕıstica igual ao
número de filas dessasubmatriz.
Utilizando-se 1. e 2., podemos determinar a caracteŕıstica de uma matriz. Efectua-se,
assim, a condensação da matriz.
Exerćıcio: Determine a caracteŕıstica da matriz
A =
 0 −3 2 1−2 2 2 0
1 2 −4 3
 .
Em geral, dada uma matriz
A =

a11 a12 · · · a1n
a21 a22 · · · a2n
· · · · · · · · · · · ·
am1 am2 · · · amn
 ,
podemos, por condensação, obter

b11 b12 · · · b1r · · · b1n
0 b22 · · · b2r · · · b2n
· · · · · · · · · · · · · · · · · ·
0 · · · 0 brr · · · brn
· · · · · · · · · · · · · · · · · ·
0 0 · · · · · · · · · 0

ou

c11 0 · · · 0 · · · 0
c21 c22 · · · 0 · · · 0
· · · · · · · · · · · · · · · · · ·
cr1 · · · · · · crr · · · 0
· · · · · · · · · · · · · · · · · ·
0 0 · · · · · · · · · 0

ou

d11 0 · · · · · · · · · 0
0 d22 0 · · · · · · 0
· · · · · · · · · · · · · · · · · ·
0 · · · 0 drr · · · 0
· · · · · · · · · · · · · · · · · ·
0 0 · · · · · · · · · 0
 .
18
Qualquer destas matrizes tem r filas independentes e quaisquer r + 1 filas passam a ser
dependentes. Logo, Car A = r.
Aplicação à Resolução de Sistemas de Equações Lineares
Considere-se um sistema de m equações com n incógnitas:

a11x1 + a12x2 + · · ·+ a1nxn = b1
· · · · · · · · · · · · · · · · · ·
am1x1 + am2x2 + · · ·+ amnxn = bm
Observe-se que fazendo
A =

a11 a12 · · · a1n
a21 a22 · · · a2n
... · · · · · · · · ·
am1 am2 · · · amn

(Matriz dos Coeficientes),
B =

b1
b2
...
bm
 (Matriz dos Termos Independentes) e X =

x1
x2
...
xn
 ,
o sistema de equações é equivalente à equação matricial AX = B.
Sabemos que as operações elementares transformam o sistema dado num sistema equiva-
lente. Assim, podemos encontrar a(s) solução(ões), caso exista(m), aplicando o método de
condensação à matriz ampliada ou completa:
[A|B] =
 a11 · · · a1n | b1... · · · ... | ...
am1 · · · amn | bm
 .
Atenção: A troca de duas colunas em A correspondem a uma troca de incógnitas.
Condensando [A|B], ou melhor, condensando A, até determinar a sua caracteŕıstica r,
temos:
1o Caso: m = n = r

α11 α12 · · · α1n | β1
0 α22 · · · α2n | β2
· · · . . . . . . · · · | ...
0 · · · 0 αnn | βn

19
ou, até à forma diagonal,

γ11 0 · · · 0 | δ1
0 γ22 · · · 0 | δ2
· · · · · · . . . · · · | ...
0 · · · 0 γnn | δn

e ainda

1 0 · · · 0 | δ1
γ11
0 1 · · · 0 | δ2
γ22
· · · · · · . . . · · · | ...
0 · · · 0 1 | δn
γnn

isto é,

x1 =
δ1
γ11
x2 =
δ2
γ22
...
xn =
δn
γnn
,
que é a solução do sistema inicial. Diz-se então que é um sistema posśıvel e determinado.
2o Caso: m = r < n
Neste caso temos,

α11 α12 · · · α1r | · · · α1n | β1
0 α22 · · · α2r | · · · α2n | β2
· · · . . . . . . · · · | · · · · · · | ...
0 · · · 0 αrr | · · · αrn | βr
 →

γ11 0 · · · 0 | · · · γ1n | δ1
0 γ22 · · · 0 | · · · γ2n | δ2
· · · . . . . . . · · · | · · · · · · | ...
0 · · · 0 γrr | · · · γrn | δr
 →
→

1 0 · · · 0 | · · · γ1n
γ11
| δ1
γ11
0 1 · · · 0 | · · · γ2n
γ22
| δ2
γ22
· · · · · · . . . · · · | · · · · · · | ...
0 · · · 0 1 | · · · γrn
γrr
| δr
γrr
 ,
isto é,

x1 =
δ1
γ11
−
∑n
j=r+1
γ1j
γ11
xj
...
xr =
δr
γrr
−
∑n
j=r+1
γrj
γrr
xj
As r incógnitas, ditas principais, dependem das restantes n− r incógnitas não princi-
pais. Assim, o sistema diz-se posśıvel indeterminado, sendo n − r o grau de indeter-
minação.
20
3o Caso: Se r < m, temos que

α11 α12 · · · α1r | · · · α1n | β1
0 α22 · · · α2r | · · · α2n | β2
· · · . . . . . . · · · | · · · · · · | ...
0 · · · 0 αrr | · · · αrn | βr
−− −− −− −− | −− −− | −−
0 · · · · · · 0 | 0 · · · · · · 0 | βr+1
· · · · · · · · · · · · | · · · · · · | ...
0 · · · · · · 0 | 0 · · · · · · 0 | βm

e duas possibilidades:
1. βr+1 = · · · = βm = 0;
2. βr+1, . . . , βm não todos nulos.
1. Se as últimas m− r linhas somente têm elementos nulos, as equações transformam-se em
0 = 0. Logo, fica 
α11 α12 · · · α1r | · · · α1n | β1
0 α22 · · · α2r | · · · α2n | β2
· · · . . . . . . · · · | · · · · · · | ...
0 · · · 0 αrr | · · · αrn | βr

e tal como antes,
sistema posśıvel
{
determinado, se r = n,
indeterminado, se r < n, com grau de indeterminação n− r.
2. Se nas últimas equações algum βj 6= 0, obtemos 0x1 + 0x2 + · · · + 0xn = βj. Logo, o
sistema é imposśıvel. Neste caso, a caracteŕıstica de [A|B] é maior que r, isto é, maior
do que a caracteŕıstica de A.
Em Resumo:
Sistema Posśıvel: Car A = Car[A|B]
Sistema Posśıvel

Determinado, se Car A = n,
Indeterminado, se Car A < n, com grau de indeterminação
n− Car A.
Sistema Imposśıvel: Car A < Car[A|B]
Exerćıcios:
1. Resolva e classifique o seguinte sistema:
2x− y − z = 1
x + y − z = 2
−x + 2y + 2z = 4
21
2. Considere o sistema de equações lineares sobre R, nas incógnitas x, y, z e t:
x = a− b
5ax− 2by + az + t = 1
−bz = 1
−3ax + 2by − az + (b− a)t = 2a− 1
Utilizando o método de condensação, discuta o sistema em função dos parâmetros a e b.
Cálculo da Matriz Inversa de uma Matriz Regular
Seja A uma matriz quadrada de ordem n. Sabemos que A é regular (isto é, invert́ıvel) se
existe uma matriz quadrada, com a mesma ordem, B tal que
AB = BA = I.
Vamos determinar a matriz B tal que
AB = I
e em seguida mostraremos que essa matriz B também é inversa à esquerda, isto é, BA = I.
Representemos B por X, e Xj e Ij, respectivamente, as j-ésimas colunas de X e I. Assim,
a equação matricial AX = I é equivalente a n sistemas de equações lineares:
{
AXj = Ij
j = 1, . . . , n
Pelo que vimos anteriormente, tais sistemas têm solução única se, e somente se, Car A = n.
Cada um dos sistemas é resolvido passando da matriz ampliada [A|Ij] para a matriz [I|Xj].
Isto é equivalente à passagem de [A|I] para [I|X] efectuando as operações elementares nos
n sistemas.
Exerćıcio: Determine a inversa à direita da matriz
A =
 2 0 2−1 1 −3
0 2 1
 .
Mostremos agora que a existência de uma inversa à direita garante a existência de inversa
à esquerda e que elas são iguais.
Sabemos que se A tem inversa X à direita se, e somente se, Car A = n (ordem de A).
Desta forma, AT também tem inversa à direita, digamos Y, isto é, AT Y = I. Logo,
(
AT Y
)T
= IT ⇔ Y T A = I,
isto é, a matriz A tem inversa à esquerda.
22
Agora basta mostrar que Y T = X. Ora, Y T A = I implica
Y T AX = IX ⇔ Y T (AX) = X ⇔ Y T I = X ⇔ Y T = X.
Portanto, conclúımos que a inversa à esquerda é igual à inversa à direita. Chamar-lhe-
-emos apenas inversa de A e representa-se por A−1.
Sistemas Homogéneos
Seja A ∈ MK(m, n). Se no sistema AX = B, a matriz B é a matriz nula (B = 0), estamos
perante um sistema de equações lineares homogéneo (AX = 0) onde todas as equações são
homogéneas de grau 1.
É evidente que todo o sistema homogéneo é um sistema posśıvel: admite sempre a
solução nula (X = 0), pelo menos! Assim, sendo r a caracteŕıstica de A,
se r = n, o sistema é posśıvel e determinado, tendo somente a solução nula, X = 0.
se r < n, o sistema é posśıvel indeterminado, admite soluções não nulas.
Suponhamos que A é uma matriz quadrada de ordem n. Então temos o seguinte resultado:
Teorema 2.11 A é regular se, e somente se, AX = 0 só tem a solução X = 0.
Demonstração: Exerćıcio.
Propriedades da Inversão de Matrizes
1. Se A é regular, também o é A−1 e (A−1)
−1
= A.
2. Um produto de matrizes quadradas é invert́ıvel se, e somente se, cada factor é invert́ıvel
e
(A1 . . . Ak)
−1 = A−1k . . . A
−1
1 .
3. Se A é regular,
(
Ak
)−1
= (A−1)
k
.
4. Se A é regular, então AT , A e A∗ também são regulares e temos que(
AT
)−1
=
(
A−1
)T
;
(
A
)−1
= A−1; (A∗)−1 =
(
A−1
)∗
.
Definição 2.12 Uma matriz quadrada A é dita
i) ortogonal se A−1 = AT , isto é, AT A = I = AAT .
ii) unitária se A−1 = A∗, isto é, A∗A = I = AA∗.
Exemplo: A matriz
[ √
2
2
−
√
2
2√
2
2
√
22
]
é ortogonal (e unitária).
23
 
 
3 ESPAÇOS VECTORIAIS. APLICAÇÕES LINEARES. 
 
 
Definição 3.1: Seja K um corpo. Diz-se que um conjunto E, não vazio, é um espaço vectorial 
ou um espaço linear sobre K se nele estão definidas duas leis de composição: 
a) Uma lei de composição interna, dita adição, a respeito da qual E é um grupo 
abeliano. 
b) Uma lei de composição externa, isto é, uma aplicação de EK ×
( ,α
 em E, 
denominada multiplicação escalar, que associa a todo par ordenado , com )x
K∈α e ,Ex∈ um elemento ,Ex∈α satisfazendo as propriedades: 
 
i) ( ) yxyx ,Ey,x ,K α+α=+α∈∀∈α∀ 
 (Distributividade da multiplicação escalar relativamente à adição em E). 
 
ii) ( ) xxx ,Ex ,K, β+α=β+α∈∀∈βα∀ 
 (Distributividade da multiplicação escalar relativamente à adição em K). 
 
iii) ( ) ( )xx ,Ex ,K, βα=αβ∈∀∈βα∀ 
 (Associativadade da multiplicação escalar). 
 
iv) x (1 é o elemento unidade de K). x1 ,Ex =⋅∈∀
 
 Os elementos de K denominam-se escalares e os elementos de E vectores. 
 No caso de K ser o corpo IR , dos números reais, diz-se que E é um espaço vectorial 
real. No caso de K ser o corpo C\ , dos números complexos, diz-se que E é um espaço 
vectorial complexo. 
 Por vezes, o elemento neutro E0∈ é designado por origem ou zero de E. 
 
 
Exemplos: 
1. O conjunto dos vectores livres do espaço ordinário é um espaço vectorial real com as 
operações usuais: 
 
- Adição: A soma , resultado da adição dos vectores vu rr + ur e , é definida pela 
regra do paralelogramo. 
vr
- Multiplicação escalar: urα é o vector com a direcção de ur , sentido de se ur α é 
positivo e sentido oposto se α é negativo e cujo comprimento é dado pelo produto 
do módulo do número real α pelo comprimento de ur . 
 
2. IR é um espaço vectorial real. 
3. C\ é um espaço vectorial real. 
4. C\ é um espaço vectorial complexo. 
5. IR não é um espaço vectorial complexo. 
6. Seja K um corpo. Para cada IN , o conjunto K∈n n ( ){ ∈= in21 x:x,,x,x K K , 
é um espaço vectorial sobre K relativamente às operações (ditas usuais): 
}n,,2,1i K=
- Adição: definida pela relação 
( ) ( ) ( )nn2211n21n21 yx,,yx,yxy,,y,yx,,x,x +++=+ KKK ; 
 24
 
 
- Multiplicação escalar: definida por 
( ) ( )n21n21 x,,x,xx,,x,x ααα=α KK ; 
(em que as operações que figuram nos n-uplos dos segundos membros das 
igualdades anteriores são as operações adição e multiplicação em k). 
Nota: Dado um corpo K, sempre que seja feita referência ao espaço vectorial K
n
 sobre o 
corpo K, assumiremos que as operações consideradas são as usuais, a menos que seja dito 
o contrário. 
7. Para cada n IN , o conjunto IR∈ n (respectivamente, C\ n ) é um espaço vectorial real 
(respectivamente, complexo). 
8. Para cada IN , o conjunto C\ ∈n n é um espaço vectorial real. 
9. O conjunto de todos os polinómios na variável x, com coeficientes em K, de grau não 
superior a n ( IN ) é um espaço vectorial sobre K (K = IR ou K = C\ ) com as operações 
definidas por: 
∈n
 
( ) ( )
( ) ( ) ( ) ( ) nnn2221100
n
n
2
210
n
n
2
210
xbaxbaxbaba
xbxbxbbxaxaxaa 
++++++++=
=+++++++++
L
LL
 
e 
( ) ( ) ( ) ( ) ( nn2210nn2210 xaxaxaaxaxaxaa α++α+α+α=++++α LL ) . 
 
10. O conjunto de todos os polinómios na variável x, com coeficientes em K, é um espaço 
vectorial sobre K, com as operações definidas de forma análoga às definidas em 9 (ditas 
usuais). 
 
 
Propriedades dos Espaços Vectoriais: 
 
1. ( ) yxyx ,Ey,x ,K α−α=−α∈∀∈α∀ 
 
De facto, tem-se 
( ) ( )[ ] xyyxyyx α=+−α=α+−α , 
atendendo-se à propriedade i) da multiplicação escalar e a ( )+,E ser um grupo. 
 
2. 00 ,K =α∈α∀
 
É um caso particular de 1. para .yx = 
 
3. ( ) ( )yy ,Ey ,K α−=−α∈∀∈α∀ 
 
É um caso particular de 1. para .0x = 
 
4. ( ) xxx,Ex,K, β−α=β−α∈∀∈βα∀ 
 
De facto, tem-se 
( ) ( )[ ] xxxx α=β+β−α=β+β−α 
 25
 
atendendo-se à propriedade ii) da multiplicação escalar e a K ser um corpo. 
 
5. 0x0 ,Ex =∈∀ 
 
É um caso particular de 4. para .β=α 
 
6. ( ) ( )xx ,Ex ,K β−=β−∈∀∈β∀ 
 
É um caso particular de 4. para .0=α 
 
7. 0x00x ,Ex ,K =∨=α⇔=α∈∀∈α∀ 
 
Demonstração: Exercício. 
 
 
Definição 3.2: Seja K um corpo e E um espaço vectorial sobre K. Se S é um subconjunto não 
vazio de E e se é um espaço vectorial sobre K relativamente às mesmas operações definidas 
em E, então diz-se que S é um subespaço vectorial de E. 
 
Exemplos: 
1. IR é um subespaço vectorial real do espaço vectorial real C\ . 
2. O espaço vectorial dos polinómios reais de grau não superior a 3 é subespaço vectorial do 
espaço vectorial dos polinómios de grau não superior a 6, etc.. 
3. Qualquer que seja o espaço vectorial E, o conjunto { }0 e E são subespaços vectoriais de E. 
 
 
Teorema 3.3: Um subconjunto S, não vazio, do espaço vectorial E é subespaço vectorial se, e 
somente se, S é fechado relativamente às leis de composição definidas em E, isto é, S 
satisfazendo às condições: 
E⊂
 
a) , ∅≠S
b) , Syx ,Sy,x ∈+∈∀
c) , Sx ,Sx ,K ∈α∈∀∈α∀
 
é um subespaço vectorial de E. 
 
Demonstração: Exercício. 
 
Exercício: Considere os seguintes conjuntos 
( ){ ∈= z,y,xA IR3 : z }0= e ( ){ ∈= z,y,xB IR3 : }0zyx ≠++ . 
Averigúe se são ou não subespaços vectoriais de IR3. 
 
Teorema 3.4: Seja E um espaço vectorial definido sobre um corpo K e seja { } um 
conjunto de subespaços vectoriais de E. Então 
Ii:Si ∈
I
Ii
iSS
∈
= 
 26
 
é também um subespaço vectorial de E. 
 
Demonstração: Exercício. 
 
 Seja E um espaço vectorial sobre um corpo K e Ex,,x,x n21 ∈K . Todo o vector v que 
se pode exprimir sob a forma 
nn2211 xxxv α++α+α= L , 
com ,i diz-se combinação linear dos vectores ,Ki ∈α n,,1K= .x,,x,x n21 K
 
 Analogamente, se A é um subconjunto de E, então qualquer vector de E da forma 
nn2211 xxx α++α+α L , 
 
com e K,,, n21 ∈ααα K ,Ax,,x,x n21 ∈K diz-se combinação linear (finita) de elementos 
de A. 
 
Obs.: É óbvio que qualquer elemento de A é combinação linear de elementos de A. De facto, 
se podemos escrever ,Ax∈
,x0x0x1x n2 ⋅++⋅+⋅= L 
com .Ax,,x,x n32 ∈K
 
Exercício: Dados os vectores, em IR4, 
( b,a,1,1u = ) ( )3,1,1,3v = ( )5,1,0,2w = , 
determine o valor das constantes a e b por forma a ser possível escrever o vector u 
como combinação linear dos vectores v e w. 
 
Teorema 3.5: Seja E um espaço vectorial sobre um corpo K e A uma parte não vazia de E. O 
conjunto F de todas as combinações lineares de elementos de A é o “menor” subespaço 
vectorial de E que contém A. 
 
Demonstração: Exercício. 
 
 Sendo A uma parte não vazia do espaço vectorial E definido sobre um corpo K, o 
subespaço F de E formado por todas as combinações lineares de elementos de A diz-se 
subespaço gerado por A, ou, também, que A gera o subespaço F. 
 No caso de F coincidir com o próprio E, diz-se que os vectores de A constituem um 
sistema de geradores de E. 
 
Notação: O subespaço gerado por A representa-se por 
A ou [ ]A ou ainda ,x,,x,x n21 K 
se . { }n21 x,,x,xA K=
 
 
Em resumo: se F for o subespaço gerado pelo conjunto { }n21 x,,x,x K , 
 27
 
,K:xx,,x,xF i
n
1i
iin21






∈αα== ∑
=
K 
isto é, todo o vector de F é combinação linear dos vectores . n21 x,,x,x K
 
Exercícios: 
1. Considere os vectores do espaço vectorial real IR3 
( )3,2,1x1 = e ( )1,1,2x 2 −= . 
Escreva uma condição que caracterize o subespaço F de IR3 gerado por . { }21 x,xA =
 
2. No espaço vectorial IR4, considere os conjuntos 
( ) (






−−−−




 −−= 0,1,1,0,1,2,2,1,
2
1,1,1,
2
1B ) e ( ) ( ){ }0,1,1,0,2,0,0,2C = . 
Mostre que B e C geram o mesmo subespaço vectorial de IR4. 
 
 
Exemplos: 
1. No espaço dos vectores OP de um plano, dois vectores quaisquer desse plano não 
colineares são geradores do espaço. 
2. Os vectores ( ) ( ) ( ) ( )1,1,1 e 1,0,0 ,0,1,0 ,0,0,1 são geradores de IR3. 
3. Também geram IR( ) ( ) ( 1,0,0 e 0,1,0 ,0,0,1 ) 3. 
4. Em geral, o espaço vectorial IRn é gerado pelos n vectores 
( )
( )
( )1,0,,0,0,0e
0,0,,0,1,0e
0,0,,0,0,1en
2
1
K
KKKKKKK
K
K
=
=
=
 
5. IR é gerado por qualquer número real não nulo. 
6. O espaço real C\ é gerado por { }i1,i,1 + e também por { }i,1 , pois a ib1abi ⋅+⋅=+ . 
7. O espaço complexo C\ é gerado por qualquer número complexo não nulo. 
 
 
Observem-se os exemplos 2. e 3.. Repare-se que o número de vectores no exemplo 3. é o 
menor número de vectores que geram o espaço. O mesmo já não acontece no exemplo 2. 
porque ( ) ( ) ( ) ( )1,0,010,1,010,0,111,1,1 ⋅+⋅+⋅= . Diremos por isso, como vamos ver, que os 
quatro vectores são linearmente dependentes. 
 
 
Definição 3.6: Os vectores x dizem-se linearmente dependentes se existem 
escalares não todos nulos tais que 
n21 x,,x, K
n21 ,,, ααα K
0xx nn11 =α++α L . 
 Esses vectores dizem-se linearmente independentes se a combinação linear nula só 
acontece quando todos os escalares são nulos, isto é, 
 28
 
00xx n21nn11 =α==α=α⇒=α++α LL . 
 
Proposição 3.7: Os vectores são linearmente dependentes se, e somente se, 
algum deles é combinação linear dos restantes. 
n21 x,,x,x K
 
Demonstração: Exercício. 
 
 
Exercícios: 
1. Verifique se os vectores ( ) , 1,1,0,1 ( )0,1,3,2 , ( )1,1,1,2 − e ( )0,0,0,1 são linearmente inde-
pendentes. 
2. Verifique se os elementos do espaço vectorial real P3(x) (conjunto dos polinómios reais de 
grau menor ou igual a 3) 
1, , 2x2x − 32 xx + , 3x2x + 
são linearmente independentes. 
 
 
Propriedades: 
1. Se os vectores são linearmente dependentes, então qualquer conjunto finito 
de vectores que os contenha é um conjunto de vectores linearmente dependentes. 
n21 x,,x,x K
2. Dados n vectores, se um deles é o vector nulo, então os n vectores são linearmente 
dependentes. Pois, 1 0x0x00 1n1 =⋅++⋅+⋅ −L . 
3. Qualquer subconjunto de um conjunto de n vectores linearmente 
independentes, é formado por vectores linearmente independentes. 
n21 x,,x,x K
4. A dependência ou independência linear de n vectores não se altera por 
qualquer troca na ordem pela qual estes vectores são indicados. 
n21 x,,x,x K
5. A dependência ou independência linear de n vectores não se altera quando a um deles se 
adiciona uma combinação linear de qualquer número dos restantes. 
 
 
Depois destas considerações, podemos afirmar que os geradores ( ) ( ) ( )1,0,0 ,0,1,0 ,0,0,1 de 
IR3 são linearmente independentes, mas os geradores ( ) ( ) ( ) ( )1,1,1 ,1,0,0 ,0,1,0 ,0,0,1 são 
linearmente dependentes. 
 
 
Definição 3.8: Chama-se base do espaço vectorial E a um conjunto de geradores de E 
linearmente independentes. 
 
Obviamente, excluindo o caso em que { }0E = , os vectores de uma base são não nulos. 
 
 
Definição 3.9: Um espaço vectorial E sobre um corpo K diz-se finitamente gerado se admite 
um conjunto de geradores finito. 
 
Nota: Somente trabalharemos no contexto dos espaços vectoriais finitamente gerados. 
 
 29
 
 
Teorema 3.10: Todo o espaço vectorial { }0E ≠ finitamente gerado admite uma base. 
 
 
Teorema 3.11: Todas as bases de um espaço vectorial E finitamente gerado têm o mesmo 
número de elementos. 
 
 
Definição 3.12: Seja E um espaço vectorial finitamente gerado sobre um corpo K. O número 
de elementos de qualquer base de E diz-se dimensão de E e designa-se por , ou 
apenas . Por convenção, 
( )EdimK
( )Edim { }( ) 00dim = . 
 
 
Definição 3.13: Dado um espaço vectorial E sobre um corpo K e { }n21 x,,x,x K
Ex
 uma base de 
E, chamam-se componentes ou coordenadas de um vector ∈ relativamente à base 
considerada aos escalares n21 ,,, ααα K que surgem na combinação linear 
∑
=
α=
n
1i
iixx . 
 
Teorema 3.14: Um conjunto de vectores { }n21 x,,x,x K é uma base de um espaço vectorial E 
se, e somente se, cada vector x se exprime de forma única como combinação linear dos 
vectores x , isto é, 
E∈
n21 x,,x, K
∑
=
α=
n
1i
iixx , 
com únicos. n21 ,,, ααα K
 
Demonstração: Exercício. 
 
 
Exemplos: 
 
1. Em IR2 são bases ( ) ( ){ }1,0,0,1 , ( ) ( )1,1,0,1{ }, etc. 
2. No espaço Kn sobre o corpo K, chama-se base canónica à base 
( ) ( ) ( ){ }1,0,,0,0,,0,0,,1,0,0,0,,0,1 KKKK . 
3. No espaço real C\ , { é uma base: tem dimensão 2. O espaço complexo C\ tem dimensão 
 1. 
}
}
}
}
}
i,1
 
Teorema 3.15: Sejam E um espaço vectorial sobre um corpo K de dimensão igual a n e 
 um conjunto de n vectores de E. Então, as seguintes afirmações são 
equivalentes: 
{ n21 e,,e,e K
a) é uma base de E; { n21 e,,e,e K
b) é um conjunto de geradores de E; { n21 e,,e,e K
c) é um conjunto de vectores linearmente independentes de E. { n21 e,,e,e K
 
Demonstração: Exercício. 
 30
 
 
 
Exercícios: 
1. Indique a condição a que deve satisfazer λ de modo a que os vectores ( ) , ( ) e 
 constituam uma base de IR
1,0,1 0,,0 λ
( λ,0,1 ) 3. 
2. Considere o seguinte subespaço vectorial do espaço vectorial IR4: 
( ){ ∈= t,z,y,xA IR4 : }0tzyx =+−− . 
Determine uma base e a dimensão do subespaço A. 
 
 
 Pelo que vimos anteriormente, fixada uma base { }n21 e,,e,e K no espaço E, cada 
vector de E fica bem definido pelas suas coordenadas, isto é, pelos escalares que aparecem 
em: 
 
( )n21 ,,, ααα K ou [ ]n21 ααα L ou em . 












α
α
α
n
2
1
M
 
 
Exemplo: No espaço dos polinómios de grau não superior a 3, { }32 x,x,x,1 é uma base. Nesta 
base, as coordenadas do polinómio são 32 x5x4x2 −++− [ ]5412 −− . 
 
 
 
Aplicações Lineares 
 
 
Definição 3.16: Sejam E e F dois espaços vectoriais definidos sobre o mesmo corpo K e ϕ 
uma aplicação de E em F. Se é tal que ϕ
( ) ( ) ( )yxyx ,Ey,x ϕ+ϕ=+ϕ∈∀ 
( ) ( )xx ,Ex ,K αϕ=αϕ∈∀∈α∀ 
então diz-se que é uma aplicação linear, um homomorfismo ou uma transformação 
linear de E em F. 
ϕ
 Uma aplicação linear de E em E diz-se um endomorfismo. 
 Um aplicação linear bijectiva diz-se também um isomorfismo de E em F. Caso exista 
esse isomorfismo diz-se que E e F são espaços isomorfos. Um isomorfismo de E em E 
denomina-se automorfismo. 
 
 
Observação: Pode mostrar-se que as duas proposições da definição de aplicação linear são 
equivalentes à proposição: ( ) ( ) (yxyx ,Ey,x,K, )βϕ+αϕ=β+αϕ∈∀∈βα∀ . 
 
 
Exemplos: 
 31
 
1. A aplicação f de IR3 em IR2 definida por ( ) ( )zyx,xz,y,xf ++= . 
2. Homotetia (em IR3): . ( ) ( z2,y2,x2z,y,x a )
3. Rotação (em IR2): ( ) ( x,yy,x −a ) (rotação de 
2
π ) 
 ou ( ) ( ) ( )




 +−
2
yx2,
2
yx2y,x a (rotação de 
4
π ) 
Exercício: Verifique se a seguinte aplicação é linear: 
:f IR3 → IR2 
 ( ) ( )zy,yxz,y,x −−a . 
 
 Representaremos por L o conjunto de todas as aplicações lineares de E em F, 
com E e F espaços vectoriais sobre um mesmo corpo K. 
( F,E )
 
Observação: Prova-se que o conjunto L ( )F,E é um espaço vectorial sobre K, para as 
operações: 
Adição: ∈ψϕ, ∀ L , ( )F,E ( )( ) ( ) ( )xxx ψ+ϕ=ψ+ϕ . 
Multiplicação Escalar: ∈ϕ∀∈α∀ ,K L ( )F,E , ( )( ) ( )[ ]xx ϕα=αϕ . 
 
 
Propriedades das Aplicações Lineares: 
 
 Sejam ∈ϕ L ( )F,E e ψ L ∈ ( )G,F , com E, F e G espaços vectoriais sobre o mesmo 
corpo K. 
 
1. ( ) .00 =ϕ
2. é uma aplicação linear de E em G. ϕψ o
3. é um subespaço vectorial de F. ( )Eϕ
4. , denominado núcleo da aplicação linear ϕ , é um 
subespaço vectorial de E. 
{ }( ) ( ){ 0x:Ex0N 1 =ϕ∈=ϕ= −ϕ }
5. ( ) ( ) ( )( )EdimNdimEdim ϕ+= ϕ . 
6. A aplicação é injectiva se, e somente se, ϕ { }0 N =ϕ . 
 
Exercício: Considere a aplicação linear 
:f IR3 → IR2 
 ( ) ( )zy,yxz,y,x −−a . 
a) Determine . A aplicação f é injectiva? fN
b) Determine dim (f (IR3 )). 
 
 
Teorema 3.17: Sejam E e F dois espaços vectoriais sobre o mesmo corpo K, { } 
uma base de E e uma aplicação linear de E em F. Sejam f respectivamente, as 
imagens por dos vectores da base de E, isto é, 
n21 e,,e,e K
ϕ ,f,,f, n21 K
ϕ n21 e,,e,e K
 32
 
( ) ii fe =ϕ ( )n,,2,1i K= 
 Então podemos afirmar que: 
a) é injectiva se, e somente se, f são linearmente independentes. ϕ n21f,,f, K
b) é sobrejectiva se, e somente se, f geram F. ϕ n21 f,,f, K
c) é bijectiva se, e somente se, f constituem uma base de F. ϕ n21 f,,f, K
 
Demonstração: Exercício. 
 
Definição 3.18: Sejam E e F dois espaços vectoriais (de dimensão finita) sobre um mesmo 
corpo K. Chama-se característica de uma aplicação linear ϕ de E em F, à dimensão do 
subespaço ϕ . ( )E
 
 
Matriz de uma Aplicação Linear 
 
 Sejam E e F dois espaços vectoriais (de dimensão finita) sobre um mesmo corpo K, 
 uma base de E, { uma base de F e { n21 e,,e,e K } }m21 f,,f,f K ∈ϕ L ( )F,E . 
 Os vectores ( )jeϕ , com pertencem ao espaço F e como é 
uma base de F, então os vectores 
,n,,2,1j K= { }m21 f,,f,f K
( )jeϕ podem representar-se de maneira única como 
combinação linear desses vectores, 
( ) ∑
=
=ϕ
m
1i
iijj f ae ( ),n,,2,1j K= 
onde cada designa a coordenada do vector Kaij ∈ ( )jeϕ , relativamente ao vector da base 
de F. Isto é, tem-se 
if
( )
( )
( ) mmn2n21n1n
m2m2221122
m1m2211111
fafafae
fafafae
fafafae
+++=ϕ
+++=ϕ
+++=ϕ
L
KKKKKKKKKKKKK
L
L
 
 
Desta forma, podemos escrever as coordenadas de cada vector ( )jeϕ na forma matricial 












=
mn2m1m
n22221
n11211
aaa
aaa
aaa
A
K
KKKK
K
K
 
sendo A a matriz, em que cada coluna j ( )n,,2,1j K= é constituída pelas coordenadas do 
vector ( )jeϕ
1e
 relativamente à base { , a matriz da aplicação linear em relação 
às bases { } e{ . Designa-se, em geral, A por 
}mf,
}
21 ,f,f K
mf,
ϕ
n2 e,,e, K 21 ,f,f K ( )}f{},,M iϕ e{ j ou, 
apenas, por . ( )ϕM
 
 Observe-se agora o seguinte: seja Ex∈ e suponhamos que pretendemos determinar a 
imagem de x pela aplicação linear ϕ . Como { }n21 e,,e,e K é uma base de E, podemos 
escrever 
 33
 
nn2211 eeex α++α+α= L . 
Logo, atendendo a que ϕ é uma aplicação linear, podemos obter sucessivamente o seguinte: 
( ) ( )
( ) ( ) ( )
,fa 
fa 
fafafa 
eee 
eeex
m
1i
i
n
1j
jij
n
1j
m
1i
iijj
m
1i
iinn
m
1i
i2i2
m
1i
i1i1
nn2211
nn2211
∑ ∑
∑ ∑
∑∑∑
= =
= =
===






α=
α=
α++α+α=
ϕα++ϕα+ϕα=
=α++α+αϕ=ϕ
L
L
L
 
Mas e, portanto, representa-se de maneira única como combinação linear dos 
vectores f da base de F, 
( ) Fx ∈ϕ
21 ,f, mf,K
( ) ∑
=
β=β++β+β=ϕ
m
1i
iimm2211 ffffx L . 
Consequentemente, tem-se 
∑
=
α=β
n
1j
jiji a ( )m,,2,1i K= 
e podemos escrever 












α
α
α












=












β
β
β
n
2
1
mn2m1m
n22221
n11211
m
2
1
 
aaa
aaa
aaa
M
K
KKKK
K
K
M
 
 
Observação: Pelo que vimos anteriormente, fixadas as bases em E e F, a aplicação linear ϕ 
fica bem definida pela matriz . ( )ϕM
 
Teorema 3.19: Sejam E e F espaços vectoriais, de dimensões n e m, respectivamente, sobre 
um corpo K. A aplicação que associa a toda a aplicação Ψ ∈ϕ L a matriz 
correspondente é uma aplicação bijectiva do espaço vectorial L no espaço 
vectorial , isto é, L 
( F,E
( )F,E
)
( )ϕM
( )n,mM K :Ψ ( )F,E → ( )n,mM K , tal que ( ) ( )ϕ=ϕΨ M , é bijectiva. 
 
 Deste teorema podemos concluir que a cada aplicação linear está associada uma matriz 
e a cada matriz está associada uma aplicação linear. Assim, a característica de uma aplicação 
linear é igual à característica da matriz que lhe está associada. Mais, a característica de uma 
matriz é igual à dimensão do subespaço vectorial ( )Eϕ , sendo ϕ a aplicação linear que lhe 
está associada. 
 
 
Exercício: Seja f IR:
3 
→ IR
2
 tal que ( ) ( )zy,yxz,y,xf −−= , uma aplicação linear. 
a) Determine a matriz de f relativamente às bases canónicas de IR
3
 e IR
2
. 
 34
 
b) A aplicação f tem inversa? Justifique. 
c) Calcule , usando: ( 3,2,1f )
i) a definição de f; 
ii) a matriz de f. 
 
 
Matrizes de Mudança de Base 
 
 Seja E um espaço vectorial sobre um corpo K. Suponhamos que E é de dimensão n e 
sejam 
{ }n21 e,,e,e K e { }n21 e,,e,e ′′′ K 
duas bases de E. 
 Como todo o vector de E se pode representar como combinação linear única dos 
vectores da base, podemos escrever 
 
( ),n,1,2,j et 
etetete
n
1i
iij
nnj2j21j1j
K
L
==
+++=′
∑
=
 
e obter a matriz 












=
nn2n1n
n22221
n11211
ttt
ttt
ttt
T
L
LLLL
L
L
, 
cuja coluna j é formada pelas coordenadas de e j′ em relação à base { }n21 e,,e,e K . Esta matriz 
denomina-se de matriz de transformação, matriz de mudança de base ou matriz de 
passagem da base para a base { n21 e,,e,e K } { }n2 e,,e,1e ′′′ K . 
 Pode considerar-se T como a matriz da aplicação identidade em E relativamente às 
bases e { }n21 e,,e,e ′′′ K { }n21 e,,e,e K , isto é, 
( )}e{},e{,idMT ijE ′= . 
 
 Seja x um vector de E. Então podemos escrever 
 
∑
=
α=α++α+α=
n
1i
iinn2211 eeeex L 
e 
∑
=
′β=′β++′β+′β=
n
1j
jjnn2211 eeeex L . 
Logo, 
∑ ∑∑ ∑∑
= == ==






β=β=′β=
n
1i
i
n
1j
jij
n
1j
n
1i
iijj
n
1j
jj etetex . 
Consequentemente, devido à unicidade das coordenadas do vector x relativamente à base 
, tem-se { }n21 e,,e,e K
 35
 
∑
=
β=α
n
1j
jiji t 
ou 
β=α T , 
onde designa a matriz coluna e α [ Tn1 αα L ] β a matriz coluna [ ] Tn1 ββ L . 
 
 Analogamente, se T designar a matriz quadrada de ordem n cuja coluna j é formada 
pelas coordenadas de e relativamente à base 
′
j { }n21 e,,e,e ′′′ K , isto é, se T é a matriz de 
passagem da base {
′
}n1 e,e ′2 , e,′′ K para a base { }n2 e,,e K1,e , tem-se 
α′=β T . 
 Combinando estas duas relações, tem-se 












α
α
α
′⋅=












β
β
β
=












α
α
α
n
2
1
n
2
1
n
2
1
TTT
MMM
 
e também 












β
β
β
⋅′=












α
α
α
′=












β
β
β
n
2
1
n
2
1
n
2
1
TTT
MMM
. 
Então , isto é, é a matriz inversa de T, ou seja TnITTTT =⋅′=′⋅ T′
1T−=′ . 
 
 
 Considere-se agora uma aplicação linear ∈ϕ L ( )F,E e vejamos que alterações 
ocorrem na matriz de ϕ quando se mudam as bases de E e F. 
 
 
Teorema 3.20: Sejam e { }n21 e,,e,e K { }n21 e,,e,e ′′′ K duas bases de E e T a matriz de 
passagem da base { }n21 e,,e, Ke para a base { }n2 e,,e1,e ′′′ K . Sejam { } e 
 duas bases de F e S a matriz de passagem da base 
m21 f,,f,f K
{ m21 f,,f,f ′′′ K } { }mf,21 ,f,f K para a base 
. Seja A={ }m21 f,,f,f ′′′ K ( )}f{},e{, ijϕM e A′= ( )}f{ i},e{, jM ′′ϕ . Então podemos afirmar que 
TASA 1 ⋅⋅=′ − . 
 
 
 As matrizes A e , do tipo A′ nm× , por satisfazerem à relação ou à 
relação equivalente , com S e T matrizes regulares, de ordem m e n 
respectivamente, dizem-se matrizes equivalentes. 
TASA 1 ⋅⋅=′ −
1TAA −⋅′S ⋅=
 É óbvio que A e têm a mesma característica. No caso particular em que A′ ,FE = 
isto é, no caso em que ∈ϕ L , tem-se ( E,E )
TATA 1 ⋅⋅=′ − , 
 36
 
em que T é a matriz de passagem da base { }n21 e,,e,e K para a base { }n21 e,,e,e ′′′ K . 
 As matrizes A e satisfazendo à relação AA′ TAT 1 ⋅⋅=′ − ou à equivalente 
 em que T é regular, dizem-se matrizes semelhantes. ,TATA 1−⋅′⋅=
 
Exercício: Sejam E e F dois espaços vectoriais reais e { }3211 e,e,eB = e bases de 
E e F, respectivamente. Seja a aplicação linear tal que 
{ 211 f,fB =′ }
)
FE:f →
( ) 





=′
011
101
B,B,fM 11 . 
Determine ( 22 B,B,fM ′ , onde { }32121212 eee,ee,eeB +++−= e { }2212 f,f2fB −+=′ são 
bases em E e F, respectivamente. 
 
Valores Próprios e Vectores Próprios 
 
Definição 3.21: Seja E um espaço vectorial sobre um corpo K e ϕ um endomorfismo de E. 
Um escalar λ é dito valor próprio de ϕ se existe algum vector em E tal que 
. Chama-se vector próprio de 
0x ≠
( ) xx λ=ϕ ϕ associado ao valor próprio λ a todo o vector não 
nulo tal que . Ex∈ ( ) xx λ=ϕ
 
 
Definição 3.22: Seja A uma matriz quadrada de ordem n. Um escalar λ é dito valor próprio 
de A se existe alguma matrizcoluna X 0≠ , ( )1,nMX K∈ , tal que . Chama-se 
vector próprio de A associado ao valor próprio 
XAX λ=
λ a toda a matriz não nula tal 
que . 
( 1,nM K )X∈
XAX λ=
 
 
 Evidentemente, a definição anterior é um caso particular da definição 3.21. Pois, a 
cada aplicação linear está associada uma matriz e basta designar ( )1,nM K por E para que 
 seja linear. AXX a
 
 
 
Exemplos: 
1. Se 





=
21
02
A , 2=λ e , temos 





=
1
0
X XAX λ= . 
2. Sejam , 










−
−=
521
1243
402
A 01 =λ , 12 =λ , 23 =λ , 









−
=
1
23
2
X1 , e 
, com . Então 










α
α−
= 0
4
X2





β
β
0
IR, ∈βα





=
2
X3 iiXiAX λ= , para i 3,2,1= . 
 
 
Teorema 3.23: O conjunto dos vectores próprios de ∈ϕ L ( )E,E
Iλ−ϕ
 associado a um mesmo 
valor próprio acrescido do vector nulo é o subespaço de E (chamado subespaço K∈λ N
 37
 
próprio de associado a e à sua dimensão chama-se multiplicidade geométrica do valor 
próprio λ ). 
ϕ λ
1 ,λ
 
 
Demonstração: Exercício. 
 
 
Teorema 3.24: Se os vectores próprios de um endomorfismo estão associados a 
distintos valores próprios , então os vectores são linearmente independentes. 
n1 x,,x K
n,λK
 
 
Demonstração: Exercício. 
 
 
Corolário 3.25: Um endomorfismo de um espaço vectorial de dimensão n tem, no máximo, n 
valores próprios distintos. 
 38
 
4 DETERMINANTES 
 
 
Antes de iniciarmos o estudo da teoria dos determinantes, estudaremos alguns 
conceitos relacionados com permutações, essenciais à compreensão da dita teoria. 
 
 
Definição 4.1: Sejam n um número natural e { }n,,2,1A K= . Chama-se permutação de A a 
qualquer aplicação bijectiva de A em A. 
 
 
Observações: 
1. O número de permutações de n elementos é igual a . !n
2. Designaremos por o conjunto de todas as permutações de n elementos. (Veja a 
observação da página 2). 
nS
 
 
Exemplos: 
1. As permutações que pertencem a S são: 4






4321
4321






1324
4321
, , , , , 
, etc. 






3421
4321






4231
4321






4312
4321






2341
4321
2. As permutações 






421536
654321
 e 

 


 463125
654321
pertencem a S . 6
 
 
 É vulgar escrever-se ( em vez de , tornando a escrita mais 
simplificada. Repare-se que a escrita simplificada de uma permutação não é de forma alguma 
ambígua. 
)
)
)
1 ,3 ,2 





132
321
 
 
Teorema 4.2: ( é um grupo, onde o é a operação binária composição de aplicações. o ,Sn
 
 
Obs.: O grupo não é necessariamente comutativo. ( o ,Sn
 
Exemplo: Em S , 3






=











213
321
312
321
231
321
o 
e 
 39
 






=











132
321
231
321
312
321
o 
 
 
Definição 4.3: Uma transposição é uma permutação σ de S tal que n ( ) ji =σ e , para 
, e σ , 
( ) ij =σ
ji ≠ ( ) kk = j,ik ≠∀ . 
 
 
Exemplo: 
1. A permutação 

 pode simplesmente escrever-se na forma , isto é, 


 24351
54321 ( 5 ,2 )
)
 
( )5 ,2
24351
54321
=





. 
2. Analogamente, podemos escrever 
( ) ( ) ( ) ( ) ( 5 ,2 4 ,3 ,1
21453
54321
3 ,4 1 ,3 5 ,2 =





= 
 
Nota: Uma transposição é inversa de si própria. 
 
 
Teorema 4.4: Qualquer permutação de S ( ) é composição de transposições, isto é, se 
 é um permutação, então 
n 2n ≥
kσ 21 τττ=σ oo oL , com ,k,,1i ,i K=τ transposições. 
 
 
Exemplos: 
1. Em S , 2
( 2 ,1
12
21
=




 ) e ( ) ( )1 ,2 2 ,1
21
21
=





2. Em S , 5
( ) ( ) ( ) ( )3,4 2,3 1,24 ,3 ,2 ,1
51432
54321
==





. 
 
 
 
Definição 4.5: Diz-se que uma permutação é par se é decomponível num número par de 
transposições e ímpar se é decomponível num número ímpar de transposições. 
 
 
Observação: Embora a decomposição de uma permutação em composição de transposições 
não seja única, a paridade do número de transposições em cada decomposição é sempre a 
mesma. Isto é, se uma permutação σ é tal que k21 τττ=σ oLoo e m21 πππ=σ oLoo , 
então ou k e m são números pares ou k e m são números ímpares. 
 
 40
 
Exemplo: A permutação 

 é par já que, por exemplo, 

. 


 1423
4321 ( )( 3,1 4,1
1423
4321
=



)
 
 
Teorema 4.6: Uma permutação não pode ser simultaneamente par e ímpar. 
 
 
 Além da definição, existe um outro método, mais prático, para a determinação da 
paridade de uma permutação. Esse método é descrito no teorema que se segue. Antes, defina- 
-se para uma permutação , tal que nS∈σ r21 τττ=σ oLoo
1
, o seu sinal como ε . Se 
 é par, ; se é ímpar, 
( ) ( )r1−=σ
σ ( ) 1=σε σ ( ) −=σε . 
 
 
Teorema 4.7: Para qualquer permutação nS∈σ , tem-se ( ) ( ) ( ) , em que ν é o 
número de pares ( tais que 1
σν−=σε 1 ( )σ
)j,i nji ≤<≤ e ( ) ( )ji σ>σ . 
 
 
 Dizemos que o número ν (definido no teorema anterior) é o número de inversões 
de σ . 
( )σ
 
Observação: É óbvio que uma permutação é par ou ímpar se o seu número de inversões é, 
respectivamente, par ou ímpar. 
 
Exercício: Determine a paridade das seguintes permutações a partir do teorema anterior: 
a) b) 

 





3124
4321



 562143
654321
 
Teorema 4.8: Para , tem-se: 2n ≥
1. Se é uma transposição, então nS∈τ ( ) 1−=τε ; 
2. ( ) ( ) (θεσε )=θσε∈θσ∀ o,S, n . 
 
 
Corolário 4.9: Se σ , então nS∈ ( ) ( )σε=σε −1 . 
 
 
Exercício: Determine a inversa da permutação 






=σ
653214
654321
 
e verifique que ( ) ( )σε=σε −1 . 
 
 
 
 
 
 
 41
 
Funções Multilineares 
 
Definição 4.10: Seja K um corpo e nnn KKK ××× L o espaço vectorial constituído pelo 
produto cartesiano de n factores nK . Chama-se função n-linear ( ou multilinear) sobre nK 
a uma aplicação 
KKKK:f nnn →××× L 
tal que 
( ) ( ) ( )ni1ni1nii1 x,,y,,xfx,,x,,xfx,,yx,,xf KKKKKK β+α=β+α , 
para , , isto é, f é linear em relação a cada um dos n 
argumentos. 
ni1 ≤≤ nn1 Kx,,x,K, ∈∀∈βα∀ K
 
Observação: A condição 
( ) ( ) ( )ni1ni1nii1 x,,y,,xfx,,x,,xfx,,yx,,xf KKKKKK β+α=β+α 
é equivalente a: 
( ) ( ) ( )ni1ni1nii1 x,,y,,xfx,,x,,xfx,,yx,,xf KKKKKK +=+ 
e 
( ) ( )ni1ni1 x,,x,,xfx,,x,,xf KKKK α=α . 
 
Exemplos: 
1. IR :f 2 × IR 2→ IR , tal que, ( ) ( )( ) bdacd,c,b,af += é bilinear. 
2. IR :f 2 IR × 2→ IR , tal que, ( ) ( )( ) bcadd,c,b,af −= é bilinear. Pode provar-se que 
( ) ( )( ) ,c,bf d,a é a área do paralelogramo definido pelos vectores ( )b,a e . ( )d,c
 
 
Pode facilmente verificar-se que aplicação bilinear do exemplo 2. satisfaz as 
propriedades: ( ) ( )( ) 0b,a,b,af = e ( ) ( )( ) ( ) ( )( )b,a,d,cfd,c,b,af −= , ao contrário da aplicação 
bilinear do exemplo 1.. Estas propriedades sugerem a seguinte definição: 
 
 
Definição 4.11: Uma função n-linear f diz-se alternada se para ,xx ji = com , ji ≠
( ) 0x,,x,,x,,xf nji1 =KKK , 
isto é, anula-se sempre que dois dos vectores sejam iguais. 
 Uma função n-linear f diz-se anti-simétrica se 
( ) ( )nij1nji1 x,,x,,x,,xfx,,x,,x,,xf KKKKKK −= , 
isto é, uma troca de sinal corresponde a uma troca de posição de dois vectores. 
 
 
Teorema 4.12: Sejam K um corpo de característica diferente de 2 (isto é, um corpo que 
satisfaça a propriedade: 0x0xx =⇒=+ ) e uma função n-linear. 
Então as seguintes afirmações são equivalentes: 
KKKK:f nnn →××× L
a) f é anti-simétrica. 
b) f é alternada. 
c) Se e são linearmente dependentes, então ix jx ( ) 0x,,x,,x,,xf nji1 =KKK . 
 42
 
Observação: Se uma função n-linear é anti-simétrica e σ é uma permutação de S , então n
( ) ( ) ( )( ) ( ) ( )n21n21 x,,x,xfx,,x,xf KK σε=σσσ . 
 
 A partir de agora consideraremos sempre um corpo K de característica diferente 2. O 
corpo dos reais ou dos complexos são considerados corpos de característica zero (ou infinita). 
 Seja A uma matriz quadrada de ordem n sobre K, isto é, 












=
nn2n1n
n22221
n11211
aaa
aaa
aaa
A
L
LLLL
L
L
. 
É evidente que uma matriz pode identificar-secom um elemento de nnn KKK ××× L
n
, 
bastando identificar cada uma das suas linhas, L como elementos de ,L,,L, n21 K K . Assim, 
no contexto de podemos definir a seguinte função n-linear: ( n,nMK )
 
 
Definição 4.13: Chama-se determinante de ( )n,nMA K∈ à função n-linear alternada das 
linhas de A definida por: 
[ ] ( ) ( ) ( ) ( )∑
∈σ
σσσ ⋅σε===
nS
nn2211ij aaaAAdetaA La . 
 
 
Observação: O determinante de uma matriz quadrada não é mais do que a soma de todos os 
produtos de n elementos da matriz, correspondentes a cada uma das permutações de S , 
afectados pelo sinal da permutação correspondente. Assim, o número de parcelas é igual a n . 
n
!
 
 
 
]
A partir da definição, podemos facilmente constatar que: 
 
- Se A , então . [ 11a= 11aAdet =
 
- Se A , então det





=
2221
1211
aa
aa
21122211 aaaaA −= , já que S , sendo a 
permutação par e a permutação ímpar. 


















=
12
21
,
21
21
2






21
21






12
21
Assim, o determinante de uma matriz quadrada de ordem 2 é igual à diferença entre o 
produto dos elementos principais e o produto dos elementos da diagonal secundária. 
- Se A , então 










=
333231
232221
131211
aaa
aaa
aaa
 43
 
322311332112312213322113312312332211
333231
232221
131211
aaaaaaaaaaaaaaaaaa
aaa
aaa
aaa
−−−++= , 
já que as permutações de S são: 3






321
321
, , , , , . 





132
321






213
321






123
321






312
321






231
321
 Em termos práticos, o cálculo do determinante de uma matriz quadrada de ordem 3 
pode ser efectuado usando a Regra de Sarrus: as parcelas de sinal positivo do 
determinante são referentes ao produto dos elementos principais e aos produtos dos 
elementos que se dispõem nos vértices dos dois triângulos cuja base é paralela à diagonal 
principal, e as parcelas de sinal negativo do determinante são referentes ao produto dos 
elementos da diagonal secundária e aos produtos dos elementos que se dispõem nos 
vértices dos dois triângulos cuja base é paralela à diagonal secundária. Observe o 
esquema: 
333231
232221
131211
aaa
aaa
aaa
 
 
Exercício: Calcule o determinante das seguintes matrizes: 
a) b) c) 




−
13
52










−
−
−
331
121
402










−
−−
123
242
121
 
 No cálculo do determinante de uma matriz de ordem superior ou igual a 4 não é usual 
aplicar-se a definição de determinante, pois torna-se um cálculo fastidioso. No entanto, 
iremos estudar propriedades que facilitam esses cálculos. Antes dessas propriedades, 
estudemos agora as propriedades básicas dos determinantes. 
 
Propriedades dos Determinantes: 
 Seja A uma matriz quadrada de ordem n. 
1. (n-linear) Se uma fila de A se decompuser numa soma de filas, o determinante de A é 
igual à soma dos determinantes de duas matrizes em que nessa fila se usa uma parcela de 
cada vez, mantendo-se as restantes. Isto é, 
[ ] [ ] [ ]ni1ni1nii1 F,,F,,FdetF,,F,,FdetF,,FF,,Fdet KKKKKK ′+=′+ . 
2. (n-linear) Se multiplicarmos uma fila de A por um escalar α , então o determinante vem 
multiplicado por , isto é, α
[ ] [ ]ni1ni1 F,,F,,FdetF,,F,,Fdet KKKK α=α . 
 44
 
Assim, também temos que AA nα=α . 
3. (Anti-simetria) Ao trocarmos entre si duas filas paralelas de A, o determinante troca de 
sinal, isto é, 
[ ] [ ]nij1nji1 F,,F,,F,,FdetF,,F,,F,,Fdet KKKKKK −= . 
4. (Função alternada) Se as filas de A são linearmente dependentes, então o determinante 
de A é igual a zero. 
5. Não se altera o determinante de A quando a uma fila se adiciona uma combinação linear 
de outras filas paralelas. Basta observar que: 
[ ] [ ] [ ]njj1ni1nji1 F,,F,,F,,FdetF,,F,,FdetF,,FF,,Fdet KKKKKKK α+=α+ . 
6. . Pois, representando a por a , cada parcela de det é da forma AdetAdet T = ji
T
ij
TA
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )nn111nn11nn11T nnT 11 1111 aaaaaaaa −−−− σσ−σσσσσσ σε=σε=σε=σε LLLL , 
isto é, corresponde a outro termo de , com o mesmo sinal. Adet
7. ∗== AdetAdetAdet . 
8. Se A é uma matriz triangular, então 
nn2211 aaaAdet L= . 
Em particular, .1Idet =
9. A característica da matriz A é inferior à ordem se, e somente se, , isto é, A é 
uma matriz singular se, e somente se, det
0Adet =
0A = . Evidentemente, A é regular se, e somente 
se, . 0Adet ≠
10. BABA ⋅=⋅ . 
11. Se A é regular, então 
A
1A 1 =− . 
12. A característica da matriz A é igual à mais alta ordem das submatrizes quadradas de A 
com determinante não nulo. 
 
Exercício: Sejam A e B duas matrizes quadradas de ordem 2 tais que . 
 Calcule 
Bdet2Adet −==
( )( )[ ]T1AB2det − . 
 
 
Complementos Algébricos 
 
Definição 4.14: Seja A uma matriz quadrada de ordem n. Chama-se menor de ordem m de A 
ao determinante de qualquer submatriz de A de ordem m ( nm < ). 
 Dois menores dizem-se complementares se num deles estão representadas 
exactamente as linhas e colunas de A que não figuram no outro. 
 Um menor diz-se principal se a sua diagonal tem somente elementos principais da 
matriz inicial. 
 Um menor de A diz-se par ou ímpar conforme é par ou ímpar a soma dos índices das 
linhas e das colunas de A nele representadas. 
 45
 
 Dado um menor de A, o seu complemento algébrico é o produto do seu menor 
complementar pelo respectivo sinal ( )ω−1 , onde ω é a soma dos índices que determinam a 
paridade do menor. 
Notação: Sendo um elemento de A, representaremos por o complemento algébrico do 
menor 
ija ijA
ija . 
 
Exemplo: Seja . Um seu menor é 
















−
−
−=
12534
20101
13410
02100
45031
A
234
001
200
−
 e é par, porque 
18421542 =+++++=ω . O seu menor complementar é 
14
40
−
 e o complemento 
algébrico é ( )
14
40
14
40
−
=
−
ω1− . 
 
 
Exercício: Determine o complemento algébrico do menor 12a , sendo a elemento da matriz 
A do exemplo anterior. 
12
 
 
Propriedades: 
a) Um menor principal é sempre par. 
b) Um menor e o seu complementar têm a mesma paridade. 
 
 
Depois destes conceitos, estamos em condições de estudar um teorema muito 
importante que permite calcular mais facilmente o determinante de uma matriz de ordem 
superior ou igual a quatro. 
 
 
Teorema 4.15: (Teorema de Laplace) Um determinante de uma matriz é igual à soma dos 
produtos dos elementos de uma fila pelos respectivos complementos algébricos. 
 
 
Exercício: Seja A . Utilize o teorema de Laplace para calcular 












−−
−−
−
=
1243
1321
0420
2112
A . 
 
 
Nota: Na aplicação do teorema de Laplace convém escolher uma das filas com mais zeros (se 
existirem). No entanto, podemos sempre fazer surgir zeros através da utilização de operações 
elementares que não alterem o valor do determinante. 
 
 
 46
 
Teorema 4.16: A soma dos produtos dos elementos de uma fila pelos complementos 
algébricos dos elementos homólogos de outra fila paralela é nula, isto é, 
hnin2h2i1h1i AaAaAa0 +++= L ( i h≠ ) 
ou 
nknjk2j2k1j1 AaAaAa0 +++= L ( kj ≠ ). 
 
Demonstração: Essa soma é igual ao determinante da matriz obtida substituindo a linha i pela 
linha h (ou coluna j pela coluna k). Desta forma, a matriz fica com duas filas iguais e portanto 
o determinante é nulo. 
 
 
 Este teorema e o teorema de Laplace permitem escrever: 
∑∑
==
==
n
1i
ijij
n
1j
ijij AaAaA e 0 , )hi e kj( AaAa
n
1i
ikij
n
1j
hjij ≠≠== ∑∑
==
isto é, usando o símbolo de Kronecker, 
AAa ih
n
1j
hjij δ=∑
=
 ou AAa jk
n
1i
ikij δ=
=
∑ . 
 
Teorema 4.17: (Teorema de Laplace Generalizado) Um determinante de uma matriz é 
igual à soma dos produtos dos menores de ordem m contidos em m filas paralelas pelos 
respectivos complementos algébricos. 
 
 
Exercício: Seja . Utilize o teorema de Laplace generalizado para 
calcular 
















−
−
−=
12534
20101
13410
02100
45031
A
A . 
 
 
Definição 4.18: Seja A uma matriz quadrada. Chama-seadjunta de A à matriz que desta se 
obtém substituindo cada elemento pelo seu complemento algébrico e transpondo a matriz 
resultante. 
 
Notação: A adjunta de uma matriz A é representada por adj A ou . Â
 
De acordo com a definição anterior, se [ ]ijaA = , então a matriz adjunta de A é tal 
que adjA . [ ] [ jiTij AA == ]
 
 
Exercício: Determine a matriz adjunta da matriz . 










−
−=
011
001
210
A
 
 47
 
 
Teorema 4.19: Seja A uma matriz quadrada de ordem n regular. Então IAadjAA ⋅=⋅ e 
1nAadjA −= . 
 
 
Demonstração: Basta observar que multiplicando A e , obtemos: adjA
[ ] ,badjAA ij=⋅ com ∑ δ==
k
ijjkikij AAab e [ ] ,cA ij=⋅adjA com ∑ δ==
k
ijkjkiij AaAc . 
Assim, podemos concluir que IAA ⋅=⋅adjAadjAA =⋅ . E desta fórmula, usando as 
propriedades dos determinantes e o facto de A ser regular, temos que 
1nn AadjAAadjAAIAadjAA −=⇔=⋅⇔⋅=⋅ 
 
 
Corolário 4.20: Se A é uma matriz quadrada regular, então 
adjA
A
1A 1 ⋅=− . 
 
Demonstração: Usando-se o teorema 4.19, resulta de imediato que 
IAadjA
A
1adjA
A
1A =⋅






⋅=







⋅⋅ . 
 
 
Este corolário dá-nos assim um novo processo para calcular a inversa de uma matriz 
regular. 
 
 
Exercício: Utilizando a última propriedade, determine, caso exista, a matriz inversa da matriz 










−
−=
011
001
210
A . 
 
 
 
Resolução de Sistemas de Equações Lineares Usando a Teoria dos Determinantes 
 
Seja 





=+++
=+++
mnmn22m11m
1nn1212111
bxaxaxa
 
bxaxaxa
L
M
L
, 
um sistema de m equações lineares com n incógnitas, sobre um corpo K. Já sabemos que este 
sistema é equivalente à equação matricial AX B= , com 
 48
 










=
mn1m
n111
aa
aa
A
L
LLL
L
, e . 










=
n
1
x
x
X M










=
m
1
b
b
B M
 
1º Caso: Se , então o sistema é possível e determinado e a matriz A é 
quadrada. Assim, a matriz A é invertível o que implica que o seu determinante é não nulo. 
Logo, pelo Corolário 4.20, 
(Acarnm == )
( ) BadjA
A
1XBAXBAAXABAX 111 ⋅=⇔=⇔=⇔= −−− , 
isto é, 










⋅










⋅=










n
1
nnn1
1n11
n
1
b
b
AA
AA
A
1
x
x
M
L
LLL
L
M , 
e portanto, 
( )
A
aba
aba
bAbAbA
A
1x nnn1n
n1111
nni2i21i1i
LL
MLMLM
LL
L =+++= , 
onde os termos independentes aparecem na coluna i, com n,,2,1i K= . 
 
Regra de Cramer: Um sistema de n equações com n incógnitas com o determinante da 
matriz dos coeficientes não nulo é possível e determinado e o valor de cada incógnita é o 
inverso do determinante da matriz dos coeficientes multiplicado pelo determinante da matriz 
que se obtém a partir da matriz dos coeficientes substituindo os coeficientes dessa incógnita 
pelos correspondentes termos independentes. 
 
 
 Os sistemas deste primeiro caso são usualmente denominados por sistemas de 
Cramer. 
 
 
Exercício: Resolva, se possível, o seguinte sistema usando a regra de Cramer: 





=+
=−
=++
0yx
2zx
1zyx
. 
 
2º Caso: Se , então o sistema ( ) nmAcar <=





=+++
=+++
mnmn22m11m
1nn1212111
bxaxaxa
 
bxaxaxa
L
M
L
 
é possível indeterminado e é equivalente a 
 49
 





−−−=+++
−−−=++
++
++
nmn1m1m,mmmmm22m11m
nn11m1m11mm1111
xaxabxaxaxa
 
xaxabxaxa
LL
M
LL
 
Este último sistema pode resolver-se pela regra de Cramer, pois, relativamente às incógnitas 
principais, podemos considerar que estamos na presença de um sistema de Cramer. 
 Sendo o número de incógnitas principais igual a ( ) mACar = (as não principais são 
), chama-se determinante principal do sistema ao determinante dos coeficien-
tes das incógnitas (escolhidas para) principais. É óbvio que 
( )Acarn − ∆
∆ é não nulo, de ordem ( )ACar . 
 
3º Caso: . Por condensação, a matriz ampliada do sistema transforma-se em ( ) mrACar <=













β
β
−−−−−−
βα
βα
βα













−−−−−−−−
α
αα
ααα
+
m
1r
rrn
2n2
1n1
rr
r222
r11211
|0 0|
||
|0 0|
||
||
||
||
||
00
00
00
0
LL
MLL
LL
L
MLL
L
L
LL
LLLL
LL
L
LOOL
L
L
 
Assim, para este caso temos que considerar r incógnitas e equações principais, que definem 
um determinante principal, não nulo, e rn − incógnitas não principais e rm − equações 
não principais. Nestas circunstâncias, sabemos que o sistema é possível se, e somente se, 
. 0m2r1r =β==β=β ++ L
Seja o determinante da matriz obtida a partir da matriz de determinante s∆ ∆ 
acrescentando-lhe uma última linha, constituída pelos coeficientes das incógnitas principais 
da equação de ordem s não principal, e uma última coluna constituída pelos termos 
independentes dessas 1r + equações, isto é, 
s
r
1
sr1s
rr1r
r111
s
b|
|
b|
|
b|
 
aa
aa
aa
−−−−−−−−
=∆
M
L
L
LLL
L
. 
Chama-se a determinante característico. s∆
Como as operações elementares não alteram o determinante de uma matriz caso este 
seja nulo, então 
0
|
|
|
|
|
 
00
00
b|
|
b|
|
b|
 
aa
aa
aa
s
r
1
rr
r111
s
r
1
sr1s
rr1r
r111
s =
β
−−
β
β
−−−−−−
α
αα
=
−−−−−−−−
=∆
M
L
LOL
L
M
L
L
LLL
L
 
se, e somente se, , isto é, se, e somente se, cada determinante característico é nulo. Em 
conclusão: 
0s =β
 50
 
 
Teorema 4.21: (Teorema de Rouché) Um sistema de equações lineares é possível se, e 
somente se, ou não existem determinantes característicos ou, existindo, são todos nulos. 
 
 
Exemplos: 
1. Considere o seguinte sistema: 





=++
=++−
=−+
3zy3x2
1z2yx
2zy2x3
. 
Verifique que 
0
132
211
123
=−
−
. 
Um determinante principal é, por exemplo, 05
11
23
≠=
−
=∆ . Um outro é, por exemplo, 
05
21
12
≠=
−
. Neste caso, existe um determinante característico: 
332
111
223
3 −=∆ 
e . Logo, o sistema é possível e indeterminado. 03 =∆
2. Considere o seguinte sistema: 







=+−
−=+−
=+−
=+
2zyx3
1zy2x
0z2y3x4
1yx2
. 
A matriz dos coeficientes é: 












−
−
−
113
121
234
012
. 
 
Observe, por exemplo, que: 
1. 02 ≠ ; 
2. 010
34
12
≠−=
−
; 
 51
 
3. 0
121
234
012
=
−
− . 
4. 0
113
234
012
=
−
− 
 
Logo, a característica da matriz dos coeficientes é 2 e um determinante principal é 
34
12
−
=∆ . Como, 
 
,05
121
034
112
3 ≠=
−−
−=∆ 
então o sistema é impossível. 
 
 
 
Neste último exemplo foi usado o seguinte resultado: 
 
 
Teorema 4.22: A característica de uma matriz é r se, e somente se, contém um menor de 
ordem r não nulo e todos os de ordem 1r + que dele se obtêm juntando uma linha e uma 
coluna da matriz são nulos. 
 
 
Sistemas Homogéneos 
 
 Dado que um sistema homogéneo AX 0= é sempre possível, tendo sempre a solução 
, então, quando a matriz dos coeficientes é quadrada, o sistema é determinado se, e 
somente se, 
0X =
0A ≠ . Será indeterminado se, e somente se, 0A = . 
 
 
 
Cálculo de Valores Próprios 
 
 Recordemos que o escalar é valor próprio de um endomorfismo de um espaço 
vectorial se existe um vector tal que 
λ
0
ϕ
x ≠ ( ) xx λ=ϕ . Equivalentemente, se A é a matriz da 
aplicação linear , em relação a certa base previamente fixada no espaço vectorial, temos a 
equação matricial AX
ϕ
Xλ= ou ( ) 0XIA =λ− , isto é, um sistema homogéneo que deve ter 
outras soluções além da nula, ou seja, deve ser indeterminado. Logo, a matriz IA λ− é 
singular (não regular), o que é equivalente a 0IA =λ− . À equação 0IA λ− = , cujas raízes 
são os valores próprios de A, chama-se equação característica. Chama-se polinómio 
característico ao polinómio IA λ− em λ de grau igual à ordem de A. Para este polinómio é 
válido o seguinte teorema: 
 52
 
Teorema 4.23: Um polinómio característico não depende da matriz que representa o 
endomorfismo de um espaço vectorial. ϕ
 
Demonstração: Sejam e { }( )ie,MA ϕ= { }( )ie,MB ′ϕ= , com { }ie e { }ie′ bases do espaço 
vectorial. Sabemos que , em que P é a matriz de passagem de { para {PAPB 1 ⋅⋅= − }ie }ie′ . 
 Vamos mostrar que IAIB λ−=λ−

Outros materiais