Buscar

Apostila

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 3, do total de 221 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 6, do total de 221 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 9, do total de 221 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Prévia do material em texto

BRUNO DIAS AMARO
NOTAS DE AULA
ALGEBRA LINEAR
CAMPO GRANDE
2020
i
.
ii
Apresentação
O presente texto tem como objetivo facilitar o acompanhamento da disciplina Álgebra
Linear, ministrada pelo Instituto de Matemática da UFMS. Ele foi elaborado e gentilmente
cedido pelos professores Roseli Arbach Fernandes de Oliveira e Luis Antonio Fernandes de
Oliveira, do Departamento de Matemática da Faculdade de Engenharia de Ilha Solteira,
da UNESP tomando como base, inicialmente, as notas de aulas da disciplina Álgebra
Linear ministrada ao longo dos anos para os três cursos de Engenharia e, depois do curso
de Licenciatura em Matematica. Por mim foram feitas apenas adaptações do texto para
os cursos da UFMS de Campo Grande.
Todas as sugestões que contribuam para tornar o texto mais claro e completo serão
bem vindas e por elas ficaremos muito gratos.
Bruno Dias Amaro
Campo Grande, segundo semestre de 2020.
iii
Sumário
Apresentação iii
1 Sistemas Lineares e Matrizes 1
1.1 Sistemas Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Resolução de Sistemas Lineares . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Matrizes Inversíveis. Sistemas de Cramer . . . . . . . . . . . . . . . . . . . 15
1.4.1 Matrizes Inversíveis . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.2 Sistemas de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.6 Determinantes de matrizes de ordem maior . . . . . . . . . . . . . . . . . . 29
1.7 Propriedades do determinante . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.8 Uma aplicação em cálculo de várias variáveis . . . . . . . . . . . . . . . . . 37
1.8.1 Coordenadas polares . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.8.2 Coordenadas esféricas . . . . . . . . . . . . . . . . . . . . . . . . . 38
2 Espaços Vetoriais 41
2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2 Espaços Vetoriais e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . 42
iv
Sumário Bruno Dias Amaro
2.3 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.4 Combinações Lineares
Espaços Vetoriais Finitamente Gerados . . . . . . . . . . . . . . . . . . . . 57
3 Base e Dimensão 66
3.1 Dependência Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.2 Base de um Espaço Vetorial Finitamente Gerado . . . . . . . . . . . . . . . 71
3.3 Determinação de Bases de um Subespaço do Rn . . . . . . . . . . . . . . . 80
3.4 Matriz de Mudança de Base . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4 Transformações Lineares 100
4.1 Aplicações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.2 Transformações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.3 Núcleo e Imagem de uma Transformação Linear . . . . . . . . . . . . . . . 113
4.4 Isomorfismos e Automorfismos . . . . . . . . . . . . . . . . . . . . . . . . . 118
4.5 Representação Matricial da Transformação Linear . . . . . . . . . . . . . . 132
4.5.1 Operações com Transformações Lineares . . . . . . . . . . . . . . . 132
4.5.2 Matriz de uma Transformação Linear . . . . . . . . . . . . . . . . . 135
4.5.3 Matriz de kF + G . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
4.5.4 Matriz da Transformação Composta . . . . . . . . . . . . . . . . . . 143
5 Espaços com Produto Interno 154
5.1 Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
5.2 Norma e Distância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
5.2.1 Aplicação da Desigualdade de Cauchy-Schwarz: ângulo entre veto-
res em um espaço euclidiano . . . . . . . . . . . . . . . . . . . . . . 161
5.3 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
v
Sumário Bruno Dias Amaro
5.4 Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
5.5 Isometrias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
5.6 Operadores Auto-Adjuntos e Espaços Hermitianos. . . . . . . . . . . . . . 180
6 Diagonalização de Operadores Lineares 183
6.1 Valores Próprios e Vetores Próprios . . . . . . . . . . . . . . . . . . . . . . 183
6.2 Diagonalização de Operadores . . . . . . . . . . . . . . . . . . . . . . . . . 191
6.3 Polinômio Minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
6.4 Aplicações da Diagonalização . . . . . . . . . . . . . . . . . . . . . . . . . 203
6.4.1 Potências de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . 203
6.4.2 Noções Sobre Séries de Matrizes . . . . . . . . . . . . . . . . . . . . 204
6.5 Operadores Diferenciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
6.5.1 Aplicação da Diagonalização: Sistemas de Equações Diferenciais
Ordinárias com Coeficientes Constantes . . . . . . . . . . . . . . . . 207
Referências Bibliográficas 215
vi
Capítulo 1
Sistemas Lineares e Matrizes
1.1 Sistemas Lineares
Definição: A equação α1 x1 + α2 x2 + ...+ αn xn = β, n ≥ 1, sendo xi ∈ R variáveis
e α1, α2, ..., αn, β ∈ R é chamada de equação linear sobre R, nas incógnitas x1, x2, ... ,
xn. Uma solução desta equação é uma n-upla de números reais (b1, b2, ..., bn) tal que
α1 b1 + α2 b2 + ...+ αn bn = β
Definição: Um sistema linear S é um conjunto de m equações lineares, cada uma com
n incógnitas (m, n ≥ 1), consideradas simultaneamente e descrito por
S :

α11 x1 + α12 x2 + ... + α1n xn = β1
α21 x1 + α22 x2 + ... + α2n xn = β2
......................................................
αm1 x1 + αm2 x2 + ... + αmn xn = βm
No caso em que β1 = β2 = ... = βm = 0, dizemos que o sistema S é homogêneo. Uma
solução desse sistema é uma n-upla (b1, b2, ... , bn) satisfazendo cada uma das m
equações do sistema.
1
Sistemas Lineares e Matrizes Sistemas Lineares
Exemplo: O sistema linear
S1 :

1 x1 + 1 x2 + 2 x3 = 9
2 x1 + 4 x2 − 3 x3 = 1
3 x1 + 6 x2 − 5 x3 = 0
é não-homogêneo e uma solução de S1 é (1, 2, 3) (verificar). Neste caso existe apenas
uma solução de S1. Já o sistema
S2 :

x + y + 2 z = 9
2 x + 4 y − 3 z = 1
4 x + 8 y − 6 z = 2
admite infinitas soluções, por exemplo, (35/2,−17/2, 0) e (12,−5, 1).
Definição: Um sistema linear S é
a. incompatível, se S não admitir solução;
b. compatível determinado, se S admitir uma única solução;
c. compatível indeterminado, se S admitir mais que uma solução.
Observação: No exemplo anterior S1 é compatível determinado enquanto que S2 é com-
patível indeterminado.
Observação: Todo sistema homogêneo é compatível pois (0, 0, ..., 0) é solução.
Um sistema S pode ser modificado por meio das chamadas de operações elementares
sobre S, descritas abaixo:
I. Permutar duas equações;
II. Multiplicar uma das equações por um número real não nulo;
III. Somar a uma das equações do sistema uma outra equação multiplicada por um
número real.
2
Sistemas Lineares e Matrizes Sistemas Lineares
Um sistema linear S1 obtido a partir de S por um número finito de operações elementares
é chamado de sistema equivalente a S, denotado por S1 ∼ S. Observemos que se S1 ∼
S, então toda solução de S1 é solução de S, e vice-versa. Além disso, se S for incompatível
então S1 também será incompatível.
Exemplo: Identifique as operações elementares que levaram o sistema
S1 :

x1 − x2 + x3 = 1
2 x1 − x2 + x3 = 4
x1 − 2 x2 + 2 x3 = 0
ao sistema equivalente
S2 :

x1 − x2 + x3 = 1
x2 − x3 = 2
0 = 1
O sistema S1 é compatível?
Solução:
x1 − x2 + x3 = 1 (E1)
2 x1 − x2 + x3 = 4 (E2) (−2E1 + E2) ∼
x1 − 2 x2 + 2 x3 = 0 (E3) (−E1 + E3)

x1 − x2 + x3 = 1 (E1)
x2 − x3 = 2 (E2) (E2 + E3) ∼
−x2 + x3 = −1 (E3)
∼

x1 − x2 + x3 = 1
x2 − x3 = 2, que é um sistema incompatível.
0 = 1
Note que: Quandoestivermos buscando um sistema equivalente a um dado sistema
linear S, em cada passo, chamaremos de Ei a i-ésima equação do sistema linear obtido no
passo imediatamente anterior.
3
Sistemas Lineares e Matrizes Sistemas Lineares
Definição: Dizemos que um sistema linear
S :

α1r1 xr1 + ...........................+ α1n xn = β1
α2r2 xr2 + ..............+ α2n xn = β2
...........................................
αkrk xrk + ...+ αkn xn = βk
0 xn = βk+1
com α1r1 6= 0, α2r2 6= 0, ..., αkrk 6= 0 e ri > 0 , é escalonado se, e somente se, 1 ≤ ri <
r2 < ... < rk ≤ n.
Observe que:
1. na 2a equação do sistema S acima, o coeficiente da variável xr1 é zero; dessa forma,
o número de coeficientes “iniciais”iguais a zero na 2a equação do sistema escalonado
S é maior que o número de coeficientes “iniciais”iguais a zero na 1a equação;
2. de um modo geral, num sistema escalonado o número de zeros “iniciais”em uma equa-
ção é sempre estritamente maior do que o número de zeros “iniciais”da equação
precedente.
Exemplos:
S1 :

x− y + z = 1
y − z = −1
z = 1/3
S2 :

2 x− y + z− t = 4
y − 2 z + t = 2
z− 2 t = 0
3 t = 4
; S3 :

2 x− y + z− t = 4
y − 2 z + t = 2
2 t = 0
Exemplo: Obtenha um sistema escalonado equivalente a
S :

x + y + 2 z = 9
2 x + 4 y − 3 z = 1
3 x + 6 y − 5 z = 0
através das operações elementares
4
Sistemas Lineares e Matrizes Resolução de Sistemas Lineares
Solução: (lembre que: depois do 1o passo, i-ésima equação significa i-ésima equação do
sistema linear obtido no passo imediatamente anterior e não do sistema linear inicial).
1. Somar a primeira equação, multiplicada por -2, com a segunda.
2. Somar a primeira equação, multiplicada por -3, com a terceira.
3. Multiplicar a segunda equação por 1/2.
4. Somar a segunda equação, multiplicada por -3, com a terceira.
5. Multiplicar a terceira equação por -2.
Exercício: Escalonar os sistemas
S1 :

5 x− 2 y + 2 z = 2
3 x + y + 4 z = −1
4 x − 3 y + z = 3
S2 :

3 x + 3 y − 2 z− t = 2
5 x + 2 y + z− 2 t = 1
2 x− y + 3 z− t = −1
1.2 Resolução de Sistemas Lineares
Discutir um sistema linear S significa classificá-lo em incompatível, compatível deter-
minado ou compatível indeterminado. Resolver um sistema linear S significa determinar
todas as suas soluções.
Após fazer o escalonamento de um sistema linear S de m equações e n incógnitas
chegaremos a uma das seguintes situações :
I. Numa das etapas do escalonamento obtemos
S
′
:

................................................
0.x1 + 0.x2 + ........+ 0.xn = βi, βi 6= 0
................................................
5
Sistemas Lineares e Matrizes Resolução de Sistemas Lineares
Como S′ é incompatível segue que S também é incompatível.
Exemplo 1:
S :

x + 2 y − z = 5
2 x− y + 3 z = 0
x − 3 y + 4 z = 2
Fazendo-se a seguinte sequência de operações:
1. Somar a 1a equação, multiplicada por -2, com a 2a equação.
2. Somar a 1a equação, multiplicada por -1, com a 3a equação.
3. Somar a 2a equação, multiplicada por -1, com a 3a equação.
obtemos a seguinte equivalência:
S ∼

x + 2 y − z = 5
−5 y + 5 z = 10, que é um sistema incompatível
0 = 7
II. Obtém-se um sistema escalonado do tipo
S
′
:

x1 + α12 x2 + .............+ α1n xn = β1
x2 + ..............+ α2n xn = β2
...........................................
xn = βn
Neste caso o sistema S′ é compatível determinado pois podemos encontrar a sua (única)
solução de maneira recursiva, a partir da última equação, substituindo os valores na
equação anterior.
6
Sistemas Lineares e Matrizes Resolução de Sistemas Lineares
Exemplo 2:
S :

x + 2 y − z = 5
2 x− y + 3 z = 0
x − 3 y + 2 z = −5
Repetindo-se aqui a mesma sequência de operações do Exemplo 1, obtemos a seguinte
equi-valência:
S ∼

x + 2 y − z = 5
−5 y + 5 z = 10, cuja solução (única) é x = 1, y = 2 e z = 0.
−2z = 0
III. Obtém-se um sistema escalonado do tipo
S
′
:

x1 + ...+ α1r2 xr2 + ...+ α1r3 xr3 + ...+ α1rp xrp + .......+ α1n xn = β1
xr2 + ...................................................+ α2n xn = β2
xr3 + ....................+ α3n xn = β3
......................................
xrp + ..........+ αpn xn = βp
com p < n. Neste caso podemos eliminar, por meio de operações elementares
. o termo xr2 da primeira equação.
. os termos xr3 da primeira e segunda equações.
...
. os termos xrp da primeira a (p-1)-ésima equações.
Levamos ao segundo membro de cada equação todas as parcelas, com exceção da primeira,
e obtemos
7
Sistemas Lineares e Matrizes Resolução de Sistemas Lineares

x1 = f1
xr2 = fr2
...
xrp = fp
sendo cada fi uma expressão linear nas variáveis xj com j 6= 1, j 6= r2,..., j 6= rp. A cada
sequência de valores fixada, obteremos uma solução do sistema e, como p < n, o sistema
é compatível indeterminado.
Exemplo 3:
S :

x + 2 y − z = 5
2 x− y + 3 z = 0
x − 3 y + 4 z = −5
Repetindo-se aqui a mesma sequência de operações do Exemplo 1, obtemos a seguinte
equi-valência:
S ∼
{
x + 2 y − z = 5
−5 y + 5 z = −10
∼
{
x + 2 y − z = 5
y − z = 2
,
que é um sistema compatível indeterminado.
Exemplos: Resolver por escalonamento :
S1 :

x + y + z = 1
x− y − z = 2
2 x + y + z = 3
S2 :

5 x − 2 y + 2 z = 2
3 x + y + 4 z = −1
4 x − 3 y + z = 3
S3 :

3 x + 3 y − 2 z − t = 2
5 x + 2 y + z − 2 t = 1
2 x− y + 3 z− t = −1
Respostas: S1 é incompatível, S2 é compatível determinado, com solução (0, -1, 0) e S3
é compatível indeterminado, e suas soluções são dadas por
(- 4 x + 5 z + 3, y, z, -9 y + 13 z + 7), y, z ∈ R.
8
Sistemas Lineares e Matrizes Resolução de Sistemas Lineares
Exercício: Discutir e resolver, se for o caso, o sistema linear
S :

x + y + z = 1
x− y + 2 z = 1
x + 6 y + 3 z = −1
Exercício: Discutir o sistema linear em função do parâmetro a, sendo
x + y − a z = 0
a x + y − z = 2− a
x + a y − z = −a
9
Sistemas Lineares e Matrizes Matrizes
1.3 Matrizes
Definição: Dados m, n ≥ 1 dois números inteiros, uma matriz real m × n é uma
sequência dupla de números reais, distribuidos numa tabela do tipo :
A =

a11 a12 · · · a1n
a21 a22 · · · a2n
...
... . . .
...
am1 am2 · · · amn
 , X =

x1
x2
...
xn
 , B =

b1
b2
...
bm

Usamos a notação A = (aij), 1 ≤ i ≤ m, 1 ≤ j ≤ n. Vamos indicar por Mm×n(R) o
conjunto das matrizes reais de m linhas e n colunas e Mn(R) o conjunto das matrizes
reais quadradas de ordem n. Na matriz A
A(1) =
(
a11 a12 · · · a1n
)
, A(2) =
(
a21 a22 · · · a2n
)
, · · · , A(m) =
(
am1 am2 · · · amn
)
são as linhas de A e
A(1) =

a11
a21
...
am1
 , A(2) =

a12
a22
...
am2
 , · · · ,A(n) =

a1n
a2n
...
amn

são as colunas de A. Dizemos que duas matrizes m × n, A = (aij) e B = (bij), são iguais
se, e somente se, aij = bij, para todo 1 ≤ i ≤ m e 1 ≤ j ≤ n. Por exemplo,
(
2 0 1
3 x 2
)
=
(
y 0 1
t 1 z
)
⇐⇒ x = 1, y = z = 2 e t = 3.
Definição: Dadas as matrizes m × n, A = (aij) e B = (bij), definimos a soma A + B
como sendo a matriz cujo termo geral é aij + bij, isto é,
10
Sistemas Lineares e Matrizes Matrizes
A + B =

a11 + b11 a12 + b12 · · · a1n + b1n
a21 + b21 a22 + b22 · · · a2n + b2n
...
... . . .
...
am1 + bm1 am2 + bm2 · · · amn + bmn

e a multiplicação de uma matriz m × n, A = (aij), por um número real α, α A, por
α A =

α a11 α a12 · · · α a1n
α a21 α a22 · · · α a2n
...
... . . .
...
α am1 α am2 · · · α amn

Observação: As operações de adição de matrizes e multiplicação de matrizes por um
número real satisfazem as seguintes propriedades :
A1. A + (B + C) = (A + B) + C, ∀ A, B, C ∈ Mm×n(R).
A2. A + B = B + A, ∀ A, B ∈ Mm×n(R).
A3. Existe uma matriz 0 ∈ Mm×n(R) tal que A + 0 = A, ∀ A ∈ Mm×n(R).
A4. Dada uma matriz A ∈ Mm×n(R), existe uma matriz -A ∈ Mm×n(R) tal que A +
(-A) = 0.
Para quaisquer α, β ∈ R e A, B ∈ Mm×n(R),
M1. (α β) A= α (β A).
M2. (α + β) A = α A + β A.
M3. α (A + B) = α A + α B.
M4. 1.A = A.
11
Sistemas Lineares e Matrizes Matrizes
Definição: Consideremos as matrizes A = (aij) do tipo m × n e B = (bjk) do tipo n
× p. O produto A B é a matriz m × p cujo termo geral é dado por
cik =
n∑
j=1
aij bjk,
ou seja,
A B =

A(1) B(1) A
(1) B(2) · · · A(1) B(p)
A(2) B(1) A
(2) B(2) · · · A(2) B(p)
...
... . . .
...
A(m) B(1) A
(m) B(2) · · · A(m) B(p)

sendo que A(i) representa a i-ésima linha da matriz A e B(j) representa a j-ésima coluna
da matriz B e
A(i) B(j) =
n∑
k=1
aik bkj,
Observação: Mesmo quando as matrizes forem do tipo n × n, nem sempre A B = B
A. Quando isto ocorre dizemos que A e B comutam entre si. Por exemplo(
1 2
2 0
) (
0 3
3 1
)
6=
(
0 3
3 1
) (
1 2
2 0
)
Observações:
1. A matriz A = (aij) ∈ Mn(R), com aij = 0, se i 6= j e aii = 1, é chamada de matriz
identidade de ordem n e é denotada por In. Por exemplo, se n = 3,1 0 00 1 0
0 0 1

2. Dada a matriz A = (aij) ∈ Mm×n(R), a matriz transposta de A, denotada por
At, é a matriz B = (bij) ∈ Mn×m(R), sendo bij = aji, com i = 1, 2, . . . , m; e j =
12
Sistemas Lineares e Matrizes Matrizes
1, 2, . . . , n.
Propriedades
1. Sejam A, B e C matrizes m × n, n × p e p × q respectivamente. Então
A (B C) = (A B) C
2. Sejam A, B e C matrizes m × n , n × p e n × p, respectivamente, e k ∈ R. Então
A (k B + C) = k A B + A C
3. Sejam A e B matrizes m × n e k ∈ R. Então
(k A + B)t = k At + Bt
Exercício: Mostre que as matrizes dadas abaixo comutam entre si
A =
1 0 00 2 0
0 0 4
 e B =
4 0 00 2 0
0 0 1

Exercício: Para cada número real α, considere a matriz
Tα =
(
cos α −sen α
sen α cos α
)
Mostre que Tα Tβ = Tα+β e calcule T−α.
Exercício: Se A e B são matrizes reais de ordem 2 que comutam com a matriz(
0 1
−1 0
)
mostre que A e B comutam entre si.
13
Sistemas Lineares e Matrizes Matrizes
Exercício: Dada a matriz (
2 1
1 1
)
determine a matriz X ∈ M2(R) tal que A X = I2.
14
Sistemas Lineares e Matrizes Matrizes Inversíveis. Sistemas de Cramer
1.4 Matrizes Inversíveis. Sistemas de Cramer
1.4.1 Matrizes Inversíveis
Definição: Dizemos que uma matriz A ∈ Mn(R) é inversível se, e somente se, existir
uma matriz B ∈Mn(R) de modo que A B = B A = In. Esta matriz, se existir, é chamada
de matriz inversa de A, e é indicada por A−1.
Podemos determinar a inversa de uma matriz inversível A usando o seguinte método :
uma matriz B que puder ser obtida a partir de A após um número finito de operações
elementares (descritas abaixo) sobre as linhas de A,
(I) Permutar duas linhas de A.
(II) Multiplicar uma linha de A por um número real não nulo.
(III) Somar a uma linha de A uma outra linha de A multiplicada por um número
real.
é equivalente a A, denotado por B ∼ A. Além disso, vale o seguinte
Teorema: Uma matriz A é inversível se, e somente se, In ∼ A e a mesma sucessão de
operações elementares que levam A em In transformam In em A−1.
Exemplo: Determine se a matriz é inversível e encontre sua inversa, se possível, sendo
A =
1 1 −12 1 1
3 −1 1
. Calcule A A−1.
O procedimento a ser adotado é o seguinte: se A é uma matriz de ordem n, montamos
uma matriz n × 2n, na qual as primeiras n colunas são as colunas da matriz A e as
últimas n colunas são as colunas da matriz identidade de ordem n. No exemplo acima
15
Sistemas Lineares e Matrizes Matrizes Inversíveis. Sistemas de Cramer
ficamos com a seguinte situação:

1 1 −1 ... 1 0 0
2 1 1
... 0 1 0
3 −1 1 ... 0 0 1

A seguir, aplicamos operações elementares de modo que a matriz à esquerda se transforme
na matriz identidade. Se isso for possível, A é inversível e a matriz obtida à direita é sua
inversa.
No exemplo anterior, utilizando-se a seguinte sequência de operações:
1. Somar a 1a equação, multiplicada por -2, com a 2a equação e
• somar a 1a equação, multiplicada por -3, com a 3a equação.
2. Multiplicar a 2a equação por -1.
3. Somar a 2a equação, multiplicada por -4, com a 3a equação.
4. Multiplicar a 3a equação por -1
8
.
5. Somar a 3a equação com a 1a equação (no lugar da 1a equação) e
• somar a 3a equação, multiplicada por 3, com a 2a equação.
6. Somar a 2a equação, multiplicada por -1, com a 1a equação.
obtemos: 
1 0 0
... 1
4
0 1
4
0 1 0
... 1
8
1
2
−3
8
0 0 1
...− 5
8
1
2
−1
8

16
Sistemas Lineares e Matrizes Matrizes Inversíveis. Sistemas de Cramer
o que significa que A é inversível e
A−1 =

1
4
0 1
4
1
8
1
2
−3
8
−5
8
1
2
−1
8

1.4.2 Sistemas de Cramer
Consideremos o sistema linear
S :

a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
......................................................
am1 x1 + am2 x2 + · · · + amn xn = bm
Fazendo
A =

a11 a12 · · · a1n
a21 a22 · · · a2n
...
... . . .
...
am1 am2 · · · amn
 , X =

x1
x2
...
xn
 e B =

b1
b2
...
bm

temos que S pode ser escrito na forma matricial A X = B, sendo que a matriz A é
chamada “matriz associada” ao sistema linear S. Chamamos de sistema de Cramer a
um sistema linear como o anterior, com m = n, cuja matriz associada é inversível. Neste
caso, X = A−1 B é a solução do sistema. Em particular, quando o sistema de Cramer n
× n é homogêneo, ele só admite a solução trivial.
17
Sistemas Lineares e Matrizes Matrizes Inversíveis. Sistemas de Cramer
Exemplo: Resolver o sistema de Cramer

x + y − z = 0
2 x + y + z = 1
3 x− y + z = 1
Solução: A matriz associada a S é a matriz A =
1 1 −12 1 1
3 −1 1
 que já sabemos ser
inversível e cuja inversa é A−1 =

1
4
0 1
4
1
8
1
2
−3
8
−5
8
1
2
−1
8
. Logo, a solução de S é dada por
X = A−1B =

1
4
0 1
4
1
8
1
2
−3
8
−5
8
1
2
−1
8


0
1
1
 =

1
4
1
8
3
8

Exercício: Resolver o sistema de Cramer

x + y + z = 2
x− y + z = 0
y + 2 z = 0
Exercício: Dizemos que uma matriz é ortogonal se A é inversível e A−1 = At. Deter-
minar x, y e z de modo que a matriz A =
1 0 00 1/√2 1/√2
x y z
 seja ortogonal.
18
Sistemas Lineares e Matrizes Matrizes Inversíveis. Sistemas de Cramer
Exercícios
1. Encontre o(s) valor(es) da constante k para que o sistema de equações lineares{
x− y = 3
2 x− 2 y = k
(a) Não admita solução. (b) Admita exatamente uma solução. (c) Admita infinitas
soluções.
2. Mostre que para que o sistema linear S seja compatível é preciso que c = a + b, sendo
S :

x + y + 2 z = a
x + z = b
2 x + y + 3 z = c
3. Resolver os sistemas abaixo :
S1 :

x + y + z = 1
x− y + 2 z = 2
x + 6 y + 3 z = 3
e S2 :

x + y + z = 1
x− y + z = −2
2 y = 3
4. Determinar os valores de a e b que tornam o sistema
S2 :

3 x− 7 y = a
x + y = b
5 x + 3 y = 5 a + 2 b
x + 2 y = a + b− 1.
compatível determinado. Em seguida, resolver o sistema.
5. Discutir em função de a o sistema linear :
S :

x + y − a z = 0
a x + y − z = 2− a
x + a y − z = −a
19
Sistemas Lineares e Matrizes Matrizes Inversíveis. Sistemas de Cramer
6. Resolver os sistemas lineares homogêneos :
S1 :

3 x− y + 2 z− t = 0
3 x + y + 3 z + t = 0
x− y − z− 5 t = 0
, S2 :
{
4 x + 3 y − z + t = 0
x− y + 2 z− t = 0
e S3 :

3 x + 2 y − 12 z = 0
x− y + z = 0
2 x− 3 y + 5 z = 0
7. Determine matrizes X, Y ∈ M3(R) de modo que
{
2 X− Y = A + B
X + Y = A − B
sendo A =
1 0 00 2 0
0 0 4
 e B =
4 0 00 2 0
0 0 1

8. Mostrar que A2 - 6 A + 5 I2 = 0, sendo
A =
(
2 3
1 4
)
9. Verificar quais das matrizes são inversíveis e determinar suas inversas :
A =
(
1 2
2 2
)
B =
1 0 11 1 0
0 2 1
 , C =
1 21 0
0 −1
 e D =

0 0 1 1
1 0 0 1
1 1 1 1
0 2 0 3

10. Determine todas as matrizes quadradas de ordem 3 que comutam com a matriz
A =
a 1 00 a 1
0 0 a

11. Se A e B são matrizes reais que comutam com a matriz A =
(
0 1
−1 0
)
, mostre
que A B = B A.
20
Sistemas Lineares e MatrizesMatrizes Inversíveis. Sistemas de Cramer
12. Para x ∈ R, seja C(x) a matriz
C(x) =
c11(x) c12(x) c13(x)c21(x) c22(x) c23(x)
c31(x) c32(x) c33(x)

sendo cij(x) funções diferenciáveis. Definimos a derivada da matriz C(x) como sendo a
matriz
d C
d x
(x) =

c
′
11(x) c
′
12(x) c
′
13(x)
c
′
21(x) c
′
22(x) c
′
23(x)
c
′
31(x) c
′
32(x) c
′
33(x)

Mostrar que se A(x) e B(x) forem matrizes 3 × 3 diferenciáveis, então
d
d x
(A B)(x) =
d A
d x
B + A
d B
d x
13. Dada uma matriz A = (aij) ∈ Mm×n(R) chamamos de transposta de A, a matriz
n × m At = (bji), sendo bji = aij, 1 ≤ i ≤ m e 1 ≤ j ≤ n. Mostre que
(a) (A + B)t = (A)t + (B)t.
(b) (α A)t = α(A)t.
(c) ((A)t)t = A.
(d) (A B)t = (B)t (A)t.
desde que as operações estejam definidas.
14. Resolver os seguintes sistemas de Cramer :
S1 :

x + y + z = 2
x− y + z = 0
y + 2 z = 0
S2 :

5x− 2y + 4z = 2
4x− 3y − 4z = 1
5x + z = 3
e S3 :

x− y + z + t = 0
x + y − z + t = 1
−x + y + z− t = 0
2 x− y − z + 3 t = 1
21
Sistemas Lineares e Matrizes Determinantes
1.5 Determinantes
O determinante é um número que está associado com uma matriz quadrada. Para
os nossos propósitos neste curso, o determinante é principalmente utilizado para deci-
dir se uma matriz é invertível. No entanto, o determinante tem outras interpretações.
Além disso, aparece em aplicações variadas, como a fórmula de mudança de variáveis em
integrais múltiplas.
Vejamos inicialmente o caso 2× 2. Consideramos a matriz
A =
(
a b
c d
)
. (1.1)
No caso em que ambas as entradas a e c são nulas, sabemos de antemão que A não pode
ser uma matriz invertível, pois neste caso sua primeira coluna não possui posição de pivô.
Suponhamos que a 6= 0 (caso contrário, poderíamos fazer uma troca de linhas). Por
eliminação Gaussiana, chegamos a(
a b
c d
)
− c
a
`1+`2 em `2−−−−−−−−−→
(
a b
0 − bc
a
+ d
)
=
(
a b
0 ad−bc
a
)
. (1.2)
Assim, A é invertível (ou, equivalentemente, as colunas de A são linearmente independen-
tes) se, e somente se, o valor numérico ad− bc é diferente de 0. Esta é a nossa definição
de determinante para uma matriz A de ordem 2× 2:
detA
def
= ad− bc. (1.3)
Outras notações bastante utilizadas de determinante são
det
(
a b
c d
)
ou
∣∣∣∣∣a bc d
∣∣∣∣∣ . (1.4)
Cuidado para não confundir! Com estas notações,
(
a b
c d
)
representa uma matriz en-
quanto que
∣∣∣∣∣a bc d
∣∣∣∣∣ representa um número, o determinante de A.
22
Sistemas Lineares e Matrizes Determinantes
A nossa discussão acima de imediato implica a seguinte propriedade:
A é invertível ⇐⇒ detA 6= 0. (1.5)
Exemplo 1.5.1. A matriz A =
(
1 2
3 −1
)
é invertível pois detA = 1·(−1)−3·2 = −7 6= 0.
Por outro lado, A =
(
1 2
3 6
)
não é invertível, já que detA = 1 · 6− 3 · 2 = 0. C
Agora, vamos fazer as contas também no caso 3× 3. Considere a matriz
A =
a11 a12 a13a21 a22 a23
a31 a32 a33
 . (1.6)
Suponhamos que a11 6= 0. Por escalonamento:
a11 a12 a13a21 a22 a23
a31 a32 a33
 −a21a11 `1+`2 em `2−−−−−−−−−−→
−a31
a11
`1+`3 em `3

a11 a12 a13
0 a11a22−a21a12
a11
a11a23−a21a13
a11
0 a11a32−a31a12
a11
a11a33−a31a13
a11
 . (1.7)
Podemos ainda simplificar os denominadoresa11 a12 a13a21 a22 a23
a31 a32 a33
 ∼
a11 a12 a130 a11a22 − a21a12 a11a23 − a21a13
0 a11a32 − a31a12 a11a33 − a31a13
 notação===
a11 a12 a130 A33 A32
0 A23 A22
 .
(1.8)
Em breve (esperamos que) ficará clara a escolha da notação acima. O passo seguinte no
escalonamento será, supondo que A33 6= 0, eliminar o elemento A23 que está na posição
32. Temos assim
A =
a11 a12 a13a21 a22 a23
a31 a32 a33
 ∼
a11 a12 a130 A33 A32
0 A23 A22
 ∼
a11 a12 a130 A33 A32
0 0 A22A33 − A32A23
 . (1.9)
23
Sistemas Lineares e Matrizes Determinantes
Nosso raciocínio é que nossa matriz A é uma matriz invertível se esta última coluna possuir
uma posição de pivô, isto é, se A22A33 − A32A23 6= 0. Este último pode ser escrito mais
explicitamente como
A22A33 − A32A23 = (a11a22 − a21a12)(a11a33 − a31a13)− (a11a32 − a31a12)(a11a23 − a21a13)
= a211a22a33 − a11a22a31a13 − a21a12a11a33 + (((((
((a21a12a31a13 +
− a211a32a23 + a11a32a21a13 + a31a12a11a23 −(((((
((a31a12a21a13
= a11
(
a11a22a33 − a22a31a13 − a21a12a33 − a11a32a23 + a32a21a13 + a31a12a23
)
(1.10)
Destas considerações, segue que A é invertível sempre que
a11a22a33 − a22a31a13 − a21a12a33 − a11a32a23 + a32a21a13 + a31a12a23 6= 0. (1.11)
Definimos o determinante de uma matriz A de ordem 3 × 3 por (note que apenas
mudamos a ordem dos termos):
detA
def
= a11a22a33 − a11a32a23 − a12a21a33 + a12a31a23 + a13a21a32 − a13a31a22. (1.12)
Existe uma forma de memorização deste determinante que usualmente é ensinado no
ensino médio. No entanto, vamos utilizar um outro método que poderá ser aplicado para
matrizes de qualquer ordem!
Observamos que a expressão acima está cheia de simetrias, por exemplo, cada um dos
elementos da matriz A aparece exatamente duas vezes. Além disso, aparece uma vez com
sinal positivo e outra com sinal negativo. Podemos escrever:
detA = a11
(
a22a33 − a32a23
)
− a12
(
a21a33 + a31a23
)
+ a13
(
a21a32 − a31a22
)
.
= a11 · det
(
a22 a23
a32 a33
)
− a12 · det
(
a21 a23
a31 a33
)
+ a13 · det
(
a21 a22
a31 a32
)
(1.13)
Esta última fórmula (que é apenas uma outra forma de escrever a nossa definição de
determinante de uma matriz de ordem 3× 3), apesar de aparentemente complicada, nos
permite entender como que os coeficientes de uma matriz aparecem na definição de detA.
24
Sistemas Lineares e Matrizes Determinantes
Vamos escrever novamente:
det
a11 a12 a13a21 a22 a23
a31 a32 a33
 = a11 · det(a22 a23
a32 a33
)
− a12 · det
(
a21 a23
a31 a33
)
+ a13 · det
(
a21 a22
a31 a32
)
.
(1.14)
Podemos pensar como segue:
• Nós vamos percorrer a primeira linha da esquerda para a direita, alternando o sinal
e multiplicando por determinantes menores.
• O primeiro elemento é o elemento da primeira linha é a11. Não alteramos o sinal e
multiplicamos por um determinante menor, obtido ao desconsiderar a primeira
linha e a primeira coluna (ou, em outras palavras, a linha e a coluna do elemento
a11):a11 a12 a13a21 a22 a23
a31 a32 a33
 
� � �� a22 a23
� a32 a33
 A11 def= (a22 a23
a32 a33
)
. (1.15)
Denotamos por A11 a matriz obtida ao remover a linha e a coluna no elemento a11.
• Em seguida, vamos para o segundo elemento da primeira linha, que é a12. Alteramos
o sinal e multiplicamos pelo determinante menor da matriz A12, obtida de A ao
eliminar a linha e a coluna de a12: � � �a21 � a23
a31 � a33
 A12 def= (a21 a23
a31 a33
)
. (1.16)
• Finalmente consideramos a31. Não alteramos o sinal e multiplicamos pelo determi-
nante menor da matriz A13, obtida de A ao eliminar a linha e a coluna de a13: � � �a21 a22 �
a31 a32 �
 A13 def= (a21 a22
a31 a32
)
. (1.17)
25
Sistemas Lineares e Matrizes Determinantes
• Podemos então escrever
detA = a11 detA11 − a12 detA12 + a13 detA13. (1.18)
Exemplo 1.5.2. Calcular o determinante de
A =
2 4 31 2 −1
0 2 1
 . (1.19)
A notação de “barrinhas” para o determinante é particularmente adequada para escrever
o determinante como aparece na fórmula (1.18), pois assim podemos ir mentalmente des-
considerando (ou tapando com um lápis) as linhas e colunas que não devemos escrever
(identifique que tudo o que fizemos foi escrever a fórmula (1.18)):
detA =
∣∣∣∣∣∣∣
2 4 3
1 2 −1
0 2 1
∣∣∣∣∣∣∣ = 2 ·
∣∣∣∣∣2 −12 1
∣∣∣∣∣− 4 ·
∣∣∣∣∣1 −10 1
∣∣∣∣∣+ 3 ·
∣∣∣∣∣1 20 2
∣∣∣∣∣ . (1.20)
Agora, já sabemos como calcular determinantes de matrizes 2× 2, que é o que nos resta
fazer: ∣∣∣∣∣∣∣
2 4 3
1 2 −1
0 2 1
∣∣∣∣∣∣∣ = 2
(
2 · 1− 2 · (−1)
)
− 4
(
1 · 1− 0 · (−1)
)
+ 3
(
1 · 2− 0 · 2
)
= 2 · 4− 4 · 1 + 3 · 2 = 10. C
(1.21)
Exemplo 1.5.3. Calcular o determinante de
B =
1 −3 −41 0 −1
0 2 1
 . (1.22)
A notação de “barrinhas” para o determinante é particularmente adequada para escrever
o determinante como aparece na fórmula (1.18), pois assim podemos irmentalmente des-
considerando (ou tapando com um lápis) as linhas e colunas que não devemos escrever
26
Sistemas Lineares e Matrizes Determinantes
(identifique que tudo o que fizemos foi escrever a fórmula (1.18)):
detB =
∣∣∣∣∣∣∣
1 −3 −4
1 0 −1
0 2 1
∣∣∣∣∣∣∣ =
∣∣∣∣∣0 −12 1
∣∣∣∣∣− (−3) ·
∣∣∣∣∣1 −10 1
∣∣∣∣∣+ (−4) ·
∣∣∣∣∣1 00 2
∣∣∣∣∣
= 2 + 3 · 1− 4 · 2 = −3.
(1.23)
Analise com atenção como os sinais alternam, independentemente dos sinais dos coefici-
entes da matriz! C
Como já mencionamos, na fórmula para o determinante de uma matriz A, cada um
dos elementos de A aparece exatamente duas vezes. Isto significa que poderíamos ter
rearranjado os termos da matriz não a partir da primeira linha, mas a partir de qualquer
linha ou qualquer coluna. Mas devemos ter cuidado para que os sinais sejam levados em
consideração de forma coerente.
Dada uma matriz quadrada A de ordem n × n, obtemos uma matriz menor Aij ao
remover a linha i e coluna j. Agora é possível entender a notação escolhida no início deste
capítulo, na fórmula (1.9). Definimos o cofator (i, j) de A por
Cij
def
= (−1)i+j detAij. (1.24)
Este sinal ±1 na definição do cofator é o que faz com que o sinal seja levado em conside-
ração corretamente.
Teorema 1.5.1. Podemos calcular o determinante de A a partir de qualquer linha ou de
qualquer coluna. Mais precisamente:
• Se consideramos a linha i, então
detA = ai1Ci1 + ai2Ci2 + ai3Ci3. (1.25)
• Se consideramos a coluna j, então
detA = a1jC1j + a2jC2j + a3jC3j. (1.26)
É prático de calcular o determinante pensando como vínhamos fazendo antes, alter-
27
Sistemas Lineares e Matrizes Determinantes
nando os sinais. Isto é possível de fazer utilizando qualquer linha ou qualquer coluna.
Basta descobrirmos com qual sinal devemos começar. Construímos uma “matriz” com os
sinais que cada posição da matriz nos dá. Vamos colocar o sinal de (−1)i+j na posição ij
da matriz: (−1)
1+1 (−1)1+2 (−1)1+3
(−1)2+1 (−1)2+2 (−1)2+3
(−1)3+1 (−1)3+2 (−1)3+3
!
+ − +− + −
+ − +
 . (1.27)
Claro que poderíamos fazer esta matriz de sinais para matrizes de qualquer ordem.
Exemplo 1.5.4. Vamos calcular de várias maneiras o determinante da matriz
A =
−1 1 43 0 −1
1 0 3
 . (1.28)
Pela nossa definição∣∣∣∣∣∣∣
−1 1 4
3 0 −1
1 0 3
∣∣∣∣∣∣∣ = −1
∣∣∣∣∣0 −10 3
∣∣∣∣∣−1
∣∣∣∣∣3 −11 3
∣∣∣∣∣+4
∣∣∣∣∣3 01 0
∣∣∣∣∣ = (−1)·0−1(9+1)+4·0 = −10. (1.29)
Uma boa escolha seria uma linha ou coluna que tenha o maior número de zeros! Pois
assim, economizamos tanto nos cálculos quanto na escrita. Por exemplo, escolhemos a
segunda coluna. Para saber o sinal adequado, podemos proceder da seguinte maneira:
começando na posição 11 com o sinal “+”, vamos alternando o sinal até completar a
segunda coluna:+
 
+ −
 
+ −+
 
+ −+
−
 sinais segunda coluna são
−+
−
 .
(1.30)
Assim, podemos calcular∣∣∣∣∣∣∣
−1 1 4
3 0 −1
1 0 3
∣∣∣∣∣∣∣ = −1 ·
∣∣∣∣∣3 −11 3
∣∣∣∣∣+ 0− 0 = −1(9 + 1) = −10. (1.31)
Observe que nem escrevemos as determinantes menores que estão multiplicados por zero.
28
Sistemas Lineares e Matrizes Determinantes de matrizes de ordem maior
De fato, nem precisaríamos ter escrito os zeros, apenas o fizemos para exemplificar os
sinais alternando de forma correta.
A segunda coluna, neste caso, era a melhor escolha para o cálculo do determinante,
pois apenas um elemento é não nulo. De qualquer maneira, para praticar, vamos calcular
ainda mais uma vez detA, agora utilizando a terceira linha. Sinais que aparecem na frente
dos coeficientes, de acordo com a terceira linha:+−
+ − +
 sinais terceira linha são (+ − +) . (1.32)
Logo,∣∣∣∣∣∣∣
−1 1 4
3 0 −1
1 0 3
∣∣∣∣∣∣∣ = 1 ·
∣∣∣∣∣1 40 −1
∣∣∣∣∣− 0 + 3 ·
∣∣∣∣∣−1 13 0
∣∣∣∣∣ = 1 · (−1) + 3 · (−3) = −10. (1.33)
Como exercício, calcule o determinante utilizando outras linhas ou colunas. C
1.6 Determinantes de matrizes de ordem maior
Seja A uma matriz quadrada, de ordem n × n. O determinante de A é definido
recursivamente:
detA = a11 detA11 − a12 detA12 + a13 detA13 − a14 detA14 + · · ·+ (−1)1+na1n detA1n.
(1.34)
ou, na notação dos cofatores:
detA = a11C11 + a12C12 + a13C13 + a14C14 + · · ·+ a1nC1n. (1.35)
Nossa definição é de fato recorrente, pois para calcular detA, de acordo com a defini-
ção, nós precisaremos calcular vários determinantes de ordem n − 1. Estes por sua vez,
consistem de vários determinante de ordem n − 2, e assim por diante. Isto implica, em
particular, que o cálculo de determinantes é, em geral, uma tarefa bastante trabalhosa.
29
Sistemas Lineares e Matrizes Determinantes de matrizes de ordem maior
Assim como na seção anterior, podemos utilizar qualquer linha ou coluna desde que
com os sinais corretos:
Teorema 1.6.1. Podemos calcular o determinante de A a partir de qualquer linha ou de
qualquer coluna. Mais precisamente:
• Se consideramos a linha i, então
detA = ai1Ci1 + ai2Ci2 + ai3Ci3 + · · ·+ ainCin. (1.36)
• Se consideramos a coluna j, então
detA = a1jC1j + a2jC2j + a3jC3j + · · ·+ anjCnj. (1.37)
Exemplo 1.6.1. Calcular o determinante da matriz de ordem 4× 4:
A =

−2 3 0 4
1 0 −1 0
3 2 1 1
−2 2 0 1
 . (1.38)
Na tentativa de evitar muitas contas, vamos escolher para começar, uma linha ou coluna
que possua o maior número de zeros possível. Neste caso, poderia ser a segunda linha ou a
terceira coluna. Vamos escolher a segunda linha (calcule, como exercício, o determinante
utilizando a terceira coluna). Os sinais são:
+
− + − +
 sinais segunda linha são
(
− + − +
)
. (1.39)
Logo, ∣∣∣∣∣∣∣∣∣∣
−2 3 0 4
1 0 −1 0
3 2 1 1
−2 2 0 1
∣∣∣∣∣∣∣∣∣∣
= −1 ·
∣∣∣∣∣∣∣
3 0 4
2 1 1
2 0 1
∣∣∣∣∣∣∣+ 0− (−1) ·
∣∣∣∣∣∣∣
−2 3 4
3 2 1
−2 2 1
∣∣∣∣∣∣∣+ 0. (1.40)
Perceba que os dois zeros evitaram que calculássemos dois determinantes de ordem 3. Em
seguida, calculamos cada um dos determinantes de ordem 3 (no primeiro deles, escolhemos
30
Sistemas Lineares e Matrizes Determinantes de matrizes de ordem maior
a segunda coluna, por possuir dois zeros; no segundo, qualquer escolha seria parecida, já
que a matriz não tem entradas nulas – escolhemos a terceira coluna):∣∣∣∣∣∣∣∣∣∣
−2 3 0 4
1 0 −1 0
3 2 1 1
−2 2 0 1
∣∣∣∣∣∣∣∣∣∣
= −
∣∣∣∣∣∣∣
3 0 4
2 1 1
2 0 1
∣∣∣∣∣∣∣+
∣∣∣∣∣∣∣
−2 3 4
3 2 1
−2 2 1
∣∣∣∣∣∣∣
= −1 ·
∣∣∣∣∣3 42 1
∣∣∣∣∣+
(
4 ·
∣∣∣∣∣ 3 2−2 2
∣∣∣∣∣− 1 ·
∣∣∣∣∣−2 3−2 2
∣∣∣∣∣+ 1 ·
∣∣∣∣∣−2 33 2
∣∣∣∣∣
)
= (−1) · (−5) +
(
4 · 10− 1 · 2 + 1 · (−13)
)
= 30. C
(1.41)
Exemplo 1.6.2. Calcular o determinante da matriz de ordem 5× 5:
A =

2 0 0 8 0
1 −7 −5 0 0
3 8 6 0 0
0 7 5 4 0
2 3 1 1 1
 . (1.42)
Começamos pela última coluna, pois esta possui apenas uma entrada não nula. Assim,
nosso determinante já é reduzido a calcular apenas um determinante de ordem 4× 4 (em
contraste com calcular cinco determinantes 4× 4).
Análise dos sinais da quinta coluna:
+ − + − +
−
+
−
+
 sinais quinta coluna são

+
−
+
−
+
 . (1.43)
31
Sistemas Lineares e Matrizes Propriedades do determinante
Assim:∣∣∣∣∣∣∣∣∣∣∣∣
2 0 0 8 0
1 −7 −5 0 0
3 8 6 0 0
0 7 5 4 0
2 3 1 1 1
∣∣∣∣∣∣∣∣∣∣∣∣
= 0− 0 + 0− 0 + 1 ·
∣∣∣∣∣∣∣∣∣∣
2 0 0 8
1 −7 −5 0
3 8 6 0
0 7 5 4
∣∣∣∣∣∣∣∣∣∣
=
∣∣∣∣∣∣∣∣∣∣
2 0 0 8
1 −7 −5 0
3 8 6 0
0 7 5 4
∣∣∣∣∣∣∣∣∣∣
. (1.44)
Em seguida, escolhemos (por exemplo) a primeira linha da nova matriz 4× 4:
detA =
∣∣∣∣∣∣∣∣∣∣
2 0 0 8
1 −7 −5 0
3 8 6 0
0 7 5 4
∣∣∣∣∣∣∣∣∣∣
= 2 ·
∣∣∣∣∣∣∣
−7 −5 0
8 6 0
7 5 4
∣∣∣∣∣∣∣− 8 ·
∣∣∣∣∣∣∣
1 −7 −5
3 8 6
0 7 5
∣∣∣∣∣∣∣ . (1.45)
Finalmente, temos dois determinantes de matrizes de ordem 3× 3 para calcular:
detA = 2 · 4 ·
∣∣∣∣∣−7 −58 6
∣∣∣∣∣− 8
(∣∣∣∣∣8 67 5
∣∣∣∣∣− 3 ·
∣∣∣∣∣−7 −57 5
∣∣∣∣∣
)
= 8 · (−2)− 8(−2 +−3 · 0) = −16 + 16 = 0.C
(1.46)
Estes exemplos já devem deixar claro que o cálculo de determinantes é demasiado
trabalhoso, exceto em alguns casos que a matriz tem muitas entradas nulas. Veremos nas
próximas seções algumas propriedades e aplicações.
1.7 Propriedades do determinante
Nesta seção, vamos apontar as principais propriedades do determinante. A prova
rigorosa destas propriedadesserá adiada para o apêndice desta seção.
Teorema 1.7.1. Valem as seguintes propriedades:
(i) O determinante depende linearmente de cada uma das linhas, isto é, se fizermos
uma combinação linear de uma linha apenas, poderíamos ter feito uma combinação
32
Sistemas Lineares e Matrizes Propriedades do determinante
linear dos determinantes:
det

a11 · · · a1n
...
...
αai1 + βbi1 · · · αain + βbin
...
...
an1 · · · ann

= α det

a11 · · · a1n
...
...
ai1 · · · ain
...
...
an1 · · · ann

+β det

a11 · · · a1n
...
...
bi1 · · · bin
...
...
an1 · · · ann

.
(1.47)
(ii) Se uma linha de A for composta só por zeros, então detA = 0.
(iii) O determinante de uma matriz triangular é igual ao produto dos elementos da dia-
gonal principal.
(iv) A operação elementar “trocar duas linhas de lugar” altera o sinal do determinante.
(v) A operação elementar de somar o múltiplo de uma linha à outra não altera o de-
terminante. Em outras palavras, se um múltiplo de uma linha de A for somado à
outra linha formando a matriz B, então detA = detB.
(vi) Uma matriz A é invertível se, e somente se, detA 6= 0.
(vii) Para quaisquer duas matrizes A e B de mesma ordem, det(AB) = detA detB.
(viii) O determinante da matriz transposta de A é igual ao determinante de A, isto é,
det(AT ) = detA.
(ix) Todos os itens acima que envolvem operações com linhas poderiam ser enunciados
com “colunas” no lugar de “linhas”.
Várias destas propriedades já devem ser familiares para os leitores destas notas de
aula, com a possível exceção do comportamento do determinante com as operações ele-
mentares de escalonamento. E estas vão ser muito úteis no cálculo do determinante.
Vamos enfatizar estas propriedades abaixo. O método para calcular o determinante por
escalonamento, segue o seguinte raciocínio:
• Caso seja necessário uma troca de linhas para que a posição de pivô fique com um
elemento não nulo, somos permitidos de fazer a troca, desde que alterando o sinal
do determinante, como nos diz a propriedade (iv) acima;
33
Sistemas Lineares e Matrizes Propriedades do determinante
• De acordo com a propriedade (v), eliminar os elementos abaixo da posição de pivô
não altera o determinante. Um cuidado: multiplicar linhas por escalares altera o
determinante! Desta maneira, esta operação elementar significa estritamente fazer
uma operação do tipo
k`i + `j em `j. (1.48)
Observe que “adicionamos um múltiplo da linha i na linha j”. Atentem para o fato
de que não pode haver coeficiente diferente de 1 em `j.
• Caso queiramos, para simplificar as contas, multiplicar ou dividir uma linha por um
fator qualquer, podemos fazer uma aplicação cuidadosa da linearidade enunciada
na propriedade (i) acima. Considerando β = 0, esta propriedade se transforma em
“colocar um fator α de uma linha em evidência”:∣∣∣∣∣∣∣∣∣∣∣∣∣
a11 · · · a1n
...
...
αai1 · · · αain
...
...
an1 · · · ann
∣∣∣∣∣∣∣∣∣∣∣∣∣
= α ·
∣∣∣∣∣∣∣∣∣∣∣∣∣
a11 · · · a1n
...
...
ai1 · · · ain
...
...
an1 · · · ann
∣∣∣∣∣∣∣∣∣∣∣∣∣
. (1.49)
Exemplo 1.7.1. Vamos calcular o determinante da matriz A do Exemplo 1.6.1 utilizando
as propriedades acima (em particular o escalonamento). Este método é particularmente
útil quando as matrizes não possuem muitas entradas nulas. Já que a segunda linha
possui um “1” na primeira entrada, vamos fazer uma troca de linhas para facilitar as
contas (cuidado com o sinal!). Em seguida, eliminamos os elementos da primeira coluna.∣∣∣∣∣∣∣∣∣∣
−2 3 0 4
1 0 −1 0
3 2 1 1
−2 2 0 1
∣∣∣∣∣∣∣∣∣∣
= −
∣∣∣∣∣∣∣∣∣∣
1 0 −1 0
−2 3 0 4
3 2 1 1
−2 2 0 1
∣∣∣∣∣∣∣∣∣∣
= −
∣∣∣∣∣∣∣∣∣∣
1 0 −1 0
0 3 −2 4
0 2 4 1
0 2 −2 1
∣∣∣∣∣∣∣∣∣∣
= −
∣∣∣∣∣∣∣∣∣∣
1 0 −1 0
0 3 −2 4
0 0 16/3 −5/3
0 0 −2/3 −5/3
∣∣∣∣∣∣∣∣∣∣
.
(1.50)
As divisões nos denominadores nos atrapalham um pouco na hora de fazer a conta. Pode-
mos retirá-los dali, desde que cuidadosamente (o mesmo para o sinal de “−1”), colocando-
34
Sistemas Lineares e Matrizes Propriedades do determinante
os em evidência (note que devemos fazê-lo para cada linha!):∣∣∣∣∣∣∣∣∣∣
−2 3 0 4
1 0 −1 0
3 2 1 1
−2 2 0 1
∣∣∣∣∣∣∣∣∣∣
= −1
3
∣∣∣∣∣∣∣∣∣∣
1 0 −1 0
0 3 −2 4
0 0 16 −5
0 0 −2/3 −5/3
∣∣∣∣∣∣∣∣∣∣
=
1
9
∣∣∣∣∣∣∣∣∣∣
1 0 −1 0
0 3 −2 4
0 0 16 −5
0 0 2 5
∣∣∣∣∣∣∣∣∣∣
(1.51)
Finalmente, podemos fazer uma troca de linhas e eliminar o elemento “16”:∣∣∣∣∣∣∣∣∣∣
−2 3 0 4
1 0 −1 0
3 2 1 1
−2 2 0 1
∣∣∣∣∣∣∣∣∣∣
= −1
9
∣∣∣∣∣∣∣∣∣∣
1 0 −1 0
0 3 −2 4
0 0 2 5
0 0 0 −45
∣∣∣∣∣∣∣∣∣∣
= −1
9
· 1 · 3 · 2 · (−45) = 30. C (1.52)
Observação: No exemplo anterior, vimos como calcular o determinante utilizando esca-
lonamento de maneira “straightforward”. Como pode-se perceber, o método não parece
muito melhor do que calcular o determinante utilizando expansão por cofatores. Vamos
ver que, de fato, o melhor é misturar o método de cofatores com as propriedades acima!
Vamos novamente calcular ∣∣∣∣∣∣∣∣∣∣
−2 3 0 4
1 0 −1 0
3 2 1 1
−2 2 0 1
∣∣∣∣∣∣∣∣∣∣
. (1.53)
Observe que a terceira coluna tem duas entradas nulas. Podemos ainda utilizar uma
operação elementar para eliminar uma das entradas: por exemplo, substituir `3 + `2 em
`2. Assim:∣∣∣∣∣∣∣∣∣∣
−2 3 0 4
1 0 −1 0
3 2 1 1
−2 2 0 1
∣∣∣∣∣∣∣∣∣∣
=
∣∣∣∣∣∣∣∣∣∣
−2 3 0 4
4 2 0 1
3 2 1 1
−2 2 0 1
∣∣∣∣∣∣∣∣∣∣
.
lembrando sinais

+ − +
−
+
−

 (1.54)
Note que a terceira coluna agora ficou com apenas uma entrada não nula; logo, utilizando
35
Sistemas Lineares e Matrizes Propriedades do determinante
a terceira coluna para o cálculo de detA (como na seção anterior), obtemos∣∣∣∣∣∣∣∣∣∣
−2 3 0 4
1 0 −1 0
3 2 1 1
−2 2 0 1
∣∣∣∣∣∣∣∣∣∣
=
∣∣∣∣∣∣∣
−2 3 4
4 2 1
−2 2 1
∣∣∣∣∣∣∣ (1.55)
Podemos também utilizar a propriedade (ix) do teorema para colocar em evidência um
“−2” da primeira coluna e, em seguida, continuar com o cálculo:∣∣∣∣∣∣∣∣∣∣
−2 3 0 4
1 0 −1 0
3 2 1 1
−2 2 0 1
∣∣∣∣∣∣∣∣∣∣
= −2·
∣∣∣∣∣∣∣
1 3 4
−2 2 1
1 2 1
∣∣∣∣∣∣∣ = −2·
∣∣∣∣∣∣∣
1 3 4
0 8 9
0 −1 −3
∣∣∣∣∣∣∣ = −2·
∣∣∣∣∣∣∣
1 3 4
0 1 3
0 0 −15
∣∣∣∣∣∣∣ = −2·(−15) = 30.C
(1.56)
Exemplo 1.7.2. Por fim, recalculamos também o determinante da matriz do Exemplo
1.6.2, utilizando as propriedades desta seção. Vamos fazer as contas de forma um pouco
mais rápidas. Tente acompanhar o que está sendo feito de um passo para outro! Iniciamos
aproveitando o fato de a última coluna ter muitos zeros.∣∣∣∣∣∣∣∣∣∣∣∣
2 0 0 8 0
1 −7 −5 0 0
3 8 6 0 0
0 7 5 4 0
2 3 1 1 1
∣∣∣∣∣∣∣∣∣∣∣∣
=
∣∣∣∣∣∣∣∣∣∣
2 0 0 8
1 −7 −5 0
3 8 6 0
0 7 5 4
∣∣∣∣∣∣∣∣∣∣
−2`4+`1 em `1=
∣∣∣∣∣∣∣∣∣∣
2 −14 −10 0
1 −7 −5 0
3 8 6 0
0 7 5 4
∣∣∣∣∣∣∣∣∣∣
= 4·
∣∣∣∣∣∣∣
2 −14 −10
1 −7 −5
3 8 6
∣∣∣∣∣∣∣ .
(1.57)
Em seguida, eliminamos o 2 e o 3 da primeira coluna sem trocar linhas de lugar (quanto
mais trocarmos linhas, mais riscos corremos de errar o sinal):∣∣∣∣∣∣∣∣∣∣∣∣
2 0 0 8 0
1 −7 −5 0 0
3 8 6 0 0
0 7 5 4 0
2 3 1 1 1
∣∣∣∣∣∣∣∣∣∣∣∣
= 4 ·
∣∣∣∣∣∣∣
0 0 0
1 −7 −5
0 29 −9
∣∣∣∣∣∣∣ 4 · 0 = 0. (1.58)
Nota: antes de eliminarmos o 3, já reparamos que o determinante vai ser nulo, graças à
36
Sistemas Lineares e Matrizes Uma aplicação em cálculo de várias variáveis
propriedade (ii). C
1.8 Uma aplicação em cálculo de várias variáveis
Como já é conhecido de primeiros cursos de cálculo1, é possível fazer mudanças de
coordenadas em integrais unidimensionais (também conhecido como integrar por substi-
tuição): para I ⊆ R um intervalo e φ : [a, b]→ I é diferenciável com derivada contínua e
f : I → R é uma função contínua, então∫ φ(b)
φ(a)
f(x) dx =
∫ b
a
f
(
φ(t)
)
φ′(t) dt. (1.59)
Intuitivamente, pensamos na substituição x = φ(t) =⇒ dx = φ′(t) dt.
Um tópico que nem sempre é abordado em cursos de Cálculo em várias variáveis é a
fórmula de mudança de variáveis para integrais múltiplas, onde o determinante aparece
de forma fundamental.
Teorema 1.8.1. Seja U ⊂ R2 um conjunto aberto e φ : U → Rn uma função vetorial
cujas componentes são todas diferenciáveis e com derivadas parciais contínuas. Então,
para qualquer f : U → R contínua, vale a fórmula de mudança de variáveis:∫∫∫
φ(U)
f(~v) d~v =
∫∫∫
U
f
(
ϕ
(~u
))
Jϕ
(
~u
)
d~u, (1.60)
onde Jϕ(~u) é o Jacobiano: valor absoluto do determinante da matriz formada com as
derivadas parciais de φ = (φ1, φ2, . . . , φn):
Jϕ
(
~u
)
=
∣∣∣∣det(∂φi∂xj
)∣∣∣∣ =
∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣
det

∂φ1
∂x1
∂φ1
∂x2
· · · ∂φ1
∂xn
∂φ2
∂x1
∂φ2
∂x2
· · · ∂φ2
∂xn...
... . . .
...
∂φn
∂x1
∂φn
∂x2
· · · ∂φn
∂xn

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣
(1.61)
1Esta seção é opcional e necessita de conhecimentos básicos de Cálculo.
37
Sistemas Lineares e Matrizes Uma aplicação em cálculo de várias variáveis
1.8.1 Coordenadas polares
Para uma região R do plano R2, vamos verificar como fazer para escrever uma integral
dupla em coordenadas polares. Sabemos que∫∫
R
f dA =
∫∫
R
f(x, y) dx dy. (1.62)
A função φ que muda de coordenadas polares para Cartesianas pode ser escrita como
φ(r, θ) = (r cos θ, r sen θ), onde r > 0 e θ ∈ (0, 2π). (1.63)
Isto é, as componentes são
x = φ1(r, θ) = r cos θ, y = φ2(r, θ) = r sen θ. (1.64)
Assim, a matriz das derivadas parciais é
∂φ1
∂r
∂φ1
∂θ
∂φ2
∂r
∂φ2
∂θ
 = (cos θ −r sen θ
sen θ r cos θ
)
cujo Jacobiano é Jφ = r cos2 θ+r sen2 θ = r. (1.65)
Portanto, a fórmula de mudança de variáveis implica que, em coordenadas polares:∫∫
R
f dA =
∫∫
R
f(x, y) dx dy =
∫∫
φ−1(R)
f(r cos θ, r sen θ) r dr dθ. (1.66)
1.8.2 Coordenadas esféricas
Para uma região R do espaço R3, vamos verificar como fazer para escrever uma integral
tripla em coordenadas esféricas. O raciocínio segue as mesmas linhas da subseção anterior
para coordenadas polares. Sabemos que∫∫∫
R
f dA =
∫∫∫
R
f(x, y, z) dx dy dz. (1.67)
38
Sistemas Lineares e Matrizes Uma aplicação em cálculo de várias variáveis
A função φ que muda de coordenadas esféricas para Cartesianas pode ser escrita como
φ(ρ, θ, φ) = (ρ senφ cos θ, ρ senφ sen θ, ρ cosφ), onde ρ > 0, θ ∈ (0, 2π) e φ ∈ (0, π).
(1.68)
Isto é, as componentes são
x = φ1(ρ, θ, φ) = ρ senφ cos θ, y = φ2(ρ, θ, φ) = ρ senφ sen θ e z = φ3(ρ, θ, φ) = ρ cosφ.
(1.69)
Assim, a matriz das derivadas parciais é
∂φ1
∂ρ
∂φ1
∂θ
∂φ1
∂φ
∂φ2
∂ρ
∂φ2
∂θ
∂φ2
∂φ
∂φ3
∂ρ
∂φ3
∂θ
∂φ3
∂φ
 =
senφ cos θ −ρ senφ sen θ ρ cosφ cos θsenφ sen θ ρ senφ cos θ ρ cosφ sen θ
cosφ 0 −ρ senφ
 . (1.70)
cujo Jacobiano é (usando, por exemplo a segunda coluna para expandir em cofatores)
Jφ =
∣∣∣∣∣ρ senφ sen θ
∣∣∣∣∣senφ sen θ ρ cosφ sen θcosφ −ρ senφ
∣∣∣∣∣+ ρ senφ cos θ
∣∣∣∣∣senφ cos θ ρ cosφ cos θcosφ −ρ senφ
∣∣∣∣∣
∣∣∣∣∣
=
∣∣∣ρ senφ sen θ(− ρ sen2 φ sen θ − ρ cos2 φ sen θ)+ ρ senφ cos θ(− ρ sen2 φ cos θ − ρ cos2 φ cos θ)∣∣∣
=
∣∣∣ρ senφ sen θ(− ρ sen θ)+ ρ senφ cos θ(− ρ cos θ)∣∣∣ = ∣∣∣−ρ2 senφ( sen2 θ + cos2 θ)∣∣∣
=
∣∣−ρ2 senφ∣∣ = ρ2 senφ.
(1.71)
Na última igualdade, utilizamos que φ ∈ (0, π) implica senφ > 0, de modo que o valor
absoluto está considerado corretamente. Portanto, a fórmula de mudança de variáveis
implica que, em coordenadas polares:∫∫∫
R
f dA =
∫∫
R
f(x, y, z) dx dy dz =
∫∫∫
φ−1(R)
f(ρ senφ cos θ, ρ senφ sen θ, ρ cosφ) ρ2 senφ dρ dθ dφ,
(1.72)
como é de costume em cursos de cálculo.
39
pulando folha
40
Capítulo 2
Espaços Vetoriais
2.1 Introdução
Faremos, a seguir, um paralelo entre dois conhecidos conjuntos.
Consideremos o conjunto V3 dos vetores da Geometria Analítica, definidos por meio de
segmentos orientados. Em V3 estão definidas duas operações: uma adição de vetores e
uma multiplicação de um vetor por um número real (multiplicação por escalar).
A adição de vetores satisfaz às propriedades comutativa, associativa, admite elemento
neutro (é o vetor nulo) e cada vetor de V3 admite um oposto em V3.
A multiplicação por escalar satisfaz às seguintes propriedades: se α, β ∈ R e ~u, ~v ∈
V3, então:
• (α.β)~u = α(β~u);
• (α + β)~u = α~u + β~u;
• α(~u + ~v) = α~u + α~v;
• 1.~u = ~u.
41
Consideremos, agora, o conjunto Mm×n(R) das matrizes reais de m linhas e n colunas
(m,n ≥ 1). Também em Mm×n(R) estão definidas duas operações: adição de matrizes e
uma multiplicação de uma matriz por um número real (multiplicação por escalar).
A adição de matrizes satisfaz às propriedades comutativa, associativa, admite elemento
neutro (é a matriz nula) e cada matriz de Mm×n(R) admite uma matriz oposta em
Mm×n(R).
A multiplicação por escalar satisfaz às seguintes propriedades: se α, β ∈ R e A, B ∈
Mm×n(R), então:
• (α.β)A = α(βA);
• (α + β)A = αA + βA;
• α(A + B) = αA + αB;
• 1.A = A.
Conclusão: embora os conjuntos V3 e Mm×n(R) sejam de naturezas distintas, os dois
têm “comportamentos” coincidentes com relação às operações de adição e multiplicação
por escalar. Esses não são os únicos conjuntos onde isto ocorre. Vamos, a partir de
agora, estudar detalhada e simultaneamente todos os conjuntos que apresentam a mesma
estrutura que V3 e Mm×n(R).
2.2 Espaços Vetoriais e Exemplos
Definição : Um conjunto V 6= ∅ é um espaço vetorial sobre R se e somente se
I . Existe uma adição (u,v) ∈ V × V 7−→ u + v ∈ V tal que, para todos u, v, w ∈
V, valem as seguintes propriedades :
[A1] u + v = v + u
[A2] u + (v + w) = (u + v) + w
42
[A3] Existe em V um elemento neutro aditivo, denotado por 0, isto é, existe
0 ∈ V tal que u + 0 = 0 + u = u
[A4] Todo elemento u ∈ V admite um elemento oposto em V, denotado por
-u, tal que u + (-u) = (-u) + u = 0
II . Existe uma multiplicação por escalar (α, u) ∈ R× V 7−→ α u ∈ V de modo que,
para quaisquer u,v ∈ V e α, β ∈ R, valem as seguintes propriedades :
[M1] α(β u) = (α β) u
[M2] (α + β) u = α u + β u
[M3] α (u + v) = α u + α v
[M4] 1 . u = u
Observação: Da mesma forma como definimos espaços vetoriais sobre R, podemos definir
espaços vetoriais sobre C. Nesse caso, ao definirmos a multiplicação por escalar, isto
é feito considerando-se escalares complexos; isto é, definimos a multiplicação de um um
número complexo por um elemento de V: (α, u) ∈ C × V 7−→ α u ∈ V, satisfazendo
aos mesmos axiomas M1 a M4.
Nomenclatura: Um espaço vetorial sobre R é também chamado de espaço vetorial
real e um espaço vetorial sobre C é também chamado de espaço vetorial complexo.
Notação: (V, +, .)R denota um espaço vetorial real
(V, +, .)C denota um espaço vetorial complexo
Exemplos:
1. (R, +, .): O conjunto dos números reais com as operações usuais de adição e
multiplicação de números reais é um espaço vetorial real.
2. (R2, +, .) é um espaço vetorial real, sendo:
R2 = {(x1, x2): x1, x2 ∈ R}
adição: (x1, x2) + (y1, y2) := (x1 + y1, x2 + y2) ∈ R2
multiplicação por escalar: α(x1, x2) := (αx1, αx2) ∈ R2
43
O elemento neutro da adição é o par ordenado 0 = (0, 0) ∈ R2 e o oposto x = (x1,
x2) é o elemento - x = (- x1, - x2) ∈ R2.
3. O exemplo anterior pode ser generalizado e dessa generalização obtém-se o mais
importante espaço vetorial real:
(Rn, +, .) é um espaço vetorial real, sendo:
Rn = {(x1, x2, . . ., xn): x1, x2, . . . xn ∈ R}; isto é, Rn é o conjunto das n-uplas de
números reais.
E se x = (x1, x2, . . ., xn) e y = (y1, y2, . . ., yn) são dois elementos genéricos do Rn
e α ∈ R, definimos:
adição: x + y = (x1, x2, . . ., xn) + (y1, y2, . . ., yn) := (x1 + y1, x2 + y2, . . ., xn +
yn)
multiplicação por escalar: αx = α(x1, x2, . . ., xn) := (αx1, αx2, . . ., αxn)
O elemento neutro da adição é a n-upla de números reais 0 = (0, 0, . . ., 0) ∈ Rn e
o oposto x = (x1, x2, . . ., xn) é o elemento - x = (- x1, - x2, . . ., - xn) ∈ Rn.
4. (C, +, .)R : O conjunto dos números complexos (isto é, o conjunto dos números da
forma a + b i, sendo a,b ∈ R e i =
√
−1), com as operações usuais de adição de
números complexos e multiplicação de um número complexo por um número real é
um espaço vetorial real.
adição: (a + bi) + (x + yi) := (a + x) + (b + y)i ∈ C
multiplicação por escalar: α(a + bi) := (αa) + (αb)i ∈ C
O elemento neutro da adição é o número complexo 0 = 0 + 0i ∈ C e o oposto z =
a + bi é o número complexo - z = - a - bi ∈ C.
5. (C, +, ◦)C: O conjunto dos números complexos com as operações usuais de adição
e multiplicação de números complexos é um espaço vetorial complexo.
adição: (a + bi) + (x + yi) := (a + x) + (b + y)i ∈ C
multiplicação porescalar: (α + βi)(x + yi) := (αx - βy) + (αy + βx)i ∈ C
44
Aqui também o elemento neutro da adição é o número complexo 0 = 0 + 0i ∈ C e
o oposto z = a + bi é o número complexo - z = - a - bi ∈ C.
6. V3 = conjunto dos vetores da Geometria Analítica.
(V3, +, .) é um espaço vetorial real, sendo
+: a operação usual de soma de vetores
.: a multiplicação usual de um vetor por um número real.
7. (Mm×n(R), +, .) é um espaço vetorial real, sendo
+: a operação usual de soma de matrizes
.: a multiplicação usual de uma matriz por um número real.
O elemento neutro da adição é a matriz nula 0m×n.
O elemento oposto da matriz A = (aij)m×n é a matriz - A = (- aij)m×n ∈ Mm×n(R).
8. Assim como para V = C foi possível definir duas estruturas de espaço vetorial (a
real e a complexa), para V = Mm×n(C) podemos dar duas estruturas distintas de
espaço vetorial, obtendo, desta forma, o espaço vetoriai real (Mm×n(C), +, .)R e
o espaço vetorial complexo (Mm×n(C), +, ◦)C.
Nos dois casos, a adição é a adição usual de matrizes . Com relação à multipliucação,
teremos:
. é a multiplicação de uma matriz por um número real
◦ é a multiplicação de uma matriz por um número complexo
9. (Pn(R), +, .) é um espaço vetorial real, sendo:
Pn(R) = {p(t) = a0 + a1t + a2t2 + . . . + antn : ai ∈ R, ∀ i = 1, 2, . . . , n}; isto é,
Pn(R) é o conjunto formado por todos os polinômios de grau menor ou igual a n (n
≥ 1).
Se p(t) = a0 + a1t + a2t2 + . . . + antn e q(t) = b0 + b1t + b2t2 + . . . + bntn são
dois elementos genéricos de Pn(R) e α ∈ R definimos:
adição:
45
p(t) + q(t) = [a0 + a1t + a2t2 + . . . + antn] + [b0 + b1t + b2t2 + . . . + bntn] :=
:= [a0 + b0] + [a1 + b1]t + [a2 + b2]t2 + . . . + [an + bn]tn
multiplicação por escalar:
αp(t) = α[a0 + a1t + a2t2 + . . . + antn] := (αa0) + (αa1)t + (αa2)t2 + . . . + (αan)tn
O elemento neutro desta adição é o polinômio identicamente nulo de grau n, dado
por 0 = 0 + 0t + 0t2 + . . . + 0tn ∈ Pn(R).
O elemento oposto do polinômio p(t) é - p(t) = -a0 - a1t - a2t2 - . . . - antn ∈ Pn(R).
10. Considere o intervalo [0, 1] ⊂ R. O conjunto C([0, 1]) de todas as funções contínuas
definidas em [0, 1] e com valores em R é um espaço vetorial sobre R, sendo que dadas
f , g ∈ C([0, 1]) e α ∈ R,
adição: f + g : t ∈ [0,1] −→ f(t) + g(t) ∈ R
multiplicação por escalar: α f : t ∈ [0,1] −→ α f(t) ∈ R
O elemento neutro desta adição é a função identicamente nula, restrita ao intervalo
[0, 1] e o elemento oposto de f(t) é -f(t) = -(f(t)).
Vale um resultado análogo para qualquer intervalo I = [a, b] ⊆ R; isto é, conjunto
C([a, b]) de todas as funções contínuas definidas em [a, b] e com valores em R é um
espaço vetorial sobre R.
11. Sejam U e V dois espaços vetoriais, ambos reais ou ambos complexos. Considere o
conjunto U × V = {(u, v) : u ∈ U e v ∈ V}. Dados (u1, v1), (u2, v2) ∈ U × V e k
∈ K (K = R ou C), definimos:
adição: (u1, v1) + (u2, v2)
def
= (u1 + u2, v1 + v2) ∈ U × V
multiplicação por escalar: k.(u1, v1)
def
= (k.u1, k.v1) ∈ U × V
(U × V, +, .) é um K-espaço vetorial.
O elemento neutro da adição é o par ordenado 0 = (0U, 0V) ∈ U × V e o oposto
do elemento x = (u, v) é o par ordenado - x = (-u, -v) ∈ U × V.
46
Observações:
1. Se (V, +, .) é um espaço vetorial real (ou complexo), por analogia com G.A.,
chamamos de vetor qualquer elemento de V. Ainda usando a nomenclatura de G.A.,
chamamos de escalar qualquer elemento de R (ou de C).
2. Define-se a diferença entre os vetores u, v ∈ V por: u - v := u + (-v).
3. Nestas notas de aulas, consideraremos apenas os espaços vetoriais reais e dessa
forma, por simplicidade, usaremos a notação (V, +, .) para os espaços vetoriais
considerados.
Exercícios:
1. Faça com todos os detalhes os exemplos 5, 6 e 9.
2. Mostre que R∞ = {(x1, x2, x3, ...)/ xi ∈ R}, com as operações definidas por :
(x1, x2, x3, ...) + (y1, y2, y3, ...) = (x1 + y1, x2 + y2, x3 + y3, ...)
a (x1, x2, x3, ...) = (a x1, a x2, a x3, ...),
é um espaço vetorial sobre R.
Exemplo importante: Os exemplos vistos até agora são os chamados usuais. Faremos
agora, com detalhes, um exemplo “diferente”: as operações definidas não serão as canônicas
(daí a importância do exemplo).
Seja V = {u ∈ R: u > 0} 6= ∅. Queremos dar a V uma estrutura de espaço vetorial
real. Para isso, definiremos para quaisquer u, v ∈ V, α ∈ R:
adição: u ⊕ v := u.v ∈ V
multiplicação por escalar: α×u = uα ∈ V
Então: (V, ⊕, ×) é um espaço vetorial real.
47
De fato: Consideremos u, v, w ∈ V e α, β ∈ R. Verifiquemos que os 8 axiomas da
definição de espaços vetoriais são satisfeitos.
A1. u ⊕ v = v⊕ u
Temos que: u ⊕ v def= u.v = v.u def= v ⊕ u
A2. (u ⊕ v) ⊕ w = u ⊕ (v ⊕ w)
Temos que: (u ⊕ v) ⊕ w def= u.v ⊕ w def= (u.v).w = u.(v.w) def= u.(v ⊕ w) def= u ⊕ (v
⊕ w)
A3. Existe em V um elemento e tal que e ⊕ u = u ⊕ e = u, ∀ u ∈ V.
Seja e = 1 ∈ V. Temos que: e ⊕ u def= e.u = 1.u = u.
Analogamente, mostra-se que u ⊕ e = u.e, portanto, e = 1 é o elemento neutro
desta adição.
A4. Para todo u ∈ V, existe (-u) ∈ V tal que u ⊕ (-u) = e.
Dado u ∈ V, o elemento u−1 está em V e é o oposto de u, pois: u ⊕ u−1 def= u.(u−1)
= 1 = e.
M1. α× (β×u) = (αβ)×u
Temos que: α× (β×u) def= α×(uβ) def= (uβ)α = uβα = uαβ def= (αβ)×u
M2. (α + β)×u = α×u ⊕ β×u
Temos que: (α + β)×u def= uα+β = uα.uβ = uα ⊕ uβ def= α×u ⊕ β×u
M3. α×(u ⊕ v) = α×u ⊕ α×v
De fato: α×(u ⊕ v) def= α×(u.v) def= (u.v)α = uα.vα def= (α×u).(α×v) def= α×u
⊕ α×v
M4. 1×u = u
De fato: 1×u def= u1 = u.
48
o que conclui a demonstração de que (V, ⊕, ×) é um espaço vetorial real.
Propriedades: Sejam V um espaço vetorial real, u, v, u1, u2, . . ., un ∈ V e α, β, α1,
α2, . . ., αn ∈ R. Valem as seguintes propriedades:
P1. α. 0︸︷︷︸
vetor
= 0︸︷︷︸
vetor
.
De fato: α.0 A3= α.(0 + 0) M3= α.0 + α.0. Logo: 0 A4= α.0 + [-(α.0)] = (α.0 + α.0)+
+ [-(α.0)] A2= α.0 + [α.0 + -(α.0)] A4= α.0 + 0 A3= α.0
P2. 0︸︷︷︸
n0.real
.u = 0︸︷︷︸
vetor
.
De fato: 0.u = (0 + 0)︸ ︷︷ ︸
n0.real
.u M2= 0.u + 0.u e dessa forma 0 A4= [-(0.u)] + 0.u = [-(0.u)] +
+ [0.u + 0.u] A2= [-(0.u) + 0.u] + 0.u A4= 0 + 0.u A3= 0.u .
P3. Se α u = 0︸︷︷︸
vetor
, com α ∈ R e u ∈ V , então α = 0︸︷︷︸
n0.real
ou u = 0︸︷︷︸
vetor
.
De fato: Suponhamos que α 6= 0. Logo, existe α−1 ∈ R e portanto:
u M4= 1.u = (α−1α).u M1= α−1(α.u)
hipótese
= α−1.0 P1= 0
P4. (−α)u = α(- u) = - (αu).
• -(α)u + αu M2= [(-α) + α]u = 0.u P2= 0 e portanto -(α)u é o vetor oposto de
(αu), isto é, -(α)u = -(αu).
• α(-u) + α u M3= α[u + (-u)] A4= α.0 P1= 0 e portanto α(-u) é o vetor oposto de
αu, isto é, α(-u) = -(αu)
P5. α(u - v) = αu - αv.
De fato: α(u - v) def= α[u + (-v)] M2= αu + α(-v) P4= αu + (-αv) def= αu - αv.
P6. (α - β)u = αu - βu.
49
De fato: (α - β)u = [α + (-β)]u M2= αu + (-β)u P4= αu + (-βu) def= αu - βu.
P7. β(α1u1 + α2u2 + . . . + αnun) = (βα1)u1 + (βα2)u2 + . . . + (βαn)un; ou, escrevendo
de outra forma:
β (
n∑
j=1
αj uj) =
n∑
j=1
(β αj) uj
Propriedades Adicionais: Num espaço vetorial V, valem ainda as propriedades:
1. O vetor nulo de V é único.
De fato: Suponhamos que em V existam dois elementos neutros para a adição; isto
é, além do vetor nulo 0, existe um vetor e ∈ V tal que para todo u ∈ V, tem-se:
e + u
(1)
= u = u + e
Então:
0
(1)
= e + 0
(A3)
= e
ou seja: e = 0 e portanto o elemento neutro é único.
2. Para cada vetor u ∈ V, o seu oposto -u ∈ V é único.
De fato: Suponhamos que exista em V um elemento u para o qual existam dois
elementos opostos: -u e v; isto é, v ∈ V é tal que u + v (2)= 0 = v + u. Mostremos
que v = -u.
-u
(A3)
= -u + 0
(2)
= -u + (u + v)
(A2)
= (-u + u) + v
(A4)
= 0 + v
(A3)
= v.
3. Se u ∈ V, então -(-u) = u.
De fato: Basta notar que: se u + v = v + u = 0, então, por definição, o vetor u é
o oposto do vetor v. Mas:
u + (-u) = (-u) + u = 0
50
e portanto u é o oposto de -u; isto é u = -(-u).
4. Se u, v, w ∈ V são tais que u + v = u + w, então v = w.
De fato: v A3= 0 + v A4= [(-u) + u] + v A2= (-u) + (u + v) hipótese= (-u) + (u + w) A2=
A2= [(-u) + u] + w A4= 0 + w A3= w.
Exemplo: Consideremos no espaço vetorial R3 os vetores u = (1, 2, 1), v= (3, 1, -2) e
w = (4, 1, 0).
a. Resolver a equação 3 u + 2 x = v + w.
Somando-se o oposto do vetor 3u aos dois membros da equação dada, obtemos:
(-3u) + [3u + 2x] = (-3u) + [v + w] A2⇐⇒ [(-3u) + 3u] + 2x = (-3u) + [v + w] A4⇐⇒
A4⇐⇒ 0 + 2x = (-3u) + [v + w] A3⇐⇒ 2x = (-3u) + [v + w] A2⇐⇒ 2x = -3u + v + w
Multiplicando-se os dois membros da última equação por 1
2
, obtemos:
1
2
(2x) = 1
2
(-3u + v + w) M1⇐⇒ (1
2
.2)x = 1
2
(-3u + v + w) M2⇐⇒ 1.x = -3
2
u + 1
2
v + 1
2
w M4⇐⇒
M4⇐⇒ x = -3
2
u + 1
2
v + 1
2
w
Substituindo-se u, v, w, obtemos:
x = -3
2
(1, 2, 1) + 1
2
(3, 1, -2) + 1
2
(4, 1, 0) = (-3
2
, -3, -3
2
) + (3
2
, 1
2
, -1) + (2, 1
2
, 0) =
= (-3
2
+ 3
2
+ 2, -3 + 1
2
+ 1
2
, -3
2
-1 + 0) = (2, -2, -5
2
).
b. Resolver o sistema de equações
{
u + y = v + z
v + 2 z = y
Resposta: y = -2u + v = (1, -3, -4) e z = -u = (-1, -2, -1).
Exercícios: Considere em P3(R) os vetores f(t) = t3 - 1 ,g(t) = t2 + t - 1 e h(t) = t + 2.
1. Calcular 2 f(t) + 3 g(t) - 4 h(t). (Resposta: 2 t3 + 3 t2 - t - 13)
2. Existe k ∈ R tal que f(t) + k g(t) = h(t)? (Não existe.)
3. Existem k1, k2 ∈ R tais que f(t) = k1 g(t) + k2 h(t)?(Não existem.)
51
2.3 Subespaços Vetoriais
Seja V um K-espaço vetorial.
Definição: Um subespaço vetorial de V é um subconjunto W ⊆ V tal que
1. 0 ∈ W;
2. Para todos u,v ∈ W, u + v ∈ W;
3. Para todos α ∈ R e u ∈ W, α u ∈ W.
Notação: W ⊆
sev
V
Exemplo: Os subconjuntos W1 = {(x, y, z) ∈ R3 : x - y = 0} e W2 = {(x, y, z) ∈ R3 : x +
z =
= 0 e x - 2 y = 0} são subespaços do espaço vetorial R3 .
Proposição: Se W é um subespaço vetorial do espaço vetorial V, então W, com as
operações de V, também é um espaço vetorial real.
Prova: Basta ver que W é fechado para as operações de V (adição de vetores e multi-
plicação de um vetor por um escalar), e, portanto, as operações definidas em V também
são operações definidas em W. Além disso, as propriedades A1 e A2 e as propriedades da
multiplicação valem para todos elementos de V, valendo, portanto, para os elementos de
W. Finalmente, como o vetor nulo de V pertence a W, as propriedades A3 e A4 também
são satisfeitas em W e, portanto, W é um espaço vetorial real.
Exemplos:
1. { 0 } e V são subespaços de V, chamados subespaços triviais de V.
2. W = {(x, y, z) ∈ R3 : ax + by + cz = 0} é um subespaço vetorial do R3, sendo a,
b, c números reais.
52
3. Seja S um sistema linear homogêneo de 2 equações e 3 incógnitas:
S :

a1 x + b1 y + c1 z = 0
a2 x + b2 y + c2 z = 0
O conjunto W de todas as soluções de S é um subespaço vetorial do R3, chamado
de espaço solução de S.
4. Generalização do exemplo anterior: Considere o sistema linear homogêneo de m
equações e n incógnitas.
S :

a11 x1 + a12 x2 + ...+ a1n xn = 0
a21 x1 + a22 x2 + ...+ a2n xn = 0
...................................................
am1 x1 + am2 x2 + ...+ amn xn = 0
O conjunto W de todas as soluções do sistema S é um subespaço vetorial do Rn ,
chamado de espaço solução de S .
5. P2(R) ⊆sev P5(R), sendo P2(R) = {a0 + a1t + a2t
2 : ai ∈ R, i = 0, 1, 2} e
P5(R) = {b0 + b1t + . . . + b5t5 : bi ∈ R, i = 0, 1, . . . , 5}
6. Generalização do exemplo anterior: Pm(R) ⊆sev Pn(R), para todos 0 ≤ m ≤ n.
7. O conjunto S(2) das matrizes simétricas de ordem 2 é um subespaço vetorial do
conjunto das matrizes quadradas de ordem 2; isto é,
S(2) =
{(
a b
b c
)
∈ M2(R), a, b, c ∈ R
}
é um subespaço vetorial de M2(R).
8. O exemplo anterior pode ser generalizado: o conjunto S(n) constituído por todas as
matrizes simétricas de ordem n é um subespaço vetorial de Mn(R).
53
9. O conjunto A(3) = {A ∈ M3(R) : aij = - aji, ∀ i, j} das matrizes anti-simétricas de
ordem 3 é um subespaço vetorial de M3(R).
Observe que: como, para cada par (i, j), aij = - aji, segue que a11 = a22 = a33 =
0 e, portanto, uma matriz anti-simétrica de ordem 3 genérica é do tipo: 0 a12 a13−a12 0 a23
−a13 −a23 0

10. De um modo geral, o conjunto A(n) das matrizes anti-simétricas de ordem n é um
subespaço vetorial de Mn(R).
11. O conjunto W1 = { f ∈ C([0, 1],R) : f(0) = 0 } é um subespaço vetorial de
C([0, 1],R).
12. O conjunto W2 = { f ∈ C([0, 1],R) : f(0) = f(1) } é outro subespaço vetorial de
C([0, 1],R)
13. Dados V um espaço vetorial real e 0 6= v ∈ V, o subconjunto W = {λv : λ ∈ R}
de V é um subespaço vetorial de V.
Exercício: Determine o espaço solução do sistema linear homogêneo
S :
{
4 x + 3 y − z + t = 0
x− y + 2 z− t = 0
É um bom (e fácil) exercício mostrar o seguinte resultado:
Proposição 1: U ⊆
sev
V ⇐⇒
{
(i) 0 ∈ U
(ii) se α é um escalar e u, v ∈ U então αu + v ∈ U
Observação: A Proposição anterior fornece uma forma equivalente à definição de sub-
espaço vetorial; ou seja, para mostrarmos que S é um subespaço vetorial de V, basta
mostrarmos que os elementos de S satisfazem às condições (i) e (ii) da Proposição ante-
rior.
Proposição 2: Sejam V um espaço vetorial real (ou complexo) e U, W ⊆
sev
V. A intersec-
ção
54
U ∩ W é um subespaço vetorial de V.
Prova: De fato: Como U ∩W ⊆ U ⊆ V, é claro que U ∩W ⊆ V. Verifiquemos, agora, que
U ∩ W é um subespaço vetorial de V. Para isso, usaremos o resultado enunciado na
observação anterior. Temos que:
(i) 0 ∈ U ∩ W pois 0 ∈ U e 0 ∈ W, uma vez que U, W são subespaços vetoriais de V.
(ii) Sejam α um escalar e u, v ∈ U ∩ W. Então:
u, v ∈U ∩W =⇒

u, v ∈ U
e
u, v ∈W
=⇒

αu + v ∈ U, pois U ⊆
sev
V
e
αu + v ∈W, pois W ⊆
sev
V
=⇒ αu + v ∈ U ∩W
o que conclui a demonstração de que U ∩ W é um subespaço vetorial de V.
Definição: Sejam U e W subespaços vetoriais do espaço vetorial V. A soma de U
com W, indicada por U + W é o subconjunto de V:
U + W := {u + w : u ∈ U e w ∈W}
Proposição 3: Se V é um espaço vetorial e U, W ⊆
sev
V, então U + W ⊆
sev
V.
Prova: De fato: Como U, W ⊆ U ⊆ V, é claro que U + W ⊆ V. Verifiquemos, agora, que
U + W é um subespaço vetorial de V. Temos que:
(i) 0 ∈ U + W pois 0 ∈ U e 0 ∈ W, uma vez que U, W são subespaços vetoriais de V
e, portanto 0 = 0 + 0 ∈ U + W.
(ii) Sejam α um escalar e v1 = u1 + w1, v2 = u2 + w2 dois elementos arbitrários de U +
W. Então αv1 + v2 = α(u1 + w1) + (u2 + w2) = (αu1 + αw1) + (u2 + w2) = (αu1 +
u2) +
+ (αw1 + w2) ∈ U + W, uma vez que αu1 + u2 ∈ U e αw1 + w2 ∈ W, pois
U e W são subespaços vetoriais de V.
55
Definição: Se U, W são subespaços vetoriais de um espaço vetorial V tais que
U ∩ W = {0}, então o subespaço soma é chamado soma direta de U e W e é denotado
por U ⊕ W.
Observação: Se U, W ⊆
sev
V são tais que U ⊕ W = V, dizemos que U e W são suple-
mentares.
Proposição 4: Sejam U e W subespaços vetoriais do espaço vetorial V. Então V = U
⊕ W se, e somente se, cada vetor v ∈ V admitir uma única decomposição do tipo v =
u + w, com u ∈ U e w ∈ W.
Prova: (=⇒) Suponhamos que V = U ⊕ W. Afirmamos que que cada vetor v de V se
decompõe do modo único numa soma v = u + w, com u ∈ U e w ∈ W.
De fato: se v = u1 + w1 = u2 + w2, com u1, u2 ∈ U e w1, w2 ∈ W, então u1 - u2 = w2
- w1. Dessa forma, u1 - u2, que é um elemento de U, é igual a um elemento de W sendo,
portanto, um elemento que também pertence a W. Ou seja, u1 - u2 ∈ U ∩W = {0}; isto
é, u1 - u2 = 0, o que implica em u1 = u2. De modo análogo, w1 = w2, o que conclui a
demonstração de que a decomposição de cada elemento de V como soma de um elemento
de U com um de W é única.
(⇐=) Mostremos, agora, que se cada elemento de V se escreve de modo único como uma
soma de um elemento de U com um de W, então V = U ⊕ W.
É claro, pela hipótese, que V = U + W. Resta mostrarmos que U ∩ W = {0}. Para isso,
consideremos x ∈ U ∩ W. Então: se u ∈ U e v ∈ V, teremos:
u + v = (u + x) + (v - x) ∈ U + W
e, pela unicidade da decomposição de elementos de V como soma de elementos de U e W,
segue que u = u + x, o que significa que x = 0 e, portanto, U ∩ W = {0}.
Exemplos:
1. R2 = U ⊕ W, sendo U = {(x, y) : y = 0} e W = {(x, y) : x = y}.
56
2. R3 não é soma direta dos subespaços U = {(0, y, 0): y ∈ R} e W = {(x, 0, 0): x
∈ R}. Por quê?
3. R3 é soma dos subespaçosU = {(x, y, 0): x, y ∈ R} e W = {(0, t, z): t, z ∈ R}
pois se (a, b, c) é um elemento arbitrário do R3, temos
(a, b, c) = (a, b
2
, 0) + (0, b
2
, c) ∈ U + W.
Porém: esta soma não é direta, uma vez que, por exemplo, (0, 1, 0) ∈ U ∩ W.
2.4 Combinações Lineares
Espaços Vetoriais Finitamente Gerados
Seja V um espaço vetorial sobre R. Consideremos um subconjunto S = {u1, u2, ..., un} ⊂
V e vamos indicar por [ S ] = {α1 u1 + α2 u2 + ...+ αn un, α1, α2, ..., αn ∈ R}. Então [ S ]
é um subespaço vetorial de V.
Definição: O subespaço vetorial [ S ] é chamado de subespaço gerado por S. Cada
elemento de [ S ] é chamado de uma combinação linear de u1, u2, ... ,un. Em ou-
tras palavras, se u ∈ [ S ], então u = α1 u1 + α2 u2 + ... + αn un, para escalares
α1, α2, ..., αn ∈ R.
Observação: Algumas vezes escrevemos [u1, u2, ..., un] no lugar de [ S ]. Dizemos tam-
bém que u1, u2, ..., un geram [ S ] ou que formam um sistema de geradores de [ S ].
Convenções:
1. Se S = ∅, então [ S ] = [ ∅ ] convenção= {0}
2. Se S ⊆ V é infinito, definimos [ S ] por:
u ∈ [ S ] ⇐⇒ ∃ v1, v2, . . ., vt ∈ S, ∃ α1, α2, . . . , αt ∈ R tais que u = α1v1 +
+ α2v2 + . . . + αt vt; isto é, [ S ] = conjunto de todas as combinações lineares
finitas de elementos de S.
57
Propriedades: Fixemos V: um espaço vetorial e S, S1, S2 subconjuntos de V.
P1. S ⊆ [ S ]
P2. S1 ⊂ S2 =⇒ [ S1 ] ⊆ [ S2 ]
P3. [ S ] = [[ S ]] (ou: se W é um subespaço vetorial deV, então W = [ W ])
P4. S1, S2 ⊆ V =⇒ [ S1∪ S2 ] = [ S1 ] + [ S 2 ]
Exemplo: Em M2(R), considere u =
(
1 0
0 0
)
e v =
(
0 0
1 1
)
Encontre [ u, v ].
Solução: [ u, v ] = {αu + βv : α, β ∈ R} e portanto:
A ∈ [ u, v ] ⇐⇒ ∃ α, β ∈ R tais que A = α
(
1 0
0 0
)
+ β
(
0 0
1 1
)
=
(
α 0
0 0
)
+
+
(
0 0
β β
)
=
(
α 0
β β
)
Logo:
[ u, v ] =
{(
x 0
y y
)
: x, y ∈ R
}
Definição: Dizemos que um espaço vetorial V é finitamente gerado se, e somente se,
existe S ⊂ V, S finito, de maneira que V = [ S ].
Exemplos:
1. V3 = espaço vetorial dos vetores de G.A. é finitamente gerado pois {~i,~j, ~k} gera V3.
2. V = {0} é finitamente gerado pois S = ∅ gera V.
58
3. M2(R) é finitamente gerado pois S =
{(
1 0
0 0
)
,
(
0 1
0 0
)(
0 0
1 0
)(
0 0
0 1
)}
gera
M2(R).
Generalização: Mn(R) é finitamente gerado pois o subconjunto de n2 matrizes
reais
S =


1 0 0 · · · 0
0 0 0 · · · 0
0 0 0 · · · 0
...
...
... . . .
...
0 0 0 · · · 0

n×n
,

0 1 0 · · · 0
0 0 0 · · · 0
0 0 0 · · · 0
...
...
... . . .
...
0 0 0 · · · 0

n×n
, · · · ,

0 0 0 · · · 0
0 0 0 · · · 0
0 0 0 · · · 0
...
...
... . . .
...
0 0 0 · · · 1

n×n

gera Mn(R).
4. R3 é finitamente gerado pois S = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} gera R3.
Generalização: Rn é finitamente gerado pois
S = {(1, 0, 0, . . ., 0), (0, 1, 0, . . ., 0), · · · , (0, 0, 0, · · · ,1)}
gera Rn.
5. Mm×n(R) é finitamente gerado pois o subconjunto de m.n matrizes reais
S =


1 0 0 · · · 0
0 0 0 · · · 0
0 0 0 · · · 0
...
...
... . . .
...
0 0 0 · · · 0

m×n
,

0 1 0 · · · 0
0 0 0 · · · 0
0 0 0 · · · 0
...
...
... . . .
...
0 0 0 · · · 0

m×n
, · · · ,

0 0 0 · · · 0
0 0 0 · · · 0
0 0 0 · · · 0
...
...
... . . .
...
0 0 0 · · · 1

m×n

gera Mm×n(R).
6. P3(R) é finitamente gerado pelo subconjunto S de quatro elementos: S = {1, t, t2,
t3}.
Generalização: Pn(R) é finitamente gerado pelo subconjunto S de n + 1 ele-
mentos: S = {1, t, t2, t3, · · · , tn}.
59
Exercício 1: Consideremos no espaço vetorial V = R3 os vetores u = (0, 1, 0) e v = (0,
1, 1) e S = {u, v}. Então [ S ] = [ u, v ] = {α u + β v : α, β ∈ R} = { (0, α + β, β) :
α, β ∈ R}. Como o sistema α+β = y, β = z é compatível determinado, podemos escrever
[ u,v ] = {(0, y, z) : y, z ∈ R}.
Exercício 2: Considere os seguintes vetores do espaço R3:
u1 = (1, 0, 0), u2 = (1, 1, 1), v1 = (0, 1, 0), v2 = (0, 0, 1)
(a) Determine U = [ u1, u2 ] e V = [ v1, v2 ].
(b) Determine um sistema de geradores do subespaço W = U ∩ V.
Solução:
a. Temos que U = { u ∈ R3 : u = a u1 + b u2} = { u = a u1 + b u2 : a,b ∈ R}. Logo
U = {a(1, 0, 0) + b(1, 1, 1) : a,b ∈ R} = {(a + b, b, b) : a,b ∈ R}= {(x, y, z) ∈ R3 : y
= z }
V = {a(0, 1, 0) + b(0, 0, 1) : a,b ∈ R} = {(0, a, b) : a,b ∈ R} = {(x, y, z) ∈ R3 : x = 0}
b. Note que: w ∈ W ⇐⇒ w ∈ U e w ∈ V e para isto é preciso que existam a, b, c, d
∈ R tais que a(1, 0, 0) + b(1, 1, 1) = w = c(0, 1, 0) + d(0, 0, 1); isto é

a + b = 0
b = c
b = d
Portanto, w = - b(1, 0, 0) + b(1, 1, 1) = b(0, 1, 1). Logo U ∩ V = {(0, b, b) : b ∈ R};
ou seja, U ∩ V = [(0, 1, 1)].
60
Exercício 3: Pn(R) é finitamente gerado, por exemplo, pelo conjunto de polinômios
{ p0 = 1, p1 = t, p2 = t2, p3 = t3, ... , pn = tn}, uma vez que todo polinômio de Pn(R) é
da forma
p(t) = a0 t
0 + a1 t + a2 t
2 + a3 t
3 + ...+ an t
n = a0 p0 + a1 p1 + a2 p2 + a3 p3 + ...+ an pn,
para constantes a0, a1, a2, ... , an ∈ R.
Exercício 4: Achar um sistema de geradores dos seguintes subespaços vetoriais de R4.
(a) U = {(x, y, z, t) : x - y - z + t = 0}.
(b) W = {(x, y, z, t) : x - y = z + t = 0}.
Solução:
a. Considere u = (x, y, z, t) ∈ U. Então: y = x - z + t e dessa forma
u = (x, x - z + t, z, t) = (x, x, 0, 0) + (0, -z, z, 0) + (0, t, 0, t) = x(1, 1, 0, 0) +
+ z (0, -1, 1, 0) + t(0, 1, 0, 1); isto é, u pode ser escrito como combinação linear dos
vetores u1 = (1, 1, 0, 0), u2 = (0, -1, 1, 0) e u3 = (0, 1, 0, 1) (note que: u1, u2, u3 ∈ U)
e portanto U = [(1, 1, 0, 0), (0, -1, 1, 0), (0, 1, 0, 1)].
b. Seja w = (x, y, z, t) ∈ W. Então: x = y e z = -t e portanto w = (x, x, -t, t) =
= (x, x, 0, 0) + (0, 0, -t, t) = x(1, 1, 0, 0) + t(0, 0, -1, 1); ou seja, w é combinação linear dos
vetores w1 = (1, 1, 0, 0) e w2 = (0, 0, -1, 1), que (é fácil ver) pertencem a W. Dessa forma,
W = [(1, 1, 0, 0), (0, 0, -1, 1)].
Exercício 5: Considere a equação (diferencial)
y
′′ − 5 y′ + 6 y = 0 (2.1)
sendo que as funções procuradas devem ter as derivadas de primeira e segunda ordens
contínuas e estão definidas em R. Uma função y(x) que satisfaz (2.1) é chamada de
solução da equação.
a. Mostre que as funções y1(x) = e2x e y2(x) = e3x são soluções de (2.1).
61
b. Mostre que o conjunto de todas as soluções é um subespaço vetorial de C(R,R).
c. Mostre que qualquer combinação linear y(x) = α1 y1(x) + α2 y2(x) também é uma
solução de (2.1).
Exercício 6: Determine um sistema de geradores para o subespaço vetorial de R3,
U = {(x, y, z) : x + z = 0 , x - 2 y = 0}.
Exercícios
1. No conjunto V = {(x, y) : x, y ∈ R}, definimos “adição” por: (x1, y1) + (x2, y2) =
= (x1 + x2, 0) e multiplicação por escalar usual do R2. Nessas condições, V é um espaço
vetorial real? Justifique sua resposta.
2. No conjunto V = {(x, y) : x, y ∈ R}, definimos a adição de modo usual e a
multiplicação por escalar por: α(x, y) = (αx, 0), sendo α ∈ R. V é espaço vetorial real?
Justifique sua resposta.
3. No espaço vetorial M3x2(R), consideremos os vetores:
A =
1 10 0
0 0
 B =
0 12 1
1 1
 C =
1 11 0
0 −1

(a) Calcule 2A + B - 3C;
(b) Calcule X ∈ M3x2(R) tal que A+X2 -
X−B
3
= C;
(c) Existem λ1, λ2 ∈ R tais que A = λ1B + λ2C?
4. Quais dos seguintes conjuntos W são subespaços do R3?
(a) W = {(x, y, z) ∈ R3 : x = 0};
(b) W = {(x, y, z) ∈ R3 : x é inteiro};
62
(c) W = {(x, y, z) ∈ R3 : y é irracional};
(d) W = {(x, y, z) ∈ R3 : x - 3z = 0}.
5. Seja P(R) = conjunto de todos os polinômios. Quais dos seguintes conjuntos abaixo
são subespaços de P(R)?
(a) W = {p(t) ∈ P(R) : p(t) tem grau maior que 2};
(b) W = {p(t) ∈ P(R) : p(0) = 2p(1)};
(c) W = {p(t) ∈ P(R) : p(t) > 0};
(d) W = {p(t) ∈ P(R) : p(t) + p′(t) = 0}
6. Explique porquê os seguintes subconjuntos não são subespaços do R3:
(a) S = {(x, y, z) ∈ R3 : x = 1};
(b) S = {(x, y, z) ∈ R3 : x2 + y + z = 0};
(c) S = {(x, y, z) ∈ R3 : x ≤ y ≤ z};
(d) S = {(x, y, z) ∈ R3 : x + y é racional}.
7. Sejam I = [0, 1] e C(I) = {f:I→

Outros materiais