Buscar

Apostila LCMAT - Algebra linear - Liliana

Prévia do material em texto

UENF
Universidade Estadual do Norte Fluminense Darcy Ribeiro
CCT-LCMAT
Laborato´rio de Cieˆncias Matema´ticas
A´LGEBRA LINEAR PARA ENGENHARIA
Liliana A. L. Mescua
Rigoberto G. S. Castro
Maio de 2013
.
Suma´rio
1 Matrizes 1
1.1 Tipos de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Operac¸o˜es com Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Adic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Subtrac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Multiplicac¸a˜o de um nu´mero real por uma Matriz . . . . . . . . . . . 5
1.2.4 Multiplicac¸a˜o de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Me´todo de Gauss Jordam para o Ca´lculo de Inversa . . . . . . . . . . 7
1.4 Determinante de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.1 Propriedades do Determinante . . . . . . . . . . . . . . . . . . . . . . 11
1.4.2 Ca´lculo por Reduc¸a˜o de Linhas ou Colunas-Triangulac¸a˜o . . . . . . . 12
1.5 A Matriz Adjunta e a Inversibilidade de Matrizes . . . . . . . . . . . . . . . 14
1.6 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2 Sistemas de Equac¸o˜es Lineares Alge´bricas 17
2.1 Classificac¸a˜o de um Sistema Linear . . . . . . . . . . . . . . . . . . . . . . . 18
2.2 Me´todo de Eliminac¸a˜o de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Resoluc¸a˜o de Sistemas pela Regra de Cramer . . . . . . . . . . . . . . . . . . 22
i
2.4 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3 Vetores 26
3.1 Interpretac¸a˜o Geome´trica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.1.1 Adic¸a˜o de Vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1.2 Multiplicac¸a˜o de um Nu´mero Real por um Vetor . . . . . . . . . . . . 28
3.1.3 Aˆngulo entre dois vetores . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2 Interpretac¸a˜o Alge´brica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2.1 Interpretac¸a˜o Alge´brica no Plano . . . . . . . . . . . . . . . . . . . . 30
3.2.2 Interpretac¸a˜o Alge´brica no Espac¸o . . . . . . . . . . . . . . . . . . . 32
3.3 Produto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3.1 Interpretac¸a˜o Geome´trica do Produto Escalar . . . . . . . . . . . . . 34
3.3.2 Aˆngulo entre dois Vetores . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3.3 Projec¸a˜o de um Vetor sobre Outro . . . . . . . . . . . . . . . . . . . 36
3.4 Produto Vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4.1 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.4.2 Interpretac¸a˜o Geome´trica . . . . . . . . . . . . . . . . . . . . . . . . 39
3.5 Retas e Planos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.6 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4 Espac¸o Vetorial 43
4.1 Subespac¸os Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.1 Propriedades dos Subespac¸os . . . . . . . . . . . . . . . . . . . . . . 46
4.2 Combinac¸a˜o Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.3 Espac¸o Gerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.4 Independeˆncia e Dependeˆncia Linear . . . . . . . . . . . . . . . . . . . . . . 49
ii
4.5 Base e Dimensa˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.5.1 Componentes de um Vetor . . . . . . . . . . . . . . . . . . . . . . . . 56
4.6 Espac¸o Vetorial Euclideano . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.6.1 Complementos Ortogonais . . . . . . . . . . . . . . . . . . . . . . . . 59
4.6.2 Uma Relac¸a˜o Geometrica Entre Espac¸o Nulo e Espac¸o Linha . . . . . 60
4.6.3 Conjuntos Ortogonais e Ortonormais . . . . . . . . . . . . . . . . . . 60
4.6.4 Processo de Gram - Schimidt . . . . . . . . . . . . . . . . . . . . . . 62
4.7 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5 Transformac¸o˜es Lineares 69
5.1 Propriedades das Transformac¸o˜es Lineares . . . . . . . . . . . . . . . . . . . 72
5.1.1 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.2 Nu´cleo de uma Transformac¸a˜o Linear . . . . . . . . . . . . . . . . . . . . . . 74
5.3 Imagem de uma Transformac¸a˜o Linear . . . . . . . . . . . . . . . . . . . . . 75
5.4 Propriedades do Nu´cleo e da Imagem . . . . . . . . . . . . . . . . . . . . . . 77
5.4.1 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.5 Matriz de uma Transformac¸a˜o Linear . . . . . . . . . . . . . . . . . . . . . . 79
5.6 Operac¸o˜es com Transformac¸o˜es Lineares . . . . . . . . . . . . . . . . . . . . 84
5.6.1 Adic¸a˜o ou Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.6.2 Multiplicac¸a˜o por Escalar . . . . . . . . . . . . . . . . . . . . . . . . 84
5.6.3 Composic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.6.4 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.7 Mudanc¸a de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.8 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6 Autovalores e Autovetores 89
iii
6.1 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7 Diagonalizac¸a˜o de Matrizes 94
7.1 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.2 Matrizes Sime´tricas e autovetores ortogonais . . . . . . . . . . . . . . . . . . 96
8 Aplicac¸o˜es 98
8.1 Me´todo de Mı´nimos Quadrados . . . . . . . . . . . . . . . . . . . . . . . . . 98
8.1.1 Ajuste de Mı´nimos Quadrados a Dados . . . . . . . . . . . . . . . . . 100
8.2 Rotac¸a˜o de Coˆnicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
A Nu´meros Complexos 107
iv
Cap´ıtulo 1
Matrizes
Definic¸a˜o 1.1. Uma matriz de ordem m× n e´ uma tabela de nu´meros chamados de ele-
mentos ou termos da matriz. Esta tabela possui mn elementos escalares (nu´meros reais
ou complexos) dispostos em m linhas (nu´mero de filas horizontais) e n colunas (nu´mero de
filas verticais). Por convenc¸a˜o usaremos sempre as letras maiu´sculas A, B, C, D, . . . para
nomea-las
A =

a11 a12 . . . a1n
a21 a22 . . . a2n
...
...
...
...
am1 am2 . . . amn
 =

a11 a12 . . . a1n
a21 a22 . . . a2n
...
...
...
...
am1 am2 . . . amn
 = (aij)m×n. (1.1)
Exemplo:
A =
2 2 0
1 −3 5

2×3
B =
1 4
0 7

2×2
(1.2)
Exerc´ıcio: Escreva a matriz A = (aij)3×2 , onde seus elementos aij = 2i+ j.
Observac¸a˜o 1.1. De acordo com o nu´mero de linhas e colunas da matriz, podemos destacar
os seguintes casos particulares
• Quando m = 1, matriz linha
• Quando n = 1, matriz coluna
• Quando m = n, matriz quadrada
1
Definic¸a˜o 1.2. (Igualdade de Matrizes:) Duas matrizes A = (aij)m×n e B = (bij)m×n sa˜o
ditas iguais, se todos seus elementos correspondentes sa˜o iguais, isto e´, se aij = bij.
Exerc´ıcio: Determine a, b, c, d de modo que:

a 1
1 b+ 1
c− 2 d2
 =

2 1
1 1
6 3
.
1.1 Tipos de Matrizes
Matriz Nula: E´ uma matriz cujos elementos sa˜o todos nulos, isto e´ aij = 0, ∀ i, j.
Denotamos por O ou Om×n
Matriz Diagonal Uma matriz quadradaD = (dij)n×n e´ dita diagonal quando dij = 0,
∀ i 6= j.
Exemplo: D =
 2 0
0 4

Matriz Identidade: E´ uma matriz diagonal onde aii = 1 para todo i, e aij = 0 para todo
i 6= j.
Exemplo: I =

1 0 . . . 0
0 1 . . . 0
...
...
...
0 0 . . . 1

Matriz Triangular Uma matriz quadrada A = (aij)nxn e´ dita triangular superior, se aij = 0
para i > j. Uma matriz B = (bij)nxn e´ dita triangular inferior quando bij = 0, para i < j.
Exemplo: A =

5 4 4 5
0 1 9 6
0 0 3 8
0 0 0 0
 e B =

5 0 0 0
2 1 0 0
9 7 3 0
8 6 5 1

Matriz Sime´trica: E´ uma matriz quadrada, onde aij = aji.
2
Exemplo:

4 3 1
3 2 0
1 0 5
 e

a b c d
b e f g
c f h i
d g i k

Observe que, no caso de uma matriz sime´trica, a parte superior e´ uma “reflexa˜o”da parte
inferior, em relac¸a˜o a` diagonal.
Matriz Transposta A transposta de uma matriz A = (aij)m×n, e´ uma outra matriz AT =
(bij)n×m, cujas linhas sa˜o as colunas de A, isto e´, bij = aji.
Exemplo: A transposta de A =

3 −1
4 −2
5 −3

3×2
e´ AT =
 3 4 5
−1 −2 −3

2×3
E´ simples verificar que:
1. A transposta da transposta de uma matriz e´ ela mesma, isto e´ (AT )T = A.
2. Uma matriz e´ sime´trica se somente se ela for igual a` sua transposta, isto e´, A = AT .
1.2 Operac¸o˜es com Matrizes
Ao utilizar matrizes, surge naturalmente a necessidade de efetuarmos certas operac¸o˜es.
Veremos algumas delas e suas propriedades a seguir:
1.2.1 Adic¸a˜o
A soma de duas matrizes da mesma ordem, A = (aij)m×n e B = (bij)m×n, e´ uma matriz
m× n, definida por A+B = (aij + bij)m×n.
Exemplo:

1 4
2 5
3 6
+

−1 1
−3 0
4
√
2
 =

1− 1 4 + 1
2− 3 5 + 0
3 + 4 6 +
√
2
 =

0 5
−1 5
7 6 +
√
2
 .
3
Propriedades da Adic¸a˜o
Se as matrizes A, B e C possuem a mesma ordem, valem as seguintes propriedades:
1. A+B = B + A (comutativa).
2. A+ (B + C) = (A+B) + C (associativa).
3. A+O = A, quando O e´ uma matriz nula (elemento neutro).
4. Seja A = (aij)m×n. Chama-se matriz oposta de A, a matriz m × n representada por
−A = (−aij)m×n, tal que A+ (−A) = O (−A e´ o elemento oposto).
5. (A+B)T = AT +BT , a transposta de uma soma e´ igual a somas das transpostas.
Exemplo: A matriz oposta de A =

1 −4
2 0
7 3
 e´ − A =

−1 4
−2 0
−7 −3
 .
1.2.2 Subtrac¸a˜o
A diferenc¸a de duas matrizes da mesma ordem, A = (aij)m×n e B = (bij)m×n, e´ uma matriz
m× n, que denota-se por A−B, que e´ a soma de A com a oposta de B; isto e´:
A−B = A+ (−B) = (aij)m×n + (−bij)m×n = (aij − bij)m×n (1.3)
Exemplo:

1 4
2 5
3 6
−

−1 1
−3 0
4 2
 =

1 + 1 4− 1
2 + 3 5− 0
3− 4 6− 2
 =

2 3
5 5
−1 4
 .
Exerc´ıcio:
1. Sejam A = (aij)3×2 e B = (bij)3×2, tal que aij = 2i+ j e bij = 1 + i− j.
(a) Determine as matrizes C = A+B e D = A−B.
(b) Determine uma fo´rmula para os elementos cij de C e dij de D.
4
2. Encontre as matrizes 2× 2, A e B, sabendo que:
A+B +
 1 1
1 1
 =
 4 0
1/2 −1
+
 0 2
3/2 4

A−B =
 6 −3
4 0
−
 2 −2
2 1
 .
1.2.3 Multiplicac¸a˜o de um nu´mero real por uma Matriz
Seja A = (aij)m×n e k um nu´mero escalar. Definimos o mu´ltiplo escalar B = kA =
(bij)m×n, a matriz m× n onde bij = kaij.
Exemplo Se A =

3 −1
1 0
6 4
, enta˜o 2A =

6 −2
2 0
12 8
 e 13 A =

1 −1/3
1/3 0
2 4/3

1.2.4 Multiplicac¸a˜o de Matrizes
Sejam as matrizes A = (aij)m×p e B = (bij)p×n. Definimos C = A ·B = (cuv)m×n, tal que
cuv =
p∑
k=1
aukbkv para todo 1 ≤ u ≤ m e 1 ≤ v ≤ n (1.4)
Observac¸a˜o 1.2. So´ se pode efetuar o produto de duas matrizes Am×p e Bp×n, se o nu´mero
de colunas da primeira matriz for igual ao nu´mero de linhas da segunda matriz, sendo assim
o resultado da multiplicac¸a˜o de A por B sera´ uma matriz de ordem m × n. Note que o
elemento cij e´ obtido multiplicando os elementos da i-e´sima linha da primeira matriz pelos
elementos correspondentes da j-e´sima coluna da segunda matriz, e somando este produtos.
Exemplo:
a)
 −1
2

2×1
(
−3 4
)
1×2
=
 −1.(−3) −1.(4)
2.(−3) 2.(4)
 =
 3 −4
−6 8

2×2
b)
 1 0
3 −2

2×2
 −1 1
5 3

2×2
=
 1.(−1) + 0.(5) 1.(1) + 0.(3)
3.(−1) +−2.(5) 3.(1) +−2.(3)
 =
 −1 1
−13 −3

2×2
5
Observac¸a˜o 1.3. A propriedade conmutativa em matrizes nem sempre e´ va´lida, isto e´ AB e
BA na˜o necessariamente sa˜o iguais. No item b) do exemplo anterior verifique se AB = BA.
Se A e´ uma matriz quadrada n× n e I a matriz identidade n× n, enta˜o
AI = IA = A.
Propriedades da Multiplicac¸a˜o
Supondo que a ordem das matrizes A, B e C estejam definidas de modo que cada uma
das operac¸o˜es abaixo indicadas possam ser efetuadas, enta˜o as propriedades seguintes sera˜o
va´lidas.
1. (A.B).C = A.(B.C) (associatividade).
2. (A±B).C = A.C ±B.C (distributividade a` direita).
3. A.(B ± C) = A.B ± A.C (ditributividade a` esquerda).
4. k(B ± C) = kB ± kC, k, s ∈ R
5. (k ± s)A = kA± sA, k, s ∈ R
6. k(sA) = (ks)A, k, s ∈ R
7. (α.A)T = α.AT , onde α e´ qualquer escalar.
8. (A.B)T = BT .AT (deve-se observar a ordem).
Matriz Anti-sime´trica: E´ uma matriz quadrada, onde AT = −A.
Exemplo: A =

0 3 4
−3 0 −6
−4 6 0
 e´ anti-sime´rica.
1.3 Matriz Inversa
Uma matriz quadrada A e´ dita invers´ıvel ou na˜o singular, se existir uma outra matriz
B (inversa multiplicativa), da mesma ordem, tal que A.B = I e B.A = I. Denotaremos
B = A−1, sendo que
A.A−1 = A−1.A = I.
6
Definic¸a˜o 1.3. Uma matriz A e´ dita na˜o invers´ıvel ou singular se ela na˜o tem uma
inversa multiplicativa.
Propriedades
1. Uma matriz invers´ıvel tem uma u´nica inversa multiplicativa.
2. Se A e B sa˜o matrizes de mesma ordem, ambas invers´ıveis, enta˜o A e B e´ invers´ıvel e
(A.B)−1 = B−1 . A−1.
3. Nem toda matriz tem inversa.
Exemplo: As matr´ızes A =
2 1
0 4
 e B =
1/2 −1/8
0 1/4
 sa˜o inversas uma da outra ja
que A.B = B.A = I
Exerc´ıcio: Encontre a inversa da matriz A =
1 1
0 1
.
1.3.1 Me´todo de Gauss Jordam para o Ca´lculo de Inversa
Uma forma para achar a inversa de uma matriz quadrada A, e que envolve substancialmente
menos contas do que aplicando a definic¸a˜o diretamente, e´ usando as operac¸o˜es elementares
sobre as linhas da matriz aumentada associada (A|I) de modo que esta se transforme numa
matriz aumentada da forma (I|B). Diremos que B = A−1.
As operac¸o˜es elementares permitidas sa˜o:
1. Permutar linhas Li ←→ Lj
2. Multiplicar uma linha por um nu´mero real α na˜o nulo, Li ←→ αLi.
3. Somar a uma linha um mu´ltiplo de uma outra, Li ←→ Li + αLj.
Exemplo: Ache a inversa da matriz A =

2 3 0
1 −2 −1
2 0 −1
 se existir.
7
Soluc¸a˜o: A partir da matriz aumentada (A|I), usando as operac¸o˜es por linhas temos:
(A|I) =

2 3 0 | 1 0 0
1 −2 −1 | 0 1 0
2 0 −1 | 0 0 1

L1 ←→ L2
L2 ←→ L1
L3 ←→ L3
=

1 −2 −1 | 0 1 0
2 3 0 | 1 0 0
2 0 −1 | 0 0 1

L1 ←→ L1
L2 ←→ L2 − 2L1
L3 ←→ L3 − 2L1
=

1 −2 −1 | 0 1 0
0 7 2 | 1 −2 0
0 4 1 | 0 −2 1

L1 ←→ L1
L2 ←→ L2/7
L3 ←→ L3
=

1 −2 −1 | 0 1 0
0 1 2/7 | 1/7 −2/7 0
0 4 1 | 0 −2 1

L1 ←→ L1 + 2L2
L2 ←→ L2
L3 ←→ L3 − 4L2
=

1 0 −3/7 | 2/7 3/7 0
0 1 2/7 | 1/7 −2/7 0
0 0 −1/7 | −4/7 −6/7 1

L1 ←→ L1 − 3L3
L2 ←→ L2 + 2L3
L3 ←→ −7L3
=

1 0 0 | 2 3 −3
0 1 0 | −1 −2 2
0 0 1 | 4 6 −7
 = (I|A−1)
Portanto, a inversa da matriz A existee e´ dada por A−1 =

2 3 −3
−1 −2 2
4 6 −7

Exemplo: Encontre a inversa da matriz A =

2 1 −4
−4 −1 6
−2 2 −2
 se existir.
8
Soluc¸a˜o: A partir da matriz aumentada (A|I), usando as operac¸o˜es por linhas temos:
(A|I) =

2 1 −4 | 1 0 0
−4 −1 6 | 0 1 0
−2 2 −2 | 0 0 1

L1 ←→ L1
L2 ←→ L2 + 2L1
L3 ←→ L3 + L1
=

2 1 −4 | 1 0 0
0 1 −2 | 2 1 0
0 3 −6 | 1 0 1

L1 ←→ L1
L2 ←→ L2
L3 ←→ L3 − 3L2
=

2 1 −4 | 1 0 0
0 1 −2 | 2 1 0
0 0 0 | −5 −3 1

Nesse ponto vemos que na˜o e´ poss´ıvel reduzir A a I, ja que encontramos uma linha de zeros
do lado esquerdo da matriz completa. Consequentemente A na˜o e´ invers´ıvel.
Exemplo Seja a matriz A =
 a b
c d
. Usando o me´todo de Gauss Jordam, prove que a
matriz inversa dela e´
A−1 =
1
ad− bc
 d −b
−c a
 (1.5)
Soluc¸a˜o:
(A|I) =
a b | 1 0
c d | 0 1
 L1 ←→ L1a
L2 ←→ L2d
=
1 ba | 1/a 0
c
d
1 | 0 1/d
 L1 ←→ L1
L2 ←→ L2 − cdL1
=
1 ba | 1a 0
0 1− bc
ad
| −c
ad
1
d
 L1 ←→ L1 − ba 1(1− bcad )L2
L2 ←→ 11− bc
ad
L2
=
1 0 | 1a + ba 1(1− bcad ) cad − bad 1(1− bcad )
0 1 | −c
ad
1
(1− bc
ad
)
1
d
1
(1− bc
ad
)
 =
1 0 | d(ad−bc) −bad−bc
0 1 | −c
ad−bc
a
ad−bc .

Nesta u´ltima matriz, colocando em evideˆncia o fator 1
ad−bc segue o resultado 1.5.
9
1.4 Determinante de uma Matriz
E´ poss´ıvel associar a cada matriz A de ordem n×n, um escalar (nu´mero real ou complexo),
que denotaremos por detA, cujo valor vai nos dizer se a matriz e´ ou na˜o invert´ıvel. Antes
de dar a definic¸a˜o geral vamos a considerar alguns casos particulares.
Caso 1. Se A = (a) e´ uma matriz 1× 1, definimos o determinante de A por:
detA = a.
Diremos que A tem inversa multiplicativa (A e´ invert´ıvel) se e so´ se detA 6= 0.
Caso 2. Se A =
 a11 a12
a21 a22
 e´ uma matriz 2 × 2, definimos o determinante de A pelo
fator inverso que aparece em (1.5), neste caso sera´:
detA = a11a22 − a12a21.
Caso 3. Se A =

a11 a12 a13
a21 a22 a23
a31 a32 a33
 e´ uma matriz 3×3, definimos o determinante de A por:
detA = a11a22a33 − a11a32a23 − a12a21a33 + a12a31a23 + a13a21a32 − a13a31a22.
Note que o detA e´ o fator inverso que se obte´m ao calcular a matriz inversa de A usando
o me´todo de Gauss Jordam.
Podemos reescrever a equac¸a˜o anterior na forma
detA = a11(a22a33 − a32a23)− a12(a21a33 − a31a23) + a13(a21a32 − a31a22) (1.6)
Para j = 1, 2, 3, vamos denotar por M1j a submatriz 2 × 2 de A formada retirando-se a
primeira linha e a j-e´sima coluna de A. O determinante de A (1.6) pode ser, enta˜o, colocado
na forma
detA = a11 detM11 − a12 detM12 + a13 detM13 (1.7)
Para ver como generalizar (1.7) para o caso n > 3, vamos a dar a seguinte definic¸a˜o.
10
Definic¸a˜o 1.4. (Menores e Cofatores): Seja A = (aij) uma matriz n × n. O ij-e´simo
menor de A e´ o determinante da submatriz Mij, de ordem (n − 1) × (n − 1), que sobra
quando suprimimos a i-e´sima linha e a j-e´sima coluna de A. O ij-e´simo Cofator Aij de A
(ou o cofator de aij) e´ definido como
Aij = (−1)i+j detMij.
Definic¸a˜o 1.5. (Desenvolvimento de Laplace) O determinante de uma matriz n× n e´
o nu´mero real detA, definido por
detA = ai1.Ai1 + ai2.Ai2 + ...+ a1n.Ain (1.8)
ou
detA = a1j.A1j + a2j.A2j + ...+ anj.Anj, (1.9)
onde Aij e´ ij-e´simo cofator de A.
Exemplo: Ache o determinante da matriz A =

0 1 5
3 −6 9
2 6 1
.
Soluc¸a˜o.: Calculando a matriz de cofatores temos:
cof(A) =

−60 15 30
29 −10 2
39 15 −3

Logo, o determinante de A pode-se obter por exemplo das seguintes formas:
1. Em relac¸a˜o a primera linha, detA = 0(−60) + 1(15) + 5(30) = 165.
2. Em relac¸a˜o a tercera linha, detA = 2(39) + 6(15) + 1(−3) = 165.
3. Em relac¸a˜o a segunda coluna, detA = 1(15)− 6(−10) + 6(15) = 165.
1.4.1 Propriedades do Determinante
Seja A uma matriz de ordem n× n.
11
1. Se A tem uma linha o uma coluna de zeros, enta˜o detA = 0.
2. Se duas linhas ou colunas de A sa˜o iguais, enta˜o detA = 0.
3. detA = detAT .
4. Se A e´ uma matriz, triangular superior ou triangular inferior ou diagonal, enta˜o o detA
e´ igual ao produto de seus elementos da diagonal.
5. Se B e´ uma matriz de ordem n× n, enta˜o: det(A+B) 6= detA+ detB e det(AB) =
detA detB
6. Seja B a matriz obtida ao multiplicar uma u´nica linha ou coluna de A por k, enta˜o:
detB = k detA (detA =
1
k
detB).
7. Seja B a matriz obtida ao permutar duas linhas (ou duas colunas) de A, enta˜o detB =
− detA.
8. Seja B a matriz obtida ao somar um mu´ltiplo de uma linha (ou colunas) de A a uma
outra linha (ou coluna), enta˜o detB = detA.
1.4.2 Ca´lculo por Reduc¸a˜o de Linhas ou Colunas-Triangulac¸a˜o
A seguir apresentamos um me´todo para calcular determinantes que envolve substancialmente
menos contas que aplicando a definic¸a˜o diretamente.
Assim, tendo em mente as propriedades 6, 7 e 8, a ide´ia sera´ reduzir a matriz A ao
formato triangular.
Exemplo: Ache o determinante da matriz A =

0 1 5
3 −6 9
2 6 1
.
12
Soluc¸a˜o: Usando as propriedades 6, 7 e 8, obtemos que
detA =
∣∣∣∣∣∣∣∣∣
0 1 5
3 −6 9
2 6 1
∣∣∣∣∣∣∣∣∣ = −
∣∣∣∣∣∣∣∣∣
3 −6 9
0 1 5
2 6 1
∣∣∣∣∣∣∣∣∣ (linhas 2 e 3 foram permutadas)
= −3
∣∣∣∣∣∣∣∣∣
1 −2 3
0 1 5
2 6 1
∣∣∣∣∣∣∣∣∣ (o fator comun 3 da linha 1 foi retirado)
= −3
∣∣∣∣∣∣∣∣∣
1 −2 3
0 1 5
0 10 −5
∣∣∣∣∣∣∣∣∣ (linha 3 + (-2) (linha 1))
= −3
∣∣∣∣∣∣∣∣∣
1 −2 3
0 1 5
0 0 −55
∣∣∣∣∣∣∣∣∣ (linha 3 + (-10) (linha 2))
= −3(1)(1)(−55) = 165
Exemplo: Ache o determinante da matriz A =

1 0 0 3
2 7 0 6
0 6 3 0
7 3 1 −5
.
Soluc¸a˜o: Reduzindo a matriz a uma triangular inferior usando operac¸o˜es por coluna, obte-
mos que
detA =
∣∣∣∣∣∣∣∣∣∣∣∣
1 0 0 3
2 7 0 6
0 6 3 0
7 3 1 −5
∣∣∣∣∣∣∣∣∣∣∣∣
=
∣∣∣∣∣∣∣∣∣∣∣∣
1 0 0 0
2 7 0 0
0 6 3 0
7 3 1 −26
∣∣∣∣∣∣∣∣∣∣∣∣
(coluna 4 + (-3)(coluna 1))
= (1)(7)(3)(−26) = −546
13
1.5 A Matriz Adjunta e a Inversibilidade de Matrizes
Suponhamos que An×n tenha inversa, isto e´, existe A−1 tal que A · A−1 = I. Usando o
determinante obte´m-se
det (A · A−1) = det A · det A−1 e det I = 1
Enta˜o:
detA−1 =
1
detA
Definic¸a˜o 1.6. Seja a matriz A ∈Mn×n(R). Chamaremos Adjunta de A, a matriz Adj(A)
que e´ a transposta da matriz de cofatores. Simbolicamente,
Adj(A) = (cof(A))T .
Teorema 1.1. Se A e´ uma matriz invers´ıvel, enta˜o:
A−1 =
1
detA
Adj (A).
Uma condic¸a˜o necessa´ria para que A tenha inversa e´ que o detA 6= 0.
Ex.: Ache a inversa de A =
 1 2
−1 3
 .
Soluc¸a˜o: Calculando temos que detA = 5, a matriz de cofatores cof(A) =
 3 1
−2 1
 e a
adjunta Adj(A) = (cof(A))T =
3 −2
1 1
, logo pelo Teorema 1.1
A−1 =
1
5
·
3 −2
1 1
 . (1.10)
Teorema 1.2. Uma matriz A de ordem n× n e´ na˜o invers´ıvel se e somente se
det(A) = 0
14
1.6 Exerc´ıcios
Para conferir seus resultados recomenda-se usar um calculador online
Dica: http://www.solvemymath.com/online math calculator/algebra combinatorics/
1. Sejam A =
 3 0
−1 5
, B =
4 −2 1
0 2 3
, C =

1 2
3 4
5 6
 e D =
 0 −3
−2 1
.
Calcular A+ 2D, B − CT , BTCT − CB, A3, DA− AD.
2. Seja A =
√2 x2
4x 1
. Calcule os poss´ıveis valores de x, para que AT = A.
3. (i) Se A e´ uma matriz sime´trica n× n, calcule AT − A.
(ii) Se A e´ uma matriz triangular inferior, AT e´ uma matriz triangular . . . . . . .
(iii) A e´ uma matriz diagonal, calcule AT .
4. Seja a matriz A =

2 3 −4
0 −4 2
1 −1 5
. Usando cofatores,
(i) Calcule detA desenvolvendo em relac¸a˜o a` primeira linha.
(ii) CalculedetA desenvolvendo em relac¸a˜o a` primeira coluna.
(iii) Calcule detA desenvolvendo em relac¸a˜o a` segunda coluna.
5. Usando cofatores e fazendo o menor nu´mero de operac¸o˜es, calcule o determinante de
A =

2 0 3 0
3 0 0 1
0 2 3 0
2 0 1 4
 , B =

4 0 2 1
5 0 4 2
2 0 3 4
1 1 2 3
 e C =

2 0 0 1
0 1 0 0
1 6 2 0
1 1 −2 3
.
6. Calcule o determinante de cada uma das seguintes matrizes (use as operac¸o˜es elemen-
tares por linhas para reduzir as matrizes abaixo a` sua forma triangular).
A =

2 0 −1
3 0 2
4 −3 7
, B =

t+ 3 −1 1
5 t− 3 1
6 −6 t+ 4
 e C =

1 4 −5
0 0 1
−1 8 7
.
15
7. Encontre todos os valores poss´ıveis de c que tornem a matriz invers´ıvel

1 1 1
1 9 c
1 c 3
.
8. Sejam as matrizes
A =

−1 3 −4
2 4 1
−4 2 −9
 B =

1 0 0
1 3 0
1 3 5
 C =

cos θ sen θ 0
− sen θ cos θ 0
0 0 1

D =

2 5 5
−1 −1 0
2 4 3
 E =

2 0 3
0 3 2
−2 0 −4
 F =

2 0 0
8 1 0
−5 3 6
 e
G =

a b c
c a b
b c a
.
(i) Calcule os cofatores das matrizes A, B, C, D, E, F e G.
(ii) Determine a inversa das matrizes A, B e C usando o Teorema 1.1.
9. Encontre a inversa das matrizes dadas usando operac¸o˜es por linha
2 3 0
1 −2 −1
2 0 −1
,

1 1 0
1 0 1
0 1 1
,

0 a 0
b 0 c
0 d 0
,

1 0 0 0
0 1 0 0
0 0 1 0
a b c d
,

√
2 0 2
√
2 0
−4√2 √2 0 0
0 0 1 0
0 0 3 1
.
10. Sejam A e B matrizes 3×3 com detA = 4 e detB = 5. Encontre o valor de det(AB),
det(3A), det(2AB), det(A−1B)
11. Uma matriz A e´ ortogonal se sua inversa e´ igual a sua transposta, ou seja, A−1 = AT .
Provar que a matriz A =
cos θ − sen θ
sen θ cos θ
 e´ ortogonal.
16
Cap´ıtulo 2
Sistemas de Equac¸o˜es Lineares
Alge´bricas
Uma equac¸a˜o linear de n incognitas e´ uma equac¸a˜o da forma
a1x1 + a2x2 + · · ·+ anxn = b (2.1)
Um sistema linear de m equac¸o˜es alge´bricas lineares de n varia´veis (incognitas) e´ um
conjunto de equac¸o˜es lineares que devem ser resolvidas simultaneamente, por exemplo:
a11x1 + a12x2 + · · ·+ a1nxn = b1
a21x1 + a22x2 + · · ·+ a2nxn = b2
...
am1x1 + am2x2 + · · ·+ amnxn = bm
(2.2)
onde os aij e bi sa˜o nu´meros reais.
Em 1858, o matema´tico ingleˆs Artur Cayley introduz uma notac¸a˜o abreviada para ex-
pressar o sistema linear (2.2), na forma matricial:
a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
. . .
...
am1 am2 · · · amn

m×n
.

x1
x2
...
xn

n×1
=

b1
b2
...
bm

m×1
. (2.3)
Assim a forma matricial (2.3) escreve-se abreviadamente por:
Ax = b, (2.4)
17
onde A e´ uma matriz m× n, b um vetor m× 1 e x e´ um vetor n× 1.
“Se b = 0, o sistema e´ dito homogeˆneo, caso contra´rio ele e´ na˜o-homogeˆneo”.
2.1 Classificac¸a˜o de um Sistema Linear
O sistema linear (2.2) pode ter ou na˜o soluc¸a˜o. Assim, classificaremos os sistemas lineares
em dois tipos:
1. Compat´ıvel (ou poss´ıvel)
 Determinado, uma u´nica soluc¸a˜oIndeterminado mais de uma soluc¸a˜o.
2. Incompat´ıvel (ou imposs´ıvel) quando na˜o possui soluc¸a˜o.
Se o sistema linear (2.2) tem o nu´mero de equac¸o˜es igual ao nu´mero de incognitas (m =
n), enta˜o a matriz A associada a forma matricial equivalente (2.4) sera´ uma matriz quadrada
n× n. Logo,
• Se a matriz A e´ invers´ıvel, isto e´, o det A 6= 0, enta˜o o sistema tem u´nica soluc¸a˜o, ou
seja, x = A−1b.
• Se a matriz A na˜o e´ invers´ıvel, isto e´ det A = 0, enta˜o o sistema na˜o tem soluc¸a˜o, ou
existe soluc¸a˜o mas na˜o e´ u´nica.
(Um sistema homogeˆneo: Ax = 0, onde det A = 0, possui infinitas soluc¸o˜es)
Observac¸a˜o 2.1. Um sistema linear homogeˆneo Ax = 0 admite sempre a soluc¸a˜o nula,
chamada soluc¸a˜o trivial. Logo, um sistema linear homogeˆneo e´ sempre compat´ıvel.
Exemplo: E´ simples verificar que a soluc¸a˜o nula x = (0, 0, 0)T e´ soluc¸a˜o do sistema linear
homogeˆneo,
 3x1 − x2 + 7x3 = 0x1 − 2x2 + 3x3 = 0. ⇐⇒
3 −1 7
1 −2 3


x1
x2
x3
 =

0
0
0
 ⇐⇒ Ax = 0
18
Uma interpretac¸a˜o geome´trica das soluc¸o˜es de um sistema linear, pode ser observada
para sistemas de ordem 2× 2. Por exemplo, sejam os sistemas:
I)
 x1 + x2 = 2x1 − x2 = 2 II)
 x1 + x2 = 2x1 + x2 = 1 III)
 x1 + x2 = 2−x1 − x2 = −2.
A soluc¸a˜o dos respectivos sistemas podem ser visualizados nos seguintes gra´ficos
(a) Caso I (b) Caso II (c) Caso III
Figura 2.1:
2.2 Me´todo de Eliminac¸a˜o de Gauss
Consiste na resoluc¸a˜o de Sistemas por Escalonamento onde o objetivo e´ migrar de um
sistema linear Ax = b para outro que lhe seja equivalente, e de resoluc¸a˜o mais simples. A
ide´ia enta˜o e´, usar as operac¸o˜es elementares sobre as linhas da matriz aumentada (A |b)
de modo que esta se transforme a` forma (A′ |b′) onde A′ e´ uma matriz escalonada (*).
Assim, o sistema final equivalente A′x = b ′ sera´ resolvido usando substituic¸o˜es regressivas.
Definic¸a˜o 2.1. * Uma matriz esta escalonada por linhas quando satisfaz as seguintes
propriedades:
1. Todas as linhas que consistem inteiramente de zeros esta˜o na parte inferior da matriz.
2. Em cada linha na˜o nula, o primeiro elemento na˜o nulo (chamado elemento lider) esta´
em uma coluna a` esquerda de qualquer outro elemento l´ıder abaixo dele.
19
Observac¸a˜o 2.2. A forma escalonada de uma matriz na˜o e´ u´nica. Logo, dependendo de
sua escolha na hora de fazer as operac¸o˜es elementares vc. podera´ obter va´rias matrizes
equivalentes, pore´m sempre uma mesma soluc¸a˜o.
Exemplo: Ache a soluc¸a˜o do sistema linear
x1 + 2x2 + x3 = 3
3x1 − x2 − 3x3 = −1
2x1 + 3x2 + x3 = 4.
⇐⇒

1 2 1
3 −1 −3
2 3 1


x1
x2
x3
 =

3
−1
4
 ⇐⇒ Ax = b
Sol.: Apartir da matriz aumentada, usando as operac¸o˜es por linhas temos:
(A|b) =

1 2 1 | 3
3 −1 −3 | −1
2 3 1 | 4
 L2 ←→ L2 − 3L1
L3 ←→ L3 − 2L1
=

1 2 1 | 3
0 −7 −6 | −10
0 −1 −1 | −2
 L2 ←→ L3
=

1 2 1 | 3
0 −1 −1 | −2
0 −7 −6 | −10

L3 ←→ L3 − 7L2
=

1 2 1 | 3
0 −1 −1 | −2
0 0 1 | 4
 = (A′|b′)
O sistema equivalente resultante e´
x1 +2x2 + x3 = 3
−x2 − x3 = −2
x3 = 4.
A soluc¸a˜o deste u´ltimo sistema obtem-se resolvendo a u´ltima equac¸a˜o e substituindo a res-
pectiva soluc¸a˜o na equac¸a˜o anterior, ate´ chegar na primeira. Neste caso temos que x3 = 4,
x2 = −2 e x1 = 3
Exemplo: Resolva o sistema
20
 x + 2y + z + t = 1x + 3y − z + t = 3
Sol.: A matriz aumentada (A|b) associada ao sistema e´

1 2 1 1 1
1 3 −1 1 3
0 0 0 0 0
0 0 0 0 0
.
Logo, fazendo L2 ←→ L2 − L1, a forma escalonada torna-se

1 2 1 1 1
0 1 −2 0 2
0 0 0 0 0
0 0 0 0 0
.
Observemos que o nu´mero de varia´veis livres ( que na˜o dependem de outras varia´veis)
e´ igual ao nu´mero de linhas na˜o nulas na forma escalonada. No exemplo dado, z e t sa˜o
as varia´veis livres .
Assim , para z = λ1 e t = λ2 obtemos mediante substituic¸o˜es regresivas:
y = 2 + 2λ1, x = 1− 2(2 + 2λ1)− λ1 − λ2 = −3− 5λ1 − λ2.
Definic¸a˜o 2.2. O posto de uma matriz, posto(A), e´ o nu´mero de linhas na˜o nulas de
qualquer uma de suas formas escalonadas por linhas.
Teorema 2.1. (O Teorema do Posto) Seja A a matriz dos coeficientes de um sistema de
equac¸o˜es lineares com n varia´veis. Se o sistema for poss´ıvel, enta˜o o
nu´mero de varia´veis livres = n − posto(A)No u´ltimo exemplo, ja que o sistema tem soluc¸a˜o, pelo Teorema do Posto temos 4−2 = 2
varia´veis livres, neste caso z e t.
Exemplo Resolva o sistema
x − y + 2z = 3
x + 2y − z = −3
2y − 2z = 1
21
Sol.: A matriz aumentada (A|b) associada ao sistema e´

1 −1 2 3
1 2 −1 −3
0 2 −2 1
.
Logo, fazendo L2 ←→ L2 − L1, a forma escalonada torna-se

1 −1 2 3
0 3 −3 −6
0 2 −2 1
.
Finalmente, fazendo L3 ←→ 3L3 − 2L2, temos

1 −1 2 3
0 3 −3 −6
0 0 0 15
 levando a` equac¸a˜o
imposs´ıvel 0 = 15.
Assim o sistema na˜o tem soluc¸a˜o, ele e´ imposs´ıvel.
2.3 Resoluc¸a˜o de Sistemas pela Regra de Cramer
O me´todo de Cramer nos permitira´ escrever a soluc¸a˜o de um sistema de equac¸o˜es lineares
n× n em func¸a˜o de determinantes. Entretanto, devemos salientar que este me´todo envolve
o ca´lculo de n + 1 determinantes de ordem n o que equivale a resolver mais operac¸o˜es que
no me´todo de Gauss.
Seja A uma matriz invers´ıvel n×n e seja b ∈ Rn. Seja Ai a matriz obtida substituindo-se
a i-e´sima coluna de A por b. Se x = (x1, x2, . . . , xn)
T for a u´nica soluc¸a˜o de Ax = b, enta˜o:
xi =
det (Ai)
det A
para i = 1, 2, . . . , n.
Exemplo: Ache a soluc¸a˜o do sistema linear
x1 + 2x2 + x3 = 3
3x1 − x2 − 3x3 = −1
2x1 + 3x2 + x3 = 4.
⇐⇒

1 2 1
3 −1 −3
2 3 1


x1
x2
x3
 =

3
−1
4
 ⇐⇒ Ax = b
Sol.: Usando o me´todo de Cramer e sabendo que
detA = 1(−1 + 9)− 2(3 + 6) + 1(9 + 2) = 8− 18 + 11 = 1
22
temos que:
x1 =
∣∣∣∣∣∣∣∣∣
3 2 1
−1 −1 −3
4 3 1
∣∣∣∣∣∣∣∣∣ = (3(−1 + 9)− 2(−1 + 12) + 1(−3 + 4)) = 24− 22 + 1 = 3
x2 =
∣∣∣∣∣∣∣∣∣
1 3 1
3 −1 −3
2 4 1
∣∣∣∣∣∣∣∣∣ = (1(−1 + 12)− 3(3 + 6) + 1(12 + 2)) = 11− 27 + 14 = −2
x3 =
∣∣∣∣∣∣∣∣∣
1 2 3
3 −1 −1
2 3 4
∣∣∣∣∣∣∣∣∣ = (1(−4 + 3)− 2(12 + 2) + 3(9 + 2)) = −1− 28 + 33 = 4
2.4 Exerc´ıcios
1. Resolva os seguintes sistemas pelo me´todo de Gauss-Jordan.
(i)
 3x − y = 42x − 1
2
y = 1
(ii)
 2x − 3y = 4x − 3y = 1
(iii)

x − 3y − 2z = 0
−x + 2y + z = 0
2x + 4y + 6z = 0
(iv)

2x + 3y − z + 4w = 0
3x − y + w = 1
3x − 4y + z − w = 2
(v)

√
2x + y + 2z = 1
√
2y − 3z = −√2
− y + √2z = 1
(vi)

−x + 3y − 2z + 4w = 0
2x − 6y + z − 2w = −3
x − 3y + 4z − 8w = 2
(vii)

1
2
x + y − z − 6w = 2
1
6
x + 1
2
y − 3w +t = −1
1
3
x − 2z −4t = 8
(viii)

2x + y = 3
4x + y = 7
2x + 5y = −1
23
ix)

x + y + z + w = 4
x + 2y + 3z + 4w = 10
x + 3y + 6z + 10w = 20
x + 4y + 10z + 20w = 35
x)

x + y + 2z + w = 1
x − y − z + w = 0
y + z = −1
x + y + w = 2
2. O sistema seguinte na˜o tem soluc¸o˜es para quais valores de a?. Exatamente uma
soluc¸a˜o?. Infinitas soluc¸o˜es.
x + 2y − 3z = 4
3x − y + 5z = 2
4x + y + (a2 − 14)z = a+ 2

x + y + az = 1
x + ay + z = 1
ax + y + z = −2
3. Determine k para que o sistema admita soluc¸a˜o
−4x + 3y = 2
5x − 4y = 0
2x − y = k
4. Resolva o sistema x + y + z = 42x + 5y − 2z = 3
5. Estabelec¸a a condic¸a˜o que deve ser satisfeita a e b para que o sistema seja compat´ıvel.
a)

x− 2y − z = a
2x+ y + 3z = b
4x− 3y + z = 1
b)
ax+ y = −12x+ y = b c)
 x+ ay = 1bx+ 2y = 5
6. Encontre os coeficientes do polinoˆmio p(x) = ax3 + bx2 + cx + d cujo gra´fico passa
pelos pontos (0,−3), (2,−5), (3, 0) e (−1,−8).
7. Encontre a reta intersec¸a˜o de cada par de planos dados
a) 3x+ 2y + z = −1 e 2x− y + 4z = 5
b) 4x+ y − z = 0 e 2x− y + 3z = 4
24
8. Mentiras que meu Computador me Contou (David Poole) Existem sistemas
chamados Malcondicionados que sa˜o extremadamente sens´ıveis a arredondamentos,
a seguir um exemplo deste para vc pensar.
a) Resolva o seguinte sistema exatamente (trabalhe apenas com frac¸o˜es) x+ y = 0x+ 801
800
y = 1.
b) Sabendo que a forma decimal de 801
800
= 1, 00125 use uma calculadora online e resolva
o sistema:  x+ y = 0x+ 1, 00125y = 1.
Dica: http://www.solvemymath.com/online math calculator/
c) Resolva o sistema dado em a) arredondando 801
800
= 1, 0012 e 801
800
= 1, 001.
d) Conclua que mesmo um pequeno erro de arredondamento pode levar a grandes erros
de resultado. Explique geometricamente.
25
Cap´ıtulo 3
Vetores
Com o intuito de esclarecer melhor o conceito de vetor, uma abordagem geome´trica e
alge´brica sera˜o apresentadas.
3.1 Interpretac¸a˜o Geome´trica
Existem dois tipos de grandezas: as escalares e as vetoriais. As escalares sa˜o aquelas que
ficam definidas por apenas um nu´mero real (acompanhado de uma unidade adequada). Por
exemplo, comprimento, a´rea, volume, massa, densidade e temperatura. As grandezas vetori-
ais, sa˜o o caso contrario, isto e´, na˜o basta saber seu mo´dulo e unidade correspondente, para
serem perfeitamente caracterizadas precissamos sua direc¸a˜o e seu sentido. Por exemplo,
forc¸a, velocidade e acelerac¸a˜o.
Definic¸a˜o 3.1. Um vetor ~v e´ uma classe de objetos matema´ticos (segmentos) com a mesma
direc¸a˜o, mesmo sentido e mesmo mo´dulo, sendo:
- A direc¸a˜o, a da reta colinear que conte´m o segmento ou reta paralela.
- O sentido, dado pela orientac¸a˜o do movimento.
- O mo´dulo, o comprimento do segmento.
Um vetor que vai do ponto A (origem) ate´ o ponto B (extremidade) e´ denotado por
−→
AB.
26
Na seguinte figura todos os segmentos orientados paralelos ou colineares, de mesmo sen-
tido e mesmo comprimento, representam um u´nico vetor.
3.1.1 Adic¸a˜o de Vetores
Consideremos dois vetores ~u e ~v, cuja soma ~u + ~v pretendemos encontrar. Tomemos um
ponto A qualquer e, com origem nele, tracemos um segmento orientado
−→
AB representante
do vetor ~u e um segmento orientado
−−→
BC representante do vetor ~v. O vetor representado
pelo segmento orientado
−→
AC sera´ o representante do vetor soma ~u+ ~v, isto e´,
~u+ ~v =
−→
AC
ou
−→
AB +
−−→
BC =
−→
AC
Sendo ~u, ~v e ~w vetores quaisquer, a adic¸a˜o admite as seguintes propriedades
1. Conmutativa: ~u+ ~v = ~v + ~u.
2. Associativa: (~u+ ~v) + ~w = ~u+ (~v + ~w).
3. Elemento Neutro: ~u+~0 = ~u
4. Elemento Oposto: ~u+ (−~u) = ~0
Observac¸a˜o 3.1. O vetor ~u+ (−~v) escreve-se ~u− ~v,e´ chamado diferenc¸a entre ~u e ~v.
27
3.1.2 Multiplicac¸a˜o de um Nu´mero Real por um Vetor
Dado um vetor ~u 6= 0 e um nu´mero real α 6= 0, chama-se produto do nu´mero real α pelo
vetor ~u, o vetor α~u tal que:
1. Mo´dulo ou comprimento: |α~v| = |α||~v|
2. Direc¸a˜o: α~v e´ paralelo a ~v
3. Sentido: α~v e ~v tem o mesmo sentido se α > 0, e contra´rio se α < 0.
28
3.1.3 Aˆngulo entre dois vetores
O aˆngulo entre os vetores na˜o nulos u e v e´ o aˆngulo θ formado por duas semi-retas
−→
OA e
−−→
OB de mesma origem O, onde ~u =
−→
OA, ~v =
−−→
OB e 0 ≤ θ ≤ pi.
• Se ~u//~v e ~u e ~v teˆm o mesmo sentido, enta˜o θ = 0. Na figura acima, o aˆgulo entre ~u
e 2~u e´ zero.
• Se ~u//~v e ~u e ~v teˆm sentidos contra´rios, enta˜o θ = pi. Na figura acima, o aˆgulo entre
~u e −3~u e´ pi.
3.2 Interpretac¸a˜o Alge´brica
O representante de um vetor ~v =
−→
AB, esta´ na posic¸a˜o padra˜o se seu ponto inicial A
coincidir com a origemO do sistema de coordenadas. Enta˜o ~v =
−→
OP , onde o ponto P = B−A
e´ extremidade do vetor. Dessa forma, todo vetor ~v e´ vetor posic¸a˜o de algum ponto P
(unicamente determinado) e as coordenadas de P sa˜o as mesmas que as componentes de ~v.
Observac¸a˜o 3.2. Todo vetor ~v em Rn pode-se representar matricialmente por: ~v =

x1
x2
...
xn

ou ~v = (x1, x2, . . . , xn),em ambos casos ~v e´ o vetor posic¸a˜o de P .
29
Exemplo: Se um vetor tem origem em (1, 2) e extremidade em (7, 12), ele e´ representado
por −→v = (6, 10), pois:
−→v = (7, 12)− (1, 2) = (6, 10)
3.2.1 Interpretac¸a˜o Alge´brica no Plano
Consideremos dois vetores ~v1 e ~v2 na˜o paralelos, representados com a origem no mesmo ponto
O, e sejam r1 e r2 retas contendo estes representantes, respectivamente.
Os vetores ~u, ~v, ~w, ~x e ~y, representados na figura podem ser escritos em func¸a˜o de ~v1 e
~v2 por
~u = 3~v1 + 4~v2 ~v = −2~v1 + 3~v2 ~w = −3~v1 − ~v2
~x = 2~v1 + 0~v2 ~y = 0~v1 + 3~v2
De modo geral dados dois vetores quaisquer ~v1 e ~v2, existe uma so´ dupla de nu´meros reais
a1 e a2, tal que
v = a1 ~v1 + a2 ~v2.
O vetor ~v e´ chamado combinac¸a˜o linear de v1 e v2. O conjunto B = {~v1, ~v2} e´ chamado
de base no plano.
30
“Qualquer conjunto de dois vetores na˜o paralelos forma uma base no plano”
Observac¸a˜o 3.3. Dentre as infinitas bases que existem no plano a mais importante e´ aquela
que determina o conhecido sistema cartesiano ortogonal xOy. Esta base e´ chamada de base
canoˆnica e esta determinada pelos vetores ortogonais e unita´rios ~i = (1, 0) e ~j = (0, 1).
Assim, qualquer vetor ~v = (x, y) do plano pode-se escrever da forma
v = x~i+ y ~j.
Igualdade de Vetores. Dois vetores ~u = (x1, y1) e ~v = (x2, y2) sa˜o iguais se,
x1 = x2 e y1 = y2.
Neste caso, escrevemos ~u = ~v.
Definic¸a˜o 3.2. Sejam dois vetores ~u = (x1, y1) e ~v = (x2, y2) e α ∈ R. Define-se
1. ~u+ ~v = (x1 + x2, y1 + y2)
2. α~u = (α x1, α y1)
3. −~u = (−1)~u = (−x1,−y1)
4. ~u− ~v = ~u+ (−~v) = (x1 − x2, y1 − y2).
As definic¸o˜es anteriores e as operac¸o˜es alge´bricas dos nu´meros reais permitem demonstrar
as propriedades seguintes:
1. ~u+ ~v = ~v + ~u
2. ~u+~0 = ~u
3. (~u+ ~v) + ~w = ~u+ (~v + ~w)
4. ~u+ (−~u) = ~0
5. α(β~v) = (αβ)~v
6. α(~u+ ~v) = α~u+ α~v
31
7. (α + β)~u = α~u+ β~u
8. 1~u = ~u.
Observac¸a˜o 3.4. E´ importante lembrar que um vetor tem infinitos representantes que sa˜o os
segmentos orientados de mesmo comprimento, mesma direc¸a˜o e mesmo sentido. E, dentre os
infinitos representantes de
−→
AB (A = (x1, y1), B = (x2, y2)), o que “melhor o caracteriza” e´
aquele que tem origem em O = (0, 0) e extremidade no ponto P = (x2−x1, y2− y1). O vetor
~v =
−→
OP e´ tambe´m chamado vetor posic¸a˜o, vetor diretor ou representante natural
de
−→
AB.
Mo´dulo de um vetor Seja o vetor ~u = (x, y). Pelo Teorema de Pitagoras, vem
|u| =
√
x2 + y2. (3.1)
3.2.2 Interpretac¸a˜o Alge´brica no Espac¸o
No plano vimos que dado qualquer vetor ~u, este pode ser escrito como uma combinac¸a˜o da
base canoˆnica {~i,~j}, isto e´, ~u = (x, y) = x~i+ y~j. Analogamente, no espac¸o, consideraremos
a base canoˆnica {~i, ~j, ~k}, como aquela que ira´ determinar o sistema cartesiano ortogonal
Oxyz, neste caso
~i = (1, 0, 0), ~j = (0, 1, 0), ~k = (0, 0, 1).
Assim, dado um vetor qualquer ~u ∈ R3 este pode-se expressar da forma
~u = (x, y, z) = x~i+ y~j + z ~k. (3.2)
As definic¸o˜es e concluso˜es no espac¸o sa˜o ana´logas a`s do plano.
Definic¸a˜o 3.3. Sejam os vetores ~u = (x1, y1, z1) e ~v = (x2, y2, z2) e α ∈ R. Define-se
1. ~u = ~v se e somente se x1 = x2, y1 = y2 e z1 = z2.
2. ~u+ ~v = (x1 + x2, y1 + y2, z1 + z2)
3. α~u = (α x1, α y1, α z1)
4. −~u = (−1)~u = (−x1,−y1,−z1)
32
5. ~u− ~v = ~u+ (−~v) = (x1 − x2, y1 − y2, z1 − z2).
Ale´m disso,
1. ~u+ ~v = ~v + ~u
2. ~u+~0 = ~u
3. (~u+ ~v) + ~w = ~u+ (~v + ~w)
4. ~u+ (−~u) = ~0
5. α(β~v) = (αβ)~v
6. α(~u+ ~v) = α~u+ α~v
7. (α + β)~u = α~u+ β~u
8. 1~u = ~u.
Mo´dulo de um vetor Seja o vetor ~u = (x, y, z),
|u| =
√
x2 + y2 + z2. (3.3)
3.3 Produto Escalar
Chama-se produto escalar de dois vetores ~u e ~v ao nu´mero real ~u · ~v, o qual e´ a soma dos
produtos de suas componentes correspondentes de ~u e ~v.
Quando ~u = (x1, y1) e ~v = (x2, y2) =⇒ ~u · ~v = x1x2 + y1y2. (3.4)
Quando u = (x1, y1, z1) e v = (x2, y2, z2) =⇒ ~u · ~v = x1x2 + y1y2 + z1z2. (3.5)
Propriedades do Produto Escalar Dados os vetores u, v e w e o nu´mero real α, e´ fa´cil
verificar que: Ale´m disso,
1. ~u · ~v = ~v · ~u
2. ~u · (~v + ~w) = ~u · ~v + ~u · ~w
33
3. (~u+ ~v) · ~w = ~u · ~w + ~v · ~w
4. α · (~u · ~v) = (α~u) · ~v = ~u · (α~v)
5. ~u · ~u > 0 se ~u 6= ~0 e ~u · ~u = 0 se ~u = ~0.
6. ~u · ~u = |~u|2.
3.3.1 Interpretac¸a˜o Geome´trica do Produto Escalar
Se ~u e ~v sa˜o dois vetores na˜o nulos e θ e´ o aˆngulo entre eles, enta˜o:
~u · ~v = |~u| |~v| cos θ. (3.6)
De fato, aplicando a lei dos cossenos ao triaˆngulo ABC, temos:
|~u− ~v|2 = |~u|2 + |~v|2 − 2|~u||~v| cos θ.
Por outro lado, como |~u − ~v|2 = (~u − ~v) · (~u − ~v) = |~u|2 − 2~u · ~v + |~v|2, enta˜o a igualdade
segue-se.
Exemplo 3.1. Sejam |~u| = 2, |~v| = 3 e 120o o aˆngulo entre ~u e ~v. Calcular
i) ~u · ~v ii) |~u+ ~v| iii) |~u− ~v|.
34
Sol.
i) ~u · ~v = |~u||~v| cos 120o = (2)(3) −1
2
= −3 (3.7)
ii) |~u+ ~v| =
√
|~u|2 + |~v|2 + 2~u · ~v =
√
22 + 32 + 2(−3) =
√
7 (3.8)
ii) |~u− ~v| =
√
|~u|2 + |~v|2 − 2~u · ~v =
√
22 + 32 − 2(−3) =
√
19. (3.9)
3.3.2 Aˆngulo entre dois Vetores
Seja θ o aˆngulo entre ~u e ~v, enta˜o:
cos θ =
~u · ~v
|~u||~v| .
Exemplo 3.2. Sejam ~u = (4,−2), ~v = (3, 1)
cos θ =
(4,−2) · (3, 1)
|(4,−2)||(3, 1)| =
4.3 + (−2).1√
42 + (−2)2√32 + 1 =
10√
20
√
10
=
√
2
2
Logo, θ = arccos
√
2
2
⇒ θ = 45o.
Exemplo 3.3. Um vetor ~v do espac¸o forma com os vetores ~i e ~j aˆngulos de 60o e 120o,
respectivamente. Determinar o vetor ~v, sabendo que |~v| = 2.
Soluc¸a˜o Das hipoˆteses temos para v = (x, y, z) que:
cos 60o =
~v ·~i
|~v||~i| =
~v ·~i
(2)(1)
⇒ x = ~v ·~i = 2 cos 60o = 1
e
cos 120o =
~v ·~j
|~v||~j| =
~v ·~j
(2)(1)
⇒ y = ~v ·~j = 2 cos 120o = −1
Por outro lado, ja que |~v| = √x2 + y2 + z2 = 2, tem-se z = ±√2. Portanto, ~v = (1,−1,√2)
ou ~v = (1,−1,−√2).
Observac¸a˜o 3.5. Note que dois vetores ~u e ~v diferentes de zero, sa˜o ortogonais (~u⊥~v), se
e somente se ~u · ~v = 0.
35
Exemplo. Os vetores ~u = (10,
√
2) e ~v = (−1
5
,
√
2) formam um aˆngulo de 90o, pois ~u · ~v =
10(−1
5
) +
√
2(
√
2) = 0
Observac¸a˜o 3.6. Sejam dois vetores ~u e ~v quaisquer,
1. |~u · ~v| ≤ |~u||~v| (Desigualdade de Schwartz)
2. |~u+ ~v| ≤ |~u|+ |~v| (Desigualdade Triangular).
3.3.3 Projec¸a˜o de um Vetor sobre Outro
Sejam os vetores ~u e ~v na˜o nulos e θ o aˆngulo entre eles. O objetivo sera´ decompor um
dos vetores, digamos ~u, da forma
~u = ~u1 + ~u2
sendo ~u1‖~v e ~u2 ⊥ ~v.
O vetor ~u1 e´ chamado projec¸a˜o ortogonal de ~u sobre ~v, e denotado por:
~u1 = Proj~v ~u.
Com efeito, ja que: ~u1‖~v ⇒ ~u1 = α~v e dado que ~u2 = ~u− ~u1 = ~u− α~v enta˜o
~u2 ⊥ ~v ⇒ (~u− α~v) ⊥ ~v ⇒ (~u− α~v) · ~v = 0 ⇒ α = ~u · ~v|~v|2
Portanto,
Proj~v ~u = ~u1 =
(
~u · ~v
|~v|2
)
~v.
Chamamos de componente de u sobre v ao vetor
Comp ~v ~u = ~u2 = ~u− α~v = ~u− Proj ~v ~u.
3.4 Produto Vetorial
Chama-se produto vetorial de dois vetores ~u = (x1, y1, z1) e ~v = (x2, y2, z2) de R3, tomados
nessa ordem, e reprentados por ~u× ~v, ao vetor:
~u× ~v =
∣∣∣∣∣∣y1 z1y2 z2
∣∣∣∣∣∣ ~i−
∣∣∣∣∣∣x1 z1x2 z2
∣∣∣∣∣∣ ~j +
∣∣∣∣∣∣x1 y1x2 y2
∣∣∣∣∣∣ ~k.
36
Pela facilidade para memorizar denotaremos a definic¸a˜o anterior da forma:
~u× ~v =
∣∣∣∣∣∣∣∣∣
~i ~j ~k
x1 y1 z1
x2 y2 z2
∣∣∣∣∣∣∣∣∣ .
Exemplo 3.4. Calcular ~u× ~v para ~u = (5, 4, 3) e ~v = (1, 0, 1).
Soluc¸a˜o
~u× ~v =
∣∣∣∣∣∣∣∣∣
~i ~j ~k
5 4 3
1 0 1
∣∣∣∣∣∣∣∣∣ =
∣∣∣∣∣∣4 30 1
∣∣∣∣∣∣ ~i−
∣∣∣∣∣∣5 31 1
∣∣∣∣∣∣ ~j +
∣∣∣∣∣∣5 41 0
∣∣∣∣∣∣ ~k = 4~i− 2~j − 4~k.
Observac¸a˜o 3.7. Uma forma pra´tica para o ca´lculo de ~u× ~v e´ dispondo os dois vetores em
linha, e repetindo pelaordem, as duas primeras colunas, As treˆs componentes de ~u× ~v sa˜o
dadas pelos treˆs determinantes, conforme a seguir.
37
O sentido do vetor ~u×~v podera´ ser determinado pela regra da ma˜o direita, isto e´, se os
dedos da ma˜o direita forem dobrados na mesma direc¸a˜o de rotac¸a˜o, enta˜o o polegar estendido
indicara´ o sentido de ~u× ~v.
3.4.1 Propriedades
As demonstrac¸o˜es das seguintes propriedades sa˜o uma consequeˆncia direta da definic¸a˜o de
produto vetorial e das propriedades de determinante.
1. ~v × ~u = −~u× ~v.
2. ~u× ~v = ~0, se e somente se, ~u ‖ ~v.
3. O vetor ~u× ~v e´ simultaneamente perpendicular a ~u e ~v, isto e´
(~u× ~v) · ~u = ~0 e (~u× ~v) · ~v = ~0.
38
4. ~u× (~v + ~w) = ~u× ~v + ~u× ~w e (~u+ ~v)× ~w = ~u× ~w + ~v × ~w.
5. α (~u× ~v) = (α ~u)× ~v = ~u× (α ~v).
6. ~u · (~v × ~w) = (~u× ~v) · ~w.
7. |~u× ~v|2 = |~u|2 |~v|2 − (~u · ~v)2, (chamada identidade de Lagrange).
Observac¸a˜o 3.8. Como uma consequeˆncia da identidade de Lagrange e tendo em conta que
~u · ~v = |~u| |~v| cos θ, temos que:
|~u× ~v| = |~u| |~v| sen θ
3.4.2 Interpretac¸a˜o Geome´trica
• A a´rea de um paralelogramo determinado pelos vetores ~u e ~v , onde a medida da base
e´ ~u e a altura e´ |~v| sen θ, e´
A = (base)x(altura) = |~u| |~v| sen θ = ‖u× v‖
• O volume do paralelep´ıpedo de arestas determinadas pelos vetores na˜o coplanares ~u, ~v
e ~w (os treˆs vetores na˜o se encontram num mesmo plano) e´:
V = |~u · (~v × ~w)| = |det[u v w]|.
39
3.5 Retas e Planos
Definic¸a˜o 3.4. Em R2 ou R3, a equac¸a˜o vetorial de uma Reta L, com direc¸a˜o ~v 6= 0
que passa pelo ponto P0 cujo vetor posic¸a˜o e´ ~P0 =
−→
OP 0, e´:
~P = ~P0 + t ~v
O ponto P com vetor posic¸a˜o ~P =
−→
OP esta´ sobre a reta L, ∀ t ∈ R.
Definic¸a˜o 3.5. A equac¸a˜o normal de um Plano P com vetor normal ~n 6= 0 que conte´m
o ponto P0 = (x0, y0, z0) e´:
~n.(~P − ~P0) = 0.
O ponto P com vetor posic¸a˜o ~P =
−→
OP esta´ sobre o plano P, ∀ t ∈ R.
3.6 Exerc´ıcios
1. Sejam A = (1, 2), B = (0, 1), C = (−1,−1) e D = (2, 3) pontos de R2. Calcule e
grafique os vetores posic¸a˜o (na posic¸a˜o padra˜o) de modo que sejam o resultado de:
a)
−→
AB +
−−→
BC b)
−−→
CD + 2
−→
AB c)
−→
AB −−−→CD d) −−→CD −−→AB e) −1
2
−−→
DC
2. Sejam A = (1, 0, 2), B = (0, 1, 1), C = (1, 1, 2) e D = (2, 1, 0) pontos de R3. Calcule e
grafique os vetores posic¸a˜o de modo que sejam o resultado de:
a)
−→
AB b)
−−→
CD +
−→
AB c)
−→
AB ×−−→CD d) (−−→CD −−→AB)×−−→CD
3. Encontre um vetor na˜o-nulo ~u com ponto inicial P = (−1, 3,−1) tal que
a) ~u tenha a mesma direc¸a˜o e sentido que ~v = (2, 1,−1).
b) ~u tenha a mesma direc¸a˜o mas sentido oposto que ~v = (1,−1, 1).
4. Um excursionista anda 4 na direc¸a˜o norte e depois 5 na direc¸a˜o nordeste. Desenhe
os vetores deslocamento que representam o passeio do excursionista e o vetor que
representa o deslocamento a partir do ponto inicial.
5. Sejam ~u = (1,
√
3), ~v = (0, 1) e ~w = (1, 1) vetores de R2.
(i) Calcular a) |2~u| b) 1/|~w| c) |~u+ ~v| d) (~u− ~v) · ~v e) ~u · ~v ~w.
40
(ii) Calcular a) Pr~v~u b) Pr~w~v c) Pr~v ~w d) ](~u,~v) e) ](~v, ~w).
(iii) Calcule a a´rea do paralelogramo determinado por: a) ~u e ~v b) ~v e ~w.
6. Ache as componentes dos vetores u, v, u+ v e u− v onde u e v aparecem na figura
7. Encontre todos os poss´ıveis valores de k para os quais os vetores sa˜o ortogonais
i) ~u = (2, 3), ~v = (k + 1, k − 1) ii) ~u = (1,−1, 2), ~v = (k2, k,−3).
8. Sejam ~u = (2, 1,−1), ~v = (0, 1, 2) e ~w = (−1, 1, 3) vetores de R3.
(i) Calcular a) ~u× ~v b) ~w/|~w| c) |~u.(~v × ~w)| d) −2~v × ~w e) |~u× ~v × ~w|.
(ii) Calcular a) Pr~v~u b) Pr~u~v c) Pr~u ~w d) ](~u,~v) e) ](~v, ~w).
9. Calcule o valor de m para que a a´rea do paralelogramo determinado pelos vetores
~u = (m,−3, 1) e ~v = (1,−2, 2) seja igual a √26.
10. Calcule a a´rea do triaˆngulo ABC e a altura relativa ao lado BC, sendo dados A =
(−4, 1, 1), B = (1, 0, 1), C = (0,−1, 3).
11. Sejam os pontos A = (1, 1,−1), B = (−3, 2,−2), C = (2, 2,−4). Prove que o
triaˆngulo ABC e´ retaˆngulo.
12. Encontre o vetor ortogonal ao plano determinado pelos pontos A = (3, 0, 0), B =
(0, 3, 0), C = (0, 0, 2). Calcule a a´rea do triaˆngulo ABC.
41
13. Prove que ‖u − v‖ ≥ ‖u‖ − ‖v‖ para todo vetor u e v em Rn (Dica: Substitua u por
u− v na desigualdade triangular).
14. Suponha conhecido que u.v = u.w. Pode-se concluir que u = w?. Em caso afirmativo
deˆ uma prova va´lida em Rn, caso contra´rio deˆ um contra-exemplo espec´ıfico de vetores
u, v, w para os quais a igualdade e´ falsa.
15. Prove que:
(a) (u+ v) · (u− v) = ‖u‖2 − ‖v‖2
(b) ‖u+ v‖2 + ‖u− v‖2 = 2‖u‖2 + 2‖v‖2
(c) u · v = 1
4
‖u+ v‖2 − 1
4
‖u− v‖2
(d) ‖u+ v‖ = ‖u− v‖ se, e somente se u ⊥ v
(e) proju(v − proju(v)) = ~0.
16. Um paralelep´ıpedo e´ determinado pelos vetores ~u = (3,−1, 4), ~v = (2, 0, 1) e ~w =
(−2, 1, 5). Calcule seu volume, e a altura relativa a` base definida pelos vetores ~u e ~v.
17. Encontre as equac¸o˜es vetoriais para as retas que passam por:
(a) P0 = (4,−3, 5) e e´ paralela a ~v = (0,−1, 3).
(b) P = (5,−7, 2) e Q = (0, 0, 4)
(c) P = (2,−5, 7) e e´ perpendicular ao plano 3x− 2y + 5z = 7.
18. Encontre uma equac¸a˜o para o plano que passa por:
(a) P0 = (3,−7, 5) e e´ paralelo ao plano de equac¸a˜o 3x− y + 2z = 5.
(b) P = (3, 1, 2), Q = (5,−1, 3) e (−4, 2, 0).
(c) P = (2,−3, 0) e e´ perpendicular a` reta (x, y, z) = (2,−5, 3) + t(6,−6, 5).
19. Determine a distaˆncia do ponto Q = (1, 0, 2) a` reta r que passa por P0 = (3, 1, 1) e e´
paralela a ~v = (−1, 1, 0)
42
Cap´ıtulo 4
Espac¸o Vetorial
Nos cap´ıtulos anteriores vimos que a a´lgebra de matrizes e vetores sa˜o similares em
muitos aspectos. Em particular podemos fazer a adic¸a˜o de matrizes e vetores, e podemos
multiplicar ambos por um escalar. As propriedades resultantes de essas duas operac¸o˜es sa˜o
ideˆnticas para as matrizes e vetores. O que se pretende agora e´ usar essas propriedades para
definir “vetores”de forma geral.
Um espac¸o vetorial e´ um conjunto V de elementos chamados vetores, onde esta˜o
definidas duas operac¸o˜es:
1. Axioma da Adic¸a˜o: Para todo u, v ∈ V , a soma u⊕ v ∈ V .
2. Axioma do Produto por um escalar α: Seja α ∈ R (ou α ∈ C) e v ∈ V , enta˜o
α� v ∈ V .
Ale´m disso, para todo u, v, w ∈ V e α, β ∈ R (ou C), os seguintes axiomas sa˜o satisfeitos:
Em relac¸a˜o a` adic¸a˜o:
Ax.3. (u⊕ v)⊕ w = u⊕ (v ⊕ w)
Ax.4. u⊕ v = v ⊕ u
Ax.5. ∃ 0 ∈ V, u⊕ 0 = u
Ax.6. ∃ (−u) ∈ V, u⊕ (−u) = 0
Em relac¸a˜o ao produto por um escalar:
Ax.7. (αβ)� u = α� (β � u)
Ax.8. (α + β)� u = (α� u)⊕ (β � u)
Ax.9. α� (u⊕ v) = (α� u)⊕ (α� v)
Ax.10. 1� u = u
Observac¸a˜o 4.1. Quando os escalares considerados sa˜o nu´meros reais, diremos que V e´ um
43
espac¸o vetorial real. No caso dos escalares serem complexos, V sera´ chamado espac¸o
vetorial complexo.
Em diante, nos trabalharemos so´ com espac¸os vetoriais reais.
Exemplo 4.1. V = Rn = {(x1, x2, . . . , xn)/xi ∈ R} e´ um espac¸o vetorial real com as
operac¸o˜es
(x1, x2, . . . , xn)⊕ (y1, y2, . . . , yn) = (x1 + y1, x2 + y2, . . . , xn + yn) (4.1)
α� (x1, x2, . . . , xn) = (αx1, αx2, . . . , αxn) (4.2)
Soluc¸a˜o A prova e´ simplesmente a generalizac¸a˜o das propriedades vistas para vetores no
plano e no espac¸o. Assim, pelas proprias definic¸o˜es de adic¸a˜o de vetores (4.1) e multiplicac¸a˜o
de um vetor por um escalar real (4.2), e´ simples verificar todos os axiomas de espac¸o vetorial.
Exemplo 4.2. O conjunto V = Mm×n(R) de todas as matrizes reais de ordem m × n e´ um
espac¸o vetorial real com as operac¸o˜es de adic¸a˜o de matrizes e multiplicac¸a˜o por um escalar.
Assim, para A = [aij]m×n, B = [bij]m×n e α ∈ R, definimos:
A⊕B = [cij]m×n onde cij = aij + bij (4.3)
α� A = [dij]m×n onde dij =α aij (4.4)
Exemplo 4.3. O conjunto V = Pn(R), de todos os polinoˆmios a0 + a1t + · · · + antn com
coeficientes ai ∈ R e´ um espac¸o vetorial real com as operac¸o˜es usuais de adic¸a˜o de polinoˆmios
e multiplicac¸a˜o por um escalar.
De fato, para p(t) = a0 + a1t+ · · ·+ antn ∈ Pn(R) e q(t) = b0 + b1t+ · · ·+ bntn ∈ Pn(R),
basta definir
(p⊕ q)(t) = p(t) + q(t) = (a0 + b0) + (a1 + b1)t+ · · ·+ (an + bn)tn
(α� p)(t) = α p(t) = α a0 + (α a1)t+ · · ·+ (α an)tn.
Exemplo 4.4. O conjunto V de todas as func¸o˜es reais definidas sobre o intervalo [a, b], e´
um espac¸o vetorial. Para isso, basta definirmos para f = f(x) e g = g(x) ∈ V , as operac¸o˜es
usuais:
(f ⊕ g)(x) = f(x) + g(x)
(α� f)(x) = α f(x)
44
Exemplo 4.5. Nenhum dos conjuntos N, Z, Q e´ espac¸o vetorial real, pois em todos eles
o produto de um de seus elementos por um escalar, e´ um nu´mero real, o que contraria o
Axioma 2 de espac¸o vetorial.
4.1 Subespac¸os Vetoriais
Seja W , (W 6= ∅) um subconjunto do espac¸o vetorial V . Dizemos que W e´ um subespac¸o
vetorial em relac¸a˜o a`s operac¸o˜es de V , se:
i) u, v ∈ W ⇒ u⊕ v ∈ W
ii) α ∈ R e u ∈ W ⇒ α� u ∈ W.
Exemplo 4.6. Seja V = M2×2(R) e
W = {A ∈M2×2(R)/todos os elementos da diagonal de A sa˜o zeros}.
Prove que W e´ um subespac¸o vetorial de V , com as operac¸o˜es usuais de matrizes.
Soluc¸a˜o: Sejam A =
 0 a12
a21 0
 e B =
 0 b12
b21 0
 matrizes quaisquer de W , enta˜o
A+B =
 0 a12 + b12
a21 + b21 0
 ∈ W.
Se α ∈ R e A ∈ W , enta˜o
αA =
 α.0 α.a12
α.a21 α.0
 =
 0 α.a12
α.a21 0
 ∈ W
Exemplo 4.7. Considere o subconjunto W = {(x, 1) ∈ R2/x ∈ R} com as operac¸o˜es usuais
de R2. Prove que W na˜o e´ um subespac¸o vetorial.
Soluc¸a˜o:Basta notar que a soma de dois elementos de W na˜o pertence a W . Os elementos
(3, 1) ∈ W e (5, 1) ∈ W , mas a soma
(3, 1) + (5, 1) = (8, 2) /∈ W
45
4.1.1 Propriedades dos Subespac¸os
Soma.
Sejam W1 e W2 subspac¸os de um espac¸o vetorial V . Enta˜o, o conjunto
W1 +W2 = {v ∈ V / v = w1 + w2, w1 ∈ W1 e w2 ∈ W2} (4.5)
e´ um subespac¸o de V .
Exemplo 4.8. Sejam W1 e W2 duas retas de R3 que passam pela origem, enta˜o W1 +W2
e´ o plano em R3 que conte´m as duas retas.
Intersec¸a˜o.
Sejam W1 e W2 subspac¸os de um espac¸o vetorial V . A intersec¸a˜o W1 ∩W2 e´ um subespac¸o
de V .
Exemplo 4.9. Sejam W1 e W2 dois planos de R3 que passam pela origem, de modo que
W1 ∩W2 e´ uma reta em R3 que conte´m o (0, 0, 0). A intersec¸a˜o W1 ∩W2 e´ um subespac¸o
de R3.
Quando W1 ∩W2 = {0}, enta˜o W1 +W2 e´ chamada soma direta de W1 com W2, e sera´
denotada por W1 ⊕W2.
46
4.2 Combinac¸a˜o Linear
Dizemos que um vetor w e´ uma combinac¸a˜o linear dos vetores v1, v2, . . . , vn do espac¸o
vetorial real V , (V,+, .), se existem α1, α2, . . . , αn ∈ R tal que
w = α1 · v1 + α2 · v2 + . . .+ αn · vn.
Exemplo 4.10. Considere os vetores ~u = (1, 2,−1), ~v = (6, 4, 2) ∈ R3. Mostre que ~w =
(9, 2, 7) e´ uma combinac¸a˜o linear de ~u e ~v
Soluc¸a˜o: Suponhamos que existem α, β ∈ R de modo que
(9, 2, 7) = α(1, 2,−1) + β(6, 4, 2).
Enta˜o,

α + 6β = 9
2α + 4β = 2
−α + 2β = 7
implica que α = −3, β = 2
Portanto, (9, 2, 7) = −3(1, 2,−1) + 2(6, 4, 2), consequentemente ~w e´ uma combinac¸a˜o
linear de ~u e ~v.
Exemplo 4.11. Considere os polinoˆmios p(x) = 1, q(x) = 1 + x e r(x) = 1 + x + x2.
Mostre que qualquer polinoˆmio de ordem 2 pode-se escrever como uma combinac¸a˜o linear de
p(x), q(x) e r(x).
Soluc¸a˜o: Suponhamos que existem α, β, γ ∈ R de modo que
a0 + b0x+ c0x
2 = α(1) + β(1 + x) + γ(1 + x+ x2).
47
Enta˜o,

α + β + γ = a0
β + γ = b0
γ = c0
, logo γ = c0, β = b0 − c0, α = a0 − b0 − c0.
Portanto, a0 + b0x+ c0x
2 = (a0 − b0 − c0) p(x) + (b0 − c0) q(x) + c0 r(x).
4.3 Espac¸o Gerado
O subconjunto S de todos os vetores do espac¸o vetorial real V (V,+, .), que sa˜o com-
binac¸o˜es lineares dos vetores v1, v2, . . . , vn, e´ chamado de subespac¸o vetorial gerado por
v1, v2, . . . , vn e sera´ denotado por
S = ger{v1, v2, . . . , vn} = [v1, v2, . . . , vn]
Para verificar que S e´ subespac¸o vetorial de V , basta notar que para qualquer u, v ∈ S
e α ∈ R verifica-se que
u+ v = (α1 · v1 + α2 · v2 + · · ·+ αn · vn) + (β1 · v1 + β2 · v2 + · · ·+ βn · vn)
= (α1 + β1) · v1 + (α2 + β2) · v2 + · · ·+ (αn + βn) · vn ∈ S
α · u = α · (α1 · v1 + α2 · v2 + · · ·+ αn · vn)
= (αα1) · v1 + (αα2) · v2 + · · ·+ (ααn) · vn ∈ S.
Exemplo 4.12. Calcule o conjunto de geradores do subespac¸o vetorial S de M2×2(R), quando
S =
{ a b
c d
 ∈M2×2(R) / a = −d e c = 2b}. (4.6)
Soluc¸a˜o Usando a definic¸a˜o de S temos
S =
{ −d b
2b d
 / b e d ∈ R}. (4.7)
Logo,
S =
{
d
 −1 0
0 1
+ b
 0 1
2 0
 / b e d ∈ R} = ger{
 −1 0
0 1
 ,
 0 1
2 0
}.
48
Exemplo 4.13. Mostre que o conjunto de polinoˆmios {t2 + t, t, 1} gera o espac¸o vetorial,
P2(R), dos polinoˆmios de grau ≤ 2.
Soluc¸a˜o Consideremos p(t) = a2t
2 + a1t+ a0 ∈ P2(R). Suponhamos α, β, γ ∈ R tais que:
p(t) = α(t2 + t) + βt+ γ1 ⇒ a2t2 + a1t+ a0 = αt2 + (α + β)t+ γ.
Comparando o primeiro e u´ltimo polinoˆmio obtemos α = a2, α + β = a1 e γ = a0, logo
α = a2, β = a1 − a2, γ = a0.
4.4 Independeˆncia e Dependeˆncia Linear
Seja V um espac¸o vetorial real, (V,+, ·), e v1, v2, . . . , vn ∈ V . Dizemos que o conjunto
{v1, v2, . . . , vn} e´ linearmente independente (L.I.), se:
α1 · v1 + α2 · v2 + . . .+ αn · vn = 0 =⇒ α1 = α2 = . . . = αn = 0. (4.8)
No caso em que exista algum αi 6= 0, diremos que o conjunto {v1, v2, . . . , vn} e´ linearmente
dependentes (L.D.).
Teorema 4.1. {v1, . . . , vn} e´ linearmente dependente, se e somente se, um destes vetores
for combinac¸a˜o linear dos outros.
Prova:
{v1, . . . , vn} e´ L.D ⇐⇒ ∃ αi 6= 0 / α1v1 + α2v2 + . . .+ αivi + . . .+ αnvn = 0
⇐⇒ αivi = −α1v1 − . . .− αi−1vi−1 − αi+1vi+1 − . . .− αnvn
⇐⇒ vi = −α1
αi
v1 − . . .− αi−1
αi
vi−1 − αi+1
αi
vi+1 − . . .− αn
αi
vn
⇐⇒ vi ∈ ger{v1, v2, . . . , vi−1, vi+1 . . . , vn} (4.9)
Exemplo 4.14. Os vetores canoˆnicos (1, 0, 0), (0, 1, 0), (0, 0, 1) sa˜o L.I.?
Soluc¸a˜o Suponhamos que
α1(1, 0, 0) + α2(0, 1, 0) + α3(0, 0, 1) = (0, 0, 0).
Somando temos que (α1, α2, α3) = (0, 0, 0). Logo, α1 = α2 = α3 = 0, consequentemente os
vetores canoˆnicos sa˜o linearmente independentes.
49
Exemplo 4.15. As matrizes A =
1 −2 4
3 0 −1
 e B =
2 −4 8
6 0 −2
 sa˜o L.D.
Soluc¸a˜o De fato,
α1A+ α2B =
0 0 0
0 0 0
 ⇔ α1 = −2α2.
Corola´rio 4.1. Qualquer conjunto de vetores contendo o vetor nulo e´ L.D.
Exemplo 4.16. Os vetores ~u = (1,−2, 3), ~v = (2,−4, 6) e ~w = (1, 1, 1) sa˜o L.D. pois
2~u− ~v + 0~w = ~0.
Corola´rio 4.2. Todo subconjunto de um conjunto de vetores L.I. e´ L.I.
Exemplo 4.17. E´ sabido que o conjunto S = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e´ L.I, logo qualquer
subconjunto de S tambe´m e´ L.I.
Observac¸a˜o 4.2. Se ~u1 = (x11, . . . , x1n), ~u2 = (x21, . . . , x2n), . . . , ~un = (xn1, . . . , xnn) sa˜o
n-vetores L.I. em Rn,
α1~u1 + α2~u2 + · · ·+ αn~un = ~0 =⇒ α1 = α2 = · · · = αn = 0.
Da afirmac¸a˜o anterior deduzimos que
x11 x21 . . . xn1
... . . . . . .
...
x1n x2n . . . xnn


α1
...
αn
 =

0
...
0
 =⇒ α1 = α2 = · · · = αn = 0.
sempre que
det

x11 x21 . . . xn1
... . . . . . .
...
x1n x2n . . . xnn
 6= 0
Exemplo 4.18. Os vetores ~u1 = (1,−2, 7,
√
2), ~u2 = (0, 4,−6, 1), ~u3 = (0, 0, 1, pi), ~u4 =
(0, 0, 0, sen 1) sa˜o L.I. em R4
50
Soluc¸a˜o Segundo a observac¸a˜o anterior eles sa˜o L.I. pois o determinante da matriz (u1, u2, u3, u4)
e´ diferente de zero. De fato,
det

1 0 0 0
−2 4 0 0
7 −6 1 0
√
2 1 pi sen 1
 = 4 sen 1
Exemplo 4.19. Sejar > n. Qualquer conjunto com r vetores no espac¸o vetorial Rn e´ line-
armente dependente pois todo sistema homogeˆneo de equac¸o˜es lineares com mais inco´gnitas
do que equac¸o˜es admite uma soluc¸a˜o na˜o trivial (diferente de zero).
Observac¸a˜o 4.3. Geometricamente, a dependeˆncia de dois vetores no plano R2 acontece se
e somente se eles se encontram sobre a mesma reta passando pela origem. No espac¸o R3,
treˆs vetores sa˜o L. D. se eles esta˜o contidos no mesmo plano passando pela origem.
A`s vezes e´ poss´ıvel deduzir a dependeˆncia linear de func¸o˜es apartir de identidades conhe-
cidas, por exemplo ao provar que: {sen2x, cos2 x, 5} e´ um conjunto L.D no espac¸o vetorial
das func¸o˜es reais de varia´vel real, F(R,R), basta notar que
α sen2x+ β cos2 x+ γ 5 = 0 ⇐⇒ α = β = 5, γ = −1.
De modo geral, na˜o existe um me´todo para provar a dependeˆncia ou independeˆncia linear de
conjuntos em F(R,R), pois existem casos onde estas ideˆntidades na˜o podem ser aplicadas.
Um teorema u´til para determinar se um conjunto particular de func¸o˜es e´ L.I e´ enunciado a
seguir.
Teorema 4.2. Sejam as funco˜es reais f1, f2, . . . , fn ∈ Cn−1([a, b]) (cont´ınuas e com deri-
vadas cont´ınuas ate´ a ordem n − 1 em todo [a, b]). Se existe um ponto x0 ∈ [a, b] tal que o
wronskiano W [f1, f2, . . . , fn](x0),
W [f1, f2, . . . , fn](x0) = det

f1(x0) f2(x0) . . . fn(x0)
f ′1(x0) f
′
2(x0) . . . f
′
n(x0)
...
... · · · ...
fn−11 (x0) f
n−1
2 (x0) . . . f
n−1
n (x0)
 6= 0, (4.10)
enta˜o f1, f2, . . . , fn sa˜o L.I. em C
n−1([a, b]). Mais ainda, sa˜o L.I em C([a, b]).
51
Exemplo 4.20. As func¸o˜es ex, e−x sa˜o L.I. em C(R)?.
Soluc¸a˜o Segundo o teorema anterior eles sa˜o L.I. em C2(R), pois o Wronskiano
W [ex, e−x](x0) = det
ex0 e−x0
ex0 −e−x0
 = −2 6= 0, ∀x0 ∈ R. (4.11)
Por outro lado, ja que C2(R) ⊆ C(R) o resultado segue-se.
Exemplo 4.21. As func¸o˜es 1, x, x2, x3 sa˜o L.I. em C(R)?.
Soluc¸a˜o Segundo o teorema anterior eles sa˜o L.I. em C3(R), pois o Wronskiano
W [1, x, x2, x3](x0) = det

1 x0 x
2
0 x
3
0
0 1 2x0 3x
2
0
0 0 2 6x0
0 0 0 6
 = 12 6= 0, ∀x0 ∈ R. (4.12)
Por outro lado, ja que C3(R) ⊆ C(R) o resultado segue-se.
Exemplo 4.22. As func¸o˜es x2 e x|x| sa˜o L.I. em C([−1, 1])?.
Soluc¸a˜o Ja que x2, x|x| ∈ C1([−1, 1]), calculando o Wronskiano temos
W [x2, x|x|](x0) = det
 x20 x0|x0|
2x0 2|x0|
 ≡ 0, (4.13)
o que na˜o nos da´ a informac¸a˜o sobre se as func¸o˜es sa˜o L.I ou na˜o. Logo, para responder a
pergunta, suponha que:
αx2 + βx|x| = 0, x ∈ [−1, 1].
Em particular, para x = 1 e para x = −1, temos o sistema
α + β = 0
α− β = 0,
para o qual a u´nica soluc¸a˜o e´ α = β = 0. Portanto, as func¸o˜es x2, x|x| sa˜o L.I em C([−1, 1]).
52
4.5 Base e Dimensa˜o
Os vetores v1, v2, . . . , vn formam uma base do espac¸o vetorial V se, e somente se,
1. v1, v2, . . . , vn e´ um conjunto linearmente independente.
2. V = ger{v1, v2, . . . , vn}.
(i.e: ∀ v ∈ V, ∃ α1, α2, . . . , αn ∈ R / v = α1v1 + . . .+ αnvn).
Exemplo 4.23. O conjunto B = {(1, 1), (0, 1)} e´ uma base de R2.
Soluc¸a˜o: De fato, B e´ L.I pois
α(1, 1) + β(0, 1) = (0, 0)⇒ (α, α + β) = (0, 0)⇒ α = 0 e β = 0.
Por outro lado, para (x, y) ∈ R2 suponhamos que ∃ α1, α2 ∈ R tal que
(x, y) = α1(1, 1) + α2(0, 1) = (α1, α1 + α2)⇒ α1 = x ∈ R e α2 = y − x ∈ R
Logo,
(x, y) = x(1, 1) + (y − x)(0, 1), isto e´, (x, y) ∈ ger{(1, 1), (0, 1)}.
Portanto, R2 ⊆ ger{(1, 1), (0, 1)} e ja que R2 e´ um espac¸o vetorial a igualdade entre estes
dois conjuntos segue-se.
Exemplo 4.24. O conjunto B =
{1 0
0 0
 ,
0 1
0 0
 ,
0 0
1 0
 ,
0 0
0 1
} e´ uma base de
M2×2(R)
Exemplo 4.25. Os conjuntos {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e {(1, 2, 1), (1, 0,−1), (1,−2, 1)}
constituem bases distintas para R3. Podemos encontrar mais de uma base para um espac¸o
vetorial; dado, entretanto, o nu´mero de vetores de cada base na˜o varia.
Definic¸a˜o 4.1. Se uma base de um espac¸o vetorial real V tem n-vetores, dizemos que V
tem dimensa˜o finita n. Denotaremos
dim V = n.
Conveniremos que o espac¸o vetorial V = {0} tem dimensa˜o zero.
53
Exemplo 4.26. Pelo visto nos exemplos anteriores, temos que:
1. dim R 2 = 2.
2. dim Rn = n.
3. dim Pn(R) = n+ 1.
4. dim Mm×n(R) = mn.
Teorema 4.3. Se U e W sa˜o subespac¸os de um espac¸o vetorial V que tem dimensa˜o finita,
enta˜o:
dim (U +W ) = dimU + dimW − dim (U ∩W ), (4.14)
sendo que dimU ≤ dimV e dimW ≤ dimV .
Exemplo 4.27. Considere U um plano que passa pela origem em V = R3, e W uma reta
contida em U que passa pela origem, enta˜o:
dim (U +W ) = 2 + 1− 1 = 2.
Teorema 4.4. Seja V um espac¸o vetorial real de dimensa˜o finita n. Qualquer conjunto de
vetores L.I. em V e´ parte de uma base, isto e´, pode ser completado ate´ formar uma base de
V .
Exemplo 4.28. Sejam os vetores v1 = (1,−1, 1, 2) e v2 = (−1, 1,−1, 0) completar o
conjunto {v1, v2} de modo a formar uma base de R4.
Soluc¸a˜o: Como dim R4 = 4 uma base tera´ 4 vetores L.I. Portanto, faltam dois. Escolhemos
um vetor v3 que na˜o e´ combinac¸a˜o linear de v1 = (1,−1, 1, 2) e v2 = (−1, 1,−1, 0), isto e´,
v3 6= a1v1 + a2v2 para todo a1, a2 ∈ R. Dentre os infinitos vetores existentes, um deles e´ o
vetor v3 = (1, 1, 0, 0), e o conjunto {v1, v2, v3} e´ L.I.
Para completar, escolhemos um vetor v4 que na˜o seja uma combinac¸a˜o linear de v1, v2
e v3. Um deles e´ o vetor v4 = (1, 0, 0, 0), e o conjunto {v1, v2, v3, v4} e´ L.I. Logo,
v1 = (1,−1, 1, 2) v2 = (−1, 1,−1, 0), v3 = (1, 1, 0, 0), v4 = (1, 0, 0, 0).
54
Observac¸a˜o 4.4. Muitas vezes sera´ necessa´rio saber calcular a dimensa˜o de um subespac¸o
vetorial de forma ra´pida, pois uma vez que esta e´ conhecida, obte´m-se facilmente uma base
desse subespac¸o. Uma forma pra´tica para determinar a dimensa˜o de um subespac¸o vetorial
e´ verificar o nu´mero de varia´veis livres de seu vetor gene´rico. Este nu´mero e´ a dimensa˜o do
subespac¸o.
Exemplo 4.29. Determinar a dimensa˜o e a base do subespac¸o vetorial
S = {(x, y, z) ∈ R3/2x+ y + z = 0}
Soluc¸a˜o: Isolando z temos que: z = −2x− y, onde x, y sa˜o varia´veis livres. Isto e´,
S = {(x, y, z) ∈ R3/2x+ y + z = 0}
= {(x, y, z) ∈ R3/z = −2x− y}
= {(x, y,−2x− y)/x ∈ R, y ∈ R}
= {(x, 0,−2x) + (0, y,−y)/x ∈ R, y ∈ R}
= {x (1, 0,−2) + y (0, 1,−1)/x ∈ R, y ∈ R},
isto e´, todo vetor de S e´ combinac¸a˜o linear dos vetores {(1, 0,−2), (0, 1,−1)}. Como esses
dois vetores geradores de S sa˜o L.I, o conjunto e´ uma base de S e, consequentemente,
dim S = 2.
Exemplo 4.30. Obtenha uma base do subespac¸o vetorial
U = ger{(1, 1, 0,−2), (2, 0,−1,−1), (0, 1,−2, 1), (1, 1, 1,−3)} ⊆ R4.
Determine a dimensa˜o de U .
Soluc¸a˜o: Bastara´ saber quais vetores em U sa˜o L.I.
Suponhamos que,
α(1, 1, 0,−2) + β(2, 0,−1,−1) + γ(0, 1,−2, 1) + δ(1, 1, 1,−3) = (0, 0, 0, 0)
ou 
1 2 0 1
1 0 1 1
0 −1 −2 1
−2 −1 1 −3


α
β
γ
δ
 =

0
0
0
0
 .
55
Para achar a soluc¸a˜o deste sistema homogeˆneo Ax = 0 sera´ suficiente reduzir a matriz A a
uma de tipo escalonado (me´todo de operac¸o˜es por linha).
A =

1 2 0 1
1 0 1 1
0 −1 −2 1
−2 −1 1 −3

L1 ←→ L1
L2 ←→ L2 − L1
L3 ←→ −L3
L4 ←→ L4 + 2L1

1 2 0 1
0 −2 1 0
0 1 2 −1
0 3 1 −1

L1 ←→ L1
L2 ←→ L3
L4 ←→ L4
≈

1 2 0 1
0 1 2 −1
0 −2 1 0
0 3 1 −1

L1 ←→ L1
L2 ←→ L2
L3 ←→ L3 + 2L2
L4 ←→ L4 − 3L2

1 2 0 1
0 1 2 −1
0 0 5 −2
0 0 −5 2

L1 ←→ L1
L2 ←→ L2
L3 ←→ L3
L4 ←→ L4 + L3
≈

1 2 0 1
0 1 2 −1
0 0 5 −2
0 0 0 0
 = A
′.
Logo, o sistema equivalente, A′x = 0 tem infinitas soluc¸o˜es, pois detA′ = 0. Maisainda,
α + 2β + δ = 0
β + 2γ − δ = 0
5γ − 2δ = 0,
o que implica que, para cada γ ∈ R,
δ =
5γ
2
, β =
γ
2
, α =
−7γ
2
.
Em outras palavras, α = β = δ = 0 se e somente se γ = 0. Portanto, so´ os vetores
B = {(1, 1, 0,−2), (2, 0,−1,−1), (1, 1, 1,−3)} sa˜o L.I. Como esses treˆs vetores sa˜o geradores
de U , o conjunto e´ uma base de U e consequentemente, dim U = 3.
4.5.1 Componentes de um Vetor
Seja B = {v1, v2, . . . , vn} uma base de V . Tomemos v ∈ V sendo
v = a1 v1 + a2 v2 + . . .+ an vn,
56
os nu´meros a1, a2, . . . , an sa˜o chamados componentes do vetor v em relac¸a˜o a` base B (vetor
coordenada de v em relac¸a˜o a` base B) e se representa por
vB = (a1, a2, . . . , an)
ou com a notac¸a˜o matricial (matriz-coordenada de v em relac¸a˜o a` base B)
vB =

a1
a2
...
an
 .
Exemplo 4.31. Em R2 consideremos as bases
A = {(1, 0), (0, 1)}, B = {(2, 0), (1, 3)} e C = {(1,−3), (2, 4)}
Achar o vetor coordenada de v = (8, 6) em relac¸a˜o as base A, B e C.
Soluc¸a˜o: Ja que:
(8, 6) = 8(1, 0) + 6(0, 1)
(8, 6) = 3(2, 0) + 2(1, 3)
(8, 6) = 2(1,−3) + 3(2, 4),
enta˜o,
[v]A = (8, 6), [v]B = (3, 2), [v]C = (2, 3).
4.6 Espac¸o Vetorial Euclideano
No cap´ıtulo 3, foi definido o produto escalar de dois vetores no R2 ou R3 e foram estabelicidas
por meio desse produto, algumas propriedades geome´tricas daqueles vetores. Nesta sec¸a˜o,
nosso objetivo sera´ generalizar este conceito de produto e definir os conceitos de comprimento,
distaˆncia e aˆngulo em espac¸os vetoriais mais gene´ricos.
Definic¸a˜o 4.2. Chama-se produto interno no espac¸o vetorial V , a uma func¸a˜o de V × V
em R que a todo par de vetores (u, v) ∈ V ×V associa um nu´mero real, indicado por u.v ou
〈u, v〉, tal que os seguintes axiomas sejam verificados:
57
1. 〈u, v〉 = 〈v, u〉
2. 〈u, v + w〉 = 〈u, v〉+ 〈u,w〉
3. 〈αu, v〉 = α〈u, v〉, para todo α
4. 〈u, u〉 ≥ 0 e 〈u, u〉 = 0 se, e somente se, u = 0.
Exemplo 4.32. Em V = R2, para u = (x1, y1) e v = (x2, y2)
〈u, v〉 = 3x1 x2 + 4y1 y2,
e´ um produto interno.
Exemplo 4.33. Em V = C([a, b]), para f e g
〈f, g〉 =
∫ b
a
f(x) g(x) dx,
e´ um produto interno.
Definic¸a˜o 4.3. Um espac¸o vetorial real V , de dimensa˜o finita, no qual esta´ definido um
produto interno, e´ um espac¸o vetorial euclideano.
Definic¸a˜o 4.4. Seja o produto interno 〈 , 〉 no espac¸o euclideano V . O comprimento ou
norma do vetor u, em relac¸a˜o a esse produto interno, e´ definido por
‖u‖ =
√
〈u, u〉.
Definimos a norma euclidiana (ou comprimento euclidiano) de um vetor u = (u1, u2, . . . , un)
em Rn por
‖u‖ = √u · u =
√
u21 + u
2
2 + · · ·+ u2n.
Definic¸a˜o 4.5. Chama-se distaˆncia entre dois vetores u e v o nu´mero real represen-
tado por d(u, v) e definido por
d(u, v) = ‖u− v‖.
Definic¸a˜o 4.6. O aˆngulo entre dois vetores u e v e´ determinado por
cos θ =
〈u, v〉
‖u‖‖v‖ .
Definic¸a˜o 4.7. Dois vetores u e v de um espac¸o com produto interno sa˜o ortogonais se
< u, v >= 0.
58
4.6.1 Complementos Ortogonais
Definic¸a˜o 4.8. Seja W um subespac¸o de um espac¸o com produto interno V . Um vetor
u ∈ V e´ dito ortogonal a W se e´ ortogonal a cada vetor de W , e o conjunto de todos os
vetores que sa˜o ortogonais a W e´ chamado complemento ortogonal de W , denotaremos
por W⊥.
Figura 4.1: Cada vetor em W e´ ortogonal a V , V = W⊥.
Teorema 4.5. Se W e´ um subespac¸o de um espac¸o com produto interno V de dimensa˜o
finita, enta˜o:
a) W⊥ e´ um subespac¸o de V
b) O u´nico vetor comum a W e W⊥ e´ 0.
c) O complemento ortogonal de W⊥ e´ W , ou seja, (W⊥)⊥ = W
Teorema 4.6. (Da Projec¸a˜o) Se W e´ um subespac¸o de dimensa˜o finita de um espac¸o com
produto interno V , enta˜o cada vetor u ∈ V pode-se expressar de forma u´nica por:
u = w1 + w2
onde w1 = ProjWu ∈ W e w2 = u− ProjWu ∈ W⊥.
59
4.6.2 Uma Relac¸a˜o Geometrica Entre Espac¸o Nulo e Espac¸o Linha
O seguinte teorema fundamental fornece uma relac¸a˜o geome´trica entre o espac¸o-nulo e o
espac¸o linha de uma matriz.
Teorema 4.7. Se A e´ uma matriz m× n, enta˜o
a) O espac¸o nulo de A, N (A) = {v ∈ Rn×1/Av = 0}, e o espac¸o linha de A sa˜o comple-
mentos ortogonais em Rn com relac¸a˜o ao produto interno euclideano.
b) O espac¸o nulo de AT e o espac¸o coluna de A sa˜o complementos ortogonais em Rm com
relac¸a˜o ao produto interno euclideano.
Demonstrac¸a˜o: A prova do item (a) encontra-se em [1], pagina 211.
(b) Sejam os vetores coluna r1, r2, . . . , rn da matriz A ∈ Mm×n. Logo, a matriz A
pode-se escrever da forma
A =
[
r1 r2 . . . rn
]
, onde ri ∈ Rm×1
Por outro lado, ja que N (AT ) = {v ∈ Rm×1/AT v = 0}, enta˜o:
AT v =

rT1
rT2
...
rTn
 v = 0 ⇐⇒ < r
T
i , v >= 0, ∀ i = 1, 2, . . . , n.
4.6.3 Conjuntos Ortogonais e Ortonormais
Seja V um espac¸o vetorial euclidiano. Um subconjunto S = {v1, v2, . . . , vn} ⊂ V e´:
1. Ortogonal, se seus elementos sa˜o ortogonais dois a dois, isto e´:
〈vi, vj〉 = 0 ∀ i 6= j.
2. Ortonormal, se S e´ ortogonal e ‖vi‖ = 1 ∀ i, isto e´:
〈vi, vj〉 =
0 para i 6= j1 para i = j . (4.15)
60
A base gerada por um conjunto de vetores ortogonais e´ dita uma base orto-
gonal e uma base gerada por um conjunto de vetores ortonormais e´ dita uma
base ortonormal.
Proposic¸a˜o 4.1. Um conjunto ortonormal e´ L.I.
Demonstrac¸a˜o: Seja S = {v1, v2, . . . , vn} um conjunto ortonormal e α1, . . . , αn ∈ R, tal
que
α1v1 + α2v2 + . . .+ αnvn = 0.
Por demonstrar: α1 = α2 = . . . = αn = 0.
Multiplicando α1v1 + α2v2 + . . .+ αnvn = 0 por vi, temos
0 =〈0, vi〉 = 〈α1v1 + · · ·+ αnvn, vi〉
=〈α1v1, vi〉+ 〈α2v2, vi〉+ . . .+ 〈αivi, vi〉+ . . .+ 〈αnvn, vi〉
=α1〈v1, vi〉+ α2〈v2, vi〉+ . . .+ αi〈vi, vi〉+ . . .+ αn〈vn, vi〉 (4.16)
Ja que S ortogonal,
0 = αi〈vi, vi〉 = αi||vi||2 ⇒ 0 = αi ∀i = 1, 2, . . . , n.
Definic¸a˜o 4.9. Seja V um espac¸o vetorial euclidiano, S = {v1, v2, . . . , vn} ⊂ V ortonormal
e u ∈ V . A projec¸a˜o ortogonal de u sobre o subespac¸o gerado por S e´ o vetor Proj [S]u dado
por:
Proj [S]u = 〈u, v1〉v1 + 〈u, v2〉v2 + . . .+ 〈u, vn〉vn.
Exemplo 4.34. Projetar o vetor u = (5, 2,−3) ∈ R3 sobre o plano [S], onde
[S] = ger{(1, 0, 0), (0,−1, 0)}.
Soluc¸a˜o:
Proj [S]u = 〈(5, 2,−3), (1, 0, 0)〉 (1, 0, 0) + 〈(5, 2,−3), (0,−1, 0)〉 (0,−1, 0)
= 5(1, 0, 0)− 2(0,−1, 0)
= (5, 2, 0).
61
4.6.4 Processo de Gram - Schimidt
O objetivo do processo de Gram-Schimidt e´ encontrar uma base ortonormal para um
espac¸o vetorial euclidiano V .
Teorema 4.8. Cada espac¸o vetorial na˜o-nulo de dimensa˜o finita possui uma base ortonor-
mal.
Demonstrac¸a˜o: Seja V um espac¸o vetorial na˜o-nulo de dimensa˜o finita com produto
interno. Suponha que {u1, u2, . . . , un} e´ uma base de V . E´ suficiente mostrar que V tem
uma base ortogonal, pois os vetores da base ortogonal podem ser normalizados para produzir
uma base ortonormal de V , para isto bastara´ dividir eles entre suas respectivas normas.
A seguir, mostramos como achar uma base ortogonal {v1, v2, . . . , vn} de V .
1) Seja v1 = u1.
2) Para obter um vetor v2 que e´ ortogonal a v1 tomamos o componente de u2 que e´ ortogonal
ao espac¸o W1 = ger{v1}. Para isso no´s usamos a fo´rmula:
v2 = u2 − ProjW1 u2 = u2 −
〈u2, v1〉
||v1||2 v1
3) Para construir um vetor v3 que e´ ortogonal a ambos v1 e v2, calculamos o componente
u3 que e´ ortogonal ao espac¸o W2 = ger{v1, v2}, isto e´,
v3 = u3 − ProjW2 u3 = u3 −
〈u3, v1〉
||v1||2 v1 −
〈u3, v2〉
||v2||2 v2
4) Para determinar um vetor v4 que e´ ortogonal a v1, v2 e v3, calculamos o componente de
u4 que e´ ortogonal ao espac¸o W3 = ger{v1, v2, v3}.
v4 = u4 − ProjW3 u4 = u4 −
〈u4, v1〉
||v1||2 v1 −
〈u4, v2〉
||v2||2 v2 −
〈u4, v3〉
||v3||2 v3
Continuando desta maneira, no´s iremos obter, depois de n passos, um conjunto ortogonal
de vetores

Outros materiais

Materiais relacionados

Perguntas relacionadas

Perguntas Recentes