Buscar

ApostilaAlgebraLinear

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 108 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 108 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 108 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Universidade Estadual do Norte Fluminense
A´lgebra Linear
Liliana A. L. Mescua
Rigoberto G. S. Castro
Novembro de 2011
Suma´rio
1 Matrizes 1
1.1 Tipos de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Operac¸o˜es com Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Adic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Subtrac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Multiplicac¸a˜o de um nu´mero real por uma Matriz . . . . . . . . . 5
1.2.4 Multiplicac¸a˜o de Matrizes . . . . . . . . . . . . . . . . . . . . . . 5
1.2.5 Matriz Transposta . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.6 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.7 Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2 Sistemas de Equac¸o˜es Lineares Alge´bricas 15
2.1 Classificac¸a˜o de um Sistema Linear . . . . . . . . . . . . . . . . . . . . . 16
2.2 Resoluc¸a˜o de Sistemas por Escalonamento . . . . . . . . . . . . . . . . . 17
3 Vetores 20
3.1 Interpretac¸a˜o Geome´trica . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.1.1 Adic¸a˜o de Vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.1.2 Multiplicac¸a˜o de um Nu´mero Real por um Vetor . . . . . . . . . . 22
ii
3.1.3 Aˆngulo entre dois vetores . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Interpretac¸a˜o Alge´brica no Plano . . . . . . . . . . . . . . . . . . . . . . 23
3.3 Interpretac¸a˜o Alge´brica no Espac¸o . . . . . . . . . . . . . . . . . . . . . . 26
3.4 Produto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4.1 Interpretac¸a˜o Geome´trica do Produto Escalar . . . . . . . . . . . 28
3.4.2 Aˆngulo entre dois Vetores . . . . . . . . . . . . . . . . . . . . . . 28
3.4.3 Projec¸a˜o de um Vetor sobre Outro . . . . . . . . . . . . . . . . . 29
3.5 Produto Vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.5.1 Propriedades: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.5.2 Interpretac¸a˜o Geome´trica . . . . . . . . . . . . . . . . . . . . . . 33
3.6 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4 Espac¸o Vetorial 35
4.1 Subespac¸os Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.1.1 Propriedades dos Subespac¸os . . . . . . . . . . . . . . . . . . . . 38
4.2 Combinac¸a˜o Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3 Espac¸o Gerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.4 Independeˆncia e Dependeˆncia Linear . . . . . . . . . . . . . . . . . . . . 41
4.5 Base e Dimensa˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.5.1 Componentes de um Vetor . . . . . . . . . . . . . . . . . . . . . . 48
4.6 Espac¸o Vetorial Euclideano . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.6.1 Complementos Ortogonais . . . . . . . . . . . . . . . . . . . . . . 51
4.6.2 Uma Relac¸a˜o Geometrica Entre Espac¸o Nulo e Espac¸o Linha . . . 52
4.6.3 Conjuntos Ortogonais e Ortonormais . . . . . . . . . . . . . . . . 52
4.6.4 Processo de Gram - Schimidt . . . . . . . . . . . . . . . . . . . . 54
iii
4.7 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5 Transformac¸o˜es Lineares 61
5.1 Propriedades das Transformac¸o˜es Lineares . . . . . . . . . . . . . . . . . 64
5.1.1 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.2 Nu´cleo de uma Transformac¸a˜o Linear . . . . . . . . . . . . . . . . . . . . 66
5.3 Imagem de uma Transformac¸a˜o Linear . . . . . . . . . . . . . . . . . . . 67
5.4 Propriedades do Nu´cleo e da Imagem . . . . . . . . . . . . . . . . . . . . 69
5.4.1 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.5 Matriz de uma Transformac¸a˜o Linear . . . . . . . . . . . . . . . . . . . . 71
5.6 Operac¸o˜es com Transformac¸o˜es Lineares . . . . . . . . . . . . . . . . . . 76
5.6.1 Adic¸a˜o ou Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.6.2 Multiplicac¸a˜o por Escalar . . . . . . . . . . . . . . . . . . . . . . 77
5.6.3 Composic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.6.4 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.7 Mudanc¸a de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.8 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6 Autovalores e Autovetores 82
6.1 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
7 Diagonalizac¸a˜o de Matrizes 87
7.1 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.2 Matrizes Sime´tricas e autovetores ortogonais . . . . . . . . . . . . . . . . 89
8 Aplicac¸o˜es 91
8.1 Mı´nimos Quadrados na Soluc¸a˜o de Sistemas Lineares Inconsistentes . . . 91
iv
8.1.1 Ajuste de Mı´nimos Quadrados a Dados . . . . . . . . . . . . . . . 93
8.2 Rotac¸a˜o de Coˆnicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
A Nu´meros Complexos 100
v
Cap´ıtulo 1
Matrizes
Definic¸a˜o 1.1. Uma matriz de ordem m× n e´ uma tabela de mn escalares (nu´meros
reais ou complexos) dispostos em m linhas (nu´mero de filas horizontais) e n colunas
(nu´mero de filas verticais). Por convenc¸a˜o usaremos sempre as letras maiu´sculas A, B, C, D, . . .
para nomea-las
A =


a11 a12 . . . a1n
a21 a22 . . . a2n
...
...
...
...
am1 am2 . . . amn

 =


a11 a12 . . . a1n
a21 a22 . . . a2n
...
...
...
...
am1 am2 . . . amn

 = (aij)m×n. (1.1)
Exemplo:
A =

2 2 0
1 −3 5


2×3
B =

1 4
0 7


2×2
(1.2)
Exerc´ıcio: Escreva a matriz A = (aij)2×2 onde aij = i+ 2j.
Observac¸a˜o 1.1. De acordo com o nu´mero de linhas e colunas da matriz, podemos
destacar os seguintes casos particulares
• Quando m = 1, matriz linha
• Quando n = 1, matriz coluna
• Quando m = n, matriz quadrada
1
Definic¸a˜o 1.2. (Igualdade de Matrizes:) Duas matrizes A = (aij)m×n e B = (bij)m×n
sa˜o ditas iguais, se todos seus elementos correspondentes sa˜o iguais, isto e´, se aij = bij .
Exerc´ıcio: Determine a, b, c, d de modo que:


a 1
1 b+ 1
c− 2 d

 =


2 1
1 1
6 3

.
1.1 Tipos de Matrizes
Matriz Nula: E´ uma matriz cujos elementos sa˜o todos nulos, isto e´ aij = 0, ∀ i, j.
Exemplo: O =

 0 0
0 0


Matriz Diagonal Uma matriz quadrada D = (dij)n×n e´ dita diagonal quando dij = 0,
∀ i 6= j.
Exemplo: D =

 2 0
0 4


Matriz Identidade: E´ uma matriz diagonal onde aii = 1 para todo i, e aij = 0 para
todo i 6= j.
Exemplo: I =


1 0 . . . 0
0 1 . . . 0
...
...
...
0 0 . . . 1


Matriz Triangular Uma matriz quadrada A = (aij)nxn e´ dita triangular superior, se
aij = 0 para i > j. Uma matriz B = (bij)nxn e´ dita triangular inferior quando bij = 0,
para i < j.
Exemplo: A =


5 4 4 5
0 1 9 6
0 0 3 8
0 0 0 0

 e B =


5 0 0 0
2 1 0 0
9 7 3 0
8 6 5 1


Matriz Sime´trica: E´ uma matriz quadrada, onde aij = aji.
2
Exemplo:


4 3 1
3 2 0
1 0 5

 e


a b c d
b e f g
c f h i
d g i k


Observe que, no caso de uma matriz sime´trica, a parte superior e´ uma “reflexa˜o”da
parte inferior, em relac¸a˜o a` diagonal.
1.2 Operac¸o˜es com Matrizes
Ao utilizar matrizes, surge naturalmente a necessidade de efetuarmoscertas operac¸o˜es.
Veremos algumas delas e suas propriedades a seguir:
1.2.1 Adic¸a˜o
A soma de duas matrizes da mesma ordem, A = (aij)m×n e B = (bij)m×n, e´ uma matriz
m× n, definida por A +B = (aij + bij)m×n.
Exemplo:


1 4
2 5
3 6

+


−1 1
−3 0
4 2

 =


1− 1 4 + 1
2− 3 5 + 0
3 + 4 6 + 2

 =


0 5
−1 5
7 8

 .
Definic¸a˜o 1.3. Seja a matriz A = (aij)m×n. Chama-se matriz oposta de A, a matriz
m × n representada por −A = (−aij)m×n, tal que A + (−A) = O, onde O e´ a matriz
nula.
Exemplo: A matriz oposta de A =


1 −4
2 0
7 3

 e´ − A =


−1 4
−2 0
−7 −3

 .
3
1.2.2 Subtrac¸a˜o
A diferenc¸a de duas matrizes da mesma ordem, A = (aij)m×n e B = (bij)m×n, e´ uma
matriz m× n, que denota-se por A−B, que e´ a soma de A com a oposta de B; isto e´:
A−B = A+ (−B) = (aij)m×n + (−bij)m×n = (aij − bij)m×n (1.3)
Exemplo:


1 4
2 5
3 6

−


−1 1
−3 0
4 2

 =


1 + 1 4− 1
2 + 3 5− 0
3− 4 6− 2

 =


2 3
5 5
−1 4

 .
Propriedades da Adic¸a˜o
Se as matrizes A, B e C possuem a mesma ordem, valem as seguintes propriedades:
i) A+B = B + A (comutativa).
ii) A+ (B + C) = (A+B) + C (associativa).
iii) A+O = A, quando O e´ uma matriz nula (elemento neutro).
iv) A+ (−A) = O (elemento oposto).
Problema 1: Sejam A = (aij)3×2 e B = (bij)3×2, tal que aij = 2i+ j e bij = 1 + i− j.
• Determine as matrizes C = A+B e D = A− B.
• Represente genericamente um elemento cij de C e dij de D.
Problema 2: Encontre as matrizes 2× 2, A e B, sabendo que:
A+B +

 1 1
1 1

 =

 4 0
1/2 −1

+

 0 2
3/2 4


A−B =

 6 −3
4 0

−

 2 −2
2 1

 .
4
1.2.3 Multiplicac¸a˜o de um nu´mero real por uma Matriz
Seja A = (aij)m×n e k um nu´mero real diferente de zero. Definimos B = kA = (bij)m×n
a matriz onde bij = kaij .
Exemplo Se A =


3 −1
1 0
6 4

, enta˜o 2A =


6 −2
2 0
12 8

 e 13 A =


1 −1/3
1/3 0
2 4/3


1.2.4 Multiplicac¸a˜o de Matrizes
Sejam as matrizes A = (aij)m×p e B = (bij)p×n. Definimos C = A · B = (cuv)m×n, tal
que
cuv =
n∑
k=1
aukbkv (1.4)
Observac¸a˜o 1.2. So´ se pode efetuar o produto de duas matrizes Am×p e Bp×n, se o
nu´mero de colunas da primeira matriz for igual ao nu´mero de linhas da segunda matriz,
sendo assim o resultado da multiplicac¸a˜o de A por B sera´ uma matriz de ordem m× n.
Note que o elemento cij e´ obtido multiplicando os elementos da i-e´sima linha da primeira
matriz pelos elementos correspondentes da j-e´sima coluna da segunda matriz, e somando
este produtos.
Exemplo:
a)

 −1
2


2×1
(
−3 4
)
1×2
=

 −1.(−3) −1.4
2.(−3) 2.4

 =

 3 −4
−6 8


2×2
b)

 1 0
3 −2


2×2

 −1 1
5 3


2×2
=

 1.(−1) + 0.(5) 1.(1) + 0.(3)
3.(−1) +−2.(5) 3.(1) +−2.(3)

 =

 −1 1
−13 −3


2×2
Observac¸a˜o 1.3. A propriedade conmutativa em matrizes nem sempre e´ va´lida, isto e´
AB e BA na˜o necessariamente sa˜o iguais. No exemplo anterior verifique se AB = BA.
Se A e´ uma matriz quadrada n× n e I a matriz identidade n× n, enta˜o
AI = IA = A.
5
Propriedades da Multiplicac¸a˜o
Supondo que a ordem das matrizes A, B e C estejam definidas de modo que cada uma
das operac¸o˜es abaixo indicadas possam ser efetuadas, enta˜o as propriedades seguintes
sera˜o va´lidas.
1. (A.B).C = A.(B.C) (associatividade).
2. (A± B).C = A.C ±B.C (distributividade a` direita).
3. A.(B ± C) = A.B ± A.C (ditributividade a` esquerda).
4. k(B ± C) = kB ± kC, k, s ∈ R
5. (k ± s)A = kA± sA, k, s ∈ R
6. k(sA) = (ks)A, k, s ∈ R
1.2.5 Matriz Transposta
A transposta de uma matriz A = (aij)m×n, e´ uma outra matriz AT = (bij)n×m, cujas
linhas sa˜o as colunas de A, isto e´, bij = aji.
Exemplo: A transposta da matrizA =


3 −1
4 −2
5 −3


3×2
e´ AT =

 3 4 5
−1 −2 −3


2×3
Propriedades
1. (AT )T = A, isto e´, a transposta da transposta de uma matriz e´ ela mesma.
2. (A+B)T = AT +BT , a transposta de uma soma e´ igual a somas das transpostas.
3. (α.A)T = α.AT , onde α e´ qualquer escalar.
4. Uma matriz e´ sime´trica se somente se ela for igual a` sua transposta, isto e´, A = AT .
5. (A.B)T = BT .AT (deve-se observar a ordem).
6
Matriz Anti-sime´trica: E´ uma matriz quadrada, onde AT = −A.
Exemplo: A =


0 3 4
−3 0 −6
−4 6 0

 e´ anti-sime´rica.
1.2.6 Determinante
E´ poss´ıvel associar a cada matriz A de ordem n × n, um escalar (nu´mero real ou com-
plexo), que denotaremos por detA, cujo valor vai nos dizer se a matriz e´ ou na˜o invert´ıvel.
Antes de dar a definic¸a˜o geral vamos a considerar alguns casos particulares.
Caso 1. Se A = (a) e´ uma matriz 1× 1, definimos o determinante de A por:
detA = a.
Diremos que A tem inversa multiplicativa (A e´ invert´ıvel) se e so´ se detA 6= 0.
Caso 2. Se A =

 a11 a12
a21 a22

 e´ uma matriz 2× 2, definimos o determinante de A por:
detA = a11a22 − a12a21.
Diremos que A e´ invert´ıvel se e somente se detA 6= 0.
Caso 3. Se A =


a11 a12 a13
a21 a22 a23
a31 a32 a33

 e´ uma matriz 3× 3, definimos o determinante de A
por:
detA = a11a22a33 − a11a32a23 − a12a21a33 + a12a31a23 + a13a21a32 − a13a31a22
Podemos colocar a equac¸a˜o anterior na forma
detA = a11(a22a33 − a32a23)− a12(a21a33 − a31a23) + a13(a21a32 − a31a22) (1.5)
Para j = 1, 2, 3, vamos denotar porM1j a matriz 2×2 formada retirando-se a primeira
linha e a j-e´sima coluna de A. O determinante de A (1.5) pode ser, enta˜o, colocado na
forma
detA = a11 detM11 − a12 detM12 + a13 detM13 (1.6)
7
Para ver como generalizar (1.6) para o caso n > 3, vamos a dar a seguinte definic¸a˜o.
Definic¸a˜o 1.4. (Menores e Cofatores): Seja A = (aij) uma matriz n × n. O ij-e´simo
menor de A e´ o determinante da submatriz Mij, de ordem (n− 1)× (n− 1), que sobra
quando suprimimos a i-e´sima linha e a j-e´sima coluna de A. O ij-e´simo cofator Aij de
A (ou o cofator de aij) e´ definido como
Aij = (−1)i+j detMij .
Definic¸a˜o 1.5. O determinante de uma matriz n × n e´ o nu´mero real detA, definido
por
detA = ai1.Ai1 + ai2.Ai2 + ...+ a1n.Ain (1.7)
ou
detA = a1j .A1j + a2j .A2j + ... + anj.Anj , (1.8)
onde Aij e´ ij-e´simo cofator de A.
Exemplo: O determinante da matriz A =

 a b
c d

 e´:
detA = aA11 + bA12 = ad+ b(−c) = ad− bc. (1.9)
Propriedades da Determinante
Seja A uma matriz de ordem n× n.
1. Se A tem uma linha o uma coluna de zeros, enta˜o detA = 0.
2. Se duas linhas ou colunas de A sa˜o iguais, enta˜o detA = 0.
3. detA = detAT .
4. Se A e´ uma matriz, triangular superior ou triangular inferior ou diagonal, enta˜o o
detA e´ igual ao produto de seus elementos da diagonal.
8
5. Se B e´ uma matriz de ordem n × n, enta˜o: det(A + B) 6= detA + detB e
det(AB) = detA detB
6. Seja B a matriz obtida ao multiplicar uma u´nica linha ou coluna de A por k, enta˜o:
detB = k detA (detA =
1
k
detB).
7. Seja B a matriz obtida ao permutar duas linhas (ou duas colunas) de A, enta˜o
detB = − detA.
8. Seja B a matriz obtida ao somar um mu´ltiplo de uma linha (ou colunas) de A a
uma outra linha (ou coluna), enta˜o detB = detA.
Calculando Determinantes usando reduc¸a˜o por linhas
A seguir apresentamos um me´todo para calcular determinantes que envolve substancial-
mente menos contas que aplicando a definic¸a˜o diretamente.
Assim, tendo em mente as propriedades 6, 7 e 8, a ide´ia sera´ reduzir a matriz A
ao formatotriangular, usando as seguintes operac¸o˜es elementares sobre as linhas de uma
matriz (me´todo de Jacobi):
Exemplo: Ache o determinante da matriz A =


0 1 5
3 −6 9
2 6 1

.
Sol.: Reduzindo a matriz a uma triangular superior, obtemos que
detA =
∣∣∣∣∣∣∣∣∣
0 1 5
3 −6 9
2 6 1
∣∣∣∣∣∣∣∣∣
= −
∣∣∣∣∣∣∣∣∣
3 −6 9
0 1 5
2 6 1
∣∣∣∣∣∣∣∣∣
(linhas 2 e 3 foram permutadas)
= −3
∣∣∣∣∣∣∣∣∣
1 −2 3
0 1 5
2 6 1
∣∣∣∣∣∣∣∣∣
(o fator comun 3 da linha 1 foi retirado)
9
= −3
∣∣∣∣∣∣∣∣∣
1 −2 3
0 1 5
0 10 −5
∣∣∣∣∣∣∣∣∣
(linha 3 + (-2) (linha 1))
= −3
∣∣∣∣∣∣∣∣∣
1 −2 3
0 1 5
0 0 −55
∣∣∣∣∣∣∣∣∣
(linha 3 + (-10) (linha 2))
= −3(1)(1)(−55) = 165
Exemplo: Ache o determinante da matriz A =


1 0 0 3
2 7 0 6
0 6 3 0
7 3 1 −5

.
Sol.: Reduzindo a matriz a uma triangular inferior usando operac¸o˜es por coluna, obte-
mos que
detA =
∣∣∣∣∣∣∣∣∣∣∣∣
1 0 0 3
2 7 0 6
0 6 3 0
7 3 1 −5
∣∣∣∣∣∣∣∣∣∣∣∣
=
∣∣∣∣∣∣∣∣∣∣∣∣
1 0 0 0
2 7 0 0
0 6 3 0
7 3 1 −26
∣∣∣∣∣∣∣∣∣∣∣∣
(coluna 4 + (-3)(coluna 1))
= (1)(7)(3)(−26) = −546
1.2.7 Matriz Inversa
Uma matriz quadrada A e´ dita invers´ıvel, se existir uma outra matriz B, da mesma
ordem, tal que A.B = I e B.A = I. Denotaremos B = A−1, sendo que A.A−1 =
A−1.A = I.
Propriedades:
• Se A e B sa˜o matrizes de mesma ordem, ambas invers´ıveis, enta˜o A e B e´ invers´ıvel
e (A.B)−1 = B−1 . A−1.
• Nem toda matriz tem inversa.
10
Supondo agora que An×n tenha inversa, isto e´, existe A−1 tal que A·A−1 = I. Usando
o determinante obte´m-se
det (A · A−1) = det A · det A−1 e det I = 1
Enta˜o:
detA−1 =
1
detA
Definic¸a˜o 1.6. Seja a matriz A ∈ Mn×n(R). Chamaremos de matriz Adj(A) a Ad-
junta de A, a` transposta da matriz de cofatores (Cof(A) = (Aij)n×n). Simbolicamente
escrevemos
Adj(A) = (Cof(A))T .
Teorema 1.1. Se A e´ uma matriz invers´ıvel, enta˜o:
A−1 =
1
detA
Adj (A).
Uma condic¸a˜o necessa´ria para que A tenha inversa e´ que o detA 6= 0.
Ex.: Ache a inversa de A =

 1 2
−1 3

 .
Sol.: Calculando temos que detA = 5, a matriz de cofatores Cof(A) =

 3 1
−2 1

 e a
adjunta Adj(A) = (Cof(A))T =

3 −2
1 1

, logo pelo Teorema 1.1
A−1 =
1
5
·

3 −2
1 1

 . (1.10)
Calculando a Inversa usando reduc¸a˜o por linhas
Um outra forma para achar a inversa de uma matriz A qualquer, e que envolve substan-
cialmente menos contas do que aplicando a definic¸a˜o diretamente, e´ usando as operac¸o˜es
elementares sobre as linhas da matriz aumentada associada (A|I) de modo que esta
se transforme numa matriz aumentada da forma (I|B). Diremos que B = A−1.
As operac¸o˜es elementares permitidas sa˜o:
11
1. Permutar linhas Li ←→ Lj
2. Multiplicar uma linha por um nu´mero real α na˜o nulo, Li ←→ αLi.
3. Somar a uma linha um mu´ltiplo de uma outra, Li ←→ Li + αLj.
Exemplo: Ache a inversa da matriz A =


0 1 5
3 −6 9
2 6 1

.
Sol.: Apartir da matriz aumentada, usando as operac¸o˜es por linhas temos:
(A|I) =


0 1 5 | 1 0 0
3 −6 9 | 0 1 0
2 6 1 | 0 0 1


L1 ←→ L2
L3 ←→ L3
=


3 −6 9 | 0 1 0
0 1 5 | 1 0 0
2 6 1 | 0 0 1


L1 ←→ L1/3
L2 ←→ L2
L3 ←→ L3
=


1 −2 3 | 0 1/3 0
0 1 5 | 1 0 0
2 6 1 | 0 0 1


L1 ←→ L1
L2 ←→ L2
L3 ←→ L3 − 2L1
=


1 −2 3 | 0 1/3 0
0 1 5 | 1 0 0
0 10 −5 | 0 −2/3 1


L1 ←→ L1
L2 ←→ L2
L3 ←→ L3 − 10L2
=


1 −2 3 | 0 1/3 0
0 1 5 | 1 0 0
0 0 −55 | −10 −2/3 1


L1 ←→ L1
L2 ←→ L2
L3 ←→ −L3/55
=


1 −2 3 | 0 1/3 0
0 1 5 | 1 0 0
0 0 1 | 10/55 2/165 −1/55


L1 ←→ L1 − 3L3
L2 ←→ L2 − 5L3
L3 ←→ L3
=


1 −2 0 | −30/55 49/165 3/55
0 1 0 | 5/55 −10/165 5/55
0 0 1 | 10/55 2/165 −1/55


L1 ←→ L1 + 2L2
L2 ←→ L2
L3 ←→ L3
12
=


1 0 0 | −20/55 69/165 13/55
0 1 0 | 5/55 −10/165 5/55
0 0 1 | 10/55 2/165 −1/55


Logo a matriz inversa de A e´
A−1 =


−20/55 29/165 13/55
5/55 −10/165 5/55
10/55 2/165 −1/55

 = 1165


−60 29 39
15 −10 15
30 2 −3

 (1.11)
Exerc´ıcios
1. Sejam as matrices A =


3 −4 1
2 1 2
1 0 −1

; B =


1 0 2
3 1 −1
2 −3 4

 e C =


−1 0 0
2 4 0
1 −1 5

.
Calcular A + 2C, B2 = B · B, −C · B, B − A, det(2A), det (C − B).
2. Seja A =

√2 x2
2x 1

. Calcule os poss´ıveis valores de x, para que AT = A.
3. (i) Se A e´ uma matriz sime´trica n× n, calcule AT − A.
(ii) Se A e´ uma matriz triangular inferior, AT e´ uma matriz triangular . . . . . . .
(iii) A e´ uma matriz diagonal, calcule AT .
4. Seja A =


2 3 −4
0 −4 2
1 −1 5

,
(i) Calcule detA desenvolvendo em relac¸a˜o a` primeira linha.
(ii) Calcule detA desenvolvendo em relac¸a˜o a` primeira coluna.
(iii) Calcule detA desenvolvendo em relac¸a˜o a` segunda coluna.
5. Calcule o determinante desenvolvendo por linha ou por coluna
A =


2 0 3 0
3 0 0 1
0 2 3 0
2 0 1 4

 B =


a b c
c a b
b c a

.
13
6. Calcule o determinante de cada uma das seguintes matrizes (use as operac¸o˜es
elementares por linhas para reduzir as matrizes abaixo a` sua forma triangular).
A =


2 0 −1
3 0 2
4 −3 7

, B =


t+ 3 −1 1
5 t− 3 1
6 −6 t+ 4

 e C =


1 4 −5
0 0 1
−1 8 7

.
7. Sejam as matrizes
A =


−1 3 −4
2 4 1
−4 2 −9

 B =


1 0 0
1 3 0
1 3 5

 e C =


cos θ sen θ 0
− sen θ cos θ 0
0 0 1

.
(i) Calcule os cofatores das matrizes A, B e C.
(ii) Determine a inversa das matrizes A, B e C usando o Teorema 1.1.
8. Sejam as matrizes
A =


2 5 5
−1 −1 0
2 4 3

, B =


2 0 3
0 3 2
−2 0 −4

 e C =


2 0 0
8 1 0
−5 3 6

.
(i) Calcule os cofatores das matrizes A, B e C.
(ii) Determine a inversa das matrizes A, B e C.
9. Encontre a inversa de cada uma das matrizes dadas usando as operac¸o˜es por linha

3 4 −1
1 0 3
2 5 −4

,


1 0 0
1 1 0
1 1 1

,


1 0 −1
9 −1 4
8 9 −1

.
14
Cap´ıtulo 2
Sistemas de Equac¸o˜es Lineares
Alge´bricas
Uma equac¸a˜o linear de n incognitas e´ uma equac¸a˜o da forma
a1x1 + a2x2 + · · ·+ anxn = b (2.1)
Um sistema linear de m equac¸o˜es alge´bricas lineares de n varia´veis (incognitas) e´ um
conjunto de equac¸o˜es lineares que devem ser resolvidas simultaneamente, por exemplo:

a11x1 + a12x2 + · · ·+ a1nxn = b1
a21x1 + a22x2 + · · ·+ a2nxn = b2
...
am1x1 + am2x2 + · · ·+ amnxn = bm
(2.2)
onde os aij e bi sa˜o nu´meros reais.
Em 1858, o matema´tico ingleˆs Artur Cayley introduz uma notac¸a˜o abreviada para
expressar o sistema linear (2.2), na forma matricial:

a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
. . .
...
am1 am2 · · · amn


m×n
.


x1
x2
...
xn


n×1
=


b1
b2
...
bm


m×1
. (2.3)
Assim a forma matricial (2.3) escreve-se abreviadamente por:
Ax = b, (2.4)
15
onde A e´ uma matriz m× n, b um vetor m× 1 e x e´ um vetor n× 1.
“Se b = 0, o sistema e´ dito homogeˆneo, caso contra´rio ele e´ na˜o-homogeˆneo”.
2.1 Classificac¸a˜o de um Sistema Linear
O sistema linear (2.2) pode ter ou na˜o soluc¸a˜o. Assim, classificaremos os sistemas lineares
em dois tipos:
1. Compat´ıvel (ou poss´ıvel)

 Determinado, uma u´nica soluc¸a˜oIndeterminado mais de uma soluc¸a˜o.
2. Incompat´ıvel (ou imposs´ıvel)quando na˜o possui soluc¸a˜o.
Se o sistema linear (2.2) tem o nu´mero de equac¸o˜es igual ao nu´mero de incognitas
(m = n), enta˜o a matriz A associada a forma matricial equivalente (2.4) sera´ uma matriz
quadrada n× n. Logo,
• Se a matriz A e´ invers´ıvel, isto e´, o detA 6= 0, enta˜o o sistema tem u´nica soluc¸a˜o,
ou seja, x = A−1b.
• Se a matriz A na˜o e´ invers´ıvel, isto e´ det A = 0, enta˜o o sistema na˜o tem soluc¸a˜o,
ou existe soluc¸a˜o mas na˜o e´ u´nica.
(Um sistema homogeˆneo: Ax = 0, onde det A = 0, possui infinitas soluc¸o˜es)
Observac¸a˜o 2.1. Um sistema linear homogeˆneo Ax = 0 admite sempre a soluc¸a˜o nula,
chamada soluc¸a˜o trivial. Logo, um sistema linear homogeˆneo e´ sempre compat´ıvel.
Exemplo: E´ simples verificar que a soluc¸a˜o nula x = (0, 0, 0)T e´ soluc¸a˜o do sistema
linear homogeˆneo,

 3x1 − x2 + 7x3 = 0x1 − 2x2 + 3x3 = 0. ⇐⇒

3 −1 7
1 −2 3




x1
x2
x3

 =


0
0
0

 ⇐⇒ Ax = 0
16
Uma interpretac¸a˜o geome´trica das soluc¸o˜es de um sistema linear, pode ser observada
para sistemas de ordem 2× 2. Por exemplo, sejam os sistemas:
I)

 x1 + x2 = 2x1 − x2 = 2 II)

 x1 + x2 = 2x1 + x2 = 1 III)

 x1 + x2 = 2−x1 − x2 = −2.
A soluc¸a˜o dos respectivos sistemas podem ser visualizados nos seguintes gra´ficos
Figura 2.1:
2.2 Resoluc¸a˜o de Sistemas por Escalonamento
O objetivo sera´ migrar de um sistema linear Ax = b para outro que lhe seja equiva-
lente, e de resoluc¸a˜o mais simples. A ide´ia enta˜o e´, usar as operac¸o˜es elementares sobre
as linhas da matriz aumentada (A |b) de modo que esta se transforme a` forma (A′ |b′)
onde A′ e´ uma matriz escalonada. Assim, o sistema final equivalente A′x = b ′ se
resolvera´ usando substituic¸o˜es regressivas.
Exemplo: Ache a soluc¸a˜o do sistema linear

x1 + 2x2 + x3 = 3
3x1 − x2 − 3x3 = −1
2x1 + 3x2 + x3 = 4.
⇐⇒


1 2 1
3 −1 −3
2 3 1




x1
x2
x3

 =


3
−1
4

 ⇐⇒ Ax = b
17
Sol.: Apartir da matriz aumentada, usando as operac¸o˜es por linhas temos:
(A|b) =


1 2 1 | 3
3 −1 −3 | −1
2 3 1 | 4

 L2 ←→ L2 − 3L1
L3 ←→ L3 − 2L1
=


1 2 1 | 3
0 −7 −6 | −10
0 −1 −1 | −2

 L2 ←→ L3
=


1 2 1 | 3
0 −1 −1 | −2
0 −7 −6 | −10


L3 ←→ L3 − 7L2
=


1 2 1 | 3
0 −1 −1 | −2
0 0 1 | 4

 = (A′|b′)
O sistema equivalente resultante e´

x1 +2x2 + x3 = 3
−x2 − x3 = −2
x3 = 4.
A soluc¸a˜o deste u´ltimo sistema obtem-se resolvendo a u´ltima equac¸a˜o e substituindo a
respectiva soluc¸a˜o na equac¸a˜o anterior, ate´ chegar na primeira.
Exerc´ıcios
1. Resolva os seguintes sistemas pelo me´todo de escalonamento de Gauss-Jordan.
(i)


x − 2y + z = −2
2x − 5y + z = 1
3x − 7y + 2z = −1
(ii)


x − 2y + z = 1
2x − 5y + z = −1
3x − 7y + 2z = 0
18
iii)


x + 2y + 3z = 0
x + 4y + 4z + w = 7
3x + 7y + 9z + w = 4
−2x − 4y − 6z − w = 6
2. O sistema seguinte na˜o tem soluc¸o˜es para quais valores de a?. Exatamente uma
soluc¸a˜o?. Infinitas soluc¸o˜es.

x + 2y − 3z = 4
3x − y + 5z = 2
4x + y + (a2 − 14)z = a+ 2
19
Cap´ıtulo 3
Vetores
Com o intuito de esclarecer melhor o conceito de vetor, uma abordagem geome´trica e
alge´brica sera˜o apresentadas.
3.1 Interpretac¸a˜o Geome´trica
Existem dois tipos de grandezas: as escalares e as vetoriais. As escalares sa˜o aquelas
que ficam definidas por apenas um nu´mero real (acompanhado de uma unidade ade-
quada). Por exemplo, comprimento, a´rea, volume, massa, densidade e temperatura. As
grandezas vetoriais, sa˜o o caso contrario, isto e´, na˜o basta saber seu mo´dulo e unidade
correspondente, para serem perfeitamente caracterizadas precissamos sua direc¸a˜o e seu
sentido. Por exemplo, forc¸a, velocidade e acelerac¸a˜o.
Definic¸a˜o 3.1. Um vetor e´ representado por um segmento orientado (um segmento
esta´ orientado quando nele se escolhe um sentido de percurso, considerado positivo).
Dois o mais segmentos orientados de mesmo comprimento, mesma direc¸a˜o (paralelos ou
colineares) e mesmo sentido, sa˜o representantes de um mesmo vetor.
Na seguinte figura todos os segmentos orientados paralelos ou colineares, de mesmo
sentido e mesmo comprimento de AB, representam o mesmo vetor, que sera´ indicado
por
−→
AB ou B − A
20
onde A e´ a origem e B a extremidade do segmento. O vetor sera´ representado por uma
letra minu´scula encimada por uma flecha, tal como ~v
Figura 3.1:
Assim sendo, cada ponto do espac¸o pode ser considerado como u´nico origem de um
segmento orientado que e´ representante do vetor ~v.
3.1.1 Adic¸a˜o de Vetores
Consideremos dois vetores ~u e ~v, cuja soma ~u+ ~v pretendemos encontrar. Tomemos um
ponto A qualquer e, com origem nele, tracemos um segmento orientado
−→
AB representante
do vetor ~u e um segmento orientado
−−→
BC representante do vetor ~v. O vetor representado
pelo segmento orientado
−→
AC sera´ o representante do vetor soma ~u+ ~v, isto e´,
~u+ ~v =
−→
AC
ou
−→
AB +
−−→
BC =
−→
AC
21
Sendo ~u, ~v e ~w vetores quaisquer, a adic¸a˜o admite as seguintes propriedades
1. Conmutativa: ~u+ ~v = ~v + ~u.
2. Associativa: (~u+ ~v) + ~w = ~u+ (~v + ~w).
3. Elemento Neutro: ~u+~0 = ~u
4. Elemento Oposto: ~u+ (−~u) = ~0
Observac¸a˜o 3.1. O vetor ~u+ (−~v) escreve-se ~u− ~v,e´ chamado diferenc¸a entre ~u e ~v.
3.1.2 Multiplicac¸a˜o de um Nu´mero Real por um Vetor
Dado um vetor ~u 6= 0 e um nu´mero real α 6= 0, chama-se produto do nu´mero real α pelo
vetor ~u, o vetor α~u tal que:
22
1. Mo´dulo ou comprimento: |α~v| = |α||~v|
2. Direc¸a˜o: α~v e´ paralelo a ~v
3. Sentido: α~v e ~v tem o mesmo sentido se α > 0, e contra´rio se α < 0.
3.1.3 Aˆngulo entre dois vetores
O aˆngulo entre os vetores na˜o nulos u e v e´ o aˆngulo θ formado por duas semi-retas OA
e OB de mesma origem O, onde ~u =
−→
OA, ~v =
−−→
OB e 0 ≤ θ ≤ π.
• Se ~u//~v e ~u e ~v teˆm o mesmo sentido, enta˜o θ = 0. Na figura acima, o aˆgulo entre
~u e 2~u e´ zero.
• Se ~u//~v e ~u e ~v teˆm sentidos contra´rios, enta˜o θ = π. Na figura acima, o aˆgulo
entre ~u e −3~u e´ π.
3.2 Interpretac¸a˜o Alge´brica no Plano
Consideremos dois vetores ~v1 e ~v2 na˜o paralelos, representados com a origem no mesmo
ponto O, e sejam r1 e r2 retas contendo estes representantes, respectivamente.
23
Os vetores ~u, ~v, ~w, ~x e ~y, representados na figura podem ser escritos em func¸a˜o de
~v1 e ~v2 por
~u = 3~v1 + 4~v2 ~v = −2~v1 + 3~v2 ~w = −3~v1 − ~v2
~x = 2~v1 + 0~v2 ~y = 0~v1 + 3~v2
De modo geral dados dois vetores quaisquer ~v1 e ~v2, existe uma so´ dupla de nu´meros
reais a1 e a2, tal que
v = a1 ~v1 + a2 ~v2.
O vetor ~v e´ chamado combinac¸a˜o linear de v1 e v2. O conjunto B = {~v1, ~v2} e´ chamado
de base no plano.
“Qualquer conjunto de dois vetores na˜o paralelos forma uma base no
plano”
Observac¸a˜o 3.2. Dentre as infinitas bases que existem no plano a mais importante
e´ aquela que determina o conhecido sistema cartesiano ortogonal xOy. Esta base e´
chamada de base canoˆnica e esta determinada pelos vetores ortogonais e unita´rios
~i = (1, 0) e ~j = (0, 1).
Assim, qualquer vetor ~v = (x, y) do plano pode-se escrever da forma
v = x~i+ y ~j.
24
Igualdade de Vetores. Dois vetores ~u = (x1, y1) e ~v = (x2, y2) sa˜o iguais se,
x1 = x2 e y1 = y2.
Neste caso, escrevemos ~u = ~v.
Definic¸a˜o 3.2. Sejam dois vetores ~u = (x1, y1) e ~v = (x2, y2) e α ∈ R. Define-se
1. ~u+ ~v = (x1 + x2, y1 + y2)
2. α~u = (α x1, α y1)
3. −~u = (−1)~u = (−x1,−y1)
4. ~u− ~v = ~u+ (−~v) = (x1 − x2, y1 − y2).As definic¸o˜es anteriores e as operac¸o˜es alge´bricas dos nu´meros reais permitem demon-
strar as propriedades seguintes:
1. ~u+ ~v = ~v + ~u
2. ~u+~0 = ~u
3. (~u+ ~v) + ~w = ~u+ (~v + ~w)
4. ~u+ (−~u) = ~0
5. α(β~v) = (αβ)~v
6. α(~u+ ~v) = α~u+ α~v
7. (α+ β)~u = α~u+ β~u
8. 1~u = ~u.
Observac¸a˜o 3.3. E´ importante lembrar que um vetor tem infinitos representantes que
sa˜o os segmentos orientados de mesmo comprimento, mesma direc¸a˜o e mesmo sentido.
E, dentre os infinitos representantes de
−→
AB (A = (x1, y1), B = (x2, y2)), o que
“melhor o caracteriza” e´ aquele que tem origem em O = (0, 0) e extremidade no ponto
P = (x2−x1, y2−y1). O vetor ~v = −→OP e´ tambe´m chamado vetor posic¸a˜o ou representante
natural de
−→
AB.
25
Mo´dulo de um vetor Seja o vetor ~u = (x, y). Pelo Teorema de Pitagoras, vem
|u| =
√
x2 + y2. (3.1)
3.3 Interpretac¸a˜o Alge´brica no Espac¸o
No plano vimos que dado qualquer vetor ~u, este pode ser escrito como uma combinac¸a˜o
da base canoˆnica {~i,~j}, isto e´, ~u = (x, y) = x~i+ y~j. Analogamente, no espac¸o, consid-
eraremos a base canoˆnica {~i, ~j, ~k}, como aquela que ira´ determinar o sistema cartesiano
ortogonal Oxyz, neste caso
~i = (1, 0, 0), ~j = (0, 1, 0), ~k = (0, 0, 1).
Assim, dado um vetor qualquer ~u ∈ R3 este pode-se expressar da forma
~u = (x, y, z) = x~i+ y~j + z ~k. (3.2)
As definic¸o˜es e concluso˜es no espac¸o sa˜o ana´logas a`s do plano.
Definic¸a˜o 3.3. Sejam os vetores ~u = (x1, y1, z1) e ~v = (x2, y2, z2) e α ∈ R. Define-se
1. ~u = ~v se e somente se x1 = x2, y1 = y2 e z1 = z2.
2. ~u+ ~v = (x1 + x2, y1 + y2, z1 + z2)
3. α~u = (α x1, α y1, α z1)
4. −~u = (−1)~u = (−x1,−y1,−z1)
5. ~u− ~v = ~u+ (−~v) = (x1 − x2, y1 − y2, z1 − z2).
Ale´m disso,
1. ~u+ ~v = ~v + ~u
2. ~u+~0 = ~u
3. (~u+ ~v) + ~w = ~u+ (~v + ~w)
26
4. ~u+ (−~u) = ~0
5. α(β~v) = (αβ)~v
6. α(~u+ ~v) = α~u+ α~v
7. (α+ β)~u = α~u+ β~u
8. 1~u = ~u.
Mo´dulo de um vetor Seja o vetor ~u = (x, y, z),
|u| =
√
x2 + y2 + z2. (3.3)
3.4 Produto Escalar
Chama-se produto escalar de dois vetores ~u e ~v ao nu´mero real ~u · ~v,
Quando ~u = (x1, y1) e ~v = (x2, y2) =⇒ ~u · ~v = x1x2 + y1y2. (3.4)
Quando u = (x1, y1, z1) e v = (x2, y2, z2) =⇒ ~u · ~v = x1x2 + y1y2 + z1z2. (3.5)
Propriedades do Produto Escalar Dados os vetores u, v e w e o nu´mero real α, e´
fa´cil verificar que: Ale´m disso,
1. ~u · ~v = ~v · ~u
2. ~u · (~v + ~w) = ~u · ~v + ~u · ~w
3. (~u+ ~v) · ~w = ~u · ~w + ~v · ~w
4. α · (~u · ~v) = (α~u) · ~v = ~u · (α~v)
5. ~u · ~u > 0 se ~u 6= ~0 e ~u · ~u = 0 se ~u = ~0.
6. ~u · ~u = |~u|2.
27
3.4.1 Interpretac¸a˜o Geome´trica do Produto Escalar
Se ~u e ~v sa˜o dois vetores na˜o nulos e θ e´ o aˆngulo entre eles, enta˜o:
~u · ~v = |~u| |~v| cos θ. (3.6)
De fato, aplicando a lei dos co-senos ao triaˆngulo ABC, temos:
|~u− ~v|2 = |~u|2 + |~v|2 − 2|~u||~v| cos θ.
Por outro lado, como |~u− ~v|2 = (~u− ~v) · (~u− ~v) = |~u|2 − 2~u · ~v + |~v|2, enta˜o a igualdade
segue-se.
Exemplo 3.1. Sejam |~u| = 2, |~v| = 3 e 120o o aˆngulo entre ~u e ~v. Calcular
i) ~u · ~v ii) |~u+ ~v| iii) |~u− ~v|.
Sol.
i) ~u · ~v = |~u||~v| cos 120o = (2)(3) −1
2
= −3 (3.7)
ii) |~u+ ~v| =
√
|~u|2 + |~v|2 + 2~u · ~v =
√
22 + 32 + 2(−3) =
√
7 (3.8)
ii) |~u− ~v| =
√
|~u|2 + |~v|2 − 2~u · ~v =
√
22 + 32 − 2(−3) =
√
19. (3.9)
3.4.2 Aˆngulo entre dois Vetores
Seja θ o aˆngulo entre ~u e ~v, enta˜o:
cos θ =
~u · ~v
|~u||~v| .
28
Exemplo 3.2. Sejam ~u = (4,−2), ~v = (3, 1)
cos θ =
(4,−2) · (3, 1)
|(4,−2)||(3, 1)| =
4.3 + (−2).1√
42 + (−2)2√32 + 1 =
10√
20
√
10
=
√
2
2
Logo, θ = arccos
√
2
2
⇒ θ = 45o.
Exemplo 3.3. Um vetor ~v do espac¸o forma com os vetores ~i e ~j aˆngulos de 60o e 120o,
respectivamente. Determinar o vetor ~v, sabendo que |~v| = 2.
Sol. Das hipoˆteses temos para v = (x, y, z) que:
cos 60o =
~v ·~i
|~v||~i| =
~v ·~i
(2)(1)
⇒ x = ~v ·~i = 2 cos 60o = 1
e
cos 120o =
~v ·~j
|~v||~j| =
~v ·~j
(2)(1)
⇒ y = ~v ·~j = 2 cos 120o = −1
Por outro lado, ja que |~v| =
√
x2 + y2 + z2 = 2, tem-se z = ±√2. Portanto, ~v =
(1,−1,√2) ou ~v = (1,−1,−√2).
Observac¸a˜o 3.4. Note que dois vetores ~u e ~v diferentes de zero, sa˜o ortogonais (~u⊥~v),
se e somente se ~u · ~v = 0.
Exemplo. Os vetores ~u = (10,
√
2) e ~v = (−1
5
,
√
2) formam um aˆngulo de 90o, pois
~u · ~v = 10(−1
5
) +
√
2(
√
2) = 0
Observac¸a˜o 3.5. Sejam dois vetores ~u e ~v quaisquer,
1. |~u · ~v| ≤ |~u||~v| (Desigualdade de Schwartz)
2. |~u+ ~v| ≤ |~u|+ |~v| (Desigualdade Triangular).
3.4.3 Projec¸a˜o de um Vetor sobre Outro
Sejam os vetores ~u e ~v na˜o nulos e θ o aˆngulo entre eles. O objetivo sera´ decompor
um dos vetores, digamos ~u, da forma
~u = ~u1 + ~u2
29
sendo ~u1‖~v e ~u2 ⊥ ~v.
O vetor ~u1 e´ chamado projec¸a˜o ortogonal de ~u sobre ~v, e denotado por:
~u1 = Proj~v ~u.
Com efeito, ja que: ~u1‖~v ⇒ ~u1 = α~v e dado que ~u2 = ~u− ~u1 = ~u− α~v enta˜o
~u2 ⊥ ~v ⇒ (~u− α~v) ⊥ ~v ⇒ (~u− α~v) · ~v = 0 ⇒ α = ~u · ~v|~v|2
Portanto,
Proj~v ~u = ~u1 =
(
~u · ~v
|~v|2
)
~v.
Chamamos de componente de u sobre v ao vetor
Comp ~v ~u = ~u2 = ~u− α~v = ~u− Proj ~v ~u.
3.5 Produto Vetorial
Chama-se produto vetorial de dois vetores ~u = (x1, y1, z1) e ~v = (x2, y2, z2) de R
3,
tomados nessa ordem, e reprentados por ~u× ~v, ao vetor:
~u× ~v =
∣∣∣∣∣∣
y1 z1
y2 z2
∣∣∣∣∣∣ ~i−
∣∣∣∣∣∣
x1 z1
x2 z2
∣∣∣∣∣∣ ~j +
∣∣∣∣∣∣
x1 y1
x2 y2
∣∣∣∣∣∣ ~k.
30
Pela facilidade para memorizar denotaremos a definic¸a˜o anterior da forma:
~u× ~v =
∣∣∣∣∣∣∣∣∣
~i ~j ~k
x1 y1 z1
x2 y2 z2
∣∣∣∣∣∣∣∣∣
.
Exemplo 3.4. Calcular ~u× ~v para ~u = (5, 4, 3) e ~v = (1, 0, 1).
Sol.
~u× ~v =
∣∣∣∣∣∣∣∣∣
~i ~j ~k
5 4 3
1 0 1
∣∣∣∣∣∣∣∣∣
=
∣∣∣∣∣∣
4 3
0 1
∣∣∣∣∣∣ ~i−
∣∣∣∣∣∣
5 3
1 1
∣∣∣∣∣∣ ~j +
∣∣∣∣∣∣
5 4
1 0
∣∣∣∣∣∣ ~k = 4~i− 2~j − 4~k.
Observac¸a˜o 3.6. Uma forma pra´tica para o ca´lculo de ~u× ~v e´ dispondo os dois vetores
em linha, e repetindo pela ordem, as duas primeras colunas, As treˆs componentes de
~u× ~v sa˜o dadas pelos treˆs determinantes, conforme a seguir.
O sentido do vetor ~u×~v podera´ ser determinado pela regra da ma˜o direita, isto e´, se
os dedos da ma˜o direita forem dobrados na mesma direc¸a˜o de rotac¸a˜o, enta˜o o polegar
estendido indicara´ o sentido de ~u× ~v.
31
3.5.1 Propriedades:
As demonstrac¸o˜es das seguintes propriedades sa˜o uma consequeˆncia direta da definic¸a˜o
de produto vetorial e das propriedades de determinante.
1. ~v × ~u = −~u× ~v.
2. ~u× ~v = ~0, se e somente se, ~u ‖ ~v.
3. O vetor ~u× ~v e´ simultaneamente perpendicular a ~u e ~v, isto e´
(~u× ~v) · ~u = ~0 e (~u× ~v) · ~v = ~0.
4. ~u× (~v + ~w) = ~u× ~v + ~u× ~w e (~u+ ~v)× ~w = ~u× ~w + ~v × ~w.
5. α (~u× ~v) = (α ~u)× ~v = ~u× (α ~v).
6. ~u · (~v × ~w) = (~u× ~v) · ~w.
32
7. |~u× ~v|2 = |~u|2 |~v|2 − (~u · ~v)2, (chamada identidade de Lagrange).
Observac¸a˜o 3.7. Como uma consequeˆncia da identidade de Lagrange e tendo em conta
que ~u · ~v = |~u| |~v| cos θ, temos que:
|~u× ~v| = |~u| |~v| sen θ
3.5.2 Interpretac¸a˜o Geome´trica
A a´rea de um paralelogramo determinado pelos vetores ~u e ~v , onde a medida da base e´
~u e a altura e´ |~v| sen θ, e´
A = (base)x(altura) = |~u| |~v| sen θ
Observac¸a˜o 3.8. O produto misto ~u · (~v × ~w) e´ igual, em mo´dulo, ao volume do pa-
ralelep´ıpedo de arestas determinadas pelos vetores na˜o coplanares ~u, ~v e ~w (os treˆs na˜o
se encontram num mesmo plano).
3.6 Exerc´ıcios
1. Sejam A = (1, 2), B = (0, 1), C = (−1,−1) e D = (2, 3) pontos de R2. Calcule e
grafique os seguintes vetores (com ponto inicial na origem).
a)
−→
AB +
−−→
BC b)
−−→
CD + 2
−→AB c)
−→
AB −−−→CD d) −−→CD −−→AB e) −1
2
−−→
DC
33
2. Sejam A = (3, 1, 4), B = (0, 1, 1), C = (1,−1, 2) e D = (2, 1, 0) pontos de R3.
Calcule e grafique os seguintes vetores (com ponto inicial na origem).
a)
−→
AB b)
−−→
CD +
−→
AB c)
−→
AB −−−→CD d) −−→CD +−→AB
3. Encontre as componentes do vetor com ponto inicial P1 e ponto final P2.
a) P1 = (4, 3), P2 = (3, 2) b) P1 = (−a, b), P2 = (a, b)
c) P1 = (−1, 0, 2), P2 = (2, 1,−2)
4. Encontre um vetor na˜o-nulo ~u com ponto inicial P = (−1, 3,−1) tal que
a) ~u tenha a mesma direc¸a˜o e sentido que ~v = (2, 1,−1).
b) ~u tenha a mesma direc¸a˜o mas sentido oposto que ~v = (1,−1, 1).
5. Sejam ~u = (1,
√
3), ~v = (0, 1) e ~w = (1, 1) vetores de R2.
(i) Calcular a) |2~u| b) 1/|~w| c) |~u+ ~v| d) (~u− ~v) · ~v.
(ii) Calcular a) Pr~v~u b) Pr~w~v c) Pr~v ~w d) ∡(~u,~v) e) ∡(~v, ~w).
(iii) Calcule a a´rea do paralelogramo determinado por: a) ~u e ~v b) ~v e ~w.
6. Sejam ~u = (2, 1,−1), ~v = (0, 1, 2) e ~w = (−1, 1, 3) vetores de R3.
(i) Calcular a) ~u×~v b) ~w/|~w| c) |~u.(~v× ~w)| d) −2~v× ~w e) |~u×~v× ~w|.
(ii) Calcular a) Pr~v~u b) Pr~u~v c) Pr~u ~w d) ∡(~u,~v) e) ∡(~v, ~w).
7. Calcule o valor de m para que a a´rea do paralelogramo determinado pelos vetores
~u = (m,−3, 1) e ~v = (1,−2, 2) seja igual a √26.
8. Calcule a a´rea do triaˆngulo ABC e a altura relativa ao lado BC, sendo dados
A = (−4, 1, 1), B = (1, 0, 1), C = (0,−1, 3).
9. Encontre o vetor ortogonal ao plano determinado pelos pontos A = (3, 0, 0), B =
(0, 3, 0), C = (0, 0, 2). Calcule a a´rea do triaˆngulo ABC.
10. Um paralelep´ıpedo e´ determinado pelos vetores ~u = (3,−1, 4), ~v = (2, 0, 1) e
~w = (−2, 1, 5). Calcule seu volume, e a altura relativa a` base definida pelos vetores
~u e ~v.
34
Cap´ıtulo 4
Espac¸o Vetorial
Um espac¸o vetorial e´ um conjunto V de elementos chamados vetores, onde esta˜o
definidas duas operac¸o˜es:
1. Adic¸a˜o: Para todo u, v ∈ V , a soma u⊕ v ∈ V .
2. Produto por um escalar α: Seja α ∈ R (ou α ∈ C) e v ∈ V , enta˜o α⊙ v ∈ V .
Ale´m disso, para todo u, v, w ∈ V e α, β ∈ R (ou C), os seguintes axiomas sa˜o
satisfeitos:
Em relac¸a˜o a` adic¸a˜o:
3. (u⊕ v)⊕ w = u⊕ (v ⊕ w)
4. u⊕ v = v ⊕ u
5. ∃ 0 ∈ V, u⊕ 0 = u
6. ∃ (−u) ∈ V, u⊕ (−u) = 0
Em relac¸a˜o ao produto por um escalar:
7. (αβ)⊙ u = α⊙ (β ⊙ u)
8. (α+ β)⊙ u = (α⊙ u)⊕ (β ⊙ u)
9. α⊙ (u⊕ v) = (α⊙ u)⊕ (α⊙ v)
10. 1⊙ u = u
35
Quando os escalares considerados sa˜o nu´meros reais, diremos que V e´ um espac¸o
vetorial real. No caso dos escalares serem complexos, V sera´ chamado espac¸o vetorial
complexo. Em diante, nos trabalharemos so´ com espac¸os vetoriais reais.
Exemplo 4.1. V = Rn = {(x1, x2, . . . , xn)/xi ∈ R} e´ um espac¸o vetorial real com as
operac¸o˜es
(x1, x2, . . . , xn)⊕ (y1, y2, . . . , yn) = (x1 + y1, x2 + y2, . . . , xn + yn) (4.1)
α⊙ (x1, x2, . . . , xn) = (αx1, αx2, . . . , αxn) (4.2)
Sol. A prova deste exemplo na˜o e´ mais do que a generalizac¸a˜o das propriedades, vistas
no Cap´ıtulo 3, para vetores no plano e no espac¸o associados a pontos (x1, x2) ∈ R2 e
(x1, x2, x3) ∈ R3 respectivamente. Assim, com as operac¸o˜es de adic¸a˜o de vetores (4.1) e
multiplicac¸a˜o de um vetor por um escalar real (4.2), e´ simples verificar todos os axiomas
de espac¸o vetorial.
Exemplo 4.2. O conjunto V = Mm×n(R) de todas as matrizes reais de ordem m × n e´
um espac¸o vetorial real com as operac¸o˜es de adic¸a˜o de matrizes e multiplicac¸a˜o por um
escalar. Assim, para A = [aij ]m×n, B = [bij ]m×n e α ∈ R, definimos:
A⊕B = [cij]m×n onde cij = aij + bij (4.3)
α⊙ A = [dij ]m×n onde dij = α aij (4.4)
Exemplo 4.3. Seja V = Pn(R) o conjunto de todos os polinoˆmios a0 + a1t + · · ·+ antn
com coeficientes ai ∈ R. Enta˜o V e´ um espac¸o vetorial real com as operac¸o˜es de adic¸a˜o
de polinoˆmios e multiplicac¸a˜o por um escalar. Seja p(t) = a0 + a1t + · · · + antn e
q(t) = b0 + b1t+ · · ·+ bntn,
(p⊕ q)(t) = p(t) + q(t) = (a0 + b0) + (a1 + b1)t+ · · ·+ (an + bn)tn
(α⊙ p)(t) = α p(t) = α a0 + (α a1)t+ · · ·+ (α an)tn
Exemplo 4.4. O conjunto V de todas as func¸o˜es reais definidas sobre o intervalo [a, b],
e´ um espac¸o vetorial. Se f = f(x) e g = g(x) ∈ V , definimos
(f ⊕ g)(x) = f(x) + g(x)
(α⊙ f)(x) = α f(x)
36
Exemplo 4.5. Nenhum dos conjuntos N, Z, Q e´ espac¸o vetorial real, pois em todos eles
o produto de um de seus elementos por um escalar, e´ um nu´mero real, o que contraria o
Axioma 2 de espac¸o vetorial.
4.1 Subespac¸os Vetoriais
Seja W , (W 6= ∅) um subconjunto do espac¸o vetorial V . Dizemos que W e´ um
subespac¸o vetorial em relac¸a˜o a`s operac¸o˜es de V , se:
i) u, v ∈ W ⇒ u⊕ v ∈ W
ii) α ∈ R e u ∈ W ⇒ α⊙ u ∈ W.
Exemplo 4.6. Seja V = M2×2(R) e
W = {A ∈M2×2(R)/todos os elementos da diagonal de A sa˜o zeros}.
Prove que W e´ um subespac¸o vetorial de V , com as operac¸o˜es usuais de matrizes.
Sol.: Sejam A =

 0 a12
a21 0

 e B =

 0 b12
b21 0

 matrizes quaisquer de W , enta˜o
A+B =

 0 a12 + b12
a21 + b21 0

 ∈ W.
Se α ∈ R e A ∈ W , enta˜o
αA =

 α.0 α.a12
α.a21 α.0

 =

 0 α.a12
α.a21 0

 ∈ W
Exemplo 4.7. Considere o subconjunto W = {(x, 1) ∈ R2/x ∈ R} com as operac¸o˜es
usuais de R2. Prove que W na˜o e´ um subespac¸o vetorial.
Sol.:Basta notar que a soma de dois elementos de W na˜o pertence a W . Os elementos
(3, 1) ∈ W e (5, 1) ∈ W , mas a soma
(3, 1) + (5, 1) = (8, 2) /∈ W
37
4.1.1 Propriedades dos Subespac¸os
Soma.
Sejam W1 e W2 subspac¸os de um espac¸o vetorial V . Enta˜o, o conjunto
W1 +W2 = {v ∈ V / v = w1 + w2, w1 ∈ W1 e w2 ∈ W2} (4.5)
e´ um subespac¸o de V .
Exemplo 4.8. SejamW1 e W2 duas retas de R
3 que passam pela origem, enta˜o W1+W2
e´ o plano em R3 que conte´m as duas retas.
Intersec¸a˜o.
SejamW1 eW2 subspac¸os de um espac¸o vetorial V . A intersec¸a˜oW1∩W2 e´ um subespac¸o
de V .
Exemplo 4.9. Sejam W1 e W2 dois planos de R
3 que passam pela origem, de modo
que W1 ∩W2 e´ uma reta em R3 que conte´m o (0, 0, 0). A intersec¸a˜o W1 ∩ W2 e´ um
subespac¸o de R3.
Quando W1 ∩W2 = {0}, enta˜o W1 +W2 e´ chamada soma direta de W1 com W2, e
sera´ denotada por W1 ⊕W2.
38
4.2 Combinac¸a˜o Linear
Dizemos que um vetor w e´ uma combinac¸a˜o linear dos vetores v1, v2, . . . , vn do espac¸o
vetorial real V , (V,+, .), se existem α1, α2, . . . , αn ∈ R tal que
w = α1 · v1 + α2 · v2 + . . .+ αn · vn.
Exemplo 4.10. Considere os vetores ~u = (1, 2,−1), ~v = (6, 4, 2) ∈ R3. Mostre que
~w = (9, 2, 7) e´ uma combinac¸a˜o linear de ~u e ~v
Sol.: Suponhamos que existem α, β ∈ R de modo que
(9, 2, 7) = α(1, 2,−1) + β(6, 4, 2).
Enta˜o,


α + 6β = 9
2α + 4β = 2
−α + 2β = 7
implica que α = −3, β = 2
Portanto, (9, 2, 7) = −3(1, 2,−1)+2(6, 4, 2), consequentemente ~w e´ uma combinac¸a˜o
linear de ~u e ~v.
Exemplo 4.11. Considere os polinoˆmios p(x) = 1, q(x) = 1 + x e r(x) = 1 + x + x2.
Mostre que qualquer polinoˆmio de ordem 2 pode-se escrever como uma combinac¸a˜o linear
de p(x), q(x) e r(x).
Sol.: Suponhamos que existem α, β, γ ∈ R de modo que
a0 + b0x+ c0x
2 = α(1) + β(1 + x) + γ(1 + x+ x2).
Enta˜o,


α + β + γ = a0
β + γ = b0
γ = c0
, logo γ = c0, β = b0 − c0, α = a0 − b0 − c0.
Portanto, a0 + b0x+ c0x
2 = (a0 − b0 − c0) p(x) + (b0 − c0) q(x) + c0 r(x).
39
4.3 Espac¸o Gerado
O subconjunto S de todos os vetores do espac¸o vetorial real V (V,+, .), que sa˜o
combinac¸o˜es lineares dos vetores v1, v2, . . . , vn, e´ chamado de subespac¸o vetorial gerado
por v1, v2, . . . , vn e sera´ denotado por
S = ger{v1, v2, . . . , vn} = [v1, v2, . . . , vn]
Para verificar que S e´ subespac¸o vetorial de V , basta notar que para qualquer u, v ∈ S
e α ∈ R verifica-se que
u+ v = (α1 · v1 + α2 · v2 + · · ·+ αn· vn) + (β1 · v1 + β2 · v2 + · · ·+ βn · vn)
= (α1 + β1) · v1 + (α2 + β2) · v2 + · · ·+ (αn + βn) · vn ∈ S
α · u = α · (α1 · v1 + α2 · v2 + · · ·+ αn · vn)
= (αα1) · v1 + (αα2) · v2 + · · ·+ (ααn) · vn ∈ S.
Exemplo 4.12. Calcule o conjunto de geradores do subespac¸o vetorial S de M2×2(R),
quando
S =
{ a b
c d

 ∈M2×2(R)/ a = −d e c = 2b
}
. (4.6)
Sol. Usando a definic¸a˜o de S temos
S =
{ −d b
2b d

 / b e d ∈ R
}
. (4.7)
Logo,
S =
{
d

 −1 0
0 1

+ b

 0 1
2 0

 / b e d ∈ R
}
= ger
{ −1 0
0 1

 ,

 0 1
2 0

}.
Exemplo 4.13. Mostre que o conjunto de polinoˆmios {t2+t, t, 1} gera o espac¸o vetorial,
P2(R), dos polinoˆmios de grau ≤ 2.
Sol. Consideremos p(t) = a2t
2 + a1t+ a0 ∈ P2(R). Suponhamos α, β, γ ∈ R tais que:
p(t) = α(t2 + t) + βt+ γ1 ⇒ a2t2 + a1t+ a0 = αt2 + (α + β)t+ γ.
40
Comparando o primeiro e u´ltimo polinoˆmio obtemos α = a2, α + β = a1 e γ = a0, logo
α = a2, β = a1 − a2, γ = a0.
4.4 Independeˆncia e Dependeˆncia Linear
Seja V um espac¸o vetorial real, (V,+, ·), e v1, v2, . . . , vn ∈ V . Dizemos que o conjunto
{v1, v2, . . . , vn} e´ linearmente independente (L.I.), se:
α1 · v1 + α2 · v2 + . . .+ αn · vn = 0 =⇒ α1 = α2 = . . . = αn = 0. (4.8)
No caso em que exista algum αi 6= 0, diremos que o conjunto {v1, v2, . . . , vn} e´ linearmente
dependentes (L.D.).
Teorema 4.1. {v1, . . . , vn} e´ linearmente dependente, se e somente se, um destes vetores
for combinac¸a˜o linear dos outros.
Prova:
{v1, . . . , vn} e´ L.D ⇐⇒ ∃ αi 6= 0 / α1v1 + α2v2 + . . .+ αivi + . . .+ αnvn = 0
⇐⇒ αivi = −α1v1 − . . .− αi−1vi−1 − αi+1vi+1 − . . .− αnvn
⇐⇒ vi = −α1
αi
v1 − . . .− αi−1
αi
vi−1 − αi+1
αi
vi+1 − . . .− αn
αi
vn
⇐⇒ vi ∈ ger{v1, v2, . . . , vi−1, vi+1 . . . , vn} (4.9)
Exemplo 4.14. Os vetores canoˆnicos (1, 0, 0), (0, 1, 0), (0, 0, 1) sa˜o L.I.?
Sol. Suponhamos que
α1(1, 0, 0) + α2(0, 1, 0) + α3(0, 0, 1) = (0, 0, 0).
Somando temos que (α1, α2, α3) = (0, 0, 0). Logo, α1 = α2 = α3 = 0, consequentemente
os vetores canoˆnicos sa˜o linearmente independentes.
Exemplo 4.15. As matrizes A =

1 −2 4
3 0 −1

 e B =

2 −4 8
6 0 −2

 sa˜o L.D.
41
Sol. De fato,
α1A+ α2B =

0 0 0
0 0 0

 ⇔ α1 = −2α2.
Corola´rio 4.1. Qualquer conjunto de vetores contendo o vetor nulo e´ L.D.
Exemplo 4.16. Os vetores ~u = (1,−2, 3), ~v = (2,−4, 6) e ~w = (1, 1, 1) sa˜o L.D. pois
2~u− ~v + 0~w = ~0.
Corola´rio 4.2. Todo subconjunto de um conjunto de vetores L.I. e´ L.I.
Exemplo 4.17. E´ sabido que o conjunto S = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e´ L.I, logo
qualquer subconjunto de S tambe´m e´ L.I.
Observac¸a˜o 4.1. Se ~u1 = (x11, . . . , x1n), ~u2 = (x21, . . . , x2n), . . . , ~un = (xn1, . . . , xnn) sa˜o
n-vetores L.I. em Rn,
α1~u1 + α2~u2 + · · ·+ αn~un = ~0 =⇒ α1 = α2 = · · · = αn = 0.
Da afirmac¸a˜o anterior deduzimos que

x11 x21 . . . xn1
... . . . . . .
...
x1n x2n . . . xnn




α1
...
αn

 =


0
...
0

 =⇒ α1 = α2 = · · · = αn = 0.
sempre que
det


x11 x21 . . . xn1
... . . . . . .
...
x1n x2n . . . xnn

 6= 0
Exemplo 4.18. Os vetores ~u1 = (1,−2, 7,
√
2), ~u2 = (0, 4,−6, 1), ~u3 = (0, 0, 1, π),
~u4 = (0, 0, 0, sen 1) sa˜o L.I. em R
4
Sol. Segundo a observac¸a˜o anterior eles sa˜o L.I. pois o determinante da matriz (u1, u2, u3, u4)
e´ diferente de zero. De fato,
det


1 0 0 0
−2 4 0 0
7 −6 1 0
√
2 1 π sen 1

 = 4 sen 1
42
Exemplo 4.19. Seja r > n. Qualquer conjunto com r vetores no espac¸o vetorial Rn
e´ linearmente dependente pois todo sistema homogeˆneo de equac¸o˜es lineares com mais
inco´gnitas do que equac¸o˜es admite uma soluc¸a˜o na˜o trivial (diferente de zero).
Observac¸a˜o 4.2. Geometricamente, a dependeˆncia de dois vetores no plano R2 acontece
se e somente se eles se encontram sobre a mesma reta passando pela origem. No espac¸o
R3, treˆs vetores sa˜o L. D. se eles esta˜o contidos no mesmo plano passando pela origem.
A`s vezes e´ poss´ıvel deduzir a dependeˆncia linear de func¸o˜es apartir de identidades
conhecidas, por exemplo ao provar que: {sen2x, cos2 x, 5} e´ um conjunto L.D no
espac¸o vetorial das func¸o˜es reais de varia´vel real, F(R,R), basta notar que
α sen2x+ β cos2 x+ γ 5 = 0 ⇐⇒ α = β = 5, γ = −1.
De modo geral, na˜o existe um me´todo para provar a dependeˆncia ou independeˆncia
linear de conjuntos em F(R,R), pois existem casos onde estas ideˆntidades na˜o podem
ser aplicadas. Um teorema u´til para determinar se um conjunto particular de func¸o˜es e´
L.I e´ enunciado a seguir.
Teorema 4.2. Sejam as funco˜es reais f1, f2, . . . , fn ∈ Cn−1([a, b]) (cont´ınuas e com
derivadas cont´ınuas ate´ a ordem n− 1 em todo [a, b]). Se existe um ponto x0 ∈ [a, b] tal
que o wronskiano W [f1, f2, . . . , fn](x0),
W [f1, f2, . . . , fn](x0) = det


f1(x0) f2(x0) . . . fn(x0)
f ′1(x0) f
′
2(x0) . . . f
′
n(x0)
...
... · · · ...
fn−11 (x0) f
n−1
2 (x0) . . . f
n−1
n (x0)

 6= 0, (4.10)
enta˜o f1, f2, . . . , fn sa˜o L.I. em C
n−1([a, b]). Mais ainda, sa˜o L.I em C([a, b]).
Exemplo 4.20. As func¸o˜es ex, e−x sa˜o L.I. em C(R)?.
Sol. Segundo o teorema anterior eles sa˜o L.I. em C2(R), pois o Wronskiano
W [ex, e−x](x0) = det

ex0 e−x0
ex0 −e−x0

 = −2 6= 0, ∀x0 ∈ R. (4.11)
Por outro lado, ja que C2(R) ⊆ C(R) o resultado segue-se.
43
Exemplo 4.21. As func¸o˜es 1, x, x2, x3 sa˜o L.I. em C(R)?.
Sol. Segundo o teorema anterior eles sa˜o L.I. em C3(R), pois o Wronskiano
W [1, x, x2, x3](x0) = det


1 x0 x
2
0 x
3
0
0 1 2x0 3x
2
0
0 0 2 6x0
0 0 0 6

 = 12 6= 0, ∀x0 ∈ R. (4.12)
Por outro lado, ja que C3(R) ⊆ C(R) o resultado segue-se.
Exemplo 4.22. As func¸o˜es x2 e x|x| sa˜o L.I. em C([−1, 1])?.
Sol. Ja que x2, x|x| ∈ C1([−1, 1]), calculando o Wronskiano temos
W [x2, x|x|](x0) = det

 x20 x0|x0|
2x0 2|x0|

 ≡ 0, (4.13)
o que na˜o nos da´ a informac¸a˜o sobre se as func¸o˜es sa˜o L.I ou na˜o. Logo, para responder
a pergunta, suponha que:
αx2 + βx|x| = 0, x ∈ [−1, 1].
Em particular, para x = 1 e para x = −1, temos o sistema
α+ β = 0
α− β = 0,
para o qual a u´nica soluc¸a˜o e´ α = β = 0. Portanto, as func¸o˜es x2, x|x| sa˜o L.I em
C([−1, 1]).
4.5 Base e Dimensa˜o
Os vetores v1, v2, . . . , vn formam uma base do espac¸o vetorial V se, e somente se,
1. v1, v2, . . . , vn e´ um conjunto linearmente independente.
44
2. V = ger{v1, v2, . . . , vn}.
(i.e: ∀ v ∈ V, ∃ α1, α2, . . . , αn ∈ R / v = α1v1 + . . .+ αnvn).
Exemplo 4.23. O conjunto B = {(1, 1), (0, 1)} e´ uma base de R2, (base canoˆnica).
Sol.: De fato, B e´ L.I pois
α(1, 1) + β(0, 1) = (0, 0)⇒ (α, α+ β) = (0, 0)⇒ α = 0 e β = 0.
Por outro lado, para (x, y) ∈ R2 suponhamos que ∃ α1, α2 ∈ R tal que
(x, y) = α1(1, 1) + α2(0, 1) = (α1, α1 + α2)⇒ α1 = x ∈ R e α2 = y − x ∈ R
Logo,
(x, y) = x(1, 1) + (y − x)(0, 1), isto e´, (x, y) ∈ ger{(1, 1), (0, 1)}.
Portanto, R2 ⊆ ger{(1, 1), (0, 1)} e ja que R2 e´ um espac¸o vetorial a igualdade entre
estes dois conjuntos segue-se.
Exemplo 4.24. O conjunto B =
{1 0
0 0

 ,

0 1
0 0

 ,

0 0
1 0

 ,

0 0
0 1

} e´ uma base
de M2×2(R)
Exemplo 4.25. Os conjuntos {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e {(1, 2, 1), (1, 0,−1), (1,−2, 1)}
constituem bases distintas para R3. Podemos encontrar mais de uma base para um espac¸o
vetorial; dado, entretanto, o nu´mero de vetores de cada base na˜o varia.
Definic¸a˜o 4.1. Se uma base de um espac¸o vetorial real V tem n-vetores, dizemos que
V tem dimensa˜o finita n. Denotaremos
dim V = n.
Conveniremos que o espac¸o vetorial V = {0} temdimensa˜o zero.
Exemplo 4.26. Pelo visto nos exemplos anteriores, temos que:
1. dim R 2 = 2.
2. dim Rn = n.
45
3. dim Pn(R) = n + 1.
4. dim Mm×n(R) = mn.
Teorema 4.3. Se U e W sa˜o subespac¸os de um espac¸o vetorial V que tem dimensa˜o
finita, enta˜o:
dim (U +W ) = dimU + dimW − dim (U ∩W ), (4.14)
sendo que dimU ≤ dimV e dimW ≤ dimV .
Exemplo 4.27. Considere U um plano que passa pela origem em V = R3, e W uma reta
contida em U que passa pela origem, enta˜o:
dim (U +W ) = 2 + 1− 1 = 2.
Teorema 4.4. Seja V um espac¸o vetorial real de dimensa˜o finita n. Qualquer conjunto
de vetores L.I. em V e´ parte de uma base, isto e´, pode ser completado ate´ formar uma
base de V .
Exemplo 4.28. Sejam os vetores v1 = (1,−1, 1, 2) e v2 = (−1, 1,−1, 0) completar o
conjunto {v1, v2} de modo a formar uma base de R4.
Sol.: Como dim R4 = 4 uma base tera´ 4 vetores L.I. Portanto, faltam dois. Escolhemos
um vetor v3 que na˜o e´ combinac¸a˜o linear de v1 = (1,−1, 1, 2) e v2 = (−1, 1,−1, 0), isto
e´, v3 6= a1v1+a2v2 para todo a1, a2 ∈ R. Dentre os infinitos vetores existentes, um deles
e´ o vetor v3 = (1, 1, 0, 0), e o conjunto {v1, v2, v3} e´ L.I.
Para completar, escolhemos um vetor v4 que na˜o seja uma combinac¸a˜o linear de
v1, v2 e v3. Um deles e´ o vetor v4 = (1, 0, 0, 0), e o conjunto {v1, v2, v3, v4} e´ L.I. Logo,
v1 = (1,−1, 1, 2) v2 = (−1, 1,−1, 0), v3 = (1, 1, 0, 0), v4 = (1, 0, 0, 0).
Observac¸a˜o 4.3. Muitas vezes sera´ necessa´rio saber calcular a dimensa˜o de um espac¸o
vetorial de forma ra´pida, pois uma vez que esta e´ conhecida, obte´m-se facilmente uma
base desse espac¸o. Uma forma pra´tica para determinar a dimensa˜o de um espac¸o vetorial
e´ verificar o nu´mero de varia´veis livres de seu vetor gene´rico. Este nu´mero e´ a dimensa˜o
do espac¸o.
46
Exemplo 4.29. Determinar a dimensa˜o e a base do espac¸o vetorial
S = {(x, y, z) ∈ R3/2x+ y + z = 0}
Sol.: Isolando z temos que: z = −2x− y, onde x, y sa˜o varia´veis livres. Isto e´,
S = {(x, y, z) ∈ R3/2x+ y + z = 0}
= {(x, y, z) ∈ R3/z = −2x− y}
= {(x, y,−2x− y)/x ∈ R, y ∈ R}
= {(x, 0,−2x) + (0, y,−y)/x ∈ R, y ∈ R}
= {x (1, 0,−2) + y (0, 1,−1)/x ∈ R, y ∈ R},
isto e´, todo vetor de S e´ combinac¸a˜o linear dos vetores {(1, 0,−2), (0, 1,−1)}. Como esses
dois vetores geradores de S sa˜o L.I, o conjunto e´ uma base de S e, consequentemente,
dim S = 2.
Exemplo 4.30. Obtenha uma base do subespac¸o vetorial
U = ger{(1, 1, 0,−2), (2, 0,−1,−1), (0, 1,−2, 1), (1, 1, 1,−3)} ⊆ R4.
Determine a dimensa˜o de U .
Sol.: Bastara´ provar que os vetores (1, 1, 0,−2), (2, 0,−1,−1), (0, 1,−2, 1), (1, 1, 1,−3)
sa˜o L.I.
Suponhamos que,
α(1, 1, 0,−2) + β(2, 0,−1,−1) + γ(0, 1,−2, 1) + δ(1, 1, 1,−3) = (0, 0, 0, 0)
ou 

1 2 0 1
1 0 1 1
0 −1 −2 1
−2 −1 1 −3




α
β
γ
δ

 =


0
0
0
0

 .
47
Para achar a soluc¸a˜o deste sistema homogeˆneo Ax = 0 sera´ suficiente reduzir a matriz
A a uma de tipo escalonado (me´todo de operac¸o˜es por linha).
A =


1 2 0 1
1 0 1 1
0 −1 −2 1
−2 −1 1 −3


L1 ←→ L1
L2 ←→ L2 − L1
L3 ←→ −L3
L4 ←→ L4 + 2L1


1 2 0 1
0 −2 1 0
0 1 2 −1
0 3 1 −1


L1 ←→ L1
L2 ←→ L3
L4 ←→ L4
≈


1 2 0 1
0 1 2 −1
0 −2 1 0
0 3 1 −1


L1 ←→ L1
L2 ←→ L2
L3 ←→ L3 + 2L2
L4 ←→ L4 − 3L2


1 2 0 1
0 1 2 −1
0 0 5 −2
0 0 −5 2


L1 ←→ L1
L2 ←→ L2
L3 ←→ L3
L4 ←→ L4 + L3
≈


1 2 0 1
0 1 2 −1
0 0 5 −2
0 0 0 0

 = A
′.
Logo, o sistema equivalente, A′x = 0 tem infinitas soluc¸o˜es, pois detA′ = 0. Mais ainda,
α+ 2β + δ = 0
β + 2γ − δ = 0
5γ − 2δ = 0,
o que implica que, para cada γ ∈ R,
δ =
5γ
2
, β =
γ
2
, α =
−7γ
2
.
Em outras palavras, α = β = δ = 0 se e somente se γ = 0. Portanto, so´ os
vetores B = {(1, 1, 0,−2), (2, 0,−1,−1), (1, 1, 1,−3)} sa˜o L.I. Como esses treˆs vetores
sa˜o geradores de U , o conjunto e´ uma base de U e consequentemente, dim U = 3.
4.5.1 Componentes de um Vetor
Seja B = {v1, v2, . . . , vn} uma base de V . Tomemos v ∈ V sendo
v = a1 v1 + a2 v2 + . . .+ an vn,
48
os nu´meros a1, a2, . . . , an sa˜o chamados componentes do vetor v em relac¸a˜o a` base B
(vetor coordenada de v em relac¸a˜o a` base B) e se representa por
vB = (a1, a2, . . . , an)
ou com a notac¸a˜o matricial (matriz-coordenada de v em relac¸a˜o a` base B)
vB =


a1
a2
...
an

 .
Exemplo 4.31. Em R2 consideremos as bases
A = {(1, 0), (0, 1)}, B = {(2, 0), (1, 3)} e C = {(1,−3), (2, 4)}
Achar o vetor coordenada de v = (8, 6) em relac¸a˜o as base A, B e C.
Sol.: Ja que:
(8, 6) = 8(1, 0) + 6(0, 1)
(8, 6) = 3(2, 0) + 2(1, 3)
(8, 6) = 2(1,−3) + 3(2, 4),
enta˜o,
[v]A = (8, 6), [v]B = (3, 2), [v]C = (2, 3).
4.6 Espac¸o Vetorial Euclideano
No cap´ıtulo 3, foi definido o produto escalar de dois vetores no R2 ouR3 e foram estabeli-
cidas por meio desse produto, algumas propriedades geome´tricas daqueles vetores. Nesta
sec¸a˜o, nosso objetivo sera´ generalizar este conceito de produto e definir os conceitos de
comprimento, distaˆncia e aˆngulo em espac¸os vetoriais mais gene´ricos.
Definic¸a˜o 4.2. Chama-se produto interno no espac¸o vetorial V , a uma func¸a˜o de V ×V
em R que a todo par de vetores (u, v) ∈ V ×V associa um nu´mero real, indicado por u.v
ou 〈u, v〉, tal que os seguintes axiomas sejam verificados:
49
1. 〈u, v〉 = 〈v, u〉
2. 〈u, v + w〉 = 〈u, v〉+ 〈u, w〉
3. 〈αu, v〉 = α〈u, v〉, para todo α
4. 〈u, u〉 ≥ 0 e 〈u, u〉 = 0 se, e somente se, u = 0.
Exemplo 4.32. Em V = R2, para u = (x1, y1) e v = (x2, y2)
〈u, v〉 = 3x1 x2 + 4y1 y2,
e´ um produto interno.
Exemplo 4.33. Em V = C([a, b]), para f e g
〈f, g〉 =
∫ b
a
f(x) g(x) dx,
e´ um produto interno.
Definic¸a˜o 4.3. Um espac¸o vetorial real V , de dimensa˜o finita, no qual esta´ definido um
produto interno, e´ um espac¸o vetorial euclideano.
Definic¸a˜o 4.4. Seja o produto interno 〈 , 〉 no espac¸o euclideano V . O comprimento
ou norma do vetor u, em relac¸a˜o a esse produto interno, e´ definido por
‖u‖ =
√
〈u, u〉.
Definimos a norma euclidiana (ou comprimento euclidiano) de um vetor u = (u1, u2, . . . , un)
em Rn por
‖u‖ = √u · u =
√
u21 + u
2
2 + · · ·+ u2n.
Definic¸a˜o 4.5. Chama-se distaˆncia entre dois vetores u e v o nu´mero real repre-
sentado por d(u, v) e definido por
d(u, v) = ‖u− v‖.
Definic¸a˜o 4.6. O aˆngulo entre dois vetores u e v e´ determinado por
cos θ =
〈u, v〉
‖u‖‖v‖ .
Definic¸a˜o 4.7. Dois vetores u e v de um espac¸o com produto interno sa˜o ortogonais
se < u, v >= 0.
50
4.6.1 Complementos Ortogonais
Definic¸a˜o 4.8. Seja W um subespac¸o de um espac¸o com produto interno V . Um vetor
u ∈ V e´ dito ortogonal a W se e´ ortogonal a cada vetor de W , e o conjunto de
todos os vetores que sa˜o ortogonais a W e´ chamado complemento ortogonal de W ,
denotaremos por W⊥.
Figura 4.1: Cada vetor em W e´ ortogonal a V , V = W⊥.
Teorema 4.5. Se W e´ um subespac¸o de um espac¸o com produto interno V de dimensa˜o
finita, enta˜o:
a) W⊥ e´ um subespac¸o de V
b) O u´nico vetor comum a W e W⊥ e´ 0.
c) O complemento ortogonal de W⊥ e´ W , ou seja, (W⊥)⊥ =W
Teorema 4.6. (Da Projec¸a˜o) Se W e´ um subespac¸o de dimensa˜o finita de um espac¸o
com produto interno V , enta˜o cada vetor u ∈ V pode-se expressar de forma u´nica por:
u = w1 + w2
onde w1 = ProjWu ∈ W e w2 = u− ProjWu ∈ W⊥.
51
4.6.2 Uma Relac¸a˜o Geometrica Entre Espac¸o Nulo e Espac¸o
Linha
O seguinte teorema fundamental fornece uma relac¸a˜o geome´trica entre o espac¸o-nulo e
o espac¸o linha de uma matriz.
Teorema 4.7. Se A e´ uma matriz m× n, enta˜oa) O espac¸o nulo de A, N (A) = {v ∈ Rn×1/Av = 0}, e o espac¸o linha de A sa˜o
complementos ortogonais em Rn com relac¸a˜o ao produto interno euclideano.
b) O espac¸o nulo de AT e o espac¸o coluna de A sa˜o complementos ortogonais em Rm
com relac¸a˜o ao produto interno euclideano.
Demonstrac¸a˜o: A prova do item (a) encontra-se em [1], pagina 211.
(b) Sejam os vetores coluna r1, r2, . . . , rn da matriz A ∈ Mm×n. Logo, a matriz A
pode-se escrever da forma
A =
[
r1 r2 . . . rn
]
, onde ri ∈ Rm×1
Por outro lado, ja que N (AT ) = {v ∈ Rm×1/AT v = 0}, enta˜o:
AT v =


rT1
rT2
...
rTn

 v = 0 ⇐⇒ < r
T
i , v >= 0, ∀ i = 1, 2, . . . , n.
4.6.3 Conjuntos Ortogonais e Ortonormais
Seja V um espac¸o vetorial euclidiano. Um subconjunto S = {v1, v2, . . . , vn} ⊂ V e´:
1. Ortogonal, se seus elementos sa˜o ortogonais dois a dois, isto e´:
〈vi, vj〉 = 0 ∀ i 6= j.
52
2. Ortonormal, se S e´ ortogonal e ‖vi‖ = 1 ∀ i, isto e´:
〈vi, vj〉 =


0 para i 6= j
1 para i = j
. (4.15)
A base gerada por um conjunto de vetores ortogonais e´ dita uma base
ortogonal e uma base gerada por um conjunto de vetores ortonormais e´ dita
uma base ortonormal.
Proposic¸a˜o 4.1. Um conjunto ortonormal e´ L.I.
Demonstrac¸a˜o: Seja S = {v1, v2, . . . , vn} um conjunto ortonormal e α1, . . . , αn ∈ R,
tal que
α1v1 + α2v2 + . . .+ αnvn = 0.
Por demonstrar: α1 = α2 = . . . = αn = 0.
Multiplicando α1v1 + α2v2 + . . .+ αnvn = 0 por vi, temos
0 =〈0, vi〉 = 〈α1v1 + · · ·+ αnvn, vi〉
=〈α1v1, vi〉+ 〈α2v2, vi〉+ . . .+ 〈αivi, vi〉+ . . .+ 〈αnvn, vi〉
=α1〈v1, vi〉+ α2〈v2, vi〉+ . . .+ αi〈vi, vi〉+ . . .+ αn〈vn, vi〉 (4.16)
Ja que S ortogonal,
0 = αi〈vi, vi〉 = αi||vi||2 ⇒ 0 = αi ∀i = 1, 2, . . . , n.
Definic¸a˜o 4.9. Seja V um espac¸o vetorial euclidiano, S = {v1, v2, . . . , vn} ⊂ V ortonor-
mal e u ∈ V . A projec¸a˜o ortogonal de u sobre o subespac¸o gerado por S e´ o vetor Proj [S]u
dado por:
Proj [S]u = 〈u, v1〉v1 + 〈u, v2〉v2 + . . .+ 〈u, vn〉vn.
Exemplo 4.34. Projetar o vetor u = (5, 2,−3) ∈ R3 sobre o plano [S], onde
[S] = ger{(1, 0, 0), (0,−1, 0)}.
53
Sol.:
Proj [S]u = 〈(5, 2,−3), (1, 0, 0)〉 (1, 0, 0) + 〈(5, 2,−3), (0,−1, 0)〉 (0,−1, 0)
= 5(1, 0, 0)− 2(0,−1, 0)
= (5, 2, 0).
4.6.4 Processo de Gram - Schimidt
O objetivo do processo de Gram-Schimidt e´ encontrar uma base ortonormal para um
espac¸o vetorial euclidiano V .
Teorema 4.8. Cada espac¸o vetorial na˜o-nulo de dimensa˜o finita possui uma base ortonor-
mal.
Demonstrac¸a˜o: Seja V um espac¸o vetorial na˜o-nulo de dimensa˜o finita com produto
interno. Suponha que {u1, u2, . . . , un} e´ uma base de V . E´ suficiente mostrar que V
tem uma base ortogonal, pois os vetores da base ortogonal podem ser normalizados para
produzir uma base ortonormal de V , para isto bastara´ dividir eles entre suas respectivas
normas.
A seguir, mostramos como achar uma base ortogonal {v1, v2, . . . , vn} de V .
1) Seja v1 = u1.
2) Para obter um vetor v2 que e´ ortogonal a v1 tomamos o componente de u2 que e´
ortogonal ao espac¸o W1 = ger{v1}. Para isso no´s usamos a fo´rmula:
v2 = u2 − ProjW1 u2 = u2 −
〈u2, v1〉
||v1||2 v1
3) Para construir um vetor v3 que e´ ortogonal a ambos v1 e v2, calculamos o componente
u3 que e´ ortogonal ao espac¸o W2 = ger{v1, v2}, isto e´,
v3 = u3 − ProjW2 u3 = u3 −
〈u3, v1〉
||v1||2 v1 −
〈u3, v2〉
||v2||2 v2
4) Para determinar um vetor v4 que e´ ortogonal a v1, v2 e v3, calculamos o componente
de u4 que e´ ortogonal ao espac¸o W3 = ger{v1, v2, v3}.
v4 = u4 − ProjW3 u4 = u4 −
〈u4, v1〉
||v1||2 v1 −
〈u4, v2〉
||v2||2 v2 −
〈u4, v3〉
||v3||2 v3
54
Continuando desta maneira, no´s iremos obter, depois de n passos, um conjunto ortogonal
de vetores {v1, v2, . . . , vn}. O processo acima e´ chamado processo de Gram-Schimidt.
Como V tem dimensa˜o n, e conjuntos ortogonais sa˜o linearmente independentes, o
conjunto {v1, v2, . . . , vn} e´ uma base ortogonal de V .
Exemplo 4.35. Considere o espac¸o vetorial R3 com o produto interno euclidiano. Aplique
o processo de Gram-Schimidt para transformar os vetores de base u1 = (1, 1, 1), u2 =
(0, 1, 1) e u3 = (0, 0, 1) em uma base ortogonal {v1, v2, v3}; depois normalize os vetores
da base ortogonal para obter uma base ortonormal {q1, q2, q3}.
Sol.: Segundo o teorema anterior,
v1 = u1 = (1, 1, 1)
v2 = u2 − projW1 u2 = u2 −
〈u2, v1〉
||v1||2 v1 = (0, 0, 1)−
2
3
(1, 1, 1) =
(
− 2
3
,
1
3
,
1
3
)
v3 = u3 − projW2 u3 = u3 −
〈u3, v1〉
||v1||2 v1 −
〈u3, v2〉
||v2||2 v2
= (0, 0, 1)− 1
3
(1, 1, 1)− 1/3
2/3
(
− 2
3
,
1
3
,
1
3
)
=
(
0,−1
2
,
1
2
)
.
Assim, v1 = (1, 1, 1), v2 = (−2/3, 1/3, 1/3), v3 = (0,−1/2, 1/2) formam uma base
ortogonal de R3. As normas desses vetores sa˜o:
‖v1‖ =
√
3, ‖v2‖ =
√
6
3
, ‖v3‖ =
√
2
2
,
deste modo, uma base ortonormal de R3 e´:
q1 =
v1
||v1|| = (
√
3
3
,
√
3
3
,
√
3
3
),
q2 =
v2
||v2|| = (
−2√
6
,
1√
6
,
1√
6
),
q3 =
v3
||v3|| = (0,
−1√
2
,
1√
2
).
4.7 Exerc´ıcios
1. Em R2, mantenhamos a definic¸a˜o do produto αv de um nu´mero real por um vetor,
mas modifiquemos, de 3 maneiras diferentes, a definic¸a˜o de soma u⊕ v dos vetores
55
u = (x, y) e v = (x′, y′). Em cada tentativa, dizer quais dos axiomas de espac¸o
vetorial continuam sendo va´lidos e quais sa˜o violados.
(i) u⊕v = (x+y′, x′+y) (ii) u⊕v = (xx′, yy′) (iii) u⊕v = (3x+3x′, 5x+5x′).
2. Seja V = {(x, y) ∈ R2/x > 0 e y > 0} com as operac¸o˜es usuais de R2. Prove que
V na˜o e´ um espac¸o vetorial.
3. Determine se cada conjunto a seguir e´ ou na˜o um subespac¸o de R2.
(i) {(x, y)/x+ y = 0} (ii) {(x, y)/xy = 0} (i) {(x, y)/x = 3y + 1}.
4. O conjunto V = {f : R −→ R/f(1) = 0} com as operac¸o˜es definidas no exercicio
2, e´ um espac¸o vetorial?.
5. Determine se cada conjunto a seguir e´ ou na˜o um subespac¸o de R3.
(i) {(x, y, z)/x+ y = 1} (ii) {(x, y, z)/x = y = z} (i) {(x, y, z)/z = x2 + y2}.
6. Determine quais dos conjuntos a seguir sa˜o subespac¸os do espac¸o vetorial das
func¸o˜es cont´ınuas no intervalo [−1, 1], denotado por V = C([−1, 1]).
(i) W = {f ∈ C([−1, 1])/f(−1) = f(1)}
(ii) W = {f ∈ C([−1, 1])/f e´ na˜o decrescente em [−1, 1]}
(iii) W = {f ∈ C([−1, 1])/f(−1) = 0 ou f(1) = 0}
7. Seja A um vetor particular de R2×2. Diga quais dos conjuntos a seguir sa˜o sube-
spac¸os vetoriais de R2×2.
(i) S1 = {B ∈ R2×2/AB = BA}
(ii) S2 = {B ∈ R2×2/AB 6= BA}
(iii) S3 = {B ∈ R2×2/BA = 0}
8. Seja V = Mn×n e W o subconjunto de todas as matrizes diagonales. Mostre que
W e´ um subespac¸o de Mn×n.
9. Quais vetores sa˜o combinac¸a˜o linear de ~u = (0,−2, 2) e ~v = (1, 3,−1)?.
a) (2, 2, 2) b) (3, 1, 5) c) (0, 4, 5) d) (0, 0, 0).
56
10. Quais polinoˆmios sa˜o combinac¸a˜o linear de p1(x) = 2+x+4x
2, p2(x) = 1−x+3x2
e p3(x) = 3 + 2x+ 5x
2?.
a) − 9− 7x− 15x2 b) 6 + 11x+ 6x2 c) 0 d) 7 + 8x+ 9x2.
11. Quais dos seguintes vetores geram R3.
a) (2, 2, 2), (0, 0, 3), (0, 1, 1) b) (2,−1, 3), (4, 1, 2), (8, 2, 4)
12. Mostre que os polinoˆmios (1 − x3), (1 − x)2, (1 − x) e 1 geram os
polinomios de grau ≤ 3.
13. Sejam f = cos2 x e g = sin2 x. Quais das seguintes func¸o˜es esta˜o no espac¸o
gerado por f e g?.
a) cos 2x b) 3 + x2 c) 1 d) senx.
14. Determine se os vetores dados sa˜o ou na˜o linearmente independentes
(i) u = (1, 2) e v = (−2,−4) em IR2
(ii) u = (2, 3), v = (5,−8) e w = (−6,−1) em IR2
(iii) u = (2, 1, 0), v = (3,−1, 2) e w = (0, 1,−4) em IR3
(iv) u = (3, 0,−1), v = (1, 0, 4) em IR3
(v) p1(x) = 6− x2 e p2(x) = 1 + x+ 4x2 em P2
(vi) A =

1 3
2 0

; B =

−1 −3
−2 0

 em M2×2.
15. Seja V o espac¸o vetorial de todas as func¸o˜es reais definidas sobre a reta real. Quais
dos seguintes conjuntos de vetores sa˜olinearmente dependentes?
(i) {6, 3 sin2 x, 2 cos2 x}, (ii) {x, cosx}, (iii) {(3− x)2, x2 − 6x, 5},
16. Use o wronskiano para mostrar que os seguintes conjuntos de vetores sa˜o linear-
mente independentes.
(i) {1, x, ex}, (ii) {cosx, sin x, x sin x}, (iii) {ex, xex, x2ex}.
17. Dadas as func¸o˜es x e |x| mostre que:
(a) esses dois vetores sa˜o linearmente independentes em C([−1, 1])
(b) esses dois vetores sa˜o linearmente dependentes em C([0, 1])
57
18. Considere o subespac¸o S = ger{(1, 2,−1)T , (0, 1, 1)T , (2,−1, 3)T}
(a) o vetor (−1, 2, 1) ∈ S ?.
(b) o vetor (2, 0, 1) ∈ S ?.
19. Quais dos seguintes conjuntos sa˜o bases de R2?.
a) (2, 1), (3, 0) b) (4, 1), (−7,−8) c) (0, 0), (1, 3) d) (3, 9), (−4,−12).
20. Quais dos seguintes conjuntos de vetores sa˜o bases de R3?.
a) (2,−3, 1), (4, 1, 1), (0,−7, 1) b) (3, 1,−4), (2, 5, 6), (1, 4, 8)
c) (1, 0, 0), (2, 2, 0), (3, 3, 3).
21. Quais dos seguintes conjuntos de vetores sa˜o bases de P2?.
a) 1− 3x+ 2x2, 1 + x+ 4x2, 1− 7x.
b) 1 + x+ x2, x+ x2, x2.
c) −4 + x+ 3x2, 6 + 5x+ 2x2, 8 + 4x+ x2.
22. Os quatro primeiros polinoˆmios de Hermite sa˜o 1, 2t, −2 + 4t2 e −12t + 8t3.
Mostre que estes polinoˆmios formam uma base de P3(R).
23. Encontre as coordenadas do polinoˆmio p(t) = 7 − 12t− 8t2 + 12t3, na base P3(R)
formada pelos polinoˆmios de Hermite.
24. Prove que o seguinte conjunto e´ uma base de M2x2.
3 6
3 −6

;

 0 −1
−1 0

;

 0 −8
−12 −4

;

 1 0
−1 2


25. Exiba uma base para os seguintes subespac¸os de R4 listados a seguir. Qual e´ a
dimensa˜o destes?.
a) F = {(x, y, z, w)/ x = y = z = w}.
b) G = {(x, y, z, w)/ x = y, z = w}.
c) H = {(x, y, z, w)/ x = y = z}.
d) K = {(x, y, z, w)/ x+ y + z + w = 0}.
58
26. Seja V = ger{S} onde (S = {cos2 x, sin2 x, cos 2x}). Prove que o conjunto S na˜o
e´ uma base de V . Encontre uma base para V .
27. Ache uma base para o espac¸o soluc¸a˜o de cada um dos sistemas homogeˆneos:
a)

 x1 + 4x2 + 2x3 = 02x1 + x2 + 5x3 = 0 b)


x1 + x2 − x3 = 0
3x1 + 2x2 + x3 = 0
2x1 − x2 + 3x3 = 0
c) x1−2x2+x3 = 0.
28. Considere os vetores ~u = (3,−2, 4), ~v = (−3, 2,−4), ~w = (−6, 4,−8). Qual e´
a dimensa˜o de ger{u, v, w}?.
29. Considere os vetores ~u = (2, 1, 3), ~v = (3,−1, 4), ~w = (2, 6, 4).
a) Mostre que u, v, w sa˜o linearmente dependentes.
b) Mostre que u, v sa˜o linearmente independentes.
c) Qual e´ a dimensa˜o de ger{u, v, w}?. Descreva geometricamente ger{u, v, w}.
30. Em M2x2(R) para A =

u1 u2
u3 u4

 e B =

v1 v2
v3 v4

, a relac¸a˜o
〈A,B〉 = u1 v1 + u2 v2 + u3 v3 + u4 v4
e´ um produto interno usual. Verifique.
31. No espac¸o euclideano M2x2(R)
(a) Quais das matrizes abaixo sa˜o ortogonais a M =

 2 1
−1 3

;
A =

1 2
4 0

 , B =

1 1
1 1

 , C =

0 0
0 0

 , D =

 3 2
−1 3

 .
(b) Calcule a norma da Matriz M .
(c) Determine o aˆngulo entre as matrizes M1 =

 2 4
−1 3

 , M2 =

−3 1
4 2

.
(d) Calcule a distaˆncia entre as matrizes M1 e M2.
59
32. Sejam p = a0 + a1 t+ a2 t
2 + a3 t
3 e q = b0 + b1 t+ b2 t
2 + b3 t
3 ∈ P3(R) a relac¸a˜o
〈p, q〉 = a0b0 + a1b1 + a2b2 + a3b3
define um produto interno em P3(R).
(a) Dados p = 2 + 3t− t2 e q = 2t+ t2 − 5t3. Calcule 〈p, q〉.
(b) Calcule a norma do polinoˆmio p = 3 + 2t2 + t3.
33. Determine a projec¸a˜o ortogonal de u = (2,−1, 3) sobre S = ger{(1, 0, 1), (2, 1,−2)}.
34. Use o me´todo de ortonormalizac¸a˜o de Gram-Schmidt para obter uma base ortonor-
mal de R3 apartir de B = {(1, 0, 0), (0, 1, 1), (0, 1, 2)}.
35. Use o me´todo de ortonormalizac¸a˜o de Gram-Schmidt para obter uma base ortonor-
mal de R2 apartir de B = {(1, 2), (−1, 3)}.
36. Obtenha uma base ortonormal do subespac¸o vetorial
U = {(x, y, z, t) ∈ R4/x− y = 0 e z = 2t} ⊂ R4.
A seguir projete o vetor u = (1, 3, 4, 2) ortogonalmente sobre U .
60
Cap´ıtulo 5
Transformac¸o˜es Lineares
Neste cap´ıtulo sera´ estudado um tipo especial de func¸a˜o (ou aplicac¸a˜o) onde o domı´nio
e o contradomı´nio sa˜o espac¸os vetoriais reais. Assim, tanto a varia´vel independente
como a varia´vel dependente sa˜o vetores, raza˜o pela qual essas func¸o˜es sa˜o chamadas de
transformac¸o˜es vetoriais satisfazendo algumas condic¸o˜es de linearidade como na definic¸a˜o
que segue.
Definic¸a˜o 5.1. Uma transformac¸a˜o T : V → W do espac¸o vetorial V no espac¸o
vetorial W e´ chamada uma transformac¸a˜o linear se, para u, v ∈ V e α ∈ R
i) T (u+ v) = T (u) + T (v),
ii) T (αu) = αT (u),
Figura 5.1:
61
Observac¸a˜o 5.1. Na definic¸a˜o anterior e´ importante notar que u + v ∈ V , enquanto
T (u) + T (v) ∈ W . Do mesmo modo, αu ∈ V e α T (u) ∈ W (ver Figura 5).
Uma transformac¸a˜o linear de V em V (e´ o caso de V =W ) e´ chamada de operador
linear sobre V
Exemplo 5.1. T : IR2 → IR3 , T (x, y) = (2x,−4y, x− y) e´ linear.
Sol. De fato,
i) Se u = (x1, y1) e v = (x2, y2) sa˜o vetores gene´ricos do IR
2, tem-se:
T (u+ v) = T ((x1, y1) + (x2, y2)) = T (x1 + y1, x2 + y2)
= (2(x1 + x2),−4(x2 + y2), (x1 + x2)− (y1 + y2)))
= (2x1 + 2x2,−4x2 − 4y2, x1 + x2 − y1 − y2)
= (2x1,−4x2, x1 − y1) + (2x2,−4y2, x2 − y2)
= T ((x1, y1)) + T ((x2, y2))
= T (u) + T (v)
ii) Para todo α ∈ IR, tem-se
T (αu) = T (α(x1, y1)) = T (αx1, αy1)
= (2αx1,−4αy1, αx1 − αy1)
= α(2x1,−4y1, x1 − y1)
= αT (u)
Exemplo 5.2. T : IR→ IR , T (x) = 3x e´ linear.
Sol. De fato, se u = x1 e v = x2 sa˜o vetores quaisquer de IR (os vetores, neste caso, sa˜o
numeros reais), tem-se:
i) T (u+ v) = T (x1 + x2) = 3(x1 + x2) = 3x1 + 3x2 = T (u) + T (v)
ii) T (αu) = T (αx1) = 3αx1 = α(3x1) = αT (u)
Exemplo 5.3. A transformac¸a˜o Identidade I : V → V , I(v) = v, e´ linear.
62
Sol. De fato:
i) I(u+ v) = u+ v = I(u) + I(v)
ii) I(αu) = αu = αI(u)
Exemplo 5.4. A transformac¸a˜o nula (ou zero) T : V → W , T (v) = 0 e´ linear.
Sol. De fato:
i) T (u+ v) = 0 = 0 + 0 = T (u) + T (v)
ii) T (αu) = 0 = α(0) = αT (u)
Exemplo 5.5. Seja A uma matriz de ordem 3× 2 que determina a transformac¸a˜o
TA : IR
2 → IR3, TA(v) = Av .
Prove que TA e´ linear (v e´ considerado um vetor-coluna de IR
2).
Sol. De fato:
i) TA(u+ v) = A(u+ v) = Au+ Av = TA(u) + TA(v)
ii) TA(αu) = A(αu) = α(Au) = αTA(u).
Exemplo 5.6. A transformac¸a˜o T : IR→ IR , T (x) = sen(x) na˜o e´ linear.
Sol. De fato, em geral sen(x+ y) 6= sen(x) + sen(y).
Exemplo 5.7. A transformac¸a˜o T : IR2 → IR2 , T (x, y) = (2x, y2) na˜o e´ linear.
Sol. De fato, se u = (x1, y1) e v = (x2, y2) sa˜o vetores quaisquer do IR
2, Tem-se
T (u+ v) = T (x1 + x2, y1 + y2) = (2(x1 + x2), (y1 + y2)
2)
= (2x1 + 2x2, y1
2 + 2y1y2 + y2
2)
enquanto,
T (u) + T (v) = (2x1, y1
2) + (2x2, y2
2) = (2x1 + 2x2, y1
2 + y2
2),
isto e´, T (u+ v) 6= T (u) + T (v)
63
5.1 Propriedades das Transformac¸o˜es Lineares
1. Se T : V → W , e´ uma transformac¸a˜o linear, a imagem do vetor 0 ∈ V e´
o vetor 0 ∈ W . Esta propriedade decorre da condic¸a˜o ii) da definic¸a˜o 5.1, de
transformac¸a˜o linear, para α = 0:
T (0) = T (0v) = 0T (v) = 0
• Nos exemplos 1 e 2 desta sec¸a˜o, verifica-se que
T (0, 0) = (0, 0, 0) e T (0) = 0
e, em ambos casos as transformac¸o˜es sa˜o lineares. Entretanto, no exemplo 6,
embora T (0) = 0, a transformac¸a˜o na˜o e´ linear. Esses exemplos mostram que se
T : V −→ W e´ linear, enta˜o T (0) = 0, mas a rec´ıproca na˜o e´ verdadeira, isto
e´, pode existir transformac¸a˜o com T (0) = 0 e T na˜o ser linear. Em conclusa˜o,
pois, se impo˜e: se T (0) 6= 0, a transformac¸a˜o na˜o e´ linear. E´ o caso, por
exemplo, da transformac¸a˜o:
T : IR3 → IR2 , T (x, y, z) = (4x+ 5, x− z), que na˜o e´ linear porque:
T (0, 0, 0) = (5, 0) 6= 0
2. Se T : V → W e´ uma transformac¸a˜o linear, tem-se:
T (αu+

Outros materiais

Perguntas relacionadas

Perguntas Recentes