Buscar

apostila_int_algebra_linear

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 35 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 35 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 35 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Introdução à álgebra linear
1. Matrizes
Definição 1.1: (Representação de uma matriz)
Denominamos matriz a um conjunto de números reais dispostos em linhas e colunas, numa certa 
ordem, e colocados entre colchetes ou parênteses. Assim, uma matriz real que vamos denotar por A, 
com m linhas e n colunas é representada da forma:
A = (a11 ⋯ a1j ⋯ a1n⋮ ⋯ aij ⋯ ⋮am1 ⋯ amj ⋯ a mn) ou A = [
a11 ⋯ a1j ⋯ a1n
⋮ ⋯ aij ⋯ ⋮
a m1 ⋯ amj ⋯ amn
]
com aij ∈ ℝ , i = 1 a m e j = 1 a n.
Os escalares aij são denominados elementos da matriz, onde o primeiro índice indica a linha e o 
segundo índice indica a coluna às quais pertence o elemento. Neste caso, dizemos que a matriz A é 
de ordem m×n . Por simplicidade, vamos utilizar a indicação A=(aij) ou A=[aij ] para 
denotar a matriz A e seus elementos.
Exemplo 1.1: Ao recolhermos os dados referentes a altura, peso e idade de um grupo de 4 pessoas, 
podemos dispô-los na tabela
Pessoa Altura ( m ) Peso ( kg ) Idade ( anos )
Pessoa 1 1,70 70 23
Pessoa 2 1,75 60 45
Pessoa 3 1,60 52 25
Pessoa 4 1,81 72 30
Ao abstrairmos os significados das linhas e colunas, temos a matriz
A=(1,70 70 231,75 60 451,60 52 251,81 72 30)
onde os elementos são:
 a11 = 1,70 a12 = 70 a13 = 23
 a21 = 1,75 a22 = 60 a23 = 45
 a31 = 1,60 a32 = 52 a33 = 25
 a41 = 1,81 a42 = 72 a43 = 30
Definição 1.1a: (definição formal de matriz)
Considere I m = {1,2 , ... , m } e I n = {1,2 , ... , n} subconjuntos de ℕ . Uma matriz sobre 
ℝ , de ordem m x n, é uma função A : I m×I n → ℝ que para cada par ordenado 
(i , j) ∈ I m× I n associa um único escalar aij = A(i , j) ∈ ℝ , denominado elemento da 
matriz A
1.1 Tipos especiais de matrizes
Definição 1.2: (matriz quadrada)
Dizemos que uma matriz A=(aij) de ordem m×n é quadrada se m = n, isto é, se possui o 
mesmo número de linhas e de colunas. Neste caso, dizemos simplesmente que A é uma matriz de 
ordem n. E, a diagonal principal são os elementos aii , i = 1 a n.
Definição 1.3: (matriz nula)
Dizemos que uma matriz A=(aij) de ordem m×n é a matriz nula se seus elementos aij
são todos nulos. Neste caso, denotamos A = 0. Frequentemente, indicamos 0m×n para denotar 
uma matriz nula de ordem m×n , onde pode causar alguma dúvida sobre a ordem da matriz.
Definição 1.4: (igualdade de matrizes)
Sejam A=(aij) e B=(bij) duas matrizes de ordem m×n . Dizemos que as matrizes A e B 
são iguais se, e somente se, aij = bij ; i = 1, · · · , m e j = 1, · · · , n .
Definição 1.5: (matriz coluna)
Dizemos que uma matriz A=(aij) de ordem m×1 é uma matriz coluna.
Definição 1.6: (matriz linha)
Dizemos que uma matriz A=(aij) de ordem 1×n é uma matriz linha.
Obs.: Em geral, uma matriz coluna também é denominada vetor coluna e uma matriz linha também 
é denominada vetor linha. Em particular, podemos considerar um escalar a IR como uma matriz∈ 
de ordem 1×1.
Definição 1.7: ( matriz triangular superior)
Seja U = (uij) uma matriz de ordem n. Dizemos que U é uma matriz triangular superior se os 
elementos abaixo da diagonal principal são todos nulos, isto é, uij=0 para j < i.
Definição 1.8: (matriz triangular inferior)
Seja L = (l ij) uma matriz de ordem n. Dizemos que L é um matriz triangular inferior se os 
elementos acima da diagonal principal são todos nulos, isto é, l ij=0 para j > i.
Definição 1.9: ( matriz diagonal)
Seja D = (d ij) uma matriz de ordem n. Dizemos que D é uma matriz diagonal se os elementos 
fora da diagonal principal são todos nulos, isto é, d ij=0 para j ≠ i. Frequentemente, indicamos
D = diag (d 1 ,⋯ , d n) ,
para dizer que D é uma matriz diagonal de ordem n.
Definição 1.10: (traço de uma matriz)
O traço de uma matriz A = (aij) , de ordem n, que denotamos por tr(A), é a soma dos elementos 
da diagonal principal, isto é,
tr( A ) = ∑
i=1
n
aii = a11 +⋯+ ann .
Definição 1.11: (matriz escalar)
Uma matriz diagonal D = diag (d 1 ,⋯ , d n) cujos elementos da diagonal principal são todos 
iguais, isto é, d ii = α para i = 1, · · · , n, é denominada matriz escalar.
Definição 1.12: (matriz identidade)
Uma matriz diagonal cujos elementos da diagonal principal são todos iguais a 1 é denominada 
identidade. Frequentemente, indicamos I n para denotar uma matriz identidade de ordem n.
Definição 1.13: (transposta de uma matriz)
Se A é uma matriz de ordem m×n, denominamos transposta de A à matriz de ordem n×m obtida 
trocando–se as linhas pelas colunas. Denotamos a transposta da matriz A por At .
1.2 Operações com matrizes
Ao utilizar matrizes, surge naturalmente a necessidade de efetuarmos certas operações. Por 
exemplo, consideremos as tabelas, que descrevem a produção de grãos em dois anos consecutivos.
Se quisermos montar uma tabela que dê a produção por produto e por região nos dois anos 
conjuntamente, teremos que somar os elementos correspondentes das duas tabelas anteriores:
Ou seja:
Podemos considerar agora a seguinte situação. Existem muitos incentivos para se incrementar a 
produção, condições favoráveis etc., de tal forma que a previsão para a safra do terceiro ano será o 
triplo da produção do primeiro. Assim, a matriz de estimativa de produção deste último será:
Acabamos de efetuar, neste exemplo, duas operações com matrizes: adição e multiplicação por um 
número real, que estão definidas, formalmente, a seguir.
Definição 1.14: A soma de duas matrizes, A e B, de ordem m×n , é definida como sendo a matriz 
de mesma ordem, A + B, cujos elementos são somas dos elementos correspondentes de A e B. 
Assim, 
A + B = (aij + bij) .
Podemos dizer também que a soma das matrizes A e B é uma matriz C, de ordem m×n ,
C = A + B
obtida somando-se os elementos correspondente de A e B, ou seja, 
cij = aij + bij ,
para i = 1 a m e j = 1 a n.
Obs.: Matrizes de ordens diferentes não podem ser somadas.
Definição 1.15: A multiplicação de uma matriz A=(aij) de ordem m×n por um escalar 
(número real) α é definida pela matriz m×n
B = αA
obtida multiplicando-se cada elemento da matriz A pelo escalar α, ou seja,
bij =α aij ,
para i = 1 a m e j = 1 a n. Escrevemos também (α A)ij =αaij .
Dizemos que a matriz B é um múltiplo escalar da matriz A.
Obs.: A diferença entre duas matrizes, de mesma ordem, A e B, é definida por 
A – B = A + ( - B ),
ou seja, é a soma da matriz A com a oposta da matriz B.
Definição 1.16: Sejam A uma matriz linha de ordem 1×n e B uma matriz coluna de ordem 
n×1 , o produto AB, nesta ordem é a matriz C de ordem 1×1 dada por:
C = [a11b11 + a12b21 +…+ a1k bk1+…+ a1n bn1]
Definição 1.17: O produto de duas matrizes A=(aij)m× p e B=(bij)p×n , tais que o número 
de colunas de A é igual ao número de linhas de B, é uma matriz C = AB, nessa ordem, m×n , 
onde
cij = ai1b1j+ ai2b2j+…+ aip b pj ,
i = 1 a m e j = 1 a n.
Notação de somatório:
cij = ∑
k=1
p
aik bkj
para i = 1 a m e j = 1 a n.
Obs.: 
a) Podemos definir o produto AB somente quando o número de colunas de A é igual ao número de 
colunas de B.
b) Em geral, AB ≠ BA.
Definição 1.18: Seja A=(aij) uma matriz quadrada. Dizemos que A é simétrica se At=A , 
isto é, aij=a ji para todo i, j.
Definição 1.19: Seja A=(aij) uma matriz quadrada. Dizemos que A é antissimétrica se 
At=−A , isto é, aij=−a ji para todo i, j.
Definição 20: Seja A uma matriz quadrada. Define–se potenciação para expoentes naturais da 
seguinte forma:
Ak+1=AAk ,
onde A2=AA , A1=A e A0=I . Aqui I é a matriz identidade de mesma ordem da matriz A.
Exemplo 1.2: O cálculo da expressão A2−2A+3I2 , onde
A=[1 23 1] ,
é obtido da seguinte forma:
A2−2A+3I2= [7 46 7]− [2 46 2]+ [3 00 3]= [8 00 8] .
Podemos definir a matriz p (A)= A2−2A+3I2 , de mesma ordem da matriz A, que é o 
polinômio matricial em A associadoao polinômio p (x )= x2−2x+3 .
Definição 1.21: Dizemos que a matriz quadrada A é idempotente se A2=A .
Exemplo 1.3: A matriz A, dada abaixo, é idempotente, isto é, A2=A .
A = 1
2 [1 11 1]
Definição 22: Seja A uma matriz quadrada. Dizemos que A é periódica, com período k, se 
Ak+1=A , onde k é o menor inteiro positivo com tal propriedade.
Exemplo 1.4: A matriz
A = [ 1 −2 −6−3 2 92 0 −3]
é periódica com período 2.
Definição 1.23: Seja A uma matriz quadrada de ordem n. Dizemos que A é nilpotente se existe um k 
∈ ℕ∖{0} tal que Ak=0n . Se k é o menor inteiro positivo tal que A
k=0n , dizemos que A é 
nilpotente de índice k.
Definição 1.24: Dizemos que a matriz quadrada A é autorreflexiva se A2=I .
Definição 1.25: Se A e B são matrizes quadradas tais que AB = BA, dizemos que as matrizes A e B 
são comutativas.
Definição 1.26: Se A e B são matrizes quadradas tais que AB = −BA, dizemos que as matrizes A e 
B são anti–comutativas.
Definição 1.27: Seja A uma matriz real de ordem n. Dizemos que A é uma matriz normal se 
At A=AAt , isto é, as matrizes A e a sua transposta comutam.
1.3 Propriedades das matrizes
Sejam A, B e C matrizes, α e β escalares.
1.3.1 Propriedades da adição de matrizes:
a) comutatividade: A + B = B + A
b) associatividade: A + (B + C) = (A + B) + C
c) existência do elemento neutro: A + 0 = A, onde 0 é a matriz nula
d) existência do simétrico: A + (-A) = 0
1.3.2 Propriedades da multiplicação de um escalar por uma matriz :
a) associatividade: α(βA) = (αβ)A
b) distributividade: (α + β)A = αA + βA e α(A + B) = αA + αB
1.3.3 Propriedades da multiplicação de matrizes:
a) associatividade: A(BC) = (AB)C
b) existência do elemento neutro: AI n=I m A=A , onde A é uma matriz m×n
c) distributividade: A(B + C) = AB + AC e (B + C)A = BA + CA; α(AB) = ( αA)B = A( αB)
1.3.4 Propriedades da matriz transposta:
a) (At )t=A
b) (A+B)t=At+Bt
c) (α A)t=α At
d) (AB)t=B t At
2. Sistemas de equações lineares e matrizes
Definição 2.1: Dados os coeficientes reais a1 , a2 ,⋯, an e o termo independente b ∈ ℝ , uma 
equação linear algébrica com n incógnitas é da forma
a1 x1 + a2 x2 +⋯+ an xn = b
onde x1 , x2 ,⋯, xn são os escalares reais que satisfazem essa equação.
Definição 2.2: Seja A=(aij ) uma matriz de ordem m×n definida sobre ℝ , ou seja, seus 
elementos aij são números reais para i = 1 a m e j = 1 a n. Consideremos o problema de 
encontrar escalares x1 ,⋯ , x n ∈ ℝ satisfazendo simultaneamente o seguinte sistema de equações 
lineares algébricas
a11 x1+ a12 x2 +⋯+ a1n xn = b1
a21 x1+ a22 x2 +⋯+ a2n xn = b2
⋮
am1 x1+ am2 x2+⋯+ amn xn = bm
conhecendo os escalares b1 ,⋯, bm ∈ ℝ . Esse problema é denominado sistema linear de 
equações algébricas, com m equações lineares e n incógnitas.
Obs.: No texto diremos que um sistema linear de equações algébricas é simplesmente um sistema 
linear.
Por simplicidade, vamos representar o sistema linear acima na sua forma matricial AX = B, 
onde 
A=[ a11 a12 ⋯ a1na21 a22 ⋯ a2n⋮ ⋮ ⋮ ⋮am1 am2 ⋯ amn] é a matriz dos coeficientes,
X=[ x1x2⋮xn] é o vetor de incógnitas e
B=[ b1b2⋮bm] é o vetor dos termos independentes.
Definição 2.3: Toda n-upla (x1 , x2 ,⋯, xn) de números reais que satisfaz as equações do sistema 
linear simultaneamente é chamada uma solução do sistema linear. O vetor coluna X, associado a 
essa n-upla é denominado vetor solução do sistema linear. O conjunto de todas as soluções do 
sistema linear é chamado conjunto solução.
Definição 2.4: Operações elementares sobre as equações de um sistema linear:
a) Trocar a posição de duas equações do sistema linear;
b) Multiplicar uma equação por um escalar diferente de zero;
c) Somar a uma equação outra equação multiplicada por um escalar.
Definição 2.5: Operações elementares sobre as linhas de uma matriz:
a) Permuta das i-ésima e j-ésima linhas (Li⇔ L j) ;
b) Multiplicação da i-ésima linha por um escalar não nulo (Li⇒α Li) ;
c) Substituição da i-ésima linha pela i-ésima linha somada a j-ésima linha multiplicada por α 
(Li⇒ Li+α L j) .
Definição 2.6: Matriz aumentada associada a um sistema linear com m equações de n incógnitas é 
uma matriz do tipo
[A∣B ]
onde A é a matriz dos coeficientes do sistema linear e B é o vetor dos termos independentes. Ou 
seja, a última coluna da matriz aumentada é formada pelos elementos do vetor B.
Obs.: Quando aplicamos operações elementares sobre as equações de um sistema linear, na 
verdade, estamos aplicando operações elementares sobre as linhas da matriz aumentada.
Definição 2.7: Se A e B são matrizes m×n , dizemos que B é linha equivalente ( ou equivalente 
por linhas ) a A, se B for obtida de A através de um número finito de operações elementares sobre as 
linhas de A.
Propriedades:
a) Reflexividade: Toda matriz é linha equivalente a ela mesma.
b) Simetria: Se A é linha equivalente a B, então B é linha equivalente a A.
c) Transitividade: Se A é linha equivalente a B e B é linha equivalente a C, então A é linha 
equivalente a C.
Aplicando a definição anterior a dois sistemas, AX = B e CX = D, onde a matriz ampliada do 
segundo sistema é obtida aplicando-se operações elementares sobre as linhas da matriz ampliada do 
primeiro sistema, pode-se verificar então que os dois sistemas possuirão as mesmas soluções.
Definição 2.8: Dois sistemas que possuem o mesmo conjunto solução são chamados sistemas 
equivalentes.
Definição 2.9: Dois sistemas que possuem matrizes aumentadas linha equivalente são equivalentes.
Definição 2.10: Uma matriz A m×n está na forma escalonada reduzida ( ou é linha reduzida à 
forma escada ) quando satisfaz as seguintes condições:
a) Todas as linhas nulas ocorrem abaixo das linhas não nulas.
b) O pivô ( primeiro elemento não nulo de uma linha ) de cada linha não nula é igual a 1.
c) O pivô de cada linha não nula ocorre à direita do pivô da linha anterior. Isto é, o número de zeros 
precedendo o primeiro elemento não nulo de uma linha aumenta a cada linha, até que sobrem 
somente linhas nulas, se houver.
d) Se uma coluna contém um pivô, então todos os seus outros elementos são iguais a zero.
Obs.: Se uma matriz satisfaz as condições a) e c), mas não necessariamente b) e d), dizemos que ela 
está na forma escalonada.
Resultados Importantes:
a) Toda matriz A m×n é linha equivalente a uma única matriz escalonada reduzida R m×n .
b) Seja R uma matriz n×n na forma escalonada reduzida. Se R≠ In , então R tem uma linha 
nula.
Veremos, agora, um método utilizado na resolução de sistemas lineares.
2.1 Resolução de um sistema linear com m equações a n incógnitas
Definição 2.11: O método de Gauss-Jordan é o método de resolução de sistemas lineares que 
consiste em aplicar operações elementares às linhas da matriz aumentada até que ela esteja na forma 
escalonada reduzida.
Exemplos:
a) 
x1 + 4x2 + 3x3= 1
2x1+ 5x2 + 4x3 = 4
x1 − 3x2− 2x3= 5
é equivalente a 
x1 = 3
x2 =−2
x3= 2
O sistema é possível e determinado.
b) 
x + 3y + 13z = 9
y + 5z = 2
−2y − 10z =−8
é equivalente a 
x − 2z = 3
y + 5z = 2
0 =−4
O sistema é impossível. A última linha não nula da forma escalonada reduzida da sua matriz 
aumentada é da forma
c) 
3z − 9w = 6
5x + 15y − 10z + 40w =−45
x + 3y − z + 5w =−7
 é equivalente a x + 3y + 2w=−5
z − 3w = 2
O sistema é possível e indeterminado. Temos duas incógnitas que não estão associadas a pivôs. As 
incógnitas associadas a pivôs são chamadas variáveis básicas e as que não estão associadas a pivôs 
são denominadas variáveis livres Neste exemplo, as variáveis y e w são variáveis livres. E, dizemos 
que o sistema possui dois graus de liberdade. As variáveis básicas terão os seus valores dependentes 
dos valores associados às variáveis livres:
[−5−2w−3yy2+3ww ]ou [
−5
0
2
0 ] + [
−3
1
0
0 ] . y + [
−2
0
3
1 ] . w, y e w números reais.
[−5020 ] , [
−3
1
0
0 ] e [
−2
0
3
1 ] são soluções básicas.
Obs.: Sejam A de ordem m×n e B de ordem m×1 . Se o sistema linear AX = B possui duas 
soluções distintas X 0 ≠ X 1 , então o sistema tem infinitas soluções.
2.2 Discussão de um sistema linear
Definição 2.12: Dada uma matriz A de ordem m×n , seja B uma matriz de ordem m×n a 
forma escalonada reduzida equivalente a A. O posto de A, denotado por p, é o número de linhas não 
nulas de B. A nulidade de A é igual a n – p.
Dado um sistema linear com m equações e n incógnitas, existem três possibilidades:
a) ele admite uma única solução ( sistema possível e determinado )
b) ele tem infinitas soluções ( sistema possível e indeterminado )
c) ele não possui solução ( sistema impossível )
Considere o sistema AX = B com m equações e n incógnitas e, pc o posto da matriz A e pa o 
posto da matriz ampliada [A∣B ] :
a) O sistema admite solução se, e somente se, pa = pc .
b) O sistema é possível e determinado se, e somente se, pa = pc = n.
c) O sistema é possível e indeterminado se, e somente se, pa = pc < n.
d) O sistema é impossível se, e somente se, pc < pa .
2.3 Sistemas lineares homogêneos
Todo sistema homogêneo da forma AX = 0, admite pelo menos a solução X = 0, chamada solução 
trivial.
Obs.: 
a)Todo sistema homogêneo tem solução.
b) Todo sistema homogêneo ou tem somente a solução trivial ou tem infinitas soluções.
c) Para resolver um sistema homogêneo basta escalonarmos a matriz dos coeficientes do sistema.
Se A=(aij) é uma matriz de ordem m×n , tal que m < n, então o sistema homogêneo AX = 0 
tem solução diferente da solução trivial, ou seja, todo sistema homogêneo com menos equações do 
que incógnitas tem infinitas soluções. 
Propriedades: Seja A=(aij) de ordem m×n e α um escalar real:
a) Se X e Y são soluções do sistema homogêneo, então X + Y também é.
b) Se X é a solução do sistema homogêneo, então αX também é.
3. Determinantes
Consideremos o sistema de uma equação com uma incógnita ax = b, a ≠ 0. A solução deste sistema 
é x=b
a
. Neste sistema o denominador está associado à matriz dos coeficientes do sistema, ou 
seja, [a ] .
Em um sistema com duas equações e duas incógnitas a11 x + a12 y = b1
a21 x + a22 y = b2
, supondo que o 
sistema é possível e determinado, encontramos x=
b1 a22−b2 a12
a11 a22−a12a21
 e y=
b2 a11 − b1 a21
a11a22− a12a 21
. Os denominadores são iguais e estão associados à matriz dos coeficientes do sistema 
[a11 a12a21 a22] .
Os denominadores que aparecem na solução dos dois sistemas são casos particulares do que é 
chamado determinante de uma matriz quadrada.
Notação: Quando nos referirmos ao determinante de uma matriz quadrada A, escreveremos det A ou 
| A |.
3.1 Conceitos preliminares
Definição 3.1: Dado n ≥ 1 um número natural, N n = {1, 2, …, n} um conjunto com n elementos 
distintos, toda aplicação bijetota σ : N n→N n chama-se permutação dos elementos do conjunto 
N n .
Se σ e ϕ são permutações de N n , então σ∘ϕ: N n→N n também é uma permutação.
A aplicação idêntica de N n , id : N n→N n é uma permutação onde os termos estão na 
mesma ordem que aparecem no conjunto N n .
A inversa de uma permutação σ de N n , σ
−1 , também é uma permutação de N n .
A quantidade de permutações de n objetos é dada por n! = n (n-1)(n-2). … .2.1
Por definição, 1! = 1 e 0! = 1.
Definição 3.2: Dada uma permutação dos inteiros 1, 2, …, n, existe uma inversão quando um 
inteiro precede outro menor que ele.
3.2 O determinante de uma matriz
Definição 3.3: Seja A uma matriz de ordem n, 
det A=∑
σ
sgn(σ)a1σ(1)a2σ(2) ...anσ(n) ,
onde sgn(σ) = 1 se o número de inversões é par e sgn(σ) = -1 se o número de inversões é ímpar.
Obs;: Em cada termo do somatório da definição do determinante de uma matriz existe um, e apenas 
um, elemento de cada linha e um, e apenas um, elemento de cada coluna. E, o número de parcelas 
ao desenvolver o somatório é igual a n!
Propriedades:
1. Se todos os elementos de uma linha ou coluna de uma matriz A de ordem n são nulos, então det A 
= 0.
2. Dada uma matriz A de ordem n e sua transposta At , det A = det At .
3. Se multiplicarmos uma linha da matriz A por uma constante k, o determinante fica multiplicado 
por esta constante.
4. Trocando-se de posição duas linhas da matriz, o determinante troca-se de sinal.
5. O determinante de uma matriz que tem duas linhas ou colunas iguais é zero.
6. Se somarmos a uma linha da matriz outra linha multiplicada por uma constante, o determinante 
não se altera.
7. Em geral, det (A+B) ≠ det A + det B.
8. det (AB) = det A . det B.
Obs.: 
a) Dada uma matriz diagonal A de ordem n, det A = a11a22 ... ann .
b) Dada a matriz identidade de ordem n, I n , det I n = 1.
3.3 Desenvolvimento de Laplace ou em cofatores
Definição 3.4: Dada uma matriz A de ordem n, o determinante pode ser dado pelo desenvolvimento 
em cofatores ou de Laplace em termos da i-ésima linha de A:
det A= ai1Δi1+ ai2Δi2+ ... + ai nΔi n= ∑
j=1
n
aijΔij ,
onde Δij =(−1)
i+ j∣Aij∣ são os cofatores da matriz A e Aij é a submatriz de ordem (n-1) da 
matriz A obtida eliminando-se a i-ésima linha e a j-ésima coluna de A denominada menor do 
elemento aij .
Obs.: O determinante de uma matriz de ordem n pode ser calculado fazendo-se o desenvolvimento 
de Laplace segundo qualquer linha ou coluna de A.
4. Inversão de matrizes
Definição 4.1: Uma matriz A de ordem n é invertível ou não singular, se, e somente se, existe uma 
matriz B, de mesma ordem, tal que
AB = BA = I n ,
onde I n é a matriz identidade de ordem n, e B caso exista é única, chama-se inversa de A e 
indicamos B por A−1 .
Obs.: Se uma matriz A de ordem n não tem inversa, dizemos que A é não invertível ou sigular.
4.1 Processo prático para obtenção da inversa
Teorema 4.1: Uma matriz A de ordem n é invertível se, e somente se, A é equivalente por linhas à 
matriz identidade I n .
A demonstração desse teorema mostra não somente uma forma de descobrir se uma matriz A tem 
inversa mas também, como encontrar a inversa, no caso em que ela exista. Ou seja, escalonamos a 
matriz [A∣I n] e encontramos a sua forma escalonada reduzida [ R|S ]. Se R = I n , então a 
matriz A é invertível e a inversa A−1 = S. Caso contrário, a matriz A é singular ou não invertível.
Propriedades:
Sejam A e B matrizes de ordem n.
a) Se A é invertível, então A−1 também é e, (A−1)−1=A .
b) Se A e B são invertíveis, então AB é invertível e, (AB )−1=B−1 A−1 .
c) Se A é invertível a transposta também é e, (At)−1=( A−1)t .
Teorema 4.2: Sejam A e B matrizes de ordem n.
a) Se BA = I n , então AB = I n ;
b) Se AB = I n , então BA = I n .
4.2 Matriz inversa e determinante
Suponhamos, agora, que a matriz A de ordem n tenha inversa, isto é, existe A−1 tal que 
AA−1=I n . Usando propriedades do determinante 
det (AA−1)= det In
det A. det A−1= 1 .
Assim, concluímos que se A tem inversa, 
i) det A ≠ 0 e,
ii) det A−1 = 1det A
Obs.: Se det A = 0, então A não possui inversa.
4.2.1 Matriz adjunta
Definição 4.2: Dada uma matriz A de ordem n podemos formar uma nova matriz Ā , chamada 
matriz dos cofatores de A, onde seus elementos são os cofatores dos elementos de A, ou seja, 
Ā=[Δij ] .
Definição 4.3: Dada uma matriz A de ordem n, a matriz adjunta de A é a transposta da matriz dos 
cofatores de A, ou seja, adj A=Āt .
Teorema 4.3: Uma matriz A de ordem n admite uma inversa se, e somente se, det A ≠ 0. E, neste 
caso, 
A−1 = 1det A adj A.
4.3 Sistemas de Cramer
Definição 4.4: Um sistema de Cramer é um sistema linear de n equações com n incógnitas cuja 
matriz dos coeficientes é invertível.
Seja AX = B a forma matricial de um sistemade Cramer, aplicando a definição de matriz inversa, 
X=A−1 B , ou seja, o sistema é possível e determinado e a sua única solução é dada por 
A−1 B . Em particular, um sistema com n equações e n incógnitas homogêneo cuja matriz dos 
coeficientes é invertível só admite a solução trivial. Ou seja, o sistema homogêneo com n equações 
e n incógnitas, AX = 0, tem solução não trivial, X ≠ 0, se e somente se, A é singular.
4.3.1 Regra de Cramer
Seja AX = B a forma matricial de um sistema de Cramer com n equações e n incógnitas. Então, 
X=A−1 B e, como A−1 = 1det A adj A, X = 
1
det A (adj A ) B:
Então, 
Podemos notar que o numerador desta fração é igual ao determinante da matriz que obtemos de A, 
substituindo-se a primeira coluna pela matriz dos termos independentes. De fato, usando o 
desenvolvimento de Laplace, obtemos
Ou seja,
Generalizando,
x j=
det A j
det A
, j = 1, 2, …, n,
onde A j é a matriz que se obtém de A substituindo-se a sua j-ésima coluna pelo vetor B dos 
termos independentes. Este método de resolução de sistemas lineares com n equações e n incógnitas 
que só pode ser aplicado quando o determinante da matriz dos coeficientes for não nulo é chamado 
Regra de Cramer.
Obs.: Se a matriz A é singular, então a Regra de Cramer não pode ser aplicada para resolver o 
sistema.
5. Vetores no plano e no espaço
Muitas grandezas físicas, como velocidade, força e impulso, para serem completamente 
identificadas, precisam, além da magnitude, da direção e do sentido. Estas grandezas são chamadas 
grandezas vetoriais ou simplesmente vetores.
Geometricamente, vetores são representados por segmentos orientados no plano ou no espaço. A 
ponta da seta do segmento orientado é chamada ponto final ou extremidade e o outro ponto extremo 
é chamado de ponto inicial ou origem do segmento orientado.
Segmentos orientados com mesma direção, mesmo sentido e mesmo comprimento, representam o 
mesmo vetor. A direção, o sentido e o comprimento do vetor são definidos como sendo a direção, o 
sentido e o comprimento de qualquer um dos segmentos orientados que o representam.
Dois vetores u⃗ e v⃗ são paralelos, u⃗ // v⃗ , se tiverem a mesma direção.
Dizemos que dois vetores são iguais se eles possuem o mesmo comprimento, a mesma direção e o 
mesmo sentido.
Se o ponto inicial de um representante de um vetor v⃗ é A e o ponto final é B, então escrevemos 
v⃗= A⃗B .
O vetor nulo 0⃗ é todo vetor onde a origem coincide com a extremidade. 
Obs.: O vetor nulo é paralelo a qualquer vetor.
A cada vetor não-nulo u⃗ corresponde um vetor oposto −u⃗ , de mesmo comprimento e mesma 
direção de u⃗ , porém, de sentido contrário. Se v⃗= A⃗B , o vetor B⃗A é o oposto de A⃗B , 
isto é, B⃗A=−A⃗B .
Um vetor u⃗ é unitário se tem comprimento igual a 1, ∥u⃗∥ = 1. E, o vetor unitário u⃗ que tem 
o mesmo sentido de um vetor v⃗ é chamado versor de v⃗ .
Dois vetores u⃗ e v⃗ são ortogonais ( ou perpendiculares, se coplanares ), u⃗⊥ v⃗ , se u⃗ 
formar ângulo reto com v⃗ . E, considera-se o vetor nulo ortogonal a qualquer vetor.
5.1 Adição de vetores
1º caso: u⃗ // v⃗
Neste caso o vetor soma u⃗ + v⃗ tem origem na origem de u⃗ e extremidade na extremidade 
de v⃗ .
Se u⃗ e v⃗ têm o mesmo sentido:
Se u⃗ e v⃗ têm sentidos contrários:
2º caso: u⃗ e v⃗ não paralelos
Neste caso o vetor soma u⃗ + v⃗ está na diagonal do paralelogramo determinado por u⃗ e 
v⃗ , quando os seus representantes estão representados com a mesma origem.
Sendo u⃗ , v⃗ e w⃗ vetores quaisquer, valem as seguintes propriedades:
a) comutativa: u⃗ + v⃗ = v⃗ + u⃗ .
b) associativa: ( u⃗ + v⃗ ) + w⃗ = u⃗ + ( v⃗ + w⃗ ).
c) existência do elemento neutro: u⃗ + 0⃗ = u⃗ .
d) existência do oposto: u⃗ + ( - u⃗ ) = 0⃗ .
Obs.: O vetor u⃗ + ( - v⃗ ), escreve-se u⃗ - v⃗ , é chamado diferença entre u⃗ e v⃗ .
5.2 Multiplicação de um vetor por um escalar
A multiplicação de um vetor v⃗ por um número real a, a v⃗ , a ≠ 0 e v⃗ ≠ 0⃗ , possui as 
seguintes características:
a) direção: a v⃗ é paralelo a v⃗ ;
b) sentido: a v⃗ e v⃗ tem o mesmo sentido se a > 0 e contrário se a < 0;
c) Se a = 0 ou v⃗ = 0⃗ , então a v⃗ = 0⃗ ;
d) comprimento: a v⃗ tem o comprimento igual ao de v⃗ multiplicado por | a |.
Obs.: 
a) Se u⃗ = a v⃗ , dizemos que u⃗ é um múltiplo escalar de v⃗ .
b) Dois vetores não-nulos são paralelos ( ou colineares ) se, e somente se, um é múltiplo escalar do 
outro.
5.3 Ângulo formado por dois vetores
Seja θ o ângulo entre os vetores u⃗ e v⃗ , 0 ≤ θ ≤ π ( ou 0º ≤ θ ≤ 180º ), se u⃗ // v⃗ e u⃗ e 
v⃗ têm o mesmo sentido, então θ = 0; se u⃗ // v⃗ e u⃗ e v⃗ têm sentidos contrários, 
então θ = π. 
5.4 Componentes de um vetor
Seja v⃗ um vetor no plano. Definimos as componentes de v⃗ como sendo as coordenadas 
(v1 , v 2) do ponto final do representante de v⃗ que tem ponto inicial na origem. Vamos 
identificar o vetor com as suas componentes e escreveremos simplesmente v⃗ = (v1 , v 2) . 
Assim, as coordenadas de um ponto P são iguais as componentes do vetor O⃗P , que vai da 
origem do sistema de coordenadas ao ponto P.
Obs.: 0⃗=(0,0) .
Sejam a um número real, u⃗ = (u1 , u2) e v⃗ = (v1 , v 2) :
 u⃗ + v⃗ = (u1+v1 , u2+v2)
a u⃗ = (au1 , au2)
Semelhantemente, se v⃗ é um vetor no espaço, v⃗ = (v1 , v 2 , v3) e 0⃗=(0,0 ,0) . E, 
também vale a soma e a multiplicação por escalar.
Obs.: Conforme nós já vimos, um vetor também pode ser escrito como uma matriz coluna. Assim, 
v⃗=[v1v2] no plano e v⃗=[v1v2v3] no espaço.
Propriedades dos vetores:
Sejam u⃗ , v⃗ e w⃗ vetores e a e b números reais. São válidas as seguintes propriedades:
a) u⃗ + v⃗ = v⃗ + u⃗ ;
b) ( u⃗ + v⃗ ) + w⃗ = u⃗ + ( v⃗ + w⃗ );
c) u⃗ + 0⃗ = u⃗ ;
d) u⃗ + ( - u⃗ ) = 0⃗ ;
e) a ( b u⃗ ) = (ab) u⃗ ;
f) a ( u⃗ + v⃗ ) = a u⃗ + a v⃗ ;
g) ( a + b ) u⃗ = a u⃗ + b u⃗ ;
h) 1 u⃗ = u⃗ .
5.5 Norma e produto escalar
Já vimos que o comprimento de um vetor u⃗ é definido como sendo o comprimento de qualquer 
um dos segmentos orientados que o representam. O comprimento do vetor u⃗ também é chamado 
de norma de u⃗ e é denotado por || u⃗ ||. Assim, 
∥u⃗∥= √u12+u22 , no plano
e, ∥u⃗∥= √u12+u22+u32 no espaço.
Obs.: 
a) ∥a u⃗∥=∣a∣∥u⃗∥ ;
b) Um vetor de norma igual a 1 é chamado vetor unitário.
c) Dado um vetor v⃗ não nulo, o vetor u⃗ = v⃗
∥v⃗∥
é o versor de v⃗ .
Definição 5.1: (produto escalar) 
O produto escalar (ou produto interno) de dois vetores u⃗ e v⃗ é definido por
u⃗ . v⃗ = 0, se u⃗ ou v⃗ é o vetor nulo
u⃗ . v⃗ =∥u⃗∥∥v⃗∥cosθ , caso contrário
em que θ é o ângulo entre eles.
O produto escalar , u⃗ . v⃗ , entre dois vetores é dado por
u⃗ . v⃗ = u1 v1 + u2 v2 , 
se u⃗ = (u1 , u2) e v⃗ = (v1 , v 2) são vetores no plano e por
u⃗ . v⃗ = u1 v1 + u2 v2 + u3 v3 , 
se u⃗ = (u1 , u2 , u3) e v⃗ = (v1 , v 2 , v3) são vetores no espaço.
Obs.:
a) cosθ = u⃗ . v⃗
∥u⃗∥∥v⃗∥ .
b) Se os dois vetores são não nulos, então
i) o ângulo entre eles é agudo se, e somente se, u⃗ . v⃗ > 0;
ii) o ângulo entre eles é reto se, e somente se, u⃗ . v⃗ = 0;
iii) o ângulo entre eles é obtuso se, e somente se, u⃗ . v⃗ < 0.
Propriedades do produto escalar:
Sejam u⃗ e v⃗ e w⃗ vetores, a e b números reais,
a) u⃗ . v⃗ = v⃗ . u⃗ ;
b) u⃗ . ( v⃗ + w⃗ ) = u⃗ . v⃗ + u⃗ . w⃗ ;
c) a ( u⃗ . v⃗ ) = ( a u⃗ ) . v⃗ = u⃗ . ( a v⃗ );
d) v⃗ . v⃗ = ∥v⃗∥2≥ 0 , para todo v⃗ e v⃗ . v⃗ = 0, se e somente se v⃗ = 0.
5.6 Produto vetorial
Definição (produto vetorial): Sejam u⃗ e v⃗ vetores no espaço, definimos o produto vetorial, 
u⃗ x v⃗ , como sendo o vetor com as seguintes características:
a) Tem comprimento dado numericamente por 
∥u⃗× v⃗∥=∥u⃗∥∥v⃗∥senθ ,
ou seja, a norma de u⃗ x v⃗ é numericamente igual à área do paralelogramo determinado por 
u⃗ e v⃗ ;b) Tem direção perpendicular a u⃗ e a v⃗ ;
c) Tem sentido dado pela regra da mão direita. Se o ângulo entre os dois vetores é θ, giramos o 
vetor u⃗ de um ângulo θ até que coincida com v⃗ e acompanhamos este movimento com os 
dedos da mão direita, e então o polegar vai apontar no sentido de u⃗ x v⃗ .
Propriedades do produto vetorial:
Sejam u⃗ e v⃗ e w⃗ vetores, a e b números reais,
a) u⃗ x v⃗ = - ( v⃗ x u⃗ );
b) u⃗ x v⃗ = 0 se, e somente se, um dos vetores é múltiplo escalar do outro;
c) ( u⃗ x v⃗ ) . u⃗ = ( u⃗ x v⃗ ) . v⃗ = 0;
d) a( u⃗ x v⃗ ) = (a u⃗ ) x v⃗ = u⃗ x (a v⃗ );
e) u⃗ x ( v⃗ + w⃗ ) = u⃗ x v⃗ + u⃗ x w⃗ e ( u⃗ + v⃗ ) x w⃗ = u⃗ x w⃗ + v⃗ x
w⃗ .
Obs.: Sejam u⃗ = (u1 , u2 , u3) e v⃗ = (v1 , v 2 , v3) vetores no espaço. Então o produto 
vetorial u⃗ x v⃗ é dado por
 u⃗ x v⃗ = (det [u2 u3v 2 v3] ,−det[u1 u3v1 v3] , det[u1 u2v1 v 2]) .
6. Espaço Vetorial
Definição 6.1 : (Espaço Vetorial ) 
Um espaço vetorial real é um conjunto V, não vazio, com duas operações: 
a) soma: V×V →+ V , onde para quaisquer dois elementos u, v em V, associa-se um elemento u + 
v também em V;
b) multiplicação por escalar: ℝ×V →. V , onde para qualquer escalar a e qualquer elemento v de 
V, associa-se um elemento a .v em V;
tais que para todo u, v, e w em V e a, b escalares reais são satisfeitas as seguintes condições:
i) u + v = v + u;
ii) ( u + v ) + w = u + ( v + w);
iii) Existe 0 em V, tal que u + 0 = u;
iv) Existe – u em V, tal que u + ( - u ) = 0;
v) a ( b u ) = (ab) u;
vi) a (u + v) = a u + a v;
vii) ( a + b ) u = a u + b u;
viii) 1 u = u.
Obs.:
a) Pelo fato das condições acima coincidirem com as propriedades dos vetores (seção 5.4), 
usaremos a palavra vetor para designar um elemento de um espaço vetorial.
b) O vetor 0 que satisfaz a condição iii) é chamado vetor nulo.
Exemplos:
a) ℝ2 e ℝ3 são espaços vetoriais.
b) ℝn , o conjunto formado por todas as n-uplas de números reais, é um espaço vetorial.
c) M(m,n), o conjunto das matrizes reais de ordem m x n, é um espaço vetorial.
Algumas propriedades que são consequências da definição de espaço vetorial:
1) Para todo número real a, a . 0 = 0.
2) Para todo u em V, 0 . u = 0.
3) a . u = 0, a∈ℝ e u∈V se, e somente se, a = 0 ou u = 0.
4) Para todo a∈ℝ e todo u∈V , (- a) . u = a . (- u ) = - (a . u).
5) Quaisquer que sejam a , b∈ℝ , e u∈V , ( a – b ) u = a u – b u.
6) Quaisquer que sejam a∈ℝ , u , v∈V , a ( u – v) = a u – a v.
7) Dados b , a1 , … , an ∈ ℝ e u1 , … , un ∈ V , então b(∑j=1
n
a j u j)=∑j=1
n
(b a j )u j .
8) O vetor nulo de um espaço vetorial é único.
9) Para cada vetor u de um espaço vetorial V existe um único vetor – u, oposto de u em V.
10) Para cada vetor u de V tem-se - ( - u ) = u.
11) Se u , v ,w∈V e u + v = u + w, então v = w ( lei do cancelamento da adição).
12) Se u ,w∈V , então existe um único vetor v em V tal que u + v = w.
6.1 Subespaço Vetorial
Definição 6.2 : (Subespaço Vetorial ) 
Seja V um espaço vetorial real. Um subespaço vetorial de V é um subconjunto W de V, W⊂V , 
W W≠∅ , tal que
a) Para todo u , v∈W , u+v ∈ W ;
b) Quaisquer que sejam a∈ℝ e u∈W , a u ∈ W .
Obs.:
a) As condições da definição 7.2 garantem que ao operarmos em W ( soma e multiplicação por 
escalar ), não obteremos um vetor fora de W. Isto é suficiente para afirmar que W é ele próprio um 
espaço vetorial, pois assim as operações ficam bem definidas e, além disso, não é necessário 
verificar as condições da definição 7.1, porque elas são válidas em V, que contém W.
b) Qualquer subespaço de W de V precisa necessariamente conter o vetor nulo.
c) Todo espaço vetorial admite pelo menos dois subespaços, que são chamados subespaços triviais, 
o conjunto formado somente pelo vetor nulo e o próprio espaço vetorial.
Exemplos:
a) Seja V = M(n,n) o espaço vetorial das matrizes quadradas de ordem n. O conjunto W das 
matrizes triangulares superiores de ordem n é um subespaço vetorial de V.
b) O conjunto-solução de um sistema linear homogêneo com n incógnitas é um subespaço vetorial 
de M(n,1).
7. Combinações lineares
Definição 7.1: Sejam V um espaço vetorial real, v1 , v2 , … , vn ∈ V e a1 , a2 , … , a n
números reais. Então, a1 v1+ a2v 2+…+ an v n é uma combinação linear desses vetores. O 
vetor v = a1 v1+ a2 v2+…+ a n vn é um elemento de V, e dizemos que v é combinação linear 
de v1 , v2 , … , vn .
Exemplo:
v = (2,−4) ∈ℝ2 é combinação linear de v1= (1,1 ) e v2 = (1,−1) .
Definição 7.2: Uma vez fixados vetores w1 , w2 , … , wn ∈ V , o conjunto W de todos os vetores 
de V que são combinação linear destes, é um subespaço vetorial de V, chamado subespaço gerado 
pelos vetores w1 , w2 , … , wn , ou ainda subespaço gerado pelo conjunto {w1 , w2 , … , wn} . 
Usamos a notação W = [w1 ,w2 ,… ,wn ] ou W = [{w1 , w2 ,… , wn}] e dizemos que 
w1 , w2 ,… , wn são geradores de W.
Formalmente, 
W = [w1 ,w2 ,… ,wn ] = {v ∈ V ; v = a1 w1+ a2 w2 +…+ an wn , ai ∈ ℝ , 1 ⩽ i ⩽ n } .
Exemplos:
a) ℝ2 é gerado pelos vetores i = (1,0) e j = (0,1) do ℝ2 .
b) ℝ3 é gerado pelos vetores i = (1,0,0), j = (0,1,0) e k = (0,0,1) do ℝ3 .
Obs.: Trabalharemos com espaços finitamente gerados. E, dizemos que um espaço vetorial V é 
finitamente gerado se exite um subconjunto S, não vazio, de V, S finito, de maneira que V = [ S ].
Definição 7.3: Sejam V um espaço vetorial e, v1 , v2 ,… , v n ∈ V . Dizemos que o conjunto 
{v1 , v2 ,… , vn} é linearmente independente (L.I.) ou que os vetores v1 , v2 ,… , v n são L.I., se a 
equação a1 v1+ a2v2+…+ an v n= 0 admite apenas a solução trivial 
a1= a2=…= a n= 0 .
Definição 7.4: O conjunto {v1 , v2 ,… , vn} é chamado linearmente dependente (L.D.) quando a 
equação a1 v1+ a2v 2+…+ an v n= 0 admite alguma solução não trivial, isto é, existe algum 
ai≠0 , tal que igualdade seja verdadeira. Dizemos então que os vetores v1 , v2 ,… , v n são L.D.
Obs.:
a) O conjunto vazio é L.I.
b) {v1 , v2 ,… , vn} é L.D. se, e somente se, um destes vetores for uma combinação linear dos 
outros.
Exemplos:
a) Considerando o espaço vetorial V =ℝ3 , v1 , v2 ∈ V , {v1 , v2} é L.D. se, e somente se, 
v1 e v2 estão na mesma reta que passa pela origem.
b) Considerando o espaço vetorial V=ℝ3 , v1 , v2 , v3 ∈ V , {v1 , v2 , v3} é L.D. se, e 
somente se, v1 , v2 e v3 estão no mesmo plano que passa pela origem.
Propriedades:
a) Se um conjunto finito L⊂V contém o vetor nulo, então esse conjunto é L.D.
b) Se S={u }⊂V e u≠0 , então S é L. I.
c) Se S={u1 ,… , un}⊂V é L.D., então um dos seus vetores é combinação linear dos outros.
d) Se S 1 e S 2 são subconjuntos finitos e não-vazios de V, se S 1⊂S 2 e S 1 é L.D., então 
S 2 também é L.D.
e) Se S 1 e S 2 são subconjuntos finitos e não-vazios de V, se S 1⊂S 2 e S 2 é L.I., então 
S 1 também é L.I.
f) Se S = {u1 ,… , un} é L.I., e para um certo u ∈ V tivermos S ∪ {u}= {u1 ,… , un , u}
L.D., então o vetor u é combinação linear dos vetores u1 ,… , un , isto é, u ∈ [S ] .
g) Se S={u1 ,… , un} e u j ∈ [S − {u j }] , isto é, u j é combinação linear dos demais vetores 
de S, então [S ] = [S−{u j }] .
7.1 Base e dimensão
Definição 7.5: Seja V um espaço vetorial real. Um conjunto B={u1 ,… , un} de vetores de V será 
uma base de V se:
i) B é um conjunto L.I.;
ii) V=[v1 , v 2 ,… , v n]
Exemplos:
a) Considere V=ℝ2 , e1=(1,0) e e2=(0,1) vetores de V. {e1 , e2} é base de V, 
conhecida como base canônica de ℝ2 .
b) Considere V=ℝ3 , {(1,0 ,0) ,(0,1 ,0) ,(0,0 ,1)} é uma base de ℝ3 .
c) Seja V=ℝn , e1=(1,0 ,…,0) , … , en=(0,0 ,…,1) vetores de V (n-uplas de números 
reais). {e1 ,… , en} é uma base do ℝn , chamada base canônica.
d) Seja V = M(2,2) o espaço vetorial das matrizes reais de ordem 2. 
{[1 00 0] ,[0 10 0] ,[0 01 0] ,[0 00 1]} é uma base de V.
Obs.: Seja V um espaço vetorial de dimensão finita.Então, quaisquer duas bases de V têm o mesmo 
número de elementos.
Definição 7.6: O número de elementos da base de um espaço vetorial V é chamado dimensão de V 
e escrevemos dim V.
Exemplos:
a) dim ℝ2 = 2
b) dim ℝ3 = 3
c) dim ℝn = n
d) dim M(m,n) = m . n
Definição 7.7: Sejam B={v1 ,… , vn} base de V e v∈V onde v=a1v1+a2 v2+…+an vn . 
Chamamos estes números a1 , a2 ,… , an de coordenadas de v em relação à base B e denotamos 
por [v ]B = [a1a2⋮an] .
Exemplo: Considere o espaço vetorial V =ℝ2 , a base canônica B = {e1 ,e2} e v = (4,3). 
Então, [v ]B = [43] .
8. Autovalores e Autovetores
Definição 8.1: Dada uma matriz A de ordem n. Se existirem vetores v ∈ ℝn , v não-nulo, e 
λ ∈ ℝ tais que Av = λv, λ é um autovalor ( ou valor característico ) de A e v é um autovetor ( ou 
vetor característico ) de A associado a λ.
Obs.: Pela definição acima, λ pode ser zero, embora v não possa ser o vetor nulo.
8.1 Determinação dos autovalores e dos autovetores
Seja A uma matriz de ordem n. 
a) Os autovalores reais de A são as raízes reais do polinômio p (λ)= det (A−λ I n) , onde I n é 
a matriz identidade de ordem n.
b) Para cada autovalor λ, os autovetores associados a λ são os vetores não-nulos da solução do 
sistema (A− λ I n)v = 0 .
O polinômio p( λ) de grau n, p (λ)= det (A−λ I n) é chamado polinômio característico de A. 
Assim, para determinarmos os autovalores de A precisamos determinar as raízes reais do seu 
polinômio característico, que tem a forma p (λ) = (−1)nλn+ an−1λ
n−1 +…+ a1λ + a0 .
Obs.: Se a0 , a1 ,… , an−1 são inteiros, então as raízes racionais ( se existirem ) são números 
inteiros e divisores do coeficiente do termo de grau zero, a0 . 
8.2 Auto-espaço
O conjunto-solução do sistema (A− λ I n)v = 0 é um subespaço vetorial de ℝn associado ao 
autovalor λ.
Definição 8.2: O auto-espaço associado ao autovalor λ, denotado por E( λ), é o subespaço gerado 
por todos os autovetores associados a λ.
8.3 algébrica e geométrica
Definição 8.3: A multiplicidade algébrica do autovalor λ é a sua multiplicidade como raiz do 
polinômio característico p (λ)= det (A−λ I n) .
Definição 8.4: A multiplicidade geométrica do autovalor λ é a dimensão do auto-espaço E( λ).
Obs.: A multiplicidade geométrica de um autovalor é sempre menor ou igual à sua multiplicidade 
algébrica. 
9. Transformações geométricas
Uma transformação geométrica é uma aplicação bijetiva entre duas figuras geométricas, de forma 
que, a partir de uma figura geométrica original forma-se outra geometricamente igual ou 
semelhante.
Formalmente, uma transformação de um conjunto não vazio U em um conjunto não vazio V é uma 
correspondência F que, a cada elemento x de U, associa um único elemento y = F(x) de V: denota-
se F :U →V . O conjunto de elementos y para o qual existe um x tal que F(x) = y, chama-se 
imagem de F. O conjunto U chama-se domínio e o conjunto V chama-se contra-domínio de F.
No plano, vamos considerar U=V=ℝ2 , ou seja, U e V é o espaço vetorial ℝ2 . E no espaço, 
U = V =ℝ3 , portanto, U e V é o espaço vetorial ℝ3 .
Vamos estudar duas transformações geométricas básicas: a translação e a rotação.
Podemos dizer que a translação é uma transformação de corpo rígido que move objetos sem 
deformá-los. Assim, cada ponto de um objeto é transladado da mesma quantia.
A rotação, como a translação, também é uma transformação de corpo rígido, caracterizada por 
reposicionar os objetos, sem deformá-los. Deste modo, cada ponto do objeto é rotacionado de um 
mesmo ângulo sobre um mesmo eixo.
9.1 Transformações geométricas no plano
9.1.1 Translações no plano
Definição 9.1: Seja a ∈ ℝ2 fixado. Translação é uma aplicação bijetora T :ℝ2→ℝ2 dada por 
T(x) = x + a.
Para realizarmos a translação de um objeto geométrico representado por um conjunto de pontos 
P i , pertencentes ao ℝ
2 , adicionamos quantidades inteiras às suas coordenadas. Chamando 
essas quantidades inteiras de dx e dy, seja P(x,y) um ponto sobre o qual será efetuada uma operação 
de translação e P' as coordenadas do ponto após a translação. Assim, F(P) = T(x,y) = (x + dx, y + 
dy) = P'. Matricialmente,
 [ x 'y ']=[ xy]+T ou [ x 'y ']=[1 00 1][ xy ]+T , onde T=[dxdy ]
é o vetor de translação.
9.1.2 Rotações no plano
Definição 9.2: Seja θ ϵ [0,2π) um número fixado. A transformação bijetora Rθ :ℝ
2→ℝ2 definida 
por Rθ( x , y)= ( x.cosθ – y.sen θ , x.sen θ + y.cos θ) é, geometricamente, uma rotação de 
ângulo θ no sentido anti-horário.
Assim, F(P) = Rθ( x , y) = ( x.cos θ – y.sen θ, x.sen θ + y.cos θ ) = P'. Matricialmente, 
[ x 'y ']=Rθ[ xy] , onde Rθ=[cosθ −senθsenθ cos θ ] 
é a matriz de rotação.
9.1.3 Coordenadas homogêneas
Vimos que, enquanto a translação é tratada como uma soma de vetores, a rotação é tratada como 
uma multiplicação de uma matriz por um vetor. Assim, para que se possa combinar facilmente essas 
transformações, devemos poder tratar do mesmo modo as duas transformações de forma 
consistente. A solução portanto, é representar os pontos P do plano através de três coordenadas, 
denominadas coordenadas homogêneas. 
A translação em coordenadas homogêneas fica na forma: T(x,y,1) = ( x + dx, y + dy, 1). 
Matricialmente,
[ x 'y '1 ]=[1 0 dx0 1 dy0 0 1 ][ xy1 ] , onde T=[1 0 dx0 1 dy0 0 1 ]
é a matriz de translação.
Obs.: Em coordenadas homogêneas podemos verificar que a translação é aditiva. Ou seja, para 
transladar um objeto em (dx1 , dy1) unidades, e depois em (dx2 , dy2) unidades, basta 
multiplicar o ponto P pela matriz de translação [1 0 dx10 1 dy10 0 1 ] e depois pela matriz 
[1 0 dx20 1 dy20 0 1 ] , ou simplesmente, 
[ x 'y '1 ]=[1 0 dx1+dx20 1 dy1+dy20 0 1 ][ xy1 ] .
A rotação em coordenadas homogêneas fica na forma: T(x,y,1) = ( x.cos θ – y.sen θ, x.sen θ + 
y.cos θ, 1 ). Matricialmente, 
[ x 'y '1 ]=Rθ[ xy1 ] , onde Rθ=[cosθ −senθ 0senθ cos θ 00 0 1] .
Obs.: A rotação, em coordenadas homogêneas, também é uma operação aditiva.
Uma sequência de transformações de rotações e translações é chamada de transformação afim. 
Obs.: Uma matriz de transformação cuja submatriz 2 x 2 do canto superior esquerdo é ortogonal 
preserva ângulos e comprimentos. Estas transformações são chamadas de transformações de corpo 
rígido, pois não há distorção do objeto.
9.1.4 Composição de transformações
A composição de transformações é obtida ao aplicar-se uma transformação composta a um ponto 
em vez de aplicar-lhe uma série de transformações, uma após a outra.
Exemplo: Rotação de um objeto em torno de um ponto arbitrário P1.
Passos:
1º) Translação leva P1 à origem;
2º) Efetuar rotação;
3º) Efetuar translação oposta.
Esta sequência é ilustrada acima, onde a casa é rotacionada em relação a P1(x1,y1). A primeira 
translação é por (- x1, - y1), e a última translação ( oposta à primeira ) é por ( x1, y1 ). A 
transformação em sequência é:
[1 0 x 10 1 y1
0 0 1
] . [cosθ −senθ 0senθ cosθ 00 0 1 ] . [1 0 −x10 1 −y10 0 1 ] = [cosθ −senθ x1(1−cosθ)+ y1 . senθsenθ cosθ y1(1−cosθ)+x1 . senθ0 0 1 ]
9.2 Transformações geométricas no espaço
 
O sistema de coordenadas tridimensionais utilizado será o da “Regra da Mão Direita”.
O sentido positivo de uma rotação é dado quando observando-se sobre um eixo positivo em direção 
à origem, uma rotação de 90º levará um eixo positivo em outro positivo. Ou conforme a tabela 
abaixo.
Generalizando o que foi visto para transformações geométricas no plano, as transformações 
geométricas no espaço serão representadas por matrizes 4x4 também em coordenadas homogêneas.
9.2.1 Translações no espaço
A translação no espaço pode ser vista, simplesmente, como uma extensão da translação no plano. 
Assim, F(P) = T(x,y,z) = (x + dx, y + dy, z + dz) = P'. Matricialmente,[ x 'y 'z ' ]=[ xyz]+T ou [ x 'y 'z ' ]=[1 0 00 1 00 0 1 ][ xyz ]+T , onde T=[dxdydz]
é o vetor translação.
Em coordenadas homogêneas, a translação fica representada da seguinte forma:
[ x 'y 'z '1 ]=[
1 0 0 dx
0 1 0 dy
0 0 1 dz
0 0 0 1 ][
x
y
z
1 ] , onde T=[
1 0 0 dx
0 1 0 dy
0 0 1 dz
0 0 0 1 ]
é a matriz de translação.
9.2.2 Rotações no espaço
Os sentidos positivos de rotação em torno dos eixos segue “A Regra da Mão Direita” como na 
figura abaixo.
i) Rotação em torno do eixo dos z
[ x 'y 'z ' ]=Rθ[ xyz ] , onde Rθ=[cosθ −senθ 0senθ cos θ 00 0 1] 
é a matriz de rotação.
Ou, em coordenadas homogêneas
[ x 'y 'z '1 ]=Rθ[
x
y
z
1] , onde Rθ=[
cosθ −senθ 0 0
senθ cos θ 0 0
0 0 1 0
0 0 0 1] .
ii) Rotação em torno do eixo dos x
[ x 'y 'z ' ]=Rθ[ xyz ] , onde Rθ=[1 0 00 cosθ −sen θ0 senθ cosθ ]
é a matriz de rotação.
Em coordenadas homogêneas, 
[ x 'y 'z '1 ]=Rθ[
x
y
z
1] , onde Rθ=[
1 0 0 0
0 cos θ −sen θ 0
0 senθ cosθ 0
0 0 0 1] .
iii) Rotação em torno do eixo dos y
[ x 'y 'z ' ]=Rθ[ xyz ] , onde Rθ=[ cosθ 0 sen θ0 1 0−senθ 0 cosθ] ,
é a matriz de rotação.
Ou, em coordenadas homogêneas,
[ x 'y 'z '1 ]=Rθ[
x
y
z
1] , onde Rθ=[
cos θ 0 sen θ 0
0 1 0 0
−senθ 0 cosθ 0
0 0 0 1] .
Apêndice 1 - Números reais
O conjunto dos números reais, denotado por ℝ , tem uma estrutura de corpo com relação as 
operações usuais de adição e multiplicação. Essas operações seguem os seguintes axiomas:
Axiomas de Fechamento
( F1 ) ℝ é fechado com relação a operação de adição. Para todos x , y ∈ ℝ , temos 
que x+ y ∈ ℝ . 
( F 2 ) ℝ é fechado com relação a operação de multiplicação. Para todos x , y ∈ ℝ , 
temos que x . y ∈ ℝ . 
Axiomas da Operação de Adição
( A1 ) Associatividade: para todos x , y , z ∈ℝ temos que ( x + y ) + z = x + ( y + z ).
( A2 ) Comutatividade: para todos x , y ∈ ℝ temos que x + y = y + x.
( A3 ) Elemento Neutro: existe um único elemento em ℝ , o zero, tal que x + 0 = x; para 
todo x ∈ ℝ .
( A4 ) Elemento Simétrico: todo elemento x ∈ ℝ possui um único elemento simétrico 
(−x) ∈ ℝ tal que x + ( - x ) = 0.
Axiomas da Operação de Multiplicação
( M 1 ) Associatividade: para todos x , y , z ∈ℝ temos que ( x . y ) . z = x . ( y . z ).
( M 2 ) Comutatividade: para todos x , y ∈ ℝ temos que x . y = y . x.
( M 3 ) Elemento Neutro: existe um único elemento em ℝ , o um, tal que x . 1 = x; para 
todo x ∈ ℝ .
( M 4 ) Inverso Multiplicativo: todo elemento x ∈ ℝ , com x ≠ 0 possui um único 
elemento x−1 ∈ ℝ tal que x . x−1=1 .
( D1 ) Distributividade: para todos x , y , z ∈ℝ temos que x . ( y + z ) = ( x . y ) + ( x . 
z ).
Lei do Cancelamento para a Adição ( ou propriedade da unicidade do elemento neutro da 
adição): Sejam a ,b , c ∈ ℝ com a + b = a + c. Então b = c.
Operação de subtração
Sejam a ,b ∈ℝ . Então, existe um único x∈ℝ tal que a + x = b. E, denotamos o elemento x = 
b – a para indicar a diferença entre os elementos a e b.
A operação que a cada par (a, b), a ,b ∈ℝ , associa um número a – b, é denominada subtração. 
Obs.: Em particular, 0 – a é simplesmente escrito como – a que é denominado negativo ou 
simétrico do elemento a.
Lei do Cancelamento para a Multiplicação (ou propriedade da unicidade do elemento neutro 
da multiplicação ): Sejam a ,b ,c ∈ ℝ com a . b = a . c, a ≠ 0. Então b = c.
Operação de divisão
Sejam a ,b ∈ℝ com a ≠ 0. Então, existe um único elemento x∈ℝ tal que a . x = b. E, 
denotamos o elemento x=b
a
para indicar o quociente do elemento b pelo elemento a. A operação 
que a cada par (a, b), a , b ∈ℝ , a ≠ 0, associa um número b
a
, é denominada divisão. 
Obs.: Em particular, 1
a
 é simplesmente escrito como a−1 e é chamado recíproco do 
elemento a.
Sejam a ,b , c∈ℝ . Então, 
a) a . 0 = 0;
b) (- a ) . b = a . (- b ) = - ( a . b);
c) ( - a ) . ( - b ) = a . b.
Considerando que existe um subconjunto ℝ+⊂ℝ , denominado conjunto dos números positivos, 
que satisfaz os seguintes axiomas:
( O1 ) Se x , y ∈ ℝ
+ , então x+ y ∈ ℝ+ e x . y ∈ ℝ+ .
( O2 ) Para todo x ≠ 0, temos que x ∈ ℝ
+ ou −x ∈ℝ+ .
( O3 ) O elemento neutro 0 ∉ ℝ
+ .
temos que o conjunto dos números reais tem uma estrutura de corpo ordenado. Desse modo, sobre o 
corpo ordenado ℝ valem as seguintes observações:
a) No corpo ordenado ℝ , podemos escrever x < y para indicar que y−x ∈ ℝ+ , isto é, o 
elemento y – x é positivo. De modo análogo, escrevemos y > x para indicar que o elemento y é 
maior que o elemento x. Em particular, escrevemos x > 0 para dizer que x ∈ ℝ+ , isto é, o 
elemento x é positivo. De mesmo modo, escrevemos x < 0 para dizer que o elemento x é negativo, 
isto é, o elemento −x ∈ℝ+ .
 
b) A partir dos 3 axiomas anteriores, temos as seguintes propriedades:
(1) Princípio da Comparação: Dados os elementos x , y ∈ ℝ . Ou x < y ou y < x ou x = y.
(2) Transitividade: Dados os elementos x , y , z ∈ℝ com x 
< y e y < z, podemos concluir que x < z.
(3) Consistência da Adição com a Relação de Ordem: Dados os elementos x , y , z ∈ℝ com y 
< z, segue que y + x < z + x.
(4) Consistência da Multiplicação com a Relação de Ordem: Dados os elementos x , y ∈ ℝ
com x > 0 e y > 0, segue que x . y > 0.
Tomando os elementos x , y , z ∈ℝ com x < y e z > 0, segue que x . z < y . z.
Importantes desigualdades obtidas pela relação de ordem:
Dados a , b , c ∈ ℝ .
a) Se a . b = 0, então a = 0 ou b = 0.
b) Se a < b e c > 0, então a . c < b . c.
c) Se a ≠ 0, então a2 > 0.
d) Se a < b e c < 0, então a . c > b . c.
e) Se a < c e b < d, então a + b < c + d.
f) Se a . b > 0, então a e b são positivos ou ambos são negativos.
Valor Absoluto ou módulo
Definição A1.1: Para x ∈ ℝ , definimos seu valor absoluto, ou módulo, que vamos denotar por | 
x |, como sendo o número real não negativo
∣x∣=
x , se x>0
0, se x=0
−x , se x<0
Podemos observar que | x | é escolhido o maior número entre x e -x. Logo, temos que | x | ≥ x e | x | 
≥ -x. Portanto, podemos concluir que 
- | x | ≤ x ≤ | x |.
Propriedades:
a) Seja a ≥ 0. Então, | x | ≤ a se, e somente se, - a ≤ x ≤ a.
b) Sejam a ,b , x ∈ ℝ . Então, | x – a | ≤ b se, e somente se, a – b ≤ x ≤ a + b.
c) Sejam x , y ∈ ℝ . Então | x . y | = | x | . | y |.
d) Desigualdade Triangular: Sejam x , y ∈ ℝ . Então, | x + y | ≤ | x | + | y |.
e) Fazendo x = a - c e y = c – b, temos que x + y = a – b. Agora, utilizando a desigualdade 
triangular, obtemos | a – b | ≤ | a – c | + | b – c |.
f) Sejam a1 , a2 ,⋯, an números reais quaisquer. Então, ∣∑k=1
n
ak∣ ≤ ∑k=1
n
∣ak∣ .
g) Sejam x , y ∈ ℝ . Então, | x | - | y | ≤ | x – y |.
Apêndice 2 – Notação de Somatório
São válidas algumas propriedades para a notação de somatório:
a) O índice do somatório é uma variável muda que pode ser substituída por qualquer letra:
∑
i=1
n
f i = ∑
j=1
n
f j
b) O somatório de uma soma pode ser escrito como uma soma de dois somatórios:
∑
i=1
n
( f i+g i)=∑
i=1
n
f i +∑
i=1
n
gi
c) Se no termo geral do somatório aparece um produto, em que um fator não depende do índice do 
somatório, então este fator pode “sair” do somatório:
∑
i=1
n
f i g k = g k ∑
i=1
n
f i
d) Num somatório duplo, a ordem dos somatórios pode ser trocada:
∑
i=1
n
∑
j=1
m
f ij = ∑
j=1
m
∑
i=1
n
f ij

Outros materiais