Buscar

Matrizes completo (operações, propriedades, determinante, método de resolução de sistemas lineares) e vetores completo (operações e propriedades)

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 6 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 6 páginas

Prévia do material em texto

Matrizes 
Operações com matrizes: 
SOMA - Só é possível somar duas (ou mais) matrizes de mesma dimensão 𝑚 𝑥 𝑛, onde se 𝐴 + 𝐵 = 𝐶, então 
𝑎𝑖𝑗 + 𝑏𝑖𝑗 = 𝑐𝑖𝑗. Propriedades satisfeitas: Comutatividade (𝐴 + 𝐵 = 𝐵 + 𝐴 ∶ pois tanto faz somar 𝑎𝑖𝑗 + 𝑏𝑖𝑗 quanto 
𝑏𝑖𝑗 + 𝑎𝑖𝑗, pois são meramente números, e a soma de números é comutativa; Associatividade (𝐴 + 𝐵) + 𝐶 = 𝐴 +
(𝐵 + 𝐶). 
 MATRIZ SIMÉTRICA - Uma matriz simétrica a 𝐴 é 𝐵 se somente se 𝐴 + 𝐵 = 0, logo 𝑏𝑖𝑗 = −𝑎𝑖𝑗. 
MULTIPLICAÇÃO POR ESCALAR - 𝛾. 𝐴 = 𝐵 onde todo 𝑏𝑖𝑗 = 𝛾 . 𝑎𝑖𝑗 (𝐴 𝑒 𝐵 são matrizes, e 𝛾 é escalar). 
TRANSPOSIÇÃO - Denotada por 𝐴𝑡 é a transposta de uma matriz 𝐵 se 𝑎𝑖𝑗 = 𝑏𝑗𝑖 para todo 𝑖 𝑒 𝑗. 
MULTIPLICAÇÃO DE MATRIZES - O produto de 𝐴𝑚 𝑥 𝑛 por 𝐵𝑛 𝑥 𝑟 é uma matriz 𝐶𝑚 𝑥 𝑟 tal que 𝑐𝑖,𝑗 =
∑ 𝑎𝑖𝑘. 𝑏𝑘𝑗
𝑛
𝑘=1 (A multiplicação de matrizes surge de problemas de composição de funções, onde estas podem 
sem escritas na forma de matriz, dessa forma a rigorosidade matemática do cálculo de multiplicações vem 
visando a obtenção de resultados equivalentes através de ambos os cálculos) 
𝑒𝑥𝑒𝑚𝑝𝑙𝑜: 𝑆𝑒𝑗𝑎𝑚 𝑑𝑢𝑎𝑠 𝑓𝑢𝑛çõ𝑒𝑠 𝑇(𝑥, 𝑦) = (𝑥, −𝑦) 𝑒 𝑆(𝑥, 𝑦) = (𝑦, 𝑥),
𝑇 ∘ 𝑆 (𝑥, 𝑦) = 𝑇 (𝑆 (𝑥, 𝑦)) = 𝑇(𝑦, 𝑥) = (𝑦, −𝑥) 
𝑇𝑟𝑎𝑛𝑠𝑓𝑜𝑟𝑚𝑎𝑛𝑑𝑜 𝑇 𝑒 𝑆 𝑒𝑚 𝑚𝑎𝑡𝑟𝑖𝑧𝑒𝑠: 𝑇(1,0) = (1,0) 𝑆(1,0) = (0,1) 
 𝑜𝑠 𝑟𝑒𝑢𝑙𝑡𝑎𝑑𝑜𝑠 "viram" 𝑐𝑜𝑙𝑢𝑛𝑎𝑠 𝑇(0,1) = (0, −1) 𝑆(0,1) = (1,0) 
𝐴𝑠𝑠𝑖𝑚 𝑎 𝑚𝑎𝑡𝑟𝑖𝑧 𝑎𝑠𝑠𝑜𝑐𝑖𝑎𝑑𝑎 à 𝑓𝑢𝑛çã𝑜 𝑇 é [𝑇] = (
1 0
0 −1
) 𝑒 𝑎 𝑆 é [𝑆] = (
0 1
1 0
) 
𝑃𝑜𝑟𝑡𝑎𝑛𝑡𝑜 [𝑇]. [𝑆] = 𝑇 ∘ 𝑆 = (
0 1
−1 0
) 
Por isso, multiplicação de duas matrizes não é comutativa, porque compor funções também não é (perceba 
que para duas dimensões (𝑥, 𝑦) o que fizemos foi utilizar o resultado dessa operação sobre uma matriz identidade de 
segunda ordem). 
𝑃𝑟𝑜𝑝𝑟𝑖𝑒𝑑𝑎𝑑𝑒𝑠 𝑒 𝑑𝑒𝑚𝑜𝑛𝑠𝑡𝑟𝑎çã𝑜: 
𝐴𝑡 + 𝐵𝑡 = (𝐴 + 𝐵)𝑡 
 
(𝐴 + 𝐵) = 𝐶 (𝑜𝑛𝑑𝑒 𝑐𝑖𝑗 = 𝑎𝑖𝑗 + 𝑏𝑖𝑗) . : (𝐴 + 𝐵)
𝑡 = 𝐶𝑡 = 𝐷( 𝑜𝑛𝑑𝑒 𝑑𝑖𝑗 = 𝑐𝑗𝑖 = 𝑎𝑗𝑖 + 𝑏𝑗𝑖) 
𝑒 𝑠𝑎𝑏𝑒𝑛𝑑𝑜 𝑞𝑢𝑒 𝐴𝑡 + 𝐵𝑡 = 𝐸 (𝑜𝑛𝑑𝑒 𝑒𝑖𝑗 = 𝑎𝑗𝑖 + 𝑏𝑗𝑖) 𝑝𝑜𝑟𝑡𝑎𝑛𝑡𝑜 𝐴
𝑡 + 𝐵𝑡 = (𝐴 + 𝐵)𝑡 
 
(𝐴𝐵)𝑡 = 𝐵𝑡𝐴𝑡 
𝑆𝑒 𝐶 = 𝐴𝐵 𝑒𝑛𝑡ã𝑜 𝑐𝑖,𝑗 = ∑ 𝑎𝑖,𝑘𝑏𝑘,𝑗
𝑛
𝑘=1
 𝑒 𝐷 = 𝐶𝑡 𝑒𝑛𝑡ã𝑜 𝑑𝑖,𝑗 = ∑ 𝑎𝑘,𝑖𝑏𝑗,𝑘
𝑛
𝑘=1
 
 𝐸 𝑠𝑒 𝐵𝑡𝐴𝑡 = 𝐸 𝑒𝑛𝑡ã𝑜 𝑒𝑖,𝑗 = ∑ 𝑏𝑗,𝑘𝑎𝑘,𝑖
𝑛
𝑘=1 . : 𝐷 = 𝐸 .: (𝐴𝐵)
𝑡 = 𝐵𝑡𝐴𝑡 
 
(𝐴 + 𝐵)2 = 𝐴2 + 𝐴𝐵 + 𝐵𝐴 + 𝐵2 ≠ 𝐴2 + 2𝐴𝐵 + 𝐵2 e (𝐴 + 𝐵)(𝐴 − 𝐵) = 𝐴2 − 𝐴𝐵 + 𝐵𝐴 − 𝐵2 ≠ 𝐴2 − 𝐵2 
(𝐷𝑒𝑣𝑖𝑑𝑜 à 𝑎𝑢𝑠ê𝑛𝑐𝑖𝑎 𝑑𝑒 𝑐𝑜𝑚𝑢𝑡𝑎𝑡𝑖𝑣𝑖𝑑𝑎𝑑𝑒) 
É dito posto de uma matriz, o número de variáveis pivô, ou ordem da maior submatriz presente no sistema 
𝑚 × 𝑛 tal que o determinante é não-nulo. 
Sistemas Lineares 
 O uso de matrizes é usado ao máximo quando se trata de resolução de conjunto de equações lineares. 
Podemos reescrever um conjunto de equações lineares em formato matricial 𝐴𝑋 = 𝐵 
𝑜𝑛𝑑𝑒 𝐴𝑚𝑥𝑛 é 𝑎 𝑚𝑎𝑡𝑟𝑖𝑧 𝑑𝑜𝑠 𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒𝑠 𝑟𝑒𝑎𝑖𝑠, 𝑋𝑛𝑥1 é 𝑜 𝑣𝑒𝑡𝑜𝑟 𝑑𝑎𝑠 𝑣𝑎𝑟𝑖á𝑣𝑒𝑖𝑠 𝑒 
𝐵𝑚𝑥1 é 𝑜 𝑣𝑒𝑡𝑜𝑟 𝑑𝑜𝑠 𝑡𝑒𝑟𝑚𝑜𝑠 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑒𝑛𝑡𝑒𝑠 
 A fim de se obter uma matriz diagonal ou triangular superior ou ainda escalonada, que é mais facilmente 
resolvida através da metodologia matemática, faremos operações sobre as linhas da matriz aumentada [𝐴|𝐵], 
operações estas denominadas elementares. 
 Estão enquadradas com operações elementares operações como: troca de ordem das linhas (𝑒𝑥: 𝐿3 ↔ 𝐿2), 
multiplicação da linha por um escalar não nulo (𝑒𝑥: 𝐿3 ← 3𝐿3), trocar uma linha pela soma desta linha com a outra 
(𝑒𝑥: 𝐿3 ← 𝐿3 − 3𝐿2). 
 Teorema Sejam 𝐴. 𝑋 = 𝐵 𝑒 𝐶. 𝑋 = 𝐷 dois sistemas lineares tais que a matriz aumentada [C|D] é obtida de 
[A|B] por meio de operações elementares. Então os dois sistemas são equivalentes e apresentam as mesmas soluções. 
Método de Gauss-Jordan 
Método que objetiva levar a matriz à forma de matriz escalonada reduzida. Uma matriz é dita escalonada 
reduzida se satisfaz: 
1. Todas as linhas nulas de A ocorrem abaixo das linhas não nulas. 
2. O pivô (primeiro elemento não nulo de cada linha) deve ser igual a 1. 
3. O pivô de uma linha sempre está a direita do pivô da linha anterior. 
4. Se uma coluna contém um pivô, então todos os outros elementos dessa coluna são nulos. Neste método, 
escalonamos [𝐴|𝐵] até encontrarmos os valores individuais de cada incógnita. 
Observações: Caso ao escalonar a matriz, nos deparemos com uma linha da matriz dos coeficientes nulas e 
dos termos independentes não-nulo, tal sistema não apresenta solução. Caso exista uma linha inteiramente com 
termos nulos, o sistema admite infinitas soluções. Um sistema linear e homogêneo, por apresentar o vetor dos termos 
independentes iguais a zero, sempre apresentará solução (uma ou infinitas) então. 𝐴𝑋 = 0 
Teorema Considere um sistema linear 𝐴𝑋 = 𝐵, se 𝑋0 𝑒 𝑋1 são soluções distintas do sistema, ou seja, 𝐴𝑋0 = 𝐵 
e 𝐴𝑋1 = 𝐵, com 𝑋0 ≠ 𝑋1, então o sistema admite um número infinito de soluções. 
Prova: Se existem 𝑋0 𝑒 𝑋1como soluções diferentes, podemos encontrar infinitas combinações dessas duas 
soluções. 𝐴( 𝛼𝑋0 + (1 − 𝛼)𝑋1) = 𝛼𝐴𝑋0 + (1 − 𝛼)𝑋1 . : 𝛼𝐵 + (1 − 𝛼)𝐵 = 𝐵 para todo 0 ≤ α ≤ 1. 
Sistemas Homogêneos 
Teorema Seja 𝐴 = (𝑎𝑖,𝑗)𝑚 𝑥 𝑛 𝑐𝑜𝑚 𝑚 < 𝑛 então o sistema linear homogêneo 𝐴𝑋 = 0 tem infinitas soluções. 
Propriedades: Se 𝑋0 é solução do sistema, então α𝑋𝑜 também é. 
Matriz Elementar 
 Uma matriz elementar 𝐸𝑛 𝑥 𝑛 é uma matriz identidade 𝐼𝑛, sobre a qual foi realizada uma única operação 
elementar. Notação: 
 𝐸𝑖𝑗 → Matriz obtida permutando as linhas 𝑖 𝑒 𝑗 da matriz identidade; 
 𝐸𝑖(𝛼) → Matriz obtida multiplicando-se a i-ésima linha da matriz identidade pelo escalar α. 
 𝐸𝑖𝑗 (𝛼) → Matriz obtida trocando a j-ésima linha, pela soma da j-ésima linha pela multiplicação da i-ésima 
linha pelo escalar α. 
 Teorema Seja 𝐸𝑛 𝑥 𝑛 uma matriz elementar e 𝐴𝑛 𝑥 𝑛 uma matriz qualquer. Então a matriz 𝐸𝐴 é igual a matriz 
obtida realizando em 𝐴𝑛 𝑥 𝑛 a mesma operação elementar que define a matriz 𝐸𝑛 𝑥 𝑛. 
Matriz Inversa 
 Uma matriz quadrada 𝐴𝑛 𝑥 𝑛 é dita invertível caso exista uma matriz 𝐵𝑛 𝑥 𝑛 tal que satisfaça 𝐴𝐵 = 𝐵𝐴 = 𝐼 𝑛. 
Neste caso 𝐵 é denotada por 𝐴−1 e dita inversa de 𝐴. Caso não exista tal matriz 𝐵, 𝐴 é dita não-invertível ou singular. 
 Teorema Sejam duas matrizes 𝐴 𝑒 𝐵 𝑛 𝑥 𝑛. Se 𝐴𝐵 = 𝐼, então 𝐵𝐴 = 𝐼. 
 Teorema Seja 𝐴𝑛 𝑥 𝑛, se A é invertível, a inversa dessa matriz é única. Prova: Suponha que 𝐴𝐵 = 𝐵𝐴 =
𝐼 𝑒 𝐴𝐶 = 𝐶𝐴 = 𝐼, e também, 𝐶 = 𝐶𝐼 , logo, substituindo 𝐼 temos, 𝐶 = 𝐶𝐴𝐵 . : 𝐶 = 𝐼𝐵 portanto 𝐶 = 𝐵. 
Propriedades: 
((𝐴)−1)−1 = 𝐴 (𝐴𝑡)−1 = (𝐴−1)𝑡 (𝐴−1)−1 = 𝐴 . ∶ 𝐴𝑡(𝐴−1)𝑡 = ((𝐴−1)𝐴)𝑡 = 𝐼 (𝐴𝐵)−1 = 𝐵−1𝐴−1 
𝑆𝑒 𝐴𝑥 = 0, 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑛 > 𝑥 𝑒𝑠𝑠𝑒 𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜 𝑡𝑎𝑚𝑏é𝑚 𝑠𝑒𝑟á 𝑣á𝑙𝑖𝑑𝑜, 𝑒 𝑑𝑒𝑠𝑠𝑎 𝑓𝑜𝑟𝑚𝑎 𝑝𝑜𝑑𝑒𝑚𝑜𝑠 
𝑑𝑒𝑠𝑐𝑟𝑒𝑣ê − 𝑙𝑜 𝑛𝑜 𝑓𝑜𝑟𝑚𝑎𝑡𝑜 𝑝𝑜𝑙𝑖𝑛𝑜𝑚𝑖𝑎𝑙 𝐼 − 𝐴𝑛 = (𝐼 − 𝐴)(1 + 𝐴 + 𝐴2 . . . 𝐴𝑛−1) 
 Toda matriz elementar é invertível, em particular: 
 𝑎) 𝐸𝑖𝑗
−1 = 𝐸𝑗𝑖 = 𝐸𝑖𝑗 𝑏)𝐸𝑖(𝛼)
−1 = 𝐸𝑖 (
1
𝛼
) 𝑐)𝐸𝑖𝑗(𝛼)
−1 = 𝐸𝑗𝑖(−𝛼) 
 Teorema Seja 𝐴𝑛 𝑥 𝑛, é equivalente dizer, e implicam uma na outra: 
a) Existe uma matriz 𝐵𝑛 𝑥 𝑛 tal que 𝐵𝐴 = 𝐼; 
b) 𝐴 é linha equivalente a 𝐼; 
c) 𝐴 é invertível. 
Prova: 𝑎) ⇒ 𝑐) 
𝑆𝑢𝑝𝑜𝑛ℎ𝑎 𝑞𝑢𝑒 𝐴𝑋 = 0 𝑠ó 𝑡𝑒𝑛ℎ𝑎 𝑎 𝑠𝑜𝑙𝑢çã𝑜 𝑛𝑢𝑙𝑎. 𝑆𝑒 𝐴𝑋 = 0, 𝑒𝑛𝑡ã𝑜 𝑋 = 𝐼𝑋 = 𝐵𝐴𝑋 = 𝐵. 0 = 0, 
 𝑙𝑜𝑔𝑜 𝑋 = 0, 𝑑𝑒𝑚𝑜𝑛𝑠𝑡𝑟𝑎𝑛𝑑𝑜 𝑞𝑢𝑒 𝑎 ú𝑛𝑖𝑐𝑎 𝑝𝑜𝑠𝑠𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑𝑒 𝑝𝑎𝑟𝑎 𝑜 𝑋é 𝑠𝑒𝑟 𝑛𝑢𝑙𝑜. 
Assim, ao provarmos a unicidade da solução, demonstramos que 𝐴 é linha equivalente a 𝐼, pois ao realizarmos 
as 𝑚 operações elementares sobre a matriz 𝐴, obtemos 𝐼 (sem linha nula, portanto sem variável livre). 
 𝑏) ⇒ 𝑐) 
𝑆𝑒 𝐴 é 𝑙𝑖𝑛ℎ𝑎 𝑒𝑞𝑢𝑖𝑣𝑎𝑙𝑒𝑛𝑡𝑒 𝑎 𝐼, 𝑒𝑛𝑡ã𝑜 𝑒𝑥𝑖𝑠𝑡𝑒𝑚 𝑘 𝑚𝑎𝑡𝑟𝑖𝑧𝑒𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑎𝑟𝑒𝑠 𝑡𝑎𝑖𝑠 𝑞𝑢𝑒 𝐸𝑘 … 𝐸1𝐴 = 𝐼 
Então, ao multiplicar à esquerda pelas inversas das matrizes elementares obtemos: 
… (𝐸𝑘)
−1𝐸𝑘𝐸𝑘−1 …𝐸1𝐴 = (𝐸𝑘)
−1𝐼 𝑎𝑠𝑠𝑖𝑚 𝑠𝑢𝑐𝑒𝑠𝑠𝑖𝑣𝑎𝑚𝑒𝑛𝑡𝑒 𝑎𝑡é 𝐴 = (𝐸1)
−1(𝐸2)
−1 … (𝐸𝑘)
−1 
Assim, como todas as matrizes elementares são invertíveis, seu produto também é e corresponde á: 
𝐴−1 = ((𝐸1)
−1(𝐸2)
−1 …(𝐸𝑘)
−1)−1 𝑞𝑢𝑒 𝑠𝑎𝑏𝑒𝑚𝑜𝑠 𝑞𝑢𝑒 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑𝑒 à 
𝐴−1 = 𝐸𝑘 … 𝐸2𝐸1𝐼, 𝑙𝑜𝑔𝑜 𝑛ã𝑜 𝑠ó 𝑝𝑟𝑜𝑣𝑎𝑚𝑜𝑠 𝑞𝑢𝑒 𝐴 é 𝑖𝑛𝑣𝑒𝑟𝑡í𝑣𝑒𝑙 𝑐𝑜𝑚𝑜 𝑡𝑎𝑚𝑏𝑒𝑚 𝑎𝑐ℎ𝑎𝑚𝑜𝑠 𝐴
−1 
𝑐) ⇒ 𝑎) 
Se 𝐴 é invertível e sua inversa é dada por 𝐸𝑘 … 𝐸2𝐸1𝐼, 𝐵 = 𝐴
−1. 
Portanto, um método de se encontrar a matriz inversa 𝐴−1 é montar a matriz aumentada [𝐴|𝐼] e sobre ela 
aplicar as operações elementares obtendo [𝐸|𝐵], onde 𝐸 é uma matriz na forma escalonada reduzida, tal que se 𝐸 =
𝐼, então 𝐵 = 𝐴−1, obtendo portando [𝐼|𝐴−1]. Caso 𝐸 ≠ 𝐼, então 𝐴 é uma matriz singular (não admite inversa). 
 Teorema O sistema 𝐴𝑋 = 𝐵 tem solução única se, e somente se, 𝐴 for invertível. E então, a solução do sistema 
é igual a 𝑋 = 𝐴−1𝐵. 
Teorema O sistema homogêneo 𝐴𝑋 = 0 tem solução única se, e somente se, 𝐴 for invertível. E então, a solução 
do sistema é igual a 𝑋 = 0. 
Teorema Se uma matriz invertível é resultado da multiplicação de outras 𝑛 matrizes, então todas as 𝑛 matrizes 
também são invertíveis. Prova: 
Seja 𝐴 𝑒 𝐵 matrizes 𝑛 𝑥 𝑛. Em particular, se 𝐴𝐵 é invertível, então 𝐴 𝑒 𝐵 também são. Considerando o sistema 
𝐴𝐵𝑋 = 0, supomos que B não seja invertível. Então significa que o sistema 𝐵𝑋 = 0 não tem solução única, e em 
particular 𝑋0 ≠ 0 é solução do sistema. Assim 𝐵𝑋0 = 0, multiplicando por A, obtemos (𝐴𝐵)𝑋0 = 0, o que é 
impossível, uma vez que 𝐴𝐵 admite inversa, e, portanto, esse sistema só pode admitir solução única. Logo, B não pode 
ser singular. 
Para provar que A também é invertível fazemos: 𝐴 = 𝐴𝐼 = 𝐴(𝐵𝐵−1) = (𝐴𝐵)𝐵−1 mostrando que A é um 
produto de duas matrizes invertíveis, portanto, também invertível. 
Um dispositivo prático, utilizado quando não precisamos de todas as entradas da matriz inversa é o seguinte: 
𝐴− =
1
det𝐴
∙ 𝐶𝑜𝑓𝑡 
Resolução de Sistemas Lineares 
 Considere o sistema homogêneo associado ao sistema de equações (matriz de Vandermonde) que buscamos 
a interpolação polinomial. 
[
1 ⋯ 𝑥1
𝑛−1
⋮ ⋱ ⋮
1 ⋯ 𝑥𝑛
𝑛−1
] [
𝑎0
⋮
𝑎𝑛−1
] = [
𝑦0
⋮
𝑦𝑛−1
] Tal sistema tem solução única, pois a única solução do sistema homogêneo é 
nula, uma vez que um polinômio de 𝑛 − 1 grau tem no máximo 𝑛 − 1 raízes, forçando a matriz dos coeficientes ser 
invertível, pois a matriz nula do sistema homogêneo é 𝑛 𝑥 1. Desde que 𝑥𝑖 ≠ 𝑥𝑗 , 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑖 ≠ 𝑗. 
Dica: Em geral, uma boa forma de provar algo é supor o inverso daquilo e utilizar operações matemáticas 
aplicáveis a fim de encontrar um absurdo. 
Determinante 
 O determinante de uma matriz 𝐴𝑛 𝑥 𝑛é dado de forma recursiva por meio de uma matriz Ã(𝑛−1)𝑥(n−1), desde 
que 𝑛 ≠ 1, pois, caso 𝑛 = 1, então 𝑑𝑒𝑡(𝐴) = 𝑎11. A expansão do determinante em cofatores pode ser feita utilizando 
qualquer linha, em particular a que contiver mais zeros, ou seja: 
det(𝐴) = ∑𝑎𝑖,𝑗ã𝑖,𝑗
𝑛
𝑗=1
 ∀𝑖 ∈ {1,2… 𝑛} 𝑒𝑚 𝑞𝑢𝑒 ã𝑖,𝑗 = (−1)
𝑖+𝑗 det(Ã𝑖,𝑗) é 𝑜 𝑐𝑜𝑓𝑎𝑡𝑜𝑟 𝑑𝑜 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜 ã𝑖,𝑗 
 𝑒 Ã𝑖,𝑗 é 𝑎 𝑚𝑎𝑡𝑟𝑖𝑧 (𝑛 − 1)𝑥(𝑛 − 1) 𝑑𝑎𝑑𝑎 𝑝𝑒𝑙𝑎 𝑒𝑥𝑐𝑙𝑢𝑠ã𝑜 𝑑𝑎 𝑙𝑖𝑛ℎ𝑎 𝑖 𝑒 𝑑𝑎 𝑐𝑜𝑙𝑢𝑛𝑎 𝑗 𝑑𝑎 𝑚𝑎𝑡𝑟𝑖𝑧 𝑜𝑟𝑖𝑔𝑖𝑛𝑎𝑙 𝐴. 
Propriedades do determinante: 
a) 𝐷𝑒𝑡(𝐴𝐵) = 𝑑𝑒𝑡(𝐴). 𝑑𝑒𝑡(𝐵) 
b) 𝑆𝑒 𝐴𝐵 = 𝐶, 𝑒𝑛𝑡ã𝑜 det(𝐴) . det(𝐵) = det(𝐶). Portanto, em particular, det(𝐴) . det(𝐴−) = det (𝐼), 
então se 𝑑𝑒𝑡(𝐴) ≠ 0, det(𝐴−) =
1
det(𝐴)
 uma vez que 𝑑𝑒𝑡(𝐼) = 1. Logo, A é invertível se somente se 
𝑑𝑒𝑡(𝐴) ≠ 0. 
c) Se 𝐴 é uma matriz triangular, ou seja, todos os elementos abaixo ou acima da diagonal principal são nulos, 
𝑑𝑒𝑡(𝐴) = ∏ 𝑎𝑖,𝑖
𝑛
𝑖=1 . A prova disso é dada pela expansão em cofatores, onde escolhendo a primeira ou a 
última linha (a depender se ela é triangular inferior ou superior, respectivamente), a soma tem um único 
termo, e o mesmo acontece com a matriz cofatora, sucessivamente, gerando um produtório dos termos 
da diagonal principal. 
d) Para 𝐴 𝑒 𝐵, duas matrizes que se diferem unicamente na linha 𝑘, se 𝐶 =
[
 
 
 
 
𝐴1
⋮
𝛼𝐴𝑘 + 𝛽𝐵𝑘
⋮
𝐴𝑛 ]
 
 
 
 
 em que 𝐴𝑘 𝑒 𝐵𝑘 
são respectivamente a k-ésimas linhas de cada matriz. Então 𝑑𝑒𝑡(𝐶) = 𝛼𝑑𝑒𝑡(𝐴) + 𝛽𝑑𝑒𝑡(𝐵). Prova-se por 
expansão em cofatores 
e) Decorrente de c), se 𝐵 é idêntico a 𝐴, exceto na linha 𝑘, que corresponde a linha 𝑘 de 𝐴 multiplicado por 
um escalar 𝛼, então 𝑑𝑒𝑡(𝐵) = 𝛼𝑑𝑒𝑡(𝐴). 
f) 𝐷𝑒𝑡(𝐴) = 𝑑𝑒𝑡(𝐴𝑡). Dessa propriedade advém a possibilidade de calcularmos o determinante da matriz 𝐴 
escolhendo uma linha qualquer, ou uma coluna, pois essa coluna escolhida é uma linha na matriz 
transposta, e como estas têm o mesmo determinante, a propriedade é válida. 
g) 𝑆𝑒 𝐴 possui duas linhas idênticas, então 𝑑𝑒𝑡(𝑎) = 0. 
Aplicando essas propriedades em matrizes elementares 𝐴 𝑒 𝐵: 
a) Se B é obtida de A, multiplicando uma única linha por α, então 𝑑𝑒𝑡(𝐵) = 𝛼𝑑𝑒𝑡(𝐴). 
b) Se B é obtida de A através da permutação de duas linhas, então 𝑑𝑒𝑡(𝐵) = −𝑑𝑒𝑡(𝐴). 
c) Se B é obtida de A substituindo a k-ésima linha de A pela soma das linhas 𝑘 e 𝑙, então 𝑑𝑒𝑡(𝐵) = 𝑑𝑒𝑡(𝐴). 
 
Prova: 
 
a) é embasada na e) anterior. 
 
b) 0 = 𝑑𝑒𝑡
[
 
 
 
 
 
 
𝐴1
⋮
𝐴𝑘 + 𝐴𝑙
⋮
𝐴𝑙 + 𝐴𝑘
⋮
𝐴𝑛 ]
 
 
 
 
 
 
= 𝑑𝑒𝑡
[
 
 
 
 
 
 
𝐴1
⋮
𝐴𝑘
⋮
𝐴𝑙 + 𝐴𝑘
⋮
𝐴𝑛 ]
 
 
 
 
 
 
+ 𝑑𝑒𝑡
[
 
 
 
 
 
 
𝐴1
⋮
𝐴𝑙
⋮
𝐴𝑙 + 𝐴𝑘
⋮
𝐴𝑛 ]
 
 
 
 
 
 
= 𝑑𝑒𝑡
[
 
 
 
 
 
 
𝐴1
⋮
𝐴𝑘
⋮
𝐴𝑙
⋮
𝐴𝑛]
 
 
 
 
 
 
+ 𝑑𝑒𝑡
[
 
 
 
 
 
 
𝐴1
⋮
𝐴𝑘
⋮
𝐴𝑘
⋮
𝐴𝑛]
 
 
 
 
 
 
+ 𝑑𝑒𝑡
[
 
 
 
 
 
 
𝐴1
⋮
𝐴𝑙
⋮
𝐴𝑙
⋮
𝐴𝑛]
 
 
 
 
 
 
+ 𝑑𝑒𝑡
[
 
 
 
 
 
 
𝐴1
⋮
𝐴𝑙
⋮
𝐴𝑘
⋮
𝐴𝑛]
 
 
 
 
 
 
, 
eliminando-se as matrizes com linhas repetidas (determinante nulo) obtemos: 
𝑑𝑒𝑡
[
 
 
 
 
 
 
𝐴1
⋮
𝐴𝑘
⋮
𝐴𝑙
⋮
𝐴𝑛]
 
 
 
 
 
 
= −𝑑𝑒𝑡
[
 
 
 
 
 
 
𝐴1
⋮
𝐴𝑙
⋮
𝐴𝑘
⋮
𝐴𝑛]
 
 
 
 
 
 
 
A prova de c) é feita similarmente à prova de b). 
 Operações elementares são capazes de modificar o determinante da matriz, mas nunca o anular, ou o 
desanular. Neste curso, o importante é o aspecto qualitativo do determinante, se ele é zero ou não-zero. Assim, a 
matriz original e sua equivalente por linhas são qualitativamente as mesmas, invertíveis ou não. 
Vetores 
 Uma 𝑛-upla de números 𝑣 = (𝑣1, … , 𝑣𝑛) ∀ 𝑣𝑛 ∈ ℝ e denotando ℝ
𝑛 o conjunto das 𝑛-uplas. Dados dois pontos 
𝑃 = (𝑝1, … , 𝑝𝑛) e 𝑄 = (𝑞1, … , 𝑞𝑛) definimos o vetor 𝑃𝑄⃗⃗⃗⃗ ⃗ como 𝑃𝑄⃗⃗⃗⃗ ⃗ = (𝑝1 − 𝑞1, … , 𝑝𝑛 − 𝑞𝑛). Propriedades: 
a) A soma de dois ou mais vetores é feita coordenada a coordenada, ou seja a soma de 𝑎 = (𝑎1, … , 𝑎𝑛) 𝑒 �⃗� =
(𝑏1, … , 𝑏𝑛) é 𝑐 = (𝑎1 + 𝑏1, … , 𝑎𝑛 + 𝑏𝑛). 
b) O produto de um escalar por um vetor 𝑎 = (𝑎1, … , 𝑎𝑛) é 𝑘𝑎 = (𝑘𝑎1, … , 𝑘𝑎𝑛) 
c) Se �⃗� e 𝑣 são dois vetores tais que ∃𝛼 𝑡𝑎𝑙 𝑞𝑢𝑒 �⃗� = 𝛼𝑣 dizemos que �⃗� e 𝑣 são múltiplos escalares. 
d) Dados �⃗� ∈ ℝ𝑛 e 𝑣1⃗⃗⃗⃗ , 𝑣2⃗⃗⃗⃗ ⃗, … , 𝑣𝑘⃗⃗⃗⃗ dizemos que �⃗� é combinação linear de 𝑣1⃗⃗⃗⃗ , 𝑣2⃗⃗⃗⃗ ⃗, … , 𝑣𝑘⃗⃗⃗⃗ se ∃ 𝛽1, 𝛽2, … , 𝛽𝑘não todos 
nulos, tais que satisfaçam �⃗� = 𝛽1𝑣1⃗⃗⃗⃗ + 𝛽2𝑣2⃗⃗⃗⃗ + …+ 𝛽𝑘𝑣𝑘⃗⃗⃗⃗ . 
e) A norma/módulo do vetor �⃗� = (𝑢1, … , 𝑢𝑛), ou comprimento,é dado por ‖�⃗� ‖ = √𝑢1
2 + ⋯ + 𝑢𝑛
2 ≥
0, 𝑐𝑎𝑠𝑜 𝑖𝑔𝑢𝑎𝑙, ‖�⃗� ‖ = 0 ⇔ �⃗� = 0⃗ . A norma de um múltiplo escalar ‖𝛽. �⃗� ‖ = |𝛽|‖�⃗� ‖. E se ‖�⃗� ‖ = 1 então o 
vetor �⃗� é um vetor unitário. 
f) O produto interno entre dois vetores �⃗� e �⃗� , necessariamente numa base ortonormal, é simbolizado por 
〈𝑢, 𝑣〉 𝑜𝑢 �⃗� ∙ �⃗� , e corresponde a um escalar dado pela soma 𝑢1𝑣1 + 𝑢2𝑣2 + ⋯ + 𝑢𝑛𝑣𝑛 =
‖�⃗� ‖‖�⃗� ‖ cos 𝜃, em que 𝜃 é o ângulo entre �⃗� e �⃗� . Prova: lei dos cossenos aplicado num triângulo de lados �⃗� , 
𝑣,⃗⃗ 𝑒 𝑢 − 𝑣⃗⃗ ⃗⃗ ⃗⃗ ⃗⃗ ⃗⃗ . 
Aplicando a lei dos cossenos nesse triângulo em específico, obtemos: ‖𝑢 − 𝑣⃗⃗ ⃗⃗ ⃗⃗ ⃗⃗ ⃗⃗ . ‖2 = ‖�⃗� ‖2 + ‖�⃗� ‖2 −
2‖�⃗� ‖‖�⃗� ‖ cos 𝜃. Substituindo as normas ao quadrado obtemos: 
(𝑢1
2 − 2𝑢1𝑣1 + 𝑣1
2+ ⋯+ 𝑢𝑛
2 − 2𝑢𝑛𝑣𝑛 + 𝑣𝑛
2) = (𝑢1
2 + ⋯+ 𝑢𝑛
2) + (𝑣1
2 + ⋯+ 𝑣𝑛
2) + 2‖�⃗� ‖‖�⃗� ‖ cos 𝜃 
Cancelando os termos em ambos os lados, obtemos: ‖�⃗� ‖‖𝑣 ‖ cos 𝜃 = 𝑢1𝑣1 + 𝑢2𝑣2 + ⋯+ 𝑢𝑛𝑣𝑛 
g) Dados dois vetores �⃗� e �⃗� , definimos �⃗� × �⃗� ou �⃗� ∧ 𝑣 , como produto vetorial de �⃗� por �⃗� , como o vetor 
que seja ortogonal a �⃗� e �⃗� simultaneamente, ou seja 〈�⃗� , �⃗� × �⃗� 〉 = 〈𝑣,⃗⃗ �⃗� × �⃗� 〉 = 0, e o sentido do novo 
vetor �⃗� × �⃗� seja dado pela regra da mão direita. Propriedades: 
1) O produto vetorial não é comutativo, em particular o produto �⃗� × �⃗� = −�⃗� × �⃗� . 
2) O produto vetorial é nulo (vetor nulo) caso �⃗� 𝑒 �⃗� sejam múltiplos escalares. 
3) Definimos para um espaço tridimensional três vetores unitários, �̂� = (1,0,0), 𝑗̂ =
(0,1,0) 𝑒 �̂� = (0,0,1), onde �̂� × 𝑗̂ = �̂�, �̂� × �̂� = −𝑗̂, 𝑒 𝑗̂ × �̂� = 𝑖̂ (cíclico), de tal forma que 
qualquer vetor �⃗� = (𝑎, 𝑏, 𝑐) pode ser escrito como uma combinação linear de �̂� , 𝑗̂ 𝑒 �̂�. 
Sendo �⃗� = (𝑎, 𝑏, 𝑐) = 𝑎(1,0,0) + 𝑏(0,1,0) + 𝑐(0,0,1) 𝑙𝑜𝑔𝑜 �⃗� = 𝑎�̂� + 𝑏𝑗̂ + 𝑐�̂�, e assim 
podemos fazer o produto vetorial entre dois vetores usando a propriedade distributiva. 
Para �⃗� = (𝑑, 𝑒 , 𝑓), �⃗� × �⃗� = (𝑎�̂� + 𝑏𝑗̂ + 𝑐�̂�)(𝑑�̂� + 𝑒𝑗̂ + 𝑓�̂�), ou usando um artifício 
matemático �⃗� × �⃗� = 𝑑𝑒𝑡 (
�̂� 𝑗̂ �̂�
𝑢1 𝑢2 𝑢3
𝑣1 𝑣2 𝑣3
). 
4) A norma do produto vetorial �⃗� × �⃗� é dado por ‖�⃗� × �⃗� ‖ = ‖�⃗� ‖‖�⃗� ‖ sin 𝜃 e, graficamente, 
corresponde à área do paralelogramo formado pelos vetores �⃗� 𝑒 �⃗� . 
h) Dados três vetores �⃗� = (𝑢1, 𝑢2, 𝑢3), 𝑣 = (𝑣1, 𝑣2, 𝑣3) 𝑒 �⃗⃗� = (𝑤1, 𝑤2, 𝑤𝑛), definimos produto misto (�⃗� × 𝑣 ) ∙
�⃗⃗� como sendo um escalar resultado dessas operações, que simboliza a área do paralelepípedo gerado por 
esses três vetores. Ou seja, resolvendo primeiro o produto vetorial, obtemos o vetor: 
i) 
 (�⃗� × 𝑣 ) = 𝑖̂ ∙ det (
𝑢2 𝑢3
𝑣2 𝑣3
) − 𝑗̂ ∙ 𝑑𝑒𝑡 (
𝑢1 𝑢3
𝑣1 𝑣3
) + �̂� ∙ 𝑑𝑒𝑡 (
𝑢1 𝑢2
𝑣1 𝑣2
), fazendo então o produto interno: 
 
(�⃗� × 𝑣 ) ∙ �⃗⃗� = (det (
𝑢2 𝑢3
𝑣2 𝑣3
) ,−𝑑𝑒𝑡 (
𝑢1 𝑢3
𝑣1 𝑣3
) , 𝑑𝑒𝑡 (
𝑢1 𝑢2
𝑣1 𝑣2
)) ∙ (𝑤1, 𝑤2, 𝑤𝑛), obtemos: 
 
𝑤1 ∙ det (
𝑢2 𝑢3
𝑣2 𝑣3
) − 𝑤2 ∙ 𝑑𝑒𝑡 (
𝑢1 𝑢3
𝑣1 𝑣3
) + 𝑤3 ∙ 𝑑𝑒𝑡 (
𝑢1 𝑢2
𝑣1 𝑣2
), que pode ser simplificado por: 
 
(�⃗� × 𝑣 ) ∙ �⃗⃗� = 𝑑𝑒𝑡 (
𝑤1 𝑤2 𝑤3
𝑢1 𝑢2 𝑢3
𝑣1 𝑣2 𝑣3
) 
 
𝑉𝑜𝑙𝑢𝑚𝑒(ℙ𝑎𝑟𝑎𝑙𝑒𝑙𝑒𝑝í𝑝𝑒𝑑𝑜) = |(�⃗� × 𝑣 ) ∙ �⃗⃗� | 𝑞𝑢𝑒 𝑔𝑟𝑎𝑓𝑖𝑐𝑎𝑚𝑒𝑛𝑡𝑒 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑𝑒 𝑎 ‖�⃗� × 𝑣 ‖ ∙ ‖�⃗⃗� ‖ ∙ |cos 𝛾|
 em 𝛾 que é o ângulo entre �⃗� × �⃗� e �⃗⃗� .

Outros materiais