A maior rede de estudos do Brasil

Grátis
6 pág.
Matrizes completo (operações, propriedades, determinante, método de resolução de sistemas lineares) e vetores completo (operações e propriedades)

Pré-visualização | Página 1 de 3

Matrizes 
Operações com matrizes: 
SOMA - Só é possível somar duas (ou mais) matrizes de mesma dimensão 𝑚 𝑥 𝑛, onde se 𝐴 + 𝐵 = 𝐶, então 
𝑎𝑖𝑗 + 𝑏𝑖𝑗 = 𝑐𝑖𝑗. Propriedades satisfeitas: Comutatividade (𝐴 + 𝐵 = 𝐵 + 𝐴 ∶ pois tanto faz somar 𝑎𝑖𝑗 + 𝑏𝑖𝑗 quanto 
𝑏𝑖𝑗 + 𝑎𝑖𝑗, pois são meramente números, e a soma de números é comutativa; Associatividade (𝐴 + 𝐵) + 𝐶 = 𝐴 +
(𝐵 + 𝐶). 
 MATRIZ SIMÉTRICA - Uma matriz simétrica a 𝐴 é 𝐵 se somente se 𝐴 + 𝐵 = 0, logo 𝑏𝑖𝑗 = −𝑎𝑖𝑗. 
MULTIPLICAÇÃO POR ESCALAR - 𝛾. 𝐴 = 𝐵 onde todo 𝑏𝑖𝑗 = 𝛾 . 𝑎𝑖𝑗 (𝐴 𝑒 𝐵 são matrizes, e 𝛾 é escalar). 
TRANSPOSIÇÃO - Denotada por 𝐴𝑡 é a transposta de uma matriz 𝐵 se 𝑎𝑖𝑗 = 𝑏𝑗𝑖 para todo 𝑖 𝑒 𝑗. 
MULTIPLICAÇÃO DE MATRIZES - O produto de 𝐴𝑚 𝑥 𝑛 por 𝐵𝑛 𝑥 𝑟 é uma matriz 𝐶𝑚 𝑥 𝑟 tal que 𝑐𝑖,𝑗 =
∑ 𝑎𝑖𝑘. 𝑏𝑘𝑗
𝑛
𝑘=1 (A multiplicação de matrizes surge de problemas de composição de funções, onde estas podem 
sem escritas na forma de matriz, dessa forma a rigorosidade matemática do cálculo de multiplicações vem 
visando a obtenção de resultados equivalentes através de ambos os cálculos) 
𝑒𝑥𝑒𝑚𝑝𝑙𝑜: 𝑆𝑒𝑗𝑎𝑚 𝑑𝑢𝑎𝑠 𝑓𝑢𝑛çõ𝑒𝑠 𝑇(𝑥, 𝑦) = (𝑥, −𝑦) 𝑒 𝑆(𝑥, 𝑦) = (𝑦, 𝑥),
𝑇 ∘ 𝑆 (𝑥, 𝑦) = 𝑇 (𝑆 (𝑥, 𝑦)) = 𝑇(𝑦, 𝑥) = (𝑦, −𝑥) 
𝑇𝑟𝑎𝑛𝑠𝑓𝑜𝑟𝑚𝑎𝑛𝑑𝑜 𝑇 𝑒 𝑆 𝑒𝑚 𝑚𝑎𝑡𝑟𝑖𝑧𝑒𝑠: 𝑇(1,0) = (1,0) 𝑆(1,0) = (0,1) 
 𝑜𝑠 𝑟𝑒𝑢𝑙𝑡𝑎𝑑𝑜𝑠 "viram" 𝑐𝑜𝑙𝑢𝑛𝑎𝑠 𝑇(0,1) = (0, −1) 𝑆(0,1) = (1,0) 
𝐴𝑠𝑠𝑖𝑚 𝑎 𝑚𝑎𝑡𝑟𝑖𝑧 𝑎𝑠𝑠𝑜𝑐𝑖𝑎𝑑𝑎 à 𝑓𝑢𝑛çã𝑜 𝑇 é [𝑇] = (
1 0
0 −1
) 𝑒 𝑎 𝑆 é [𝑆] = (
0 1
1 0
) 
𝑃𝑜𝑟𝑡𝑎𝑛𝑡𝑜 [𝑇]. [𝑆] = 𝑇 ∘ 𝑆 = (
0 1
−1 0
) 
Por isso, multiplicação de duas matrizes não é comutativa, porque compor funções também não é (perceba 
que para duas dimensões (𝑥, 𝑦) o que fizemos foi utilizar o resultado dessa operação sobre uma matriz identidade de 
segunda ordem). 
𝑃𝑟𝑜𝑝𝑟𝑖𝑒𝑑𝑎𝑑𝑒𝑠 𝑒 𝑑𝑒𝑚𝑜𝑛𝑠𝑡𝑟𝑎çã𝑜: 
𝐴𝑡 + 𝐵𝑡 = (𝐴 + 𝐵)𝑡 
 
(𝐴 + 𝐵) = 𝐶 (𝑜𝑛𝑑𝑒 𝑐𝑖𝑗 = 𝑎𝑖𝑗 + 𝑏𝑖𝑗) . : (𝐴 + 𝐵)
𝑡 = 𝐶𝑡 = 𝐷( 𝑜𝑛𝑑𝑒 𝑑𝑖𝑗 = 𝑐𝑗𝑖 = 𝑎𝑗𝑖 + 𝑏𝑗𝑖) 
𝑒 𝑠𝑎𝑏𝑒𝑛𝑑𝑜 𝑞𝑢𝑒 𝐴𝑡 + 𝐵𝑡 = 𝐸 (𝑜𝑛𝑑𝑒 𝑒𝑖𝑗 = 𝑎𝑗𝑖 + 𝑏𝑗𝑖) 𝑝𝑜𝑟𝑡𝑎𝑛𝑡𝑜 𝐴
𝑡 + 𝐵𝑡 = (𝐴 + 𝐵)𝑡 
 
(𝐴𝐵)𝑡 = 𝐵𝑡𝐴𝑡 
𝑆𝑒 𝐶 = 𝐴𝐵 𝑒𝑛𝑡ã𝑜 𝑐𝑖,𝑗 = ∑ 𝑎𝑖,𝑘𝑏𝑘,𝑗
𝑛
𝑘=1
 𝑒 𝐷 = 𝐶𝑡 𝑒𝑛𝑡ã𝑜 𝑑𝑖,𝑗 = ∑ 𝑎𝑘,𝑖𝑏𝑗,𝑘
𝑛
𝑘=1
 
 𝐸 𝑠𝑒 𝐵𝑡𝐴𝑡 = 𝐸 𝑒𝑛𝑡ã𝑜 𝑒𝑖,𝑗 = ∑ 𝑏𝑗,𝑘𝑎𝑘,𝑖
𝑛
𝑘=1 . : 𝐷 = 𝐸 .: (𝐴𝐵)
𝑡 = 𝐵𝑡𝐴𝑡 
 
(𝐴 + 𝐵)2 = 𝐴2 + 𝐴𝐵 + 𝐵𝐴 + 𝐵2 ≠ 𝐴2 + 2𝐴𝐵 + 𝐵2 e (𝐴 + 𝐵)(𝐴 − 𝐵) = 𝐴2 − 𝐴𝐵 + 𝐵𝐴 − 𝐵2 ≠ 𝐴2 − 𝐵2 
(𝐷𝑒𝑣𝑖𝑑𝑜 à 𝑎𝑢𝑠ê𝑛𝑐𝑖𝑎 𝑑𝑒 𝑐𝑜𝑚𝑢𝑡𝑎𝑡𝑖𝑣𝑖𝑑𝑎𝑑𝑒) 
É dito posto de uma matriz, o número de variáveis pivô, ou ordem da maior submatriz presente no sistema 
𝑚 × 𝑛 tal que o determinante é não-nulo. 
Sistemas Lineares 
 O uso de matrizes é usado ao máximo quando se trata de resolução de conjunto de equações lineares. 
Podemos reescrever um conjunto de equações lineares em formato matricial 𝐴𝑋 = 𝐵 
𝑜𝑛𝑑𝑒 𝐴𝑚𝑥𝑛 é 𝑎 𝑚𝑎𝑡𝑟𝑖𝑧 𝑑𝑜𝑠 𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒𝑠 𝑟𝑒𝑎𝑖𝑠, 𝑋𝑛𝑥1 é 𝑜 𝑣𝑒𝑡𝑜𝑟 𝑑𝑎𝑠 𝑣𝑎𝑟𝑖á𝑣𝑒𝑖𝑠 𝑒 
𝐵𝑚𝑥1 é 𝑜 𝑣𝑒𝑡𝑜𝑟 𝑑𝑜𝑠 𝑡𝑒𝑟𝑚𝑜𝑠 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑒𝑛𝑡𝑒𝑠 
 A fim de se obter uma matriz diagonal ou triangular superior ou ainda escalonada, que é mais facilmente 
resolvida através da metodologia matemática, faremos operações sobre as linhas da matriz aumentada [𝐴|𝐵], 
operações estas denominadas elementares. 
 Estão enquadradas com operações elementares operações como: troca de ordem das linhas (𝑒𝑥: 𝐿3 ↔ 𝐿2), 
multiplicação da linha por um escalar não nulo (𝑒𝑥: 𝐿3 ← 3𝐿3), trocar uma linha pela soma desta linha com a outra 
(𝑒𝑥: 𝐿3 ← 𝐿3 − 3𝐿2). 
 Teorema Sejam 𝐴. 𝑋 = 𝐵 𝑒 𝐶. 𝑋 = 𝐷 dois sistemas lineares tais que a matriz aumentada [C|D] é obtida de 
[A|B] por meio de operações elementares. Então os dois sistemas são equivalentes e apresentam as mesmas soluções. 
Método de Gauss-Jordan 
Método que objetiva levar a matriz à forma de matriz escalonada reduzida. Uma matriz é dita escalonada 
reduzida se satisfaz: 
1. Todas as linhas nulas de A ocorrem abaixo das linhas não nulas. 
2. O pivô (primeiro elemento não nulo de cada linha) deve ser igual a 1. 
3. O pivô de uma linha sempre está a direita do pivô da linha anterior. 
4. Se uma coluna contém um pivô, então todos os outros elementos dessa coluna são nulos. Neste método, 
escalonamos [𝐴|𝐵] até encontrarmos os valores individuais de cada incógnita. 
Observações: Caso ao escalonar a matriz, nos deparemos com uma linha da matriz dos coeficientes nulas e 
dos termos independentes não-nulo, tal sistema não apresenta solução. Caso exista uma linha inteiramente com 
termos nulos, o sistema admite infinitas soluções. Um sistema linear e homogêneo, por apresentar o vetor dos termos 
independentes iguais a zero, sempre apresentará solução (uma ou infinitas) então. 𝐴𝑋 = 0 
Teorema Considere um sistema linear 𝐴𝑋 = 𝐵, se 𝑋0 𝑒 𝑋1 são soluções distintas do sistema, ou seja, 𝐴𝑋0 = 𝐵 
e 𝐴𝑋1 = 𝐵, com 𝑋0 ≠ 𝑋1, então o sistema admite um número infinito de soluções. 
Prova: Se existem 𝑋0 𝑒 𝑋1como soluções diferentes, podemos encontrar infinitas combinações dessas duas 
soluções. 𝐴( 𝛼𝑋0 + (1 − 𝛼)𝑋1) = 𝛼𝐴𝑋0 + (1 − 𝛼)𝑋1 . : 𝛼𝐵 + (1 − 𝛼)𝐵 = 𝐵 para todo 0 ≤ α ≤ 1. 
Sistemas Homogêneos 
Teorema Seja 𝐴 = (𝑎𝑖,𝑗)𝑚 𝑥 𝑛 𝑐𝑜𝑚 𝑚 < 𝑛 então o sistema linear homogêneo 𝐴𝑋 = 0 tem infinitas soluções. 
Propriedades: Se 𝑋0 é solução do sistema, então α𝑋𝑜 também é. 
Matriz Elementar 
 Uma matriz elementar 𝐸𝑛 𝑥 𝑛 é uma matriz identidade 𝐼𝑛, sobre a qual foi realizada uma única operação 
elementar. Notação: 
 𝐸𝑖𝑗 → Matriz obtida permutando as linhas 𝑖 𝑒 𝑗 da matriz identidade; 
 𝐸𝑖(𝛼) → Matriz obtida multiplicando-se a i-ésima linha da matriz identidade pelo escalar α. 
 𝐸𝑖𝑗 (𝛼) → Matriz obtida trocando a j-ésima linha, pela soma da j-ésima linha pela multiplicação da i-ésima 
linha pelo escalar α. 
 Teorema Seja 𝐸𝑛 𝑥 𝑛 uma matriz elementar e 𝐴𝑛 𝑥 𝑛 uma matriz qualquer. Então a matriz 𝐸𝐴 é igual a matriz 
obtida realizando em 𝐴𝑛 𝑥 𝑛 a mesma operação elementar que define a matriz 𝐸𝑛 𝑥 𝑛. 
Matriz Inversa 
 Uma matriz quadrada 𝐴𝑛 𝑥 𝑛 é dita invertível caso exista uma matriz 𝐵𝑛 𝑥 𝑛 tal que satisfaça 𝐴𝐵 = 𝐵𝐴 = 𝐼 𝑛. 
Neste caso 𝐵 é denotada por 𝐴−1 e dita inversa de 𝐴. Caso não exista tal matriz 𝐵, 𝐴 é dita não-invertível ou singular. 
 Teorema Sejam duas matrizes 𝐴 𝑒 𝐵 𝑛 𝑥 𝑛. Se 𝐴𝐵 = 𝐼, então 𝐵𝐴 = 𝐼. 
 Teorema Seja 𝐴𝑛 𝑥 𝑛, se A é invertível, a inversa dessa matriz é única. Prova: Suponha que 𝐴𝐵 = 𝐵𝐴 =
𝐼 𝑒 𝐴𝐶 = 𝐶𝐴 = 𝐼, e também, 𝐶 = 𝐶𝐼 , logo, substituindo 𝐼 temos, 𝐶 = 𝐶𝐴𝐵 . : 𝐶 = 𝐼𝐵 portanto 𝐶 = 𝐵. 
Propriedades: 
((𝐴)−1)−1 = 𝐴 (𝐴𝑡)−1 = (𝐴−1)𝑡 (𝐴−1)−1 = 𝐴 . ∶ 𝐴𝑡(𝐴−1)𝑡 = ((𝐴−1)𝐴)𝑡 = 𝐼 (𝐴𝐵)−1 = 𝐵−1𝐴−1 
𝑆𝑒 𝐴𝑥 = 0, 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑛 > 𝑥 𝑒𝑠𝑠𝑒 𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜 𝑡𝑎𝑚𝑏é𝑚 𝑠𝑒𝑟á 𝑣á𝑙𝑖𝑑𝑜, 𝑒 𝑑𝑒𝑠𝑠𝑎 𝑓𝑜𝑟𝑚𝑎 𝑝𝑜𝑑𝑒𝑚𝑜𝑠 
𝑑𝑒𝑠𝑐𝑟𝑒𝑣ê − 𝑙𝑜 𝑛𝑜 𝑓𝑜𝑟𝑚𝑎𝑡𝑜 𝑝𝑜𝑙𝑖𝑛𝑜𝑚𝑖𝑎𝑙 𝐼 − 𝐴𝑛 = (𝐼 − 𝐴)(1 + 𝐴 + 𝐴2 . . . 𝐴𝑛−1) 
 Toda matriz elementar é invertível, em particular: 
 𝑎) 𝐸𝑖𝑗
−1 = 𝐸𝑗𝑖 = 𝐸𝑖𝑗 𝑏)𝐸𝑖(𝛼)
−1 = 𝐸𝑖 (
1
𝛼
) 𝑐)𝐸𝑖𝑗(𝛼)
−1 = 𝐸𝑗𝑖(−𝛼) 
 Teorema Seja 𝐴𝑛 𝑥 𝑛, é equivalente dizer, e implicam uma na outra: 
a) Existe uma matriz 𝐵𝑛 𝑥 𝑛 tal que 𝐵𝐴 = 𝐼; 
b) 𝐴 é linha equivalente a 𝐼; 
c) 𝐴 é invertível. 
Prova: 𝑎) ⇒ 𝑐) 
𝑆𝑢𝑝𝑜𝑛ℎ𝑎 𝑞𝑢𝑒 𝐴𝑋 = 0 𝑠ó 𝑡𝑒𝑛ℎ𝑎 𝑎 𝑠𝑜𝑙𝑢çã𝑜 𝑛𝑢𝑙𝑎. 𝑆𝑒 𝐴𝑋 = 0, 𝑒𝑛𝑡ã𝑜 𝑋 = 𝐼𝑋 = 𝐵𝐴𝑋 = 𝐵. 0 = 0, 
 𝑙𝑜𝑔𝑜 𝑋 = 0, 𝑑𝑒𝑚𝑜𝑛𝑠𝑡𝑟𝑎𝑛𝑑𝑜 𝑞𝑢𝑒 𝑎 ú𝑛𝑖𝑐𝑎 𝑝𝑜𝑠𝑠𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑𝑒 𝑝𝑎𝑟𝑎 𝑜 𝑋