Baixe o app para aproveitar ainda mais
Prévia do material em texto
Matrizes Operações com matrizes: SOMA - Só é possível somar duas (ou mais) matrizes de mesma dimensão 𝑚 𝑥 𝑛, onde se 𝐴 + 𝐵 = 𝐶, então 𝑎𝑖𝑗 + 𝑏𝑖𝑗 = 𝑐𝑖𝑗. Propriedades satisfeitas: Comutatividade (𝐴 + 𝐵 = 𝐵 + 𝐴 ∶ pois tanto faz somar 𝑎𝑖𝑗 + 𝑏𝑖𝑗 quanto 𝑏𝑖𝑗 + 𝑎𝑖𝑗, pois são meramente números, e a soma de números é comutativa; Associatividade (𝐴 + 𝐵) + 𝐶 = 𝐴 + (𝐵 + 𝐶). MATRIZ SIMÉTRICA - Uma matriz simétrica a 𝐴 é 𝐵 se somente se 𝐴 + 𝐵 = 0, logo 𝑏𝑖𝑗 = −𝑎𝑖𝑗. MULTIPLICAÇÃO POR ESCALAR - 𝛾. 𝐴 = 𝐵 onde todo 𝑏𝑖𝑗 = 𝛾 . 𝑎𝑖𝑗 (𝐴 𝑒 𝐵 são matrizes, e 𝛾 é escalar). TRANSPOSIÇÃO - Denotada por 𝐴𝑡 é a transposta de uma matriz 𝐵 se 𝑎𝑖𝑗 = 𝑏𝑗𝑖 para todo 𝑖 𝑒 𝑗. MULTIPLICAÇÃO DE MATRIZES - O produto de 𝐴𝑚 𝑥 𝑛 por 𝐵𝑛 𝑥 𝑟 é uma matriz 𝐶𝑚 𝑥 𝑟 tal que 𝑐𝑖,𝑗 = ∑ 𝑎𝑖𝑘. 𝑏𝑘𝑗 𝑛 𝑘=1 (A multiplicação de matrizes surge de problemas de composição de funções, onde estas podem sem escritas na forma de matriz, dessa forma a rigorosidade matemática do cálculo de multiplicações vem visando a obtenção de resultados equivalentes através de ambos os cálculos) 𝑒𝑥𝑒𝑚𝑝𝑙𝑜: 𝑆𝑒𝑗𝑎𝑚 𝑑𝑢𝑎𝑠 𝑓𝑢𝑛çõ𝑒𝑠 𝑇(𝑥, 𝑦) = (𝑥, −𝑦) 𝑒 𝑆(𝑥, 𝑦) = (𝑦, 𝑥), 𝑇 ∘ 𝑆 (𝑥, 𝑦) = 𝑇 (𝑆 (𝑥, 𝑦)) = 𝑇(𝑦, 𝑥) = (𝑦, −𝑥) 𝑇𝑟𝑎𝑛𝑠𝑓𝑜𝑟𝑚𝑎𝑛𝑑𝑜 𝑇 𝑒 𝑆 𝑒𝑚 𝑚𝑎𝑡𝑟𝑖𝑧𝑒𝑠: 𝑇(1,0) = (1,0) 𝑆(1,0) = (0,1) 𝑜𝑠 𝑟𝑒𝑢𝑙𝑡𝑎𝑑𝑜𝑠 "viram" 𝑐𝑜𝑙𝑢𝑛𝑎𝑠 𝑇(0,1) = (0, −1) 𝑆(0,1) = (1,0) 𝐴𝑠𝑠𝑖𝑚 𝑎 𝑚𝑎𝑡𝑟𝑖𝑧 𝑎𝑠𝑠𝑜𝑐𝑖𝑎𝑑𝑎 à 𝑓𝑢𝑛çã𝑜 𝑇 é [𝑇] = ( 1 0 0 −1 ) 𝑒 𝑎 𝑆 é [𝑆] = ( 0 1 1 0 ) 𝑃𝑜𝑟𝑡𝑎𝑛𝑡𝑜 [𝑇]. [𝑆] = 𝑇 ∘ 𝑆 = ( 0 1 −1 0 ) Por isso, multiplicação de duas matrizes não é comutativa, porque compor funções também não é (perceba que para duas dimensões (𝑥, 𝑦) o que fizemos foi utilizar o resultado dessa operação sobre uma matriz identidade de segunda ordem). 𝑃𝑟𝑜𝑝𝑟𝑖𝑒𝑑𝑎𝑑𝑒𝑠 𝑒 𝑑𝑒𝑚𝑜𝑛𝑠𝑡𝑟𝑎çã𝑜: 𝐴𝑡 + 𝐵𝑡 = (𝐴 + 𝐵)𝑡 (𝐴 + 𝐵) = 𝐶 (𝑜𝑛𝑑𝑒 𝑐𝑖𝑗 = 𝑎𝑖𝑗 + 𝑏𝑖𝑗) . : (𝐴 + 𝐵) 𝑡 = 𝐶𝑡 = 𝐷( 𝑜𝑛𝑑𝑒 𝑑𝑖𝑗 = 𝑐𝑗𝑖 = 𝑎𝑗𝑖 + 𝑏𝑗𝑖) 𝑒 𝑠𝑎𝑏𝑒𝑛𝑑𝑜 𝑞𝑢𝑒 𝐴𝑡 + 𝐵𝑡 = 𝐸 (𝑜𝑛𝑑𝑒 𝑒𝑖𝑗 = 𝑎𝑗𝑖 + 𝑏𝑗𝑖) 𝑝𝑜𝑟𝑡𝑎𝑛𝑡𝑜 𝐴 𝑡 + 𝐵𝑡 = (𝐴 + 𝐵)𝑡 (𝐴𝐵)𝑡 = 𝐵𝑡𝐴𝑡 𝑆𝑒 𝐶 = 𝐴𝐵 𝑒𝑛𝑡ã𝑜 𝑐𝑖,𝑗 = ∑ 𝑎𝑖,𝑘𝑏𝑘,𝑗 𝑛 𝑘=1 𝑒 𝐷 = 𝐶𝑡 𝑒𝑛𝑡ã𝑜 𝑑𝑖,𝑗 = ∑ 𝑎𝑘,𝑖𝑏𝑗,𝑘 𝑛 𝑘=1 𝐸 𝑠𝑒 𝐵𝑡𝐴𝑡 = 𝐸 𝑒𝑛𝑡ã𝑜 𝑒𝑖,𝑗 = ∑ 𝑏𝑗,𝑘𝑎𝑘,𝑖 𝑛 𝑘=1 . : 𝐷 = 𝐸 .: (𝐴𝐵) 𝑡 = 𝐵𝑡𝐴𝑡 (𝐴 + 𝐵)2 = 𝐴2 + 𝐴𝐵 + 𝐵𝐴 + 𝐵2 ≠ 𝐴2 + 2𝐴𝐵 + 𝐵2 e (𝐴 + 𝐵)(𝐴 − 𝐵) = 𝐴2 − 𝐴𝐵 + 𝐵𝐴 − 𝐵2 ≠ 𝐴2 − 𝐵2 (𝐷𝑒𝑣𝑖𝑑𝑜 à 𝑎𝑢𝑠ê𝑛𝑐𝑖𝑎 𝑑𝑒 𝑐𝑜𝑚𝑢𝑡𝑎𝑡𝑖𝑣𝑖𝑑𝑎𝑑𝑒) É dito posto de uma matriz, o número de variáveis pivô, ou ordem da maior submatriz presente no sistema 𝑚 × 𝑛 tal que o determinante é não-nulo. Sistemas Lineares O uso de matrizes é usado ao máximo quando se trata de resolução de conjunto de equações lineares. Podemos reescrever um conjunto de equações lineares em formato matricial 𝐴𝑋 = 𝐵 𝑜𝑛𝑑𝑒 𝐴𝑚𝑥𝑛 é 𝑎 𝑚𝑎𝑡𝑟𝑖𝑧 𝑑𝑜𝑠 𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒𝑠 𝑟𝑒𝑎𝑖𝑠, 𝑋𝑛𝑥1 é 𝑜 𝑣𝑒𝑡𝑜𝑟 𝑑𝑎𝑠 𝑣𝑎𝑟𝑖á𝑣𝑒𝑖𝑠 𝑒 𝐵𝑚𝑥1 é 𝑜 𝑣𝑒𝑡𝑜𝑟 𝑑𝑜𝑠 𝑡𝑒𝑟𝑚𝑜𝑠 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑒𝑛𝑡𝑒𝑠 A fim de se obter uma matriz diagonal ou triangular superior ou ainda escalonada, que é mais facilmente resolvida através da metodologia matemática, faremos operações sobre as linhas da matriz aumentada [𝐴|𝐵], operações estas denominadas elementares. Estão enquadradas com operações elementares operações como: troca de ordem das linhas (𝑒𝑥: 𝐿3 ↔ 𝐿2), multiplicação da linha por um escalar não nulo (𝑒𝑥: 𝐿3 ← 3𝐿3), trocar uma linha pela soma desta linha com a outra (𝑒𝑥: 𝐿3 ← 𝐿3 − 3𝐿2). Teorema Sejam 𝐴. 𝑋 = 𝐵 𝑒 𝐶. 𝑋 = 𝐷 dois sistemas lineares tais que a matriz aumentada [C|D] é obtida de [A|B] por meio de operações elementares. Então os dois sistemas são equivalentes e apresentam as mesmas soluções. Método de Gauss-Jordan Método que objetiva levar a matriz à forma de matriz escalonada reduzida. Uma matriz é dita escalonada reduzida se satisfaz: 1. Todas as linhas nulas de A ocorrem abaixo das linhas não nulas. 2. O pivô (primeiro elemento não nulo de cada linha) deve ser igual a 1. 3. O pivô de uma linha sempre está a direita do pivô da linha anterior. 4. Se uma coluna contém um pivô, então todos os outros elementos dessa coluna são nulos. Neste método, escalonamos [𝐴|𝐵] até encontrarmos os valores individuais de cada incógnita. Observações: Caso ao escalonar a matriz, nos deparemos com uma linha da matriz dos coeficientes nulas e dos termos independentes não-nulo, tal sistema não apresenta solução. Caso exista uma linha inteiramente com termos nulos, o sistema admite infinitas soluções. Um sistema linear e homogêneo, por apresentar o vetor dos termos independentes iguais a zero, sempre apresentará solução (uma ou infinitas) então. 𝐴𝑋 = 0 Teorema Considere um sistema linear 𝐴𝑋 = 𝐵, se 𝑋0 𝑒 𝑋1 são soluções distintas do sistema, ou seja, 𝐴𝑋0 = 𝐵 e 𝐴𝑋1 = 𝐵, com 𝑋0 ≠ 𝑋1, então o sistema admite um número infinito de soluções. Prova: Se existem 𝑋0 𝑒 𝑋1como soluções diferentes, podemos encontrar infinitas combinações dessas duas soluções. 𝐴( 𝛼𝑋0 + (1 − 𝛼)𝑋1) = 𝛼𝐴𝑋0 + (1 − 𝛼)𝑋1 . : 𝛼𝐵 + (1 − 𝛼)𝐵 = 𝐵 para todo 0 ≤ α ≤ 1. Sistemas Homogêneos Teorema Seja 𝐴 = (𝑎𝑖,𝑗)𝑚 𝑥 𝑛 𝑐𝑜𝑚 𝑚 < 𝑛 então o sistema linear homogêneo 𝐴𝑋 = 0 tem infinitas soluções. Propriedades: Se 𝑋0 é solução do sistema, então α𝑋𝑜 também é. Matriz Elementar Uma matriz elementar 𝐸𝑛 𝑥 𝑛 é uma matriz identidade 𝐼𝑛, sobre a qual foi realizada uma única operação elementar. Notação: 𝐸𝑖𝑗 → Matriz obtida permutando as linhas 𝑖 𝑒 𝑗 da matriz identidade; 𝐸𝑖(𝛼) → Matriz obtida multiplicando-se a i-ésima linha da matriz identidade pelo escalar α. 𝐸𝑖𝑗 (𝛼) → Matriz obtida trocando a j-ésima linha, pela soma da j-ésima linha pela multiplicação da i-ésima linha pelo escalar α. Teorema Seja 𝐸𝑛 𝑥 𝑛 uma matriz elementar e 𝐴𝑛 𝑥 𝑛 uma matriz qualquer. Então a matriz 𝐸𝐴 é igual a matriz obtida realizando em 𝐴𝑛 𝑥 𝑛 a mesma operação elementar que define a matriz 𝐸𝑛 𝑥 𝑛. Matriz Inversa Uma matriz quadrada 𝐴𝑛 𝑥 𝑛 é dita invertível caso exista uma matriz 𝐵𝑛 𝑥 𝑛 tal que satisfaça 𝐴𝐵 = 𝐵𝐴 = 𝐼 𝑛. Neste caso 𝐵 é denotada por 𝐴−1 e dita inversa de 𝐴. Caso não exista tal matriz 𝐵, 𝐴 é dita não-invertível ou singular. Teorema Sejam duas matrizes 𝐴 𝑒 𝐵 𝑛 𝑥 𝑛. Se 𝐴𝐵 = 𝐼, então 𝐵𝐴 = 𝐼. Teorema Seja 𝐴𝑛 𝑥 𝑛, se A é invertível, a inversa dessa matriz é única. Prova: Suponha que 𝐴𝐵 = 𝐵𝐴 = 𝐼 𝑒 𝐴𝐶 = 𝐶𝐴 = 𝐼, e também, 𝐶 = 𝐶𝐼 , logo, substituindo 𝐼 temos, 𝐶 = 𝐶𝐴𝐵 . : 𝐶 = 𝐼𝐵 portanto 𝐶 = 𝐵. Propriedades: ((𝐴)−1)−1 = 𝐴 (𝐴𝑡)−1 = (𝐴−1)𝑡 (𝐴−1)−1 = 𝐴 . ∶ 𝐴𝑡(𝐴−1)𝑡 = ((𝐴−1)𝐴)𝑡 = 𝐼 (𝐴𝐵)−1 = 𝐵−1𝐴−1 𝑆𝑒 𝐴𝑥 = 0, 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑛 > 𝑥 𝑒𝑠𝑠𝑒 𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜 𝑡𝑎𝑚𝑏é𝑚 𝑠𝑒𝑟á 𝑣á𝑙𝑖𝑑𝑜, 𝑒 𝑑𝑒𝑠𝑠𝑎 𝑓𝑜𝑟𝑚𝑎 𝑝𝑜𝑑𝑒𝑚𝑜𝑠 𝑑𝑒𝑠𝑐𝑟𝑒𝑣ê − 𝑙𝑜 𝑛𝑜 𝑓𝑜𝑟𝑚𝑎𝑡𝑜 𝑝𝑜𝑙𝑖𝑛𝑜𝑚𝑖𝑎𝑙 𝐼 − 𝐴𝑛 = (𝐼 − 𝐴)(1 + 𝐴 + 𝐴2 . . . 𝐴𝑛−1) Toda matriz elementar é invertível, em particular: 𝑎) 𝐸𝑖𝑗 −1 = 𝐸𝑗𝑖 = 𝐸𝑖𝑗 𝑏)𝐸𝑖(𝛼) −1 = 𝐸𝑖 ( 1 𝛼 ) 𝑐)𝐸𝑖𝑗(𝛼) −1 = 𝐸𝑗𝑖(−𝛼) Teorema Seja 𝐴𝑛 𝑥 𝑛, é equivalente dizer, e implicam uma na outra: a) Existe uma matriz 𝐵𝑛 𝑥 𝑛 tal que 𝐵𝐴 = 𝐼; b) 𝐴 é linha equivalente a 𝐼; c) 𝐴 é invertível. Prova: 𝑎) ⇒ 𝑐) 𝑆𝑢𝑝𝑜𝑛ℎ𝑎 𝑞𝑢𝑒 𝐴𝑋 = 0 𝑠ó 𝑡𝑒𝑛ℎ𝑎 𝑎 𝑠𝑜𝑙𝑢çã𝑜 𝑛𝑢𝑙𝑎. 𝑆𝑒 𝐴𝑋 = 0, 𝑒𝑛𝑡ã𝑜 𝑋 = 𝐼𝑋 = 𝐵𝐴𝑋 = 𝐵. 0 = 0, 𝑙𝑜𝑔𝑜 𝑋 = 0, 𝑑𝑒𝑚𝑜𝑛𝑠𝑡𝑟𝑎𝑛𝑑𝑜 𝑞𝑢𝑒 𝑎 ú𝑛𝑖𝑐𝑎 𝑝𝑜𝑠𝑠𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑𝑒 𝑝𝑎𝑟𝑎 𝑜 𝑋é 𝑠𝑒𝑟 𝑛𝑢𝑙𝑜. Assim, ao provarmos a unicidade da solução, demonstramos que 𝐴 é linha equivalente a 𝐼, pois ao realizarmos as 𝑚 operações elementares sobre a matriz 𝐴, obtemos 𝐼 (sem linha nula, portanto sem variável livre). 𝑏) ⇒ 𝑐) 𝑆𝑒 𝐴 é 𝑙𝑖𝑛ℎ𝑎 𝑒𝑞𝑢𝑖𝑣𝑎𝑙𝑒𝑛𝑡𝑒 𝑎 𝐼, 𝑒𝑛𝑡ã𝑜 𝑒𝑥𝑖𝑠𝑡𝑒𝑚 𝑘 𝑚𝑎𝑡𝑟𝑖𝑧𝑒𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑎𝑟𝑒𝑠 𝑡𝑎𝑖𝑠 𝑞𝑢𝑒 𝐸𝑘 … 𝐸1𝐴 = 𝐼 Então, ao multiplicar à esquerda pelas inversas das matrizes elementares obtemos: … (𝐸𝑘) −1𝐸𝑘𝐸𝑘−1 …𝐸1𝐴 = (𝐸𝑘) −1𝐼 𝑎𝑠𝑠𝑖𝑚 𝑠𝑢𝑐𝑒𝑠𝑠𝑖𝑣𝑎𝑚𝑒𝑛𝑡𝑒 𝑎𝑡é 𝐴 = (𝐸1) −1(𝐸2) −1 … (𝐸𝑘) −1 Assim, como todas as matrizes elementares são invertíveis, seu produto também é e corresponde á: 𝐴−1 = ((𝐸1) −1(𝐸2) −1 …(𝐸𝑘) −1)−1 𝑞𝑢𝑒 𝑠𝑎𝑏𝑒𝑚𝑜𝑠 𝑞𝑢𝑒 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑𝑒 à 𝐴−1 = 𝐸𝑘 … 𝐸2𝐸1𝐼, 𝑙𝑜𝑔𝑜 𝑛ã𝑜 𝑠ó 𝑝𝑟𝑜𝑣𝑎𝑚𝑜𝑠 𝑞𝑢𝑒 𝐴 é 𝑖𝑛𝑣𝑒𝑟𝑡í𝑣𝑒𝑙 𝑐𝑜𝑚𝑜 𝑡𝑎𝑚𝑏𝑒𝑚 𝑎𝑐ℎ𝑎𝑚𝑜𝑠 𝐴 −1 𝑐) ⇒ 𝑎) Se 𝐴 é invertível e sua inversa é dada por 𝐸𝑘 … 𝐸2𝐸1𝐼, 𝐵 = 𝐴 −1. Portanto, um método de se encontrar a matriz inversa 𝐴−1 é montar a matriz aumentada [𝐴|𝐼] e sobre ela aplicar as operações elementares obtendo [𝐸|𝐵], onde 𝐸 é uma matriz na forma escalonada reduzida, tal que se 𝐸 = 𝐼, então 𝐵 = 𝐴−1, obtendo portando [𝐼|𝐴−1]. Caso 𝐸 ≠ 𝐼, então 𝐴 é uma matriz singular (não admite inversa). Teorema O sistema 𝐴𝑋 = 𝐵 tem solução única se, e somente se, 𝐴 for invertível. E então, a solução do sistema é igual a 𝑋 = 𝐴−1𝐵. Teorema O sistema homogêneo 𝐴𝑋 = 0 tem solução única se, e somente se, 𝐴 for invertível. E então, a solução do sistema é igual a 𝑋 = 0. Teorema Se uma matriz invertível é resultado da multiplicação de outras 𝑛 matrizes, então todas as 𝑛 matrizes também são invertíveis. Prova: Seja 𝐴 𝑒 𝐵 matrizes 𝑛 𝑥 𝑛. Em particular, se 𝐴𝐵 é invertível, então 𝐴 𝑒 𝐵 também são. Considerando o sistema 𝐴𝐵𝑋 = 0, supomos que B não seja invertível. Então significa que o sistema 𝐵𝑋 = 0 não tem solução única, e em particular 𝑋0 ≠ 0 é solução do sistema. Assim 𝐵𝑋0 = 0, multiplicando por A, obtemos (𝐴𝐵)𝑋0 = 0, o que é impossível, uma vez que 𝐴𝐵 admite inversa, e, portanto, esse sistema só pode admitir solução única. Logo, B não pode ser singular. Para provar que A também é invertível fazemos: 𝐴 = 𝐴𝐼 = 𝐴(𝐵𝐵−1) = (𝐴𝐵)𝐵−1 mostrando que A é um produto de duas matrizes invertíveis, portanto, também invertível. Um dispositivo prático, utilizado quando não precisamos de todas as entradas da matriz inversa é o seguinte: 𝐴− = 1 det𝐴 ∙ 𝐶𝑜𝑓𝑡 Resolução de Sistemas Lineares Considere o sistema homogêneo associado ao sistema de equações (matriz de Vandermonde) que buscamos a interpolação polinomial. [ 1 ⋯ 𝑥1 𝑛−1 ⋮ ⋱ ⋮ 1 ⋯ 𝑥𝑛 𝑛−1 ] [ 𝑎0 ⋮ 𝑎𝑛−1 ] = [ 𝑦0 ⋮ 𝑦𝑛−1 ] Tal sistema tem solução única, pois a única solução do sistema homogêneo é nula, uma vez que um polinômio de 𝑛 − 1 grau tem no máximo 𝑛 − 1 raízes, forçando a matriz dos coeficientes ser invertível, pois a matriz nula do sistema homogêneo é 𝑛 𝑥 1. Desde que 𝑥𝑖 ≠ 𝑥𝑗 , 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑖 ≠ 𝑗. Dica: Em geral, uma boa forma de provar algo é supor o inverso daquilo e utilizar operações matemáticas aplicáveis a fim de encontrar um absurdo. Determinante O determinante de uma matriz 𝐴𝑛 𝑥 𝑛é dado de forma recursiva por meio de uma matriz Ã(𝑛−1)𝑥(n−1), desde que 𝑛 ≠ 1, pois, caso 𝑛 = 1, então 𝑑𝑒𝑡(𝐴) = 𝑎11. A expansão do determinante em cofatores pode ser feita utilizando qualquer linha, em particular a que contiver mais zeros, ou seja: det(𝐴) = ∑𝑎𝑖,𝑗ã𝑖,𝑗 𝑛 𝑗=1 ∀𝑖 ∈ {1,2… 𝑛} 𝑒𝑚 𝑞𝑢𝑒 ã𝑖,𝑗 = (−1) 𝑖+𝑗 det(Ã𝑖,𝑗) é 𝑜 𝑐𝑜𝑓𝑎𝑡𝑜𝑟 𝑑𝑜 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜 ã𝑖,𝑗 𝑒 Ã𝑖,𝑗 é 𝑎 𝑚𝑎𝑡𝑟𝑖𝑧 (𝑛 − 1)𝑥(𝑛 − 1) 𝑑𝑎𝑑𝑎 𝑝𝑒𝑙𝑎 𝑒𝑥𝑐𝑙𝑢𝑠ã𝑜 𝑑𝑎 𝑙𝑖𝑛ℎ𝑎 𝑖 𝑒 𝑑𝑎 𝑐𝑜𝑙𝑢𝑛𝑎 𝑗 𝑑𝑎 𝑚𝑎𝑡𝑟𝑖𝑧 𝑜𝑟𝑖𝑔𝑖𝑛𝑎𝑙 𝐴. Propriedades do determinante: a) 𝐷𝑒𝑡(𝐴𝐵) = 𝑑𝑒𝑡(𝐴). 𝑑𝑒𝑡(𝐵) b) 𝑆𝑒 𝐴𝐵 = 𝐶, 𝑒𝑛𝑡ã𝑜 det(𝐴) . det(𝐵) = det(𝐶). Portanto, em particular, det(𝐴) . det(𝐴−) = det (𝐼), então se 𝑑𝑒𝑡(𝐴) ≠ 0, det(𝐴−) = 1 det(𝐴) uma vez que 𝑑𝑒𝑡(𝐼) = 1. Logo, A é invertível se somente se 𝑑𝑒𝑡(𝐴) ≠ 0. c) Se 𝐴 é uma matriz triangular, ou seja, todos os elementos abaixo ou acima da diagonal principal são nulos, 𝑑𝑒𝑡(𝐴) = ∏ 𝑎𝑖,𝑖 𝑛 𝑖=1 . A prova disso é dada pela expansão em cofatores, onde escolhendo a primeira ou a última linha (a depender se ela é triangular inferior ou superior, respectivamente), a soma tem um único termo, e o mesmo acontece com a matriz cofatora, sucessivamente, gerando um produtório dos termos da diagonal principal. d) Para 𝐴 𝑒 𝐵, duas matrizes que se diferem unicamente na linha 𝑘, se 𝐶 = [ 𝐴1 ⋮ 𝛼𝐴𝑘 + 𝛽𝐵𝑘 ⋮ 𝐴𝑛 ] em que 𝐴𝑘 𝑒 𝐵𝑘 são respectivamente a k-ésimas linhas de cada matriz. Então 𝑑𝑒𝑡(𝐶) = 𝛼𝑑𝑒𝑡(𝐴) + 𝛽𝑑𝑒𝑡(𝐵). Prova-se por expansão em cofatores e) Decorrente de c), se 𝐵 é idêntico a 𝐴, exceto na linha 𝑘, que corresponde a linha 𝑘 de 𝐴 multiplicado por um escalar 𝛼, então 𝑑𝑒𝑡(𝐵) = 𝛼𝑑𝑒𝑡(𝐴). f) 𝐷𝑒𝑡(𝐴) = 𝑑𝑒𝑡(𝐴𝑡). Dessa propriedade advém a possibilidade de calcularmos o determinante da matriz 𝐴 escolhendo uma linha qualquer, ou uma coluna, pois essa coluna escolhida é uma linha na matriz transposta, e como estas têm o mesmo determinante, a propriedade é válida. g) 𝑆𝑒 𝐴 possui duas linhas idênticas, então 𝑑𝑒𝑡(𝑎) = 0. Aplicando essas propriedades em matrizes elementares 𝐴 𝑒 𝐵: a) Se B é obtida de A, multiplicando uma única linha por α, então 𝑑𝑒𝑡(𝐵) = 𝛼𝑑𝑒𝑡(𝐴). b) Se B é obtida de A através da permutação de duas linhas, então 𝑑𝑒𝑡(𝐵) = −𝑑𝑒𝑡(𝐴). c) Se B é obtida de A substituindo a k-ésima linha de A pela soma das linhas 𝑘 e 𝑙, então 𝑑𝑒𝑡(𝐵) = 𝑑𝑒𝑡(𝐴). Prova: a) é embasada na e) anterior. b) 0 = 𝑑𝑒𝑡 [ 𝐴1 ⋮ 𝐴𝑘 + 𝐴𝑙 ⋮ 𝐴𝑙 + 𝐴𝑘 ⋮ 𝐴𝑛 ] = 𝑑𝑒𝑡 [ 𝐴1 ⋮ 𝐴𝑘 ⋮ 𝐴𝑙 + 𝐴𝑘 ⋮ 𝐴𝑛 ] + 𝑑𝑒𝑡 [ 𝐴1 ⋮ 𝐴𝑙 ⋮ 𝐴𝑙 + 𝐴𝑘 ⋮ 𝐴𝑛 ] = 𝑑𝑒𝑡 [ 𝐴1 ⋮ 𝐴𝑘 ⋮ 𝐴𝑙 ⋮ 𝐴𝑛] + 𝑑𝑒𝑡 [ 𝐴1 ⋮ 𝐴𝑘 ⋮ 𝐴𝑘 ⋮ 𝐴𝑛] + 𝑑𝑒𝑡 [ 𝐴1 ⋮ 𝐴𝑙 ⋮ 𝐴𝑙 ⋮ 𝐴𝑛] + 𝑑𝑒𝑡 [ 𝐴1 ⋮ 𝐴𝑙 ⋮ 𝐴𝑘 ⋮ 𝐴𝑛] , eliminando-se as matrizes com linhas repetidas (determinante nulo) obtemos: 𝑑𝑒𝑡 [ 𝐴1 ⋮ 𝐴𝑘 ⋮ 𝐴𝑙 ⋮ 𝐴𝑛] = −𝑑𝑒𝑡 [ 𝐴1 ⋮ 𝐴𝑙 ⋮ 𝐴𝑘 ⋮ 𝐴𝑛] A prova de c) é feita similarmente à prova de b). Operações elementares são capazes de modificar o determinante da matriz, mas nunca o anular, ou o desanular. Neste curso, o importante é o aspecto qualitativo do determinante, se ele é zero ou não-zero. Assim, a matriz original e sua equivalente por linhas são qualitativamente as mesmas, invertíveis ou não. Vetores Uma 𝑛-upla de números 𝑣 = (𝑣1, … , 𝑣𝑛) ∀ 𝑣𝑛 ∈ ℝ e denotando ℝ 𝑛 o conjunto das 𝑛-uplas. Dados dois pontos 𝑃 = (𝑝1, … , 𝑝𝑛) e 𝑄 = (𝑞1, … , 𝑞𝑛) definimos o vetor 𝑃𝑄⃗⃗⃗⃗ ⃗ como 𝑃𝑄⃗⃗⃗⃗ ⃗ = (𝑝1 − 𝑞1, … , 𝑝𝑛 − 𝑞𝑛). Propriedades: a) A soma de dois ou mais vetores é feita coordenada a coordenada, ou seja a soma de 𝑎 = (𝑎1, … , 𝑎𝑛) 𝑒 �⃗� = (𝑏1, … , 𝑏𝑛) é 𝑐 = (𝑎1 + 𝑏1, … , 𝑎𝑛 + 𝑏𝑛). b) O produto de um escalar por um vetor 𝑎 = (𝑎1, … , 𝑎𝑛) é 𝑘𝑎 = (𝑘𝑎1, … , 𝑘𝑎𝑛) c) Se �⃗� e 𝑣 são dois vetores tais que ∃𝛼 𝑡𝑎𝑙 𝑞𝑢𝑒 �⃗� = 𝛼𝑣 dizemos que �⃗� e 𝑣 são múltiplos escalares. d) Dados �⃗� ∈ ℝ𝑛 e 𝑣1⃗⃗⃗⃗ , 𝑣2⃗⃗⃗⃗ ⃗, … , 𝑣𝑘⃗⃗⃗⃗ dizemos que �⃗� é combinação linear de 𝑣1⃗⃗⃗⃗ , 𝑣2⃗⃗⃗⃗ ⃗, … , 𝑣𝑘⃗⃗⃗⃗ se ∃ 𝛽1, 𝛽2, … , 𝛽𝑘não todos nulos, tais que satisfaçam �⃗� = 𝛽1𝑣1⃗⃗⃗⃗ + 𝛽2𝑣2⃗⃗⃗⃗ + …+ 𝛽𝑘𝑣𝑘⃗⃗⃗⃗ . e) A norma/módulo do vetor �⃗� = (𝑢1, … , 𝑢𝑛), ou comprimento,é dado por ‖�⃗� ‖ = √𝑢1 2 + ⋯ + 𝑢𝑛 2 ≥ 0, 𝑐𝑎𝑠𝑜 𝑖𝑔𝑢𝑎𝑙, ‖�⃗� ‖ = 0 ⇔ �⃗� = 0⃗ . A norma de um múltiplo escalar ‖𝛽. �⃗� ‖ = |𝛽|‖�⃗� ‖. E se ‖�⃗� ‖ = 1 então o vetor �⃗� é um vetor unitário. f) O produto interno entre dois vetores �⃗� e �⃗� , necessariamente numa base ortonormal, é simbolizado por 〈𝑢, 𝑣〉 𝑜𝑢 �⃗� ∙ �⃗� , e corresponde a um escalar dado pela soma 𝑢1𝑣1 + 𝑢2𝑣2 + ⋯ + 𝑢𝑛𝑣𝑛 = ‖�⃗� ‖‖�⃗� ‖ cos 𝜃, em que 𝜃 é o ângulo entre �⃗� e �⃗� . Prova: lei dos cossenos aplicado num triângulo de lados �⃗� , 𝑣,⃗⃗ 𝑒 𝑢 − 𝑣⃗⃗ ⃗⃗ ⃗⃗ ⃗⃗ ⃗⃗ . Aplicando a lei dos cossenos nesse triângulo em específico, obtemos: ‖𝑢 − 𝑣⃗⃗ ⃗⃗ ⃗⃗ ⃗⃗ ⃗⃗ . ‖2 = ‖�⃗� ‖2 + ‖�⃗� ‖2 − 2‖�⃗� ‖‖�⃗� ‖ cos 𝜃. Substituindo as normas ao quadrado obtemos: (𝑢1 2 − 2𝑢1𝑣1 + 𝑣1 2+ ⋯+ 𝑢𝑛 2 − 2𝑢𝑛𝑣𝑛 + 𝑣𝑛 2) = (𝑢1 2 + ⋯+ 𝑢𝑛 2) + (𝑣1 2 + ⋯+ 𝑣𝑛 2) + 2‖�⃗� ‖‖�⃗� ‖ cos 𝜃 Cancelando os termos em ambos os lados, obtemos: ‖�⃗� ‖‖𝑣 ‖ cos 𝜃 = 𝑢1𝑣1 + 𝑢2𝑣2 + ⋯+ 𝑢𝑛𝑣𝑛 g) Dados dois vetores �⃗� e �⃗� , definimos �⃗� × �⃗� ou �⃗� ∧ 𝑣 , como produto vetorial de �⃗� por �⃗� , como o vetor que seja ortogonal a �⃗� e �⃗� simultaneamente, ou seja 〈�⃗� , �⃗� × �⃗� 〉 = 〈𝑣,⃗⃗ �⃗� × �⃗� 〉 = 0, e o sentido do novo vetor �⃗� × �⃗� seja dado pela regra da mão direita. Propriedades: 1) O produto vetorial não é comutativo, em particular o produto �⃗� × �⃗� = −�⃗� × �⃗� . 2) O produto vetorial é nulo (vetor nulo) caso �⃗� 𝑒 �⃗� sejam múltiplos escalares. 3) Definimos para um espaço tridimensional três vetores unitários, �̂� = (1,0,0), 𝑗̂ = (0,1,0) 𝑒 �̂� = (0,0,1), onde �̂� × 𝑗̂ = �̂�, �̂� × �̂� = −𝑗̂, 𝑒 𝑗̂ × �̂� = 𝑖̂ (cíclico), de tal forma que qualquer vetor �⃗� = (𝑎, 𝑏, 𝑐) pode ser escrito como uma combinação linear de �̂� , 𝑗̂ 𝑒 �̂�. Sendo �⃗� = (𝑎, 𝑏, 𝑐) = 𝑎(1,0,0) + 𝑏(0,1,0) + 𝑐(0,0,1) 𝑙𝑜𝑔𝑜 �⃗� = 𝑎�̂� + 𝑏𝑗̂ + 𝑐�̂�, e assim podemos fazer o produto vetorial entre dois vetores usando a propriedade distributiva. Para �⃗� = (𝑑, 𝑒 , 𝑓), �⃗� × �⃗� = (𝑎�̂� + 𝑏𝑗̂ + 𝑐�̂�)(𝑑�̂� + 𝑒𝑗̂ + 𝑓�̂�), ou usando um artifício matemático �⃗� × �⃗� = 𝑑𝑒𝑡 ( �̂� 𝑗̂ �̂� 𝑢1 𝑢2 𝑢3 𝑣1 𝑣2 𝑣3 ). 4) A norma do produto vetorial �⃗� × �⃗� é dado por ‖�⃗� × �⃗� ‖ = ‖�⃗� ‖‖�⃗� ‖ sin 𝜃 e, graficamente, corresponde à área do paralelogramo formado pelos vetores �⃗� 𝑒 �⃗� . h) Dados três vetores �⃗� = (𝑢1, 𝑢2, 𝑢3), 𝑣 = (𝑣1, 𝑣2, 𝑣3) 𝑒 �⃗⃗� = (𝑤1, 𝑤2, 𝑤𝑛), definimos produto misto (�⃗� × 𝑣 ) ∙ �⃗⃗� como sendo um escalar resultado dessas operações, que simboliza a área do paralelepípedo gerado por esses três vetores. Ou seja, resolvendo primeiro o produto vetorial, obtemos o vetor: i) (�⃗� × 𝑣 ) = 𝑖̂ ∙ det ( 𝑢2 𝑢3 𝑣2 𝑣3 ) − 𝑗̂ ∙ 𝑑𝑒𝑡 ( 𝑢1 𝑢3 𝑣1 𝑣3 ) + �̂� ∙ 𝑑𝑒𝑡 ( 𝑢1 𝑢2 𝑣1 𝑣2 ), fazendo então o produto interno: (�⃗� × 𝑣 ) ∙ �⃗⃗� = (det ( 𝑢2 𝑢3 𝑣2 𝑣3 ) ,−𝑑𝑒𝑡 ( 𝑢1 𝑢3 𝑣1 𝑣3 ) , 𝑑𝑒𝑡 ( 𝑢1 𝑢2 𝑣1 𝑣2 )) ∙ (𝑤1, 𝑤2, 𝑤𝑛), obtemos: 𝑤1 ∙ det ( 𝑢2 𝑢3 𝑣2 𝑣3 ) − 𝑤2 ∙ 𝑑𝑒𝑡 ( 𝑢1 𝑢3 𝑣1 𝑣3 ) + 𝑤3 ∙ 𝑑𝑒𝑡 ( 𝑢1 𝑢2 𝑣1 𝑣2 ), que pode ser simplificado por: (�⃗� × 𝑣 ) ∙ �⃗⃗� = 𝑑𝑒𝑡 ( 𝑤1 𝑤2 𝑤3 𝑢1 𝑢2 𝑢3 𝑣1 𝑣2 𝑣3 ) 𝑉𝑜𝑙𝑢𝑚𝑒(ℙ𝑎𝑟𝑎𝑙𝑒𝑙𝑒𝑝í𝑝𝑒𝑑𝑜) = |(�⃗� × 𝑣 ) ∙ �⃗⃗� | 𝑞𝑢𝑒 𝑔𝑟𝑎𝑓𝑖𝑐𝑎𝑚𝑒𝑛𝑡𝑒 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑𝑒 𝑎 ‖�⃗� × 𝑣 ‖ ∙ ‖�⃗⃗� ‖ ∙ |cos 𝛾| em 𝛾 que é o ângulo entre �⃗� × �⃗� e �⃗⃗� .
Compartilhar