Baixe o app para aproveitar ainda mais
Prévia do material em texto
0 CENTRO UNIVERSITÁRIO FAVENI ÁLGEBRA LINEAR GUARULHOS – SP 1 SUMÁRIO 1 INTRODUÇÃO .................................................................................................. 4 2 DEFINIÇÃO E CLASSIFICAÇÃO DE MATRIZES ............................................ 5 2.1 Matriz retangular ........................................................................................... 6 2.2 Matriz quadrada ............................................................................................ 6 2.3 Matriz coluna ................................................................................................ 6 2.4 Matriz linha ................................................................................................... 7 2.5 Matriz diagonal ............................................................................................. 8 2.6 Matriz triangular ............................................................................................ 8 2.7 Matriz escalar ............................................................................................... 9 2.8 Matriz identidade .......................................................................................... 9 2.9 Matriz transposta .......................................................................................... 9 2.10 Matriz simétrica ........................................................................................... 10 2.11 Matriz nula .................................................................................................. 10 3 OPERAÇÕES COM MATRIZES ..................................................................... 11 4 IGUALDADE ................................................................................................... 11 5 ADIÇÃO .......................................................................................................... 12 5.1 Propriedade comutativa .............................................................................. 12 5.2 Propriedade associativa.............................................................................. 13 5.3 Subtração ................................................................................................... 13 6 MULTIPLICAÇÃO DE UMA MATRIZ POR UM ESCALAR ............................. 14 7 MULTIPLICAÇÃO ENTRE MATRIZES ........................................................... 15 7.1 Propriedade associativa.............................................................................. 17 7.2 Propriedade distributiva .............................................................................. 17 2 8 EQUAÇÃO MATRICIAL .................................................................................. 19 9 APLICAÇÕES COM MATRIZES ..................................................................... 19 10 INVERSA DE UMA MATRIZ .......................................................................... 21 10.1 Propriedade 1 ............................................................................................. 25 10.2 Propriedade 2 ............................................................................................. 25 10.3 Propriedade 3 ............................................................................................. 26 11 MATRIZ ORTOGONAL .................................................................................. 27 12 SISTEMAS DE EQUAÇÕES LINEARES ....................................................... 34 13 SISTEMAS HOMOGÊNEO E NÃO HOMOGÊNEO ....................................... 37 14 SISTEMAS LINEARES COM UMA EQUAÇÃO MATRICIAL ......................... 40 15 SISTEMAS LINEARES COM MATRIZ INVERSA .......................................... 41 16 RESOLUÇÃO DE SISTEMAS DE EQUAÇÕES LINEARES ........................... 44 17 MÉTODO DE ELIMINAÇÃO DE GAUSS ....................................................... 44 18 MÉTODO DE ELIMINAÇÃO DE GAUSS-JORDAN ........................................ 47 19 DETERMINANTES E SUAS PROPRIEDADES .............................................. 48 19.1 Expansão em cofatores .............................................................................. 50 20 DETERMINANTES DA MATRIZ INVERSA .................................................... 52 21 AUTOVALORES E DIAGONALIZAÇÃO DE MATRIZES ............................... 54 22 ESPAÇOS VETORIAIS: EXEMPLOS E PROPRIEDADES BÁSICAS ........... 57 22.1 Subespaços vetoriais .................................................................................. 60 22.2 Subespaços gerados .................................................................................. 61 22.3 Um conjunto como espaço vetorial ............................................................. 62 23 UM SUBCONJUNTO COMO SUBESPAÇO VETORIAL ................................ 63 24 DEPENDÊNCIA E INDEPENDÊNCIA LINEAR .............................................. 64 25 GERADOR E MATRIZ INVERSA ................................................................... 65 3 26 COMBINAÇÕES LINEARES E GEOMETRIA ................................................ 67 27 REFERÊNCIAS BIBLIOGRÁFICAS ............................................................... 70 27.1 Bibliografia Básica ...................................................................................... 70 27.2 Bibliografia Complementar .......................................................................... 70 4 1 INTRODUÇÃO Prezado aluno! O Grupo Educacional FAVENI, esclarece que o material virtual é semelhante ao da sala de aula presencial. Em uma sala de aula, é raro – quase improvável - um aluno se levantar, interromper a exposição, dirigir-se ao professor e fazer uma pergunta, para que seja esclarecida uma dúvida sobre o tema tratado. O comum é que esse aluno faça a pergunta em voz alta para todos ouvirem e todos ouvirão a resposta. No espaço virtual, é a mesma coisa. Não hesite em perguntar, as perguntas poderão ser direcionadas ao protocolo de atendimento que serão respondidas em tempo hábil. Os cursos à distância exigem do aluno tempo e organização. No caso da nossa disciplina é preciso ter um horário destinado à leitura do texto base e à execução das avaliações propostas. A vantagem é que poderá reservar o dia da semana e a hora que lhe convier para isso. A organização é o quesito indispensável, porque há uma sequência a ser seguida e prazos definidos para as atividades. Bons estudos! 5 2 DEFINIÇÃO E CLASSIFICAÇÃO DE MATRIZES Para que você desenvolva uma intuição inicial sobre matrizes, considere o seguinte exemplo hipotético: você e uma amiga são agentes autônomos e atuam em um escritório ofertando produtos financeiros a clientes que queiram investir na formação de poupança. Os produtos financeiros são: fundos de renda fixa (RF), fundos multimercado (M) e planos de previdência (P). Para o mês de janeiro, você e sua amiga elaboraram um quadro com o quantitativo (Quadro 1) que cada um ofertou desses produtos (SILVA, 2012). Os números apresentados nesse quadro podem ser representados como: O arranjo acima corresponde a uma matriz, e cada número desse arranjo é denominado de elemento da matriz. Cada linha representa o quanto de cada produto financeiro você e sua amiga ofertaram por exemplo, na segunda linha, é visto que sua amiga ofertou 20 fundos de renda fixa, 8 fundos multimercado e 16 planos de previdência. Já cada coluna representa o quanto você e sua amiga ofertaram de cada tipo de produto financeiro por exemplo, a primeira coluna mostra que você ofertou 14 fundos de renda fixa, e sua amiga ofertou 20 fundos desse mesmo tipo. Dessa forma, uma matriz é simplesmente um agrupamentoretangular de números dispostos regularmente em linhas e colunas. 6 O tamanho de uma matriz é definido pelo número de linhas e colunas que ela contém. Assim, uma matriz é dita ser do tipo (leia-se m por n) quando ela tem m linhas e n colunas. No exemplo anterior, a matriz que representa o quantitativo de produtos financeiros ofertados por você e sua amiga no mês de janeiro é do tipo Consequentemente, pode-se desenvolver uma classificação de diferentes tipos de matrizes baseada no tamanho delas (SILVA, 2012). 2.1 Matriz retangular É aquela na qual o número de linhas e colunas é diferente, isto é A matriz a seguir é retangular, pois é do tipo 2 × 3: Outro exemplo desse tipo de matriz seria o seguinte, que é uma matriz do tipo 3 × 2: 2.2 Matriz quadrada É aquela que contém o mesmo número de linhas e colunas, isto é, Esse é o caso de uma matriz do tipo 2 × 2: 2.3 Matriz coluna É um caso particular de matriz retangular, composta por uma única coluna. Por isso, é do tipo O exemplo a seguir mostra uma matriz coluna do tipo 3 × 1. 7 2.4 Matriz linha É outro caso particular de matriz retangular, pois é composta por uma única linha e, por isso, do tipo O exemplo a seguir mostra uma matriz linha do tipo 1 × 2. Outra classificação importante de matrizes envolve os elementos da matriz. Considere a matriz A dada por: O elemento que aparece na intersecção da primeira linha com a segunda coluna é o número 0. Assim, ele pode ser representado de forma mais geral como. Dessa maneira, cada elemento da matriz é representado por uma “coordenada de localização” na matriz dada por em que o índice i indica a linha, e o índice i indica a coluna em que se pode localizar um determinado elemento da matriz (SILVA, 2012). Neste exemplo, os elementos da matriz são identificados como: Ou seja: Para a matriz do tipo 2 × 3 dada por: 8 Os elementos da matriz são identificados como: 2.5 Matriz diagonal Os elementos da diagonal principal de uma matriz são aqueles em que i = j, ou seja, etc. Uma matriz quadrada em que os elementos fora da diagonal principal são todos nulos, isto é, para é dita ser diagonal (SILVA, 2012). No exemplo a seguir, a matriz B é diagonal, pois os elementos são nulos. 2.6 Matriz triangular Há dois tipos de matriz triangular: a superior, em que os elementos abaixo da diagonal principal são nulos, ou seja: E a inferior, em que os elementos acima da diagonal principal são nulos, ou seja: 9 2.7 Matriz escalar É uma matriz diagonal em que todos os elementos são iguais. 2.8 Matriz identidade É um caso particular da matriz escalar, pois todos seus elementos da diagonal principal são iguais à unidade, isto é, para Uma notação convencional para a matriz identidade é rotulá-la por (SILVA, 2012). A matriz identidade do tipo 3 × 3 é: E a matriz identidade do tipo 2 × 2 é: 2.9 Matriz transposta Dada uma matriz A: Do tipo 2 × 3, a matriz transposta de A, denotada por, é obtida pela transposição entre a primeira linha e a primeira coluna, e entre a segunda linha e a segunda coluna, resultando em uma matriz do tipo 3 × 2: 10 2.10 Matriz simétrica Uma matriz quadrada é simétrica quando o que implica na seguinte relação entre os elementos da matriz fora da diagonal principal: Por exemplo, a matriz a seguir é simétrica, uma vez que Em contrapartida, uma matriz quadrada é antissimétrica se Por exemplo, A=[ 0 1 −1 0 ] são antissimétrica, pois: 2.11 Matriz nula É aquela matriz em que todos os elementos são nulos, isto é, para qualquer valor de (SILVA, 2012). 11 3 OPERAÇÕES COM MATRIZES Depois de conhecidos os diferentes tipos de matrizes, você aprenderá como efetuar algumas operações importantes com matrizes, tais como: adição, subtração, multiplicação por um escalar e, finalmente, multiplicação entre matrizes (SILVA, 2012). 4 IGUALDADE Duas matrizes são iguais quando elas têm o mesmo tamanho, e seus elementos são todos iguais. Se as matrizes quadradas A e B do tipo 2 × 2 são iguais, então 12 5 ADIÇÃO A operação de adição entre duas matrizes A e B de mesmo tamanho é realizada por meio da soma direta dos elementos de cada matriz, que estão localizados em uma mesma linha e uma mesma coluna, ou seja, A operação de adição tem duas propriedades importantes, descritas a seguir (SILVA, 2012). 5.1 Propriedade comutativa Dadas duas matrizes A e B, o resultado das somas A + B e B + A é igual. 13 5.2 Propriedade associativa Dadas três matrizes A,B e C, o resultado da soma (A + B) com C é igual ao da soma de A com B + C (SILVA, 2012). 5.3 Subtração A operação de subtração entre duas matrizes A e B de mesmo tamanho é realizada por meio da subtração direta dos elementos de cada matriz, que estão localizados em uma mesma linha e uma mesma coluna, ou seja, 14 6 MULTIPLICAÇÃO DE UMA MATRIZ POR UM ESCALAR Um escalar é simplesmente um número puro (que também pode ser visto como uma matriz 1 × 1). Então, a multiplicação de uma matriz A por um escalar qualquer implica que cada elemento da matriz será multiplicado pelo escalar. (SILVA, 2012). Por exemplo, se c = 2, então: Observe que, nesse processo de multiplicação, a matriz resultante tem o mesmo tamanho da matriz original A. A operação de multiplicação de uma matriz por um escalar apresenta algumas propriedades, que são descritas a seguir (SILVA, 2012). Dadas duas matrizes A e B e um escalar c, o resultado da multiplicação do escalar pela soma das matrizes, é igual à soma das matrizes já multiplicadas individualmente pelo escalar, Dada uma matriz A e dois escalares c e d, o resultado da soma dos escalares multiplicado pela matriz, é igual à soma da matriz multiplicada individualmente por cada um dos escalares, Dada uma matriz A e dois escalares c e d, o resultado da multiplicação de um escalar pela matriz já multiplicada pelo outro escalar, é igual ao produto dos escalares multiplicado pela matriz, 15 7 MULTIPLICAÇÃO ENTRE MATRIZES A multiplicação entre matrizes exigirá de você um pouco mais de atenção. A única condição necessária para que se possa multiplicar duas matrizes, A e B, é que o número de colunas da matriz A seja igual ao número de linhas da matriz B. Assim, se a matriz A é do tipo m × n, e a matriz B é do tipo p × q, então o produto AB entre as matrizes somente ocorre se n = p. Além disso, o resultado final dessa multiplicação entre as matrizes A e B será uma nova matriz do tipo m × q, ou seja, com o mesmo número de linhas da matriz A, mas com o mesmo número de colunas da matriz B. Em particular, para o caso de duas matrizes quadradas de mesmo tamanho, a matriz resultante do produto entre elas será do mesmo tamanho que elas. A existência dessa relação entre o número de colunas de uma matriz com o número de linhas da outra decorre da necessidade de se envolver um mesmo número de elementos para multiplicação entre as matrizes (SILVA, 2012). Considere o seguinte exemplo: uma matriz A do tipo 2 × 3, dada por: E uma matriz B do tipo 3 × 1, dada por: Como o número de colunas de A, que é 3, é igual ao número de linhas de B, que também é 3, essa multiplicação é possível. Observe também que a multiplicação de uma matriz do tipo 2 × 3 (A) por uma matriz do tipo 3 × 1 (B) resulta em uma matriz do tipo 2 × 1 (AB). Operacionalmente, a multiplicação ocorre da seguinte maneira: multiplica-se a primeira linha da matriz A pela coluna da matriz B, elemento por elemento na ordem que estão dispostos o primeiro elemento da primeira linha de A, 1, com o primeiro elemento 16 da coluna de B, 2, segundo elemento da primeira linha de A, 1, com o segundo elementoda coluna de B, 3, e assim por diante somando-se os produtos individuais desses elementos, 1 ∙ 2 + 1 ∙ 3 + 2 ∙ 1 = 7, cujo resultado será o primeiro elemento da matriz coluna resultante do produto entre A e B. Repete-se o mesmo procedimento para a segunda linha da matriz A, multiplicando-a com a primeira coluna da matriz B, cujo resultado, 2 ∙ 2 + 3 ∙ 3 + 3 ∙ 1 = 13, corresponderá ao segundo elemento da matriz coluna resultante do produto entre A e B (SILVA, 2012). Veja: Agora, considere uma nova matriz A do tipo 1 × 2, dada por: E uma nova matriz B do tipo 2 × 2, dada por: Nesse caso, o resultado da multiplicação da matriz A pela matriz B será uma matriz do tipo 1 × 2. Agora, para você calcular o produto AB, deve multiplicar a linha da matriz A pela primeira coluna da matriz B, 1 ∙ 2 + 3 ∙ 2 = 8, cujo resultado fornece o primeiro elemento da matriz linha resultante do produto entre A e B. O segundo elemento dessa matriz é obtido pela multiplicação da linha da matriz A com a segunda coluna da matriz B, 1 ∙ 3 + 3 ∙ 1 = 6. Veja: O último tipo de multiplicação de matrizes relevante é a multiplicação entre duas matrizes quadradas. Considere duas matrizes do tipo 2 × 2, dadas por: 17 A matriz resultante do produto AB também será uma matriz quadrada do tipo 2 × 2 e é operacionalmente obtida como: Logo: A operação de multiplicação entre matrizes apresenta algumas propriedades importantes. Considere três matrizes A, B e C, cujos tamanhos permitem realizar as operações de soma e multiplicação para cada situação de interesse (SILVA, 2012). 7.1 Propriedade associativa O resultado da multiplicação da matriz A pelo produto das matrizes B e C é igual ao produto das matrizes A e B multiplicado pela matriz C: 7.2 Propriedade distributiva À direita: o resultado da multiplicação da soma das matrizes A e B pela matriz C é igual à soma dos produtos das matrizes A com C e B com C: À esquerda: o resultado da multiplicação da matriz A pela soma das matrizes B e C é igual à soma dos produtos das matrizes A com B e A com C: 18 Contudo, vale a pena observar que, em geral, o produto entre duas matrizes não é comutativo, isto é, AB ≠ BA (note que o produto entre dois escalares é sempre comutativo, ou seja, 2 ∙ 3 = 3 ∙ 2 = 6). Para que você entenda isso, considere duas matrizes quadradas do tipo 2 × 2. O produto AB é dado por: O produto BA é dado por: Logo, quando você compara elemento por elemento em cada uma das matrizes resultantes de AB e BA (por exemplo, você percebe que eles são todos diferentes (SILVA, 2012). No entanto, a partir desse tratamento geral para o produto de duas matrizes, é possível extrair algumas condições particulares que possibilitam gerar AB = BA. Uma primeira condição surge quando uma das matrizes é a matriz identidade. Por exemplo, se B = I, então o produto entre A e I será comutativo: (Faça nos resultados acima de AB e BA.) 19 A segunda condição particular é aquela em que as duas matrizes são diagonais, ou seja, A= [ 𝑎11 0 0 𝑎22 ] e B= [ 𝑏11 0 0 𝑏22 ]. Nesse caso, o produto entre as duas matrizes é comutativo, pois: (Faça nos resultados acima de AB e BA.) 8 EQUAÇÃO MATRICIAL Uma equação matricial é uma relação de igualdade entre duas ou mais matrizes, assim como ocorre com os escalares por exemplo, 2x – 4 = 0. Algumas equações matriciais típicas são A + B = C; A – 2B = 3C; AX = B; A² = X e assim por diante (SILVA, 2012). 9 APLICAÇÕES COM MATRIZES Reconsidere o exemplo discutido no início deste capítulo, em que você e sua amiga são agentes autônomos. A matriz que representa o quantitativo de produtos financeiros ofertados por você e sua amiga no mês de janeiro é: Para o mês de fevereiro, o quantitativo de produtos financeiros ofertados por você e sua amiga é: 20 Portanto, a quantidade de diferentes produtos financeiros que vocês ofertaram nesses dois meses é: Logo, você ofertou 24 fundos de renda fixa e fundos multimercado, enquanto sua amiga ofertou 30 fundos de renda fixa e 22 fundos multimercados (SILVA, 2012). Agora, considere que vocês recebem uma comissão para cada produto financeiro ofertado. Para fundos de renda fixa, a comissão é de R$ 100,00 por produto ofertado. Já para os fundos multimercados e os planos de previdência, as comissões são, respectivamente, de R$ 120,00 e R$ 150,00 por produto ofertado. Para saber o valor total que cada um de vocês receberá de comissão ao final desses dois meses, basta primeiro criar uma matriz do tipo 3 × 1, em que cada elemento será o valor da comissão para cada produto. Assim: Depois, você pode multiplicar o resultado da soma das matrizes A e B, ou seja, A + B, com a matriz C: Portanto, nesses dois meses, você receberá um total de R$ 9.330,00 de comissão, e sua amiga receberá um total R$ 9.840,00 (SILVA, 2012). 21 10 INVERSA DE UMA MATRIZ Uma operação simples na álgebra de escalares é a divisão de um número por ele mesmo, cujo resultado é igual à unidade. Assim, se N é um número qualquer e então: Por exemplo, para N = 3: Aqui, o número representa o inverso do número de modo que qualquer número multiplicado por seu inverso será igual à unidade (SILVA, 2012). 22 Esse conceito também pode ser estendido para as matrizes com a devida adaptação. Com efeito, se A for uma matriz quadrada, e B for outra matriz quadrada de mesmo tamanho, então, a verificação de uma relação do tipo: Onde a matriz identidade, implica necessariamente que B é a matriz inversa de A. Desse modo, você pode fazer a seguinte identificação: Logo: No entanto, vale a pena fazer a seguinte ressalva: diferentemente dos escalares, não existe a relação para matrizes, ou seja, não é possível dividir algo (um escalar ou mesmo uma matriz) por uma matriz. (SILVA, 2012). Para exemplificar como o conceito de matriz inversa pode ser visto, considere a matriz A dada por: Cuja matriz inversa é a B: Pois: 23 Para o caso de uma matriz quadrada do tipo 2 × 2, é possível desenvolver uma solução geral para se determinar sua inversa (SILVA, 2012). Sejam a, b, c e d os elementos de uma matriz A: E sejam x, y, z e t os elementos da matriz inversa de A: Que são, em princípio, desconhecidos. A fim de se determinar os elementos dessa matriz inversa, a partir do conhecimento dos elementos de A, é necessário que a seguinte relação seja verificada: A relação anterior conduz a um conjunto de quatro equações a quatro variáveis, x, y, z e t, pois os elementos a,b, c e d são supostamente conhecidos a partir de uma dada matriz A. Logo: A partir das duas primeiras equações, determina-se x e y (por exemplo, basta isolar a variável x na primeira equação, e substituir na segunda, Obtendo-se a variável y, que, depois, pode ser substituída na primeira equação, a fim de se obter x). Desse modo: 24 A partir das duas últimas equações, determinam-se z e t (por exemplo, basta isolar a variável z na terceira equação, e substituir na quarta, Obtendo-se a variável t, que, depois, pode ser substituída na terceira equação, a fim de se obter z). Desse modo: Como o fator é comum a todos os elementos da matriz inversa, Você pode fatorá-lo na montagem da matriz inversa, de maneira que: No exemplo inicial proposto, os elementos da matriz A eram: E portanto, pelo resultado anterior, a matriz inversa ficaria: Que é exatamente a matriz B, inicialmente considerada como sendo a matriz inversa de A (SILVA, 2012). Uma consequência direta desse resultado para uma matriz do tipo 2 × 2 é que a matriz inversa existe somente se o denominador (ad – bc) for diferente de 0. Observe que a quantidade (ad – bc) nada mais é queo determinante da matriz A. Caso contrário, se (ad – bc) = 0, a matriz inversa não existe, pois, todos os elementos da matriz inversa estariam divididos por 0. Nesse sentido, diz-se que a matriz é invertível. 25 Existem algumas propriedades envolvendo as matrizes inversas que valem a pena ser conhecidas. 10.1 Propriedade 1 Se uma matriz A contém uma inversa, então, a inversa da matriz inversa é a própria matriz A: No exemplo apresentado, você viu que: Então, calculando a inversa dessa matriz Que é exatamente a matriz A. 10.2 Propriedade 2 Considere duas matrizes A e B, ambas invertíveis, então, a inversa do produto entre elas, AB, será igual ao produto das inversas de (SILVA, 2012). Por exemplo, para as matrizes: 26 As respectivas matrizes inversas são: Já o produto entre as matrizes A e B é: Então, a matriz inversa desse produto é: Mas o produto da matriz inversa de com a matriz inversa de Também resulta em: Logo, nesse exemplo, verifica-se a validade da expressão (SILVA, 2012). 10.3 Propriedade 3 Se A é uma matriz quadrada, então, o produto de n vezes ela mesma. Será igual a Além disso, se a matriz inversa de A existe, então, a matriz também contém uma inversa, que é dada por: Por exemplo, para e a matriz: Cuja inversa é: 27 Você tem que o quadrado de A é: E a inversa dessa matriz é dada por: No entanto, o quadrado da matriz é: Que é exatamente igual a Logo, verifica-se explicitamente que 11 MATRIZ ORTOGONAL Uma matriz A é dita ortogonal se sua matriz transposta é igual à sua matriz inversa: Assim como para uma matriz ortogonal, vale também: Um bom exemplo de matriz ortogonal surge na física, envolvendo a rotação de corpos rígidos ou sistemas de referência no plano (SILVA, 2012). Nesse caso, a matriz de rotação é dada por: 28 A matriz transposta de R (obtida trocando a primeira linha pela primeira coluna, e a segunda linha pela segunda coluna) é: Então, efetuando o produto entre você tem: Em que se empregou a identidade trigonométrica Similarmente: Embora o resultado obtido para encontrar a matriz inversa de uma matriz do tipo 2 × 2: Seja muito útil e relativamente fácil de ser construído, desenvolver o mesmo procedimento que conduziu a esse resultado para obter a matriz inversa de matrizes de tamanhos maiores pode ser algo extremamente trabalhoso. Outro método que você pode utilizar para encontrar a matriz inversa de matrizes de qualquer tamanho envolve apenas operações elementares sobre linhas (SILVA, 2012). A ideia básica é perfilar, lado a lado, uma matriz A que se quer determinar a inversa, e a matriz identidade I, ambas de mesmo tamanho, da seguinte maneira: 29 Se você multiplicar essa relação por pela esquerda, você tem: Observe atentamente que essa operação fez com que, no lado esquerdo, aparecesse a matriz identidade, mas, principalmente, do lado direito, surge a matriz inversa de A (SILVA, 2012). Portanto, se você executar operações elementares entre linhas, tal como multiplicar uma linha por uma constante ou somar uma linha com outra linha, de modo a transformar a matriz A do lado esquerdo em uma matriz identidade, então, a matriz resultante que aparece no lado direito após esse processo é essencialmente a matriz inversa de A: Como um primeiro exemplo sobre esse método, considere novamente a matriz A dada no exemplo inicial deste capítulo: Fazendo o perfilamento entre A e I, você tem: Agora, você deve efetuar algumas operações elementares sobre essa "matriz 2 × 4", a fim de transformar o bloco 2 × 2 do lado esquerdo em uma matriz identidade. Para isso, multiplique toda a segunda linha por –3: 30 E a nova segunda linha fica: Então, some os elementos da primeira linha com os da segunda, um a um, mantendo a mesma ordem: Esses resultados vão compor a nova segunda linha: Multiplique a segunda linha por –1: E a nova segunda linha fica: Note que a segunda linha do lado esquerdo já tem a aparência da segunda linha de uma matriz identidade (SILVA, 2012). Agora, multiplique a segunda linha por –5 e, depois, some com a primeira linha: E a nova primeira linha fica: 31 Por fim, dívida toda a primeira linha por: E a nova primeira linha fica: Observe que, do lado esquerdo, apareceu a matriz identidade. Portanto, do lado direito dessa relação, você tem exatamente a matriz inversa de A: Esse resultado para a matriz inversa de certamente já era esperado, pois ele já foi obtido de outra maneira no início desta seção. No entanto, exatamente por já ser um resultado conhecido, você pode desenvolver a aplicação desse método de obtenção da matriz inversa com mais segurança. A partir deste ponto, você já tem condições de empregar o método de inversão de matrizes para matrizes maiores que uma do tipo 2 × 2. Essa é a grande vantagem desse método (SILVA, 2012). Então, para um segundo exemplo de uso do método, considere a seguinte matriz quadrada do tipo 3 × 3: Para você encontrar é necessário perfilar a matriz C com a matriz identidade de mesmo tamanho: 32 Multiplique a primeira linha por –1 e some com a última linha: E a nova terceira linha fica: Agora, multiplique a primeira linha por –2 e some com a segunda linha: E a nova segunda linha fica: Multiplique a segunda linha por 2 e some com a terceira linha: E a nova terceira linha fica: Multiplique a última linha por –1: E a nova terceira linha fica: 33 Aqui, você já conseguiu obter a última linha de uma matriz identidade do tipo 3 × 3 do lado esquerdo (SILVA, 2012). Agora, o próximo passo é transformar a segunda linha do lado esquerdo na segunda linha de uma matriz identidade. Então, multiplique a terceira linha por 3 e some com a segunda linha: E a nova segunda linha fica: Que, no lado esquerdo, já corresponde à segunda linha da matriz identidade do tipo 3 × 3. Agora, resta transformar apenas a primeira linha. Para isso, multiplique a última linha por –3 e some com a primeira linha: E a nova primeira linha fica: Por fim, multiplique a segunda linha por –2 e some com a primeira linha: E a nova primeira linha fica: 34 Observe que, finalmente, a matriz que aparece do lado esquerdo é a matriz identidade do tipo 3 × 3. Portanto, a matriz inversa de C é dada por: Em princípio, você pode obter a matriz inversa, desde que ela exista de uma dada matriz quadrada de qualquer tamanho, por meio desse método (SILVA, 2012). 12 SISTEMAS DE EQUAÇÕES LINEARES Talvez a primeira questão que lhe venha à mente ao iniciar o seu estudo sobre o conteúdo deste capítulo é: o que é uma equação linear? Então respondemos: uma equação linear pode ser uma equação da reta no plano (que tem duas dimensões bidimensional), que pode ser escrita como: Em que a e b são duas constantes. Por exemplo, Assim, sabendo o valor da variável x, é possível determinar o valor de y e, com essas duas informações, localizar um ponto qualquer no plano. Nesse exemplo, se então, Se uma reta no plano é descrita por uma equação linear, duas retas nesse mesmo plano serão descritas por duas equações lineares. Pronto! Agora você tem um sistema de duas equações lineares. O sistema seguinte exemplifica isso (SILVA,2012). O esboço do gráfico dessas duas retas aparece na Figura 1a. Observe que essas duas retas contêm um ponto P em comum, demarcando o local no plano onde elas se encontram. Encontrar os valores das variáveis x e y desse ponto P significa resolver esse sistema de duas equações lineares. Essa tarefa é simples nesse exemplo. Igualandoas 35 duas equações de reta, você encontra o valor de 4 para a variável x. Logo, substituindo esse valor de x em qualquer uma das duas equações de reta, você obtém o valor de Será que sempre é possível resolver um sistema de equações lineares? A resposta é dada na Figura 1b. Veja que se trata de duas retas paralelas, ou seja, um sistema de duas equações lineares. E, por isso, elas não se encontram para nenhum valor de x (ou y). Logo, não há solução para esse sistema. De modo geral, uma reta no plano pode ser escrita como: Em que a, b e c são constantes. Já a equação geral de um plano no espaço tridimensional (comprimento × largura × altura) pode ser escrita como: Em que a, b, c e d são constantes (SILVA, 2012). Com efeito, uma equação linear de n variáveis é uma equação do tipo: 36 Em que os coeficientes e b são todos constantes (SILVA, 2012). Para uma reta no plano, são as variáveis, e a equação linear fica por outro lado, equações do tipo: Não são lineares, pois, nas equações lineares, as variáveis aparecem apenas na potência 1 (lembre-se de que E multiplicadas apenas por coeficientes constantes. As variáveis não estão multiplicadas entre si nas equações lineares. Dessa maneira, o conjunto de mais de uma equação linear constitui um sistema de equações lineares (SILVA, 2012). Um exemplo de sistema de equações lineares do tipo 2 × 2 (são duas equações para duas variáveis) é: A solução desse sistema pode ser obtida da seguinte maneira. Resolvendo a primeira equação para y, você obtém. Substituindo esse resultado na segunda equação, você terá uma equação apenas para a variável Agora, um exemplo de sistema de equações lineares do tipo 3 × 3 (são três equações para três variáveis) é: A solução desse sistema demanda um pouco mais de trabalho. Resolvendo a primeira equação para y, você obtém Assim, você pode reescrever a segunda equação para z como uma função apenas da variável 37 Substituindo esses dois resultados para y e z, como funções de x, na terceira equação, você encontra o valor da variável x que satisfaz esse sistema: logo, Com efeito, É possível que dois sistemas lineares contenham o mesmo conjunto de soluções, e, por isso, eles são denominados de sistemas lineares equivalentes. Como exemplo, dois sistemas de equações lineares equivalentes são: Pois é a mesma solução para ambos. Contudo, perceba que é mais simples resolver o segundo sistema, que já fornece diretamente o valor de uma das variáveis, do que resolver o primeiro (SILVA, 2012). 13 SISTEMAS HOMOGÊNEO E NÃO HOMOGÊNEO Os sistemas de equações lineares podem ser de dois tipos: não homogêneo e homogêneo. Um sistema de equações lineares não homogêneo do tipo 3 × 3 é dado por: Onde os coeficientes são constantes. Um olhar mais atento para esse sistema de equações lineares indica que ele apresenta naturalmente uma estrutura matricial, ou seja, você pode reescrevê-lo como um produto entre matrizes. De fato, ele pode ser visto como uma matriz coluna do tipo 3 × 1, que resulta do produto entre uma matriz dos coeficientes, do tipo 3 × 3, pela matriz coluna das variáveis, do tipo 3 × 1. Veja: 38 Onde: É a matriz dos coeficientes que aparecem multiplicando as variáveis. Agora, quando a matriz coluna das constates for nula (SILVA, 2012). O sistema de equações lineares resultante é denominado de homogêneo: Ou seja: E como a matriz dos coeficientes não é nula em geral, então uma possível solução é aquela em que: Ou seja, que também é conhecida como solução trivial, pois todas as variáveis são nulas. Por exemplo, um sistema linear homogêneo do tipo 2 × 2 pode ser: Cuja representação matricial é: 39 Aqui, é solução do sistema. Observe atentamente que essas duas equações lineares representam retas que passam pela origem; que é exatamente o ponto onde elas se cruzam (SILVA, 2012). Além da solução trivial, um sistema linear homogêneo pode admitir infinitas soluções. Esse é o caso quando o número de variáveis é maior que o de equações. Por exemplo, o sistema linear homogêneo: Cuja representação matricial é da forma: Contém duas equações e três variáveis: x, y e z. Resolvendo a primeira equação para z, você obtém: Substituindo esse resultado na segunda equação: Que resulta em: Portanto, uma vez escolhido um valor para a variável y, você encontra os valores correspondentes das variáveis x e z. Exatamente por haver infinitas possibilidades de escolha de valor para y, que o sistema contém infinitas soluções. Por exemplo, se: 40 14 SISTEMAS LINEARES COM UMA EQUAÇÃO MATRICIAL Todo sistema de equações lineares contém naturalmente uma estrutura matricial. Para que você perceba isso, considere um sistema do tipo 2 × 2 qualquer: A estrutura do lado esquerdo dessas duas equações lineares é tipicamente igual àquela que envolveria o produto entre duas matrizes: uma matriz quadrada do tipo 2 × 2 para os coeficientes em que e outra matriz coluna do tipo 2 × 1 para as variáveis em que j = 1, 2. Dessa forma, você pode escrever (SILVA, 2012). Similarmente, as constantes 𝑏𝑖 em que que aparecem do lado direito das equações lineares anteriores, também podem ser postas em um formato matricial mais especificamente, como uma matriz coluna do tipo 2 × 1: Com efeito, o sistema de equações lineares pode ser substituído por uma representação em forma de equação matricial do tipo: Em que a matriz A: É denominada de matriz dos coeficientes, a matriz X 41 É a matriz das variáveis, e a matriz B: É a matriz das constantes. Uma vez estabelecida a relação entre sistemas de equações lineares e matriciais, você pode encontrar a solução de tais sistemas por meio das matrizes. (SILVA, 2012). Veja como isso é possível: se a matriz dos coeficientes A é quadrada e admite a existência de uma inversa então, você pode determinar a matriz das variáveis por multiplicar a equação matricial do sistema por pela esquerda: Em que I é a matriz identidade. Portanto, a solução do sistema será dada pela matriz das variáveis X , calculada por meio da relação: Assim, torna-se necessário saber calcular a matriz inversa associada à matriz dos coeficientes, a fim de se obter a solução do sistema. 15 SISTEMAS LINEARES COM MATRIZ INVERSA Para que você coloque em prática os resultados da seção anterior e, portanto, consiga resolver um sistema de equações lineares por meio da matriz inversa dos coeficientes, considere o seguinte sistema do tipo 2 × 2: 42 Nesse caso, é fácil reconhecer a matriz dos coeficientes: Enquanto que a matriz das variáveis é: E a matriz das constantes é: Afim de se determinar X por meio da equação matricial É necessário calcular a matriz inversa de A (SILVA, 2012). Então, perfilando a matriz A e a matriz identidade do tipo 2 × 2, você obtém: Primeiro, multiplique a primeira linha por 3 e some com a segunda linha: E a nova segunda linha fica: Divida a segunda linha por 5: E a nova segunda linha fica: Agora, multiplique a segunda linha por –1 e some com a primeira linha: 43 E a nova primeira linha fica: Multiplique a primeira linha por –1: E a nova primeira linha fica: Observe que você já tem, do lado esquerdo, uma matriz identidade do tipo 2 × 2. Logo, a matriz inversa de A é dada por: Por fim, para você determinar a matriz X, basta calcular o produto matricial Logo, a solução desse sistema é dada por: Em que: 44 16 RESOLUÇÃO DE SISTEMAS DE EQUAÇÕES LINEARES Em situações envolvendo sistemas com apenas duas equações lineares de duas variáveis, a solução pode ser obtida de formadireta (SILVA, 2012). A partir de uma das equações, escreve-se uma relação que define uma variável em função da outra e, então, substitui-se essa relação na segunda equação, o que permite determinar uma das variáveis e, depois, a outra. Esse método foi empregado na resolução dos sistemas apresentados acima. No entanto, já para um sistema do tipo 3 × 3 e sistemas de equações lineares maiores, esse método é mais trabalhoso e, por conseguinte, suscetível a erros de cálculo nas diversas passagens (SILVA, 2012). Com efeito, torna-se necessária a utilização de um método que forneça um procedimento operacional bem-definido, a fim de que a obtenção da solução para qualquer tipo de sistema seja padronizada. A chave para isso você já viu no final da primeira seção deste capítulo: dado um sistema, é interessante encontrar um sistema equivalente que forneça a mesma solução para o sistema original, mas que seja mais fácil de ser resolvido. Você verá, a seguir, dois métodos importantes para a resolução de sistemas de equações lineares. 17 MÉTODO DE ELIMINAÇÃO DE GAUSS O método de eliminação de Gauss consiste em substituir um dado sistema de equações lineares por outro equivalente, que seja mais simples de ser solucionado e que tenha a mesma solução do sistema original. Isso pode ser feito por meio de três tipos de operações matemáticas que visam a eliminar variáveis. Para que você entenda quais são essas operações que mantêm inalterada a solução do sistema original, considere novamente o sistema do tipo 2 × 2: Cuja solução é As três operações elementares sobre linhas são as seguintes: 45 1) Multiplicar uma equação por uma constante Se você multiplicar a primeira equação desse sistema por, então, o novo sistema será: Resolvendo a primeira equação para y, você obtém ou seja, Substituindo esse resultado na segunda equação: Então A solução original não foi alterada por essa operação elementar 2) Trocar de posição duas equações entre si. Isso significa passar a primeira equação para o lugar da segunda, e vice-versa. O novo sistema fica: Daí, resolvendo a segunda equação para Substituindo esse resultado na primeira equação: logo, A solução original não foi alterada por essa operação elementar (SILVA, 2012). 3) Somar um múltiplo de uma equação a uma outra equação Essa operação é menos óbvia. Primeiramente, construa um novo sistema, multiplicando a primeira equação por 3 (operação i): Agora, construa outro sistema no qual a segunda equação será igual à soma das duas equações do sistema acima; ou seja, soma-se a primeira linha com a segunda do sistema: 46 A segunda linha já fornece diretamente o valor da variável y: y = 5. Substituindo esse resultado na primeira equação: então Portanto, novamente a solução original não foi alterada por essa operação elementar (SILVA, 2012). Note que a aplicação das três operações fornece sistemas equivalentes, pois conduz a soluções iguais. Contudo, é a operação (iii) que representa a essência do método de eliminação de Gauss, pois, a partir dela, é possível obter um sistema equivalente em que uma das equações tenha apenas uma variável. Como você já deve ter percebido, as três operações acima agem apenas nos coeficientes e constantes Por isso, é mais conveniente escrever a matriz aumentada do sistema para aplicar o método da eliminação de Gauss. Uma vez que a matriz dos coeficientes e a matriz da constantes é para o exemplo discutido acima, então, a matriz aumentada fica sendo: Agora, você executa as mesmas operações elementares sobre as linhas dessa matriz aumentada. Primeiro passo: multiplique a primeira linha por 3. A primeira linha da nova matriz aumentada fica: Segundo passo: some essa nova primeira linha com a segunda. A segunda linha da nova matriz aumentada fica: 47 Observe que apareceu um zero no primeiro elemento da segunda linha (destacado na cor verde). Se você restabelecer o formato de sistema novamente: Note que, pela segunda linha, então Substituindo esse resultado na primeira equação: como você já esperava. Nessa configuração, a matriz aumentada está em sua forma escalonada por linhas, ou simplesmente forma escalonada, pois a estrutura da matriz assemelha-se à de uma escada (SILVA, 2012). Portanto, o método de eliminação de Gauss consiste em escalonar a matriz aumentada, que essencialmente significa escalonar o sistema de equações lineares, de modo a obter um novo sistema equivalente cuja resolução é mais simples e possui a mesma solução do sistema original. 18 MÉTODO DE ELIMINAÇÃO DE GAUSS-JORDAN Embora, nesse ponto, você já possa resolver o sistema como anteriormente a partir do restabelecimento da forma usual do sistema, a representação escalonada lhe permite avançar um pouco mais em direção à solução direta do sistema, sem a necessidade de substituição do valor de uma variável em outra equação para determinar mais uma variável, e assim por diante. A ideia básica é continuar a fazer operações elementares sobre linhas. Terceiro passo: Divida a primeira equação por 3, e a segunda por 5. 48 A primeira e segunda linhas da nova matriz aumentada ficam: Quarto passo: multiplique a primeira equação por –1, e depois some a segunda a ela. A primeira linha da nova matriz aumentada fica: Nessa nova configuração, a matriz aumentada está na forma escalonada reduzida por linhas. Quinto e último passo: restabeleça a forma usual do sistema Você já tem a solução diretamente: esse arranjo final do sistema (ou da matriz aumentada), em que os valores das variáveis são obtidos diretamente sem cálculos adicionais, é conhecido como método de eliminação de Gauss-Jordan (SILVA, 2012). 19 DETERMINANTES E SUAS PROPRIEDADES O determinante é um número associado a uma matriz quadrada. Antes de introduzir sua definição precisa, apresentaremos alguns exemplos de casos particulares, que podem ajudar na compreensão do caso geral. Seguiremos uma linha semelhante à apresentada em Nicholson (2006). Caso 2 × 2: 49 Consideremos a seguinte matriz: O determinante da matriz A será denotado por det(A) e pode ser calculado da seguinte maneira. Como, em resumo, o produto dos elementos da diagonal principal (a da esquerda para a direita) menos o produto dos elementos da diagonal secundária (a da direita para a esquerda (Nicholson, 2006). Essa propriedade é válida para matrizes dois por dois em geral, isto é, você poderá utilizar a seguinte fórmula: Um fato importante para se considerar em matrizes, de maneira geral, é que uma matriz quadrada é invertível se, e somente se, seu determinante for diferente de zero. Assim, os exemplos anteriormente apresentados são de uma matriz invertível a matriz A e da matriz B , que não possui inversa (JUNIOR, 2006). Para matrizes 2 × 2, cujo determinante seja não nulo, podemos ainda trabalhar com a seguinte fórmula: 50 Caso 3 × 3 Para matrizes de tamanho 3 × 3, você poderá calcular o determinante utilizando determinantes menores e cofatores (SILVA, 2012). A partir dos cofatores, podemos calcular o determinante de uma matriz quadrada utilizando a expansão do determinante em cofatores. 19.1 Expansão em cofatores Seja uma matriz quadrada de números reais, a expansão em cofatores do determinante da matriz a partir da k-ésima linha é dada por: Essa fórmula permite calcular o determinante de matrizes de qualquer tamanho, mas observe que o número de operações cresce de maneira muito rápida (JUNIOR, 2006). O determinante de uma matriz 3 × 3 implica três determinantes de matrizes 2 × 2 na sua expansão em cofatores. Já o determinante de uma matriz 4 × 4 implica quatro 51 determinantes de matrizes 3 × 3, sendo que cada um dessesimplica três determinantes de matrizes 2 × 2, gerando um total de 12 determinantes 2 × 2. Um ponto a ser destacado é que a expansão pode ser feita a partir de qualquer uma das linhas. Não existe nenhuma restrição, mas, a fim de reduzir o número de cálculos, é comum escolher a linha com a maior quantidade de zeros. A seguir, apresentamos algumas das propriedades mais importantes do determinante de uma matriz, que podem ser de muita utilidade no cálculo de determinantes. 4) P1: o determinante da matriz nula é igual a zero. 5) P2: o determinante da matriz identidade é igual a um. 6) P3: o determinante é uma função linear de cada linha isto é, se multiplicarmos uma linha por k, o determinante da matriz é multiplicado por k. 7) P4: se duas linhas (ou colunas) da matriz são iguais, ou múltiplo não nula uma da outra, o determinante da matriz é igual a zero. 8) P5: se uma das linhas (ou colunas) for formada apenas por elementos nulos, o determinante da matriz é igual a zero. 9) P6: se a matriz for triangular ou diagonal, o determinante é igual ao produto dos elementos da diagonal da matriz (JUNIOR, 2006). Veja, agora, um exemplo sobre matrizes triangulares. 52 Como dito anteriormente, a expansão em cofatores pode ser utilizada para matrizes de qualquer dimensão, não apenas 2 × 2 ou 3 × 3 (JUNIOR, 2006). 20 DETERMINANTES DA MATRIZ INVERSA Uma matriz possui inversa se, e somente se, seu determinante é diferente de zero. Além disso, você também aprendeu a calcular a matriz inversa de uma matriz 2 × 2, utilizando o determinante. Agora, verá como utilizar a fórmula de expansão em cofatores para encontrar a inversa de uma matriz quadrada de qualquer dimensão. Para tal, você precisará do seguinte resultado (JUNIOR, 2006). Teorema: seja uma matriz cujo determinante é diferente de zero, e então sua matriz inversa pode ser calculada desta forma: Em palavras, a matriz inversa de A é igual ao inverso do determinante de A multiplicado à transposta da matriz de cofatores de A. O resultado foi enunciado no caso 3 × 3, para facilitar a compreensão, mas pode ser utilizado para matrizes de qualquer dimensão. 53 Um importante resultado sobre matrizes inversas é enunciado a seguir. Teorema: dada uma matriz as afirmações listadas a seguir são equivalentes. 1. é invertível. 2. det(A) ≠ 0 3. As n linhas de são linearmente independentes. Outro fato importante sobre matrizes inversas é que elas são fortemente relacionadas aos sistemas lineares. Considere um sistema de equações lineares homogêneo, cuja forma matricial seja: Fato: o sistema linear homogêneo anterior tem apenas a solução trivial se, e somente se, a matriz A é invertível. Esse fato nos fornece uma maneira simples e prática de verificar se a solução trivial (vetor nulo) é a única de um sistema linear homogêneo (JUNIOR, 2006). Concluímos esta seção com uma importante relação entre o determinante de uma matriz e o determinante de sua inversa. Teorema: seja uma matriz invertível, então: Veja, a seguir, um exemplo de aplicação desse resultado. 54 Observe que a exigência de o determinante ser diferente de zero, A invertível é necessária, uma vez que não se pode ter divisão por zero. 21 AUTOVALORES E DIAGONALIZAÇÃO DE MATRIZES Nesta seção, você verá como calcular os autovalores de uma matriz e como utilizá-los no processo de diagonalização de matrizes, essencial na resolução de sistemas lineares (SILVA, 2006). Um número é um autovalor de uma matriz se existe algum vetor v, tal que: Em palavras é um autovalor de se existir um vetor v , tal que, ao aplicarmos sobre v obtemos Nesse caso, a operação de aplicar uma transformação linear foi capsulada no produto por um número. Diremos, também, que v é um autovetor de associado ao autovalor 55 Isso é equivalente a dizer que é um autovalor de se existir solução para o sistema linear homogêneo Outra maneira de procurar pelos autovalores de uma matriz é por meio do polinômio característico. Dada uma matriz seu polinômio característico é definido por: Agora, você verá um resultado apresentado por Nicholson (2006), que nos permite relacionar autovalores e autovetores com o processo de diagonalização de matrizes (JUNIOR, 2006). Teorema: seja uma matriz, então: 1. a é diagonalizável se, e somente se, ela possui autovetores tais que a matriz é invertível; 56 2. quando esse for o caso, temos onde é o autovalor associado ao autovetor Veja um último exemplo sobre a diagonalização de matrizes (JUNIOR, 2006). Um último resultado, extremamente interessante e relacionado ao polinômio característico de uma matriz, é o Teorema de Cayley-Hamilton. Esse resultado, atribuído aos matemáticos Arthur Cayley e William Hamilton, diz que uma matriz é um zero de seu próprio polinômio característico. De maneira mais precisa, quer dizer o seguinte Teorema(Cayley-Hamilton): considere a matriz é o polinômio característico da matriz então: ´ 57 Esse teorema fornece um excelente teste para verificar se o cálculo do polinômio característico foi efetuado de maneira correta (JUNIOR, 2006). 22 ESPAÇOS VETORIAIS: EXEMPLOS E PROPRIEDADES BÁSICAS Um espaço vetorial E é um conjunto de vetores, no qual estão definidas operações de soma e de multiplicação por um número real, de modo que dados vetores Quando as condições anteriores são satisfeitas, podemos dizer que o conjunto E é fechado em relação às operações de soma e multiplicação por número real. Adicionalmente, essas operações devem satisfazer, para quaisquer α, β ∈ ℝ e u, v, w ∈ E, as seguintes condições, ditas axiomas do espaço vetorial (DANESI, 2018). a) Comutatividade: b) Associatividade: c) Vetor nulo: existe dito vetor nulo, tal que, para todo d) Inverso aditivo: para cada existe dito inverso aditivo de u, tal que: e) Distributividade: f) Identidade por 1: para todo Uma curiosidade é reparar que usamos o símbolo “0” tanto para o número real zero quanto para o vetor nulo. Isso não será problema, pois uma consequência desses axiomas é que 58 O exemplo trivial que poderíamos citar é o caso que e os vetores u são as n-uplas de números reais. Ao invés dele, falaremos de um espaço vetorial muito similar, mas que mostra uma flexibilidade da definição para outros tipos de conjuntos (DANESI, 2018). Esse exemplo não é muito diferente do porque existe uma identificação entre os polinômios de grau n de coeficientes reais, definidos em ℝ, e as n-uplas de números reais na medida em que: 59 Contudo, é válido imaginar o significado de um produto interno nesse espaço vetorial, o que seriam polinômios ortogonais e as transformações lineares sobre esses elementos (DANESI, 2018). Antes de prosseguir com essas questões, vamos explorar um exemplo: Esse exemplo é mais distante do porque uma função é definida pelas imagens dos infinitos Isso nos dá abertura para imaginarmos o conceito de dimensão aplicado a esse conjunto. Como será que podemos definir uma base? Novamente, antes de falarmos dessas questões mais avançadas, seguiremos com a próxima definição natural (DANESI, 2018). 60 22.1 Subespaços vetoriais Seja E um espaço vetorial. Um subespaço vetorial (ou apenas subespaço) de E é um subconjunto que ainda é um espaço vetorial em relação às operações de E. Isto é, F apresenta as seguintes propriedades. São considerados subespaços triviais de E o conjunto {0} que contém apenas o vetor nulo e o próprio E. Aproveitando os exemplos anteriores, podemos dar os seguintes subespaços não triviais (DANESI, 2018). O espaço vetorial definido pelas funções contínuas em também nos dá um exemplo de subespaço. 61 22.2 Subespaços geradosDado um conjunto de vetores contido no espaço vetorial E, existem dizemos que u ∈ E é combinação linear de se O conjunto de todas as combinações lineares dos vetores de B é dito gerado de B (DANESI,2018). Esse conjunto é subespaço vetorial de E, pois: 62 Dessa maneira, os vetores u + v e αu também são combinações lineares de B, pois, para todo α ∈ ℝ: Isso quer dizer que é fechado em relação às operações de E. 22.3 Um conjunto como espaço vetorial Pelo que foi definido anteriormente, um conjunto E dotado de uma operação de soma e uma operação de multiplicação por um número real é um espaço vetorial, se E satisfaz as condições (i) e (ii) de fechamento das operações e as condições de (a) até (f) das propriedades necessárias às operações (DANESI, 2018). Podemos reescrever essa definição como um algoritmo, a fim de verificar se um determinado conjunto E com duas operações é espaço vetorial. 1) Identificar o conjunto E de elementos que serão os vetores. 2) Identificar as operações de soma e multiplicação por escalar 3) Verificar as condições (i) e (ii), isto é, se as operações de soma e multiplicação por escalar são fechadas em E. 4) Verificar as propriedades (a) até (f). Exemplo de espaços que são comuns nas aplicações (DANESI, 2018). 63 23 UM SUBCONJUNTO COMO SUBESPAÇO VETORIAL Como foi definido, dado E espaço vetorial, um subespaço vetorial (ou subespaço) de E é um subconjunto que ainda é um espaço vetorial em relação às operações de E. Isto é, F precisa ser fechado em relação às operações de E. Confirmamos isso se verificarmos o seguinte. Se então Se então, para todo A tarefa de determinar se um subconjunto é subespaço depende de um número menor de condições por F herdar as operações do espaço E. Essas operações trazem, de forma implícita, as propriedades (a) até (f), necessitando apenas mostrar que F é fechado em respeito a essas operações (DANESI, 2018). 64 24 DEPENDÊNCIA E INDEPENDÊNCIA LINEAR Dado um conjunto de vetores em diremos que o vetor É uma combinação linear desses, se existirem em tais que: Veja, a seguir, um exemplo de combinação linear (DANESI, 2018). Consideremos, agora, um conjunto de vetores que diremos que é linearmente independente, se os únicos valores de que tornam a combinação verdadeira, são Em outras palavras, um conjunto de vetores é linearmente independente se, e somente se, a única combinação deles, que resulta no vetor nulo, for a que apresenta todos os coeficientes iguais a zero (JUNIOR, 2006). 65 Diremos que um conjunto é linearmente dependente se existirem coeficientes tais que: Isto é, existe uma combinação não nula que resulta no vetor nulo. Uma interpretação importante de um conjunto linearmente dependente é que qualquer um dos vetores desse conjunto pode ser escrito como combinação linear dos demais. Um importante teorema sobre esse assunto é apresentado em Nicholson (2006). Teorema: se é um conjunto linearmente independente, então, todo vetor tem uma escrita única como combinação linear dos vetores Em palavras, se um conjunto de geradores é linearmente independente, cada vetor do espaço gerado é escrito de maneira única, a menos da ordenação, como combinação linear dos vetores geradores. 25 GERADOR E MATRIZ INVERSA O último exemplo da seção anterior nos fornece uma bela ideia de como conjuntos geradores estão relacionados com conjuntos linearmente independentes. Agora, você verá de perto essa relação e como matrizes inversas e determinantes podem ser utilizadas para auxiliar na identificação de conjuntos linearmente independentes de vetores. O método do exemplo anterior pode ser sumarizado da seguinte maneira (NICHOLSON, 2006). Teste para independência linear: para verificar que um conjunto de vetores é linearmente independente, proceda do seguinte modo. 1) Escreva uma combinação linear dos vetores e iguale ao vetor nulo: 66 2) Mostre que a única maneira de isso ocorrer é trivialmente, ou seja, com todos os coeficientes iguais a zero. É claro que, se existir alguma solução não trivial, o conjunto de vetores é linearmente dependente (JUNIOR, 2006). O sistema linear associado ao problema poderia ser escrito em forma matricial, como: Observe, primeiramente, que o sistema é homogêneo. Portanto, se a matriz principal for invertível, ele admite como solução apenas o vetor nulo. Com efeito, a matriz principal do sistema tem determinante igual 36 e, portanto, é invertível. Segue que a única solução possível para esse sistema é a trivial. Resumindo o fato exposto, temos o seguinte teorema (NICHOLSON, 2015). Seja A uma matriz então as seguintes afirmações são equivalentes: 1) A é invertível. 2) As colunas de A são linearmente independentes em . 3) As colunas de A geram o espaço 4) As linhas de A são linearmente independentes em 5) As linhas de A geram o espaço Esse método de verificar se a matriz é invertível para concluir sobre a independência de um conjunto de vetores pode ser muito útil. Veja o exemplo a seguir. 67 26 COMBINAÇÕES LINEARES E GEOMETRIA A geometria dos espaços e algumas de suas relações com conjuntos geradores, dependência e independência linear (NICHOLSON, 2015). Em continuação ao tópico anterior, um corolário imediato daquele teorema pode ser enunciado como em Nicholson (2015). ou 2 , então: Corolário: sejam vetores não nulos em 68 Esse simples resultado pode nos ajudar a estabelecer alguns testes muito úteis para a compreensão de algumas propriedades geométricas. No plano euclidiano, por exemplo, é muito importante conhecer quando dois vetores são paralelos (JUNIOR, 2006). Veja o exemplo a seguir: Uma consequência importante desse corolário é a possibilidade de determinar se duas retas em são paralelas ou não, com o simples cálculo de um determinante (NICHOLSON, 2015). Em temos algumas possibilidades quanto à geometria de espaços gerados. Conjuntos com um único vetor não nulo dão origem a retas em 69 Conjunto com dois vetores linearmente independentes geram, como subespaços, planos em Por fim, conjuntos com três vetores linearmente independentes geram o próprio espaço Unindo essa informação com a ideia de que, em transformações matriciais, as colunas geram o espaço imagem, podemos determinar a geometria do espaço imagem por meio da dependência ou independência linear dos vetores coluna da matriz da transformação. As relações de dependência e independência linear fornecem poderosas informações sobre conjuntos de vetores. Futuramente, você aprenderá sobre o importante papel que conjuntos geradores linearmente independentes exercem em álgebra linear (JUNIOR, 2006). 70 27 REFERÊNCIAS BIBLIOGRÁFICAS 27.1 Bibliografia Básica ANTON, Howard. Álgebra linear com aplicações. 8. ed. Porto Alegre: Bookman, 2001. LIPSCHUTZ, Seymour. Álgebra linear: teoria e problemas. 3. ed. São Paulo: Makron Books, 2004. 647p. STRANG, Gilbert. Álgebra Linear e suas aplicações. São Paulo: Cengage, 2010. 27.2 Bibliografia Complementar ANTON, H.; BUSBY, R. C. Álgebra linear contemporânea. Porto Alegre: Bookman, 2006. ANTON, H.; RORRES, C. Álgebra linear com aplicações. 8. ed. Porto Alegre: Bookman, 2003. ANTON, H.; RORRES, C. Álgebra linear com aplicações. 8. ed. Porto Alegre: Bookman, 2012. 786 p. CRISPINO, M. L. 320 questões resolvidas de álgebra linear. Rio de Janeiro: Ciência Moderna, 2012. NICHOLSON, W. K. Álgebra linear. 2. ed. São Paulo: McGraw-Hill, 2006. 394 p NICHOLSON, W. K. Álgebra linear. 2. ed. São Paulo: McGraw-Hill, 2006.
Compartilhar