Baixe o app para aproveitar ainda mais
Prévia do material em texto
1 1 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 1: Sistemas Lineares e Matrizes Sumário 1 O que é Álgebra Linear? . . . . . . . . . . . . . . . 2 1.1 Corpos . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2 Espaços Vetoriais . . . . . . . . . . . . . . . . . . . 4 1.3 Sistemas de Equações Lineares . . . . . . . . . . . 9 2 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.1 A Definição de Matriz . . . . . . . . . . . . . . . . 14 2.2 Operações com Matrizes . . . . . . . . . . . . . . . 16 2.3 Matriz Inversa . . . . . . . . . . . . . . . . . . . . 23 2 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES 1 O que é Álgebra Linear? Os espaços em que trabalharemos são os Rn, com n ≥ 2, isto é, o produto cartesiano de n cópias da reta real R. Para n ≥ 4, este espaço generaliza o espaço R2 dos vetores do plano e o espaço R3 dos vetores no espaço. A diferença crucial entre os casos n = 2 e n = 3 e os casos em que n ≥ 4 é que, para estes últimos, não se dispõe de uma representação geométrica. O fato não diminui a importância desses espaços, pois basta pensar que o R4 é o espaço-tempo da Física, em que os pontos são quaternos (x, y, z, t), com as três primeiras coordenadas representando a posição no espaço de uma partícula ideal e a última representando o instante t em que esta partícula ocupa tal posição. Por não existir uma representação geométrica para os pontos de Rn com n ≥ 4, seremos obrigados a tratá-los algebricamente, sem o recurso da visualização geométrica, tão fundamental em R2 e R3. Portanto, trataremos os elementos de Rn como vetores, onde a soma de dois vetores (x1, x2, . . . , xn) e (y1, y2, . . . , yn) é dada por (x1, x2, . . . , xn) + (y1, y2, . . . , yn) = (x1 + y1, x2 + y2, . . . , xn + yn), e a multiplicação do vetor (x1, x2, . . . , xn) pelo número real a, chamado de escalar, é definida por a(x1, x2, . . . , xn) = (ax1, ax2, . . . , axn). Os espaços Rn são utilizados de modo essencial em quase todos os ramos do conhecimento e, por este motivo, são estudados em Matemática sob os mais variados pontos de vista e com as mais diversas estruturas. Por exem- plo, no Cálculo Diferencial, são considerados como espaços normados; em Geometria, como espaços com produto interno. A estrutura de Rn estudada em Álgebra Linear é a induzida pela estrutura de corpo da reta real R. Essa é a estrutura mínima apropriada para se estudar sistemas de equações lineares com várias incógnitas. Além disso, é aquela sobre a qual se constroem o Cálculo Diferencial e a Geometria Diferencial, entre outros. 1. O QUE É ÁLGEBRA LINEAR? 3 Como a estrutura de corpo de R desempenhará papel fundamental, vamos definir formalmente este conceito. 1.1 Corpos Um conjunto K será chamado de corpo se for munido de uma operação de adição (+) e uma operação de multiplicação (×), verificando as condições a seguir. A1 A adição é associativa: (a+ b) + c = a+ (b+ c), para todos a, b, c ∈ K. A2 A adição é comutativa: a+ b = b+ a, para todos a, b ∈ K. A3 A adição possui elemento neutro: existe 0 ∈ K, tal que a+ 0 = a, para todo a ∈ K. A4 A adição possui simétricos: para todo a ∈ K, existe −a ∈ K tal que a+ (−a) = 0. M1 A multiplicação é associativa: (a× b)× c = a× (b× c), para todos a, b, c ∈ K. M2 A multiplicação é comutativa: a× b = b× a, para todos a, b ∈ K. M3 A multiplicação possui elemento neutro: existe 1 ∈ K \ {0}, tal que a× 1 = a, para todo a ∈ K. M4 A multiplicação possui inversos: para todo a ∈ K \ {0}, existe a−1 ∈ K tal que a× a−1 = 1. AM A multiplicação é distributiva com relação à adição: a× (b+ c) = a× b+ a× c, para todos a, b, c ∈ K. Portanto, são corpos os conjuntos Q, R e C, com as suas respectivas adições e multiplicações. A operação de multiplicação em um corpo muitas vezes é denotada por (·), escrevendo a · b, ou mesmo ab, no lugar de a× b, notação que adotaremos ao longo deste livro. 4 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES Existem exemplos de corpos que à primeira vista parecem exóticos, como o corpo de Galois 1 F2, que consiste dos dois elementos 0 e 1 com as seguintes operações: + 0 1 0 0 1 1 1 0 × 0 1 0 0 0 1 0 1 Note que este é o corpo com o menor número possível de elementos, pois todo corpo deve possuir os dois elementos distintos 0 e 1. Apesar de parecerem apenas curiosidades, os corpos com um número finito de elementos têm as mais variadas aplicações em quase toda a Matemática e são essenciais na tecnologia e na computação. 1.2 Espaços Vetoriais Os espaços Rn, por serem constituídos por vetores que podem ser soma- dos e multiplicados por escalares, como vimos antes, são chamados espaços vetoriais. Como os espaços vetoriais são os objetos principais de estudo da Álgebra Linear, vamos defini-los formalmente a seguir. Um conjunto V será dito um espaço vetorial sobre um corpo K, se possui uma adição (+) com as mesmas propriedades da adição em um corpo; ou seja, A1 A adição é associativa: (u+ v) + w = u+ (v + w), para todos u, v, w ∈ V . A2 A adição é comutativa: u+ v = v + u, para todos u, v ∈ V . A3 A adição possui elemento neutro (elemento zero): existe 0 ∈ V , tal que v + 0 = v, para todo v ∈ V . 1 Em homenagem a Évariste Galois (França, 1811-1832), considerado um dos grandes gênios da Matemática. 1. O QUE É ÁLGEBRA LINEAR? 5 A4 A adição possui simétricos: para todo v ∈ V , existe −v ∈ V tal que v + (−v) = 0. E além disso, existe uma operação chamada de multiplicação por escalar, que associa a um elemento a ∈ K e a um elemento v ∈ V , um elemento av ∈ V , tal que ME1 a(u+ v) = au+ av, para todos a ∈ K e u, v ∈ V . ME2 (a1 + a2)v = a1v + a2v, para todos a1, a2 ∈ K e v ∈ V . ME3 (a1a2)v = a1(a2v), para todos a1, a2 ∈ K e v ∈ V . ME4 1v = v, para todo v ∈ V . Os elementos de V serão chamados de vetores e os elementos de K de escalares. Assim, o elemento 0 de V será chamado de vetor nulo e o elemento −v de vetor oposto de v. O primeiro matemático a dar uma definição abstrata para um espaço vetorial foi Giuseppe Peano (Itália, 1858 - 1932) em seu livro Calcolo Geo- metrico, de 1888. No Capítulo IX, Peano dá uma definição do que ele chama de um sistema linear. Para Peano, um sistema linear consistia de quantidades com operações de adição e multiplicação por escalar. A adição deveria satis- fazer as leis comutativa e associativa, enquanto a multiplicação por escalar deveria satisfazer duas leis distributivas, uma lei associativa e a lei de que 1 · v = v para toda quantidade v. Além disso, Peano incluiu como parte de seu sistema de axiomas a existência de uma quantidade 0 (zero) satisfazendo v + 0 = v, para todo v, assim como v + (−1)v = 0 para todo v. Peano também definiu a dimensão de um sistema linear como o máximo número de quantidades linearmente independentes do sistema (veja esta noção na Seção 2 do Capítulo 3). Peano verificou que o conjunto das funções polinomiais em uma variável forma um sistema linear, mas não existia um tal número má- ximo de quantidades linearmente independentes, portanto, a dimensão deste sistema deveria ser infinito. O fato a seguir decorre da definição de espaço vetorial. Para a ∈ K e 6 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES v ∈ V , tem-se que a = 0 ou v = 0 ⇐⇒ av = 0. De fato, sejam a ∈ K e 0 ∈ V . Como 0 + 0 = 0, pela propriedade ME1, segue-se que a 0 = a(0 + 0) = a 0 + a 0. Somando o simétrico −a 0 de a 0 a ambos os lados da igualdade acima e utilizando as propriedades A4, A1 e A3, temos que 0 = a 0 + (−a 0) = (a 0 + a 0) + (−a 0) = a 0 + [a 0 + (−a 0)] = a 0 + 0 = a 0. De modo semelhante, mostra-se (faça-o) que para 0 ∈ K e v ∈ V tem-se 0 v = 0, onde o elemento 0 da direita é o elemento zero de V . Reciprocamente, suponhamos que av = 0 e a 6= 0, então,multiplicando ambos os lados da igualdade acima pelo escalar a−1, temos que 0 = a−10 = a−1(av) = (a−1a)v = 1v = v. Dois vetores u e v em um espaço vetorial V serão ditos colineares, se existir um elemento a em K tal que v = au. Portanto, são colineares os vetores u e au, para todo a ∈ K. Note que o vetor 0 é colinear com qualquer vetor v, pois 0 = 0v. É um exercício fácil mostrar que Rn é um espaço vetorial sobre o corpo R, com as operações de adição de vetores e a multiplicação por escalares que definimos anteriormente, onde o elemento zero é o vetor (0, 0, . . . , 0) e o simétrico de (x1, x2, . . . , xn) é o vetor −(x1, x2, . . . , xn) = (−x1,−x2, . . . ,−xn). Observe que não há nada de especial sobre os reais, além de sua estrutura de corpo para que Rn seja um espaço vetorial sobre R. Mais geralmente, dado um corpo qualquer K, o espaço Kn é um espaço vetorial sobre K, com 1. O QUE É ÁLGEBRA LINEAR? 7 operações semelhantes às de adição de vetores e de multiplicação de vetores por escalares que definimos no caso em que K = R. Por exemplo, os espaços vetoriais Fn2 sobre F2, por mais inócuos que possam parecer, são de extrema utilidade em várias aplicações, dentre elas na construção de códigos corretores de erros (veja a referência [3] para maiores detalhes sobre esta teoria). Outros exemplos importantes de espaços vetoriais são os espaços R e C sobre o corpo Q e o espaço C sobre o corpo R. Como sucede com frequência em Matemática, ao introduzir um conceito para lidar com determinado problema, cria-se um instrumento que muitas vezes transcende o problema inicial e se constitui em um conceito central em vários outros contextos. Isto ocorreu com a noção de espaço vetorial, que inicialmente foi introduzida para tratar de alguns tipos de problemas em Rn, como a resolução de sistemas de equações lineares cuja discussão iniciaremos na próxima subseção, e se desenvolveu em uma teoria com vida própria. Pode-se sinteticamente dizer que a Álgebra Linear é a parte da Matemática que se dedica ao estudo dos espaços vetoriais e de certas funções entre esses espaços, chamadas de transformações lineares. Embora muitas das ferramentas básicas da Álgebra Linear, particular- mente as que estão relacionadas com sistemas lineares, datem da antigui- dade, o assunto começou a tomar sua forma atual em meados dos século XIX. A partir desta época, muitas noções estudadas em séculos anteriores foram abstraídas e muitos métodos generalizados. A Álgebra Linear tem várias aplicações fora da Matemática. Por exemplo, citamos a teoria da relatividade e a mecânica quântica na Física e a teoria de análise de regressão na Estatística. A seguir, daremos alguns exemplos diferentes de Rn para ilustrar situações onde aparecem os espaços vetoriais e que, muitas vezes, quando tratadas dessa forma ganham clareza. Exemplo 1 O conjunto das funções de um conjunto não vazio A em R forma um espaço vetorial sobre R, onde a soma é a soma usual de funções 8 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES com valores reais (f + g)(x) = f(x) + g(x), para todo x ∈ A, e a multiplicação de uma função f por um escalar a ∈ R é definida como sendo (a f)(x) = a f(x), para todo x ∈ A. Em particular, se I = [a, b] é um intervalo em R, sabe-se do Cálculo Dife- rencial e Integral que o conjunto das funções contínuas, bem como o conjunto das funções integráveis, de I em R, são espaços vetoriais sobre R. Exemplo 2 De acordo com o Exemplo 1, o conjunto S das sequências de números reais, isto é, o conjunto das funções de N \ {0} em R é um espaço vetorial sobre R. É fácil verificar (leitor, faça-o) que o conjunto R(a, b) das sequências (un) em S que satisfazem a recorrência un+1 = aun + bun−1, n ≥ 2, onde a e b são dois números reais fixados, é um espaço vetorial sobre R. Em particular, o conjunto R(1, 1), que contém a sequência de Fibonacci2 (aquela para a qual u1 = u2 = 1), é um espaço vetorial. Veremos no Capítulo 5 como esta informação nos ajudará a achar todas as sequências em R(1, 1), determinando suas fórmulas fechadas. Exemplo 3 (Peano) O conjunto K[x] dos polinômios com coeficientes em um corpo K forma um espaço vetorial sobre K. Para n ∈ N, os conjuntos K[x]n = {p(x) ∈ K[x] ; grau(p(x)) ≤ n} ∪ {0} também são espaços vetoriais sobre K. Em particular, o conjunto R[x]2 = {a0 + a1x+ a2x2; a0, a1, a2 ∈ R} é um espaço vetorial sobre R. 2 Apelido de Leonardo de Pisa (Itália, ∼ 1170 - ∼ 1250). Foi o primeiro grande mate- mático europeu da Idade Média. 1. O QUE É ÁLGEBRA LINEAR? 9 1.3 Sistemas de Equações Lineares Desde a antiguidade, em diversas áreas do conhecimento, muitos pro- blemas são modelados matematicamente por sistemas de equações lineares. Damos a seguir um exemplo de sistema de equações lineares:{ x+ y = 36 x− y = 2, (1) onde se subentende que estamos buscando dois números reais cuja soma vale 36 e cuja diferença vale 2. Portanto, as soluções procuradas podem ser representadas por pares de números reais (a, b) tais que, se substituírmos x por a e y por b, nas equações, elas se tornam igualdades de fato. Por exemplo, o par (x, y) = (19, 17) é uma solução, pois obtemos as igualdades:{ 19 + 17 = 36 19− 17 = 2. Os sistemas com duas equações lineares, como o acima, já eram consi- derados pelos babilônios por volta de 1800 a.C. e resolvidos por um método que chamamos hoje de método de eliminação gaussiana 3 . Por exemplo, para resolver o sistema de equações (1), ao somarmos a segunda equação à primeira, o transformamos no �sistema equivalente�,{ 2x = 38 x− y = 2, que seguimos transformando até obtermos um sistema onde as soluções são trivialmente encontradas:{ 2x = 38 x− y = 2 ⇔ { x = 19 x− y = 2 ⇔ { x = 19 x− y − x = 2− 19 ⇔ { x = 19 y = 17. 3 Em homenagem a Carl Friedrich Gauss (Alemanha, 1777 - 1855), considerado um dos maiores matemáticos de todos os tempos. 10 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES Esse método será generalizado e sistematizado para sistemas de equações lineares com m equações e n incógnitas do tipo a11x1 + a12x2 + · · ·+ a1nxn = b1 a21x1 + a22x2 + · · ·+ a2nxn = b2 . . . am1x1 + am2x2 + · · ·+ amnxn = bm , (2) onde os aij's e os bi's, para 1 ≤ i ≤ m e 1 ≤ j ≤ n, são números reais dados, ou, mais geralmente, elementos de um corpo K dado. Seja S = {(c1, c2, . . . , cn) ∈ Rn ; ai1c1 + ai2c2 + · · ·+ aincn = bi, 1 ≤ i ≤ m}. Esse subconjunto de Rn é chamado de conjunto solução do sistema (2). É precisamente este conjunto que queremos determinar ou descrever o mais explicitamente possível. Note que para resolver o sistema (1), do exemplo acima, o modificamos gradativamente, por meio de uma sequência de transformações elementares, em um sistema mais simples de resolver, onde por transformação elementar de um sistema entendemos uma das seguintes transformações: 1) Trocar a posição relativa de duas equações do sistema; 2) Trocar uma equação pela soma membro a membro da própria equação com um múltiplo de outra; 3) Trocar uma equação dada por um de seus múltiplos (i.e., a equação obtida multiplicando ambos os membros da equação dada por um número real não nulo). Diremos que dois sistemas de equações lineares são sistemas equivalentes, se pudermos obter um sistema do outro a partir de uma sequência finita de transformações elementares. Esta relação entre sistemas é efetivamente uma relação de equivalência. De fato, ela é claramente reflexiva, pois basta multiplicar uma das equações 1. O QUE É ÁLGEBRA LINEAR? 11 do sistema por 1; é transitiva, pois basta concatenar uma sequência de trans- formações elementares com uma outra; e é simétrica, pois podemos desfazer uma transformação elementar com outra. Assim, é imediato verificar que: Sistemas de equações linearesequivalentes possuem mesmo conjunto solução. Dentre os sistemas de equações lineares, ocupam lugar de destaque os sistemas homogêneos, ou seja, aqueles sistemas como em (2), porém com os bi's todos nulos: a11x1 + a12x2 + · · ·+ a1nxn = 0 a21x1 + a22x2 + · · ·+ a2nxn = 0 . . . am1x1 + am2x2 + · · ·+ amnxn = 0. (3) Esses sistemas possuem peculiaridades não compartilhadas pelos sistemas mais gerais. Por exemplo, o vetor (0, 0, . . . , 0) pertence ao conjunto Sh de soluções do sistema. Além disso, se os vetores u = (c1, c2, . . . , cn) e u ′ = (c′1, c ′ 2, . . . , c ′ n) são soluções do sistema, e se a ∈ R, então os vetores u+ u′ = (c1 + c′1, c2 + c ′ 2, . . . , cn + c ′ n) e au = (ac1, ac2, . . . , acn) também são soluções do sistema (3) (leitor, verifique). Assim, resulta que o espaço Sh das soluções do sistema (3) é um espaço vetorial sobre R De fato, as propriedades A1 e A2 da definição são satisfeitas para todos os vetores de Rn e em particular para os de Sh. Por outro lado, (0, 0, . . . , 0) ∈ Sh e se (c1, c2, . . . , cn) ∈ Sh, então −1(c1, c2, . . . , cn) = (−c1,−c2, . . . ,−cn) ∈ Sh, o que mostra que a adição em Sh possui também as propriedades A3 e A4. Além disso, as propriedades ME1�ME4 da multiplicação por escalar são fa- cilmente verificadas para Sh. Note que o que há de essencial em um sistema de equações lineares (2) são os coeficientes das equações que o formam além dos números que 12 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES compõem os segundos membros das equações. Consideremos os vetores (ai1, ai2, . . . , ain, bi) de Rn+1 que representam os coeficientes das equações do sistema (2) acrescidos dos segundos membros e os organizemos como linhas de uma tabela, chamada de matriz ampliada do sistema (2), como segue: a11 a12 · · · a1n b1 a21 a22 . . . a2n b2 . . . . . . . . . . . . am1 am2 · · · amn bm . (4) Quando o sistema de equações é homogêneo, a ele associamos a matriz a11 a12 · · · a1n a21 a22 . . . a2n . . . . . . . . . am1 am2 · · · amn , eliminando a coluna de zeros da direita na matriz (4). As matrizes surgiram por volta do ano 200 a.C. com os chineses, motiva- dos pelo interesse em calcular soluções de sistemas com mais de quatro equa- ções lineares. De fato, no Capítulo 8 do texto intitulado Jiuzhang suanshu, de autor desconhecido, que significa �Nove capítulos sobre a Arte Matemática" , fica claro que o procedimento de resolução de sistemas lineares usado pelos chineses é semelhante ao método de escalonamento, que discutiremos ainda neste capítulo, e é apresentado na forma de matrizes. Cabe observar que os chineses só consideravam sistemas lineares com o mesmo número de equa- ções e incógnitas, não constando em seus escritos o motivo desses sistemas produzirem sempre uma única solução e como o algoritmo chinês funcionava. Problemas 1.1 Verifique que o conjunto das funções de um conjunto não vazio A nos reais é um espaço vetorial sobre R, com as operações definidas no Exemplo 1. O QUE É ÁLGEBRA LINEAR? 13 1. Verifique também que, para cada par de números reais (a, b), o conjunto das recorrências R(a, b), definido no Exemplo 2, é um espaço vetorial sobre R. 1.2 Seja v um elemento não nulo de um espaço vetorial V sobre R. Mostre que é injetora a função R → V t 7→ tv. 1.3 Sejam v1 e v2 elementos de um espaço vetorial V sobre R. Mostre que a função R2 → V (a1, a2) 7→ a1v1 + a2v2 é injetora se, e somente se, v1 e v2 não são colineares. 1.4 Diga, em cada caso, por que o conjunto com as operações indicadas não satisfaz à definição de espaço vetorial, onde a ∈ R. a) R2, com as operações: (x, y) + (x′, y′) = (x+ x′, y + y′) e a(x, y) = (3ax, 3ay). b) R2, com as operações: (x, y) + (x′, y′) = (xx′, yy′) e a(x, y) = (ax, 0). c) R3, com as operações: (x, y, z) + (x′, y′, z′) = (0, 0, 0) e a(x, y, z) = (ax, ay, az). 1.5 Sejam U e W dois espaços vetoriais sobre um corpo K. Considere o produto cartesiano V = U ×W desses dois conjuntos. Defina as seguintes operações em V : (u1, w1) + (u2, w2) = (u1 + u2, w1 + w2) e a(u1, w1) = (au1, aw1), onde u1, u2 ∈ U , w1, w2 ∈ W e a ∈ K. Mostre que V com as operações de adição e de mutiplicação por escalar, acima definidas, é um espaço vetorial sobre K. Este espaço vetorial é chamado de espaço produto de U por W . 14 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES 2 Matrizes As matrizes são ferramentas básicas da Álgebra Linear, pois além de for- necerem meios para a resolução dos sistemas de equações lineares, elas tam- bém representarão as transformações lineares entre espaços vetoriais, como veremos no Capítulo 6. 2.1 A Definição de Matriz Dados m e n em N \ {0}, definimos uma matriz real de ordem m por n, ou simplesmente uma matriz m por n (escreve-se m× n), como uma tabela formada por elementos de R distribuídos em m linhas e n colunas. Estes elementos de R são chamados entradas da matriz4. Por exemplo, a matriz [3] é uma matriz 1× 1, ao passo que[ 2 1 0 −1 −2 4 ] é uma matriz 2×3. As entradas da primeira linha da matriz são dadas pelos números reais 2, 1 e 0 e as entradas da segunda linha da matriz são dadas pelos números reais −1, −2 e 4. É usual indicarmos as entradas de uma matriz arbitrária A pelos sím- bolos Aij, ou ainda aij , onde os índices indicam, nessa ordem, a linha e a coluna onde o elemento se encontra. Assim, uma matriz m×n é usualmente representada por A = a11 a12 . . . a1n a21 a22 . . . a2n . . . . . . . . . am1 am2 . . . amn , 4 As entradas de uma matriz não precisam ser necessariamente números reais, podem ser números complexos ou, mais geralmente, elementos de um corpo K. 2. MATRIZES 15 ou por A = [aij]m×n , ou simplesmente por A = [aij], quando a ordem da matriz estiver subentendida. O símbolo M(m,n) denota o conjunto das matrizes m× n. Dependendo dos valores de m e n, uma matriz m × n recebe um nome especial. De fato, toda matriz 1× n é chamada de uma matriz linha e toda matriz m×1 é chamada de uma matriz coluna. Uma matriz n×n é chamada de matriz quadrada de ordem n. Por exemplo, a matriz[ 1 −3 1 0 4 ] é uma matriz linha de ordem 1× 5 e a matriz2 −1 00 1 2 3 1 4 é uma matriz quadrada de ordem 3. Se A = [aij] é uma matriz quadrada de ordem n, as entradas aii , com 1 ≤ i ≤ n, formam a diagonal principal de A. Uma matriz diagonal de ordem n é uma matriz quadrada de ordem n em que os elementos que não pertencem à diagonal principal são iguais a zero: a11 0 . . . 0 0 a22 . . . 0 . . . . . . . . . 0 0 . . . ann . A matriz diagonal de ordem n cujas entradas da diagonal principal são iguais ao número real 1, 1 0 . . . 0 0 1 . . . 0 . . . . . . . . . 0 0 . . . 1 , é chamada matriz identidade de ordem n e denotada usualmente por In. Em alguns casos, representaremos por simplicidade In apenas por I. 16 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES Uma matriz triangular superior de ordem n é uma matriz quadrada de ordem n em que todos os elementos abaixo da diagonal principal são iguais a zero: a11 a12 . . . a1n 0 a22 . . . a2n . . . . . . . . . 0 0 . . . ann . Portanto, uma matriz quadrada A = [aij] de ordem n é triangular superior se aij = 0 sempre que i > j. Analogamente, uma matriz triangular inferior de ordem n é uma matriz quadrada de ordem n em que todos os elementos acima da diagonal principal são iguais a zero: a11 0 . . . 0 a21 a22 . . . 0 . . . . . . . . . an1 an2 . . . ann . Portanto, uma matriz quadrada A = [aij] de ordem n é triangular inferior seaij = 0 sempre que i < j. Uma matriz m × n cujas entradas são todas iguais a zero é chamada de uma matriz nula. Por exemplo, a matriz[ 0 0 0 0 0 0 ] é uma matriz nula de ordem 2× 3. 2.2 Operações com Matrizes Dizemos que duas matrizes A = [aij]m×n e B = [bij]m×n, de mesma ordem, são iguais, escrevendo A = B, quando aij = bij para todo 1 ≤ i ≤ m e para todo 1 ≤ j ≤ n. 2. MATRIZES 17 Por exemplo, se x e y denotam números reais, temos que as matrizes[ x 0 1 y ] e [ −1 0 1 2 ] são iguais quando x = −1 e y = 2. Definimos a seguir uma operação de adição no conjunto M(m,n) das matrizes m× n. Se A = [aij] e B = [bij] são duas matrizes de mesma ordem m × n, a soma de A e B, denotada A + B, é a matriz C = [cij] de ordem m× n tal que cij = aij + bij para todo 1 ≤ i ≤ m e para todo 1 ≤ j ≤ n. Por exemplo,[ 2 3 −1 0 −2 1 ] + [ −2 −3 1 0 2 −1 ] = [ 0 0 0 0 0 0 ] . Dada uma matriz A = [aij], define-se a matriz oposta de A, como a matriz −A = [−aij]. A adição de matrizes tem propriedades semelhantes à adição nos números reais, ou à adição de elementos em espaços vetoriais, como mostra o resultado a seguir. Proposição 1.2.1. Se A, B e C são matrizes de mesma ordem, então : (i) A+ (B + C) = (A+B) + C (associatividade da adição); (ii) A+B = B + A (comutatividade da adição); (iii) A+ 0 = A, onde 0 denota a matriz nula m× n (elemento neutro); (iv) A+ (−A) = 0. Demonstração As propriedades acima decorrem diretamente das defini- ções de igualdade e adição de matrizes. Por esta razão, provaremos apenas o item (i) e deixaremos (ii), (iii) e (iv) como exercício (veja Problema 2.5). (i): Se A = [aij], B = [bij] e C = [cij], então A+ (B + C) = [aij] + [bij + cij] = [aij + (bij + cij)] = [(aij + bij) + cij] = [aij + bij] + [cij] = (A+B) + C, 18 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES onde usamos a associatividade da adição de números reais. � Uma outra operação importante com matrizes é a multiplicação por es- calar. Dada a matriz A = [aij]m×n, definimos o produto de A pelo número real a, como aA = [aaij]m×n. Por exemplo, −3 2 01 1 0 −1 = −6 0−3 −3 0 3 . Tendo definido as operações de adição e multiplicação por escalar em M(m,n), definimos a operação de subtração da maneira usual: dada as matrizes A e B emM(m,n), A−B = A+ (−B). Proposição 1.2.2. As seguintes propriedades se verificam para quaisquer A e B ∈M(m,n), e a, a′ ∈ R: (i) a(A+B) = aA+ aB; (ii) (a+ a′)A = aA+ a′A; (iii) a(a′A) = (aa′)A; (iv) 1A = A. Demonstração Provaremos apenas (i) e deixaremos a demonstração das demais propriedades ao leitor (veja Problema 2.5). (i): De fato, sejam A = [aij], B = [bij] elementos deM(m,n) e a um elemento de R, então a(A+B) = a[aij + bij] = [a(aij + bij)] = [aaij + abij] = [aaij] + [abij] = a[aij] + a[bij] = aA+ aB, onde usamos a distributividade da multiplicação em relação à adição de nú- meros reais. � 2. MATRIZES 19 Assim, com as Proposições 1.2.1 e 1.2.2, provamos que o conjuntoM(m,n) é um espaço vetorial sobre R. O conjunto das matrizes tem uma estrutura muito mais rica do que a de simples espaço vetorial, obtida com a noção de produto de matrizes, noção esta, fundamental para a resolução de sistemas de equações lineares com o uso de matrizes. Nosso próximo objetivo é, portanto, definir a multiplicação de matrizes e mostrar algumas de suas propriedades. A definição de produto de matrizes foi apresentada por Arthur Cayley (Inglaterra, 1821-1895), no trabalho inti- tulado �A Memoir on the Theory of Matrices�, publicado em 1858 na revista Philosophical Transactions of the Royal Society of London . Neste trabalho, Cayley notou que a multiplicação de matrizes, como foi definida, simplifica em muito o estudo de sistemas de equações lineares. Também observou que esta multiplicação deixava de apresentar propriedades importantes, como a comutatividade e a lei do corte, e que uma matriz não nula não é necessaria- mente invertível. Sejam A = [aij]m×n e B = [bij]n×p duas matrizes. Definimos o produto AB de A por B, denotado por AB, como a matriz C = [cij]m×p tal que cij = n∑ k=1 aik bkj = ai1 b1j + · · ·+ ain bnj para todo 1 ≤ i ≤ m e para todo 1 ≤ j ≤ p. Vamos explicar esta fórmula para obter o elemento da matriz AB que se encontra na i-ésima linha e j-ésima coluna: Na matriz A, destaque a i-ésima linha, e na matriz B, a j-ésima coluna. Feito isto, multiplique ordenadamente o primeiro elemento da linha com o primeiro elemento da coluna, o segundo elemento da linha com o segundo elemento da coluna, etc., o último elemento da linha com o último elemento da coluna e finalmente some esses números todos. 20 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES Por exemplo, 2 40 0 −1 3 [−1 1 1 −1 ] = 2(−1) + 4(1) 2(1) + 4(−1)0(−1) + 0(1) 0(1) + 0(−1) −1(−1) + 3(1) −1(1) + 3(−1) = 2 −20 0 4 −4 . Note que para o produto de A por B estar definido, o número de colunas de A deve ser igual ao número de linhas de B. Assim, se A e B são matrizes 2 × 3 e 3 × 1, respectivamente, o produto AB está definido e é uma matriz 2 × 1. Porém, o produto BA não está definido. Uma condição necessária para que AB = BA é que A e B sejam matrizes quadradas de mesma ordem. Contudo, esta condição não é suficiente. Por exemplo, as matrizes A = [ 0 1 2 0 ] e B = [ 0 1 1 0 ] são matrizes quadradas de ordem 2, mas AB 6= BA. Assim, vemos que a multiplicação de matrizes não possui a propriedade comutativa. Observe que [ 1 1 1 1 ] [ 1 1 −1 −1 ] = 0, sem que nenhuma das duas matrizes seja nula. Portanto, na multiplicação de matrizes, podemos ter AB = 0 sem que necessariamente A ou B seja nula. Lembremos que isto não ocorre com a multiplicação de números reais, pois dados dois números reais x e y tais que xy = 0, tem-se obrigatoriamente que x = 0 ou y = 0. Os sistemas lineares como em (2) da Seção 1 se expressam de modo per- feito pela equação matricial AX = B, onde A = a11 a12 . . . a1n a21 a22 . . . a2n . . . . . . . . . am1 am2 . . . amn , X = x1 x2 . . . xn e B = b1 b2 . . . bm . 2. MATRIZES 21 As matrizes A, X e B são chamadas, respectivamente, de matriz dos coeficientes do sistema, matriz das incógnitas e matriz dos termos indepen- dentes. Na seguinte proposição apresentamos algumas propriedades da multipli- cação de matrizes. Proposição 1.2.3. Desde que as operações sejam possíveis, temos: (i) A(B + C) = AB + AC (distributividade à esquerda da multiplicação em relação à adição); (ii) (A+B)C = AC +BC (distributividade à direita da multiplicação em relação à adição); (iii) (AB)C = A(BC) (associatividade); (iv) A I = IA = A (existência de elemento identidade). Demonstração Provaremos a propriedade (iii) e deixaremos a demons- tração das demais propriedades ao leitor (veja Problema 2.5). (iii): Suponhamos que as matrizes A, B e C sejam de ordens n× r, r × s e s×m, respectivamente. Temos que( (AB)C ) ij = ∑s k=1(AB)ikckj = ∑s k=1 (∑r l=1 ailblk ) ckj = ∑r l=1 ail (∑s k=1 blkckj ) = ∑r l=1 ail(BC)lj = ( A(BC))ij. Isto mostra que a propriedade (iii) é válida. � Tendo definido a multiplicação de matrizes, definimos a potenciação da maneira usual: dados A emM(n, n) e k ∈ N \ {0}, A0 = In e A k = A A · · ·A︸ ︷︷ ︸ k fatores . Dada uma matriz A = [aij]m×n, chamamos de transposta de A, e denota- mos por At, a matriz [bij]n×m, onde bij = aji, 22 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES para todo 1 ≤ i ≤ n e para todo 1 ≤ j ≤ m. Por exemplo, −4 0−1 2 0 3 t = [ −4 −1 0 0 2 3 ] . Uma matriz quadradaA é chamada simétrica se At = A e antissimétrica se At = −A. Por exemplo, dadas as matrizes A = 2 −1 3−1 1 0 3 0 5 e B = 0 1 −3−1 0 2 3 −2 0 , a matriz A é simétrica e B é antissimétrica. Terminamos esta seção apresentando o conceito de matriz em blocos. Uma matriz A é dita ser uma matriz em blocos se A está subdividida em ma- trizes menores, chamadas blocos. Esta subdivisão é, geralmente, apresentada por linhas horizontais e/ou linhas verticais, como mostra o seguinte exemplo:[ 2 1 1 0 6 4 0 1 ] = [ 2 1 | 1 0 6 4 | 0 1 ] . Uma matriz pode ser subdividida em blocos de várias maneiras. Por exemplo, 0 1 0 21 4 2 1 0 0 5 3 = 0 1 | 0 2 1 4 | 2 1 −− −− −− −− −− 0 0 | 5 3 = 0 | 1 | 0 2 −− −− −− −− −− −− 1 | 4 | 2 1 0 | 0 | 5 3 . Uma propriedade interessante da partição em blocos é que os resultados das operações de adição e multiplicação com matrizes em blocos podem ser obtidos efetuando o cálculo com os blocos, como se eles fossem simplesmente elementos das matrizes. 2. MATRIZES 23 2.3 Matriz Inversa Dada uma matriz quadrada A de ordem n, chamamos de inversa de A a uma matriz quadrada B de ordem n tal que AB = BA = In . Por exemplo, dada a matriz A = [ 2 5 1 3 ] , temos que a matriz B = [ 3 −5 −1 2 ] é uma inversa de A, já que AB = BA = I2 . Note que uma matriz quadrada não possui necessariamente uma inversa. Por exemplo, seja A = [ 0 0 0 0 ] . Dada qualquer matriz B = [ a b c d ] , temos que AB = [ 0 0 0 0 ] [ a b c d ] = [ 0 0 0 0 ] 6= I2 . Logo, A não tem inversa. Mesmo que uma matriz não seja nula, ela pode não ter inversa. Por exemplo, a matriz A = [ 1 1 1 1 ] não possui inversa, já que não existe uma matriz quadrada B de ordem 2 tal que AB = I2 (verifique). Uma matriz quadrada A é dita invertível se A admite uma matriz inversa. Se uma matriz A possui uma inversa, então essa inversa é única. De fato, suponhamos que B e C são duas inversas de uma matriz A de ordem n× n. Então AB = In e CA = In . Assim, por (iii) e (iv) da Proposição 1.2.3, C = C In = C(AB) = (CA)B = InB = B. 24 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES Já que a inversa, no caso de existir, é única, escrevemos A−1 para denotar a inversa de A. Se k ∈ N\{0} e A é uma matriz invertível, definimos A−k por: A−k = A−1A−1 · · ·A−1︸ ︷︷ ︸ k fatores . Vejamos algumas propriedades das matrizes inversas. Proposição 1.2.4. Sejam A e B matrizes quadradas de ordem n. (i) Se A é invertível, então A−1 é também invertível e (A−1)−1 = A. (ii) Se A e B são invertíveis, então AB também é invertível e (AB)−1 = B−1A−1. Deixamos a demonstração desta proposição ao leitor (veja Problema 2.12), bem como a generalização do item (ii) para um número arbitrário de fatores. O interesse das matrizes invertíveis reside no fato de que dado um sistema linear de equações com n equações e n incógnitas, AX = B, se soubermos que a matriz A é invertível e soubermos como calcular sua inversa, então o sistema se resolve efetuando apenas a multiplicação da matriz A−1 com B, pois AX = B =⇒ X = (A−1A)X = A−1(AX) = A−1B. Vimos que uma matriz quadrada não nula não possui necessariamente inversa. Uma pergunta natural é se podemos caracterizar as matrizes qua- dradas invertíveis, ou seja, se podemos apresentar uma condição necessária e suficiente para que uma matriz quadrada seja invertível. Também esta- mos interessados em obter um método para o cálculo da inversa de uma matriz invertível. No próximo capítulo, apresentaremos uma caracterização de matrizes invertíveis e um método para inversão de matrizes que utiliza as transformações elementares nas linhas de uma matriz e a forma escalonada. No Capítulo 8, Proposição 8.3.1(iii), veremos um outro modo bem diferente de atacar este problema pelo uso dos determinantes. Problemas 2. MATRIZES 25 2.1* Sejam A= [ 1 −2 3 4 1 0 ] e B= [ −1 2 0 1 −2 0 ] . Calcule 2A, 3B e 2A−3B. 2.2 Determine os valores de x, y e z em R para que as matrizes A e B dadas sejam iguais: A = [ x+ y 0 z x− 2y ] e B = [ 13 0 1 4 ] . 2.3 Dadas as matrizes A = [ −1 4 −2 2 0 −1 ] , B = [ 0 1 −2 0 1 −1 ] , C = 11 3 e D = [−1 1], determine: (a) A+B; (b) −2C; (c) AC; (d) CD; (e) BC; (f) DA. 2.4* Considere as matrizes A = [aij]4×5 com aij = i− j, B = [bij]5×9 com bij = j e C = [cij] com C = AB. (a) É possível determinar c63? Justifique a resposta. (b) Determine c36. 2.5 Conclua as demonstrações das Proposições 1.2.1, 1.2.2 e 1.2.3. 2.6* Dada uma matriz A, dizemos que uma matriz X comuta com A se AX = XA. Determine todas as matrizes que comutam com A = [ 1 0 0 3 ] . 2.7 a) Mostre que a matriz c In, onde c ∈ R, comuta com toda matriz X ∈ M(n, n). 26 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES b) Ache todas as matrizes M = [ x y z t ] que comutam com a matriz [ 1 1 0 1 ] . 2.8 Verdadeiro ou falso? Justifique. (a) Se A e B são matrizes quadradas de mesma ordem, então (A−B)(A+B) = A2 −B2. (b) Se A, B e C são matrizes quadradas de mesma ordem tais que AB = AC, então B = C. 2.9 Mostre que se A é uma matriz triangular superior, então A2 também é uma matriz triangular superior. 2.10* (a) Obtenha At, onde A = [ 1 2 3 0 −1 4 ] . (b) Verifique que a transposta de uma matriz triangular superior é uma matriz triangular inferior. (c) Mostre que (A+B)t = At +Bt e (kA)t = kAt, onde A e B são matrizes de mesma ordem e k ∈ R. (d) Se A é uma matriz m × n e B é uma matriz n × p, prove que (AB)t = BtAt. (e) Mostre que (At)t = A para toda matriz A de ordem m× n. 2.11* Mostre que se B é uma matriz quadrada, então: (a) B +Bt e BBt são simétricas; (b) B −Bt é antissimétrica. (c) Observando que B = B +Bt 2 + B −Bt 2 , conclua que toda matriz quadrada se escreve como soma de uma matriz simétrica e de uma matriz antissimétrica. 2. MATRIZES 27 (d) Mostre que a escrita em (c) é o único modo possível de escrever uma matriz quadrada como soma de uma matriz simétrica e de uma matriz an- tissimétrica. 2.12 Prove a Proposição 1.2.4. 2.13 Demonstre que: (a) se A tem uma linha nula, então AB tem uma linha nula; (b) se B tem uma coluna nula, então AB tem uma coluna nula; (c) qualquer matriz quadrada com uma linha ou uma coluna nula não é invertível. 2.14 Mostre que uma matriz A é invertível se, e somente se, At é invertível. Conclua que as operações de inversão e de transposição comutam; isto é, (At)−1 = (A−1)t, quando A é invertível. 2.15 Sejam a = (a1, . . . , an), b = (b1, . . . , bn) ∈ Rn. Definamos Diag(a) = a1 0 · · · 0 0 a2 · · · 0 . . . . . . . . . . . . 0 0 · · · an . Mostre que: (a) Diag(a) + cDiag(b) = Diag(a+ cb) onde c ∈ R; (b) Diag(a) ·Diag(b) = Diag(b) ·Diag(a) = Diag(a1b1, . . . , anbn); (c) Diag(a)m = Diag(am1 , . . . , a m n ), onde m ∈ N \ {0}; (d) Em que condições a matriz Diag(a) é invertível e qual é a sua inversa? Este problema mostra que somar, multiplicar, calcular potências e inver- ter matrizes diagonais é muito simples. 2.16 Supondo que as matrizes A,B e C são matrizes quadradas de mesma ordem e invertíveis, resolva as seguintes equações matriciais nas quais X é a incógnita: 28 CAPÍTULO 1. SISTEMAS LINEARES E MATRIZES (a) CX + 2B = 3B; (b) CAX t = C; (c) ABX = C. 2.17 Dada uma matriz A = [ a b c d ] , mostre que : a) se ad− bc 6= 0, então A é invertível e A−1 = 1 ad− bc [ d −b −c a ] ; b) se ad− bc = 0, então A não é invertível. Bibliografia [1] H. P. Bueno, Álgebra Linear, um segundocurso , Coleção Textos Univer- sitários, SBM, 2006. [2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna, 2001. [3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate- mática e Aplicações, IMPA, 2008. [4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção PROFMAT, SBM, 2012. [5] V. J. Katz, A History of Mathematics - an Introduction , HarperCollins College Publishers, 1993. [6] S. Lang, Introduction to Linear Algebra , 2 nd edition, Undergraduate Texts in Mathematics, Springer, 1986. [7] E.L. Lima, Álgebra Linear , 3 a edição, Coleção Matemática Universitária, IMPA, 1998. [8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2 a edição, Coleção Matemática Universitária, IMPA, 2010. 300 2 29 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 2: Transformação de Matrizes e Resolução de Sistemas Sumário 1 Transformação de Matrizes . . . . . . . . . . . . . . 30 1.1 Transformações Elementares de Matrizes . . . . . . 30 1.2 Forma Escalonada de uma Matriz . . . . . . . . . . 32 1.3 Matrizes Elementares e Aplicações . . . . . . . . . 35 2 Resolução de Sistemas Lineares . . . . . . . . . . . 42 30CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS O método de eliminação em sistemas de equações lineares consiste em e- fetuar repetidamente transformações elementares sobre um sistema de equa- ções lineares, de modo a ir obtendo sistemas equivalentes, até reduzir o sis- tema original a um sistema de fácil resolução. Neste capítulo, reinterpreta- remos na matriz ampliada associada a um sistema de equações lineares as transformações que se efetuam nos sistemas de equações ao longo do processo de eliminação, explicitando seu caráter algorítmico, ou seja, de procedimento sistemático e efetivo. Esse método é essencialmente devido a Gauss e foi aperfeiçoado por Camille Jordan (França, 1838 - 1922) e, por este motivo, é chamado de eliminação de Gauss-Jordan. 1 Transformação de Matrizes 1.1 Transformações Elementares de Matrizes Seja A uma matriz m × n. Para cada 1 ≤ i ≤ m, denotemos por Li a i-ésima linha de A. Definimos as transformações elementares nas linhas da matriz A como se segue: 1) Permutação das linhas Li e Lj, indicada por Li ↔ Lj . 2) Substituição de uma linha Li pela adição desta mesma linha com c vezes uma outra linha Lj, indicada por Li → Li + cLj . 3) Multiplicação de uma linha Li por um número real c não nulo, indicada por Li → cLi . Por exemplo, vamos efetuar algumas transformações elementares nas li- nhas da matriz 2 1 2 32 1 4 0 0 −1 2 3 . 1. TRANSFORMAÇÃO DE MATRIZES 31 Temos 2 1 2 32 1 4 0 0 −1 2 3 −→ L1 ↔ L3 0 −1 2 32 1 4 0 2 1 2 3 , 2 1 2 32 1 4 0 0 −1 2 3 −→ L2 → 12 L2 2 1 2 31 1/2 2 0 0 −1 2 3 e 2 1 2 32 1 4 0 0 −1 2 3 −→ L2 → L2 − L1 2 1 2 30 0 2 −3 0 −1 2 3 . Sejam A e B matrizes de ordem m×n. A matriz A é dita ser equivalente por linhas à matriz B se B pode ser obtida de A pela aplicação sucessiva de um número finito de transformações elementares sobre linhas. Por exemplo, as matrizes 1 02 1 −2 3 e 1 00 1 0 0 são equivalentes por linhas já que 1 02 1 −2 3 −→ L2 → L2 − 2L1 1 00 1 −2 3 −→ L3 → L3 + 2L1 1 00 1 0 3 −→ L3 → L3 − 3L2 1 00 1 0 0 . Observe que a noção de equivalência de matrizes por linhas corresponde à noção de equivalência de sistemas lineares quando se efetuam as respec- tivas transformações sobre as equações. De fato, a sistemas equivalentes, correspondem matrizes associadas equivalentes, e vice-versa. 32CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS Note que se A é equivalente por linhas a uma matriz B, então B é equiva- lente por linhas à matriz A, já que toda transformação elementar sobre linhas é reversível. Mais precisamente, se e representa uma das transformações elementares nas linhas de uma matriz A de ordem m×n, denotando por e(A) a matriz obtida de A aplicando-lhe a transformação e, temos o resultado a seguir. Proposição 2.1.1. Toda transformação elementar e nas linhas de matri- zes em M(m,n) é reversível, no sentido de que existe uma transformação elementar e′ tal que e′(e(A)) = A e e(e′(A)) = A, para todo A ∈M(m,n). Demonstração Se e é uma transformação elementar do tipo Li ↔ Lj , tome e′ = e. Se e é uma transformação elementar do tipo Li → cLi , tome e′ como a tranformação Li → 1c Li . Finalmente, se e é uma transformação elementar do tipo Li → Li + cLj , tome e′ como a tranformação Li → Li − cLj . � Não é difícil o leitor se convencer de que, em cada caso na demonstra- ção anterior, e′ é a única transformação elementar com a propriedade que e′(e(A)) = A para toda matriz A ∈M(m,n). Se A é uma matriz equivalente por linhas a uma matriz B (e, então, B é equivalente por linhas a A), dizemos simplesmente que A e B são matrizes equivalentes. 1.2 Forma Escalonada de uma Matriz Nesta subseção mostraremos que toda matriz pode ser transformada por meio de uma sequência de transformações elementares sobre linhas numa matriz em uma forma muito especial, a forma escalonada, que será utilizada na próxima seção para resolver sistemas de equações lineares. Uma matriz m×n será dita estar na forma escalonada se for nula, ou se: 1) o primeiro elemento não nulo de cada linha não nula é 1; 2) cada coluna que contém o primeiro elemento não nulo de alguma linha tem todos os seus outros elementos iguais a zero; 1. TRANSFORMAÇÃO DE MATRIZES 33 3) toda linha nula ocorre abaixo de todas as linhas não nulas; 4) se L1, . . . , Lp são as linhas não nulas, e se o primeiro elemento não nulo da linha Li ocorre na coluna ki , então k1 < k2 < · · · < kp . Por exemplo, a matriz 0 1 2 0 10 0 0 1 3 0 0 0 0 0 está na forma escalonada, pois todas as condições da definição anterior são satisfeitas, mas as matrizes1 0 0 00 1 −2 0 0 0 1 0 e 0 3 11 0 −1 0 0 0 não estão na forma escalonada, pois a primeira não satisfaz a condição 2, enquanto a segunda não satisfaz a condição 1 (observe que ela também não satisfaz a condição 4). Cabe aqui uma observação acerca da terminologia que utilizamos. Usu- almente, na literatura, o termo �forma escalonada de uma matriz� refere-se a uma forma menos especial do que a nossa, a qual vários autores chamam de forma escalonada reduzida. A nossa justificativa para o uso dessa ter- minologia é que não há razão para adjetivarmos a forma escalonada, pois utilizaremos apenas uma dessas noções. O resultado que apresentaremos a seguir nos garantirá que toda matriz é equivalente por linhas a uma matriz na forma escalonada. O interesse desse resultado reside no fato que ao reduzir a matriz ampliada associada a um dado sistema de equações lineares à forma escalonada, encontramos um outro sistema equivalente ao sistema dado que se encontra em sua expressão mais simples. Quando aplicado aos sistemas de equações lineares, este resultado é chamado de processo de eliminação de Gauss-Jordan. 34CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS Vejamos agora um algoritmo que reduz por linhas uma matriz dada não nula qualquer a uma matriz na forma escalonada. O termo reduzir por linhas significa transformar uma matriz usando as transformações elementares sobre linhas. Este processo é também chamado de escalonamento de matrizes. Passo 1. Seja k1 a primeira coluna da matriz dada com algum elemento não nulo. Troque as linhas entre si de modo que esse elemento não nulo apareça na primeira linha, isto é, de modo que na nova matriz a1k1 6= 0. Passo 2. Para cada i > 1, realize a transformação Li → Li− aik1 a1k1 L1 . Repita os Passos 1 e 2 na matriz assim obtida, ignorando a primeira linha. Novamente, repita os Passos 1 e 2 nessa nova matriz, ignorando as duas primeiras linhas etc., até alcançar a última linha não nula. Passo 3. Se L1, . . . , Lp são as linhas não nulas da matriz obtida após termi- nar o processo acima e se ki é a coluna na qual aparece o primeiro elemento não nulo aiki da linha Li, aplique as transformações Li → 1 aiki Li para todo 1 ≤ i ≤ p. Passo 4. Realize na matriz obtida até então as transformações L` → L` − a`ki Li , ` = 1, . . . , i− 1, para i = 2. Depois para i = 3, e assim por diante, até i = p. Dessa forma, obteremos uma matriz na forma escalonada que é equivalente por linhas à matriz dada. Estabelecemos assim o seguinte resultado: Teorema 2.1.2. Toda matriz é equivalente a uma matriz na forma escalo- nada. Por exemplo, a matriz 1 2 −3 00 0 4 2 0 0 0 1/2 1. TRANSFORMAÇÃO DE MATRIZES 35 é transformada numa matriz na forma escalonada com a seguinte sequência de transformações sobre suas linhas:1 2 −3 00 0 4 2 0 0 0 1/2 −→ L2 → 14 L2 1 2 −3 00 0 1 1/2 0 0 0 1/2 −→ L3 → 2L3 1 2 −3 00 0 1 1/2 0 0 0 1 −→ L1 → L1 + 3L2 1 2 0 3/20 0 1 1/2 0 0 0 1 −→L1 → L1 − 32 L3 L2 → L2 − 12 L3 1 2 0 00 0 1 0 0 0 0 1 . Pelo algoritmo acima, deduzimos que qualquer matriz é equivalente a pelo menos uma matriz na forma escalonada. Como em cada passo do algoritmo temos certa margem de escolhas de transformações elementares sobre as li- nhas da matriz, não há aparentemente nenhum motivo para poder afirmar que a forma escalonada de uma dada matriz seja única. Fato é que, não importando qual a sequência de transformações elementares que efetuemos nas linhas de uma dada matriz, no final do processo chegamos a uma mesma matriz na forma escalonada que é equivalente à matriz dada. Este resultado será provado na última seção do capítulo 1.3 Matrizes Elementares e Aplicações Uma matriz elementar de ordem n é uma matriz quadrada de ordem n obtida da matriz identidade In a parir da aplicação de uma transformação elementar, isto é, trata-se de uma matriz da forma E = e(In), onde e é uma transformação elementar. Por exemplo, a matriz identidade é uma matriz elementar e as matrizes e(I2) = [ 0 1 1 0 ] , onde e : L1 ↔ L2, 36CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS e e(I3) = 1 1 00 1 0 0 0 1 , onde e : L1 → L1 + L2, são matrizes elementares de ordem 2 e de ordem 3, respectivamente. Sejam A ∈ M(m,n) e e uma transformação elementar. O próximo re- sultado, cuja demonstração fica como exercício para o leitor (veja Problema 1.3), nos diz que a matriz e(A) pode ser obtida como o produto da matriz elementar e(Im) pela matriz A. Por exemplo, consideremos A = 1 20 1 2 1 . Se e1 : L1 ↔ L2 , e2 : L1 → 2L1 e e3 : L1 → L1 + 2L2 , uma rápida verificação nos mostra que e1(A) = e1(I3)A, e2(A) = e2(I3)A e e3(A) = e3(I3)A. Teorema 2.1.3. Seja e uma transformação elementar sobre matrizes de M(m,n). Considere a matriz elementar E = e(Im). Então e(A) = EA, para todo A ∈M(m,n). Como consequência do Teorema 2.1.3, temos Corolário 2.1.4. Sejam A e B em M(m,n). Então, A é equivalente a B se, e somente se, existem matrizes elementares E1, . . . , Es de ordem m tais que Es · · ·E2 E1 A = B. Demonstração Por definição, A é equivalente a B quando existem trans- formações elementares e1, . . . , es tais que es(. . . (e2(e1(A))) . . . ) = B. Mas, pelo teorema anterior, a igualdade acima equivale a Es · · ·E2 E1 A = B, 1. TRANSFORMAÇÃO DE MATRIZES 37 onde Ei = ei(Im), para cada 1 ≤ i ≤ s. � Corolário 2.1.5. Toda matriz elementar é invertível e sua inversa também é uma matriz elementar. Demonstração Seja E uma matriz elementar. Seja e a transformação elementar tal que E = e(I). Se e′ é a transformação elementar inversa de e e se E ′ = e′(I), pelo Teorema 2.1.3 temos I = e′(e(I)) = e′(E) = e′(I)E = E ′E e I = e(e′(I)) = e(E ′) = e(I)E ′ = E E ′ . Logo, E é invertível e E−1 = E ′. � Pelo Corolário 2.1.5 sabemos como inverter uma matriz elementar. Por exemplo, se considerarmos as matrizes A = 0 1 01 0 0 0 0 1 e B = 1 2 00 1 0 0 0 1 , podemos concluir que A e B são invertíveis, já que A e B são matrizes elementares. De fato, A = e1(I3) com e1 : L1 ↔ L2 e B = e2(I3) com e2 : L1 → L1 + 2L2 . Pelo Corolário 2.1.5, A−1 = e′1(I3), onde e′1 é a trans- formação elementar inversa de e1 e B −1 = e′2(I3), onde e ′ 2 é a transformação elementar inversa de e2 . Mais precisamente, A−1 = 0 1 01 0 0 0 0 1 e B−1 = 1 −2 00 1 0 0 0 1 . A seguir, apresentamos o resultado central desta seção que caracteriza as matrizes invertíveis. Teorema 2.1.6. Para uma matriz quadrada A de ordem n, são equivalentes as seguintes afirmações: (i) A é invertível; 38CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS (ii) Se B é uma matriz na forma escalonada equivalente a A, então B = In; (iii) A é uma matriz elementar ou um produto de matrizes elementares. Demonstração Vamos começar provando a implicação (i) ⇒ (ii). Com efeito, como B é equivalente a A, pelo Corolário 2.1.4, existem matrizes elementares E1, E2, . . . , Es tais que Es · · ·E2 E1 A = B. Como, pelo Corolário 2.1.5, cada Ei é invertível e A, por hipótese, é inver- tível, temos que B é invertível (cf. Proposição 1.2.4). Por outro lado, pelo Problema 1.7, temos que B = In. A implicação (ii) ⇒ (iii) é evidente, já que A = E−11 E−12 · · ·E−1s B, onde B = In e cada E −1 i é uma matriz elementar (cf. Corolário 2.1.5). A implicação (iii) ⇒ (i) é evidente, pois matrizes elementares são invertíveis e produtos de matrizes invertíveis são invertíveis (cf. Proposição 1.2.4). � Observe, como decorrência do resultado acima, que uma matriz quadrada invertível é equivalente a uma única matriz na forma escalonada (a matriz identidade), ficando estabelecida, neste caso, a unicidade da forma escalo- nada. Finalizamos esta seção apresentando um método para inversão de matri- zes por meio de transformações elementares. Proposição 2.1.7. Sejam A uma matriz invertível e e1, . . . , es uma sequên- cia de transformações elementares tais que es(. . . (e2(e1(A))) . . . ) = I, onde I é a matriz identidade. Então essa mesma sequência de transformações elementares aplicada a I produz A−1; isto é, es(. . . (e2(e1(I))) . . . ) = A−1. Demonstração Para cada 1 ≤ i ≤ s, seja Ei a matriz elementar corres- pondente à transformação ei . Então Es · · ·E2 E1 A = I . Assim, (Es · · ·E2 E1 I)A A−1 = I A−1, 1. TRANSFORMAÇÃO DE MATRIZES 39 donde Es · · ·E2 E1 I = A−1. � Para ilustrarmos o uso do Teorema 2.1.6 e da Proposição 2.1.7, conside- remos a matriz A = 1 0 22 −1 3 4 1 8 . Se aplicarmos uma sequência de transformações elementares em A até obter- mos uma matriz B na forma escalonada, pelo Teorema 2.1.6, A é invertível se, e somente se, B = I3 . Se B = I3 , pela Proposição 2.1.7, essa mesma sequência de transformações elementares aplicada a I3 resultará em A −1 . As- sim, vamos formar a matriz em blocos [ A | I3 ] e vamos reduzir esta matriz 3× 6 a uma matriz na forma escalonada. De fato, [ A | I3 ] = 1 0 2 | 1 0 02 −1 3 | 0 1 0 4 1 8 | 0 0 1 −→L2 → L2 − 2L1 L3 → L3 − 4L1 1 0 2 | 1 0 00 −1 −1 | −2 1 0 0 1 0 | −4 0 1 −→ L2 → −L2 1 0 2 | 1 0 00 1 1 | 2 −1 0 0 1 0 | −4 0 1 −→ L3 → L3 − L2 1 0 2 | 1 0 00 1 1 | 2 −1 0 0 0 −1 | −6 1 1 −→ L3 → −L3 1 0 2 | 1 0 00 1 1 | 2 −1 0 0 0 1 | 6 −1 −1 −→L1 → L1 − 2L3 L2 → L2 − L3 1 0 0 | −11 2 20 1 0 | −4 0 1 0 0 1 | 6 −1 −1 . Como obtemosuma matriz na forma [ I3 |C ] , temos que A é invertível e C = A−1. Assim, A−1 = −11 2 2−4 0 1 6 −1 −1 . 40CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS Consideremos agora a matriz A = 1 0 10 2 1 3 0 3 . Ao reduzirmos a matriz em blocos [ A | I3 ] a uma matriz na forma esca- lonada, obtemos a matriz [ B | C], onde B = 1 0 10 1 1/2 0 0 0 e, portanto, diferente de I3 . Logo, A não é invertível por ser equivalente a uma matriz com uma linha nula (cf. Problema 1.7). Problemas 1.1* Seja A = [ 2 1 −1 3 ] . (a) Obtenha a forma escalonada de A. (b) A é invertível? Justifique. (c) Se A for invertível, escreva a matriz A−1 como um produto de matrizes elementares. 1.2 Determine a matriz inversa de cada uma das matrizes dadas: (a) A = [ 12 7 5 3 ] ; (b) B = −2 3 −11 −3 1 −1 2 −1 ; (c) C = −2 −1 0 2 3 1 −2 −2 −4 −1 2 3 3 1 −1 −2 . 1.3 Demonstre o Teorema 2.1.3. 1. TRANSFORMAÇÃO DE MATRIZES 41 1.4 Determine a forma escalonada das matrizes: (a) A = 0 1 3 −22 1 −4 3 2 3 2 −1 ; (b) B = 1 2 −1 2 12 4 1 −2 3 3 6 2 −6 5 ; (c) C = 1 3 −1 2 0 11 −5 3 2 −5 3 1 4 1 1 5 . 1.5 Uma certa sequência de transformações elementares aplicadas a uma matriz A produz uma matriz B. A mesma sequência aplicada a AB produzirá que matriz? Justifique sua resposta. 1.6 Descreva todas as possíveis matrizes 2×2 que estão na forma escalonada. 1.7 Seja A uma matriz quadrada na forma escalonada. Mostre que são equivalentes as seguintes asserções: (a) A matriz A não tem linhas nulas. (b) A é a matriz identidade. (c) A é invertível. Sugestão Use o Problema 2.13(c), do Capítulo 1. 1.8* Sejam A e B matrizes quadradas de mesma ordem. (a) Mostre que, se AB = I, então A é invertível e A−1 = B. Assim AB = I se, e somente se, BA = I. (b) Mostre que AB é invertível se, e somente se A e B são invertíveis. Por definição, uma matriz quadrada A é invertível quando existe uma matriz quadrada B tal que AB = I e BA = I. No entanto, pelo problema acima, no contexto das matrizes quadradas, basta encontrar B tal que AB = I ou tal que BA = I para que A seja invertível. Ou seja, se uma das duas igualdades é satisfeita, então a outra é automaticamente satisfeita . 1.9 Sejam E1, E2 e E3 as matrizes elementares de ordem n obtidas da identi- dade pelas transformações elementares Li ↔ Lj, Li → Li + kLj e Li → cLi, 42CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS onde j 6= i, respectivamente. Mostre que Et1 = E1, Et2 = E ′2 e Et3 = E3, onde E ′2 é a matriz elementar obtida da identidade mediante a transforma- ção Lj → Lj + kLi. 2 Resolução de Sistemas Lineares Finalmente, nesta seção, poremos em funcionamento a maquinária desen- volvida com as matrizes para a resolução de sistemas de equações lineares, culminando com o Teorema do Posto. Trata-se de um resultado central dessa teoria que descreve a resolubidade dos sistemas de equações lineares gerais. Este teorema é também conhecido no Ensino Médio como Teorema de Rouché-Capelli, em homenagem aos matemáticos Eugène Rouché (França, 1832�1919) e Alfredo Capelli (Itália, 1855�1910). Quanto a suas soluções, um sistema linear se classifica como impossí- vel, ou possível e determinado, ou possível e indeterminado. Um sistema linear é chamado impossível , quando não tem solução, possível e determi- nado, quando tem uma única solução e possível e indeterminado , quando tem mais de uma solução. . Já foi observado anteriormente que um sistema linear homogêneo com n incógnitas é sempre possível, pois admite como solução a n-upla (0, 0, . . . , 0), 2. RESOLUÇÃO DE SISTEMAS LINEARES 43 chamada solução trivial . Qualquer outra solução, se existir, é dita solução não trivial do sistema. Dado um sistema linear AX = B, o sistema linear AX = 0 é chamado de sistema linear homogêneo associado . A relação fundamental entre um sistema linear e seu sistema linear homogêneo associado é apresentada na proposição a seguir. Proposição 2.2.1. Seja AX = B um sistema linear. Suponhamos que X1 seja uma solução do sistema AX = B e que Sh seja o conjunto solução do sistema linear homogêneo associado AX = 0. Então S = {X1 + Z ; Z ∈ Sh} (1) é o conjunto solução do sistema AX = B. Demonstração Para demonstrarmos (1), usaremos algumas propriedades já vistas da adição e da multiplicação por escalar de matrizes. De fato, se X2 ∈ S, podemos escrever X2 = X1 + Z com Z ∈ Sh. Como X1 é uma solução particular de AX = B e Z ∈ Sh, segue que AX1 = B e AZ = 0. Logo, AX2 = A(X1 + Z) = AX1 + AZ = B + 0 = B, mostrando que X2 é uma solução do sistema AX = B. Por outro lado, tomemos uma solução X2 do sistema AX = B e defina- mos Z = X2 −X1. Temos, então, que AZ = A(X2 −X1) = AX2 − AX1 = B −B = 0; logo Z = X2 −X1 ∈ Sh. Portanto, X2 = X1 + Z ∈ S. � Observamos que o resultado acima é apenas de interesse teórico, pois não nos ajuda a obter o conjunto solução de um sistema linear. Um método bem eficaz para se resolver um sistema linear é o método do escalonamento . Este consiste em se tomar a matriz ampliada de um sistema linear e aplicar uma sequência de transformações elementares a esta matriz, de modo a obtermos 44CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS uma matriz equivalente que seja a matriz ampliada de um sistema linear �fácil� de se resolver. Exemplo 1. Resolvamos o sistema linear x+ y − 2z + 3w = 4 2x+ 3y + 3z − w = 3 5x+ 7y + 4z + w = 5 . (2) Observemos que1 1 −2 3 | 42 3 3 −1 | 3 5 7 4 1 | 5 −→L2 → L2 − 2L1 L3 → L3 − 5L1 1 1 −2 3 | 40 1 7 −7 | −5 0 2 14 −14 | −15 −→ L3 → L3 − 2L2 1 1 −2 3 | 40 1 7 −7 | −5 0 0 0 0 | −5 , (3) sendo que esta última matriz é a matriz ampliada do sistema linear x+ y − 2z + 3w = 4 y + 7z − 7w = −5 0x+ 0y + 0z + 0w = −5 . (4) Note que o sistema (4) é impossível. A pergunta que fazemos é: qual a relação do sistema (4) com o originalmente proposto? A resposta é que eles têm o mesmo conjunto solução, já que (2) e (4) têm matrizes ampliadas equivalentes. Mais precisamente, temos o resultado a seguir. Proposição 2.2.2. Dois sistemas lineares com matrizes ampliadas equiva- lentes têm o mesmo conjunto solução . Demonstração É só lembrar que efetuar transformações elementares sobre as linhas da matriz ampliada do sistema, equivale a efetuar transformações elementares no sistema de equações, obtendo um sistema equivalente. � 2. RESOLUÇÃO DE SISTEMAS LINEARES 45 A matriz ampliada do sistema linear (2) poderia ter sido reduzida por linhas a uma matriz na forma escalonada. Porém, a equação 0x+ 0y + 0z + 0w = −5 obtida da última linha da matriz final em (3) já garante, pela Proposição 2.2.2, que o sistema (2) é impossível. De fato, dado um sistema linear nas in- cógnitas x1, x2, . . . , xn, se após uma sequência de transformações elementares ocorrer uma equação da forma 0x1 + 0x2 + · · ·+ 0xn = b, com b 6= 0, então o sistema é impossível; ou seja, não tem solução. Quando aplicarmos a Proposição 2.2.2 a um sistema homogêneo não é ne- cessário tomar a matriz ampliada, basta considerar a matriz dos coeficientes do sistema. Exemplo 2. Determinemos o conjunto solução do sistema linear homogêneo x+ 2y + 3z − 5w = 0 2x+ 4y + z + 2w = 0 x+ 3y + 4z = 0 3x+ 5y + 8z − 10w = 0. Ora, basta considerarmos a matriz dos coeficientes do sistema. Assim, 1 2 3 −5 2 4 1 2 1 3 4 0 3 5 8 −10 −→ L2 → L2 − 2L1 L3 → L3 − L1 L4 → L4 − 3L1 1 2 3 −5 0 0 −5 12 0 1 1 5 0 −1 −1 5 −→L4 → L4 + L3 1 2 3 −5 0 0 −5 12 0 1 1 5 0 0 0 10 , sendo esta última matriz, a matriz doscoeficientes do sistema linear homo- gêneo x+ 2y + 3z − 5w = 0 −5z + 12w = 0 y + z + 5w = 0 10w = 0, 46CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS que admite apenas a solução (0, 0, 0, 0). Assim, o conjunto solução do sistema originalmente dado é S = {(0, 0, 0, 0)}. Para apresentarmos o resultado central deste capítulo, necessitaremos de alguns resultados que estabeleceremos a seguir. Lema 2.2.3. Seja dada uma matriz A = [A′ | A′′] na forma escalonada, onde A′ é uma matriz m× (n− 1) e A′′ é uma matriz m× 1. Sejam k1, . . . , kp as posições das colunas de A onde ocorrem os primeiros elementos não nulos das linhas não nulas L1, . . . , Lp, respectivamente. O sistema A ′X = A′′ admite solução se, e somente se, kp 6= n. Demonstração Observe que como A está na forma escalonada, a matriz A′ também está na forma escalonada. Se kp = n, então a p-ésima linha da matriz A é (0 0 · · · 0 1). Assim, o sistema A′X = A′′ tem uma equação da forma 0x1 + · · · + 0xn−1 = 1, que não tem solução. Se kp 6= n, temos que p ≤ kp < n. Assim, se os ai's são as entradas de A′′, temos que ap+1 = · · · = am = 0. Se denotarmos por Ai a i-ésima coluna da matriz A, temos que A′k1 = Ak1 = 1 0 . . . 0 . . . 0 , A′k2 = Ak2 = 0 1 . . . 0 . . . 0 , . . . , A′kp = Akp = 0 0 . . . 1 . . . 0 , onde cada matriz acima tem as últimas m − r entradas nulas. O sistema A′X = A′′ se escreve, em blocos, da seguinte forma: a = [A1 | A2 | . . . | An−1]X = A1x1 + A2x2 + · · ·+ An−1xn−1. Para achar uma solução do sistema basta tomar xki = ai e xj = 0, se j 6= ki, para todo i = 1, . . . , p. � 2. RESOLUÇÃO DE SISTEMAS LINEARES 47 A seguir, daremos a prova da unicidade da forma escalonada de uma matriz. Teorema 2.2.4. (Unicidade da forma escalonada) Existe uma única matriz na forma escalonada equivalente por linhas a uma dada matriz. Demonstração Basta mostrar que dadas duas matrizes A e B na forma escalonada e equivalentes por linhas, então A = B (justifique). O resultado será provado por indução sobre o número n de colunas da matriz. Para n = 1, as únicas matrizes na forma escalonada são 0 0 . . . 0 e 1 0 . . . 0 . Como qualquer transformação aplicada às linhas da primeira matriz não a altera, as duas matrizes acima não são equivalentes, daí decorre a unicidade, nesse caso. Admitamos o resultado verdadeiro para matrizes com n−1 colunas, onde n ≥ 2. Sejam A e B duas matrizes m × n, ambas na forma escalonada e equivalentes. Escrevamos A = [A′ | A′′] e B = [B′ | B′′], onde A′ e B′ são os blocos formados com as n− 1 colunas de A e de B, e A′′ e B′′ são as últimas colunas de A e de B, respectivamente. É imediato verificar pela definição que A′ e B′ estão na forma escalonada; e que A′ é equivalente a B′, pois as mesmas operações elementares que transformam A em B, transformam A′ em B′. Portanto, pela hipótese de indução, temos que A′ = B′. Estamos então reduzidos a duas matrizes A = [A′ | A′′] e B = [A′ | B′′] na forma escalonada e equivalentes. Vamos desdobrar a nossa análise em dois casos. Caso 1) A matriz A é tal que kp = n. Assim, a matriz A ′ tem as primeiras p − 1 linhas não nulas e a p-ésima linha nula e as entradas ai de A′′ são tais que ai = 0, se i 6= p e ap = 1. Pelo Lema 2.2.3, o sistema A′X = A′′ não tem solução. Como as matrizes A = [A′ | A′′] e B = [A′ | B′′] são equivalentes, pela Proposição 2.2.2, os sistemas A′X = A′′ e A′X = B′′ 48CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS são também equivalentes, o que implica que o segundo sistema também não admite solução. Aplicando novamente o Lema 2.2.3 ao sistema A′X = B′′, temos que bp = 1 e bi = 0, se i 6= p, o que nos diz que A′′ = B′′. Caso 2) A matriz A é tal que kp 6= n. Pelo Lema 2.2.3 tem-se que o sistema A′X = A′′ tem uma solução X0. Como os sistemas são equivalentes, temos que X0 é solução do sistema A ′X = B′′, logo A′′ = A′X0 = B′′. � A demonstração do Teorema 2.2.4, acima, foi inspirada em [1], o qual recomendamos para estudos mais avançados de Álgebra Linear. Seja A uma matriz de ordem m×n. Pelo Teorema 2.2.4, A é equivalente a uma única matriz A˜, de ordem m×n, na forma escalonada. Dizemos que A˜ é a forma escalonada de A. Portanto, faz sentido definir o posto p da matriz A como o número de linhas não nulas de sua forma escalonada A˜. Por exemplo, se A = 1 2 1 0−1 0 3 5 1 −2 1 1 , sua forma escalonada é a matriz A˜ = 1 0 0 −7/80 1 0 −1/4 0 0 1 11/8 . Portanto, o posto p de A é igual a 3, pois o número de linhas não nulas de A˜ é 3. Para matrizes quadradas temos o seguinte resultado: Corolário 2.2.5. Uma matriz quadrada de ordem n é invertível se, e so- mente se, ela tem posto n. Demonstração Se a matriz é invertível, então pelo Teorema 2.1.6, sua forma escalonada é In, logo tem posto n. Reciprocamente, seja dada uma matriz quadrada de ordem n e seja A˜ sua forma escalonada. Se A tem posto n, então A˜ não tem linhas nulas, logo, 2. RESOLUÇÃO DE SISTEMAS LINEARES 49 pelo Problema 1.7, A˜ = In. Pelo Corolário 2.1.4, temos que A = Es . . . E1A˜ = Es . . . E1, onde E1, . . . , Es são matrizes elementares, logo invertíveis (cf. Corolário 2.1.5). Daí decorre que A é invertível por ser produto de matrizes inver- tíveis (cf. Proposição 1.2.4(ii)). � Observe que o Lema 2.2.3 pode ser reinterpretado com a noção de posto do seguinte modo: Um sistema de equações lineares AX = B admite solução se, e somente se, o posto da matriz aumentada [A | B] do sistema tiver posto igual ao da matriz A do sistema. De fato, o que mostramos foi que o sistema possui solução se, e somente se, a última linha não nula da forma escalonada da matriz ampliada do sistema não for da forma (0 0 . . . 0 1). Isto é parte do Teorema de Rouché-Capelli, resultado central deste capí- tulo e que apresentamos na íntegra a seguir. Teorema 2.2.6. (Teorema do Posto) Consideremos um sistema linear com m equações e n incógnitas AX = B. Sejam pAB o posto da matriz ampliada do sistema e pA o posto da matriz dos coeficientes do sistema. Então (i) O sistema é possível se, e somente se, pAB = pA. (ii) O sistema é possível e determinado se pAB = pA = n. (iii) O sistema é possível e indeterminado se pAB = pA < n. Neste caso, n− pA é o número de incógnitas livres do sistema, ou seja, incógnitas que podem assumir qualquer valor real. Demonstração Seja AX = B um sistema linear com n incógnitas. Seja C = [A | B] a matriz ampliada do sistema e seja C˜ = [A˜ | B˜] a forma escalonada de C. Denotaremos A˜ = [a˜ij] e B˜ = [b˜i]. 50CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS Claramente A˜ é a forma escalonada de A e como A˜ é um bloco de C˜, temos que pA = pA˜ < pC˜ = pAB ou pA = pA˜ = pC˜ = pAB. Vamos considerar os dois casos anteriores separadamente. Caso 1. Se pA < pAB, então C˜ tem uma linha do tipo (0 · · · 0 0 1). Portanto, o sistema A˜X = B˜ é impossível e, então, pela Proposição 2.2.2, AX = B é impossível. Caso 2. Se pA = pAB, então C˜ e A˜ têm o mesmo número de linhas não nulas. Dividiremos este caso em dois subcasos. Subcaso 2.1. pAB = pA = n. Sendo A˜ uma matriz com n colunas, com pA˜ = pA = n, e estando A˜ na forma escalonada, ela é uma matriz em blocos da forma A˜ = [ In 0 ] . Como pA = pAB = n, segue que B˜ é tal que bn+1 = · · · = bm = 0. Portanto, A˜X = B˜ é possível e determinado com a única solução x1 = b˜1, . . . , xn = b˜n. Consequentemente, AX = B também é determinado com mesma solução. Subcaso 2.2. pA = pAB < n. Ponhamos p = pA = pAB. Neste caso, A˜ (assim comoC˜) tem p linhas não nulas L1, . . . , Lp, tais que o primeiro elemento não nulo de Li está na coluna ki e k1 < · · · < kp. Além disso, temos b˜p+1 = · · · = b˜m = 0. 2. RESOLUÇÃO DE SISTEMAS LINEARES 51 Temos então que a equação A˜X = B˜ se escreve como xk1 + a˜1k1+1xk1+1 + · · ·+ a˜1nxn xk2 + a˜2k2+1xk2+1 + · · ·+ a˜2nxn . . . xkp + a˜pkp+1xkp+1 + · · ·+ a˜pnxn 0 . . . 0 = b˜1 b˜2 . . . b˜p 0 . . . 0 . A igualdade matricial acima, juntamente com o fato da matriz A˜ estar na forma escalonada, nos fornece o sistema de equações xk1 = − ∑ j>k1 a˜1jxj + b˜1, onde a˜1ki = 0, se i > 1, xk2 = − ∑ j>k2 a˜2jxj + b˜2, onde a˜2ki = 0, se i > 2, . . . xkp−1 = − ∑ j>kp−1 a˜p−1,jxj + b˜p−1, onde a˜p−1,ki = 0, se i = kp, xkp = − ∑ j>kp a˜pjxj + b˜p. Isto mostra que podemos escolher arbitrariamente valores para as incó- gnitas no conjunto {x1, . . . , xn} \ {xk1 , . . . , xkp} (5) e com esses determinar valores para xk1 , . . . , xkp . Como o conjunto em (5) tem n − p elementos, o sistema A˜X = B˜ tem n− p incógnitas livres e, consequentemente, o mesmo ocorre para o sistema AX = B. � Particularizando o Teorema do Posto para os sistemas homogêneos, ob- temos o corolário a seguir. Corolário 2.2.7. Seja dado um sistema linear homogêneo com m equações e n incógnitas AX = 0. (i) Se A tem posto n, então o sistema possui apenas a solução nula. Em particular, isto ocorre quando m = n e A é invertível. 52CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS (ii) Se A tem posto p < n, então o sistema possui infinitas soluções. Em particular, isto sempre ocorre quando m < n. A seguir, daremos um exemplo da aplicação do Teorema do Posto. Exemplo 3. Com o auxílio do Teorema do Posto, resolvamos o sistema linear x+ 2y − 2z + 3w = 2 2x+ 4y − 3z + 4w = 5 5x+ 10y − 8z + 11w = 12 . Ora, 1 2 −2 3 | 22 4 −3 4 | 5 5 10 −8 11 | 12 −→L2 → L2 − 2L1 L3 → L3 − 5L1 1 2 −2 3 | 20 0 1 −2 | 1 0 0 2 −4 | 2 −→ L1 → L1 + 2L2 L3 → L3 − 2L2 1 2 0 −1 | 40 0 1 −2 | 1 0 0 0 0 | 0 . Como pAB = pA = 2 < 4 = n, onde n é o número de incógnitas do sistema, o sistema linear é possível e indeterminado. Existem então duas incógnitas livres, digamos y e w, às quais podemos atribuir quaisquer valores reais a e b, respectivamente. Assim, temos y = a e w = b. Substituindo w = b na segunda equação obtemos z = 1 + 2b. Pondo y = a, z = 1 + 2b e w = b na primeira equação, segue-se que x = 4 − 2a + b. Portanto, as soluções do sistema são os elementos do conjunto {(4− 2a+ b, a, 1 + 2b, b) ; a, b ∈ R}. Observamos que, pelo Teorema do Posto, o número de incógnitas livres está bem determinado. Porém, as incógnitas livres podem ser escolhidas com alguma liberdade. No exemplo anterior, escolhemos y e w como incógnitas livres, mas, poderíamos ter escolhido x e t como incógnitas livres. 2. RESOLUÇÃO DE SISTEMAS LINEARES 53 Problemas 2.1* Resolva o sistema linear homogêneo y + 3z − 2t = 0 2x+ y − 4z + 3t = 0 2x+ 3y + 2z − t = 0 −4x− 3y + 5z − 4t = 0 . 2.2* Que condições devem ser impostas a m,n e p para que o sistema linear x+ 2y − 3z = m 2x+ 6y − 11z = n x− 2y + 7z = p tenha solução? 2.3 Determine X tal que AX −B = C, onde A = [ 1 3 1 4 ] , B = [ 2 2 −1 3 0 1 ] e C = [ 8 4 3 10 8 2 ] . 2.4 Resolva o sistema linear 1 2 1 3 1 −2 4 −3 −1 2 4 2 xy z = 2 1 3 4 . 2.5 Dadas as matrizes A = 1 2 1 0−1 0 3 5 1 −2 1 1 , B1 = 21 0 e B2 = 12 1 , resolva: 54CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS (a) os sistemas AX = B1 e AX = B2; (b) o sistema AX = 3B1−B2, utilizando soluções particulares já encontradas no item (a). 2.6 Dada uma matriz A de ordem m× n, raciocine com a forma escalonada para mostrar que: (a) a equação AC = I pode ser resolvida ⇔ o sistema linear AX = B tem solução para qualquer B ⇔ posto de A é m; (b) a equação CA = I pode ser resolvida ⇔ o sistema linear AX = 0 tem solução única ⇔ posto de A é n. 2.7 Na matriz A de ordem 5× 5 temos a seguinte relação entre as linhas: L1 + L2 − 2L4 + 3L5 = 0. Encontre uma matriz C, de posto 3, tal que CA tenha linhas L1, L4, 0. 2.8 Como devem ser escolhidos os coeficientes a, b e c para que o sistema ax+ by − 3z = −3 −2x− by + cz = −1 ax+ 3y − cz = −3 tenha a solução x = 1, y = −1 e z = 2? 2.9 Determine os valores de k ∈ R para que os sistemas abaixo (a) x+ y + kz = 2 3x+ 4y + 2z = k 2x+ 3y − z = 1 , (b) kx+ y + z = 1 x+ ky + z = 1 x+ y + kz = 1 , (c) x+ kz = 0 y = 0 kx+ z = 0 tenham: (i) solução única; (ii) nenhuma solução; (iii) mais de uma solução. Determine a solução do sistema quando esta existir. 2. RESOLUÇÃO DE SISTEMAS LINEARES 55 2.10 Que condições devem ser impostas a a, b e c para que o sistema abaixo nas incógnitas x, y e z tenha solução? x+ 2y − 3z = a 2x+ 6y − 11z = b x− 2y + 7z = c . 2.11 Determine os valores de a, de modo que o seguinte sistema nas incógni- tas x, y e z tenha: (a) nenhuma solução, (b) mais de uma solução, (c) uma única solução: x+ y − z = 1 2x+ 3y + az = 3 x+ ay + 3z = 2 . 2.12 Considere o sistema linear 2× 2 nas incógnitas x e y:ax+ by = ecx+ dy = f. Mostre que: (a) se a c 6= b d , isto é, se ad− bc 6= 0, então o sistema tem solução única x = de− bf ad− bc e y = af − ce ad− bc ; (b) se a c = b d 6= e f , então o sistema não tem solução; (c) se a c = b d = e f , então o sistema tem mais de uma solução. 2.13 Suponha que, num sistema linear homogêneo, os coeficientes de uma das incógnitas são todos iguais a zero. Mostre que o sistema tem solução não nula. 56CAPÍTULO 2. TRANSFORMAÇÃODEMATRIZES E RESOLUÇÃODE SISTEMAS 2.14 Seja A uma matriz quadrada de ordem n. Prove que as seguintes afirmações são equivalentes: (a) A é invertível; (b) O sistema linear homogêneo AX = 0 só admite a solução trivial; (c) Para toda matriz B de ordem n× 1, o sistema linear AX = B é possível e determinado. Bibliografia [1] H. P. Bueno, Álgebra Linear, um segundo curso , Coleção Textos Univer- sitários, SBM, 2006. [2] P. Halmos, Teoria Ingênua dos Conjuntos , Editora Ciência Moderna, 2001. [3] A. Hefez e M. L. T. Villela, Códigos Corretores de Erros , Coleção Mate- mática e Aplicações, IMPA, 2008. [4] A. Hefez e M. L. T. Villela, Números Complexos e Polinômios , Coleção PROFMAT, SBM, 2012. [5] V. J. Katz, A History of Mathematics - an Introduction , HarperCollins College Publishers, 1993. [6] S. Lang, Introduction to Linear Algebra , 2 nd edition, Undergraduate Texts in Mathematics, Springer, 1986. [7] E.L. Lima, Álgebra Linear , 3 a edição, Coleção Matemática Universitária, IMPA, 1998. [8] E.L. Lima, Geometria Analítica e Álgebra Linear , 2 a edição, Coleção Matemática Universitária, IMPA, 2010. 300 3 57 Livro: Introdução à Álgebra Linear Autores: Abramo Hefez Cecília de Souza Fernandez Capítulo 3: Espaços Vetoriais Sumário 1 Subespaços Vetoriais . . . . . . . . . . . . . . . . . 58 1.1 Caracterização dos Subespaços Vetoriais . . . . . . 58 1.2 Operações com Subespaços . . . . . . . . . . . . . 61 1.3 Subespaços Gerados . . . . . . . . . . . . . . . . . 63 2 Dependência e Independência Linear . . . . . . . . 69 3 Bases e Dimensão . . . . . . . . . . . . . . . . . . . 75 3.1 Bases . . . . . . . . . . . . . . . . . . . . . . . . . 75 3.2 Dimensão . . . . . . . . . . . . . . . . . . . . . . . 82 4 Espaço
Compartilhar