Baixe o app para aproveitar ainda mais
Prévia do material em texto
Álgebra linear algorítmica S. C. Coutinho Prefácio Agradeço a todos os alunos que cursaram álgebra linear algorítmica em 2010 e 2011 e que serviram de cobaias para a disciplina e para as notas que a acompanharam, espe- cialmente Fabio Ferman, Fillipe Barros da Silva, João Augusto Marrara Marzagão, Raul Barbosa, Mateus Gregório, Rochanne de Miranda Corrêa, Filipe Qiang Zhou, Júlio Zyn- ger, Edberg dos Santos Franco e Victor Lima Campos, que detectaram e ajudaram a corrigir alguns dos inúmeros erros do manuscrito original. iii Sumário Prefácio iii Capítulo 1. O plano 1 1. Vetores 1 2. Transformações lineares 10 3. Matrizes 18 Exercícios 31 Capítulo 2. Sistemas lineares 35 1. Eliminação gaussiana 35 2. Decomposição de matrizes 56 3. Aplicações 73 Exercícios 81 Capítulo 3. Modelos multidimensionais 85 1. Dinâmica de populações 85 2. O espaço Rn e suas transformações lineares 93 3. Subespaços 98 4. Projeções e reflexões 104 5. Método dos mínimos quadrados 106 6. Autovalores e autovetores 111 7. Rotações no espaço 119 Exercícios 125 Referências Bibliográficas 131 v CAPíTULO 1 O plano Neste capítulo estudamos os principais conceitos deste curso, vetores e transformações lineares, no contexo concreto do plano. Boa parte do que faremos aqui será generalizado para dimensões maiores em capítulos posteriores. Nosso tratamento das matrizes, entre- tanto, será inteiramente geral. Afinal, trata-se basicamente de uma revisão de matéria vista no ensino médio. 1. Vetores Um vetor é, essencialmente, um segmento de reta orientado e, como tal, tem: • um comprimento, geralmente chamado de módulo ou norma; • uma direção, dada pela reta subjacente ao segmento; • um sentido, que nos diz para que lado da reta subjacente o segmento aponta. Além disso suporemos que vetores não podem “flutuar” por onde desejarem. Fixaremos para todo o sempre um ponto do plano, que chamaremos de origem e denotaremos por O. Todos os vetores terão uma de suas extremidades na origem e a orientação do segmento será sempre da origem para a outra extremidade, como mostra a figura. ·O GG������������� Designaremos vetores por letras, sem a necessidade de adicionar a tradicional seta no alto da letra. Se u for um vetor, seu módulo será denotado por ‖u‖. Reservaremos as barras simples para o módulo de um número real; isto é, se r ∈ R, então |r| = { r se r ≥ 0; −r se r < 0; 1 2 1. O PLANO 1.1. Operações com vetores. Ao contrários dos segmentos de retas, vetores não são estáticos: podemos operar com eles. A operação mais simples é a soma de vetores, definida pela regra do paralelogramo: dados dois vetores u e v, formamos o paralelogramo, com vértice na origem e lados u e v; a soma u + v corresponde à diagonal maior do paralelogramo orientada da origem para o vértice oposto; como mostra a figura. jjjjjjjjjj � � � � � � � · u GG�������������� v 44hhhhhhhhhhhhhhhhhhhh u+v ;;vvvvvvvvvvvvvvvvvvvvvvvvvvvvvv A ideia que levou a esta definição é antiga e muito natural. Por exemplo, balsas eram comumente puxadas ao longo de um canal por dois cavalos, um em cada margem; que é uma ilustração perfeita da regra acima. Em seu famoso Principia, Newton prova a regra do paralelogramo no corolário I da Lei II, que corresponde à nossa segunda lei de Newton. Diga-se de passagem que a noção de vetor só foi introduzida 200 anos depois de Newton. Por isso, o corolário I foi formulado em termos de forças e movimento (ou deslocamento), não em termos de vetores. Já para subtrair o vetor u do vetor v, somamos a v o vetor −u, obtido invertendo- se o sentido da seta de u. Como todos os vetores têm que ter seu ponto de partida na origem, uma maneira mais precisa de descrever esta receita consiste em dizer que, sobre a mesma reta ao longo da qual está u, desenhamos −u como o segmento orientado de mesmo comprimento que u, mas que aponta no sentido oposto a u, como ilustra a figura. · O u 77ooooooo −uwwoooo ooo ooo ooo o 1. VETORES 3 Observe que, literalmente falando, não podemos aplicar a regra do paralelogramo a estes dois vetores. Afinal, eles são colineares e, por isso, não constituem os lados de um paralel- ogramo. Interpretaremos isto como significando que a soma destes vetores é o vetor zero, aquele que tem início e fim na origem, e que denotaremos por 0. Sob estas convenções é fácil, mas muito monótono, verificar geometricamente as seguintes propriedades da soma e da subtração de vetores. Se u, v e w são vetores do plano, então • (u+ v) + w = u+ (v + w); • u+ v = v + u; • u+ 0 = u; • u+ (−u) = 0. Segundo a primeira das propriedades acima, o posicionamento dos parêntesis não afeta o resultado final da adição de vetores. Com isso, se k ∈ N, podemos abreviar u+ · · ·+ u︸ ︷︷ ︸ k vezes por ku, como de praxe. Como definimos −u como sendo o vetor colinear e de sentido oposto a u, convém dizer que (−1) ·u = −u. Portanto, se k é um inteiro negativo, teremos (1) k · u = −u− · · · − u︸ ︷︷ ︸ |k| vezes . Na verdade, vamos generalizar estas definições de modo a permitir o produto de qualquer número real λ por um vetor u. Para isso, declaramos λu como sendo o segmento orientado colinear a u cujo comprimento é igual a |λ| vezes o comprimento de u. Para que esta definição seja compatível com (1), precisamos que λu tenha a mesma direção que u se λ > 0 e a direção oposta se λ < 0. E quando o escalar é o zero? Pela regra anterior, o vetor obtido multiplicando o escalar 0 por um vetor u tem norma 0 · ‖u‖ = 0; de modo que tem que ser o vetor nulo. O produto de um escalar por um vetor satisfaz as seguintes propriedades: • 1 · u = u • 0 · u = 0 • λ(u+ v) = λu+ λv; • (λ+ µ)u = λu+ µu; • (λµ)u = λ(µu); em que u, v e w são vetores do plano e λ, µ ∈ R. Note que em 0 · u = 0 o zero que multiplica u é um escalar, ao passo que o zero à direita do sinal de igualdade é o vetor nulo. Como aplicação do que fizemos até aqui descreveremos a equação vetorial de uma reta r. O caso mais simples é aquele em que r passa pela origem. Neste caso, podemos 4 1. O PLANO escolher um vetor não nulo u ao longo da reta, que pode então ser descrita como o conjunto de múltiplos de u. Isto é, a reta corresponde ao conjunto r = {λ · u |λ ∈ R}. Talvez esta definição de uma reta pela origem lhe incomode. Afinal, aprendemos no ensino fundamental que uma reta é um conjunto de pontos, não de vetores. Na verdade, trata-se de uma mera questão de ponto de vista, já que podemos identificar um ponto qualquer P da reta com o segmento orientado que vai da origem a p, e vice-versa. Se a reta r não passa pela origem, precisamos escolher primeiramente um vetor u0 cuja extremidade está sobre r, e que consideraremos fixo de agora em diante. Neste caso é melhor evitar falar de um vetor “da reta” ou “sobre a reta” porque, como mostra a figura, somente a ponta do vetor vai tocar a reta. r _______ ____ __________ ______ · u0 GG�������������� v 77oooooooooooooooooooooooooooo v−u0 // Se v é um outro vetor qualquer, cuja extremidade também está sobre r, então a diferença v − u0 nos dá um vetor na direção da reta. Na verdade, se pudéssemos transpor o vetor da origem para a extremidade de u0, obteríamos o segmento orientado que vai da extremidade de u0 à extremidade de v. Seja u um vetor qualquer nesta direção. O que dissemos acima nos permite concluir que v − u0 é múltiplo escalar de u; em símbolos, v − u0 = λu, para algum λ ∈ R. Portanto, dados um vetor u0 com extremidade sobre a reta r e um vetor u na direção de r, qualquer vetor v de r pode ser escrito na forma v = u0+λu, para algum número real λ. Na linguagem de conjuntos, r = {u0 + λ · u |λ ∈ R}. Na terminologia usual, u é o vetor diretor da reta r e u0+λu é a equação vetorial de r. Uma pergunta razoável é: de que forma a equação vetorial se relaciona à equaçãocartesiana da reta, que é aquela que aprendemos no ensino médio? Para respondê-la, precisamos introduzir coordenadas nos nossos vetores. 1. VETORES 5 1.2. Projeção e coordenadas. Como ilustrado na figura abaixo, um exercício simples de trigonometria mostra que projetando o segmento correspondente a um vetor v sobre a reta suporte do vetor u obtemos um segmento de comprimento ‖v‖| cos θ|, em que θ é o menor ângulo entre os vetores u e v. � � � � � � � · u θ // v ::ttttttttttttttttttttttt ______ Usando isto, definimos a projeção do vetor v sobre o vetor u, como sendo o vetor Proju(v), que tem comprimento ‖v‖| cos θ| e mesma reta suporte que u. O sentido da projeção é o mesmo de u se o ângulo θ for agudo, e oposto a u se θ for obtuso. Naturalmente, podemos determinar se o ângulo θ é agudo ou obtuso a partir do cosseno; no primeiro caso, cos θ é positivo; no segundo, negativo. Mas isto significa que se u for um vetor de norma um, então o vetor (‖v‖ cos θ) · u é colinear a u e tem o mesmo comprimento e sentido de Proju(v); de modo que estes dois vetores são iguais. Quando u não for unitário, podemos facilmente construir um vetor unitário de mesma direção e sentido que u dividindo-o por sua norma. Portanto, em geral, (2) Proju(v) = ‖v‖ cos θ ‖u‖ · u. A noção de projeção nos permite introduzir coordenadas para vetores do plano. Já vimos que, para descrever vetores, precisamos fixar o ponto que lhes serve de origem. Para introduzir coordenadas, fixamos dois vetores unitário não colineares no plano, que denotaremos por e1 e e2. O conjunto {e1, e2} é conhecido como uma base do plano. Para simplificar os cálculos, escolheremos e1 e e2 como sendo vetores perpendiculares. Seja v um vetor qualquer do plano. Supondo que θ é o ângulo entre v e e1, um argumento trigonométrico simples mostra que (3) v = (‖v‖ cos θ) · e1 + (‖v‖ senθ) · e2. Os números ‖v‖ cos θ e ‖v‖ senθ são as coordenadas de v relativamente à base {e1, e2}. Uma vez que a base esteja fixada, podemos abreviar (3) escrevendo v = (‖v‖ cos θ, ‖v‖ senθ); isto é, identificamos o vetor com seu par de coordenadas. Note que se (4) v = a · e1 + b · e2, 6 1. O PLANO então segue de (3) que (a · e1 + b · e2)− ((‖v‖ cos θ) · e1 + (‖v‖ senθ) · e2) = 0; isto é, (a− ‖v‖ cos θ) · e1 + (b− ‖v‖ senθ) · e2 = 0; ou ainda (a− ‖v‖ cos θ) · e1 = −(b− ‖v‖ senθ) · e2. Como os vetores e1 e e2 não são colineares, esta última equação só é possível se a− ‖v‖ cos θ = 0 e b− ‖v‖ senθ = 0. Concluímos, assim, que em qualquer expressão da forma (4), teremos sempre que a = ‖v‖ cos θ(5) b = ‖v‖ senθ Em outras palavras, as coordenadas de v relativamente à base {e1, e2} ficam completa- mente determinadas pela expressão (4). Vejamos de que forma as coordenadas se comportam relativamente à soma de vetores e ao produto de um vetor por um escalar. Sejam v1 e v2 dois vetores do plano cujas coordenadas são v1 = (a1, b1) e v2 = (a2, b2). Note que não explicitamos as coordenadas em termos do comprimento do vetor e do ângulo que forma com e1. Só faremos isto quando for realmente necessário. Em geral, as coorde- nadas serão consideradas apenas como o par de números que representam os comprimentos das projeções de v sobre e1 e e2, respectivamente. Pela definição de coordenadas, temos que v1 = a1e1 + b1e2 e v2 = a2e1 + b2e2. Pela associatividades da adição de vetores v1 + v2 = a1e1 + a2e1 + b1e2 + b2e2; que pelas propriedades do produto por escalar, podemos reescrever como v1 + v2 = (a1 + a2)e1 + (b1 + b2)e2. Logo, a v1 + v2 corresponde o par de coordenadas (a1 + a2, b1 + b2). Um argumento semelhante mostra que se λ é um número real, então λ · v1 = (λa1, λb1). É costumeiro resumir isto dizendo-se que a adição de vetores e a multiplicação de um vetor por um escalar são feitas “coordenada a coordenada”. 1. VETORES 7 Agora que sabemos escrever vetores usando coordenadas, podemos responder à per- gunta formulada ao final do artigo anterior: qual a relação entre a equação vetorial e a equação cartesiana y = ax + b da reta? Lembre-se que esta última equação estabelece a relação entre abscissa e ordenada de um ponto qualquer da reta. Identificando o ponto (x, y) com a extremidade de um vetor e usando a relação acima, temos que (x, y) = (x, ax+ b). Apelando para as operações com vetores, podemos reescrever esta igualdade na forma (x, y) = x(1, a) + (0, b). Como x pode assumir qualquer valor real, podemos interpretá-lo como parâmetro. Assim, y = ax+ b é a reta que, passando pela extremidade do vetor u0 = (0, b), tem vetor diretor igual a u = (1, a), de modo que sua equação vetorial é u0 + λu. E se a equação vetorial de uma reta r for dada, como obtemos a e b, de modo que y = ax+ b represente a mesma reta? Suponhamos que u0 + λu seja a equação vetorial de r e que as coordenadas de u e u0 sejam u0 = (α0, β0) e u = (α, β). Dado um vetor qualquer v = (x, y), com extremidade em r, temos que (x, y) = v = u0 + λu = (α0, β0) + λ(α, β); donde podemos concluir que (x, y) = (α0 + λα, β0 + λβ); ou ainda, que x = α0 + λα; y = β0 + λβ; que são conhecidas como equações paramétricas da reta r. Supondo que α 6= 0, podemos explicitar o valor de λ da primeira equação na forma λ = x− α0 α . Substituindo na segunda equação, obtemos y = β0 + ( x− α0 α ) β; que pode ser reescrita na forma y = αβ0 − α0β α + β α x; 8 1. O PLANO ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ............. ........... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... . ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... . ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ....................... ............ ........... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... .... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... .... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... .............. ....... ....... ....... ....... ....... ....... ............... ........... ................................... .................................... .................................... .................................... .................................... .................................... ...................................... ...................................... ...................................... ...................................... ........................................ ........................................ ........................................ .......................................... .......................................... ............................................ .............................................. ................................................ .................................................. .................................................... ........................................................ ............................................................ .................................................................. .......................................................................... ........................................................................................ ............................................................................................... ............................................................................................................................... ................................................................................................................................ ................................................................................................................................ ................................................................................................................................ .................................................................................................................................. .................................................................................................................................. .................................................................................................................................. .................................................................................................................................. .................................................................................................................................... ....................................................................................... ............................................................................................................................................. .................................................................................................................................................... ................................................................................................................................................................ .................................................................................................................................................................................. ................................................................................................................................................................................................................ .......................................................................................................................................................................................................................................................................................... ..................................................................................................................................... ............................................................................................................................. .... ....... u v FIGURA 1. Produto interno que é a equação da reta na forma usual. Como, para chegar a esta resposta, supusemos que α 6= 0, resta descobrir o que ocorre se α = 0. Neste caso, as equações paramétricas serão x = α0; y = β0 + λβ. Como a abscissa está fixa, esta é a reta vertical que corta o eixo x no ponto (α0, 0). Acon- tece que a equação de uma reta vertical não pode ser escrita na forma y = ax+ b. De fato, a equação da reta r acima é simplesmente x = α0. 1.3. Produto interno. Em física aprendemos que o produto interno ou produto es- calar entre dois vetores v1 e v2 do plano é definido como sendo o número 〈v1 | v2〉 = ‖v1‖‖v2‖ cos θ; em que θ é o menor ângulo entre os vetores v1 e v2. Se {e1, e2} é uma base do plano formada por vetores unitários perpendiculares entre si, de que maneira podemos expressar 〈v1 | v2〉 em função das coordenadas de u e v relativas a esta base? Para isto precisamos relacionar o ângulo θ aos ângulos que v1 e v2 formam com o vetor e1, e que são usados para determinar suas coordenadas. Chamando de α e β os ângulos entre e1 e os vetores u e v, respectivamente, temos da figura que θ = β − α. Portanto, cos(θ) = cos(β − α) = cos(β) cos(α) + sen(β) sen(α), 1. VETORES 9 de modo que 〈v1 | v2〉 = ‖v1‖ cos(β)‖v2‖ cos(α) + ‖v1‖ sen(β)‖v2‖ sen(α). Denotando por (a1, b1) as coordenadas de v1 e por (a2, b2) as coordenadas de v2, temos de (5) que (6) 〈v1 | v2〉 = a1a2 + b1b2. Esta expressão do produto interno é muito conveniente. Por exemplo, a partir dela podemos provar facilmente as seguintes propriedades: (1) 〈u | v1 + v2〉 = 〈u | v1〉+ 〈u | v2〉; (2) 〈v1 |λv2〉 = λ〈v1 | v2〉; (3) 〈v1 | v2〉 = 〈v2 | v1〉; (4) 〈u |u〉 ≥ 0; (5) 〈u |u〉 = 0 se, e somente se, u = 0; quaisquer que sejam os vetores u, v1 e v2 do plano e o escalar λ. Note que a propriedade (3) implica que valem os análogos de (1) e (2) com a operação sendo efetuada na primeira coordenada e a segunda coordenada estando fixa. Finalmente, a expressão (6) também nos permite interpretar geometricamente a equa- ção geral da reta, que tem a forma αx+ βy + γ = 0, em que α, β e γ são constantes. Começaremos considerando o caso especial em que γ = 0. Sejam n e v os vetores cujas coordenadas relativamente à base {e1, e2} são n = (α, β) e v = (x, y). Por (6) temos que 〈n | v〉 = αx+ βy. Portanto, v pertence à reta de equação αx+ βy = 0 se, e somente se 〈n | v〉 = 0. Em outras palavras, v pertence à reta de equação αx + βy = 0 se, e somente se v é perpen- dicular ao vetor fixo n. Note que esta reta contém a origem, que não está contida na reta de equação αx+βy+γ = 0, quando γ 6= 0. Neste caso, como mostra a figura 1.3, não é o vetor v que é perpendicular ao vetor normal n, mas sim a diferença v − p, em que p corresponde a um vetor fixo com extremidade sobre a reta. 10 1. O PLANO .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... ............................... ........... ......... ......... ......... ......... ......... ......... ......... ......... ......... ......... ......... ......... ......... ......... ......... ......... ......... ......... ......... ......... ......... ......... ......... ......... ......... ......... .................... ........... ...................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... .............................................................................................................................................................................................................................................................................................................. ...... ..... ...................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... ................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... ... ................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... .................... ..... .......................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... n p X O Portanto, a equação de uma reta geral pode ser escrita na forma 〈n | (v − p)〉 = 0; que, pelas propriedades do produto interno, pode ser reescrita na forma 〈n | v〉 = 〈n | p〉. Já vimos que o lado esquerdo desta expressão é igual a αx+ βy, logo γ = −〈n | p〉, que é mesmo um constante, uma vez que n e p estão fixos. 2. Transformações lineares Até aqui podemos esticar ou encolher um vetor, multiplicando-o por um escalar, ou somar dois vetores; mas há muitas outras coisas que podemos fazer a um vetor, como rodá- lo ou refleti-lo relativamente a uma reta. O que não podemos fazer é entortá-lo, porque assim deixaria de ser um vetor. Além disso, como todos os vetores partem da origem, este ponto tem que ficar fixo por qualquer transformação de vetores. Vejamos alguns exemplos. 2.1. Projeções. Começaremos pelas projeções, porque já vimos como calculá-las. Seja u um vetor unitário e v um vetor qualquer do plano. Por (2), a projeção de v em u é dada por Proju(v) = (‖v‖ cos(θ)) · u, 2. TRANSFORMAÇÕES LINEARES 11 em que θ é o ângulo entre u e v. Podemos usar o produto interno para reescrever esta fórmula como Proju(v) = 〈u | v〉 · u, uma vez que u tem módulo um. Disto obtemos, como muito pouco esforço, uma fórmula para a projeção em termos das coordenadas de u e de v. De fato, se u = (a, b) e v = (x, y), então Proju(v) = ((ax+ by)a, (ax+ by)b) = (a 2x+ aby, abx+ b2y). 2.2. Reflexões. As reflexões podem ser tratadas de maneira semelhante às projeções. Chamaremos de espelho à reta em torno do qual será realizada a reflexão e cujo vetor diretor unitário denotaremos por u. Já n será um vetor, também unitário, perpendicular a u. No plano, uma vez fixado u, só há duas possibilidades para n. Afinal o módulo de n está fixo, pois é igual a um, e sua direção também, já que está sobre a reta perpendicular ao espelho. Resta escolher seu sentido, para o qual temos apenas duas possibilidades. Observe que os vetores u e n formam uma base do plano, de acordo com a definição do artigo 1.2, pois são unitários e perpendiculares entre si. Portanto, se v for um vetor do plano e R(v) seu reflexo relativamente ao espelho de vetor diretor u, temos que R(v) = Proju(R(v)) + Projn(R(v)). Resta-nos determinar as projeções de R(v) sobre u e n em termos das coordenadas de v nesta base. Para isto faremos uso da descrição geométrica usual de uma reflexão. Para começar, um vetor v e seu reflexo R(v) têm ambos o mesmo módulo. Além disso, o ângulo que o vetor v forma com o espelho é o mesmo entre o R(v) e o espelho. A diferença é que v está de um lado do espelho, ao passo que R(v) está do outro lado, como ilustra a figura 2.2. O ponto crucial para determinar uma fórmula para o reflexo R(v) de um vetor v é observar que as projeções de v e R(v) sobre a u satisfazem Proju(R(v)) = Proju(v). ao passo que as projeções sobre a normal n satisfazem, Projn(R(v)) = −Projn(v). Logo, R(v) = Proju(v)− Projn(v) = v − 2 Projn(v). Representando a projeção sobre n em termos do produto interno, como no artigo anterior, temos que Projn(v) = 〈n | v〉 · n, 12 1. O PLANO ....................................................................................................................... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... .............. ........... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... .............. ....... ....... ....... ....... ....... ....... ....... .... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... .... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ............... ........... ............................................................................................................................... ................. ................. ................. ................. ................. ................. ................. ................. ................. ................. ................. ................. ................. .............. ................. ................. ................. ................. ................. ................. ................. ................. ................. ................. ................. ................. ................. .............. ................. ................. ................. ................. ................. ................. ................. ................. ................. ................. ................. ................. ................. ......................... ........... espelho uv R(v) donde (7) R(v) = v − 2〈n | v〉 · n. Encerraremos este artigo determinando uma fórmula para R(v) em função das coorde- nadas de v. A maneira mais fácil de fazer isto consiste em usar a base {u, n} ao descrever as coordenadas dos vetores. Afinal, relativamente a esta base, u tem coordenadas (1, 0) e n tem coordenadas (0, 1), pois u = 1 · u+ 0 · n e n = 0 · u+ 1 · n. Supondo que v tem coordenadas (x, y) relativamente a esta mesma base, uma aplicação direta da fórmula (7) nos dá R(x, y) = (x, y)− 2y(0, 1) = (x,−y); como seria de esperar da descrição geométrica. O problema é que ao usar {u, n} como base estamos criando uma situação um pouco artificial. Na prática, os vetores u e v são dados em termos de suas coordenadas relativamente a uma base pré-fixada do plano, e não vice-versa. Portanto, tendo em vista futuras aplicações, convém determinar como seria a fórmula da reflexão em termos das coordenadas dos vetores relativamente a uma base qualquer. Para isto suporemos que uma base {e1, e2} foi fixada e que u tem coordenadas (a, b) relativamente a esta base. Mas o produto interno de u com o vetor de coordenadas (−b, a) é igual a zero e, além disso ‖u‖ = √ a2 + b2 = ‖n‖, 2. TRANSFORMAÇÕES LINEARES 13 de modo que se u for unitário o mesmo terá que ser verdadeiro para n. Portanto, podemos escolher n = (−b, a), Escrevendo v = (x, y), a fórmula da reflexão obtida acima nos diz que R(v) = (x, y)− 2(ay − bx) · (−b, a); isto é, R(v) = ((1− 2b2)x+ 2bay, 2abx+ (1− 2a2)y). 2.3. Rotação. Passando à rotação, digamos que ρθ seja a transformação que roda um vetor v de um ângulo θ no sentido anti-horário. Mais uma vez, nosso objetivo consiste em escrever uma fórmula para esta transformação em termos das coordenadas de um vetor v relativamente a uma base {e1, e2} formada por vetores unitários e perpendiculares entre si. Como já se tornou usual, diremos que as coordenadas de v são (x, y). A fórmula (5) nos permite afirmar que x = ‖v‖ cosα y = ‖v‖ senα em que α é o ângulo entre v e o vetor e1. Tendo expresso x e y desta maneira, fica fácil determinar as coordenadas de ρθ(v). Afinal, ao rodar v de um ângulo θ no sentido anti- horário, o ângulo entre v e e1 aumenta de α para α + θ. Isto é, as coordenadas de ρθ(v) serão (‖v‖ cos(α + θ), ‖v‖ sen(α + θ)). Para explicitar a relação entre estas coordenadas e as coordenadas x e y de v, usamos duas bem conhecidas fórmulas de trigonometria sen(α + θ) = sen(α) cos(θ) + sen(θ) cos(α) cos(α + θ) = cos(α) cos(θ)− sen(θ) sen(α). Multiplicando estas expressões por ‖v‖ e substituindo ‖v‖ cosα por x e ‖v‖ senα por y, obtemos ρθ(x, y) = (cos(θ)x− sen(θ)y, cos(θ)y + sen(θ)x), que é a fórmula desejada. 2.4. Definição e propriedades. Uma coisa que transparece das fórmulas obtidas para projeções, reflexões e rotações é que as coordenadas são sempre expressões lineares sem termo contante, nas coordenadas x e y do argumento v. As transformações com esta pro- priedade são tão abundantes nas ciências naturais, e tão importantes no estudo dos vetores, que merecem uma designação à parte. 14 1. O PLANO Seja T uma transformação (ou aplicação) do plano nele mesmo e fixemos uma base do plano. Diremos que T é uma transformação linear do plano se existirem constantes a, b, c e d de modo que a imagem de qualquer vetor v pode ser escrita na forma T (v) = (ax+ by, cx+ dy) sempre que v = (x, y). A origem do uso do adjetivo linear para designar tais transformações é claro: as coorde- nadas do vetor imagem são, de fato, expressões lineares em x e y. Observe que excluímos a possibilidade de termos constantes nesta expressão desde o começo, porque decidimos de partida que a imagem do vetor zero por T teria que ser o mesmo vetor zero, já que todos os vetores partem de um mesmo ponto. As transformações lineares do plano têm três propriedades importantes. Se v1 e v2 são dois vetores quaisquer do plano e λ ∈ R, então: (1) T (0) = 0; (2) T (v1 + v2) = T (v1) + T (v2); (3) T (λv1) = λT (v1). A propriedade (1) é óbvia; provaremos a segunda e deixaremos a terceira aos seus cuida- dos. Suponhamos que v1 e v2 têm coordenadas v1 = (x1, y1) e v2 = (x2, y2), relativamente à base fixada. Neste caso, v1 + v2 = (x1 + x2, y1 + y2); de modo que T (v1 + v2) = (a(x1 + x2) + b(y1 + y2), c(x1 + x2) + d(y1 + y2)). Mas o lado direito da equação acima é igual a ((ax1 + by1) + (ax2 + by2), (cx1 + dy1) + (cx2 + dy2)) que é igual à soma de vetores, (ax1 + by1, cx1 + dy1) + (ax2 + by2, cx2 + dy2); isto é, a T (v1) + T (v2), provando assim a propriedade desejada. Na verdade, qualquer aplicação do plano nele mesmo que satisfaz estas três propri- edades tem que ser uma transformação linear. A verificação é simples e muito importante para a caracterização final que daremos a estas transformações, por isso vamos fazê-la em detalhes. Para deixar bem claro o que queremos fazer, convém enunciá-lo de maneira bastante precisa: se uma transformação T do plano satisfaz as propriedades (1), (2) e (3) acima então existem constantes a, b, c e d de modo que T (x, y) = (ax+ by, cx+ dy); 2. TRANSFORMAÇÕES LINEARES 15 em que a escolha das coordenadas naturalmente pressupõe que fixamos uma base do plano. Começaremos supondo v é um vetor do plano cujas coordenadas relativamente à base fixada são (x, y). Por definição, isto significa que, se a base for constituída pelos vetores e1 e e2, então v = xe1 + ye2. Portanto, T (v) = T (xe1 + ye2). Usando as propriedades (2) e (3) o lado direito desta última equação pode ser escrito na forma T (v) = xT (e1) + yT (e2). Mas, tanto T (e1) como T (e2) são vetores do plano e, como tais, podem ser escritos em termos de suas coordenadas na base {e1, e2}. Se T (e1) = ae1 + ce2 e que T (e2) = be1 + de2, então T (v) = x(ae1 + ce2) + y(be1 + de2) = (ax+ by)e1 + (cx+ dy)e2. Podemos reformular isto diretamente em termos das coordenadas como T (x, y) = (ax+ by, cx+ dy), que é a fórmula que desejávamos obter. Observe que, como os vetores e1 e e2 estão fixados, os números reais a, b, c e d dependem apenas de T e não das coordenadas de v. Na verdade, descobrimos o que estes quatro números representam: são as coordenadas deT (e1) e T (e2). Voltaremos a usar isto no artigo 2.6. Convém resumir o que fizemos acima para uso futuro. PROPOSIÇÃO 2.1. Seja T uma aplicação do plano no plano e fixemos uma base do plano em relação à qual tomaremos todas as coordenadas dos vetores. As seguintes condições são equivalentes: • T satisfaz as propriedades (1), (2) e (3) acima; • T (x, y) = (ax+ by, cx+ dy) em que T (e1) = (a, c) e T (e2) = (b, d). 2.5. Combinando transformações lineares. Duas transformações lineares do plano podem ser somadas ou compostas, disto resultando uma nova transformação linear do plano. Se S e T são transformações lineares do plano, então definimos sua soma como sendo a aplicação S + T definida em um vetor v por (S + T )(v) = S(v) + T (v), ao passo que sua composição S ◦ T é definida por (S ◦ T )(v) = S(T (v)). 16 1. O PLANO Note que S ◦ T e T ◦ S representam transformações que podem ser diferentes, ao passo que S + T e T + S sempre designam a mesma transformação, porque a soma de vetores não depende de quem vem primeiro. Verificaremos com cuidado que tanto S+T quanto S◦T são transformações lineares. A maneira mais fácil seria provar que estas transformações satisfazem as propriedades (1), (2) e (3) do artigo anterior. Pela proposição 2.1 isto garantiria que se tratam de transformações lineares. Em vez disso, vamos deduzir uma fórmula em termos de coordenadas para S+T e S ◦ T , a partir das respectivas fórmulas para S e T . Procederemos assim porque estas fórmulas serão necessárias no artigo seguinte. Supondo fixada uma base do plano, digamos que T (x, y) = (ax+ by, cx+ dy) e que S(x, y) = (αx+ βy, γx+ δy), em que a, b, c, d, α, β, γ, δ são constantes. Por definição, (S + T )(x, y) = S(x, y) + T (x, y), que é igual a (ax+ by, cx+ dy) + (αx+ βy, γx+ δy); somando os vetores, concluímos que (S + T )(x, y) = ((a+ α)x+ (b+ β)y, (c+ γ)x+ (d+ δ)y). A fórmula resultante é muito fácil de lembrar, porque apenas somamos os coeficientes de x e y em cada coordenada do vetor imagem. A fórmula da composta, infelizmente, está longe de ser tão simples. Partindo da definição temos que (S ◦ T )(x, y) = S(T (x, y)) = S(ax+ by, cx+ dy); a que aplicamos a fórmula para S, obtendo (S ◦ T )(x, y) = (α(ax+ by) + β(cx+ dy), γ(ax+ by) + δ(cx+ dy)). Reagrupando os termos, (S ◦ T )(x, y) = ((αa+ βc)x+ (αb+ βd)y, (γa+ δc)x+ (γb+ δd)y), que é bem menos fácil de lembrar que a anterior. Imagine se, ao invés de compor duas funções, precisássemos compor três ou quatro: uma rotação, seguida de uma reflexão, de uma nova rotação e finalmente uma projeção. Problemas como este ocorrem frequente- mente na prática e levaram Arthur Cayley, no século XIX, a procurar uma maneira sucinta de resolvê-los. Para isto ele inventou as matrizes. 2. TRANSFORMAÇÕES LINEARES 17 2.6. Matriz de uma transformação linear. A ideia de Cayley é que, uma vez fixada uma base do plano, uma transformação linear fica completamente determinada por quatro números: os coeficientes de x e y nas expressões que definem as coordenadas de T (x, y). Quando T (x, y) = (ax+ by, cx+ dy), os números são a, b, c e d. Mas isto significa que, para fazer cálculos com T basta conhecer estes números e descobrir como se transformam sob estes cálculos. Para tornar tudo mais transparente, Cayley resolveu dispor estes números em um quadro,[ a b c d ] e assim foram inventadas as matrizes. Como sempre, este resumo histórico não representa o que realmente aconteceu. A disposição em forma de quadro já era usada desde o século XVIII para denotar determinantes, e o nome matriz foi usado por Sylvester antes mesmo do primeiro artigo do Cayley sobre o assunto; para mais detalhes, consulte [3, p. 171]. Como a matriz de uma transformação depende completamente da base do plano que foi escolhida e fixada, denotaremos a matriz de T escrita acima por (T )ε, em que ε = {e1, e2} é a base na qual estamos escrevendo as coordenadas dos vetores do plano. Usando esta notação e as expressões para a projeção, reflexão e rotação em termos das coordenadas dos vetores, podemos facilmente determinar as matrizes correspondentes a estas transformações lineares; que são ( Proju)ε = [ a2 ab ab b2 ] e (R)ε = [ 1− 2a2 −2ab −2ab 1− 2b2 ] em que (a, b) são as coordenadas do vetor unitário u e (ρθ)ε = [ cos(θ) − sen(θ) sen(θ) cos(θ) ] para a rotação anti-horária de um ângulo θ. Na verdade, no caso da projeção e da re- flexão, a matriz pode ser expressa de maneira ainda mais compacta usando operações com matrizes, como veremos no artigo 3.4. Enquanto isto, vamos nos contentar em descrever explicitamente as matrizes correspondentes à soma e à composição de dois operadores. Para isto, considere duas transformações lineares T e S do plano, definidas em uma base ε por T (x, y) = (ax+ by, cx+ dy) e S(x, y) = (αx+ βy, γx+ δy). Pela regra criada por Cayley as matrizes correspondentes na base ε serão (T )ε = [ a b c d ] e (S)ε = [ α β γ δ ] . 18 1. O PLANO Usando as fórmulas para S + T e S ◦ T obtidas no artigo anterior, obtemos (S + T )ε = [ a+ α b+ β c+ γ d+ δ ] ao passo que (S ◦ T )ε = [ αa+ βc αb+ βd γa+ δc γb+ δd ] . Cayley deu, então, um passo à frente, utilizando estas fórmulas para definir a adição e a multiplicação diretamente sobre as matrizes; mais precisamente (S)ε + (T )ε = (S + T )ε (S)ε · (T )ε = (S ◦ T )ε Abstraindo completamente das transformações, obtemos as operações usuais com ma- trizes: a soma, definida entrada a entrada, e a multiplicação, definida pela regra[ α β γ δ ] · [ a b c d ] = [ αa+ βc αb+ βd γa+ δc γb+ δd ] . Portanto, a regra para multiplicação de matrizes, à primeira vista tão artificial, é obtida coletando os coeficientes de x e y na fórmula resultante da composição de duas transfor- mações lineares. 3. Matrizes Uma vez introduzido um novo conceito, é improvável que não venha a ser generalizado, assim que surgir a oportunidade. No caso das matrizes, o próprio Cayley as apresentou em um grau de generalidade muito maior que o adotado na seção anterior. 3.1. Definição geral. Considerando uma matriz como um quadro de números, nada nos impede de criá-las com qualquer número de linhas e colunas que desejemos. Nem mesmo há a necessidade de que a quantidade de linhas e colunas seja a mesma. Tendo isto em vista, Cayley definiu matrizes m × n como quadros de números com m linhas e n colunas cujas posições podem ser preenchidas por números reais, ou outros objetos matemáticos de natureza semelhante. Como seria de esperar, as matrizes para as quais m = n são chamadas de quadradas; as demais são conhecidas como matrizes retangulares. Os números que ocupam as várias posições de uma matriz são conhecidos como en- tradas ou coeficientes da matriz e dispostos em uma tabela, encapsulada por colchetes. Para não ter que repetir todo o quadro numérico a cada vez que nos referimos a uma ma- triz, vamos designá-las por letras, geralmente maiúsculas. Por exemplo, A = 1 5 pi −5/71/8 9 8 pi/2 0 −65 0 7/pi é uma matriz com 3× 4 (isto é, tem 3 linhas e 4 colunas) cujas entradas são números reais. 3. MATRIZES 19 Para localizar uma entrada em uma matriz, definimos sua posição em termos da linha e da coluna que ocupa. Por exemplo, na matriz A acima, pi/2 ocupa a posição 2, 4 e −65 a posição 3, 2. Como frases do tipo “o número α ocupa a posição que está na interseção da linha i com a coluna j da matriz M” são muito verbosas, vamos abreviá-las escrevendo simplesmente Mi,j = α ou M [i, j] = α. conforme nossa conveniência. Assim, tomando como base a matriz A do exemplo acima mais uma vez, temos A1,4 = −5/7 e A(2, 2) = 9. Usando esta nomeclatura, a diagonal de uma matriz M corresponde às posições Mi,i. Na matriz do exemplo, a diagonal é formada pelas entradas A1,1 = 1, A2,2 = 9 e A3,3 = 0.Naturalmente a diagonal de uma matriz só se parece com uma diagonal, no sentido ge- ométrico do termo, quando a matriz é quadrada. Chamaremos de diagonal as matrizes quadradas cujas únicas entradas não nulas pertencem à sua diagonal. Por exemplo, a ma- triz 1 0 0 0 0 pi/2 0 0 0 0 4 0 0 0 0 2 é diagonal, já 1 0 0 0 0 pi/2 8 0 0 0 4 0 0 0 0 2 não é. A mais importante de todas as matrizes diagonais é a matriz identidade. Denotada por I , ou In quando for necessário deixar claro que se trata de uma matriz n × n, ela tem 1s ao longo da diagonal e zeros em todas as outras posições, como é o caso de I4 = 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 Nem sempre é conveniente definir uma matriz apresentando-a como um quadro de números. Isto ocorre, por exemplo, se a matriz for esparsa; isto é, se a maioria de suas entradas forem nulas, como é o caso da matriz identidade. Imagine desenhar uma matriz identidade 100×100: o quadro numérico é enorme, mas está quase todo ocupado por zeros! Uma maneira mais econômica de definir tais matrizes consiste em defini-las coeficiente a coeficiente. Fazendo isto para a matrizA do início deste artigo teríamos as entradas listadas na tabela Que não parece ser nada além de uma versão piorada do quadro introduzido pelo Cay- ley. Mas não se esqueça de que esta matriz não é, de forma alguma, esparsa. Nos casos 20 1. O PLANO A1,1 = 1 A1,2 = 5 A1,3 = pi A1,4 = −5/7 A2,1 = 1/8 A2,2 = 9 A2,3 = 8 A2,4 = pi/2 A3,1 = 0 A3,2 = −65 A3,3 = 0 A3,4 = 7/pi mais vantajosos, ou a matriz é esparsa ou os coeficientes podem ser facilmente descritos por uma regra (ou ambos!). Por exemplo, a matriz identidade n × n pode ser definida facilmente por In(i, j) = { 1 quando i = j 0 quando i 6= j Note que escolhemos pôr os índices que identificam a posição da entrada entre colchetes, em vez de usar subscritos, para evitar conflito com o n que identifica a dimensão da ma- triz. As matrizes de Vandermonde, que desempenham papel essencial nos problemas de interpolação que estudaremos adiante, também são mais facilmente definidas por uma de- scrição de seus coeficientes, ainda que não sejam matrizes esparsas. Dados n números reais α1, . . . , αn, a matriz de Vandermonde V = V (α1, . . . , αn) determinada por este números é definida pela regra Vi,j = α j−1 i . Quando n = 3 isto nos dá 1 α1 α 2 1 1 α2 α 2 2 1 α3 α 2 3 Esta maneira de definir matrizes será muito útil na formalização das regras usadas nas operações com matrizes. 3.2. Operações com matrizes. Nosso objetivo neste artigo é adaptar as regras que de- scobrimos para a adição e multiplicação de matrizes 2× 2 para o caso geral em que as ma- trizes não são nem mesmo quadradas. Antes, porém, de escrever estas regras, precisamos saber comparar duas matrizes e determinar se são ou não iguais. Como matrizes são, em última análise, uma espécie de tabela, diremos que duas delas são iguais se isto valer para as tabelas correspondentes. Mais precisamente, para que uma matriz A de tamanho m× n e uma matriz B de tamanho r × s sejam iguais, suas dimensões precisam coincidir, de modo que m = r e n = s e as entradas de uma mesma posição devem coincidir; isto é, Ai,j = Bi,j para todo 1 ≤ i ≤ m e 1 ≤ j ≤ n. Em nosso estudo das operações manteremos as convenções estabelecidas acima para as matrizes A e B. Começaremos analisando a adição. Como vimos, para somar duas matrizes 2 × 2, somamos os seus coeficientes entrada a entrada. Para podermos estender isto às matrizes A e B é necessário que tenham as mesmas dimensões; isto é, que m = r e 3. MATRIZES 21 que n = s. Admitindo que isto se verifica, podemos descrever a soma A + B a partir dos seus coeficientes por (A+B)i,j = Ai,j +Bi,j. Em outras palavras, a entrada i, j da soma é igual à soma das entradas i, j das matrizes A e B. Outra operação fácil de descrever desta maneira é a multiplicação de uma matriz por um escalar, que não apareceu antes e não deve ser confundida com a multiplicação de matrizes. Se λ for um número real, definimos a matriz λ · A por (λ · A)i,j = λ · Ai,j. Portanto, λ·A é a matriz obtida multiplicando-se cada coeficiente deA por λ. Por exemplo, (−2) · 1 5 pi −5/71/8 9 8 pi/2 0 −65 0 7/pi = −2 −10 −2pi 10/7−1/4 −18 −16 −pi 0 130 0 −14/pi As operações de adição de matrizes e multiplicação de uma matriz por um escalar sat- isfazem algumas propriedades simples que listamos a seguir. Se A, B e C são matrizes m× n e λ e µ são números reais, então (1) (A+B) + C = A+ (B + C); (2) A+B = B + A; (3) A+ 0 = A; (4) λ · (A+B) = λ · A+ λ ·B; (5) (λ+ µ) · A = λ · A+ µ · A; (6) 1 · A = A; (7) 0 · A = 0; em que o símbolo 0, usado nas propriedades (3) e no lado direito da propriedade (7) denota a matriz cujas entradas são todas nulas. Entretanto, o 0 que multiplica a matriz A do lado esquerdo de (7) é nosso velho conhecido, o número real zero. Observe que estas propriedades são muito semelhantes às da adição de vetores e multiplicação de um vetor por escalar, descritas no artigo 1.1. Prová-las fica por sua conta. Passemos à fórmula para a multiplicação de matrizes. A maneira usual de descrevê-la recorre a uma fórmula geral, cheia de coeficientes. Mas há uma maneira mais civilizada de expressá-la. Começamos com o caso em que L = [ `1 `2 ] e C = [ c1 c2 ] A regra para multplicação de matrizes 2× 2 deduzida no artigo 2.6 sugere que deveríamos definir o produto L ·C como sendo a matriz 1×1 cuja única entrada é `1c1+`2c2. Podemos 22 1. O PLANO considerar isto como uma matriz 1 × 1 ou como um número real, isto é, um escalar. Em geral, se L = [ `1 · · · `n ] e C = c1 ... cn então copiamos a definição acima, escrevendo, (8) L · C = `1c1 + · · ·+ `ncn. Por exemplo, quando L = [ 1 2 3 ] e C = 45 6 obtemos L · C = 1 · 4 + 2 · 5 + 3 · 6 = 32. Note que escolhemos L como tendo n colunas e C como tendo n linhas, do contrário sobrariam coeficientes em L ou C quando viéssemos a construir o somatório que define L · C. Pondo de outra maneira, só faz sentido multiplicar uma matriz 1×n por uma matriz r×1 quando n = r. A propósito, as matrizes 1×n são conhecidas como matrizes linha e as r×1 como matrizes coluna. Para estender isto às matrizes A e B do início do artigo, consideraremos cada linha de A como sendo uma matriz 1 × n e cada coluna de B como sendo uma matriz r × 1. A primeira coisa a notar é que, para que seja possível multiplicar uma linha de A por uma coluna de B devemos ter que n = r. Sob esta condição, definiremos a entrada i, j da matriz produtoAB como sendo o escalar que resulta do produto da i-ésima linha deA pela j-ésima coluna de B. Para escrever uma fórmula explícita é conveniente ter uma notação para linhas e colunas de uma matriz. Utilizando a terminologia do SCILAB escreveremos A(i, :) para denotar a i-ésima linha e A(:, j) para denotar a j-ésima coluna da matriz A. Com isto, a fórmula que define a matriz produto AB é (AB)(i, j) = A(i, :) ·B(:, j). Note que i percorre os índices das linhas de A, ao passo que j percorre os índices das colunas de B. Como AB tem uma entrada para cada i e cada j, sua dimensão será m× s. Temos, assim, que o produto de uma matriz m×n por uma matriz r× s só existe se n = r; neste caso o produto será uma matriz m× s. 3. MATRIZES 23 Usaremos esta fórmula para provar que a matriz identidade merece o nome que tem; isto é, que se comporta como uma identidade relativamente à multiplicação de matrizes, de modo que A · In = In · A = A, para toda matriz quadrada A de tamanho n× n. Pela fórmula acima, (A · In)(i, j) = A(i, :) · In(:, j). Mas In(:, j) tem apenas uma entrada não nula, que fica na posição j, j. Portanto, pela fórmula (8), A(i, :) · In(:, j) = A(i, j). Logo, (A · In)(i, j) =A(i, j), de modo que a entrada i, j de A · In coincide com a entrada de mesma posição de A, provando a igualdade destas duas matrizes. A igualdade In · A = A é provada de maneira semelhante, os detalhes ficam por sua conta. Argumentos parecidos permitem provar as seguintes propriedades da multiplicação de matrizes: (1) A(BC) = (AB)C; (2) A · 0 = 0; (3) A(B + C) = AB + AC; em que 0 representa a matriz nula e A, B e C representam matrizes quadradas de mesmo tamanho. A propriedade AB = BA não foi listada acima por uma razão muito simples: ela é falsa. Por exemplo, [ 1 1 0 1 ][ 1 0 1 1 ] = [ 2 1 1 1 ] não é igual a [ 1 0 1 1 ][ 1 1 0 1 ] = [ 1 1 1 2 ] Encerraremos o artigo definindo e considerando as propriedades de mais uma operação com matrizes. Se A for a matriz do início do artigo, definimos a transposta At de A como sendo a matriz obtida trocando-se as linhas pelas colunas de A. Na notação acima, (At)(i, :) = A(:, i); ou, o que dá no mesmo, (At)(i, j) = A(j, i). Naturalmente, se a matrizA tem tamanhom×n, então sua transposta tem tamanho, n×m; afinal, linhas viraram colunas e vice-versa. Naturalmente, a transposta da transposta é a matriz original: (At)t = A. 24 1. O PLANO O comportameto da adição e da multiplicação por escalar relativamente à transposição é muito simples. Se A e B forem matrizes de mesmo tamanho, então (A+B)t = At +Bt e (λ · A)t = λ · At; qualquer que seja o escalar λ. Já o comportamento da multiplicação relativamente à trans- posição é um pouco mais sutil. Suponhamos que A é uma matriz m × n e B uma matriz n × s. Como o número de colunas de A coincide com o de linhas de B, o produto AB existe e é uma matriz m × s. Portanto, a transposta (AB)t será uma matriz s × m. Ao contrário do que você possa esperar, esta matriz não pode, em geral, ser igual a At ·Bt. Na verdade, como At tem tamanho n×m e Bt tamanho s×n, o produto At ·Bt sequer estará definido quando m 6= s. Curiosamente, os tamanhos de At e Bt nos permitem calcular BtAt. Mais impressionante ainda é que este produto venha a coincidir com (AB)t; mas é exatamente isto que acontece. Para provar isto, lembre-se que por definição (At)(:, j) = A(j, :) e (Bt)(i, :) = B(:, i) ao passo que ((AB)t)(i, j) = (AB)(j, i); que pela fórmula do produto é igual a A(j, :)B(:, i) = (Bt)(i, :)(At)(:, j); que nada mais é, senão (Bt)(At)(i, j); provando, assim, a igualdade desejada. 3.3. Algumas matrizes especiais. Várias matrizes especiais aparecerão ao longo des- te livro. Precisaremos introduzir algumas das mais básicas nesta seção porque algumas de suas propriedades serão necessárias já no próximo capítulo. Os primeiros tipos especiais de matrizes que introduziremos dizem respeito ao posi- cionamento dos zeros. Seja A uma matriz retangular de tamanho m × n. Se todas as posições abaixo da diagonal de A são nulas, então A é triangular superior; se são as posições acima da diagonal que são nulas, dizemos que A é triangular inferior. Na no- tação introduzida no artigo 3.2 estas definições podem ser formuladas da seguinte maneira se Ai,j = 0 sempre que { j > i j < i então A é { triangular inferior triangular superior Por exemplo, 1 1 1 1 0 1 0 3 0 0 4 −17 0 0 0 2 é triangular superior e 3 0 0 0 0 −8 3 0 0 0 11 7 7 0 0 1 8 2 7 1 é triangular inferior. 3. MATRIZES 25 Em seguida definimos uma família de matrizes a partir das quais qualquer matriz pode ser representada. Digamos que m e n são inteiros positivos. Dados inteiros 1 ≤ i ≤ m e 1 ≤ j ≤ n, definimos Eij como sendo a matriz m × n que tem 1 na posição i, j e zero em todas as suas outras entradas. Usando, mais uma vez, a notação do artigo 3.2, podemos definir as entradas desta matriz por Eij(k, `) = { 1 se i = k e j = ` 0 em qualquer outro caso Portanto, quando m = 2 e n = 3, temos as seguintes matrizes E1,1 = [ 1 0 0 0 0 0 ] , E1,2 = [ 0 1 0 0 0 0 ] , E1,3 = [ 0 0 1 0 0 0 ] e assim por diante, num total de 2 · 3 = 6 matrizes, uma para cada posição não nula no quadro 2 por 3. A importância destas matrizes está no fato de que podemos escrever qualquer matriz A de tamanho m× n como uma soma da forma (9) A = m∑ i=1 n∑ j=1 A(i, j) · Ei,j, em que A(i, j) denota a entrada de A que ocupa a posição i, j. É muito fácil somar duas matrizes representadas desta maneira, e deixamos isto por sua conta. Mais interessante é que a distributividade da multiplicação de matrizes nos permite calcular o produto de duas matrizes expressas em duplos somatórios desde que saibamos calcularEi,j ·Ek,`, quaisquer que sejam 1 ≤ i, k ≤ m e 1 ≤ j, ` ≤ n. ComoEi,j eEk,` têm apenas uma posição não nula cada, seu produto pode ter, no máximo, uma entrada não nula. Se existir, esta entrada tem que aparecer quando multiplicamos a i-ésima linha de Ei,j pela `-ésima coluna de Ek,`, porque qualquer posição fora desta linha e coluna são nulas. Entretanto, para que haja de fato uma entrada não nula é preciso que o 1 ocupe na i-ésima linha exatamente a mesma posição que ocupa na `-ésima coluna; que é uma maneira prolixa de dizer que k tem que ser igual a j. Resumindo, (10) Ei,j · Ek,` = { Ei,` se j = k 0 se j 6= k Na decomposição que fizemos acima a matriz foi escrita diretamente a partir de suas entradas, mas pode ser conveniente decompor uma matriz em termos de matrizes menores, chamadas de blocos. Por exemplo, uma matriz 4× 4 qualquer pode ser considerada como 26 1. O PLANO uma matriz cujas entradas são, elas próprias, matrizes 2× 2. Se a matriz 4× 4 for M = 1 2 3 4 0 7 1 0 1 2 9 4 1 2 30 11 os blocos serão as matrizes, A = [ 1 2 0 7 ] , B = [ 3 4 1 0 ] , C = [ 1 2 1 2 ] , e D = [ 4 4 30 11 ] ; com o que podemos escrever M = [ A B C D ] Em geral, se r é fator de m e s é fator de n, podemos representar uma matriz m× n como uma matriz formada por blocos de tamanho r × s, que terá m/r blocos por linha e n/s blocos por coluna. Finalmente, dizemos que uma matriz quadrada A de tamanho n × n é inversível se existe uma matriz B, também de tamanho n× n tal que A ·B = B · A = I. Observe que esta equação só faz sentido quando A e B forem ambas matrizes quadradas e de mesmo tamanho. A matriz B é chamada de inversa de A e geralmente denotada por A−1. Ainda que toda matriz inversível tenha que ser quadrada, nem toda matriz quadrada é inversível. Por exemplo, a matrizEi,j não é inversível, não importa que valores escolhamos para i e j. Podemos provar isto facilmente usando as fórmulas (9) e (10). Digamos, por exemplo, que Ek,` seja uma matriz n× n com 1 ≤ k, ` ≤ n. Se Ek,` tivesse como inverso uma matriz A de tamanho n× n, então por (9) e pela distributividade da multiplicação de matrizes Ek,`A = m∑ i=1 n∑ j=1 A(i, j) · Ek,` · Ei,j, de modo que, por (10), Ek,`A = n∑ j=1 A(`, j) · Ek,j. Em particular, todas as posições desta matriz localizadas fora da k-ésima linha têm que ser nulas. Contudo, a matriz identidade tem uma posição não nula, na diagonal, para cada 3. MATRIZES 27 linha e cada coluna. Portanto, Ek,`A 6= I, quaisquer que sejam i e j. No artigo 3.2 do capítulo 2, estudaremos um algoritmo que determina se uma dada matriz quadrada tem ou não inversa e que calcula tal inversa, caso exista. Por enquanto vamos nos contentar em calcular a inversa de uma matriz triangular inferior. Começamos tratando do caso em que a matriz é 3× 3. Supondo que M = a1 0 0b1 b2 0 c1 c2 c3 tenha inversa X = x1 x2 x3y1 y2 y3 z1 z2 z3 teremos M ·X = a1x1 a1x2 a1x3b2y1 + b1x1 b2y2 + b1x2 b2y3 + b1x3 c3z1 + c2y1 + c1x1 c3z2 + c2y2 + c1x2 c3z3 + c2y3 + c1x3 . Igualando esta matriz à identidade 3× 3, obtemos o sistema linear a1x1 = 1 a1x2= 0 a1x3 = 0 b2y1 + b1x1 = 0 b2y2 + b1x2 = 1 b2y3 + b1x3 = 0 c3z1 + c2y1 + c1x1 = 0 c3z2 + c2y2 + c1x2 = 0 c3z3 + c2y3 + c1x3 = 1 A primeira coisa que este sistema nos revela é que se a1 for nulo então M não tem inversa, porque a primeira equação do sistema já seria impossível. Por outro lado, se a1 6= 0 então, resolvendo as três primeiras equações, obtemos x1 = 1/a1 e x2 = x3 = 0. 28 1. O PLANO Substituindo isto no sistema, as seis últimas equações podem ser reescritas na forma b2y1 + b1/a1 = 0 b2y2 = 1 b2y3 = 0 c3z1 + c2y1 + c1/a1 = 0 c3z2 + c2y2 = 0 c3z3 + c2y3 = 1. Argumentando como acima verificamos que o sistema só terá solução se b2 6= 0; neste caso, y1 = −b1/b2a1, y2 = 1/b2 e y3 = 0. Substituindo estes valores nas três últimas equações, vemos que o sistema terá solução z1 = (b1c2 − b2c1)/c3b2a1, z2 = −c2/c3b2 e z3 = 1/c3. se c3 6= 0; caso contrário não haverá solução. Portanto, se a1 6= 0, b2 6= 0 e c3 6= 0, a matriz M terá inversa igual a 1/a1 0 0−b1/a1b2 1/b2 0 (b1c2 − b2c1)/a1b2c3 −c2/b2c3 1/c3 Estes cálculos simples mostram que, pelo menos no caso 3 × 3, determinar a inversa de uma matriz triangular inferior se reduz a achar as soluções de um sistema linear muito fácil de resolver. Voltaremos a considerar estes sistemas, conhecidos apropriadamente como triangulares inferiores, de maneira mais abrangente no artigo 1.2 do capítulo 2. Podemos concluir, do que fizemos, que • uma matriz triangular inferior é inversível se, e somente se, não tem entradas nulas ao longo da diagonal; • quando a inversa de uma matriz triangular inferior existe ela também é triangular inferior. Estritamente falando, só provamos estes dois resultados para matrizes 3×3, mas eles valem em geral. Na verdade a demonstração do caso geral é mera continuação do caso 3 × 3, já podemos imaginar M como representando o vértice superior de uma matriz triangular superior n× n quando n ≥ 3. 3.4. Matrizes retangulares, para quê? Ainda que você tenha se convencido de que as matrizes quadradas 2× 2 possam ser úteis na representação de transformações lineares do plano, talvez você se perguntando se matrizes retangulares não são fruto da obsessão dos matemáticos em generalizar tudo o que pode ser generalizado. Apesar de ter todo o 3. MATRIZES 29 resto deste livro para lhe convencer de que não é este o caso, não custa dar alguns exemplos relacionados aos vetores do plano e suas transformações lineares. Para começar, podemos considerar um vetor do plano como sendo uma matriz. À primeira vista o natural seria descrever um vetor como sendo uma matriz 1 × 2, mas a verdade é que é melhor identificar um vetor (a, b) com a matriz coluna[ a b ] . A razão para esta escolha um tanto bizarra logo ficará clara. O fato é que, somando vetores, ou as matrizes que lhes coorespondem, obtemos o mesmo resultado. Mais precisamente, a matriz coluna correspondente à soma dos vetores u com v é igual à soma das matrizes coluna correspondentes a u e v, e o mesmo pode ser dito sobre o produto de um vetor por um escalar. Por isso, de agora em diante, consideraremos vetores do plano como sendo matrizes 2× 1 sempre que isto for conveniente. Supondo isto para dois vetores u e v, podemos descrever seu produto escalar, a partir do produto de matrizes, por (11) 〈u |v 〉 = ut · v. Note que convertemos o vetor coluna u em um vetor linha tomando a sua transposta, para que fosse possível efetuar a multiplicação desejada. Passando às transformações lineares do plano, vimos que se T é definida, na base ε, por T (x, y) = (ax+ by, cx+ dy) então a matriz a ela associada é (T )ε = [ a b c d ] . No entanto, um cálculo simples mostra que se o vetor v tem coordenadas v = [ x y ] , na mesma base ε, então as coordenadas de Tv nesta mesma base serão Tv = [ a b c d ][ x y ] Com isto podemos explicar porque escolhemos representar vetores como matrizes colunas e não linhas. Lembre-se que a uma transformação linear do plano fizemos corresponder uma matriz 2× 2. Vetores escritos como matrizes linha têm tamanho 1× 2 o que nos obri- garia a multiplicá-los à esquerda das matrizes que designam as transformações. Mas isto 30 1. O PLANO produz um conflito com a convenção de que o argumento de uma transformação sempre aparece à direita do símbolo que a denota; assim Tv, e não vT . Para evitar a confusão que resultaria da permutação dos lados entre duas fórmulas que representam exatamente o mesmo fato, preferimos escrever os vetores como colunas, em vez de linhas. Mais interessante ainda são as expressões para as matrizes das projeções e reflexões que obtemos combinando a multiplicação e a transposição. Por exemplo, vimos no artigo 2.1 que a projeção de um vetor v qualquer sobre um vetor unitário u é dada por Proju(v) = 〈u | v〉 · u; que (11) nos permite reescrever na forma Proju(v) = (u t · v) · u. Como ut · v é um escalar, esta fórmula é igual a Proju(v) = u · (ut · v). Donde, pelas propriedades do produto de matrizes, obtemos Proju(v) = (u · ut) · v. Portanto, a matriz que descreve a projeção de v em u é igual ao produto u · ut. De fato, supondo que u = [a, b]t e efetuando o produto, chegamos à mesma matriz que havíamos obtido na equação (11). Por outro lado, como vimos no artigo 2.2, a reflexão do vetor v relativamente à reta pela origem de vetor unitário normal n é igual a R(v) = v − 2 Projn(v). Aplicando a fórmula matricial obtida acima a Projn(v), obtemos R(v) = v − 2(nnt)v. A presença do v em ambas as parcelas sugere pô-lo em evidência. No entanto, (1−2nnt)v não faz sentido. De fato, duas matrizes só podem ser somadas se têm a mesma dimensão. Contudo, mesmo considerando o escalar 1 como uma matriz 1× 1, não podemos somá-lo à matriz nnt, que tem tamanho 2 × 2. Felizmente há uma saída simples, basta considerar v como sendo o produto I · v, em que I é a matriz identidade 2× 2. Fazendo isto, obtemos R(v) = (I − 2(nnt))v. Mais uma vez, se n tem coordenadas (b,−a) na base ε, um cálculo elementar mostra que I − 2(nnt) coincide com a matriz de reflexão encontrada no artigo 2.2. Obtivemos, assim, fórmulas muito compactas para a projeção e reflexão no plano usando a multiplicação de matrizes não quadradas. EXERCÍCIOS 31 Exercícios 1. Sejam u e v vetores do plano. Use as propriedades do produto interno para calcular 〈u+ v|u+ v〉, 〈u− v|u− v〉 e 〈u− v|u+ v〉 em função de 〈u|v〉 e das normas de u e v. 2. Prove que as diagonais de um losango são perpendiculares. SUGESTÃO: suponha que o losango tem um dos vértices na origem e que u e v são os vetores que correspondem aos seus lados; calcule as diagonais em função de u e v, e use as fórmulas do exercício 1. 3. Seja ε uma base do plano formada por dois vetores unitários, e1 e e2, perpendiculares entre si. Prove que todo vetor v do plano pode ser escrito na forma v = 〈v | e1〉e1 + 〈v | e2〉e2. 4. Sejam u e v vetores do plano. Prove que: (a) |〈u|v〉| ≤ ‖u‖ · ‖v‖; (b) ‖u+ v‖ ≤ ‖u‖+ ‖v‖; (c) |‖u‖ − ‖v‖| ≤ ‖u− v‖. A desigualdade em (a) é conhecida como desigualdade de Schwarz e aquela em (b) como desigualdade triangular. SUGESTÃO: para provar (b), calcule 〈u+ v|u+ v〉 e aplique a desigualdade (a). 5. Sejam u1 e u2 vetores do plano e U a matriz cuja primeira linha é u1 e cuja segunda linha é u2. Prove que as seguintes afirmações são equivalentes: (a) u1 e u2 são colineares; (b) det(U) = 0. 6. Calcule o ângulo entre as retas 2x+ 3y = 0 e 5x+ 2y = 0. 7. Sejam P e Q pontos do plano e u e v vetores cujas extremidades são P e Q, respecti- vamente. Mostre que a distância entre P e Q é igual à norma do vetor u− v. 8. Prove que uma transformação linear que preserva norma de vetores tem que preservar distância entre pontos. 9. Dê exemplo de uma transformação que não é linear e que preserva a norma de vetores mas não preserva distância.10. Prove que um operador linear T do plano tem inverso se, e somente se, a matriz de T relativamente a uma base ε do plano é invertível. 32 1. O PLANO 11. Dizemos que uma matriz n× n C comuta com todas as matrizes n× n se AC = CA, qualquer que seja a matriz A, desde que tenha tamanho n × n. Prove que se λ é um escalar, então λ · In comuta com todas as matrizes n× n. 12. Mostre que a recíproca do exercício anterior é verdadeira. Isto é, prove que se C é uma matriz que comuta com todas as matrizes n× n, então existe um escalar λ tal que C = λ · In. 13. Seja Eij a matriz n×n que tem zeros em todas as suas posições, exceto na posição ij, cuja entrada é igual a 1. Calcule A · Eij e Eij · A. 14. Mostre que se α é um escalar e i < j, então (I + αEij)A é igual à matriz A com sua j-ésima linha substituída por ela própria mais α vezes a i-ésima linha de A. O que acontece quando calculamos A(I + αEij)? 15. Sejam A e B matrizes 2× 2. Prove que: (a) det(At) = det(A); (b) (At)t = A. 16. Uma matriz A é simétrica se At = A. Mostre que as matrizes correspondentes a projeções e reflexões do plano têm que ser simétricas. 17. Uma matriz A é antissimétrica se At = −A. Prove que toda matriz n × n pode ser escrita como a soma de uma matriz simétrica com uma antissimétrica. 18. Prove que se a e b são números reais tais que a2 + b2 = 1, então[ a −b b a ] é uma matriz de rotação e calcule o ângulo de rotação em função de a e b. 19. Seja ε = {e1, e2} uma base do plano formada por vetores unitários, perpendiculares entre si. Dado α ∈ R, definimos uma transformação linear cα do plano por cα(e1) = e1 e cα(e2) = e2 + αe1. Calcule a matriz de cα relativamente a ε. Transformações como esta são conhecidas como cisalhamentos. 20. Determine as matrizes que correspondem às seguintes transformações lineares: (a) um cisalhamento que leva a reta x = 0 em y = 2x; (b) uma rotação anti-horária de pi/6 radianos; (c) uma reflexão cujo espelho é a reta y = 2x; (d) uma projeção sobre a reta y = 3x. EXERCÍCIOS 33 21. Seja f uma aplicação de um conjunto C em outro conjunto C ′. A imagem de f é o subconjunto de C ′ definido por Im(f) = {f(c) | c ∈ C}. Calcule as imagens de cada uma das seguintes transformações lineares do plano nele próprio: cisalhamento, projeção, reflexão e rotação. 22. Uma aplicação f de um conjunto C em outro conjunto C ′ é sobrejetiva se Im(f) = C; isto é, todo elemento de C ′ é imagem de um elemento de C por f . Quais das seguintes transformações lineares do plano nele próprio: dilatação, cisalhamento, projeção, re- flexão e rotação. 23. Uma aplicação f de um conjunto C em outro conjunto C ′ é injetiva se elementos diferentes de C são levados por f em elementos diferentes de C ′> Quais das seguintes transformações lineares do plano nele próprio: dilatação, cisalhamento, projeção, re- flexão e rotação. 24. Dada um transformação linear T do plano, prove que são equivalentes: (a) T é bijetiva; (b) T tem inversa; (c) T é sobrejetiva; (d) T é injetiva; (e) Tv = 0 só pode acontecer se v = 0. 25. Prove que se P é a matriz de uma projeção do plano em uma reta então P é simétrica e P 2 = P . 26. Seja P a matriz de um operador linear do plano. Prove que se P é simétrica e P 2 = P , então o operador que corresponde a P é uma projeção do plano em uma reta. 27. Seja P a matriz de uma projeção do plano em uma reta. Explique como determinar o vetor ao longo do qual é feita a projeção e a reta sobre a qual se dá esta projeção a partir dos coeficientes de P . 28. Sejam A e B duas matrizes quadradas inversíveis de mesmo tamanho. Prove que a inversa de AB é igual a B−1A−1. Cuidado com a troca de posição das matrizes e lembre-se que a multiplicação de matrizes não é comutativa. 29. Prove que se A é uma matriz n× n, então Ak − I = (A− I)(Ak−1 + Ak−2 + · · ·+ I). 34 1. O PLANO 30. Uma matriz quadrada Q é chamada de ortogonal se Q · Qt = I , em que I é a matriz identidade. Em outras palavras, Q é inversível e sua inversa é igual à sua transposta. Mostre que as matrizes que definem a rotação e a reflexão no plano são ortogonais. 31. Prove que toda matriz ortogonal Q de tamanho 2× 2 pode ser escrita na forma[ cos(θ) ± sen(θ) sen(θ) cos(θ) ] relativamente a uma base ε formada por dois vetores ortogonais unitários. Mostre que esta matriz tem determinante igual a ±1. 32. Seja Q uma matriz ortogonal de tamanho 2× 2. Use o exercício anterior para mostrar que • se det(Q) = 1 então Q é uma rotação; • se det(Q) = −1 então Q é uma reflexão. Em particular, qualquer matriz ortogonal 2× 2 é uma rotação ou uma reflexão. Como veremos no artigo 7.1, este resultado não se estende às matrizes ortogonais 3× 3. CAPíTULO 2 Sistemas lineares Neste capítulo introduzimos um algoritmo, talvez o mais importante da álgebra linear, usando como motivação sua aplicação à solução de sistemas lineares. Interpretado como uma decomposição matricial, este mesmo algoritmo provará sua utilidade em inúmeros outras situações, entre elas o cálculo de determinantes e a inversão de matrizes. 1. Eliminação gaussiana Começaremos a seção analisando em detalhes um método bem conhecido para a solu- ção de sistemas lineares com apenas duas incógnitas, do qual o algoritmo geral pode ser facilmente obtido. 1.1. Sistemas lineares com duas equações. Nos últimos anos do ensino fundamental aprendemos vários métodos para resolver sistemas lineares de duas variáveis. Um deles, o método de adição, consiste em multiplicar uma (ou ambas) as equações por constantes apropriadas de modo que, quando forem somadas, resta uma equação linear em apenas uma das variáveis, que pode então ser facilmente resolvida. Vejamos um exemplo. Se o sistema for x+ 3y = 1 2x+ 5y = 4, então subtraímos da segunda equação o dobro da primeira, o que nos dá −y = 2; isto é, y = −2. Substituindo isto em qualquer das duas equações originais, podemos determinar o valor de x. De fato, da primeira equação x = 1− 3y = 1− 3 · (−2) = 7. Portanto o sistema tem solução x = 7 e y = −2. Como este método é o ponto de partida para boa parte do que faremos no curso, vamos analisá-lo em detalhe. Começaremos defindo com cuidado algumas noções básicas. Um sistema linear nas variáveis x e y corresponde a um par de equações a1x+ a ′ 1y = b1(12) a2x+ a ′ 2y = b2; 35 36 2. SISTEMAS LINEARES em que a1, a2, a1, a′2, b1 e b2 são números reais. O mesmo sistema pode ser escrito na forma a1x+ a ′ 1y − b1 = 0 a2x+ a ′ 2y − b2 = 0; ou, de maneira ainda mais compacta como E1 = 0(13) E2 = 0; em que E1 = a1x+ a ′ 1y − b1 e E2 = a2x+ a′2y − b2 são polinômios lineares. Dados dois números reais x0 e y0, denotaremos por E1(x0, y0) o número real obtido substituindo-se x por x0 e y por y0 no polinômio E1. No caso do exemplo resolvido no início deste artigo, estes polinômios serão E1 = x+ 3y − 1 e E2 = 2x+ 5y − 4. Usando esta notação, podemos definir uma solução do sistema (13) como sendo um par de números (x0, y0) para o qual E1(x0, y0) = 0 E2(x0, y0) = 0 Levando em conta que a ordem das equações não altera o sistema, escolheremos sem- pre a primeira equação de maneira que nela o x apareça com coeficiente diferente de zero. Observe que esta escolha é sempre possível, porque estamos supondo que se trata de um sistema em duas incógnitas. No sistema (12) isto significa que podemos supor que a1 6= 0 na equação E1. A estratégia que adotaremos consiste em substituir o sistema{ E1 = 0 E2 = 0 por um sistema da forma { E1 = 0 cE1 + E2 = 0, em que c é um número real. Naturalmente c será escolhido de maneira que o segundo sistema seja mais fácil de resolver que o primeiro. De fato, se c = −a2/a1, temos que (14) cE1 + E2 = ( a′2 − a2a ′ 1 a1 ) y − (b2 − b1a2 a1 ); de modo que cE1 +E2 = 0 é uma equação linear em uma única variável (neste caso y). Se α = a′2 −
Compartilhar