Baixe o app para aproveitar ainda mais
Prévia do material em texto
Ana Paula Santana Joa˜o Filipe Queiro´ A´LGEBRA LINEAR E GEOMETRIA ANALI´TICA (versa˜o de 2003) Departamento de Matema´tica - Universidade de Coimbra Indice 0. Os nu´meros complexos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Apeˆndice: Histo´ria dos nu´meros complexos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1. Matrizes 1.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2 Operac¸o˜es com matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3 Inversa de uma matriz quadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.4 Transposic¸a˜o de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.5 Matrizes elementares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2. Sistemas de equac¸o˜es lineares 2.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.2 O algoritmo de eliminac¸a˜o de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.3 O algoritmo de Gauss-Jordan para inversa˜o de matrizes . . . . . . . . . . . . . . . . . . . . . 37 3. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 4. O espac¸o Rn, subespac¸os, dimensa˜o 4.1 Subespac¸os . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 4.2 Dependeˆncia e independeˆncia linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 4.3 Base e dimensa˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 4.4 Mudanc¸a de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 4.5 Caracter´ıstica e nulidade de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 4.6 Soma e soma directa de subespac¸os . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 5. Aˆngulos e distaˆncias em Rn 5.1 Produto interno em Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 5.2 Projecc¸a˜o ortogonal sobre um subespac¸o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 5.3 Mı´nimos quadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 5.4 Complemento ortogonal de um subespac¸o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 5.5 Determinantes e volumes de paralelip´ıpedos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 5.6 Produto externo em R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 6. Planos em Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 1 7. Espac¸os vectoriais 7.1 Corpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 7.2 Espac¸os vectoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 7.3 Subespac¸os . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 7.4 Dependeˆncia e independeˆncia linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 7.5 Base e dimensa˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 7.6 Mudanc¸a de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 8. Transformac¸o˜es lineares 8.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 8.2 Representac¸a˜o matricial de transformac¸o˜es lineares . . . . . . . . . . . . . . . . . . . . . . . . . 135 8.3 Equac¸o˜es com transformac¸o˜es lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 9. Valores pro´prios e vectores pro´prios 9.1 Valores pro´prios e vectores pro´prios de transformac¸o˜es lineares . . . . . . . . . . . . . 144 9.2 Valores pro´prios e vectores pro´prios de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 9.3 Matrizes diagonaliza´veis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 9.4 O caso das matrizes sime´tricas reais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 9.5 Curvas e superf´ıcies do 2o grau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 10. Espac¸os vectoriais com produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 2 0 Os nu´meros complexos Os conjuntos de nu´meros mais conhecidos e habituais sa˜o os seguintes: o conjunto dos nu´meros naturais N = {1, 2, 3, . . .}, o conjunto dos nu´meros inteiros Z = {. . . ,−3,−2,−1, 0, 1, 2, 3, . . .}, o conjunto dos nu´meros racionais Q = {m n : m,n ∈ Z, n 6= 0 } e o conjunto dos nu´meros reais, para o qual usaremos o s´ımbolo R. Tem-se a seguinte cadeia de incluso˜es: N ⊂ Z ⊂ Q ⊂ R . Exemplos de nu´meros reais que na˜o sa˜o racionais sa˜o √ 2 , √ 3 , e e pi . A melhor maneira de “visualizar” o conjunto R e´ pensar nos pontos de uma recta, o “eixo real”. Marcando no eixo dois pontos para representar os nu´meros 0 e 1, obte´m-se uma corres- pondeˆncia perfeita entre R e o conjunto dos pontos do eixo. 0 1 α R Supor-se-a˜o conhecidas as propriedades ba´sicas destes nu´meros. No se´culo XVI, a propo´sito da descoberta da fo´rmula resolvente das equac¸o˜es do 3o grau, “descobriu-se” um novo conjunto de nu´meros contendo R. Essa histo´ria e´ recordada em apeˆndice. O novo conjunto de nu´meros e´ o conjunto dos nu´meros complexos C = {a+ ib : a, b ∈ R} onde i satisfaz i2 = −1. As operac¸o˜es com nu´meros complexos realizam-se tratando-os como nu´meros como os outros e usando as propriedades habituais das operac¸o˜es, bem como a igualdade i2 = −1. Assim, por exemplo, (a+ ib) + (c+ id) = (a+ c) + i(b+ d) (a+ ib)(c+ id) = (ac− bd) + i(ad+ bc) . 3 Estas operac¸o˜es gozam das mesmas propriedades alge´bricas que as correspondentes no conjunto dos nu´meros reais: comutatividade, associatividade, distributividade da mul- tiplicac¸a˜o relativamente a` adic¸a˜o.1 Os nu´meros complexos 0 = 0 + i0 e 1 = 1 + i0 sa˜o elementos neutros para, respectivamente, a adic¸a˜o e a multiplicac¸a˜o. O inverso do nu´mero complexo a+ ib 6= 0 e´ a a2 + b2 + i −b a2 + b2 . Note-se que todos os nu´meros reais sa˜o tambe´m nu´meros complexos (sa˜o aqueles em que b = 0), pelo que a cadeia de incluso˜es acima referida pode ser completada: N ⊂ Z ⊂ Q ⊂ R ⊂ C . A melhor maneira de “visualizar” o conjunto C e´ pensar nos pontos de um plano, o “plano complexo”. Trac¸ando no plano um sistema de dois eixos perpendiculares,e identificando o nu´mero complexo a+ ib com o ponto de coordenadas (a, b), obte´m-se uma correspondeˆncia entre C e o conjunto dos pontos do plano. C .a+ ib 0 a ib Se pensarmos na fo´rmula resolvente para equac¸o˜es do 2o grau, vemos que, com a introduc¸a˜o dos nu´meros complexos, qualquer equac¸a˜o do 2o grau com coeficientes reais tem soluc¸a˜o em C: o aparecimento de ra´ızes quadradas de nu´meros negativos deixa de ser problema. Por exemplo, a equac¸a˜o x2 − 2x+ 5 = 0 tem as soluc¸o˜es 1 + 2i e 1− 2i. Mas pode dizer-se muito mais: com a introduc¸a˜o dos nu´meros complexos, qualquer equac¸a˜o de qualquer grau, com coeficientes reais ou mesmo complexos, tem soluc¸a˜o em 1 Uma diferenc¸a ba´sica entre R e C e´ que no conjunto dos nu´meros complexos na˜o existe uma relac¸a˜o de ordem < compat´ıvel com as operac¸o˜es, isto e´, satisfazendo, para quaisquer z1, z2, w ∈ C, as implicac¸o˜es z1 < z2 ∧ w > 0 ⇒ z1w < z2w e z1 < z2 ⇒ z1 + w < z2 + w. 4 C. Este e´ o conteu´do do chamado Teorema Fundamental da A´lgebra, demonstrado pela primeira vez de forma completa por Gauss em 1799.2 Do Teorema Fundamental da A´lgebra tira-se uma importante conclusa˜o: um polino´mio com coeficientes reais ou complexos pode sempre escrever-se como produto de factores de grau 1: anx n + an−1xn−1 + · · ·+ a1x+ a0 = an(x− α1)(x− α2) . . . (x− αn) (α1, α2, . . . , αn sa˜o as ra´ızes do polino´mio). O conjunto C e´ portanto muito rico do ponto de vista alge´brico. Vamos ilustrar essa riqueza mostrando que, dado n ∈ N, qualquer nu´mero complexo na˜o nulo tem n ra´ızes de ı´ndice n em C. Antes disso, introduzimos mais alguma terminologia. Seja z = x+ iy ∈ C. Chamamos a x parte real de z e escrevemos x = Re z. Chamamos a y parte imagina´ria de z e escrevemos y = Im z. Se x = 0 dizemos que z e´ imagina´rio puro. O conjugado de z e´ z = x − iy. O mo´dulo de z e´ o nu´mero real na˜o negativo |z| = √x2 + y2. (A func¸a˜o mo´dulo em C estende a func¸a˜o mo´dulo conhecida em R.) Geometricamente, |z| e´ a distaˆncia do ponto z do plano complexo a` origem (isto e´, ao ponto 0).3 Seja z um nu´mero complexo na˜o nulo, identificado com um ponto do plano. A` medida do aˆngulo que a semi-recta que vai de 0 para z faz com a parte positiva do eixo real chamamos argumento de z (notac¸a˜o: arg z). Cada nu´mero complexo z 6= 0 tem uma infinidade de argumentos, diferindo uns dos outros por mu´ltiplos inteiros de 2pi. ©© ©© ©© ©© ©© ©* z 0 θ Ponhamos |z| = r. Seja θ um argumento de z. Enta˜o Re z = r cos θ e Im z = r sen θ e podemos escrever z = r(cos θ + i sen θ). 2 Para provar este teorema, sa˜o necessa´rios conhecimentos de Ana´lise que esta˜o para ale´m do 1o ano da Universidade. Note-se que o teorema apenas afirma a existeˆncia de soluc¸o˜es. A determinac¸a˜o delas para cada equac¸a˜o e´ um problema diferente. 3 Mais geralmente, |z − w| e´ a distaˆncia entre os pontos z e w. 5 Esta e´ a chamada forma polar ou trigonome´trica de z, por oposic¸a˜o a` forma alge´brica z = x+ iy. Para cos θ + i sen θ usa-se por vezes a abreviatura cis θ.4 Calculando o produto de dois nu´meros complexos escritos na forma trigonome´trica tem-se (r1 cis θ1)(r2 cis θ2) = r1r2 cis(θ1 + θ2) (verifique). Segue-se a seguinte fo´rmula para as poteˆncias de um nu´mero complexo: (r cis θ)n = rncis(nθ) , n ∈ N (“fo´rmula de De Moivre”). Daqui tira-se que, sendo z = r cis θ e n ∈ N, z tem n ra´ızes de ı´ndice n. O racioc´ınio e´ o seguinte. Vamos procurar os nu´meros complexos w que satisfazem wn = z. Escreva- -se w na forma trigonome´trica, w = ρ cisφ. Enta˜o, pela fo´rmula de De Moivre, tem-se ρncis(nφ) = r cis θ donde ρn = r e nφ− θ = 2kpi, k ∈ Z o que e´ equivalente a ρ = r1/n e φ = θ + 2kpi n , k ∈ Z . Enta˜o w pode tomar exactamente os seguintes valores: r1/ncis ( θ + 2kpi n ) , k = 0, 1, . . . , n− 1. (Em princ´ıpio dever´ıamos escrever k ∈ Z mas facilmente se veˆ que as ra´ızes so´ teˆm n valores distintos, que se obteˆm dando a k os valores indicados.) 4 Note-se que, se se tiver r cis θ = r′ cis θ′, enta˜o r = r′ mas, quanto aos argumentos, so´ se pode concluir que θ − θ′ e´ um mu´ltiplo inteiro de 2pi. 6 Apeˆndice: Histo´ria dos nu´meros complexos Como se disse, foi no se´culo XVI, a propo´sito da descoberta da fo´rmula resolvente das equac¸o˜es do 3o grau, que se “descobriram” os nu´meros complexos. Recorda-se aqui essa histo´ria. A equac¸a˜o a resolver e´ a seguinte:5 x3 + bx+ c = 0. Os matema´ticos italianos do se´culo XVI que trataram deste assunto tiveram a ideia de escrever a inco´gnita x na forma x = u + v, com u e v nu´meros a determinar. Ora, como (u+ v)3 = u3 + 3u2v + 3uv2 + v3, tem-se, passando tudo para o primeiro membro, (u+ v)3 − 3uv(u+ v)− (u3 + v3) = 0. Comparando com a equac¸a˜o proposta, veˆ-se que, se se encontrarem nu´meros u e v satis- fazendo as condic¸o˜es −3uv = b e − (u3 + v3) = c , enta˜o x = u+ v sera´ uma soluc¸a˜o da equac¸a˜o. Da primeira condic¸a˜o tira-se v = − b 3u . Substituindo v por este valor na segunda condic¸a˜o obte´m-se −u3 + b 3 27u3 = c , o que e´ o mesmo que u6 + cu3 − b 3 27 = 0 . Ora isto, que e´ uma equac¸a˜o do 6o grau em u, e´ de facto uma equac¸a˜o do 2o grau em u3, que se sabe resolver: u3 = −c± √ c2 + 4 b3 27 2 = − c 2 ± √ c2 4 + b3 27 . Escolhendo para u3 por exemplo o valor u3 = − c 2 + √ c2 4 + b3 27 , 5 Se se conseguir resolver uma equac¸a˜o desta forma consegue-se resolver qualquer equac¸a˜o do 3o grau: primeiro, se o coeficiente de x3 na˜o for 1, podemos dividir ambos os membros por esse coeficiente o que na˜o altera as soluc¸o˜es da equac¸a˜o; segundo, se o coeficiente de x2, chamemos-lhe a, na˜o for 0, procede-se a uma mudanc¸a de inco´gnita substituindo x por y − a3 . Na˜o e´ dif´ıcil ver que na nova equac¸a˜o assim obtida, em que a inco´gnita e´ y, e que continua a ser de grau 3, o coeficiente de y3 e´ 1 e o coeficiente de y2 e´ 0. As soluc¸o˜es da primeira equac¸a˜o podem obter-se das da segunda simplesmente subtraindo-lhes a3 . 7 de −(u3 + v3) = c tira-se v3 = − c 2 − √ c2 4 + b3 27 . E vem, finalmente, x = 3 √ − c 2 + √ c2 4 + b3 27 + 3 √ − c 2 − √ c2 4 + b3 27 o que e´ o mesmo que x = 3 √√√√− c 2 + √( c 2 )2 + ( b 3 )3 + 3 √√√√− c 2 − √( c 2 )2 + ( b 3 )3 . Esta e´ a fo´rmula resolvente encontrada no se´culo XVI por del Ferro, Cardano e Tartaglia. Algum tempo depois da descoberta da fo´rmula, outro italiano, Bombelli, aplicou-a a` equac¸a˜o x3 − 15x− 4 = 0. Note-se que esta equac¸a˜o tem a soluc¸a˜o x = 4, como se veˆ imediatamente. Mas a fo´rmula resolvente da´ x = 3 √ 2 + √−121 + 3 √ 2−√−121 . Aparece aqui a raiz quadrada de um nu´mero negativo, o que torna a expressa˜o sem sentido. Mas Bombelli teve um “pensamento louco” (nas suas pro´prias palavras) e fez contas com essas ra´ızes como se elas existissem, e usando as propriedades habituais das operac¸o˜es com nu´meros. Como 121 = 112, devera´ ser √−121 = 11√−1, pelo que 3 √ 2 + √−121 = 3 √ 2 + 11 √−1 e 3 √ 2−√−121 = 3 √ 2− 11√−1 . Como entre os radicandos das ra´ızes cu´bicas 3 √ 2 + 11 √−1 e 3 √ 2− 11√−1 so´ ha´ uma diferenc¸a de sinal, ocorreu a Bombelli que essas ra´ızes cu´bicas se possam tambe´m escrever na forma 3 √ 2 + 11 √−1 = a+ b√−1 e 3 √ 2− 11√−1 = a− b√−1 com a e b nu´meros reais. E, de facto, das condic¸o˜es( a+ b √−1)3 = 2 + 11√−1 e (a− b√−1)3 = 2− 11√−1 tira-se, fazendo os ca´lculos usando as propriedades habituais das operac¸o˜es com nu´meros (e tambe´m ( √−1)2 = −1), que a = 2 e b = 1 sa˜o soluc¸o˜es poss´ıveis, isto e´,( 2 + √−1)3 = 2 + 11√−1 e (2−√−1)3 = 2− 11√−1 . 8 (Exerc´ıcio: fac¸aos ca´lculos que comprovam isto.) Enta˜o 3 √ 2 + 11 √−1 = 2 +√−1 e 3 √ 2− 11√−1 = 2−√−1 e vem, para a soluc¸a˜o da equac¸a˜o, x = 2 + √−1 + 2−√−1 = 4 . Portanto, trabalhando com estas quantidades imagina´rias — as ra´ızes quadradas de nu´meros negativos — Bombelli chegou a um resultado real correcto. A partir deste episo´dio, os nu´meros da forma a+ b √−1, com a e b reais — designados por nu´meros imagina´rios, nome que continuou ate´ hoje, embora seja mais vulgar chamar- -lhes nu´meros complexos— passaram a ser usados nas mais variadas questo˜es e aplicac¸o˜es da Matema´tica, e foram-se impondo pela sua utilidade. Durante mais de dois se´culos, a questa˜o da natureza dos nu´meros complexos — que nu´meros sa˜o estes ao certo? — permaneceu um pouco misteriosa. (A partir do se´culo XVIII, com Euler, tornou-se habitual usar a letra i para designar √−1.) So´ durante o se´culo XIX foram apresentadas respostas satisfato´rias para essa questa˜o e foram justifi- cadas as propriedades destes nu´meros. Como? Definindo os nu´meros complexos a` custa de entidades conhecidas — por exemplo, como pontos num plano ou, o que e´ quase a mesma coisa, como pares ordenados de nu´meros reais — sendo as operac¸o˜es definidas da maneira conveniente. Depois mostra-se que as operac¸o˜es gozam das propriedades desejadas e que no conjunto ha´ um subconjunto que e´ uma “co´pia” dos nu´meros reais. 9 1 Matrizes 1.1 Generalidades Ao longo dos primeiros cap´ıtulos deste texto, trabalharemos com nu´meros reais. Prati- camente tudo o que veremos e´ tambe´m va´lido, sem alterac¸a˜o, para nu´meros complexos, mas em geral so´ faremos refereˆncia ao caso dos nu´meros reais. Por vezes, em vez da palavra “nu´meros”, tambe´m se usa “escalares”. Definic¸a˜o 1.1 Chama-se matriz do tipo m × n sobre R (ou C) a todo o quadro que se obte´m dispondo mn nu´meros segundo m linhas e n colunas A = a11 a12 . . . a1n a21 a22 . . . a2n ... ... . . . ... am1 am2 . . . amn . Os nu´meros aij dizem-se os elementos da matriz. Para cada i e j, aij e´ o elemento de A situado na linha i e coluna j. Tal elemento e´ tambe´m referido como o elemento de A na posic¸a˜o (i, j), ou apenas por elemento (i, j) de A. Uma matriz diz-se real ou complexa consoante os seus elementos forem nu´meros reais ou complexos. O conjunto de todas as matrizes do tipo m×n sobre R representa-se por Mm×n(R). Usamos a notac¸a˜o Rm para Mm×1(R). E´ costume usarem-se letras maiu´sculas para designar matrizes. Exceptua-se o caso das matrizes-coluna, isto e´, matrizes so´ com uma coluna, para as quais, frequentemente, se utilizam letras minu´sculas. A matriz A da definic¸a˜o pode tambe´m ser apresentada na forma A = [aij]m×n, ou simplesmente A = [aij] se o tipo for conhecido do contexto ou na˜o for importante na questa˜o que esteja em estudo. Exemplo 1.1 Sejam A = [ 1 2 7 −5 3 8 ] ; B = 0 −2 71 2 3 12 5 8 e u = 24 9 . A matriz A e´ uma matriz real do tipo 2× 3. Dizemos, portanto, que A ∈ M2×3(R). O elemento de A na posic¸a˜o (2, 1) e´ −5 . B e´ uma matriz real 3 × 3 e u e´ uma matriz-coluna pertencente a R3. 10 Na definic¸a˜o seguinte registamos terminologia e notac¸o˜es ba´sicas relativas a matrizes. Definic¸a˜o 1.2 1. Duas matrizes A = [aij] e B = [bij] ∈Mm×n(R) sa˜o iguais se aij = bij, para i = 1, . . . ,m, j = 1, . . . , n. 2. A ∈ Mm×n(R) diz-se quadrada de ordem n se m = n, e rectangular se m 6= n. 3. Os elementos diagonais de A = [aij] ∈ Mn×n(R) sa˜o a11, a22, . . . , ann. A sequeˆncia ordenada (ou n-uplo) constitu´ıda por estes elementos diz-se diagonal principal de A. O n-uplo constitu´ıdo pelos elementos da outra diagonal recebe o nome de diagonal secunda´ria. 4. Seja A = [aij] quadrada. A diz-se triangular superior se aij = 0 quando i > j, triangular inferior se aij = 0 quando i < j, e diagonal se aij = 0 quando i 6= j. 5. A matriz identidade de ordem n, In, e´ a matriz diagonal, de ordem n, com os elementos diagonais iguais a 1. In = 1 0 . . . 0 0 1 . . . 0 ... ... . . . ... 0 0 . . . 1 . E´ usual denotar-se o elemento (i, j) de In por δij. Assim, δij toma o valor 1 se i = j, e 0 se i 6= j. Chamaremos “s´ımbolo de Kronecker” a δij. 6. A matriz nula m × n e´ a matriz m × n cujos elementos sa˜o todos iguais a zero. Representa-se por 0m×n, ou simplesmente por 0 se o tipo estiver claro do contexto. 7. Sendo A = [aij]m×n, define-se −A = [− aij]m×n. 8. Sendo A uma matriz, uma submatriz de A e´ uma matriz que se obte´m por supressa˜o de linhas e/ou colunas de A. 11 Exemplo 1.2 As matrizes [ 1 2 7 −5 3 8 ] e [ a 2 7 −5 b 8 ] sa˜o iguais se a = 1 e b = 3. Estas duas matrizes sa˜o rectangulares, enquanto a matriz A = 10 5 −78 2 3 15 6 5 e´ quadrada de ordem 3. Os elementos diagonais de A sa˜o 10, 2 e 5, a sua diagonal principal e´ (10, 2, 5) e a sua diagonal secunda´ria e´ (−7, 2, 15) . As matrizes 1 2 −70 2 1 0 0 −2 , 1 0 07 3 0 5 0 5 e 2 0 00 2 0 0 0 7 sa˜o, respectivamente, triangular superior, triangular inferior e diagonal. As matrizes [ 10 −7 15 5 ] e 5 −72 3 6 5 sa˜o exemplos de submatrizes deA= 10 5 −78 2 3 15 6 5 . 1.2 Operac¸o˜es com matrizes Definic¸a˜o 1.3 Sendo A = [aij] , B = [bij] ∈Mm×n(R) e α ∈ R, define-se: 1. A + B como sendo a matriz do tipo m × n cujo elemento (i, j) e´ aij + bij. Assim A+B = [aij + bij]m×n. 2. αA como sendo a matriz do tipo m × n cujo elemento (i, j) e´ α aij. Tem-se enta˜o αA = [α aij]m×n. Exemplo 1.3 Sendo A = [ 1 0 −6 −2 1 8 ] e B = [ 10 3 8 1 6 4 ] , tem-se A+B = [ 11 3 2 −1 7 12 ] e 1 2 A = [ 1 2 0 −3 −1 1 2 4 ] . Teorema 1.1 Sejam A, B e C matrizes em Mm×n(R). Enta˜o verifica-se: 1. (A+B) + C = A+ (B + C) (associatividade da adic¸a˜o). 2. A+B = B + A (comutatividade da adic¸a˜o). 3. A+ 0 = 0 + A = A (0 e´ elemento neutro da adic¸a˜o). 4. A+ (−A) = (−A) + A = 0 (−A e´ o elemento sime´trico ou oposto de A). 12 Demonstrac¸a˜o. Apenas demonstramos a primeira destas propriedades, deixando as restantes como exerc´ıcio. Sejam A = [aij] , B = [bij] , C = [cij] ∈ Mm×n(R) . Sejam D = (A + B) + C = [dij] e E = A + (B + C) = [eij] . Note-se que D e E sa˜o matrizes m × n. Por outro lado, da definic¸a˜o de adic¸a˜o de matrizes, tem-se dij = (aij + bij)+ cij e eij = aij +(bij + cij). Mas a associatividade da adic¸a˜o em R diz-nos que estas duas somas sa˜o iguais. Logo, dij = eij para i = 1, . . . ,m, j = 1, . . . , n, e portanto D = E. Teorema 1.2 Sejam A e B matrizes em Mm×n(R) e α, β ∈ R. Enta˜o verifica-se: 1. α(A+B) = αA+ αB. 2. (α+ β)A = αA+ βA. 3. (αβ)A = α(βA). 4. 1A = A. Demonstrac¸a˜o. Demonstremos a propriedade 3, sendo as restantes deixadas como exerc´ıcio. Seja A = [aij] ∈ Mm×n(R) e α, β ∈ R. Enta˜o (αβ)A e α(βA) sa˜o matrizes do mesmo tipo e o elemento (i, j) de (αβ)A e´ (αβ)aij. Como α, β e aij sa˜o elementos de R, da associatividade da multiplicac¸a˜o em R, sabemos que (αβ)aij = α(βaij). Mas o segundo membro desta igualdade na˜o e´ mais que o elemento (i, j) de α(βA). Como i e j sa˜o quaisquer, obtemos a igualdade das matrizes consideradas. Definic¸a˜o 1.4 Sendo A = [aij] ∈ Mm×n(R) e B = [bij] ∈ Mn×p(R), define-se AB como sendo a matriz do tipo m×p cujo elemento (i, j) e´ ai1b1j+ai2b2j+ · · ·+ainbnj. Assim AB = [ n∑ k=1 aikbkj ] m×p . Como se pode ver pela definic¸a˜o, o produto AB da matriz A pela matriz B apenas esta´ definido se o nu´mero de colunas de A for igual ao nu´mero de linhas de B. Neste caso o nu´mero de linhas da matriz AB e´ igual ao nu´mero de linhas de A e o nu´mero de colunas e´ igual ao de B. O elemento de AB situado na linha i e coluna j obte´m-se a partir da linha i de A e da coluna j de B: . . . . . .. . . . . .ai1 ai2 . . . ain . . . . . . . . . . . . . . . b1j . . . . . . b2j . . . ... ... ... . . . bnj . . . = . . . . . . . . .. . . ai1b1j + ai2b2j + . . .+ ainbnj . . . . . . . . . . . . . 13 Vemos assim que: 1. a linha i de AB se obte´m multiplicando a linha i de A pela matriz B; 2. a coluna j de AB se obte´m multiplicando a matriz A pela coluna j de B; 3. AB obte´m-se multiplicando a matriz A pelas colunas de B, ou multiplicando as linhas de A pela matriz B. Exemplo 1.4 1. Sejam A = [ 1 2 7 9 3 8 ] e B = 5 4 38 0 6 1 2 9 . Enta˜o AB = [ 1× 5 + 2× 8 + 7× 1 1× 4 + 2× 0 + 7× 2 1× 3 + 2× 6 + 7× 9 9× 5 + 3× 8 + 8× 1 9× 4 + 3× 0 + 8× 2 9× 3 + 3× 6 + 8× 9 ] = [ 28 18 78 77 52 117 ] Note-se que neste caso o produto BA na˜o esta´ definido, visto o nu´mero de colunas de B ser diferente do nu´mero de linhas de A. 2. Sejam A = [ 3 1 5 ] e B = 27 4 . Enta˜o AB = [ 3× 2 + 1× 7 + 5× 4 ] = [ 33 ] ; e BA = 2× 3 2× 1 2× 57× 3 7× 1 7× 5 4× 3 4× 1 4× 5 = 6 2 1021 7 35 12 4 20 . 3. Sendo A = [ 1 2 −1 −2 ] e B = [ 4 −6 −2 3 ] , tem-se AB = [ 0 0 0 0 ] ; BA = [ 10 20 −5 −10 ] . Exerc´ıcio 1.1 Designe-se por cj a coluna j de Am×n, j = 1, . . . , n. Dada a matriz-coluna x = x1 x2 ... xn , verifique que Ax = x1c1 + x2c2 + . . .+ xncn. Dizemos que Ax e´ uma combinac¸a˜o linear das colunas de A. Note-se que, uma vez que AB se obte´m multiplicando A pelas colunas de B, podemos concluir que as colunas de AB sa˜o combinac¸o˜es lineares das colunas de A. Veja se algo de semelhante se passa com as linhas de AB. 14 Teorema 1.3 Sejam A,A′∈Mm×n(R), B,B′∈Mn×p(R), C∈Mp×q(R) e α∈R.Enta˜o tem-se: 1. A0 = 0, 0A = 0 , AIn = ImA = A. 2. (AB)C = A(BC) (associatividade da multiplicac¸a˜o). 3. A(B + B′) = AB + AB′ , (A + A′)B = AB + A′B (distributividades do produto em relac¸a˜o a` adic¸a˜o). 4. α(AB) = (αA)B = A(αB). 5. AB = 0 6⇒ (A = 0 ou B = 0). 6. (AB = AB′ e A 6= 0) 6⇒ B = B′, e tambe´m (AB = A′B e B 6= 0) 6⇒ A = A′. 7. A multiplicac¸a˜o de matrizes na˜o e´ comutativa. Demonstrac¸a˜o. Demonstremos a propriedade 2. As outras ficam como exerc´ıcio (note que as propriedades 5 e 7 seguem do exemplo 1.4). Sejam A = [aij] ∈ Mm×n(R), B = [bij] ∈ Mn×p(R) e C = [cij] ∈ Mp×q(R). Enta˜o (AB)C e A(BC) sa˜o ambas matrizes do tipo m × q. Da definic¸a˜o de produto sabemos que o elemento (i, j) de AB e´ n∑ k=1 aikbkj . Assim, o elemento (i, l) de (AB)C sera´ p∑ t=1 ( n∑ k=1 aikbkt ) ctl. De modo ana´logo, o elemento (i, l) de A(BC) e´ n∑ k=1 aik ( p∑ t=1 bktctl ) . Utilizando as propriedades distributiva da multiplicac¸a˜o em relac¸a˜o a` adic¸a˜o, associativa da multiplicac¸a˜o e da adic¸a˜o e comutativa da adic¸a˜o em R, tem-se n∑ k=1 aik ( p∑ t=1 bktctl ) = n∑ k=1 p∑ t=1 aik(bktctl) = p∑ t=1 n∑ k=1 (aikbkt)ctl = p∑ t=1 ( n∑ k=1 aikbkt ) ctl. Observac¸a˜o. Da associatividade do produto de matrizes conclu´ımos que na˜o temos que nos preocupar com pareˆnteses quando lidarmos com mais de dois factores. Em particular, fica bem definido o significado da expressa˜o Ak, onde A e´ uma matriz quadrada e k ∈ N. Exerc´ıcio 1.2 Prove que o produto de duas matrizes triangulares superiores (resp. infe- riores) da mesma ordem e´ ainda uma matriz triangular superior (resp. inferior). A que sa˜o iguais os elementos diagonais do produto neste caso? 15 Exerc´ıcio 1.3 Sejam A e B matrizes m × n. Prove que, se Av = Bv para todo o vector coluna n× 1 v, enta˜o A = B. (Sugesta˜o: O que conclui se v for uma das colunas da matriz In?) Exerc´ıcio 1.4 (Produto por blocos.) Sejam A m×n e B n×p duas matrizes. Suponhamos que as particionamos em “blocos” (ou submatrizes) assim A = A11 A12 . . . A1s A21 A22 . . . A2s ... ... . . . ... Ar1 Ar2 . . . Ars , B = B11 B12 . . . B1t B21 B22 . . . B2t ... ... . . . ... Bs1 Bs2 . . . Bst , de forma que, para todos os poss´ıveis valores de i, j, e k, o nu´mero de colunas de Aik seja igual ao nu´mero de linhas de Bkj . Mostre que, enta˜o, o produto AB se pode calcular do seguinte modo (note-se que o nu´mero de colunas de blocos de A e´ igual ao nu´mero de linhas de blocos de B): AB = ∑s k=1A1kBk1 ∑s k=1A1kBk2 . . . ∑s k=1A1kBkt∑s k=1A2kBk1 ∑s k=1A2kBk2 . . . ∑s k=1A2kBkt ... ... . . . ...∑s k=1ArkBk1 ∑s k=1ArkBk2 . . . ∑s k=1ArkBkt . ( Sugesta˜o: Talvez ajude comec¸ar por considerar o caso s = 2, r = t = 1.) 1.3 Inversa de uma matriz quadrada Dado um nu´mero na˜o nulo, real ou complexo, podemos falar do seu inverso multiplica- tivo. O que se passara´ com matrizes? Definic¸a˜o 1.5 Seja A uma matriz quadrada de ordem n. Dizemos que A e´ invert´ıvel se existir uma matriz X, quadrada de ordem n, tal que AX = XA = In. Teorema 1.4 Seja A uma matriz quadrada de ordem n. Enta˜o existe no ma´ximo uma matriz X quadrada de ordem n tal que AX = XA = In. (Nestas condic¸o˜es X diz-se a inversa de A e representa-se por A−1.) Demonstrac¸a˜o. Sejam X e Y matrizes quadradas de ordem n tais que AX = XA = In e AY = Y A = In. Enta˜o Y = Y In = Y (AX) = (Y A)X = InX = X. Logo, existe no ma´ximo uma matriz X nas condic¸o˜es referidas. 16 Exemplo 1.5 Amatriz [ 1 2 1 1 ] e´ invert´ıvel, sendo a sua inversa a matriz [ −1 2 1 −1 ] . De facto tem-se[ 1 2 1 1 ] [ −1 2 1 −1 ] = I2 e [ −1 2 1 −1 ] [ 1 2 1 1 ] = I2. Teorema 1.5 Sejam A e B matrizes quadradas de ordem n invert´ıveis. Enta˜o AB e´ invert´ıvel e (AB)−1 = B−1A−1. Demonstrac¸a˜o. (AB)(B−1A−1) = A(BB−1)A−1 = AInA−1 = AA−1 = In. De modo ana´logo, (B−1A−1)(AB) = B−1(A−1A)B = B−1InB = B−1B = In. Podemos assim concluir que AB e´ invert´ıvel e a sua inversa e´ B−1A−1. Exerc´ıcio 1.5 Generalize o resultado do teorema anterior para mais do que duas matrizes. Adiante estudaremos me´todos para determinar se uma matriz quadrada e´ ou na˜o invert´ıvel, e, no caso afirmativo, calcular a sua inversa. 1.4 Transposic¸a˜o de matrizes Definic¸a˜o 1.6 Dada uma matriz A = [aij] do tipo m × n, define-se a trans- posta de A como sendo a matriz AT = [bij], do tipo n ×m, onde bij = aji, para i = 1, . . . , n, j = 1, . . . ,m. A matriz A diz-se sime´trica se A = AT . Observac¸o˜es. 1. Os elementos da coluna i de AT sa˜o precisamente os da linha i de A, para i = 1, . . . ,m. 2. Uma matriz e´ sime´trica se e so´ se for quadrada e forem iguais os elementos situados em posic¸o˜es sime´tricas relativamente a` diagonal principal. 17 Exemplo 1.6 A transposta da matriz A = [ 1 2 0 1 5 3 ] e´ a matriz AT = 1 12 5 0 3 . A matriz 3 2 52 1 7 5 7 9 e´ sime´trica, mas a matriz 3 1 52 1 7 5 7 9 ja´ o na˜o e´, uma vez que os elementos nas posic¸o˜es (1, 2) e (2, 1) na˜o sa˜o iguais. Proposic¸a˜o 1.1 A transposic¸a˜o de matrizes goza das seguintes propriedades: 1. (AT )T = A; 2. (A+B)T = AT +BT ; 3. (αA)T = αAT , sendo α um nu´mero; 4. (AB)T = BTAT ; 5. (Ak)T = (AT )k, sendo k um nu´mero natural; 6. Se A for invert´ıvel, AT tambe´m e´, tendo-se (AT )−1 = (A−1)T . Demonstrac¸a˜o. As propriedades 1, 2, 3 e 5 ficam como exerc´ıcio. Provemos 4 e 6. Sejam A = [aij] e B = [bij] , dos tipos m× n e n× p , respectivamente. Enta˜o BTAT e (AB)T sa˜o do tipo p×m. Sendo bki e ajk os elementos (i, k) e (k, j) de BT e AT , respectivamente, tem-se que o elemento (i, j) de BTAT e´ n∑ k=1 bkiajk = n∑ k=1 ajkbki, que e´ o elemento (i, j) de (AB)T , para i = 1, . . . , p, j = 1, . . . ,m. Seja agora A = [aij] invert´ıvel de ordem n. Enta˜o, usando a propriedade 4, tem-se AT (A−1)T = (A−1A)T = ITn = In e (A −1)TAT = (AA−1)T = ITn= In. Logo (AT )−1 = (A−1)T . Exerc´ıcio 1.6 Seja A uma matriz m×n. Prove que as matrizes ATA e AAT sa˜o sime´tricas. Deˆ um exemplo que mostre que estes dois produtos podem ser diferentes, mesmo que A seja quadrada. 18 Exerc´ıcio 1.7 Prove o seguinte: 1. A soma de duas matrizes sime´tricas da mesma ordem e´ ainda uma matriz sime´trica. 2. O produto de duas matrizes sime´tricas da mesma ordem e´ uma matriz sime´trica se e so´ se as duas matrizes comutarem. 3. A inversa de uma matriz sime´trica invert´ıvel e´ tambe´m sime´trica. Exerc´ıcio 1.8 Seja M = [ A B C D ] uma matriz particionada em blocos. Mostre que MT = [ AT CT BT DT ] . Definic¸a˜o 1.7 Uma matriz quadrada diz-se ortogonal se for invert´ıvel e a sua inversa coincidir com a sua transposta. Exemplo 1.7 A matriz AT = [ √ 2 2 − √ 2 2√ 2 2 √ 2 2 ] e´ ortogonal. Exerc´ıcio 1.9 Mostre que: 1. O produto de duas matrizes ortogonais e´ ainda uma matriz ortogonal. 2. A inversa de uma matriz ortogonal e´ tambe´m uma matriz ortogonal. 3. Uma matriz real 2× 2 e´ ortogonal se e so´ se for de uma das duas seguintes formas:[ cos θ −sen θ sen θ cos θ ] , [ cos θ sen θ sen θ − cos θ ] , θ ∈ R. Exerc´ıcio 1.10 Seja A n× n e designemos por v1, . . . , vn as suas colunas. Prove que A e´ ortogonal se e so´ se, para i, j = 1, . . . , n, se tiver vTi vj = δij . Definic¸a˜o 1.8 Uma matriz n× n diz-se uma matriz de permutac¸a˜o se tiver as mesmas linhas que a matriz identidade In mas na˜o necessariamente pela mesma ordem. 19 Exemplo 1.8 As matrizes 0 1 00 0 1 1 0 0 e 0 1 01 0 0 0 0 1 sa˜o matrizes de permutac¸a˜o. Que trocas se efectuaram sobre as linhas de I3 para as obter? Exerc´ıcio 1.11 Mostre que toda a matriz de permutac¸a˜o e´ ortogonal. Exerc´ıcio 1.12 Seja A = [ B C 0 D ] uma matriz particionada em blocos com B e D quadradas. Mostre que, se A for ortogonal, enta˜o B e D tambe´m sa˜o ortogonais e C = 0. Definic¸a˜o 1.9 Sendo A = [aij]m×n uma matriz complexa, define-se a conjugada de A como sendo A = [aij]m×n. Escrevemos A ∗ = A T . A matriz A diz-se hermı´tica se A = A∗. Observac¸o˜es. 1. Os elementos da coluna i de A∗ sa˜o precisamente os conjugados dos da linha i de A, para i = 1, . . . ,m. 2. Uma matriz e´ hermı´tica se e so´ se for quadrada e forem conjugados os elementos situados em posic¸o˜es sime´tricas relativamente a` diagonal principal. Exemplo 1.9 A conjugada de A = [ 1 2 + i 5 + 3i 4i ] e´ a matriz A = [ 1 2− i 5− 3i −4i ] . Tem-se A∗= [ 1 5− 3i 2− i −4i ] . Esta matriz na˜o e´ hermı´tica, mas a matriz [ 1 3−i 3+i 7 ] ja´ o e´. Proposic¸a˜o 1.2 As matrizes complexas gozam das seguintes propriedades: 1. (A∗)∗ = A; 2. (A+B)∗ = A∗ +B∗; 3. (αA)∗ = αA∗, sendo α um nu´mero complexo; 4. (AB)∗ = B∗A∗; 5. (Ak)∗ = (A∗)k, sendo k um nu´mero natural; 6. Se A for invert´ıvel, A∗ tambe´m e´, tendo-se (A∗)−1 = (A−1)∗. Demonstrac¸a˜o. Exerc´ıcio. 20 1.5 Matrizes elementares Dedicamos agora a nossa atenc¸a˜o a uma classe especial de matrizes, as matrizes ele- mentares, que aparecera˜o no estudo dos sistemas de equac¸o˜es lineares. Para estudarmos esta classe de matrizes e´ u´til conhecer certo tipo de operac¸o˜es sobre as linhas de uma matriz, ditas operac¸o˜es elementares, que passamos a definir: 1. Substituic¸a˜o de uma linha da matriz pela sua soma com um mu´ltiplo de outra. 2. Troca entre si de duas linhas da matriz. 3. Multiplicac¸a˜o de uma linha da matriz por um nu´mero diferente de zero. Definic¸a˜o 1.10 Chama-se matriz elementar de ordem n a toda a matriz que se obte´m de In por aplicac¸a˜o de uma operac¸a˜o elementar a`s suas linhas. Obtemos assim treˆs tipos de matrizes elementares de ordem n: 1. Para i 6= j e α ∈ R temos a matriz Eij(α) = 1 0 . . . 0 . . . 0 . . . 0 0 1 . . . 0 . . . 0 . . . 0 ... ... . . . ... . . . ... . . . ... 0 0 . . . 1 . . . α . . . 0 ... ... . . . ... . . . ... . . . ... 0 0 . . . 0 . . . 1 . . . 0 ... ... . . . ... . . . ... . . . ... 0 0 . . . 0 . . . 0 . . . 1 . Eij(α) obte´m-se de In adicionando a` linha i a linha j previamente multiplicada por α. Assim Eij(α) difere da matriz identidade apenas pelo elemento (i, j), que e´ α (se α = 0, tem-se Eij(α) = In). 2. Para i 6= j, temos a matriz Pij = 1 0 . . . 0 . . . 0 . . . 0 0 1 . . . 0 . . . 0 . . . 0 ... ... . . . ... . . . ... . . . ... 0 0 . . . 0 . . . 1 . . . 0 ... ... . . . ... . . . ... . . . ... 0 0 . . . 1 . . . 0 . . . 0 ... ... . . . ... . . . ... . . . ... 0 0 . . . 0 . . . 0 . . . 1 . Pij obte´m-se de In trocando a linha i com a linha j. 21 3. Finalmente, para α ∈ R na˜o nulo e 1 ≤ i ≤ n, temos a matriz Di(α) = 1 0 . . . 0 . . . 0 0 1 . . . 0 . . . 0 ... ... . . . ... . . . ... 0 0 . . . α . . . 0 ... ... . . . ... . . . ... 0 0 . . . 0 . . . 1 . Di(α) obte´m-se de In multiplicando a linha i por α. As matrizes Pij sa˜o matrizes de permutac¸a˜o especiais (obtidas de In pela troca de duas linhas). Exemplo 1.10 As matrizes seguintes sa˜o exemplos de matrizes elementares de ordem 3 : E21(5) = 1 0 05 1 0 0 0 1 ; P13 = 0 0 10 1 0 1 0 0 ; D2(8) = 1 0 00 8 0 0 0 1 . Exerc´ıcio 1.13 Seja A ∈Mm×n(R), i 6= j e α ∈ R. Mostre que: 1. Eij(α)A e´ a matriz que se obte´m de A adicionando a` linha i a linha j previamente multiplicada por α. 2. Pij(α)A e´ a matriz que se obte´m de A trocando a linha i com a linha j. 3. Di(α)A e´ a matriz que se obte´m de A multiplicando a linha i por α. Em resumo, se E for uma matriz elementar, EA e´ a matriz que se obte´m de A aplicando-lhe a`s linhas as mesmas operac¸o˜es elementares que foram aplicadas a`s linhas de Im para obter E. Mostre ainda que um resultado ana´logo e´ va´lido para o produto AE, reflectindo-se agora o efeito da multiplicac¸a˜o nas colunas de A: AE e´ a matriz obtida de A aplicando-lhe a`s colunas as mesmas operac¸o˜es elementares que foram aplicadas a`s colunas de In para obter E. Exerc´ıcio 1.14 Generalize 2. e 3. do exerc´ıcio anterior provando que, se A for uma matriz m× n, se tem o seguinte: 1. Multiplicar A a` esquerda por uma matriz de permutac¸a˜o P equivale a efectuar em A as mesmas trocas de linhas feitas em Im para obter P . Qual sera´ o efeito de multiplicar A a` direita por uma matriz de permutac¸a˜o? 2. Multiplicar A a` esquerda por uma matriz diagonal de elementos diagonais µ1, . . . , µm equivale a multiplicar a primeira linha de A por µ1, a segunda linha por µ2, etc. Multiplicar A a` direita por uma matriz diagonal de elementos diagonais µ1, . . . , µn equivale a multiplicar a primeira coluna de A por µ1, a segunda coluna por µ2, etc. 22 Exerc´ıcio 1.15 Seja 1 ≤ j ≤ n − 1, e defina-se Ej como sendo o seguinte produto de matrizes elementares Ej+1,j(αj+1,j)Ej+2,j(αj+2,j) · · ·En,j(αn,j). 1. Mostre que se tem Ej = 1 0 . . . 0 0 0 . . . 0 0 1 . . . 0 0 0 . . . 0 ... ... . . . ... ... . . . ... 0 0 . . . 1 0 0 . . . 0 0 0 . . . αj+1,j 1 0 . . . 0 0 0 . . . αj+2,j 0 1 . . . 0 ... ... . . . ... ... ... . . . ... 0 0 . . . αnj ... ... . . . 1 . 2. Mostre que se tem E1E2 · · ·En−1 = 1 0 0 . . . 0 α21 1 0 . . . 0 α31 α32 1 . . . 0 ... ... ... . . . ... αn1 αn2 αn3 . . . 1 . 3. Como pode observar, a matriz E1E2 · · ·En−1 obte´m-se imediatamente das matrizes E1, E2, · · · , En−1, sem necessidade de ca´lculos. Verifique que o mesmo na˜o se passa com En−1 · · ·E2E1, matriz para cujos elementos na˜o existe uma expressa˜o simples a partir dos elementosdas matrizes Ej . Exerc´ıcio 1.16 Prove que as matrizes elementares Eij(α), Pij e Di(β), onde β 6= 0, sa˜o invert´ıveis e tem-se (Eij(α))−1 = Eij(−α), P−1ij = Pij e (Di(β))−1 = Di(1/β). 23 2 Sistemas de equac¸o˜es lineares 2.1 Generalidades Os sistemas de equac¸o˜es lineares constituem hoje um relevante tema de estudo devido a` sua importaˆncia em Matema´tica Aplicada. Muitos problemas, por exemplo, nas a´reas de Engenharia conduzem a` necessidade de resolver sistemas de equac¸o˜es lineares. Os sistemas de equac¸o˜es lineares ligados a questo˜es de Matema´tica Aplicada podem ter um elevado nu´mero de equac¸o˜es e inco´gnitas. Na˜o se pode portanto pensar em resolveˆ-los “a` ma˜o”. O que se faz e´ usar computadores para esse efeito, na˜o aplicando “fo´rmulas” mas sim utilizando algoritmos, isto e´, sequeˆncias organizadas de passos que conduzem a` soluc¸a˜o ou soluc¸o˜es. Neste cap´ıtulo estudaremos o mais importante algoritmo geral para resolver sistemas de equac¸o˜es lineares, o algoritmo de eliminac¸a˜o de Gauss, e veremos como a linguagem das matrizes permite descreveˆ-lo de forma muito simples e abreviada. Para sistemas muito grandes e de tipos especiais ha´ outros algoritmos mais econo´micos do que o algoritmo de eliminac¸a˜o de Gauss. Esses algoritmos teˆm em geral um nu´mero infinito de passos e sa˜o estudados em disciplinas mais avanc¸adas. Definic¸a˜o 2.1 Uma equac¸a˜o linear nas inco´gnitas x1, . . . , xn e´ uma equac¸a˜o do tipo a1x1 + . . .+ anxn = b onde a1, . . . , an e b sa˜o nu´meros. A b costuma chamar-se segundo membro ou termo independente da equac¸a˜o. Um sistema de equac¸o˜es lineares e´ uma colecc¸a˜o finita de equac¸o˜es lineares (todas nas mesmas inco´gnitas) consideradas em conjunto. Um sistema gene´rico com m equac¸o˜es e n inco´gnitas a11x1 + . . .+ a1nxn = b1 a21x1 + . . .+ a2nxn = b2 . . . am1x1 + . . .+ amnxn = bm apresenta-se abreviadamente na forma Ax = b onde A = a11 a12 . . . a1n a21 a22 . . . a2n ... ... . . . ... am1 am2 . . . amn , x = x1 x2 ... xn , b = b1 b2 ... bm . A e´ a matriz do sistema, x e´ a matriz-coluna das inco´gnitas e b e´ a matriz-coluna dos segundos membros ou, abreviadamente, o segundo membro do sistema. 24 Definic¸a˜o 2.2 Uma soluc¸a˜o de um sistema de equac¸o˜es lineares nas inco´gnitas x1, . . . , xn e´ uma sequeˆncia ordenada (α1, . . . , αn) de nu´meros tais que as substi- tuic¸o˜es xi = αi, i = 1, ..., n, transformam todas as equac¸o˜es do sistema em iden- tidades verdadeiras. Uma soluc¸a˜o tambe´m se pode apresentar na forma de uma matriz-coluna n× 1: α1 α2 ... αn . Resolver um sistema de equac¸o˜es lineares e´ determinar todas as suas soluc¸o˜es ou provar que na˜o existe nenhuma. Um sistema de equac¸o˜es lineares que tenha pelo menos uma soluc¸a˜o diz-se poss´ıvel (determinado se so´ tiver uma, indeterminado se tiver mais do que uma). Um sistema de equac¸o˜es lineares que na˜o tenha nenhuma soluc¸a˜o diz-se imposs´ıvel. Exemplo 2.1 Considere o sistema de equac¸o˜es lineares{ 2x1 + 5x2 = 3 4x1 + 9x2 = 7 . A matriz do sistema e´ [ 2 5 4 9 ] , enquanto que x = [ x1 x2 ] e b = [ 3 7 ] sa˜o, respec- tivamente, as matrizes-coluna das inco´gnitas e dos segundos membros. Este sistema e´ poss´ıvel determinado, sendo a sua soluc¸a˜o [ 4 −1 ] . O exemplo seguinte e´ de novo de um sistema poss´ıvel determinado. Qual a sua soluc¸a˜o? x1 + 2x2 = 1 4x1 + 3x2 = 3 5x1 + 5x2 = 4 . O sistema { 2x1 + 4x2 = 12 4x1 + 8x2 = 24 e´ poss´ıvel indeterminado, com soluc¸a˜o [ 6− 2α α ] , para qualquer α ∈ R ; mas { 2x1 + 4x2 = 5 4x1 + 8x2 = 7 ja´ e´ um sistema imposs´ıvel. Qual a interpretac¸a˜o geome´trica destes sistemas? 25 Definic¸a˜o 2.3 Um sistema em que os segundos membros das equac¸o˜es sa˜o todos iguais a 0 diz-se homoge´neo. Note-se que um sistema homoge´neo e´ sempre poss´ıvel (possui sempre, pelo menos, a chamada soluc¸a˜o nula). Definic¸a˜o 2.4 Dois sistemas com o mesmo nu´mero de equac¸o˜es e de inco´gnitas dizem-se equivalentes se tiverem exactamente as mesmas soluc¸o˜es. Teorema 2.1 Seja Ax = b um sistema de equac¸o˜es lineares, com A m× n. Seja E uma matriz m×m invert´ıvel. Enta˜o, o sistema EAx = Eb e´ equivalente ao sistema Ax = b. Demonstrac¸a˜o. Claramente, qualquer soluc¸a˜o do sistema Ax = b e´ tambe´m soluc¸a˜o do sistema EAx = Eb. Reciprocamente, seja u uma soluc¸a˜o do sistema EAx = Eb. Tem- se EAu = Eb. Multiplicando a` esquerda ambos os membros desta igualdade por E−1, obtemos Au = b, isto e´, u e´ soluc¸a˜o do sistema Ax = b. 2.2 O algoritmo de eliminac¸a˜o de Gauss Um me´todo geral de resolver sistemas de equac¸o˜es lineares e´ o chamado algoritmo de eliminac¸a˜o de Gauss. Este algoritmo consiste numa sequeˆncia de passos “elementares” que transformam o sistema dado num sistema muito fa´cil de resolver. Um passo elementar do me´todo de eliminac¸a˜o de Gauss consiste na adic¸a˜o membro a membro a uma equac¸a˜o de um mu´ltiplo de outra, de forma que, na equac¸a˜o obtida, seja nulo o coeficiente de certa inco´gnita. Com isto dizemos que se “eliminou” essa inco´gnita da equac¸a˜o. Para exemplificar, consideremos o sistema Ax = b com A = [aij] m × n. Enta˜o, supondo a11 6= 0, a adic¸a˜o a` segunda equac¸a˜o da primeira multiplicada por −a21 a11 elimina a inco´gnita x1 da segunda equac¸a˜o (verifique). Os passos elementares sa˜o conduzidos de maneira a eliminar a inco´gnita x1 de todas as equac¸o˜es a partir da segunda — para o que e´ necessa´rio ter-se a11 na˜o nulo —, depois eliminar a inco´gnita x2 de todas as equac¸o˜es a partir da terceira — para o que e´ necessa´rio ter-se a′22 (o novo coeficiente de x2 na segunda equac¸a˜o) na˜o nulo —, etc. Este processo repete-se ate´ na˜o ser poss´ıvel continua´-lo mais. Os nu´meros a11, a ′ 22, ... chamam-se os pivots da eliminac¸a˜o. Teorema 2.2 Cada um destes passos elementares do me´todo de eliminac¸a˜o de Gauss transforma um sistema noutro equivalente. Demonstrac¸a˜o. Basta observar que cada passo elementar do tipo descrito corresponde a multiplicar ambos os membros do sistema (escrito na forma matricial) por uma matriz elementar do tipo Eij(α) e que estas matrizes sa˜o invert´ıveis. 26 Sempre que surja um zero na posic¸a˜o em que devia estar um pivot, procura-se resolver o problema mediante a troca dessa equac¸a˜o com a que se lhe segue. Se tambe´m essa tiver um zero na posic¸a˜o em causa tenta-se a seguinte, etc. Se nenhuma troca resolver o problema, o pivot passa a ser procurado entre os coeficientes da inco´gnita seguinte. E´ o´bvio que uma troca na ordem das equac¸o˜es transforma um sistema noutro equiva- lente. Isso tambe´m se pode concluir observando que uma troca de duas equac¸o˜es entre si corresponde a multiplicar ambos os membros do sistema (escrito na forma matricial) por uma matriz elementar do tipo Pij e que estas matrizes sa˜o invert´ıveis. Deste processo resulta um novo sistema, digamos Ux = c, equivalente ao sistema original, e cuja matriz U , que e´ ainda m× n, tem uma forma especial, a que se costuma chamar matriz em escada: Definic¸a˜o 2.5 Uma matriz diz-se umamatriz em escada se satisfizer as seguintes condic¸o˜es: i) Se o primeiro elemento na˜o nulo numa linha esta´ na coluna j, enta˜o a linha seguinte comec¸a com pelo menos j elementos nulos. ii) Se houver linhas totalmente constitu´ıdas por zeros, elas aparecem depois das outras. Exemplo 2.2 Exemplos do aspecto de uma matriz em escada (os s´ımbolos • representam os pivots): • ∗ ∗0 • ∗ 0 0 • , • ∗ ∗ ∗ ∗ ∗ ∗ 0 0 • ∗ ∗ ∗ ∗ 0 0 0 • ∗ ∗ ∗ 0 0 0 0 0 0 • 0 0 0 0 0 0 0 , • ∗ ∗ 0 • ∗ 0 0 0 0 0 0 . As matrizes A = [ 2 5 0 0 0 6 ] , B = 1 50 2 0 0 e C = 3 7 04 0 1 5 2 0 0 0 6 0 0 0 0 0 0 0 0 sa˜o matrizes em escada. A matriz A tem pivots 2 e 6, os pivots de B sa˜o 1 e 2 e os de C sa˜o 3, 1 e 6. As matrizes 1 5 00 0 6 0 0 2 , 1 0 5 70 0 6 2 0 0 2 4 e 2 3 00 0 0 0 0 1 na˜o sa˜o em escada. Porqueˆ? 27 Com a obtenc¸a˜o de uma matriz em escada U termina a parte “descendente” do me´todo de eliminac¸a˜o de Gauss. Neste momento verifica-se se o sistema obtido, Ux = c, e´ poss´ıvel, isto e´, se na˜o ha´ equac¸o˜es com o primeiro membro nulo e o segundo na˜o nulo. Se o sistema for poss´ıvel, resolve-se “de baixo para cima” (parte “ascendente” do algoritmo), se necessa´rio obtendo algumas inco´gnitas — aquelas que esta˜o a multiplicar por pivots — em func¸a˜o das outras. A`s primeiras inco´gnitas chamamos inco´gnitas ba´sicas, e a`s outras, que podem tomar qualquer valor em R, chamamos inco´gnitas livres. Se houver inco´gnitas livres, o sistema e´ indeterminado. Se so´ houver inco´gnitas ba´sicas, o sistema e´ determinado. O que governa o me´todo de eliminac¸a˜o e´ a matriz A do sistema, e podemos olhar para os sucessivos passos do algoritmo como respeitando apenas a` matriz: o primeiro passo consiste em adicionar a` segunda linha a primeira multiplicada por −a21 a11 , etc. Definic¸a˜o 2.6 A caracter´ıstica de A — abreviadamente, car(A) — e´ o nu´mero de pivots que aparecem quando se aplica a A o me´todo de eliminac¸a˜o. Equivalente- mente, car(A) e´ o nu´mero de linhas na˜o nulas da matriz em escada U produzida pelo algoritmo de eliminac¸a˜o aplicado a A. Uma matriz quadrada A n × n diz-se na˜o-singular se tiver caracter´ıstica n. Se car(A) < n, a matriz A diz-se singular. Exemplo 2.3 Considere as matrizes A, B e C do exemplo anterior. Tem-se car(A) = 2, car(B) = 2 e car(C) = 3. Exemplo 2.4 Considere a matriz A = 1 1 21 3 3 2 8 12 . Apliquemos a A o me´todo de eliminac¸a˜o de Gauss. Comec¸amos por adicionar a` segunda e terceira linhas de A a primeira linha multiplicada por −1 e −2, respectivamente. A matriz resultante sera´ A′ = 1 1 20 2 1 0 6 8 . Esta matriz na˜o e´ ainda uma matriz em escada. Prosseguimos adicio- nando a` terceira linha de A′ a segunda linha multiplicada por −3. A matriz que obtemos e´ a matriz em escada U = 1 1 20 2 1 0 0 5 . Tem-se car(A) = 3 (pois ha´ treˆs pivots : 1, 2 e 5) e A e´ na˜o-singular. Considere-se agora B = 1 1 22 6 6 2 2 4 . Adicionando a` segunda e terceira linhas de B a primeira linha multiplicada por −2 obtemos a matriz em escada U = 1 1 20 4 2 0 0 0 . Ha´ apenas dois pivots, 1 e 4. Logo car(B) = 2 e B e´ singular. 28 O algoritmo de eliminac¸a˜o de Gauss pode ser descrito de forma muito abreviada usando a linguagem das matrizes: Consideremos o sistema Ax = b, e denotemos por Ux = c o sistema obtido apo´s a parte descendente do algoritmo. Suponhamos primeiro que na˜o houve necessidade de trocas de linhas. O efeito das sucessivas operac¸o˜es elementares aplicadas a A pode ser descrito pela multiplicac¸a˜o sucessiva de A, a` esquerda, por matrizes elementares do tipo Eij(α), onde os nu´meros α sa˜o os “multiplicadores” usados na eliminac¸a˜o. Designemos por M o produto de todas essas matrizes elementares. Enta˜o M e´ uma matriz triangular inferior com elementos diagonais iguais a 1 (ex. 1.2), e tem-se MA = U . Como as operac¸o˜es levadas a cabo com o segundo membro do sistema foram precisamente as mesmas, tem-se Mb = c. Designemos M−1 por L (donde A = LU e b = Lc). Sendo a inversa de M , a matriz L e´ igual ao produto das matrizes Eij(−α) pela ordem inversa a`quela em que as matrizes Eij(α) figuram em M . Enta˜o, dos exerc´ıcios 1.15 e 1.16 (primeira igualdade), sabe-se que L e´ uma matriz triangular inferior com elementos diagonais iguais a 1 e os elementos sob a diagonal de L sa˜o precisamente os sime´tricos dos “multiplicadores” usados na eliminac¸a˜o, cada um na posic¸a˜o em que figura na respectiva matriz elementar. (E, portanto, a matriz L e´ muito fa´cil de escrever.) Exemplo 2.5 Considere-se o sistema Ax = b, onde A = 1 1 21 3 3 2 8 12 e´ a matriz considerada no Exemplo 2.4, e b = 1−2 −12 . Ja´ vimos como obter uma matriz triangular superior U por aplicac¸a˜o do me´todo de eliminac¸a˜o de Gauss a A. Utilizando matrizes elementares, este processo pode ser descrito do seguinte modo: U = E32(−3)E31(−2)E21(−1)A = 1 1 20 2 1 0 0 5 . Efectuando as mesmas operac¸o˜es ao segundo membro do sistema, obtemos c = E32(−3)E31(−2)E21(−1)b = 1−3 −5 . A matriz L sera´ L = [E32(−3)E31(−2)E21(−1)]−1 = E21(1)E31(2)E32(3) = 1 0 01 1 0 2 3 1 , e tem-se A = LU e b = Lc. 29 Se houver necessidade de trocas de linhas, a u´nica diferenc¸a e´ que o algoritmo deve ser visto como aplicado, na˜o a A, mas a PA, onde P e´ uma matriz de permutac¸a˜o (P e´ o produto das matrizes de permutac¸a˜o correspondentes a`s va´rias trocas de linhas feitas na matriz durante o algoritmo), e ao segundo membro Pb. Exemplo 2.6 Aplique-se o algoritmo de eliminac¸a˜o de Gauss ao sistema Ax = b, onde A = 2 6 24 12 −2 −6 −12 −10 . Ao adicionarmos a` segunda e terceira linhas de A a primeira multiplicada por −2 e 3, respectivamente, obtemos a matriz E31(3)E21(−2)A = 2 6 20 0 −6 0 6 −4 . O passo seguinte seria utilizar o elemento (2, 2) como pivot, mas este elemento e´ zero. Temos que trocar entre si as linhas 2 e 3 desta matriz. Este passo e´ equivalente a trocar estas linhas em A antes de termos iniciado o processo de eliminac¸a˜o, isto e´, a fazer a eliminac¸a˜o na˜o em A mas na matriz P2,3A. Teremos enta˜o (atenc¸a˜o a`s novas matrizes Eij(α) ) E31(−2)E21(3)P2,3A = 2 6 20 6 −4 0 0 −6 . Esta ja´ e´ uma matriz em escada, a matriz U desejada. Tomando L = [E31(−2)E21(3)]−1= E21(−3)E31(2), temos P2,3A = LU. Regressando ao sistema Ax = b, teremos que efectuar no segundo membro as mesmas trocas de linhas que foram efectuadas em A, ou seja, iremos trabalhar na˜o com Ax = b mas com o sistema equivalente P2,3Ax = P2,3b. Note que na˜o e´ necessa´rio iniciar o processo de eliminac¸a˜o de cada vez que precisar de efectuar uma troca de linhas. Pense quais sera˜o as alterac¸o˜es que tais trocas implicam na matriz L que esta´ a ser constru´ıda. Resumindo, temos: Teorema 2.3 (Factorizac¸a˜o LU .) Sendo A m× n arbitra´ria, existe uma matriz de per- mutac¸a˜o P tal que PA se pode factorizar na forma LU , onde L e´ triangular inferior com elementos diagonais iguais a 1 e U e´ uma matriz em escada. Os elementos sob a diagonal de L sa˜o os sime´tricos dos “multiplicadores” usados no me´todo de eliminac¸a˜o aplicado a A, e U e´ a matriz produzida pelo algoritmo (e portanto o primeiro elemento na˜o nulo em cada linha na˜o nula de U e´ um pivot). 30 No caso quadrado n × n na˜o-singular, U e´ triangular superior, com os elementos diagonais na˜o nulos (sa˜o os n pivots).6 Podemos agora apresentar a descric¸a˜o matricial do algoritmo de eliminac¸a˜o de Gauss. Comecemos pelo caso de sistemas com matrizes quadradas na˜o-singulares. Algoritmo. Resoluc¸a˜o do sistema Ax = b com A n× n na˜o singular: 1o passo) Factorizac¸a˜o PA = LU . 2o passo) Resoluc¸a˜o do sistema Lc = Pb (para achar o novo segundo membro c). 3o passo) Resoluc¸a˜o do sistema Ux = c. Exemplo 2.7 Retomemos o sistema Ax = b considerado no Exemplo 2.5. Temos A = 1 1 21 3 3 2 8 12 e b = 1−2 −12 . Ja´ conhecemos a decomposic¸a˜o LU de A: A = 1 0 01 1 0 2 3 1 1 1 20 2 1 0 0 5 . Passemos enta˜o ao segundo passo do algoritmo: resoluc¸a˜o do sistema triangular inferior Lc = b. c1 = 1 c1 + c2 = −2 2c1 + 3c2 + c3 = −12 Este e´ um sistema poss´ıvel determinado com soluc¸a˜o c = 1−3 −5 . 6No caso na˜o-singular, uma variante desta factorizac¸a˜o LU e´ a chamada factorizac¸a˜oLDU , que se obte´m da outra escrevendo U como produto de uma matriz diagonal — onde os elementos diagonais sa˜o os pivots — e uma matriz triangular superior com os elementos diagonais iguais a 1. Exemplo:[ 2 3 4 11 ] = [ 1 0 2 1 ] [ 2 3 0 5 ] = [ 1 0 2 1 ] [ 2 0 0 5 ] [ 1 32 0 1 ] . 31 Resta-nos agora resolver, por substituic¸a˜o ascendente, o sistema triangular superior Ux = c: x1 + x2 + 2x3 = 1 2x2 + x3 = −3 5x3 = −5 ⇐⇒ x1 = 4 x2 = −1 x3 = −1 A soluc¸a˜o do sistema inicial Ax = b e´ enta˜o x = 4−1 −1 . Exemplo 2.8 Seja agora A = 2 6 24 12 −2 −6 −12 −10 , a matriz da matriz considerada no Exemplo 2.6. Pretendemos resolver o sistema Ax = b, onde b = −1022 58 . Sabemos que P2,3A tem a decomposic¸a˜o LU P2,3A = 1 0 0−3 1 0 2 0 1 2 6 20 6 −4 0 0 −6 . Para calcular o novo segundo membro c temos de resolver o sistema Lc = P2,3b. Ora P2,3b = −1058 22 , logo Lc = P2,3b ⇐⇒ c1 = −10 −3c1 + c2 = 58 2c1 + c3 = 22 ⇐⇒ c = −1028 42 . Agora Ux = c ⇐⇒ 2x1 + 6x2 + 2x3 = −10 6x2 − 4x3 = 28 − 6x3 = 42 ⇐⇒ x = 20 −7 . A soluc¸a˜o de Ax = b e´ enta˜o x = 20 −7 . 32 Exerc´ıcio 2.1 O objectivo deste exerc´ıcio e´ avaliar o custo computacional do me´todo de eliminac¸a˜o de Gauss. Seja dada uma matriz A n × n na˜o-singular. Vai-se aplicar a A o me´todo de eliminac¸a˜o de Gauss com o objectivo de resolver o sistema Ax = b mediante a sua transformac¸a˜o num sistema triangular Ux = c. 1. Quantas adic¸o˜es, multiplicac¸o˜es e diviso˜es e´ necessa´rio efectuar para passar de A para U? (R.: n(n 2−1) 3 , n(n2−1) 3 , n(n−1) 2 .) 2. E para passar de b para c? (R.: n(n−1)2 , n(n−1) 2 , 0.) 3. E para resolver o sistema Ux = c? (R.: n(n−1)2 , n(n−1) 2 , n.) Exerc´ıcio 2.2 Suponha que dispo˜e de um computador cujo processador consegue fazer, num segundo, 100000 operac¸o˜es (uma “operac¸a˜o” = uma adic¸a˜o + uma multiplicac¸a˜o + uma divisa˜o). Quanto tempo de ca´lculo do processador exigiria a resoluc¸a˜o, pelo me´todo de eliminac¸a˜o de Gauss, de um sistema 100× 100? E de um 1000× 1000? Passemos agora a sistemas com matrizes quaisquer. Vale a pena estudar separada- mente o caso dos sistemas homoge´neos, que, recorde-se, sa˜o sempre poss´ıveis. Definic¸a˜o 2.7 Sendo A ∈ Mm×n(R), o conjunto das soluc¸o˜es do sistema Ax = 0, designado por N(A), diz-se o nu´cleo ou espac¸o nulo de A. Algoritmo. Resoluc¸a˜o do sistema Ax = 0 com A m× n: 1o passo) Determinac¸a˜o da matriz em escada U . Seja car(A) = r. 2o passo) No sistema Ux = 0, que e´ equivalente ao primeiro, separam-se as inco´gnitas em ba´sicas (correspondentes a`s colunas com pivots, que sa˜o em nu´mero de r) e livres. Se na˜o houver inco´gnitas livres, o sistema e´ determinado: so´ tem a soluc¸a˜o nula. 3o passo) Para cada inco´gnita livre, da´-se o valor 1 a essa inco´gnita livre e 0 a`s restantes, e resolve-se o sistema (com r equac¸o˜es) resultante. As n − r colunas n × 1 assim obtidas geram o conjunto N(A) das soluc¸o˜es (isto e´, qualquer soluc¸a˜o e´ combinac¸a˜o linear dessas n− r). Da ana´lise deste algoritmo segue-se imediatamente a seguinte observac¸a˜o: 33 Teorema 2.4 Um sistema homoge´neo com mais inco´gnitas do que equac¸o˜es e´ indetermi- nado. Demonstrac¸a˜o. Seja o sistema Ax = 0, onde A e´ m × n e m < n. Seja car(A) = r. Como r ≤ m (porque o nu´mero de pivots na˜o pode exceder o nu´mero de linhas), tem-se r < n e portanto ha´ necessariamente inco´gnitas livres (em nu´mero de n− r). Exemplo 2.9 Apliquemos este algoritmo a` resoluc¸a˜o do sistema homoge´neo A = 2 4 6 8−2 −2 −4 −6 4 8 12 8 x1 x2 x3 x4 = 00 0 . Adicionando a` segunda e terceira linhas de A a primeira linha multiplicada por 1 e −2, respectivamente, obtemos a matriz em escada U = 2 4 6 80 2 2 2 0 0 0 −8 . Tem-se car(A) = 3. As colunas de U com pivot correspondem a`s inco´gnitas x1, x2 e x4. Sera˜o portanto estas as inco´gnitas ba´sicas, ficando x3 como inco´gnita livre. Da´-se o valor 1 a` inco´gnita x3 e resolve-se, por substituic¸a˜o ascendente, o sistema 3× 3 resultante: 2x1 + 4x2 + 8x4 = −6 2x2 + 2x4 = −2 − 8x4 = 0 ⇐⇒ x1 = −1 x2 = −1 x4 = 0 . Assim −1 −1 1 0 sera´ uma soluc¸a˜o de Ax = 0 . As restantes soluc¸o˜es sera˜o combinac¸o˜es lineares desta, isto e´, N(A) = −α −α α 0 : α ∈ R . Para o estudo de sistemas quaisquer, interessa o seguinte resultado, que diz que o conjunto completo das soluc¸o˜es de um sistema poss´ıvel Ax = b se pode obter a partir de uma soluc¸a˜o particular e do conjunto N(A) das soluc¸o˜es do sistema homoge´neo Ax = 0: 34 Teorema 2.5 Se o sistema Ax = b e´ poss´ıvel e y e´ uma soluc¸a˜o dele, enta˜o o conjunto das suas soluc¸o˜es e´ {y + u : u ∈ N(A)}. Demonstrac¸a˜o. E´ evidente que qualquer elemento da forma y + u, com u ∈ N(A), e´ soluc¸a˜o do sistema Ax = b, porque A(y + u) = Ay + Au = b + 0 = b. Reciprocamente, seja z uma soluc¸a˜o qualquer do sistema Ax = b. Ponhamos u = z − y. Enta˜o Au = A(z − y) = Az − Ay = b− b = 0, o que significa que u ∈ N(A). E, claro, z = y + u. E temos finalmente o algoritmo para sistemas arbitra´rios. Algoritmo. Resoluc¸a˜o do sistema Ax = b com A m× n: 1o passo) Factorizac¸a˜o PA = LU . Seja car(A) = r. 2o passo) Resoluc¸a˜o do sistema Lc = Pb (para achar o novo segundo membro c). Se os u´ltimos m − r elementos da coluna c na˜o forem todos 0, o sistema inicial e´ imposs´ıvel. 3o passo) No sistema Ux = c, que e´ equivalente ao primeiro, separam-se as inco´gnitas em ba´sicas e livres. 4o passo) Da´-se o valor 0 a`s inco´gnitas livres e resolve-se o sistema (com r equac¸o˜es) resultante. A coluna n× 1 x′ assim obtida e´ uma soluc¸a˜o de Ax = b (sera´ a u´nica se na˜o houver inco´gnitas livres). 5o passo) Resolve-se o sistema Ax = 0, obtendo-se o conjunto N(A). 6o passo) O conjunto das soluc¸o˜es de Ax = b e´ {x′ + u : u ∈ N(A)}. Exemplo 2.10 Pretendemos resolver o sistema Ax = b, sendo A = 2 4 6 8−2 −2 −4 −6 4 8 12 8 e b = −44 0 . Do Exemplo 2.9, sabemos que car(A) = 3 e A = LU, onde L = 1 0 0−1 1 0 2 0 1 e U = 2 4 6 80 2 2 2 0 0 0 −8 . Resolvendo Lc = b obtemos c = −40 8 (verifique!). Como car(A) = 3 = nu´mero de linhas de A, o sistema inicial e´ poss´ıvel. 35 No sistema Ux = c as inco´gnitas ba´sicas sa˜o x1, x2 e x4 (correspondem a`s colunas de U com pivot), sendo x3 inco´gnita livre. Fac¸a-se x3 = 0 e resolva-se o sistema resultante 2x1 + 4x2 + 8x4 = −4 2x2 + 2x4 = 0 − 8x4 = 8 ⇐⇒ x1 = 0 x2 = 1 x4 = −1 . Obtemos assim 0 1 0 −1 uma soluc¸a˜o particular de Ax = b. Do Exemplo 2.9, temos N(A) = −α −α α 0 : α ∈ R . Logo, o conjunto das soluc¸o˜es de Ax = b e´ 0 1 0 −1 + −α −α α 0 : α ∈ R = −α 1− α α −1 : α ∈ R . Da ana´lise deste algoritmo seguem-se as seguintes observac¸o˜es: Teorema 2.6 Seja A m× n. 1) Sendo Ax = b poss´ıvel, e´ determinado se e so´ se car(A) = n. 2) Ax = b e´ poss´ıvel para todo o b se e so´ se car(A) = m. Demonstrac¸a˜o. 1) O sistema Ax = b e´ determinado se na˜o houver inco´gnitas livres, isto e´, se todas as n inco´gnitas forem ba´sicas, e isto e´ equivalente a dizer que car(A) = n. 2) O sistema Ax = b so´ pode ser poss´ıvel qualquer que seja o segundo membro b se, apo´s a fase descendente do algoritmo de eliminac¸a˜o, conduzindo a` matriz U , nunca houver linhas nulas em U , o que quer dizer precisamente que car(A) = m. 36 2.3 O algoritmo de Gauss-Jordan para inversa˜o de matrizes Teorema 2.7Uma matriz quadrada A e´ invert´ıvel se e so´ se for na˜o-singular. Demonstrac¸a˜o. Seja A n×n. Suponhamos primeiro que A e´ invert´ıvel. Enta˜o qualquer sistema Ax = b cuja matriz seja A e´ poss´ıvel e determinado (tem a soluc¸a˜o u´nica A−1b) e portanto A tem de certeza n pivots, ou seja e´ na˜o-singular. Reciprocamente, suponhamos que A e´ na˜o-singular. Como vimos na secc¸a˜o anterior, multiplicando A a` esquerda por matrizes elementares da forma Eij(α) e Pij, obte´m-se uma matriz triangular superior U com elementos diagonais na˜o nulos (que sa˜o os n pivots de A). Continue-se agora o processo de “criac¸a˜o de zeros”, de baixo para cima: usa-se o u´ltimo pivot para “anular” o u´ltimo elemento das linhas 1, 2, . . . , n−1, depois o penu´ltimo pivot para anular o penu´ltimo elemento das linhas 1, 2, . . . , n − 2, etc. Estas operac¸o˜es elementares correspondem a multiplicar U a` esquerda por matrizes elementares da forma Eij(α), onde agora i < j. No fim disto chega-se a uma matriz diagonal D com elementos diagonais na˜o nulos. Resumindo, o que se mostrou foi que existe uma sequeˆncia de matrizes elementares que, multiplicadas a` esquerda de A, produzem D. Designemos o produto de todas essas matrizes elementares por E. Tem-se portanto EA = D. Mas a matriz E e´ invert´ıvel, porque e´ um produto de matrizes elementares, que sa˜o todas invert´ıveis. Logo, podemos multiplicar a igualdade anterior a` esquerda por E−1, obtendo A = E−1D. Enta˜o A e´ invert´ıvel, porque e´ igual a E−1D, que e´ invert´ıvel. Como sabe, o produto de duas matrizes invert´ıveis e´ tambe´m invert´ıvel. Seguidamente demonstramos a afirmac¸a˜o rec´ıproca. Corola´rio 2.1 Sejam A e B matrizes quadradas da mesma ordem. Se o produto AB for invert´ıvel, enta˜o A e B sa˜o ambas invert´ıveis. Em particular, se AB = In, enta˜o B = A−1. Demonstrac¸a˜o. Suponhamos AB invert´ıvel, mas B na˜o-invert´ıvel. Pelo teorema ante- rior, B e´ singular e, portanto, o sistema Bx = 0 e´ poss´ıvel indeterminado. Mas enta˜o o sistema ABx = 0 tambe´m e´ indeterminado (uma vez que qualquer soluc¸a˜o do primeiro sistema e´ tambe´m soluc¸a˜o do segundo). Tal na˜o pode acontecer, pois sendo AB invert´ıvel tem-se AB na˜o-singular e, consequentemente, ABx = 0 e´ poss´ıvel determinado. Conclui- se assim que B e´ invert´ıvel. Note que agora podemos escrever A = (AB)B−1, isto e´, A e´ o produto de duas matrizes invert´ıveis. Logo A e´ invert´ıvel. Suponhamos agora AB = In. Pela primeira parte do corola´rio, sabemos que A e B sa˜o ambas invert´ıveis. Tem-se enta˜o A−1 = A−1In = A−1(AB) = (A−1A)B = InB = B. 37 O teorema e corola´rio anteriores sugerem um processo para achar a inversa de uma matriz quadrada (se essa inversa existir). O processo baseia-se no facto de que, se A for na˜o-singular, a sua inversa vai ser a matriz X que satisfaz AX = I. Designando as colunas de X por x1,x2, . . . ,xn e as colunas da matriz identidade por e1, e2, . . . , en, isto e´, e1 = 1 0 ... 0 , e2 = 0 1 ... 0 , . . . , en = 0 0 ... 1 devera´ ter-se A [x1 x2 . . . xn] = [e1 e2 . . . en] o que (pela maneira como se calcula o produto de matrizes) e´ o mesmo que ter as n igualdades Ax1 = e1 , Ax2 = e2 , . . . , Axn = en. Temos portanto, para achar as colunas da inversa de A, de resolver n sistemas, todos com a mesma matriz A. A ideia do chamado algoritmo de Gauss-Jordan e´ levar a cabo a eliminac¸a˜o em todos os n sistemas ao mesmo tempo e na˜o parar na matriz triangular U , continuando com a “eliminac¸a˜o ascendente”, usando os pivots para “criar” zeros por cima da diagonal, e finalmente, para achar os valores das inco´gnitas, dividindo cada linha pelo correspondente pivot. Os sucessivos passos sa˜o aplicados ao quadro n× 2n que tem a matriz do(s) sistema(s) a` esquerda e todos os segundos membros a` direita. Algoritmo. Ca´lculo da inversa de uma matriz: Seja dada A n × n. Para calcular a inversa de A (se existir) leva-se a cabo com a matriz n × 2n [A|I] a parte descendente do me´todo de eliminac¸a˜o de Gauss aplicado a A. Se houver menos de n pivots, A na˜o e´ invert´ıvel. Se houver n pivots, usando-os pela ordem contra´ria, anulam-se com operac¸o˜es elementares todos os elementos por cima da diagonal da matriz a` esquerda. Finalmente, divide-se cada linha pelo respectivo pivot. No fim deste processo, a matriz obtida e´ [I|A−1]. Exemplo 2.11 Seja A = 1 1 42 5 4 1 4 −2 . Pretendemos verificar se A e´ invert´ıvel e, em caso afirmativo, calcular a sua inversa. Para tal, comec¸amos por aplicar a parte descendente do me´todo de eliminac¸a˜o de 38 Gauss a` matriz [A|I] = 1 1 4 | 1 0 02 5 4 | 0 1 0 1 4 −2 | 0 0 1 . O primeiro passo consiste em adicionarmos a` segunda e terceira linhas de [A|I] a primeira linha multiplicada por −2 e −1, respectivamente. Na matriz obtida, adiciona-se a` terceira linha a segunda multiplicada por −1 : [A|I] −→ 1 1 4 | 1 0 00 3 −4 | −2 1 0 0 3 −6 | −1 0 1 −→ 1 1 4 | 1 0 00 3 −4 | −2 1 0 0 0 −2 | 1 −1 1 . Como podemos observar, ha´ treˆs pivots, 1, 3 e −2, logo A e´ invert´ıvel. Iniciamos agora a eliminac¸a˜o ascendente. Obtemos uma nova matriz, usando o pivot −2 para anular os restantes elementos da terceira coluna (adiciona-se a` segunda e primeira linhas a terceira multiplicada por −2 e 2, respectivamente). Nesta nova matriz, adicionamos a` primeira linha a segunda multiplicada por −1 3 : 1 1 0 | 3 −2 20 3 0 | −4 3 −2 0 0 −2 | 1 −1 1 −→ 1 0 0 | 133 −3 830 3 0 | −4 3 −2 0 0 −2 | 1 −1 1 . Ja´ temos do lado esquerdo uma matriz diagonal. Resta-nos dividir a segunda linha por 3 e a terceira por −2: [I|A−1] = 1 0 0 | 133 −3 830 1 0 | −4 3 1 −2 3 0 0 1 | −1 2 1 2 −1 2 . Conclu´ımos assim que A e´ invert´ıvel e a sua inversa e´ A−1 = 133 −3 83−4 3 1 −2 3−1 2 1 2 −1 2 . Exerc´ıcio 2.3 (Inversas de matrizes triangulares.) Se A for uma matriz triangular superior (resp. inferior) de elementos diagonais na˜o nulos, mostre que enta˜o A e´ invert´ıvel, A−1 tambe´m e´ triangular superior (resp. inferior) e os elementos diagonais de A−1 sa˜o os inversos dos elementos diagonais de A. Observac¸a˜o. Poderia pensar-se que, de posse deste algoritmo para calcular a inversa de uma matriz, o caminho mais ra´pido para resolver um sistema Ax = b com A na˜o-singular e´ simplesmente escrever x = A−1b. Na˜o e´ assim: na˜o e´ necessa´rio conhecer A−1 para resolver o sistema e o algoritmo baseado na factorizac¸a˜o LU e´ computacionalmente mais econo´mico. De facto, o algoritmo de Gauss-Jordan e´ apenas um processo co´modo e su- gestivo de inverter “a` ma˜o” pequenas matrizes que aparec¸am. Na pra´tica computacional 39 real, se por qualquer raza˜o for necessa´rio conhecer a inversa de uma matriz A, o que se faz e´ tambe´m usar a factorizac¸a˜o LU : escreve-se PA = LU , calcula-se L−1 e U−1 (inversas fa´ceis de encontrar — pelo algoritmo de Gauss-Jordan! — porque se trata de matrizes triangulares) e tira-se A−1 = U−1L−1P . Mas geralmente na˜o e´ A−1 que se procura, e sim um produto da forma A−1b. Nestes casos na˜o e´ necessa´rio o ca´lculo da inversa de A pois o vector A−1b pode ser obtido atrave´s da resoluc¸a˜o do sistema de equac¸o˜es lineares Ax = b. Uma aplicac¸a˜o interessante do exerc´ıcio 2.3 e´ o seguinte resultado: Teorema 2.8 (Unicidade da factorizac¸a˜o LU no caso quadrado na˜o-singular.) Se A e´ na˜o-singular, enta˜o a factorizac¸a˜o LU de A (ou de PA) e´ u´nica. Demonstrac¸a˜o. Suponhamos que PA = LU e tambe´m PA = L1U1, com L e L1 triangulares inferiores com elementos diagonais iguais a 1 e U e U1 matrizes triangulares superiores com elementos diagonais na˜o nulos. Enta˜o LU = L1U1, donde L −1 1 L = U1U −1. Nesta igualdade tem-se, no primeiro membro, uma matriz triangular inferior com elemen- tos diagonais a 1,e no segundo membro uma matriz triangular superior. Como estas duas matrizes sa˜o iguais, teˆm que ser diagonais, e os elementos diagonais teˆm que ser iguais a 1 (porque o sa˜o os do primeiro membro). Logo L−11 L = I , U1U −1 = I ou seja L1 = L , U1 = U . 40 3 Determinantes Um nu´mero e´ invert´ıvel se e so´ se for na˜o nulo. Portanto uma matriz 1× 1 e´ invert´ıvel se e so´ se for na˜o nula. No entanto, para matrizes de ordem superior tal ja´ na˜o se verifica. Por exemplo, a matriz A = [ 1 2 2 4 ] na˜o e´ invert´ıvel: basta notar que[ 1 2 2 4 ] [ 2 6 −1 −3 ] = [ 0 0 0 0 ] ; seA fosse invert´ıvel, poder´ıamos multiplicar ambos os membros desta igualdade a` esquerda por A−1 e viria [ 2 6 −1 −3 ] = [ 0 0 0 0 ] , o que e´ falso. Sera´ poss´ıvel associar a cada matriz quadrada um nu´mero, que dependa apenas dos elementos da matriz, e que nos permita decidir da sua invertibilidade? A resposta a esta questa˜o e´ afirmativa. Antes de estudarmos o assunto, vale a pena analisar em pormenor o caso 2× 2. Consideremos a matriz A = [ a11 a12 a21 a22 ] . Como vimos atra´s, A e´ invert´ıvel se e so´ se for na˜o-singular. Vejamos que condic¸o˜es devem satisfazer os nu´meros a11, a12, a21, a22 para que isso acontec¸a. Apliquemos portanto o me´todo de eliminac¸a˜o a A, supondo para ja´ que a11 e´ diferente de 0:[ a11 a12 a21 a22 ] −→ [ a11 a12 0 a22 − a21a11a12 ] = [ a11 a12 0 a11a22−a12a21 a11 ] . Conclu´ımos assim que A e´ invert´ıvel se e so´ se o nu´mero a11a22−a12a21 for diferente de 0. Facilmente se veˆ que a mesma conclusa˜o e´ va´lida no caso de a11 ser igual a 0. Existe assim um nu´mero, constru´ıdo a partir dos elementos da matriz, que nos diz se ela e´ ou na˜o invert´ıvel. A este nu´mero chamamos o determinante de A e escrevemos det(A) = a11a22 − a12a21 . Propriedades imediatas desta func¸a˜o sa˜o as seguintes: det [ a11+a ′ 11 a12+a ′ 12 a21 a22 ] =det [ a11 a12 a21 a22 ] +det [ a′11 a ′ 12 a21 a22 ] (e analogamente para a 2a linha); Sendo α ∈ R, det [ αa11 αa12 a21 a22 ] = α det [ a11 a12 a21 a22 ] (e analogamente para a 2a linha); Se as duas linhas de A forem iguais, det(A) = 0; det(I2) = 1 . Usamos estas propriedades como motivac¸a˜o para a definic¸a˜o no caso geral. 41 Definic¸a˜o 3.1 Determinante de ordem n e´ uma func¸a˜o det : Mn×n(R) −→ R A = [aij] 7−→ det(A) que a cada matriz quadrada A de ordem n sobre R faz corresponder um nu´mero real, det(A), de tal modo que as seguintes condic¸o˜es sejam satisfeitas: (d1) Para i = 1, . . . , n, e α ∈ R tem-se: det a11 . . . a1n ... . . . ... ai1 + a ′ i1 . . . ain + a ′ in ... . . . ... an1 . . . ann = det a11 . . . a1n ... . . . ... ai1 . . . ain ... . . . ... an1 . . . ann +det a11 . . . a1n ... . . . ... a′i1 . . . a ′ in ... . . . ... an1 . . . ann ; det a11 . . . a1n ... . . . ... αai1 . . . αain ... . . . ... an1 . . . ann = α det a11 . . . a1n ... . . . ... ai1 . . . ain ... . . . ... an1 . . . ann . (d2) Se A tiver duas linhas iguais, tem-se det(A) = 0. (d3) det(In) = 1. Outra notac¸a˜o para det(A) e´ |A|. Duas questo˜es surgem imediatamente: Existira´ alguma func¸a˜o nestas condic¸o˜es? Caso exista, sera´ u´nica? Ver-se-a´ que a resposta e´ afirmativa em ambos os casos. Antes, pore´m, provemos algumas propriedades que decorrem imediatamente da definic¸a˜o de func¸a˜o determinante. Teorema 3.1 Seja A ∈Mn×n(R). Enta˜o tem-se: 1. Se uma linha de A for mu´ltipla de outra linha de A enta˜o det(A) = 0. Em particular, det(A) = 0 se A tiver uma linha nula. 2. O determinante muda de sinal quando se trocam entre si duas linhas de A. 3. Se P for uma matriz de permutac¸a˜o, tem-se det(P ) = ±1. 4. O determinante na˜o se altera se a uma linha de A adicionarmos um mu´ltiplo de outra linha de A. 42 Demonstrac¸a˜o. Designe-se por Lk a linha k da matriz A, k = 1, . . . , n. Suponha-se, sem perda de generalidade, 1 ≤ i < j ≤ n. 1. Seja Li = αLj, para algum α ∈ R. Enta˜o, por (d1) e (d2), tem-se det(A) = det L1 ... αLj ... Lj ... Ln = α det L1 ... Lj ... Lj ... Ln = α0 = 0. 2. Usando repetidamente (d1) e (d2), obte´m-se 0 = det L1 ... Li + Lj ... Li + Lj ... Ln = det L1 ... Li ... Li ... Ln + det L1 ... Li ... Lj ... Ln + det L1 ... Lj ... Li ... Ln + det L1 ... Lj ... Lj ... Ln = = 0 + det L1 ... Li ... Lj ... Ln + det L1 ... Lj ... Li ... Ln + 0. Logo, pode concluir-se que det L1 ... Li ... Lj ... Ln = − det L1 ... Lj ... Li ... Ln . 43 3. Seja P uma matriz de permutac¸a˜o de ordem n. Enta˜o P obte´m-se de In por troca de linhas. Como, por (d3), det(In) = 1, da propriedade anterior conclui-se que det(P ) = 1 ou −1, consoante P for obtida de In atrave´s de, respectivamente, um nu´mero par ou ı´mpar de trocas de linhas. 4. Seja α ∈ R. Enta˜o, por (d1), tem-se det L1 ... Li + αLj ... Lj ... Ln = det L1 ... Li ... Lj ... Ln + α det L1 ... Lj ... Lj ... Ln = det(A), uma vez que, por (d2), a segunda parcela desta soma e´ nula. Temos usado a palavra “permutac¸a˜o” com o seu significado usual de “troca”. Em Matema´tica este termo tem um significado preciso que passamos a definir. Definic¸a˜o 3.2 Uma permutac¸a˜o do conjunto {1, . . . , n} e´ uma func¸a˜o bijectiva deste conjunto nele pro´prio. Designa-se por Sn o conjunto de todas as permutac¸o˜es do conjunto {1, . . . , n}. A permutac¸a˜o identidade designa-se por id. Dada σ ∈ Sn, e´ usual representa´-la da seguinte forma: σ = ( 1 2 3 . . . n σ1 σ2 σ3 . . . σn ) ou, simplesmente, σ = (σ1, σ2, σ3, . . . , σn), onde σ1 = σ(1), σ2 = σ(2), σ3 = σ(3), . . . , σn = σ(n). Como e´ fa´cil de ver, o cardinal de Sn e´ n!. Dada uma matriz de permutac¸a˜o P , sabemos que P pode ser obtida de In por trocas de linhas. Existem, possivelmente, va´rias estrate´gias de trocas para o fazer. E´ no entanto poss´ıvel provar7 que P na˜o pode ser simultaneamente obtida de In por um nu´mero par e ı´mpar de trocas de linhas. Podemos enta˜o apresentar a seguinte definic¸a˜o: 7A demonstrac¸a˜o deste facto esta´ fora do aˆmbito deste curso. 44 Definic¸a˜o 3.3 Dada uma permutac¸a˜o σ = (σ1, . . . , σn) ∈ Sn, seja P(σ1,...,σn) a ma- triz de permutac¸a˜o obtida por aplicac¸a˜o da permutac¸a˜o σ a`s linhas de In. Dizemos que σ tem sinal 1 ou −1 (abreviadamente, sgn(σ) = ±1) consoante P for obtida de In por um nu´mero par ou ı´mpar de trocas de linhas, respectivamente. Exemplo 3.1 Seja σ a permutac¸a˜o de {1, 2, 3} definida por σ(1)=2, σ(2)=3 e σ(3)=1. Na nossa notac¸a˜o, σ = (2, 3, 1). A matriz de permutac¸a˜o que lhe corresponde e´ P(2,3,1) = 0 1 00 0 1 1 0 0 . O sinal de σ e´ +1, porque P(2,3,1) se pode obter de I3 atrave´s de duas trocas de linhas. Regressemos aos determinantes. Usando apenas a definic¸a˜o e as propriedades ime- diatas dela resultantes, vamos mostrar que, se a func¸a˜o determinante de ordem n existir, e´ u´nica e dada por det([aij]) = ∑ σ=(σ1,...,σn)∈Sn sgn(σ) a1σ1a2σ2 . . . anσn . Ilustremos o caso geral com o caso n = 2. Seja f : M2×2(R) −→
Compartilhar