Baixe o app para aproveitar ainda mais
Prévia do material em texto
UFRJ - Campus Macaé Notas de aula de Álgebra Linear: versão 3 Jefferson Ribeiro Nogueira Pretendo aqui organizar notas de aula da disciplina MCG120 Álgebra Linear, cur- sada por alunos do 2o período dos cursos de Engenharia Civil, Engenharia de Pro- dução e Engenharia Mecânica do Campus Macaé da UFRJ. Divirta-se! Macaé, 2017-202? Sumário 1 Matrizes e sistemas lineares 3 1.1 Corpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2 Matrizes e suas operações . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.3 Matrizes inversíveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.4 Sistemas lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.5 Operações elementares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.6 Matrizes inversíveis: revisitado . . . . . . . . . . . . . . . . . . . . . . . . . 24 1.7 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.8 Exercícios do capítulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2 Espaços vetoriais sobre um corpo 36 2.1 Espaços e subespaços vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.2 Dependência e independência linear . . . . . . . . . . . . . . . . . . . . . . 41 2.3 Base e dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 2.4 Coordenadas e mudança de base . . . . . . . . . . . . . . . . . . . . . . . . 54 2.5 Exercícios do Capítulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3 Transformações lineares 61 3.1 Definição e propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 3.2 Teorema do núcleo e da imagem . . . . . . . . . . . . . . . . . . . . . . . . 65 3.3 Matriz de uma transformação linear . . . . . . . . . . . . . . . . . . . . . . 65 2 Capítulo 1 Matrizes e sistemas lineares (...) 1.1 Corpos Definição 1.1.1. Um conjunto K munido de uma operação adição +: K × K −→ K e de uma operação multiplicação . : K × K −→ K é dito um corpo comutativo, ou simplesmente corpo, se valem as seguintes propriedades: 1. A adição é comutativa: x+ y = y + x, para todo x, y ∈ K. 2. A adição é associativa: x+ (y + z) = (x+ y) + z, para todo x, y, z ∈ K. 3. Existe um único elemento 0 ∈ K tal que x+ 0 = x, para todo x ∈ K. 4. Para cada x ∈ K, existe um único elemento y ∈ K tal que x + y = 0. Denotamos este elemento y por −x. 5. A multiplicação é comutativa: x.y = y.x, para todo x, y ∈ K. 6. A multiplicação é associativa: x.(y.z) = (x.y).z, para todo x, y, z ∈ K. 7. Existe um único elemento não-nulo 1 ∈ K tal que x.1 = x, para todo x ∈ K. 8. Para cada x ∈ K\{0}, existe um único elemento y ∈ K tal que x.y = 1. Denotamos este elemento y por x−1. 9. A multiplicação é distributiva: x.(y + z) = x.y + x.z, para todo x, y, z ∈ K. 3 4 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES Exemplo 1.1.1. 1. O conjunto N de todos os números naturais, com as operações usuais de adição e de multiplicação, não é um corpo. 2. Os conjuntos Q dos números racionais, R dos números reais e C dos números complexos, com as operações usuais de adição e de multiplicação, são corpos, e tem- se: Z ⊂ Q ⊂ R ⊂ C. 3. Q( √ 2) = {x+ √ 2y;x, y ∈ Q} é um corpo com as operações de adição e de multipli- cação análogas as operações usuais de C. 4. Consideremos o conjunto Z2 = {0, 1} com as operações de adição e de multiplicação dadas respectivamente pelas tabelas abaixo: + 0 1 0 0 1 1 1 0 e . 0 1 0 0 0 1 0 1 Verifique que Z2, com essas operações, é um corpo. 5. Fixado m ∈ N, consideremos o conjunto Zm = {0, 1, . . . ,m− 1}, com as operações de adição e de multiplicação definidas abaixo: x⊕ y = menor resto positivo da divisão x+ y m e x� y = menor resto positivo da divisão x.y m . Por exemplo, em Z12, temos 3⊕ 11 = 2 e 3� 11 = 9. Para alguns valores diferentes de m, reflita se Zm é ou não um corpo! Verifique, por exemplo, que Z3 é um corpo e que Z4 não o é. Exercícios 1. O conjunto de todos os números inteiros é um corpo? E o conjunto Q \ {0}? Justifique! 2. Seja F = {(x, y);x, y ∈ R} (conjunto de todos os pares ordenados (x, y) de números reais, ou seja, o plano cartesiano R2). 1.2. MATRIZES E SUAS OPERAÇÕES 5 (a) Com as operações de adição e de multiplicação definidas por (x1, y1) + (x2, y2) = (x1 + x2, y1 + y2) e (x1, y1).(x2, y2) = (x1x2, y1y2), F é um corpo? (b) Agora, com as operações de adição e de multiplicação definidas por (x1, y1) + (x2, y2) = (x1 + x2, y1 + y2) e (x1, y1).(x2, y2) = (x1x2 − y1y2, x1y2 + x2y1), verifique que F é um corpo. Este é o corpo C! Você acredita nisso? Pense nas operações usuais do corpo C e compare com as definidas acima. 1.2 Matrizes e suas operações Seja K um corpo. Uma matriz sobre K é uma tabela de elementos em K dispostos em linhas e em colunas. Representamos uma matriz de m linhas e n colunas por Am×n = (aij) = a11 a12 . . . a1n a21 a22 . . . a2n ... ... . . . ... am1 am2 . . . amn onde, para cada i = 1, 2, . . . ,m e j = 1, 2, . . . , n, aij ∈ K é o termo na i-ésima linha e na j-ésima coluna. Uma matriz sobre K será chamada simplesmente matriz ou, quando não houver dúvi- das sobre o corpo em questão, ou quando não for importante diferenciar. Exemplo 1.2.1. Para a matriz A = 1 2 3 6 5 4 , temos a13 = 3, a21 = 6 e a23 = 4. Dizemos que duas matrizes Am×n = (aij) e Br×s = (bij) são iguais se m = r, n = s e aij = bij para todo i, j. 6 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES Exemplo 1.2.2. As matrizes A = 32 cos(0) log2(1) 2 23 ( √ 5)2 e B = 9 1 0 2 8 5 são iguais. Definição 1.2.1. Tipos de matrizes: 1. Uma matriz Am×n é dita quadrada quando o seu número de linhas é igual ao seu número de colunas, isto é, m = n. A diagonal principal de uma matriz quadrada A é a diagonal que contém os elementos da forma aii. 2. Uma matriz Am×n = (aij) é dita nula se aij = 0 para todo i = 1, 2, . . . ,m e j = 1, 2, . . . , n. Quando não houver dúvidas sobre a ordem da matriz nula, a denotaremos simples- mente por 0. 3. Uma matriz Am×n = (aij) é dita matriz-coluna quando n = 1, isto é, possui uma única coluna. 4. Uma matriz Am×n = (aij) é dita matriz-linha quando m = 1, isto é, possui uma única linha. 5. Uma matriz quadrada Am×m = (aij) é dita diagonal se aij = 0 para todo i 6= j. 6. A matriz quadrada Am×m = (aij) cujo todo elemento da diagonal principal é igual a 1 é chamada identidade ou matriz unidade, a qual denotamos por Im, ou simplesmente por I. 7. Uma matriz quadrada Am×m = (aij) é dita triangular superior se aij = 0 para todo i > j, ou seja, todos os elementos abaixo da diagonal principal são nulos. 8. Uma matriz quadrada Am×m = (aij) é dita triangular inferior se aij = 0 para todo i < j, ou seja, todos os elementos acima da diagonal principal são nulos. 9. Dada uma matriz Am×n = (aij), real ou complexa, definimos: (a) A matriz n×m At = (bij) cujas linhas são as colunas de A, ou seja, bij = aji para todo i = 1, 2, . . . ,m e j = 1, 2, . . . , n. At é chamada matriz transposta de A. 1.2. MATRIZES E SUAS OPERAÇÕES 7 (b) A matriz n ×m A∗ = At, onde a barra representa a conjugação complexa, ou seja, se A = (aij) então A∗ = (bij) com bij = aji para todo i = 1, 2, . . . ,m e j = 1, 2, . . . , n. A∗ é chamada matriz transposta Hermitiana de A. 10. Uma matriz quadrada Am×m = (aij), real ou complexa, é dita simétrica se At = A, ou seja, se aji = aij para todo i, j = 1, 2, . . . ,m. 11. Uma matriz quadrada Am×m = (aij), real ou complexa, é dita anti-simétrica se At = −A, ou seja, se aji = −aij para todo i, j = 1, 2, . . . ,m. 12. Uma matriz complexa quadrada Am×m = (aij) é dita Hermitiana se A∗ = A, ou seja, se aji = aij para todo i, j = 1, 2, . . . ,m. 13. Uma matriz complexa quadrada Am×m = (aij) é dita anti-Hermitiana se A∗ = −A, ou seja, se aji = −aij para todo i, j = 1, 2, . . . ,m. Exemplo 1.2.3. 1. A = 2 i −i 0 e B = 1 −2 0 3 0 i i 5 6 são matrizes quadradas. 2. A2×1 = 0 0 , B1×3 = ( 0 0 0 ), C2×2 = 0 0 0 0 e D3×4 = 0 0 0 0 0 0 0 0 0 0 0 0 são matrizes nulas. 3. 1 i e a b c são matrizes-coluna. 4. ( 1 i ) e ( a b c ) são matrizes-linha. 5. A = 0 0 0 0 , B = i 0 0 1 , C = 1 0 0 0 2 0 0 0 3 são matrizes diagonais. 6. I2 = 1 0 0 1 e I3 = 1 0 0 0 1 0 0 0 1 são matrizes identidade. 8 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES 7. A = 1 2 0 3 e B = a b 0 0 c d 0 0 e são matrizes triangulares superiores. 8. A = 1 0 2 3 e B = a 0 0 b c 0 0 d e são matrizes triangulares inferiores. 9. Para A = 2 −i 0 3 −1 + i 4 temos At = 2 0 −1 + i −i 3 4 e A∗ = 2 0 −1− i i 3 4 . Em particular, vemos que, em geral, At 6= A∗. 10. A = 1 0 0 2 e B = 4 3 −i 3 2 0 −i 0 5 e C = a b c d b e f g c f h i d g i j são matrizes simétri- cas. 11. A = 0 −1 1 0 e B = 0 2− i −3 −2 + i 0 i 3 −i 0 são matrizes anti-simétricas. 12. A = 1 1− i 2 1 + i 3 i 2 −i 0 é uma matriz Hermitiana. 13. A = i 1− i 2 −1− i 3i i −2 i 0 é uma matriz anti-Hermitiana. Observação 1.2.1. 1. Os elementos da diagonal principal de uma matriz anti-simétrica são todos nulos. 2. Os elementos da diagonal principal de uma matriz Hermitiana são todos reais. 3. Os elementos da diagonal principal de uma matriz anti-Hermitiana são ou nulos ou imaginários puros. 1.2. MATRIZES E SUAS OPERAÇÕES 9 Demonstração. 1. Se A = (aij) é uma matriz anti-simétrica então aji = −aij para todo i, j. Em particular, aii = −aii para todo i, portanto 2aii = 0 para todo i, e logo aii = 0 para todo i, ou seja, os elementos da diagonal principal de A são todos nulos. 2. Exercício. 3. Exercício. Proposição 1.2.1. Dada uma matriz qualquer A, valem as seguintes propriedades: 1. (At)t = A; 2. (A∗)∗ = A. Demonstração. 1. Se A = (aij) então At = (aji), e portanto (At)t = (aji)t = (aij) = A. 2. Exercício. Operações entre matrizes A adição de duas matrizes de mesma ordem m× n A = (aij) e B = (bij) é a matriz de ordem m× n cujos elementos são somas dos elementos correspondentes, ou seja A+B = (aij + bij). Exemplo 1.2.4. Para as matrizes A = 1 3 5 2 4 6 e B = 1 0 1 0 1 1 temos A+B = 1 + 1 3 + 0 5 + 1 2 + 0 4 + 1 6 + 1 = 2 3 6 2 5 7 . A diferença de duas matrizes de mesma ordem é definida de maneira análoga à soma. A multiplicação de um número α por uma matriz A = (aij) é definida por α.A = (α.aij). Exemplo 1.2.5. Para a unidade imaginária i e a matriz A = 1 i i −3 temos i.A = i 1 i i −3 = i −1 −1 −3i . 10 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES Dadas as matrizes de A = (aij) de ordem m×n e B = (brs) de ordem n×p, definimos a multiplicação A.B como a matriz de ordem m× p definida por A.B = (cuv), onde cuv = n∑ k=1 aukbkv = au1b1v + au2b2v + · · ·+ aunbnv, para u = 1, . . . ,m e v = 1, . . . , p. c11 c12 . . . c1p c21 c22 . . . c2p ... ... . . . ... cm1 cm2 . . . cmp = a11 a12 . . . a1n a21 a22 . . . a2n ... ... . . . ... am1 am2 . . . amn . b11 b12 . . . b1p b21 b22 . . . b2p ... ... . . . ... bn1 bn2 . . . bnp Exemplo 1.2.6. Para as matrizes A = 2 1 4 2i 5 3 e B = 1 −1 0 4i temos A.B = 2.1 + 1.0 2.(−1) + 1.(4i) 4.1 + (2i).0 4.(−1) + (2i).(4i) 5.1 + 3.0 5.(−1) + 3.(4i) = 2 −2 + 4i 4 −12 5 −5 + 12i . Neste caso, não faz sentido considerar a multiplicação B.A. Observação 1.2.2. 1. A multiplicação de matrizes, em geral, não é comutativa. Por exemplo, para as matrizes A = 1 1 −1 0 e B = 0 3 0 5 tem-se A.B = 0 8 0 −3 e B.A = −3 0 −5 0 . 2. Pode ocorrer A.B = 0 sem que A e B sejam nulas. Por exemplo, as matrizes A = 9 0 0 0 e B = 0 0 0 8 são não-nulas, e tem-se A.B = 0 0 0 0 . 1.2. MATRIZES E SUAS OPERAÇÕES 11 Proposição 1.2.2. Sejam A, B e C matrizes de ordens adequadas, 0 a matriz nula, I a matriz identidade e números α, β ∈ C. Então valem as seguintes propriedades: 1. A+B = B + A. 2. A+ (B + C) = (A+B) + C. 3. A+ 0 = A. 4. (A+B)t = At +Bt. 5. 0.A = 0. 6. α.(A+B) = α.A+ α.B. 7. (α + β).A = α.A+ β.A. 8. α.(β.A) = (α.β).A. 9. (α.A)t = α.At e (α.A)∗ = α.A∗. 10. A.I = A e I.A = A. 11. A.(B + C) = A.B + A.C. 12. (A+B).C = A.C +B.C. 13. A.(B.C) = (A.B).C. 14. (A.B)t = Bt.At e (A.B)∗ = B∗.A∗. Demonstração. Exercício. Exercícios 1. Determine as matrizes A = (aij) e B = (bij), de ordem 5, onde aij = 1, se |i− j| > 1 −1, se |i− j| ≤ 1 e bij = 1, se |i− j| < 2 0, se |i− j| ≥ 2 . 2. Dadas as matrizes A = a+ 2b 2a− b 2c+ d c− 2d e B = 9 −2 4 7 , existem números a, b, c, d tais que A = B? 12 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES 3. Determine todas as matrizes X tais que Y X = 0, onde X = a b c e Y = ( 1 1 −1 ) . 4. Dadas as matrizes A(t) = cos(t) − sen(t) sen(t) cos(t) , X = 1 1 e Y = −1 1 , existem números t tais que A(t).X = Y ? Agora, para uma matriz-coluna arbitrária X = x y , determine os produtos A(π/4).X e A(−π/2).X Com base nos resultados encontrados acima, para cada t ∈ R fixo, qual será o significado geométrico de multiplicar a matriz A(t) à esquerda por uma matriz coluna? 5. Dadas as matrizes A = −2 3 2 −3 , B = −1 3 2 0 e C = −4 −3 0 −4 , verifique que AB = AC. Esse exercício mostra que, em geral, não vale a lei do cancelamento para o produto de matrizes. 6. Dada a matriz A = 2 1 1 2 , determine, se possível, as matrizes B, de ordem 2, tais que AB −BA = 0. 7. Verdadeiro ou falso? Prove quando a afirmação for verdadeira, e justifique ou apre- sente um contra-exemplo, quando for falsa. (a) Se AB = 0 então A = 0 ou B = 0; (b) (aA)(bB) = (ab)AB; (c) Se AB = 0 então BA = 0; (d) (−A)t = −(At); 1.3. MATRIZES INVERSÍVEIS 13 (e) (A+B)t = Bt + At; (f) Se A e B são matrizes simétricas, então AB = BA; 8. Mostre que as matrizes A = 1 −1 2 −1 e B = 1 1 4 −1 são anti-comutativas (isto é, AB = −BA). Conclua que vale a relação (A+B)2 = A2 +B2. 9. Sejam A e B matrizes de ordem n. Qual a condição para que (A+B)(A−B) = A2 −B2 e (A+B)2 = A2 + 2AB +B2? 10. Para t ∈ R fixado, consideremos a matriz A = cos(t) − sen(t) sen(t) cos(t) . (a) Determine A2 e A3; (b) Descreva, se possível, uma expressão para Ak com k ∈ N (Dica: Simplifique utilizando uma identidade trigonométrica). 11. Para uma matriz complexa quadrada, ser Hermitiana é o mesmo que ser simétrica? Pense em exemplos! 12. Sejam A e B matrizes quadradas de ordem n. Se A é Hermitiana então B∗AB também o é. 1.3 Matrizes inversíveis Definição 1.3.1. Seja A uma matriz quadrada de ordem m×m. Dizemos que A possui uma inversa à esquerda se existir uma matriz B, de mesma ordem, tal que B.A = Im. Dizemos que A possui uma inversa à direita se existir uma matriz C, de mesma ordem, tal que A.C = Im. 14 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES Dizemos que A é inversível quando possuir uma inversa à esquerda e uma inversa à direita. Lema 1.3.1. Se A possuir uma inversa à esquerda B e uma inversa à direita C, então B = C. Demonstração. Por hipótese, temos B.A = Im e A.C = Im, portanto B = B.Im = B.(A.C) = (B.A).C = Im.C = C. Com o raciocínio acima mostra-se que, se A é inversível então a sua inversa é única, e a denotaremos por A−1. Exemplo 1.3.1. A matriz B = 3 −5 −1 2 é a matriz inversa de A = 2 5 1 3 . Verifique! Observação 1.3.1. Nem toda matriz é inversível! Vejamos, por exemplo, que A = 0 2 0 1 não possui uma inversa. De fato, suponhamos que existauma matriz B = a b c d tal que 1 0 0 1 = 0 2 0 1 . a b c d = 2c 2d c d , portanto c = 12 , d = 0, c = 0 e d = 1, o que é uma contradição! Logo, não existe uma tal matriz B. Proposição 1.3.1. Sejam A e B duas matrizes quadradas de ordem m. 1. Se A é uma matriz inversível, então A−1 também o é, e (A−1)−1 = A. 2. Se A e B são matrizes inversíveis, então a matriz multiplicação A.B também o é, e (A.B)−1 = B−1.A−1. Demonstração. 1. Segue diretamente da definição de inversibilidade de uma matriz. 1.3. MATRIZES INVERSÍVEIS 15 2. Sejam A e B são matrizes inversíveis. Para verificar que a matriz produto A.B possui inversa, e a inversa é B−1.A−1, basta verificar que, ao multiplicar esta à esquerda e depois à direita pela matriz A.B obtemos a matriz identidade. Temos (A.B).(B−1.A−1) = A.(B.B−1).A−1 = A.I.A−1 = A.A−1 = I e (B−1.A−1).(A.B) = B−1.(A−1.A).B = B−1.I.B = B−1.B = I. Corolário 1.3.1. A multiplicação de um número finito de matrizes inversíveis é também uma matriz inversível. Agora, como saber se uma matriz quadrada possui ou não uma matriz inversa? E, em caso afirmativo, como será possível encontrar a tal matriz inversa? Nas próximas seções veremos como responder a essas perguntas. Exercícios 1. Determine a inversa da matriz A = 1 3 2 8 . 2. Considere a matriz A = a b c d , com ad− bc 6= 0. Mostre que A−1 = 1 ad− bc d −b −c a . 3. Verdadeiro ou falso? Prove quando a afirmação for verdadeira, e justifique ou apre- sente um contra-exemplo, quando for falsa. (a) Se A é uma matriz inversível, então (A−1)t = (At)−1; (b) Se A é uma matriz de ordem 3 triangular superior inversível, então A−1 também é uma matriz triangular superior. 16 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES 1.4 Sistemas lineares Um sistema linear com m equações e n incógnitas é um conjunto de equações da forma: (S) a11x1 + a12x2 + · · ·+ a1nxn = b1 a21x1 + a22x2 + · · ·+ a2nxn = b2 ... am1x1 + am2x2 + · · ·+ amnxn = bm , onde aij, bj são números fixados em um conjunto numérico (em geral, o conjunto dos números reais ou o conjunto dos números complexos), para todo i, j. Quando os números b1, b2, . . . , bm são todos nulos, dizemos que o sistema linear é homogêneo. Uma solução de um sistema linear (S) é uma n-upla (ou seja, um vetor de n coordenadas) de números (x1, x2, . . . , xn) que satisfazem a todas as m equações simulta- neamente. O conjunto-solução de um sistema linear (S) consiste de todas as soluções do sistema. Exemplo 1.4.1. {(0, 0)} é o conjunto-solução do sistema linear x1 + x2 = 0 x1 − x2 = 0 . Dois sistemas de equações lineares são ditos equivalentes quando eles possuem o mesmo conjunto-solução. Podemos reescrever um sistema linear (S) como a equação matricial A.X = B, onde A = a11 a12 . . . a1n a21 a22 . . . a2n ... ... . . . ... am1 am2 . . . amn , X = x1 x2 ... xn e B = b1 b2 ... bm . 1.5. OPERAÇÕES ELEMENTARES 17 Além disso, a um sistema linear (S), ou à equação matricial correspondente, associa- mos a seguinte matriz de ordem m× (n+ 1) a11 a12 . . . a1n b1 a21 a22 . . . a2n b2 ... ... . . . ... ... am1 am2 . . . amn bm a qual denominamos matriz aumentada (ou ampliada) do sistema, e a denotamos por (A|B). Um sistema linear (S) pode ser classificado de uma das seguintes maneiras: • Sistema possível e determinado, se possuir uma única solução; • Sistema possível e indeterminado, se possuir infinitas soluções; • Sistema impossível, se não possuir solução. Na próxima seção veremos como determinar,quando possível, de maneira algorítmica, o conjunto-solução de um sistema de equações lineares. 1.5 Operações elementares Dada uma matriz Am×n, para cada i = 1, 2, . . . ,m, denotemos por Li a i-ésima linha de A. Consideremos as operações elementares sobre as linhas de A da seguinte forma: 1. Multiplicação da linha Li por um número não-nulo c: Li −→ c.Li; 2. Substituição de Li por Li + c.Lj (j 6= i e c não-nulo): Li −→ Li + c.Lj; 3. Permutação de linhas: Li ←→ Lj. Diremos que duas matrizes A e B, de ordem m × n, são linha-equivalentes (ou equivalentes por linhas) quando B puder ser obtida de A através de um número finito de operações elementares sobre as linhas. Exemplo 1.5.1. As matrizes 1 0 2 1 −2 3 e 1 0 0 1 0 0 são linha-equivalentes. 18 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES De fato, 1 0 2 1 −2 3 −→ 1 0 0 1 −2 3 −→ 1 0 0 1 0 3 −→ 1 0 0 1 0 0 . Adicionalmente, ao considerar os sistemas lineares homogêneos correspondentes: x1 = 0 2x1 + x2 = 0 −2x1 + 3x2 = 0 e x1 = 0 x2 = 0 , observamos que ambos têm o mesmo conjunto-solução, a saber {(0, 0)}. Como veremos em seguida, o fato ocorrido no exemplo anterior vale em geral. Ou seja, ao efetuar operações elementares em uma matriz, visando obter uma matriz mais simples (em um sentido que ficará claro em breve), o conjunto-solução dos sistemas linearaes homogêneos associados às matrizes será o mesmo. Teorema 1.5.1. Sejam A e B duas matrizes m×n linha-equivalentes. Então os sistemas lineares homogêneos A.X = 0 e B.X = 0 possuem as mesmas soluções. Demonstração. Dar a ideia da prova em aula. Exemplo 1.5.2. Determine o conjunto-solução real do sistema linear homogêneo (S) 2x1 − x2 + 3x3 + 2x4 = 0 x1 + 4x2 − x4 = 0 2x1 + 6x2 − x3 + 5x4 = 0 . A estratégia será, utilizando o teorema anterior, efetuar uma sequência finita de ope- rações elementares nas linhas da matriz dos coeficientes de modo que a matriz resultante corresponda a um sistema linear homogêneo de fácil resolução. A matriz dos coeficientes associada ao sistema linear homogêneo (S) é 2 −1 3 2 1 4 0 −1 2 6 −1 5 . Afirmamos que as matrizes 2 −1 3 2 1 4 0 −1 2 6 −1 5 e 1 0 0 17/3 0 1 0 −5/3 0 0 1 −11/3 são linha- equivalentes. 1.5. OPERAÇÕES ELEMENTARES 19 De fato, 2 −1 3 2 1 4 0 −1 2 6 −1 5 −→ 0 −9 3 4 1 4 0 −1 2 6 −1 5 −→ 0 −9 3 4 1 4 0 −1 0 −2 −1 7 −→ 0 −9 3 4 1 4 0 −1 0 1 1/2 −7/2 −→ 0 −9 3 4 1 0 −2 13 0 1 1/2 −7/2 −→ 0 0 15/2 −55/2 1 0 −2 13 0 1 1/2 −7/2 −→ 0 0 1 −11/3 1 0 −2 13 0 1 1/2 −7/2 −→ 0 0 1 −11/3 1 0 0 17/3 0 1 1/2 −7/2 −→ 0 0 1 −11/3 1 0 0 17/3 0 1 0 −5/3 −→ 1 0 0 17/3 0 0 1 −11/3 0 1 0 −5/3 −→ 1 0 0 17/3 0 1 0 −5/3 0 0 1 −11/3 Agora o sistema linear homogêneo correspondente à matriz 1 0 0 17/3 0 1 0 −5/3 0 0 1 −11/3 é (S ′) x1 + 173 x4 = 0 x2 − 53x4 = 0 x3 +−113 x4 = 0 , cujo conjunto-solução é:{( −173 α, 5 3α,− 11 3 α, α ) ;α ∈ R } = { α. ( −173 , 5 3 ,− 11 3 , 1 ) ;α ∈ R } . Logo, pelo Teorema 1.5.1, os sistemas lineares homogêneos (S) e (S ′) possuem o mesmo o conjunto-solução. Definição 1.5.1. Uma matriz R de ordem m × n é dita linha-reduzida à forma escada (ou escalonada) quando satisfaz simultaneamente as quatro condições abaixo: 1. O primeiro elemento não-nulo em cada linha não-nula da matriz R é igual a 1; 2. Cada coluna da matriz R que contém o primeiro elemento não-nulo de alguma linha têm todos os seus outros elementos nulos; 20 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES 3. Toda linha nula da matriz R ocorre abaixo de todas as linhas não-nulas; 4. Se as linhas 1, 2, . . . , r são as linhas não-nulas da matriz R, e se o primeiro elemento não-nulo da linha i ocorrer na coluna ki, para i = 1, 2, . . . , r, então k1 < k2 < · · · < kr. Exemplo 1.5.3. As matrizes abaixo são linha-reduzidas à forma escada: 1. Matriz nula; 2. Matriz identidade; 3. 1 0 0 1 0 0 ; 4. 1 2 0 0 0 0 1 0 0 0 0 1 ; 5. 0 1 −3 0 1 0 0 0 1 2 0 0 0 0 0 Exemplo 1.5.4. As matrizes abaixo não são linha-reduzidas à forma escada: 1. 0 2 1 1 0 −3 0 0 0 ; 2. 1 0 0 0 0 1 −1 0 0 0 1 0 ; 3. 0 1 −3 0 1 0 0 0 0 0 0 0 0 −2 1 Teorema 1.5.2. Toda matriz A de ordem m×n é linha-equivalente a uma matriz linha- reduzida à forma escada. Demonstração. Vamos começar mostrando que a matriz A é linha-equivalente a uma matriz satisfazendo as duas primeiras condições da definição de matriz linha-reduzida à forma escada. Se todo elemento na primeira linha da matriz A é nulo, não há o que fazer. Senão, se L1 tem um elemento não-nulo, seja a1k1 o seu primeiro (da esquerda para a direita) elemento não-nulo, e apliquemos a A a operação elementar L1 −→ 1a1k1 .L1. 0 . . . 0 a1k1 . . . a1n a21 . . . . . . a2k1 . . . a2n ... ... ... ... ... ... am1 . . . . . . amk1 . . . amn −→ 0 . . . 0 1 . . . a1n a1k1 a21 . . . . . . a2k1 . . . a2n ... ... ... ... ... ... am1 . . . . . . amk1 . . . amn 1.5. OPERAÇÕES ELEMENTARES 21 Para anular todos os outros elementos da coluna k1, efetuemos, para cada i = 2, 3, . . . ,m, a operação elementar Li −→ Li − aik1L1. 0 . . . 0 1 . . . a1n a1k1 a21 . . . . . . a2k1 . . . a2n ... ... ... ... ... ... am1 . . . . . . amk1 . . . amn −→ 0 . . . 0 1 . . . a1n a1k1 a21 . . . . . . 0 . . . a2n − a2k1 .a1n1k1 ... ... ... ... . . . ... am1 . . . . . . 0 . . . amn − amk1 .a1n1k1 Vamos a próxima linha. Se todo elemento de L2 for nulo, não há o que fazer. Senão, seja a2k2 o seu primeiro (da esquerda para a direita) elemento não-nulo, e apliquemos a A a operação elementar L2 −→ 1a2k2 .L2. Em seguida, para i = 1, 3, 4, . . . ,m, apliquemos à A a operação elementar Li −→ Li − aik2L2. Assim, o elemento a2k2 passará a ser 1, e todo outro elemento da coluna k2 passará a ser nulo. Repetindo esse processo até a última linha, obtemos uma matriz satisfazendo as pro- priedades (1) e (2) da definição de matriz linha-reduzida à forma escada. Agora, efetuando uma série de permutações entre linhas, passará a satisfazer também as propriedades (3) e (4). Observação 1.5.1. Seja R uma matriz de ordem m× n linha-reduzida à forma escada. Se o número r de linhas não-nulas da matriz R é menor do que n, então o sistemas linha homogêneo correspondente R.X = 0 possui uma solução (e portanto infinitas) não-trivial. Para simplificar o entendimento do que ocorre no caso geral, vejamos inicialmente o exemplo da matriz R = 0 1 −3 0 1 0 0 0 1 2 0 0 0 0 0 , a qual é linha-reduzida à forma escada e o número de linhas não-nulas é menor do que o número de colunas, e corresponde ao sistema linear homogêneo x2 − 3x3 + x5 = 0 x4 + 2x5 = 0 . Para cada α, β, γ ∈ R, se x1 = α, x3 = β e x5 = γ então x2 = 3β − γ e x4 = −2γ, portanto o conjunto-solução do sistema é: {(α, 3β − γ, β,−2γ, γ) ;α, β, γ ∈ R} . 22 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES Teorema 1.5.3. Um sistema linear homogêneo com mais incógnitas do que equações sempre possui solução não-trivial (e portanto infinitas). Precisamente, se A é uma matriz de ordem m× n com m < n, então o sistema linear homogêneo correspondente A.X = 0 possui uma solução não-trivial. Demonstração. Seja R uma matriz linha-reduzida à forma escada linha-equivalente a ma- triz A. Se r é o número de linhas não-nulas de R, então r ≤ m < n, portanto, pela observação acima, o sistema linear R.X = 0 possui uma solução não-trivial, digamos (x1, x2, . . . , xn) com xj 6= 0, para pelo menos um j = 1, 2, . . . , n. Por outro lado, pelo Teorema 1.5.1, os sistemas lineares A.X = 0 e R.X = 0 possuem as mesmas soluções, em particular, (x1, x2, . . . , xn) é uma solução não-trivial do sistema linear A.X = 0. Teorema 1.5.4. Seja A uma matriz quadrada de ordem m × m. Então a matriz A é linha-equivalente a matriz Im se, e somente se, o sistema linear homogêneo correspondente A.X = 0 possui apenas a solução trivial. Demonstração. Suponhamos que a matriz A seja linha-equivalente à matriz identidade Im. Então, pelo Teorema 1.5.1, os sistemas lineares homogêneos A.X = 0 e Im.X = 0 possuem o mesmo conjunto-solução, a saber apenas a solução trivial. Reciprocamente, suponhamos que o sistema linear A.X = 0 possua apenas a solução trivial. Seja R uma matriz quadrada de ordem m linha-reduzida à forma escada, linha- equivalente à matriz A, e seja r o número de linhas não-nulas de R. Vejamos que r = m. Como a matriz R possui m linhas, temos r ≤ m. Por outro lado, como R.X = 0 possui apenas a solução trivial (ocntrapositiva do teorema anterior), tem-se r ≥ m. Logo r = m e, pela definição de matriz linha-reduzida à forma escada, R = Im. A seguir veremos como resolver, quando possível, um sistema linear não-homogêneo A.X = Y , para matrizes A de ordem m × n e Y de ordem m × 1, utilizando operações elementares sobre as linhas da matriz aumentada (A|Y ). Seja R uma matriz m × n linha-reduzida à forma escada, linha-equivalente à matriz A, e seja Z a matriz m × 1 obtida da matriz Y atráves das mesmas operações elemen- tares aplicadas à matriz A para obter a matriz R. Analogamente a demonstração do 1.5. OPERAÇÕES ELEMENTARES 23 Teorema 1.5.1 mostra-se que os sistemas lineares não-homogêneos A.X = Y e R.X = Z possuem o mesmo conjunto-solução. Para a conveniência do leitor, vejamos isto no seguinte exemplo concreto. Escrever um simples mas instrutivo! Exemplo 1.5.5. Consideremos o sistema linear não-homogêneo x1 − 2x2 + x3 = a 2x1 + x2 + x3 = b 5x2 − x3 = c , onde a, b, c ∈ K são constantes fixadas. Este sistema linear sempre possui solução? Senão, quando possível, descreva o conjunto-solução (em termos das constantes a, b e c). Para responder a pergunta vamos efetuar operações elementares à matriz aumentada deste sistema linear: 1 −2 1 a 2 1 1 b 0 5 −1 c . 1 −2 1 a 2 1 1 b 0 5 −1 c −→ 1 −2 1 a 0 5 −1 b− 2a 0 5 −1 c −→ 1 −2 1 a 0 5 −1 b− 2a 0 0 0 c− b+ 2a −→ 1 −2 1 a 0 1 −1/5 (b− 2a)/5 0 0 0 c− b+ 2a −→ 1 0 3/5 (a+ 2b)/5 0 1 −1/5 (b− 2a)/5 0 0 0 c− b+ 2a , cujo sistema linear não-homogêneo correspondente é x1 + 35x3 = a+2b 5 x2 − 15x3 = b−2a 5 0 = c− b+ 2a , e este é um sistema possível se, e somente se, 2a− b+ c = 0. Para valores fixados a, b, c ∈ K satisfazendo 2a − b + c = 0, pondo x3 = γ tem-se x1 = −3γ + a+ 2b 5 e x2 = γ + b− 2a 5 , portanto o conjunto-solução do sistema linear original é: {( −3γ + a+ 2b 5 , γ + b− 2a 5 , γ ) ; γ ∈ K } . 24 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES Exercícios 1. Descreva todas as possíveis matrizes de ordem 2, que são linha-reduzidas à forma escada. 2. Sabemos que toda matriz é linha-equivalente a uma (única) matriz na forma escada reduzida por linhas. Para cada uma das matrizes abaixo, encontre a forma escada reduzida por linhas: (a) A = 1 −2 3 −1 2 −1 2 3 3 1 2 3 ; (b) B = 0 1 3 −2 2 1 −4 3 2 3 2 −1 ; (c) C = 2 0 i 1 −3 −i i 1 1 . 1.6 Matrizes inversíveis: revisitado Teorema 1.6.1. Para uma matriz A quadrada de ordem m são equivalentes as seguintes afirmações: 1. A é uma matriz inversível; 2. A é linha-equivalente à matriz identidade Im; 3. O sistema linear homogêneo A.X = 0 possui apenas a solução trivial; 4. Para cada matriz Y de ordem m × 1, o sistema linear não-homogêneo A.X = Y possui solução única. Demonstração. (1←→ 2) SejaR uma matriz linha-reduzida à forma escada linha-equivalente à A. Então podemos escrever R = P.A, sendo P um produto de matrizes inversíveis, uma para cada operação elementar: P = Ek . . . E1, onde, para cada i, Ei é a matriz obtida de Im pela i-ésima operação elementar feita em A para obter R. Portanto a matriz P é in- versível (Para maioresdetalhes, veja a demonstração do Teorema 9 em Hoffman/Kunze). Assim, A é inversível se, e somente se, R é inversível. Agora, sendo R inversível e linha- reduzida à forma escada, necessariamente R = Im. 1.6. MATRIZES INVERSÍVEIS: REVISITADO 25 (2 −→ 3) Conteúdo do Teorema ??, provado anteriormente. (1 −→ 4) Como A é inversível temos A.A−1 = A−1.A = Im. Então, multiplicando à esquerda por A−1 ambos os membros da igualdade A.X = Y , obtemos X = Im.X = (A−1.A).X = A−1.(A.X) = A−1.Y, a solução procurada do sistema linear não-homogêneo. (4 −→ 1) Suponhamos que, para cada matriz Y , o sistema linear não-homogêneo A.X = Y possui uma solução. Seja R uma matriz linha-reduzida à forma escada, linha-equivalente à A. Vamos mostrar que R = Im. Para isso, basta mostrar que que a última linha de R é não-nula já que, estando na forma escada, todas as linhas anteriores também serão não-nulas. Como vimos acima, podemos escrever R = P.A, onde P é uma matriz inversível. Consideremos a matriz E = 0 ... 0 1 . Notemos que o sistema linear não-homogêneo R.X = E possui solução se, e somente se, a última linha da matriz R for não-nula. Mas os sistemas lineares R.X = E e A.X = P−1.E são equivalentes (Por quê?), e este último possui solução por hipótese, logo temos o desejado. Corolário 1.6.1. Se A é uma matriz de ordem m × m inversível, uma sequência de operações elementares sobre linhas reduz A a Im, então a mesma sequência de operações elementares aplicada à Im produz A−1. Demonstração. Exercício. Exemplo 1.6.1. Verifique que a matriz A 1 0 2 2 −1 3 4 1 8 é inversível, e determine a sua inversa. Vejamos que a matriz A é inversível verificando que esta é linha-equivalente à I3. 1 0 2 2 −1 3 4 1 8 −→ 1 0 2 0 −1 −1 0 1 0 −→ 1 0 2 0 1 0 0 −1 −1 −→ 26 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES 1 0 2 0 1 0 0 0 −1 −→ 1 0 2 0 1 0 0 0 1 −→ 1 0 0 0 1 0 0 0 1 . Agora vamos determinar a matriz A−1. 1 0 0 0 1 0 0 0 1 −→ 1 0 0 −2 1 0 −4 0 1 −→ 1 0 0 −4 0 1 −2 1 0 −→ 1 0 0 −4 0 1 −6 1 1 −→ 1 0 0 −4 0 1 6 −1 −1 −→ −11 2 2 −4 0 1 6 −1 −1 . Corolário 1.6.2. Uma matriz quadrada que possui inversa à esquerda ou que possui inversa à direita, é inversível. Demonstração. Seja A uma matriz quadrada de ordem m. Suponhamos que A possui inversa à esquerda. Então existe uma matriz B de mesma ordem tal que B.A = Im, e portanto o sistema linear homogêneo A.X = 0 possui apenas a solução trivial. De fato, se X é uma solução do sistema A.X = 0 então X = Im.X = (B.A).X = B.(A.X) = B.0 = 0. Logo, pelo Teorema ??, A é uma matriz inversível. Suponhamos agora que A possui inversa à direita, ou seja, existe uma matriz C, de ordem m tal que A.C = Im. Em particular, C possui A como inversa à esquerda, portanto, pelo exposto acima, C é inversível e C−1 = A. Logo, A é uma matriz inversível com A−1 = (C−1)−1 = C. Corolário 1.6.3. Sejam A1, . . . , Ak matrizes quadradas de ordem m, e A = A1. . . . .Ak. Então a matriz A é inversível se, e somente se, cada matriz Ai é inversível. Demonstração. Exercício para k = 2. Generalize! Exercícios 1.7. DETERMINANTE 27 1. Prove que 2 −1 1 3 é uma matriz inversível (sem usar determinantes!). 2. Consideremos a matriz inversívelA = a b c d e f g h i cuja inversa éA−1 = 2 0 0 0 3 0 −1 0 5 . Determine, se possível, o conjunto-solução do sistema linear ax+ by + cz = 2 dx+ ey + fz = 1 gx+ hy + iz = 0 . 1.7 Determinante Motivação para a definição de determinante Recordemos que o determinante de uma matriz de ordem 2 a11 a12 a21 a22 é definido por a11.a22 − a12.a21. O determinante de uma matriz de ordem 3 A = a11 a12 a13 a21 a22 a23 a31 a32 a33 é definido por detA = a11a22a33 + a12a23a31 + a13a21a32 − a31a22a13 − a32a23a11 − a33a21a12 = a11(a22a33 − a23a32)− a12(a21a33 − a23a31) + a13(a21a32 − a22a31) = a11(−1)1+1 det a22 a23 a32 a33 + a12(−1)1+2 det a21 a23 a31 a33 + a13(−1)1+3 det a21 a22 a31 a32 . Definição 1.7.1. Dada uma matriz quadrada de ordem m A = (aij), denotemos por Aij a matriz de ordem m − 1 obtida de A omitindo-se a sua i-ésima linha e a sua j-ésima coluna. Definimos o cofator de A na linha i e coluna j por ∆ij = (−1)i+j detAij. 28 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES Definimos o determinante de A recursivamente por detA = m∑ j=1 a1j∆1j = a11∆11 + a12∆12 + · · ·+ a1m∆1m. Exemplo 1.7.1. Verifique que det 0 1 1 −1 3 0 1 0 1 −1 0 −2 2 −1 −1 1 = 6. Proposição 1.7.1. (Propriedades do determinante): O determinante de uma matriz qua- drada satisfaz as seguintes propriedades: 1. detAt = detA; 2. Se a matriz B é obtida da matriz A por meio da operação elementar Li −→ k.Li, onde k 6= 0, então detB = k. detA; 3. Se a matriz B é obtida da matriz A por meio da operação elementar Li −→ Li+k.Lj, onde k 6= 0 e i 6= j, então detB = detA; 4. Se a matriz B é obtida da matriz A por meio da operação elementar Li ←→ Lj, onde i 6= j, então detB = (−1). detA; 5. Se A possui uma linha (ou uma coluna) nula, então detA = 0; 6. Dadas duas matrizes A e B de mesma ordem, tem-se det(A.B) = detA. detB. Demonstração. Exercício: demonstre todas as propridades para matrizes de ordem 2. Exemplo 1.7.2. Utilizando as propriedades acima, calcule det −1 2 3 0 4 2 0 0 −1 2 −3 0 2 5 3 1 . 1.7. DETERMINANTE 29 det −1 2 3 0 4 2 0 0 −1 2 −3 0 2 5 3 1 = det −1 2 3 0 4 2 0 0 0 0 −6 0 2 5 3 1 = (−1). det 0 0 −6 0 4 2 0 0 −1 2 3 0 2 5 3 1 = (−1).(−6) det 4 2 0 −1 2 0 2 5 1 = 60. Teorema 1.7.1. (Laplace) Seja A = (aij) uma matriz quadrada de ordem m. Então: 1. Para cada i = 1, . . . ,m, detA = m∑ k=1 aik∆ik = ai1∆i1 + ai2∆i2 + · · ·+ aim∆im; 2. Para cada j = 1, . . . ,m, detA = m∑ k=1 akj∆kj = a1j∆1j + a2j∆2j + · · ·+ amj∆mj. Este teorema nos permite calcular o determinante do exemplo acima diretamente, escolhendo adequadamente uma linha ou uma coluna. Definição 1.7.2. Seja A = (aij) uma matriz quadrada. Definimos a matriz de cofatores de A por cof(A) = (∆ij) = ((−1)i+j detAij). Definimos a adjunta clássica de A por adj(A) = (cof(A))t = (∆ji). 30 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES Exemplo 1.7.3. Para a matriz 2 1 −3 0 2 1 5 1 3 , tem-se cof(A) = (∆ij) = 5 5 −10 −6 21 −2 −10 3 4 , portanto adj(A) = (cof(A))t = (∆ji) = 5 5 −10 −6 21 −2 −10 3 4 , e det(A) = 45. Logo, vale a seguinte relação: A. ( 1 detA.adj(A) ) = I3. Teorema 1.7.2. Seja A = (aij) uma matriz quadrada de ordem m. 1. Vale a relação A.adj(A) = (detA).Im; 2. A é uma matriz inversível se, e somente se, detA 6= 0. Demonstração. Para a parte (1), denotemos por (cij) o resultado da matriz produto A.adj(A) = a11 a12 . . . a1m a21 a22 . . . a2m ... ... . . . ... am1 am2 . . . amm . ∆11 ∆21 . . . ∆m1 ∆12 ∆22 . . . ∆m2 ... ... . . . ... ∆1m ∆2m . . . ∆mm . Vamos mostrar que cij = detA, se j = i 0, se j 6= i . 1.7. DETERMINANTE 31 De fato, para j = i, temos cii = ( ai1 ai2 . . . aim ) . ∆i1 ∆i2 ... ∆im = ai1∆i1 + ai2∆i2 + · · ·+ aim∆im = detA, onde a última igualdade segue do Teorema de Laplace (pelo desenvolvimento da i-ésima linha). Por outro lado, para j 6= i, temos cij = ( ai1 ai2 . . . aim ) . ∆j1 ∆j2 ... ∆jm = ai1∆j1 + ai2∆j2 + · · ·+ aim∆jm = det a11 a12 . . . a1m ... ... ... ai1 ai2 . . . aim ... ... ... ai1 ai2 . . . aim ... ... . . . ... am1 am2 . . . amm = 0, sendo a penúltima igualdadedecorrente do Teorema de Laplace (pelo desenvolvimento da j-ésima linha). Logo, A.adj(A) = detA 0 . . . 0 0 detA . . . 0 ... ... . . . ... 0 0 . . . detA = (detA).Im. 32 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES Agora, para a parte (2), suponhamos inicialmente que a matriz A seja inversível. Então existe uma matriz A−1, de ordem m, tal que A.A−1 = Im, portanto 1 = det Im = det(A.A−1) = detA. detA−1, logo detA 6= 0. Reciprocamente, se detA 6= 0, então podemos reescrever a relação da parte (1) como A. ( 1 detA.adj(A) ) = Im, isto é, A possui uma inversa à direita, e portanto é inversível. Exercícios 1. Verdadeiro ou falso? Prove quando a afirmação for verdadeira, e justifique ou apre- sente um contra-exemplo, quando for falsa. (a) det(A.B) = det(B.A); (b) det(A+B) = detA+ detB; (c) det(A∗) = detA; (d) det(3.A) = 3. detA; (e) det(A3) = (detA)3; (f) Se detA = 1 então A−1 = A; (g) Se detA 6= 0 então det(A−1) = 1detA ; (h) O determinante de uma matriz diagonal é igual ao produto de todos os ele- mentos da sua diagonal principal. 2. SejaD uma matriz diagonal com todos os elementos da diagonal principal não-nulos. D é inversível? Se sim, qual é a sua inversa? 3. Mostre que o determinante de uma matriz triangular (superior ou inferior) é igual ao produto de todos os elementos da sua diagonal principal. Comece provando para matrizes de ordem 3 e generalize. 4. Mostre que det 1 1 1 a b c a2 b2 c2 = (a− b)(b− c)(c− a). Dica: Aplique operações elementares à matriz e utilize propriedades de determinante. 1.8. EXERCÍCIOS DO CAPÍTULO 33 1.8 Exercícios do capítulo 1. Seja B uma matriz quadrada de ordem m. Mostre que: (a) B +Bt é uma matriz simétrica; (b) B −Bt é uma matriz anti-simétrica; (c) Toda matriz de ordem m pode ser escrita como soma de uma matriz simétrica com uma matriz anti-simétrica; (d) A escrita do item anterior é única. 2. Determine a inversa da matriz A = cos(t) − sen(t) sen(t) cos(t) , para t ∈ R fixado. Uti- lizando propriedades das funções seno e coseno, escreva A−1 em termos de (−t). Qual o significado geométrico desta matriz? 3. Determine a inversa das matrizes abaixo: A = 1 12 1 3 1 2 1 3 1 4 1 3 1 4 1 5 e B = 1 1 1 1 0 1 1 1 0 0 1 1 0 0 0 1 . 4. Dada a matriz A = 2 1 −3 0 2 1 5 1 3 , determine: (a) adj A; (b) detA; (c) A−1. 5. Mostre que a área do triângulo de vértices (x1, y1), (x2, y2) e (x3, y3) é igual a 1 2 det x1 y1 1 x2 y2 1 x3 y3 1 . Dica: Sem perda de generalidade, podemos supor que os três vértices do triângulo estão no primeiro quadrante do plano cartesiano, e que dois desses vértices estão sob uma reta horizontal. 34 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES 6. Dizemos que duas matrizes A e B, de mesma ordem, são semelhantes se existir uma matriz inversível P tal que B = P−1AP . Mostre que: (a) Toda matriz é sempre semelhante a ela mesma; (b) Se A é semelhante a B então B é semelhante a A; (c) Se A é semelhante a B e B é semelhante a C, então A é semelhante a C; (d) Matrizes semelhantes têm o mesmo determinante. Os itens (a), (b) e (c) mostram que a relação de semelhança entre matrizes define uma relação de equivalência. 7. Dada uma matriz A de ordem n, considere o polinômio PA, na variável λ, definido por PA(λ) = det(λIn − A). Este é chamado polinômio característico de A. (a) Determine o polinômio característico das matrizes A = 1 i i −2 , B = 2 4 5 3 e C = 1 1 −1 0 1 0 1 0 1 (b) Encontre todas as raizes dos polinômios encontrados no item anterior; (c) Seja D uma matriz diagonal com todos os elementos da diagonal principal não- nulos. Escreva a decomposição em fatores lineares do polinômio característico de D; (d) Seja E uma matriz triangular (superior ou inferior) com todos os elementos da diagonal principal não-nulos. O que pode ser dito sobre a decomposição em fatores lineares do polinômio característico de E; (e) Mostre que duas matrizes semelhantes têm o mesmo polinômio característico. 8. Determine o conjunto-solução de cada um dos sistemas lineares abaixo, e classifique- os: 1.8. EXERCÍCIOS DO CAPÍTULO 35 (a) x− 2y + z = 0 2x− 5y + z = 0 ; (b) x− 2y + z − t = 1 2x− 3y + z + 2t = 3 3x− 9y + 6z − 15t = 5 ; (c) x− 2y + z − t = −1 2x− 3y + z = −3 x+ 4y + 2z = 7 . 9. Determine os valores de k, para que cada um dos sistemas lineares x+ y − z = 1 2x+ 3y + kz = 3 x+ ky + 3z = 2 e x+ y + kz = 2 3x+ 4y + 2z = k 2x+ 3y − z = 1 , seja: (a) possível e determinado; (b) possível e indeterminado; (c) impossível. Capítulo 2 Espaços vetoriais sobre um corpo 2.1 Espaços e subespaços vetoriais Definição 2.1.1. Seja K um corpo. Um espaço vetorial sobre K consiste dos seguintes dados, satisfazendo as propriedades discriminadas abaixo: • Um conjunto V cujos elementos são chamados vetores; • Uma operação, chamada adição de vetores, satisfazendo: 1. A adição é comutativa: u+ v = v + u para todo u, v ∈ V ; 2. A adição é associativa: u+ (v + w) = (u+ v) + w para todo u, v, w ∈ V ; 3. Existe um único vetor 0 ∈ V , chamado vetor nulo, tal que u + 0 = u para todo u ∈ V ; 4. Para cada vetor u ∈ V , exsite um único vetor v ∈ V tal que u + v = 0. Denotaremos este vetor v por −u; • Uma operação, chamada multiplicação por escalar, entre elementos de K e ele- mentos de V , satisfazendo: 1. 1.v = v para todo v ∈ V ; 2. (λ.µ).v = λ.(µ.v) para todo λ, µ ∈ K e todo v ∈ V ; 3. λ.(u+ v) = λ.u+ λ.v para todo λ ∈ K e todo u, v ∈ V ; 4. (λ+ µ).v = λ.v + µ.v para todo λ, µ ∈ K e todo v ∈ V ;. 36 2.1. ESPAÇOS E SUBESPAÇOS VETORIAIS 37 Exemplo 2.1.1. Dado um corpo K, os conjuntos abaixo são exemplos de espaços vetoriais sobre K. 1. Fixado n ∈ N, consideremos o conjunto de n-uplas em K: Kn = {(x1, x2, . . . , xn);xi ∈ K para i = 1, 2, . . . , n} com as operações (x1, x2, . . . , xn) + (y1, y2, . . . , yn) = (x1 + y1, x2 + y2, . . . , xn + yn) e λ.(x1, x2, . . . , xn) = (λ.x1, λ.x2, . . . , λ.xn), para todo (x1, x2, . . . , xn), (y1, y2, . . . , yn) ∈ Kn e todo λ ∈ K. 2. Mm×n(K) = {matrizes de ordem m×n com entradas em K}, com as operações usu- ais entre matrizes (definidas no capítulo anterior). 3. F(K;K) = {funções K −→ K}, com as operações usuais (comumente definidas nos cursos de Cálculo, para K = R) (f + g)(t) = f(t) + g(t), para todo f, g ∈ F(K;K) e (λ.f)(t) = λ.f(t), para todo λ ∈ K e todo f ∈ F(K;K). Com as mesmas operações, consideremos ainda os conjuntos K[t] = {polinômios na variável t com coeficientes em K} = {a0 + a1.t+ · · ·+ am.tm;m ∈ N e a0, a1, . . . , am ∈ K} e Kn[t] = {polinômios de grau ≤ n na variável t com coeficientes em K}. Tem-se Kn[t] ⊂ K[t] ⊂ F(K;K). Proposição 2.1.1. (Propriedades) Seja V um espaço vetorial sobre um corpo K. Então: 1. λ.0 = 0 para todo λ ∈ K; 2. Se λ.u = 0 com λ ∈ K \ {0}, então u = 0; 38 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO 3. Para todo u ∈ V , tem-se −u = (−1).u. Demonstração. Exercício. Interpretação geométrica de vetores No espaço vetorial R2, vetores são segmentos orientados com ponto inicial na origem (0, 0). Existe uma correspondência biunívoca pares ordenadosde números reais ←→ vetoresem R2 P = (x, y) 7−→ segmento −→OP comprimento e sentido únicos No espaço vetorial R3, temos uma correspondência biunívoca análoga: ternas ordenadasde números reais ←→ vetoresem R3 P = (x, y, z) 7−→ segmento −→OP com comprimento, direção e sentido únicos Soma de vetores: Sejam P = (x1, x2, x3), Q = (y1, y2, y3) ∈ R3 de modo que −→ OP não sejam paralelos. Então P +Q corresponde, geometricamente, ao segmento −→OS, a diagonal do paralelogramo obtido de O, P e Q. Figura! Multiplicação escalar por um vetor: Se λ ∈ R (λ 6= 0) e P = (x1, x2, x3) ∈ R3, então λ. −→ OP é o segmento que inicia na origem(0, 0, 0), tem comprimento |λ| multiplicado pelo comprimento de −→OP , mesma direção que −→OP e sentido de de −→OP, se λ > 0 oposto de −→OP, se λ < 0 . Figura! 2.1. ESPAÇOS E SUBESPAÇOS VETORIAIS 39 Definição 2.1.2. Seja V um espaço vetorial sobre um corpo K. Dizemos que um subcon- junto não-vazio W ⊂ V é um subespaço vetorial de V , ou simplesmente subespaço de V , se: 1. Para todo u, v ∈ W tem-se u+ v ∈ W ; 2. Para todo λ ∈ K e todo u ∈ W tem-se λ.u ∈ W . Observação 2.1.1. 1. Todo subespaço de V contém o vetor nulo de V ; 2. W é um subespaço de V se, e somente se, para todo u, v ∈ W e todo λ ∈ K, tem-se λ.u+ v ∈ W . Exemplo 2.1.2. Seja K um corpo. 1. Dado um espaço vetorial V sobre K, os conjuntos {0} e V são subespaços (triviais) de V . 2. No espaço vetorial Kn, consideremos os subconjuntos W1 = {(x1, x2, . . . , xn) ∈ Kn;xn = 0} e W2 = {(x1, x2, . . . , xn) ∈ Kn;x1 = 1 + x2}. Afirmamos que W1 é um subespaço de Kn. De fato, dados (x1, . . . , xn−1, 0), (y1, . . . , yn−1, 0) ∈ W1 e λ ∈ K, tem-se (x1, . . . , xn−1, 0) + (y1, . . . , yn−1, 0) = (x1 + y1, . . . , xn−1 + yn−1, 0) ∈ W1 e λ.(x1, . . . , xn−1, 0) = (λ.x1, . . . , λ.xn−1, 0) ∈ W1. Por outro lado, W2 não é um subespaço de Kn, pois, para, (2, 1, 1, . . . , 1, 1) ∈ W2 e (1, 0, 0, . . . , 0, 0) ∈ W2 tem-se (2, 1, 1, . . . , 1, 1) + (1, 0, 0, . . . , 0, 0) = (3, 1, 1, . . . , 1, 1) /∈ W2. 3. No espaço vetorial Mm×m(K), são subespaços os subconjuntos W1 = {matrizes de ordem m triangulares inferiores}, W2 = {matrizes de ordem m triangulares superiores}, W3 = {matrizes de ordem m diagonais}. e W4 = {matrizes de ordem m simétricas}. 40 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO 4. Consideremos o conjunto M2×2(C). Este é um espaço vetorial tanto sobre C quanto sobre R. Seja W = {A ∈M2×2(C);A∗ = A}. Sobre o corpo C, W não é um subespaço de M2×2(C). De fato, uma matriz A complexa Hermitiana tem apenas números reais na sua diagonal principal, portanto i.A /∈ W . Sobre o corpo R, W é um subespaço de M2×2(C). Verifique! 5. Seja A ∈ Mm×n(K), e consideremos o sistema linear homogêneo correspondente A.X = 0. Então o conjunto-solução deste sistema linear é um subespaço deMn×1(K). De fato, dados X1 e X2 soluções do sistema linear A.X = 0 e λ ∈ K, tem-se A.(X1 +X2) = A.X1 + A.X2 = 0 + 0 = 0 e A.(λ.X1) = λ.(A.X1) = λ.0 = 0, ou seja, X1 +X2 e λ.X1 são soluções do sistema A.X = 0. O mesmo resultado não é verdadeiro para sistemas lineares não-homogêneos. Por quê? 6. No espaço vetorial R2: (a) Qualquer reta que não passa pela origem, não é um subespaço (justifique geo- metricamente!); (b) O conjunto {(x, x2);x ∈ R} não é um subespaço. Por quê? 7. No espaço vetorial F(R;R), para cada k ∈ N, consideremos o conjunto Ck(R) = f : R −→ R funções k vezesdiferenciável tal que f (k) é contínua . Temos: C0(R) ⊃ C1(R) ⊃ · · · ⊃ Ck(R) ⊃ Ck+1(R) ⊃ · · · ⊃ C∞(R) e cada um desses subconjuntos é um subespaço de F(R;R). Exercícios 2.2. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 41 1. Quais dos seguintes subconjuntos são subespaços vetoriais? (a) O conjunto formado pelos vetores de Rn cujas primeiras k coordenadas são iguais; (b) W1 = {(x, y) ∈ R2;x2 + 3x = y2 + 3y}; (c) W2 = a11 a12 a21 a22 ∈M2×2(K); a11 + a22 = 0 ; (d) W3 = {f ∈ C∞(R); f ′′ − 2f ′ + f = 0}; (e) W4 = {f ∈ F(R;R); f(0) = f(1) = 0}; (f) W5 = {f ∈ F(R;R); f(0) = 1}; (g) W6 = { f ∈ F(R;R); ∫ 1 0 f(t)dt = 0 } ; (h) W7 = { f ∈ F(R;R); ∫ 1 0 f(t)dt = 1 } ; 2.2 Dependência e independência linear Definição 2.2.1. Seja V um espaço vetorial sobre K. Dizemos que v ∈ V é uma com- binação linear de vetores v1, v2, . . . , vm ∈ V quando existirem c1, c2, . . . , cm ∈ K tais que v = m∑ i=1 ci.vi = c1.v1 + c2.v2 + · · ·+ cm.vm. Seja S ⊂ V um subconjunto não-vazio de vetores (não necessariamente um subespaço). O subsespaço gerado por S, denotado por [S], é o conjunto de todas as combinações lineares de vetores em S: [S] = { r∑ i=1 ci.vi; vi ∈ S e ci ∈ K para todo i } . Verifique que [S] é um subespaço de V ! Quando S for um conjunto finito, digamos S = {v1, . . . , vm}, denotamos [S] também por [v1, . . . , vm]. Exemplo 2.2.1. 1. Dado v ∈ R3, v 6= 0, [v] = {a.v; a ∈ R}, a reta que contém o vetor v. Figura! 42 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO 2. Dados v1, v2 ∈ R3, não-nulos e nem múltiplos um do outro, [v1, v2] = {a1.v1 + a2.v2; a1, a2 ∈ R}, o plano que contém os vetores v1 e v2. Figura! 3. [(1, 0), (0, 1)] = R2. Por definição, temos [(1, 0), (0, 1)] ⊂ R2. Vejamos que também vale a inclusão oposta. De fato, seja (a, b) ∈ R2. Temos (a, b) = (a, 0) + (0, b) = a.(1, 0) + b.(0, 1) ∈ [(1, 0), (0, 1)]. Logo temos a igualdade dos conjuntos. Mais geralmente, por um raciocínio análogo, vale que: [e1, e2, . . . , en] = Rn. 4. [(2, 1), (−1, 3)] = R2. Por definição, temos [(2, 1), (−1, 3)] ⊂ R2. Para a inclusão oposta, seja (a, b) ∈ R2. Note que, teremos (a, b) ∈ [(2, 1), (−1, 3)] se, e somente se, existirem x, y ∈ R tais que (a, b) = x.(2, 1) + y.(−1, 3) = (2x− y, x+ 3y), o qual ocorre se, e somente se, o sistema linear 2x− y = a x+ 3y = b for possível. Como det 2 −1 1 3 = 7 6= 0, o sistema linear acima possui solução única, a saber {( 3a+ b 7 , 2b− a 7 )} . Portanto, (a, b) = ( 3a+ b 7 ) .(2, 1) + ( 2b− a 7 ) .(−1, 3) ∈ [(2, 1), (−1, 3)]. Logo temos a igualdade dos conjuntos. 2.2. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 43 5. No espaço vetorial M2×2(R), tem-se 1 0 0 0 , 0 0 0 1 = a 0 0 b ; a, b ∈ R . 6. No espaço vetorial K5 (K = R ou C), descreva, algebricamente, o subespaço [v1, v2, v3], onde v1 = (1, 2, 0, 3, 0), v2 = (0, 0, 1, 4, 0) e v3 = (0, 0, 0, 0, 1). Proposição-definição 2.2.1. Seja V um espaço vetorial sobre K. 1. A interseção de uma coleção arbitrária de subespaços de V também o é. Preci- samente, se {Wα}α∈L é uma coleção de subespaços de V , onde L é um conjunto qualquer de índices, então ⋂ α∈L Wα é um subespaço de V ; 2. (Soma de subespaços) Se W1 e W2 são dois subespaços de V , então a soma W1 +W2 = {v ∈ V ; v = w1 + w2 com w1 ∈ W1 e w2 ∈ W2} também é um subespaço de V . Demonstração. 1. Sejam u, v ∈ ⋂ α∈L Wα e λ ∈ K. Então u, v ∈ Wα para todo α ∈ L e, como cada Wα é um subespaço de V , tem-se λ.u + v ∈ Wα para todo α ∈ L, portanto λ.u+ v ∈ ⋂ α∈L Wα. Logo, ⋂ α∈L Wα é um subespaço de V 2. Sejam u, v ∈ W1 +W2 e λ ∈ K. Então podemos escrever u = u1 + u2 e v = v1 + v2 com u1, v2 ∈ W1 e u2, v2 ∈ W2. Como W1 e W2 são subespaços de V , tem-se λ.u1 + v1 ∈ W1 e λ.u2 + v2 ∈ W2, portanto λ.u+ v = λ.(u1 + u2) + (v1 + v2) = (λ.u1 + v1) + (λ.u2 + v2) ∈ W1 +W2. Logo, W1 +W2 é um subespaço de V . Observação 2.2.1. Seja V um espaço vetorial sobre K. 1. SeW1 eW2 são subespaços de V tais queW1∩W2 = {0}, o subespaço somaW1+W2 é chamado soma direta de W1 com W2, e o denotamos especialmente por W1⊕W2. 44 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO 2. De maneira análoga à Proposição-definição acima, para um número finito de subes- paços W1,W2, . . . ,Wk ⊂ V , definimos a sua soma como sendo: W1 + · · ·+Wk = {v ∈ V ; v = w1 + · · ·+ wk com wi ∈ Wi para cada i }. Verifique que este também é um subespaço de V . 3. Dado S ⊂ V um subconjunto não-vazio, o subespaço [S] pode ser caracterizado como sendo a interseção de todos os subsespaços de V que contém S. Este é o menor subespaço de V que contém o conjunto S. 4. Para dois subsespaçosW1 eW2 de V , a uniãoW1∪W2, em geral, não é um subespaço de V . Apresente um contra-exemplo! 5. Para dois subsespaços W1 e W2 de V , tem-se [W1 ∪W2] = W1 +W2. Demonstre! Exemplo 2.2.2. Seja K um corpo. 1. No espaço vetorial K4, sejam W1 = [e1, e3] e W2 = [e2, e4]. Determine os subespaços W1 ∩W2 e W1 +W2. Tem-se W1 ∩W2 = {(0, 0, 0, 0)} e W1 +W2 = [W1 ∪W2] = [e1, e2, e3, e4] = K4. Logo, concluímos que K4 = W1 ⊕W2. 2. No espaço vetorial M2×2(K), consideremos os subespaços W1 = x y z 0 ;x, y, z ∈ K = 1 0 00 , 0 1 0 0 , 0 0 1 0 , W2 = x 0 0 w ;x,w ∈ K = 1 0 0 0 , 0 0 0 1 e W3 = 0 y z 0 ; y, z ∈ K = 0 1 0 0 , 0 0 1 0 . 2.2. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 45 Tem-se: M2×2(K) = W1 +W2 = W2 ⊕W3 e W1 +W3 =? Exercício! Teorema 2.2.1. Sejam V um espaço vetorial sobre K, e W1 e W2 subespaços de V tais que V = W1 + W2. Então V = W1 ⊕W2 se, e somente se, todo vetor v ∈ V se escreve, de maneira única, como soma v = w1 + w2 com w1 ∈ W1 e w2 ∈ W2. Demonstração. (=⇒) Suponhamos que V = W1 ⊕W2. Dado v ∈ V , sejam w1 + w2 = u1 + u2 duas escritas de v com w1, u1 ∈ W1 e w2, u2 ∈ W2. Vejamos que w1 = u1 e que w2 = u2. De fato, como w1 + w2 = v = u1 + u2 tem-se w1 − u1︸ ︷︷ ︸ ∈W1 = u2 − w2︸ ︷︷ ︸ ∈W2 ∈ W1 ∩W2 = {0}, portanto w1 − u1 = 0 e u2 − w2 = 0, e logo, w1 = u1 e w2 = u2. Isto é, a escrita é única! (⇐=) Suponhamos que todo vetor v ∈ V possa ser escrito de maneira única como soma v = w1 + w2, com w1 ∈ W1 e w2 ∈ W2. Afirmamos que W1 ∩W2 = {0}. De fato, seja w ∈ W1 ∩W2. Podemos escrever w = w + 0 e w = 0 + w, mas, por hipótese, toda escrita é única, então w = 0. Logo, W1 ∩W2 = {0}, e temos V = W1 ⊕W2. Exemplo 2.2.3. Exercício! 1. Mostre que Mm×m(K) = matrizes triangularessuperiores em K + matrizes triangularesinferiores em K . 2. Mostre que Mm×m(K) = matrizes simé-tricas em K ⊕ matrizes anti-simé-tricas em K . 46 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO Definição 2.2.2. Seja V um espaço vetorial sobre K. Dizemos que um subconjunto S ⊂ V é linearmente dependente (L.D.) se exis- tirem vetores v1, v2, . . . , vm ∈ S distintos e escalares c1, c2, . . . , cm ∈ K, não todos nulos, tais que c1.v1 + c2.v2 + · · ·+ cm.vm = 0. Um conjunto S ⊂ V que não é linearmente dependente é dito linearmente indepen- dente (L.I.), isto é, para toda coleção de vetores distintos v1, v2, . . . , vm ∈ S e escalares c1, c2, . . . , cm ∈ K, vale a implicação: c1.v1 + c2.v2 + · · ·+ cm.vm = 0 =⇒ c1 = c2 = · · · = cm = 0. Observação 2.2.2. Seja V um espaço vetorial sobre K. 1. Todo subconjunto S ⊂ V que contém o vetor nulo é L.D.! 2. Todo conjunto que contém um conjunto L.D também é L.D.! 3. Todo subconjunto de um conjunto L.I. também é L.I.! 4. S ⊂ V é um conjunto L.D. se, e somente se, algum vetor de S for uma combinação linear de outros vetores em S. Exemplo 2.2.4. 1. {(1, 0), (0, 1)} é um conjunto L.I. em R2. Generalizando, {e1, e2, . . . , en} é um conjunto L.I. em Rn. 2. {(2, 1), (−1, 3)} é um conjunto L.I. em R2. 3. {(0, 1), (0, 2)} é um conjunto L.D. em R2. 4. Se λ, µ ∈ R com λ 6= µ, então {eλx, eµx} é um conjunto L.I. em F(R;R). 5. Dado λ ∈ R, tem-se que {eλx, x.eλx} é um conjunto L.I. em F(R;R). Exercícios 1. Se existir, determine k ∈ R de modo que (3, k, 7) ∈ [(−1, 3, 1), (1,−2, 4)]; 2. Seja V um espaço vetorial sobre K. Mostre que, se u+v+w = 0, então [u, v] = [v, w]. 3. (a) Mostre que, se ad− bc = 0, então {(a, b), (c, d)} é linearmente dependente; 2.3. BASE E DIMENSÃO 47 (b) Mostre que, se ad− bc 6= 0, então {(a, b), (c, d)} é linearmente independente. 4. Se f ∈ C∞(R) é combinação linear de outras funções, então suas derivadas suces- sivas são combinações lineares (com os mesmos coeficientes) das derivadas dessas outras. Use este fato para mostrar que {ex, e2x, x3, x2, x} é um conjunto linearmente independente. 5. Prove que, se os vetores {v1, v2, . . . , vm} são linearmente independentes, então {v1, v2− v1, . . . , vm − v1} também o são. Vale a recíproca? 6. Considere os subespaços V = [(1, 0, 0)] e W = [(1, 1, 0), (0, 1, 1)] no espaço vetorial K3. Mostre que K3 = V ⊕W . 2.3 Base e dimensão Definição 2.3.1. Seja V um espaço vetorial sobre K. Dizemos que um conjunto S ⊂ V é uma base de V se: 1. S é um conjunto L.I. 2. S gera V , isto é, [S] = V . Um subconjunto {v1, v2, . . . , vn} ⊂ V é uma base de V se, e somente se, todo vetor v ∈ V se escreve, de modo único, como uma combinação linear dos vetores v1, v2, . . . , vn, isto é, existem escalares únicos c1, c2, . . . , cn K tais que v = c1.v1 + c2.v2 + · · · + cn.vn (Verifique!). Exemplo 2.3.1. 1. {(2, 1), (−1, 3)} é uma base de R2. Vimos que este conjunto é L.I. e também que [(2, 1), (−1, 3)] = R2 2. {e1, e2} é uma base de R2. Mais geralmente, {e1, e2, . . . , en} é uma base de Kn, chamada a base canônica de Kn. 3. {e1, e2} não é uma base de R3. Apesar de {e1, e2} ser um conjunto L.I., não ocorre [e1, e2] = R3, pois, por exemplo, e3 /∈ [e1, e2]. 48 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO 4. 1 0 0 0 , 0 1 0 0 , 0 0 1 0 , 0 0 0 1 é uma base de M2×2(K). Quantos elementos uma base de Mm×n(K) deve ter? 5. Seja P ∈Mm×m(K) uma matriz inversível, e denotemos por P1, P2, . . . , Pm as suas colunas. Então {P1, P2, . . . , Pm} formam uma base de Mm×1(K). De fato, primeiramente {P1, P2, . . . , Pm} é L.I. pois se c1.P1 + c2.P2 + · · ·+ cm.Pm = 0 então P. c1 c2 ... cm = 0 0 ... 0 =⇒ c1 c2 ... cm = P−1. 0 0 ... 0 = 0 0 ... 0 . Por outro lado, dada uma matriz Y ∈Mm×1(K) temos Y = P.X = x1.P1 + · · ·+ xm.Pm ∈ [P1, . . . , Pm], onde X = P−1.Y . 6. {1, x, x2, . . . , xn} é uma base de Kn[x]. Mais geralmente, {1, x, x2, . . . , xn, . . . } é uma base de K[x]. Teorema 2.3.1. Seja V um espaço vetorial sobre K tal que V = [v1, v2, . . . , vm]. Então todo conjunto L.I. de vetores em V é finito e possui no máximo m elementos. Equivalen- temente, qualquer conjunto com mais do que m vetores é necessariamente L.D. Demonstração. Seja S = {w1, w2, . . . , wn} ⊂ V um conjunto com n vetores, onde n > m. Afirmamos que S é um conjunto L.D. De fato, por hipótese V = [v1, v2, . . . , vm], portanto cada wi pode ser escrito como uma combinação linear desses vetores: w1 = A11.v1 + A21.v2 + · · ·+ Am1.vm w2 = A12.v1 + A22.v2 + · · ·+ Am2.vm ... wn = A1n.v1 + A2n.v2 + · · ·+ Amn.vm , 2.3. BASE E DIMENSÃO 49 com Aij para todo i, j. Agora, dados x1, x2, . . . , xn ∈ K, temos x1.w1 + x2.w2 + · · ·+ xn.wn = x1.(A11.v1 + A21.v2 + · · ·+ Am1.vm) + · · ·+ + xn.(A1n.v1 + A2n.v2 + · · ·+ Amn.vm) = (x1.A11 + · · ·+ xn.A1n).v1 + · · ·+ + (x1.Am1 + · · ·+ xn.Amn).vm e este será o vetor nulo precisamente quando o sistema linear homogêneo A11.x1 + A12.x2 + · · ·+ A1n.xn = 0 A21.x1 + A22.x2 + · · ·+ A2n.xn = 0 ... Am1.x1 + Am2.x2 + · · ·+ Amn.xn = 0 possuir solução. Agora, como m < n (número de equações menor do que o número de incógnitas), pelo teorema ??, o sistema acima possui solução não-trivial (x1, x2, . . . , xn). Logo S é L.D.. Exemplo 2.3.2. O conjunto {(1, 0, 0, 0), (1, 2, 0, 0), (1, 2, 3, 0), (1, 2, 3, 4), (1, 1, 1, 1)} é L.D. em R4. Poderíamos ou verificar a definição ou aplicar diretamente o teorema anterior. Definição 2.3.2. Dizemos que um espaço vetorial V tem dimensão finita quando pos- suir uma base com um número finito de elementos. Corolário 2.3.1. Seja V um espaço vetorial sobre K de dimensão finita. Então duas bases quaisquer de V têm o mesmo número de elementos. A este número chamamos dimensão de V Demonstração. Sejam {v1, . . . , vn} e {w1, . . . , wm} duas bases de V . Afirmamos que n = m. De fato, como V = [v1, . . . , vn] e {w1, . . . , wm} é um conjunto L.I., pelo teorema acima, m ≤ n. Por outro lado, como V = [w1, . . . , wm] e {v1, . . . , vn} é um conjunto L.I., pelo mesmo teorema, n ≤ m. Logo, n = m. Exemplo 2.3.3. 50 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO 1. dim{0} = 0. 2. dimR2 = 2. 3. dimM2×2(R) = 4. 4. dimMm×n(R) = m.n. 5. dimRn[x] = n+ 1. 6. dimR[x] =∞. Com a noção de dimensão de espaço vetorial podemos reformular o teorema ?? como: Corolário 2.3.2. Seja V um espaço vetorial sobre K de dimensão finita n. Então: 1. Todo subconjunto de V commais do que n vetores é L.D. 2. Nenhum subconjunto de V com menos do que n vetores pode gerar V . Vamos, a partir de agora, ver como é possível determinar uma base para um espaço vetorial. Lema 2.3.1. Seja S um subconjunto L.I. de um espaço vetorial V . Se v ∈ V \ [S] então S ∪ {v} é L.I. Demonstração. Sejam v1, v2, . . . , vm ∈ S (necessariamente distintos). Afirmamos que o conjunto {v1, v2, . . . , vm, v} é L.I. De fato, suponhamos que a1.v1 + a2.v2 + · · ·+ am.vm + a.v = 0 com a1, a2, . . . , am, a ∈ K. Então a = 0 pois, caso contrário, se a 6= 0 teríamos v = (a−1a1).v1 + (a−1a2).v2 + · · ·+ (a−1am).vm ∈ [S], uma contradição! Como a = 0, temos a1.v1 + a2.v2 + · · · + am.vm = 0, e uma vez que v1, v2, . . . , vm é L.I, segue que a1 = a2 = · · · = am = 0. Logo, {v1, v2, . . . , vm, v} é L.I.. Teorema 2.3.2. (Obtendo uma base a partir de um conjunto L.I.) Qualquer conjunto L.I. de vetores de um espaço vetorial V de dimensão finita pode ser completado de modo a formar uma base de V . Demonstração. Sejam n = dimV e {v1, v2, . . . , vr} um conjunto L.I.. Então r ≤ n. Se [v1, v2, . . . , vr] = V , não há nada a fazer (e, neste caso, r = n). Agora, se [v1, v2, . . . , vr] ⊂ V então existe algum vr+1 ∈ V tal que vr+1 /∈ [v1, v2, . . . , vr]. Pelo Lema acima, {v1, v2, . . . , vr, vr+1} é um conjunto L.I.. 2.3. BASE E DIMENSÃO 51 Se [v1, v2, . . . , vr, vr+1] = V , não há nada a fazer, senão [v1, v2, . . . , vr, vr+1] ⊂ V então existe algum vr+2 ∈ V tal que vr+2 /∈ [v1, v2, . . . , vr]. Novamente pelo Lema acima, {v1, v2, . . . , vr, vr+1, vr+2} é um conjunto L.I.. Como V tem dimensão finita, este raciocínio recursivo terminará, e aí teremos uma base de V construída a partir do conjunto L.I. {v1, v2, . . . , vr}. Corolário 2.3.3. Se W é um subespaço próprio de um espaço vetorial V de dimensão finita n, então W tem dimensão finita e dimW < dim V . Demonstração. Se W = {0} então não há o que fazer. Agora, se W 6= {0} então existe w1 ∈ W não-nulo. Pelo Teorema anterior, podemos completar o conjunto L.I. {w1} de modo a obter uma base de W com no máximo n elementos, digamos {w1, w2, . . . , wr} (r ≤ n). EntãoW tem dimensão finita com dimW = r ≤ n = dimV . Mas, uma vez que W ⊂ V , existe algum v ∈ V \ [w1, w2, . . . , wr], e consequentemente {w1, w2, . . . , wr, v} é um conjunto L.I.. Logo, dimW < dim V . Exemplo 2.3.4. 1. Obtenha uma base de R3 contendo os vetores v1 = (1,−1, 2) e v2 = (−1, 2, 1). Como {v1, v2} é um conjunto L.I., para obter uma base de R3 contendo esses vetores, basta escolhermos v3 /∈ [v1, v2], por exemplo, v3 = (1, 0, 0) (Verifique!). Afirmamos que {v1, v2, v3} é uma base de R3. Exercício! 2. Construa uma outra base de R3 (uma para chamar de sua). Corolário 2.3.4. Seja A uma matriz quadrada de ordem m sobre K, e suponhamos que os vetores-linha de A formem um conjunto L.I. em Km. Então A é uma matriz inversível. Demonstração. Sejam v1, v2, . . . , vm os vetores-linha da matriz A e W = [v1, v2, . . . , vm]. Como {v1, v2, . . . , vm} é L.I. e dimW = m, pelo Corolário acima, W = Km (Por quê?). Então podemos, por exemplo, escrever os vetores da base canônica de Km como uma 52 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO combinação linear dos vetores v1, v2, . . . , vm: e1 = b11.v1 + b12.v2 + · · ·+ b1m.vm e2 = b21.v1 + b22.v2 + · · ·+ b2m.vm ... em = bm1.v1 + bm2.v2 + · · ·+ bmm.vm , onde bij ∈ K para todo i, j. Essas equações nos dizem que a matriz B = (bij) satisfaz a igualdade B.A = Im (Verifique!), isto é, B é uma inversa à esquerda de A, portanto A é uma matriz inversível. Vale a recíproca do corolário anterior? Sim! Demonstre, e use à vontade! A equivalência acima também é verdadeira trocando a palavra “linha” por “coluna” no enunciado. Teorema 2.3.3. (Dimensão do subespaço soma) Sejam W1 e W2 subespaços de um espaço vetorial de dimensão finita V . Então o subespaço W1 +W2 tem dimensão finita, e vale a fórmula dim(W1 +W2) = dimW1 + dimW2 − dim(W1 ∩W2). Demonstração. Seja {v1, . . . , vk} uma base de W1 ∩W2. Pelo Teorema ??, podemos com- pletar esse conjunto de modo a obter bases de W1 e de W2, respectivamente: {v1, . . . , vk, u1, . . . , um} e {v1, . . . , vk, w1, . . . , wn}. Temos W1 +W2 = [W1 ∪W2] = [v1, . . . , vk, u1, . . . , um, w1, . . . , wn]. Afirmamos que {v1, . . . , vk, u1, . . . , um, w1, . . . , wn} é L.I. De fato, suponhamos que a1.v1 + · · ·+ ak.vk + b1.u1 + · · ·+ bm.um + c1.w1 + · · ·+ cn.wn = 0. (4) Então k∑ i=1 ai.vi + m∑ j=1 bj.uj︸ ︷︷ ︸ ∈W1 = − n∑ l=1 cl.wl︸ ︷︷ ︸ ∈W2 ∈ W1 ∩W2, portanto existem d1, . . . , dk ∈ K tais que − n∑ l=1 cl.wl = d1.v1 + · · ·+ dk.vk =⇒ c1.w1 + · · ·+ cn.wn + d1.v1 + · · ·+ dk.vk = 0 2.3. BASE E DIMENSÃO 53 e, uma vez que {v1, . . . , vk, w1, . . . , wn} é L.I., tem-se c1 = · · · = cn = 0 (e também d1 = · · · = dk = 0). Com isso, a igualdade (4) se torna a1.v1 + · · ·+ ak.vk + b1.u1 + · · ·+ bm.um = 0 =⇒ a1 = · · · = ak = b1 = · · · = bm = 0 já que {v1, . . . , vk, u1, . . . , um} é L.I.. Isto prova a afirmação. Daí concluímos que dim(W1 +W2) = k +m+ n. Por outro lado, dimW1 + dimW2 = (k +m) + (k + n) = (k +m+ n) + k = dim(W1 +W2) + dim(W1 ∩W2). Exemplo 2.3.5. No espaço vetorial R3, consideremos os subespaços W1 = {(x, y, z);x+ y − z = 0} e W2 = {(x, y, z);x = y}. Determine as dimensões dos subespaços W1, W2, W1 ∩W2 e W1 +W2. R3 = W1 ⊕W2? Se (x, y, z) ∈ W1 então z = x+ y, portanto (x, y, z) = (x, y, x+ y) = (x, 0, x) + (0, y, y) = x.(1, 0, 1) + y.(0, 1, 1), logo W1 = [(1, 0, 1), (0, 1, 1)], e como {(1, 0, 1), (0, 1, 1)} é um conjunto L.I., dimW1 = 2. Por outro lado, se (x, y, z) ∈ W2 então x = y, portanto (x, y, z) = (x, x, z) = (x, x, 0) + (0, 0, z) = x.(1, 1, 0) + z.(0, 0, 1), logo W2 = [(1, 1, 0), (0, 0, 1)], e como {(1, 1, 0), (0, 0, 1)} é um conjunto L.I., dimW2 = 2. Agora, se (x, y, z) ∈ W1 ∩W2 então z = x+ y e x = y, portanto (x, y, z) = (x, x, 2x) = x.(1, 1, 2), logo W1 ∩W2 = [(1, 1, 2)], e tem-se dim(W1 ∩W2) = 1. Pelo Teorema acima, dim(W1 +W2) = 2 + 2− 1 = 3, e sendo W1 +W2 um subespaço de R3, devemos ter W1 +W2 = R3. Por fim, como o subespaço interseção W1 ∩W2 não é o trivial, na decomposição R3 = W1 +W2, a soma não é direta. Exercícios 54 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO 1. Encontre uma base para cada um dos seguintes subsespaços de R4: (a) F = {(x1, x2, x3, x4) ∈ R4;x1 = x2 = x3 = x4}; (b) G = {(x1, x2, x3, x4) ∈ R4;x1 = x2 e x3 = x4}; (c) H = {(x1, x2, x3, x4) ∈ R4;x1 = x2 = x3}; (d) K = {(x1, x2, x3, x4) ∈ R4;x1 + x2 + x3 + x4 = 0}; 2. Verifique que o conjunto {(1, 1,−1), (1,−1, 1), (−1, 1, 1)} é uma base de R3 3. Considere o subespaço U = {(x, y, z) ∈ R3;x− 2y + 4z = 0} de R3. Obtenha uma base {u1, u2, u3} de R3 tal que u1 e u2 pertençam a U . 4. Verifique que {1, x−1, x2−3x+ 1} é uma base de R2[x]. Escreva 2x2−5x+ 6 como combinação linear dos elementos dessa base. 5. No espaço vetorial R3, considere os subconjuntos V = {(x, y, z) ∈ R3; z = −x− 3y} e W = {(x, y, z) ∈ R3;x = y = 0}. (a) Verifique que V e W são subespaços de R3; (b) Encontre conjuntos de geradores para V e para W , e dê a dimensão de cada subespaço; (c) Determine os subespaços V ∩W e V +W ; (d) R3 = V ⊕W? 6. Sejam c1, c2, . . . , cn ∈ Kn as colunas de uma matriz A ∈ Mn×n(K). Mostre que detA = 0 se, e somente se, os vetores c1, c2, . . . , cn são linearmente dependentes. A equivalência continua verdadeira trocando a palavra coluna por linha. Por quê? 2.4 Coordenadas e mudança de base Sejam V um espaço vetorial de dimensão finita n sobre K e α = {vi, . . . , vn} uma base ordenada de V . Dado v ∈ V , existem escalares únicos a1, . . . , an ∈ K tais que 2.4. COORDENADAS E MUDANÇA DE BASE 55 v = a1.v1 + · · ·+ an.vn. Esses escalares são chamados coordenadas de v em relação à base α, e denotaremos [v]α = a1 a2 ... an . Exemplo 2.4.1. No espaço vetorial R3, consideremos as bases ordenadas α = {e1, e2, e3}, β = {e1, e2, (1, 1, 1)} e γ = {e2, e1, e3}. Para v = (1, 2, 1) temos: (1, 2, 1)= 1.(1, 0, 0) + 2.(0, 1, 0) + 1.(0, 0, 1) =⇒ [v]α = 1 2 1 , (1, 2, 1) = 0.(1, 0, 0) + 1.(0, 1, 0) + 1.(1, 1, 1) =⇒ [v]β = 0 1 1 e (1, 2, 1) = 2.(0, 1, 0) + 1.(1, 0, 0) + 1.(0, 0, 1) =⇒ [v]γ = 2 1 1 . Pelo que vimos (e era esperado), a ordem dos vetores em uma base é importante para determinar as coordenadas de uma vetor. Agora, sejam α = {v1, . . . , vn} e β = {w1, . . . , wn} duas bases ordenadas do espaço vetorial V de dimensão n. Dado v ∈ V , podemos escrevê-lo como v = x1.v1 + · · ·+ xn.vn = y1.w1 + · · ·+ yn.wn, (∗) onde x1, . . . , xn, y1, . . . , yn ∈ K, portanto [v]α = x1 x2 ... xn e [v]β = y1 y2 ... yn . 56 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO Além disso, como α = {v1, . . . , vn} é uma base de V , podemos escrever cada vetor w1, . . . , wn como uma combinação linear dos vetores de α: w1 = A11.v1 + A21.v2 + · · ·+ An1.vn w2 = A12.v1 + A22.v2 + · · ·+ An2.vn ... wn = A1n.v1 + A2n.v2 + · · ·+ Ann.vn , com Aij ∈ K para todo i, j. Substituindo as equações acima em (∗) obtemos: x1.v1 + · · ·+ xn.vn = y1.w1 + · · ·+ yn.wn = y1.(A11.v1 + A21.v2 + · · ·+ An1.vn) + · · ·+ + yn.(A1n.v1 + A2n.v2 + · · ·+ Ann.vn) = (y1.A11 + · · ·+ yn.A1n).v1 + · · ·+ + (y1.An1 + · · ·+ yn.Ann).vn portanto (pela unicidade da escrita) x1 = A11.y1 + · · ·+ A1n.yn ... xn = An1.y1 + · · ·+ Ann.yn , ou equivalentemente x1 ... xn = A11 . . . A1n ... . . . ... An1 . . . Ann . y1 ... yn . A matriz [I]βα := (Aij) é chamada matriz de mudança da base β para a base α, a qual, pelo desenvolvimento acima, satisfaz [v]α = [I]βα.[v]β (I) para cada v ∈ V . Afirmamos que [I]βα é uma matriz inversível. De fato, mostraremos que o sistema linear homogêneo [I]βα.X = 0 possui apenas a solução trivial. 2.4. COORDENADAS E MUDANÇA DE BASE 57 Seja X = x1 ... xn uma solução do sistema [I]βα.X = 0, e seja v = x1.w1 + · · ·+ xn.wn = y1.v1 + · · ·+ yn.vn. Então [v]α = [I]βα.[v]β = [I]βα.X = 0 =⇒ y1 = · · · = yn = 0 e consequentemente 0 = v = x1.w1 + · · ·+ xn.wn =⇒ x1 = · · · = xn = 0 uma vez que {w1, . . . , wn} é L.I., logo X = 0 ... 0 . Isso prova a afirmação. Agora, notemos que, se no desenvolvimento inicial, tivéssemos escrito cada vetor v1, . . . , vn como uma combinação linear dos vetores de β, teríamos uma matriz [I]αβ , a matriz de mudança da base α para a base β, satisfazendo [v]β = [I]αβ .[v]α (II) para cada v ∈ V . As relações (I) e (II) implicam que ( [I]βα )−1 = [I]αβ . Exemplo 2.4.2. No espaço vetorial R2, consideremos as bases ordenadas α = {(2,−1), (3, 4)} e β = {e1, e2}. Determine [I]βα, e posteriormente encontre as coordenadas em relação à base α de um vetor arbitrário (x, y). Exercícios 1. Sejam α = {(1, 0), (0, 1)}, β = {(−1, 1), (1, 1)} e γ = {( √ 3, 1), ( √ 3,−1)} bases ordenadas de R2. (a) Enocntre as matrizes de mudança de base: i. [I]βα; ii. [I]αβ ; iii. [I]αγ ; iv. [I] γ β. (b) Quais são as coordenadas do vetor v = (3,−2) em relação à base: 58 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO i. α; ii. β; iii. γ. (c) As coordenadas de um vetor v em relação a base β são dadas por [v]β = 4 0 . Determine as coordenadas de v em relação à base: i. α; ii. γ. 2. Sejam α e β bases do espaço vetorial R3 tais que [I]βα = 1 1 0 0 −1 1 1 0 −1 . Determine: (a) [v]α, onde [v]β = −1 2 3 ; (b) [v]β, onde [v]α = −1 2 3 . 3. Se α é base de um espaço vetorial de dimensão finita, qual é a matriz de mudança de base [I]αα? 2.5 Exercícios do Capítulo 1. Verdadeiro ou falso? Prove quando a afirmação for verdadeira, e justifique ou apre- sente um contra-exemplo, quando for falsa. (a) Para qualquer matriz A ∈M2×2(R), o conjunto {I, A,A2, A3, A4} é linearmente independente; (b) Se {u, v, w} é um conjunto linearmente independente, então o conjunto {u + v, v + w,w + u} também o é; (c) É possível encontrar três vetores em R3 que sejam linearmente dependentes de modo que dois quaisquer deles sejam linearmente independentes; 2.5. EXERCÍCIOS DO CAPÍTULO 59 (d) Dados dois subespaços W1 e W2 de um espaço vetorial V , tem-se W1 + W2 = W1 ∪W2; (e) Dados dois espaços vetoriais U e W , dimU ⊕W = dimU + dimW . 2. Mostre que {(1, 0,−i), (1 + i, 1 − i, 1), (i, i, i)} é uma base de C3. Quais são as coordenadas do vetor (a, b, c) em relação a esta base? 3. No espaço vetorial M2×2(R), consideremos os subconjuntos W1 = x −x y z ;x, y, z ∈ R e W2 = a b −a c ; a, b, c ∈ R . (a) Mostre W1 e W2 são subespaços de M2×2(R). (b) Determine bases para os subespaços W1, W2, W1 + W2 e W1 ∩ W2, e suas respectivas dimensões. 4. No espaço vetorial Mn×n(R), considere os subconjuntos S = {matrizes reais de ordem n simétricas} e A = {matrizes reais de ordem n anti-simétricas}. (a) Verifique que S e A são subsespaços de Mn×n(R); (b) Mostre que Mn×n(R) = S ⊕ A; (c) Encontrando uma base para S e para A, mostre que dimS = n(n+ 1)2 e dimA = n(n− 1) 2 . Comece pensando em n = 2 e n = 3, e generalize! (d) Existe uma decomposição em soma direta análoga a acima para o espaço ve- torial Mn×n(C)? 60 CAPÍTULO 2. ESPAÇOS VETORIAIS SOBRE UM CORPO 5. No espaço vetorial F(R;R), considere os subconjuntos F1 = {funções f : R −→ R que se anulam em todo ponto de [0, 1]} e F2 = {funções f : R −→ R que se anulam em todo ponto de [2, 3]}. (a) Verifique que F1 e F2 são subsespaços de F(R;R); (b) Mostre que F(R;R) = F1 + F2, mas não se tem F(R;R) = F1 ⊕ F2. 6. Seja V o espaço vetorial real gerado pelas linhas da matriz A = 3 21 0 9 0 1 7 −1 −2 −1 2 14 0 6 1 6 42 −1 13 0 . (a) Determine uma base de V ; (b) Que vetores (x1, x2, x3, x4, x5) são elementos de V ? (c) Se (x1, x2, x3, x4, x5) ∈ V , quais serão as suas coordenadas em relação à base escolhida no item (a)? (d) Seja W o espaço vetorial real gerado pelas colunas da matriz A. Verifique que, apesar de V e W serem subespaços de espaços vetoriais diferentes, tem-se dim V = dimW . Veremos que este fato vale em geral! 7. Seja V um espaço vetorial de dimensão finita. Dado um subespaço U ⊂ V , prove que existe um subespaço W ⊂ V tal que V = U ⊕W . Qual deve ser a dimensão de W? Este subespaço W é chamado complemento de U em V . Capítulo 3 Transformações lineares 3.1 Definição e propriedades Definição 3.1.1. Sejam V e W espaços vetoriais sobre um corpo K. Uma transforma- ção linear de V em W é uma função T : V −→ W satisfazendo: 1. T (u+ v) = T (u) + T (v) para todo u, v ∈ V ; 2. T (λ.v) = λ.T (v) para todo v ∈ V e λ ∈ K. Observação 3.1.1. 1. Verificar os dois itens da definição acima é equivalente a veri- ficar a seguinte condição: T (λ.u+ v) = λ.T (u) + T (v) para todo u, v ∈ V e λ ∈ K; 2. Se T : V −→ W é uma transformação linear então T (0) = 0; Portanto, se T é uma função com T (0) 6= 0, então já saberemos que esta não é uma transformação linear. Por exemplo, a função T : R2 −→ R3 definida por T (x, y) = (x, y, x+ y + 3) não é uma transformação linear. 3. Com as operações usuais de adição e multiplicação escalar, o conjunto L(V,W ) = {transformações lineares de V em W} é um espaço vetorial sobre K. Quando temos W = V , a transformação T : V −→ V é chamado um operador de V . 61 62 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES Agora, quando W = K, a transformação T : V −→ K é chamado um funcional linear de V . Exemplo 3.1.1. São transformações lineares: 1. a função T : R −→ R definida por T (x) = a.x (fixado a ∈ R); 2. a função T : R2 −→ R definida por T (x, y) = x+ y; 3. a função T : R3 −→ R2 definida por T (x, y, z) = (x− y, y − z); 4. a função 0 : V −→ W definida por 0(v) = 0; 5. a função I : V −→ V definida por I(v) = v; 6. a função D : K[x] −→ K[x] definida por D(p) = p′; 7. a função T : C0(R) −→ C0(R) definida por (Tf)(x) = ∫ x 0 f(t)dt;
Compartilhar