Baixe o app para aproveitar ainda mais
Prévia do material em texto
Universidade Estadual do Norte Fluminense A´lgebra Linear Liliana A. L. Mescua Rigoberto G. S. Castro Novembro de 2011 Suma´rio 1 Matrizes 1 1.1 Tipos de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2 Operac¸o˜es com Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2.1 Adic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2.2 Subtrac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2.3 Multiplicac¸a˜o de um nu´mero real por uma Matriz . . . . . . . . . 5 1.2.4 Multiplicac¸a˜o de Matrizes . . . . . . . . . . . . . . . . . . . . . . 5 1.2.5 Matriz Transposta . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.2.6 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.2.7 Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2 Sistemas de Equac¸o˜es Lineares Alge´bricas 15 2.1 Classificac¸a˜o de um Sistema Linear . . . . . . . . . . . . . . . . . . . . . 16 2.2 Resoluc¸a˜o de Sistemas por Escalonamento . . . . . . . . . . . . . . . . . 17 3 Vetores 20 3.1 Interpretac¸a˜o Geome´trica . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 3.1.1 Adic¸a˜o de Vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 3.1.2 Multiplicac¸a˜o de um Nu´mero Real por um Vetor . . . . . . . . . . 22 ii 3.1.3 Aˆngulo entre dois vetores . . . . . . . . . . . . . . . . . . . . . . . 23 3.2 Interpretac¸a˜o Alge´brica no Plano . . . . . . . . . . . . . . . . . . . . . . 23 3.3 Interpretac¸a˜o Alge´brica no Espac¸o . . . . . . . . . . . . . . . . . . . . . . 26 3.4 Produto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 3.4.1 Interpretac¸a˜o Geome´trica do Produto Escalar . . . . . . . . . . . 28 3.4.2 Aˆngulo entre dois Vetores . . . . . . . . . . . . . . . . . . . . . . 28 3.4.3 Projec¸a˜o de um Vetor sobre Outro . . . . . . . . . . . . . . . . . 29 3.5 Produto Vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.5.1 Propriedades: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.5.2 Interpretac¸a˜o Geome´trica . . . . . . . . . . . . . . . . . . . . . . 33 3.6 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 4 Espac¸o Vetorial 35 4.1 Subespac¸os Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 4.1.1 Propriedades dos Subespac¸os . . . . . . . . . . . . . . . . . . . . 38 4.2 Combinac¸a˜o Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 4.3 Espac¸o Gerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 4.4 Independeˆncia e Dependeˆncia Linear . . . . . . . . . . . . . . . . . . . . 41 4.5 Base e Dimensa˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 4.5.1 Componentes de um Vetor . . . . . . . . . . . . . . . . . . . . . . 48 4.6 Espac¸o Vetorial Euclideano . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.6.1 Complementos Ortogonais . . . . . . . . . . . . . . . . . . . . . . 51 4.6.2 Uma Relac¸a˜o Geometrica Entre Espac¸o Nulo e Espac¸o Linha . . . 52 4.6.3 Conjuntos Ortogonais e Ortonormais . . . . . . . . . . . . . . . . 52 4.6.4 Processo de Gram - Schimidt . . . . . . . . . . . . . . . . . . . . 54 iii 4.7 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 5 Transformac¸o˜es Lineares 61 5.1 Propriedades das Transformac¸o˜es Lineares . . . . . . . . . . . . . . . . . 64 5.1.1 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 5.2 Nu´cleo de uma Transformac¸a˜o Linear . . . . . . . . . . . . . . . . . . . . 66 5.3 Imagem de uma Transformac¸a˜o Linear . . . . . . . . . . . . . . . . . . . 67 5.4 Propriedades do Nu´cleo e da Imagem . . . . . . . . . . . . . . . . . . . . 69 5.4.1 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 5.5 Matriz de uma Transformac¸a˜o Linear . . . . . . . . . . . . . . . . . . . . 71 5.6 Operac¸o˜es com Transformac¸o˜es Lineares . . . . . . . . . . . . . . . . . . 76 5.6.1 Adic¸a˜o ou Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 5.6.2 Multiplicac¸a˜o por Escalar . . . . . . . . . . . . . . . . . . . . . . 77 5.6.3 Composic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 5.6.4 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 5.7 Mudanc¸a de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 5.8 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 6 Autovalores e Autovetores 82 6.1 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 7 Diagonalizac¸a˜o de Matrizes 87 7.1 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 7.2 Matrizes Sime´tricas e autovetores ortogonais . . . . . . . . . . . . . . . . 89 8 Aplicac¸o˜es 91 8.1 Mı´nimos Quadrados na Soluc¸a˜o de Sistemas Lineares Inconsistentes . . . 91 iv 8.1.1 Ajuste de Mı´nimos Quadrados a Dados . . . . . . . . . . . . . . . 93 8.2 Rotac¸a˜o de Coˆnicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 A Nu´meros Complexos 100 v Cap´ıtulo 1 Matrizes Definic¸a˜o 1.1. Uma matriz de ordem m× n e´ uma tabela de mn escalares (nu´meros reais ou complexos) dispostos em m linhas (nu´mero de filas horizontais) e n colunas (nu´mero de filas verticais). Por convenc¸a˜o usaremos sempre as letras maiu´sculas A, B, C, D, . . . para nomea-las A = a11 a12 . . . a1n a21 a22 . . . a2n ... ... ... ... am1 am2 . . . amn = a11 a12 . . . a1n a21 a22 . . . a2n ... ... ... ... am1 am2 . . . amn = (aij)m×n. (1.1) Exemplo: A = 2 2 0 1 −3 5 2×3 B = 1 4 0 7 2×2 (1.2) Exerc´ıcio: Escreva a matriz A = (aij)2×2 onde aij = i+ 2j. Observac¸a˜o 1.1. De acordo com o nu´mero de linhas e colunas da matriz, podemos destacar os seguintes casos particulares • Quando m = 1, matriz linha • Quando n = 1, matriz coluna • Quando m = n, matriz quadrada 1 Definic¸a˜o 1.2. (Igualdade de Matrizes:) Duas matrizes A = (aij)m×n e B = (bij)m×n sa˜o ditas iguais, se todos seus elementos correspondentes sa˜o iguais, isto e´, se aij = bij . Exerc´ıcio: Determine a, b, c, d de modo que: a 1 1 b+ 1 c− 2 d = 2 1 1 1 6 3 . 1.1 Tipos de Matrizes Matriz Nula: E´ uma matriz cujos elementos sa˜o todos nulos, isto e´ aij = 0, ∀ i, j. Exemplo: O = 0 0 0 0 Matriz Diagonal Uma matriz quadrada D = (dij)n×n e´ dita diagonal quando dij = 0, ∀ i 6= j. Exemplo: D = 2 0 0 4 Matriz Identidade: E´ uma matriz diagonal onde aii = 1 para todo i, e aij = 0 para todo i 6= j. Exemplo: I = 1 0 . . . 0 0 1 . . . 0 ... ... ... 0 0 . . . 1 Matriz Triangular Uma matriz quadrada A = (aij)nxn e´ dita triangular superior, se aij = 0 para i > j. Uma matriz B = (bij)nxn e´ dita triangular inferior quando bij = 0, para i < j. Exemplo: A = 5 4 4 5 0 1 9 6 0 0 3 8 0 0 0 0 e B = 5 0 0 0 2 1 0 0 9 7 3 0 8 6 5 1 Matriz Sime´trica: E´ uma matriz quadrada, onde aij = aji. 2 Exemplo: 4 3 1 3 2 0 1 0 5 e a b c d b e f g c f h i d g i k Observe que, no caso de uma matriz sime´trica, a parte superior e´ uma “reflexa˜o”da parte inferior, em relac¸a˜o a` diagonal. 1.2 Operac¸o˜es com Matrizes Ao utilizar matrizes, surge naturalmente a necessidade de efetuarmoscertas operac¸o˜es. Veremos algumas delas e suas propriedades a seguir: 1.2.1 Adic¸a˜o A soma de duas matrizes da mesma ordem, A = (aij)m×n e B = (bij)m×n, e´ uma matriz m× n, definida por A +B = (aij + bij)m×n. Exemplo: 1 4 2 5 3 6 + −1 1 −3 0 4 2 = 1− 1 4 + 1 2− 3 5 + 0 3 + 4 6 + 2 = 0 5 −1 5 7 8 . Definic¸a˜o 1.3. Seja a matriz A = (aij)m×n. Chama-se matriz oposta de A, a matriz m × n representada por −A = (−aij)m×n, tal que A + (−A) = O, onde O e´ a matriz nula. Exemplo: A matriz oposta de A = 1 −4 2 0 7 3 e´ − A = −1 4 −2 0 −7 −3 . 3 1.2.2 Subtrac¸a˜o A diferenc¸a de duas matrizes da mesma ordem, A = (aij)m×n e B = (bij)m×n, e´ uma matriz m× n, que denota-se por A−B, que e´ a soma de A com a oposta de B; isto e´: A−B = A+ (−B) = (aij)m×n + (−bij)m×n = (aij − bij)m×n (1.3) Exemplo: 1 4 2 5 3 6 − −1 1 −3 0 4 2 = 1 + 1 4− 1 2 + 3 5− 0 3− 4 6− 2 = 2 3 5 5 −1 4 . Propriedades da Adic¸a˜o Se as matrizes A, B e C possuem a mesma ordem, valem as seguintes propriedades: i) A+B = B + A (comutativa). ii) A+ (B + C) = (A+B) + C (associativa). iii) A+O = A, quando O e´ uma matriz nula (elemento neutro). iv) A+ (−A) = O (elemento oposto). Problema 1: Sejam A = (aij)3×2 e B = (bij)3×2, tal que aij = 2i+ j e bij = 1 + i− j. • Determine as matrizes C = A+B e D = A− B. • Represente genericamente um elemento cij de C e dij de D. Problema 2: Encontre as matrizes 2× 2, A e B, sabendo que: A+B + 1 1 1 1 = 4 0 1/2 −1 + 0 2 3/2 4 A−B = 6 −3 4 0 − 2 −2 2 1 . 4 1.2.3 Multiplicac¸a˜o de um nu´mero real por uma Matriz Seja A = (aij)m×n e k um nu´mero real diferente de zero. Definimos B = kA = (bij)m×n a matriz onde bij = kaij . Exemplo Se A = 3 −1 1 0 6 4 , enta˜o 2A = 6 −2 2 0 12 8 e 13 A = 1 −1/3 1/3 0 2 4/3 1.2.4 Multiplicac¸a˜o de Matrizes Sejam as matrizes A = (aij)m×p e B = (bij)p×n. Definimos C = A · B = (cuv)m×n, tal que cuv = n∑ k=1 aukbkv (1.4) Observac¸a˜o 1.2. So´ se pode efetuar o produto de duas matrizes Am×p e Bp×n, se o nu´mero de colunas da primeira matriz for igual ao nu´mero de linhas da segunda matriz, sendo assim o resultado da multiplicac¸a˜o de A por B sera´ uma matriz de ordem m× n. Note que o elemento cij e´ obtido multiplicando os elementos da i-e´sima linha da primeira matriz pelos elementos correspondentes da j-e´sima coluna da segunda matriz, e somando este produtos. Exemplo: a) −1 2 2×1 ( −3 4 ) 1×2 = −1.(−3) −1.4 2.(−3) 2.4 = 3 −4 −6 8 2×2 b) 1 0 3 −2 2×2 −1 1 5 3 2×2 = 1.(−1) + 0.(5) 1.(1) + 0.(3) 3.(−1) +−2.(5) 3.(1) +−2.(3) = −1 1 −13 −3 2×2 Observac¸a˜o 1.3. A propriedade conmutativa em matrizes nem sempre e´ va´lida, isto e´ AB e BA na˜o necessariamente sa˜o iguais. No exemplo anterior verifique se AB = BA. Se A e´ uma matriz quadrada n× n e I a matriz identidade n× n, enta˜o AI = IA = A. 5 Propriedades da Multiplicac¸a˜o Supondo que a ordem das matrizes A, B e C estejam definidas de modo que cada uma das operac¸o˜es abaixo indicadas possam ser efetuadas, enta˜o as propriedades seguintes sera˜o va´lidas. 1. (A.B).C = A.(B.C) (associatividade). 2. (A± B).C = A.C ±B.C (distributividade a` direita). 3. A.(B ± C) = A.B ± A.C (ditributividade a` esquerda). 4. k(B ± C) = kB ± kC, k, s ∈ R 5. (k ± s)A = kA± sA, k, s ∈ R 6. k(sA) = (ks)A, k, s ∈ R 1.2.5 Matriz Transposta A transposta de uma matriz A = (aij)m×n, e´ uma outra matriz AT = (bij)n×m, cujas linhas sa˜o as colunas de A, isto e´, bij = aji. Exemplo: A transposta da matrizA = 3 −1 4 −2 5 −3 3×2 e´ AT = 3 4 5 −1 −2 −3 2×3 Propriedades 1. (AT )T = A, isto e´, a transposta da transposta de uma matriz e´ ela mesma. 2. (A+B)T = AT +BT , a transposta de uma soma e´ igual a somas das transpostas. 3. (α.A)T = α.AT , onde α e´ qualquer escalar. 4. Uma matriz e´ sime´trica se somente se ela for igual a` sua transposta, isto e´, A = AT . 5. (A.B)T = BT .AT (deve-se observar a ordem). 6 Matriz Anti-sime´trica: E´ uma matriz quadrada, onde AT = −A. Exemplo: A = 0 3 4 −3 0 −6 −4 6 0 e´ anti-sime´rica. 1.2.6 Determinante E´ poss´ıvel associar a cada matriz A de ordem n × n, um escalar (nu´mero real ou com- plexo), que denotaremos por detA, cujo valor vai nos dizer se a matriz e´ ou na˜o invert´ıvel. Antes de dar a definic¸a˜o geral vamos a considerar alguns casos particulares. Caso 1. Se A = (a) e´ uma matriz 1× 1, definimos o determinante de A por: detA = a. Diremos que A tem inversa multiplicativa (A e´ invert´ıvel) se e so´ se detA 6= 0. Caso 2. Se A = a11 a12 a21 a22 e´ uma matriz 2× 2, definimos o determinante de A por: detA = a11a22 − a12a21. Diremos que A e´ invert´ıvel se e somente se detA 6= 0. Caso 3. Se A = a11 a12 a13 a21 a22 a23 a31 a32 a33 e´ uma matriz 3× 3, definimos o determinante de A por: detA = a11a22a33 − a11a32a23 − a12a21a33 + a12a31a23 + a13a21a32 − a13a31a22 Podemos colocar a equac¸a˜o anterior na forma detA = a11(a22a33 − a32a23)− a12(a21a33 − a31a23) + a13(a21a32 − a31a22) (1.5) Para j = 1, 2, 3, vamos denotar porM1j a matriz 2×2 formada retirando-se a primeira linha e a j-e´sima coluna de A. O determinante de A (1.5) pode ser, enta˜o, colocado na forma detA = a11 detM11 − a12 detM12 + a13 detM13 (1.6) 7 Para ver como generalizar (1.6) para o caso n > 3, vamos a dar a seguinte definic¸a˜o. Definic¸a˜o 1.4. (Menores e Cofatores): Seja A = (aij) uma matriz n × n. O ij-e´simo menor de A e´ o determinante da submatriz Mij, de ordem (n− 1)× (n− 1), que sobra quando suprimimos a i-e´sima linha e a j-e´sima coluna de A. O ij-e´simo cofator Aij de A (ou o cofator de aij) e´ definido como Aij = (−1)i+j detMij . Definic¸a˜o 1.5. O determinante de uma matriz n × n e´ o nu´mero real detA, definido por detA = ai1.Ai1 + ai2.Ai2 + ...+ a1n.Ain (1.7) ou detA = a1j .A1j + a2j .A2j + ... + anj.Anj , (1.8) onde Aij e´ ij-e´simo cofator de A. Exemplo: O determinante da matriz A = a b c d e´: detA = aA11 + bA12 = ad+ b(−c) = ad− bc. (1.9) Propriedades da Determinante Seja A uma matriz de ordem n× n. 1. Se A tem uma linha o uma coluna de zeros, enta˜o detA = 0. 2. Se duas linhas ou colunas de A sa˜o iguais, enta˜o detA = 0. 3. detA = detAT . 4. Se A e´ uma matriz, triangular superior ou triangular inferior ou diagonal, enta˜o o detA e´ igual ao produto de seus elementos da diagonal. 8 5. Se B e´ uma matriz de ordem n × n, enta˜o: det(A + B) 6= detA + detB e det(AB) = detA detB 6. Seja B a matriz obtida ao multiplicar uma u´nica linha ou coluna de A por k, enta˜o: detB = k detA (detA = 1 k detB). 7. Seja B a matriz obtida ao permutar duas linhas (ou duas colunas) de A, enta˜o detB = − detA. 8. Seja B a matriz obtida ao somar um mu´ltiplo de uma linha (ou colunas) de A a uma outra linha (ou coluna), enta˜o detB = detA. Calculando Determinantes usando reduc¸a˜o por linhas A seguir apresentamos um me´todo para calcular determinantes que envolve substancial- mente menos contas que aplicando a definic¸a˜o diretamente. Assim, tendo em mente as propriedades 6, 7 e 8, a ide´ia sera´ reduzir a matriz A ao formatotriangular, usando as seguintes operac¸o˜es elementares sobre as linhas de uma matriz (me´todo de Jacobi): Exemplo: Ache o determinante da matriz A = 0 1 5 3 −6 9 2 6 1 . Sol.: Reduzindo a matriz a uma triangular superior, obtemos que detA = ∣∣∣∣∣∣∣∣∣ 0 1 5 3 −6 9 2 6 1 ∣∣∣∣∣∣∣∣∣ = − ∣∣∣∣∣∣∣∣∣ 3 −6 9 0 1 5 2 6 1 ∣∣∣∣∣∣∣∣∣ (linhas 2 e 3 foram permutadas) = −3 ∣∣∣∣∣∣∣∣∣ 1 −2 3 0 1 5 2 6 1 ∣∣∣∣∣∣∣∣∣ (o fator comun 3 da linha 1 foi retirado) 9 = −3 ∣∣∣∣∣∣∣∣∣ 1 −2 3 0 1 5 0 10 −5 ∣∣∣∣∣∣∣∣∣ (linha 3 + (-2) (linha 1)) = −3 ∣∣∣∣∣∣∣∣∣ 1 −2 3 0 1 5 0 0 −55 ∣∣∣∣∣∣∣∣∣ (linha 3 + (-10) (linha 2)) = −3(1)(1)(−55) = 165 Exemplo: Ache o determinante da matriz A = 1 0 0 3 2 7 0 6 0 6 3 0 7 3 1 −5 . Sol.: Reduzindo a matriz a uma triangular inferior usando operac¸o˜es por coluna, obte- mos que detA = ∣∣∣∣∣∣∣∣∣∣∣∣ 1 0 0 3 2 7 0 6 0 6 3 0 7 3 1 −5 ∣∣∣∣∣∣∣∣∣∣∣∣ = ∣∣∣∣∣∣∣∣∣∣∣∣ 1 0 0 0 2 7 0 0 0 6 3 0 7 3 1 −26 ∣∣∣∣∣∣∣∣∣∣∣∣ (coluna 4 + (-3)(coluna 1)) = (1)(7)(3)(−26) = −546 1.2.7 Matriz Inversa Uma matriz quadrada A e´ dita invers´ıvel, se existir uma outra matriz B, da mesma ordem, tal que A.B = I e B.A = I. Denotaremos B = A−1, sendo que A.A−1 = A−1.A = I. Propriedades: • Se A e B sa˜o matrizes de mesma ordem, ambas invers´ıveis, enta˜o A e B e´ invers´ıvel e (A.B)−1 = B−1 . A−1. • Nem toda matriz tem inversa. 10 Supondo agora que An×n tenha inversa, isto e´, existe A−1 tal que A·A−1 = I. Usando o determinante obte´m-se det (A · A−1) = det A · det A−1 e det I = 1 Enta˜o: detA−1 = 1 detA Definic¸a˜o 1.6. Seja a matriz A ∈ Mn×n(R). Chamaremos de matriz Adj(A) a Ad- junta de A, a` transposta da matriz de cofatores (Cof(A) = (Aij)n×n). Simbolicamente escrevemos Adj(A) = (Cof(A))T . Teorema 1.1. Se A e´ uma matriz invers´ıvel, enta˜o: A−1 = 1 detA Adj (A). Uma condic¸a˜o necessa´ria para que A tenha inversa e´ que o detA 6= 0. Ex.: Ache a inversa de A = 1 2 −1 3 . Sol.: Calculando temos que detA = 5, a matriz de cofatores Cof(A) = 3 1 −2 1 e a adjunta Adj(A) = (Cof(A))T = 3 −2 1 1 , logo pelo Teorema 1.1 A−1 = 1 5 · 3 −2 1 1 . (1.10) Calculando a Inversa usando reduc¸a˜o por linhas Um outra forma para achar a inversa de uma matriz A qualquer, e que envolve substan- cialmente menos contas do que aplicando a definic¸a˜o diretamente, e´ usando as operac¸o˜es elementares sobre as linhas da matriz aumentada associada (A|I) de modo que esta se transforme numa matriz aumentada da forma (I|B). Diremos que B = A−1. As operac¸o˜es elementares permitidas sa˜o: 11 1. Permutar linhas Li ←→ Lj 2. Multiplicar uma linha por um nu´mero real α na˜o nulo, Li ←→ αLi. 3. Somar a uma linha um mu´ltiplo de uma outra, Li ←→ Li + αLj. Exemplo: Ache a inversa da matriz A = 0 1 5 3 −6 9 2 6 1 . Sol.: Apartir da matriz aumentada, usando as operac¸o˜es por linhas temos: (A|I) = 0 1 5 | 1 0 0 3 −6 9 | 0 1 0 2 6 1 | 0 0 1 L1 ←→ L2 L3 ←→ L3 = 3 −6 9 | 0 1 0 0 1 5 | 1 0 0 2 6 1 | 0 0 1 L1 ←→ L1/3 L2 ←→ L2 L3 ←→ L3 = 1 −2 3 | 0 1/3 0 0 1 5 | 1 0 0 2 6 1 | 0 0 1 L1 ←→ L1 L2 ←→ L2 L3 ←→ L3 − 2L1 = 1 −2 3 | 0 1/3 0 0 1 5 | 1 0 0 0 10 −5 | 0 −2/3 1 L1 ←→ L1 L2 ←→ L2 L3 ←→ L3 − 10L2 = 1 −2 3 | 0 1/3 0 0 1 5 | 1 0 0 0 0 −55 | −10 −2/3 1 L1 ←→ L1 L2 ←→ L2 L3 ←→ −L3/55 = 1 −2 3 | 0 1/3 0 0 1 5 | 1 0 0 0 0 1 | 10/55 2/165 −1/55 L1 ←→ L1 − 3L3 L2 ←→ L2 − 5L3 L3 ←→ L3 = 1 −2 0 | −30/55 49/165 3/55 0 1 0 | 5/55 −10/165 5/55 0 0 1 | 10/55 2/165 −1/55 L1 ←→ L1 + 2L2 L2 ←→ L2 L3 ←→ L3 12 = 1 0 0 | −20/55 69/165 13/55 0 1 0 | 5/55 −10/165 5/55 0 0 1 | 10/55 2/165 −1/55 Logo a matriz inversa de A e´ A−1 = −20/55 29/165 13/55 5/55 −10/165 5/55 10/55 2/165 −1/55 = 1165 −60 29 39 15 −10 15 30 2 −3 (1.11) Exerc´ıcios 1. Sejam as matrices A = 3 −4 1 2 1 2 1 0 −1 ; B = 1 0 2 3 1 −1 2 −3 4 e C = −1 0 0 2 4 0 1 −1 5 . Calcular A + 2C, B2 = B · B, −C · B, B − A, det(2A), det (C − B). 2. Seja A = √2 x2 2x 1 . Calcule os poss´ıveis valores de x, para que AT = A. 3. (i) Se A e´ uma matriz sime´trica n× n, calcule AT − A. (ii) Se A e´ uma matriz triangular inferior, AT e´ uma matriz triangular . . . . . . . (iii) A e´ uma matriz diagonal, calcule AT . 4. Seja A = 2 3 −4 0 −4 2 1 −1 5 , (i) Calcule detA desenvolvendo em relac¸a˜o a` primeira linha. (ii) Calcule detA desenvolvendo em relac¸a˜o a` primeira coluna. (iii) Calcule detA desenvolvendo em relac¸a˜o a` segunda coluna. 5. Calcule o determinante desenvolvendo por linha ou por coluna A = 2 0 3 0 3 0 0 1 0 2 3 0 2 0 1 4 B = a b c c a b b c a . 13 6. Calcule o determinante de cada uma das seguintes matrizes (use as operac¸o˜es elementares por linhas para reduzir as matrizes abaixo a` sua forma triangular). A = 2 0 −1 3 0 2 4 −3 7 , B = t+ 3 −1 1 5 t− 3 1 6 −6 t+ 4 e C = 1 4 −5 0 0 1 −1 8 7 . 7. Sejam as matrizes A = −1 3 −4 2 4 1 −4 2 −9 B = 1 0 0 1 3 0 1 3 5 e C = cos θ sen θ 0 − sen θ cos θ 0 0 0 1 . (i) Calcule os cofatores das matrizes A, B e C. (ii) Determine a inversa das matrizes A, B e C usando o Teorema 1.1. 8. Sejam as matrizes A = 2 5 5 −1 −1 0 2 4 3 , B = 2 0 3 0 3 2 −2 0 −4 e C = 2 0 0 8 1 0 −5 3 6 . (i) Calcule os cofatores das matrizes A, B e C. (ii) Determine a inversa das matrizes A, B e C. 9. Encontre a inversa de cada uma das matrizes dadas usando as operac¸o˜es por linha 3 4 −1 1 0 3 2 5 −4 , 1 0 0 1 1 0 1 1 1 , 1 0 −1 9 −1 4 8 9 −1 . 14 Cap´ıtulo 2 Sistemas de Equac¸o˜es Lineares Alge´bricas Uma equac¸a˜o linear de n incognitas e´ uma equac¸a˜o da forma a1x1 + a2x2 + · · ·+ anxn = b (2.1) Um sistema linear de m equac¸o˜es alge´bricas lineares de n varia´veis (incognitas) e´ um conjunto de equac¸o˜es lineares que devem ser resolvidas simultaneamente, por exemplo: a11x1 + a12x2 + · · ·+ a1nxn = b1 a21x1 + a22x2 + · · ·+ a2nxn = b2 ... am1x1 + am2x2 + · · ·+ amnxn = bm (2.2) onde os aij e bi sa˜o nu´meros reais. Em 1858, o matema´tico ingleˆs Artur Cayley introduz uma notac¸a˜o abreviada para expressar o sistema linear (2.2), na forma matricial: a11 a12 · · · a1n a21 a22 · · · a2n ... ... . . . ... am1 am2 · · · amn m×n . x1 x2 ... xn n×1 = b1 b2 ... bm m×1 . (2.3) Assim a forma matricial (2.3) escreve-se abreviadamente por: Ax = b, (2.4) 15 onde A e´ uma matriz m× n, b um vetor m× 1 e x e´ um vetor n× 1. “Se b = 0, o sistema e´ dito homogeˆneo, caso contra´rio ele e´ na˜o-homogeˆneo”. 2.1 Classificac¸a˜o de um Sistema Linear O sistema linear (2.2) pode ter ou na˜o soluc¸a˜o. Assim, classificaremos os sistemas lineares em dois tipos: 1. Compat´ıvel (ou poss´ıvel) Determinado, uma u´nica soluc¸a˜oIndeterminado mais de uma soluc¸a˜o. 2. Incompat´ıvel (ou imposs´ıvel)quando na˜o possui soluc¸a˜o. Se o sistema linear (2.2) tem o nu´mero de equac¸o˜es igual ao nu´mero de incognitas (m = n), enta˜o a matriz A associada a forma matricial equivalente (2.4) sera´ uma matriz quadrada n× n. Logo, • Se a matriz A e´ invers´ıvel, isto e´, o detA 6= 0, enta˜o o sistema tem u´nica soluc¸a˜o, ou seja, x = A−1b. • Se a matriz A na˜o e´ invers´ıvel, isto e´ det A = 0, enta˜o o sistema na˜o tem soluc¸a˜o, ou existe soluc¸a˜o mas na˜o e´ u´nica. (Um sistema homogeˆneo: Ax = 0, onde det A = 0, possui infinitas soluc¸o˜es) Observac¸a˜o 2.1. Um sistema linear homogeˆneo Ax = 0 admite sempre a soluc¸a˜o nula, chamada soluc¸a˜o trivial. Logo, um sistema linear homogeˆneo e´ sempre compat´ıvel. Exemplo: E´ simples verificar que a soluc¸a˜o nula x = (0, 0, 0)T e´ soluc¸a˜o do sistema linear homogeˆneo, 3x1 − x2 + 7x3 = 0x1 − 2x2 + 3x3 = 0. ⇐⇒ 3 −1 7 1 −2 3 x1 x2 x3 = 0 0 0 ⇐⇒ Ax = 0 16 Uma interpretac¸a˜o geome´trica das soluc¸o˜es de um sistema linear, pode ser observada para sistemas de ordem 2× 2. Por exemplo, sejam os sistemas: I) x1 + x2 = 2x1 − x2 = 2 II) x1 + x2 = 2x1 + x2 = 1 III) x1 + x2 = 2−x1 − x2 = −2. A soluc¸a˜o dos respectivos sistemas podem ser visualizados nos seguintes gra´ficos Figura 2.1: 2.2 Resoluc¸a˜o de Sistemas por Escalonamento O objetivo sera´ migrar de um sistema linear Ax = b para outro que lhe seja equiva- lente, e de resoluc¸a˜o mais simples. A ide´ia enta˜o e´, usar as operac¸o˜es elementares sobre as linhas da matriz aumentada (A |b) de modo que esta se transforme a` forma (A′ |b′) onde A′ e´ uma matriz escalonada. Assim, o sistema final equivalente A′x = b ′ se resolvera´ usando substituic¸o˜es regressivas. Exemplo: Ache a soluc¸a˜o do sistema linear x1 + 2x2 + x3 = 3 3x1 − x2 − 3x3 = −1 2x1 + 3x2 + x3 = 4. ⇐⇒ 1 2 1 3 −1 −3 2 3 1 x1 x2 x3 = 3 −1 4 ⇐⇒ Ax = b 17 Sol.: Apartir da matriz aumentada, usando as operac¸o˜es por linhas temos: (A|b) = 1 2 1 | 3 3 −1 −3 | −1 2 3 1 | 4 L2 ←→ L2 − 3L1 L3 ←→ L3 − 2L1 = 1 2 1 | 3 0 −7 −6 | −10 0 −1 −1 | −2 L2 ←→ L3 = 1 2 1 | 3 0 −1 −1 | −2 0 −7 −6 | −10 L3 ←→ L3 − 7L2 = 1 2 1 | 3 0 −1 −1 | −2 0 0 1 | 4 = (A′|b′) O sistema equivalente resultante e´ x1 +2x2 + x3 = 3 −x2 − x3 = −2 x3 = 4. A soluc¸a˜o deste u´ltimo sistema obtem-se resolvendo a u´ltima equac¸a˜o e substituindo a respectiva soluc¸a˜o na equac¸a˜o anterior, ate´ chegar na primeira. Exerc´ıcios 1. Resolva os seguintes sistemas pelo me´todo de escalonamento de Gauss-Jordan. (i) x − 2y + z = −2 2x − 5y + z = 1 3x − 7y + 2z = −1 (ii) x − 2y + z = 1 2x − 5y + z = −1 3x − 7y + 2z = 0 18 iii) x + 2y + 3z = 0 x + 4y + 4z + w = 7 3x + 7y + 9z + w = 4 −2x − 4y − 6z − w = 6 2. O sistema seguinte na˜o tem soluc¸o˜es para quais valores de a?. Exatamente uma soluc¸a˜o?. Infinitas soluc¸o˜es. x + 2y − 3z = 4 3x − y + 5z = 2 4x + y + (a2 − 14)z = a+ 2 19 Cap´ıtulo 3 Vetores Com o intuito de esclarecer melhor o conceito de vetor, uma abordagem geome´trica e alge´brica sera˜o apresentadas. 3.1 Interpretac¸a˜o Geome´trica Existem dois tipos de grandezas: as escalares e as vetoriais. As escalares sa˜o aquelas que ficam definidas por apenas um nu´mero real (acompanhado de uma unidade ade- quada). Por exemplo, comprimento, a´rea, volume, massa, densidade e temperatura. As grandezas vetoriais, sa˜o o caso contrario, isto e´, na˜o basta saber seu mo´dulo e unidade correspondente, para serem perfeitamente caracterizadas precissamos sua direc¸a˜o e seu sentido. Por exemplo, forc¸a, velocidade e acelerac¸a˜o. Definic¸a˜o 3.1. Um vetor e´ representado por um segmento orientado (um segmento esta´ orientado quando nele se escolhe um sentido de percurso, considerado positivo). Dois o mais segmentos orientados de mesmo comprimento, mesma direc¸a˜o (paralelos ou colineares) e mesmo sentido, sa˜o representantes de um mesmo vetor. Na seguinte figura todos os segmentos orientados paralelos ou colineares, de mesmo sentido e mesmo comprimento de AB, representam o mesmo vetor, que sera´ indicado por −→ AB ou B − A 20 onde A e´ a origem e B a extremidade do segmento. O vetor sera´ representado por uma letra minu´scula encimada por uma flecha, tal como ~v Figura 3.1: Assim sendo, cada ponto do espac¸o pode ser considerado como u´nico origem de um segmento orientado que e´ representante do vetor ~v. 3.1.1 Adic¸a˜o de Vetores Consideremos dois vetores ~u e ~v, cuja soma ~u+ ~v pretendemos encontrar. Tomemos um ponto A qualquer e, com origem nele, tracemos um segmento orientado −→ AB representante do vetor ~u e um segmento orientado −−→ BC representante do vetor ~v. O vetor representado pelo segmento orientado −→ AC sera´ o representante do vetor soma ~u+ ~v, isto e´, ~u+ ~v = −→ AC ou −→ AB + −−→ BC = −→ AC 21 Sendo ~u, ~v e ~w vetores quaisquer, a adic¸a˜o admite as seguintes propriedades 1. Conmutativa: ~u+ ~v = ~v + ~u. 2. Associativa: (~u+ ~v) + ~w = ~u+ (~v + ~w). 3. Elemento Neutro: ~u+~0 = ~u 4. Elemento Oposto: ~u+ (−~u) = ~0 Observac¸a˜o 3.1. O vetor ~u+ (−~v) escreve-se ~u− ~v,e´ chamado diferenc¸a entre ~u e ~v. 3.1.2 Multiplicac¸a˜o de um Nu´mero Real por um Vetor Dado um vetor ~u 6= 0 e um nu´mero real α 6= 0, chama-se produto do nu´mero real α pelo vetor ~u, o vetor α~u tal que: 22 1. Mo´dulo ou comprimento: |α~v| = |α||~v| 2. Direc¸a˜o: α~v e´ paralelo a ~v 3. Sentido: α~v e ~v tem o mesmo sentido se α > 0, e contra´rio se α < 0. 3.1.3 Aˆngulo entre dois vetores O aˆngulo entre os vetores na˜o nulos u e v e´ o aˆngulo θ formado por duas semi-retas OA e OB de mesma origem O, onde ~u = −→ OA, ~v = −−→ OB e 0 ≤ θ ≤ π. • Se ~u//~v e ~u e ~v teˆm o mesmo sentido, enta˜o θ = 0. Na figura acima, o aˆgulo entre ~u e 2~u e´ zero. • Se ~u//~v e ~u e ~v teˆm sentidos contra´rios, enta˜o θ = π. Na figura acima, o aˆgulo entre ~u e −3~u e´ π. 3.2 Interpretac¸a˜o Alge´brica no Plano Consideremos dois vetores ~v1 e ~v2 na˜o paralelos, representados com a origem no mesmo ponto O, e sejam r1 e r2 retas contendo estes representantes, respectivamente. 23 Os vetores ~u, ~v, ~w, ~x e ~y, representados na figura podem ser escritos em func¸a˜o de ~v1 e ~v2 por ~u = 3~v1 + 4~v2 ~v = −2~v1 + 3~v2 ~w = −3~v1 − ~v2 ~x = 2~v1 + 0~v2 ~y = 0~v1 + 3~v2 De modo geral dados dois vetores quaisquer ~v1 e ~v2, existe uma so´ dupla de nu´meros reais a1 e a2, tal que v = a1 ~v1 + a2 ~v2. O vetor ~v e´ chamado combinac¸a˜o linear de v1 e v2. O conjunto B = {~v1, ~v2} e´ chamado de base no plano. “Qualquer conjunto de dois vetores na˜o paralelos forma uma base no plano” Observac¸a˜o 3.2. Dentre as infinitas bases que existem no plano a mais importante e´ aquela que determina o conhecido sistema cartesiano ortogonal xOy. Esta base e´ chamada de base canoˆnica e esta determinada pelos vetores ortogonais e unita´rios ~i = (1, 0) e ~j = (0, 1). Assim, qualquer vetor ~v = (x, y) do plano pode-se escrever da forma v = x~i+ y ~j. 24 Igualdade de Vetores. Dois vetores ~u = (x1, y1) e ~v = (x2, y2) sa˜o iguais se, x1 = x2 e y1 = y2. Neste caso, escrevemos ~u = ~v. Definic¸a˜o 3.2. Sejam dois vetores ~u = (x1, y1) e ~v = (x2, y2) e α ∈ R. Define-se 1. ~u+ ~v = (x1 + x2, y1 + y2) 2. α~u = (α x1, α y1) 3. −~u = (−1)~u = (−x1,−y1) 4. ~u− ~v = ~u+ (−~v) = (x1 − x2, y1 − y2).As definic¸o˜es anteriores e as operac¸o˜es alge´bricas dos nu´meros reais permitem demon- strar as propriedades seguintes: 1. ~u+ ~v = ~v + ~u 2. ~u+~0 = ~u 3. (~u+ ~v) + ~w = ~u+ (~v + ~w) 4. ~u+ (−~u) = ~0 5. α(β~v) = (αβ)~v 6. α(~u+ ~v) = α~u+ α~v 7. (α+ β)~u = α~u+ β~u 8. 1~u = ~u. Observac¸a˜o 3.3. E´ importante lembrar que um vetor tem infinitos representantes que sa˜o os segmentos orientados de mesmo comprimento, mesma direc¸a˜o e mesmo sentido. E, dentre os infinitos representantes de −→ AB (A = (x1, y1), B = (x2, y2)), o que “melhor o caracteriza” e´ aquele que tem origem em O = (0, 0) e extremidade no ponto P = (x2−x1, y2−y1). O vetor ~v = −→OP e´ tambe´m chamado vetor posic¸a˜o ou representante natural de −→ AB. 25 Mo´dulo de um vetor Seja o vetor ~u = (x, y). Pelo Teorema de Pitagoras, vem |u| = √ x2 + y2. (3.1) 3.3 Interpretac¸a˜o Alge´brica no Espac¸o No plano vimos que dado qualquer vetor ~u, este pode ser escrito como uma combinac¸a˜o da base canoˆnica {~i,~j}, isto e´, ~u = (x, y) = x~i+ y~j. Analogamente, no espac¸o, consid- eraremos a base canoˆnica {~i, ~j, ~k}, como aquela que ira´ determinar o sistema cartesiano ortogonal Oxyz, neste caso ~i = (1, 0, 0), ~j = (0, 1, 0), ~k = (0, 0, 1). Assim, dado um vetor qualquer ~u ∈ R3 este pode-se expressar da forma ~u = (x, y, z) = x~i+ y~j + z ~k. (3.2) As definic¸o˜es e concluso˜es no espac¸o sa˜o ana´logas a`s do plano. Definic¸a˜o 3.3. Sejam os vetores ~u = (x1, y1, z1) e ~v = (x2, y2, z2) e α ∈ R. Define-se 1. ~u = ~v se e somente se x1 = x2, y1 = y2 e z1 = z2. 2. ~u+ ~v = (x1 + x2, y1 + y2, z1 + z2) 3. α~u = (α x1, α y1, α z1) 4. −~u = (−1)~u = (−x1,−y1,−z1) 5. ~u− ~v = ~u+ (−~v) = (x1 − x2, y1 − y2, z1 − z2). Ale´m disso, 1. ~u+ ~v = ~v + ~u 2. ~u+~0 = ~u 3. (~u+ ~v) + ~w = ~u+ (~v + ~w) 26 4. ~u+ (−~u) = ~0 5. α(β~v) = (αβ)~v 6. α(~u+ ~v) = α~u+ α~v 7. (α+ β)~u = α~u+ β~u 8. 1~u = ~u. Mo´dulo de um vetor Seja o vetor ~u = (x, y, z), |u| = √ x2 + y2 + z2. (3.3) 3.4 Produto Escalar Chama-se produto escalar de dois vetores ~u e ~v ao nu´mero real ~u · ~v, Quando ~u = (x1, y1) e ~v = (x2, y2) =⇒ ~u · ~v = x1x2 + y1y2. (3.4) Quando u = (x1, y1, z1) e v = (x2, y2, z2) =⇒ ~u · ~v = x1x2 + y1y2 + z1z2. (3.5) Propriedades do Produto Escalar Dados os vetores u, v e w e o nu´mero real α, e´ fa´cil verificar que: Ale´m disso, 1. ~u · ~v = ~v · ~u 2. ~u · (~v + ~w) = ~u · ~v + ~u · ~w 3. (~u+ ~v) · ~w = ~u · ~w + ~v · ~w 4. α · (~u · ~v) = (α~u) · ~v = ~u · (α~v) 5. ~u · ~u > 0 se ~u 6= ~0 e ~u · ~u = 0 se ~u = ~0. 6. ~u · ~u = |~u|2. 27 3.4.1 Interpretac¸a˜o Geome´trica do Produto Escalar Se ~u e ~v sa˜o dois vetores na˜o nulos e θ e´ o aˆngulo entre eles, enta˜o: ~u · ~v = |~u| |~v| cos θ. (3.6) De fato, aplicando a lei dos co-senos ao triaˆngulo ABC, temos: |~u− ~v|2 = |~u|2 + |~v|2 − 2|~u||~v| cos θ. Por outro lado, como |~u− ~v|2 = (~u− ~v) · (~u− ~v) = |~u|2 − 2~u · ~v + |~v|2, enta˜o a igualdade segue-se. Exemplo 3.1. Sejam |~u| = 2, |~v| = 3 e 120o o aˆngulo entre ~u e ~v. Calcular i) ~u · ~v ii) |~u+ ~v| iii) |~u− ~v|. Sol. i) ~u · ~v = |~u||~v| cos 120o = (2)(3) −1 2 = −3 (3.7) ii) |~u+ ~v| = √ |~u|2 + |~v|2 + 2~u · ~v = √ 22 + 32 + 2(−3) = √ 7 (3.8) ii) |~u− ~v| = √ |~u|2 + |~v|2 − 2~u · ~v = √ 22 + 32 − 2(−3) = √ 19. (3.9) 3.4.2 Aˆngulo entre dois Vetores Seja θ o aˆngulo entre ~u e ~v, enta˜o: cos θ = ~u · ~v |~u||~v| . 28 Exemplo 3.2. Sejam ~u = (4,−2), ~v = (3, 1) cos θ = (4,−2) · (3, 1) |(4,−2)||(3, 1)| = 4.3 + (−2).1√ 42 + (−2)2√32 + 1 = 10√ 20 √ 10 = √ 2 2 Logo, θ = arccos √ 2 2 ⇒ θ = 45o. Exemplo 3.3. Um vetor ~v do espac¸o forma com os vetores ~i e ~j aˆngulos de 60o e 120o, respectivamente. Determinar o vetor ~v, sabendo que |~v| = 2. Sol. Das hipoˆteses temos para v = (x, y, z) que: cos 60o = ~v ·~i |~v||~i| = ~v ·~i (2)(1) ⇒ x = ~v ·~i = 2 cos 60o = 1 e cos 120o = ~v ·~j |~v||~j| = ~v ·~j (2)(1) ⇒ y = ~v ·~j = 2 cos 120o = −1 Por outro lado, ja que |~v| = √ x2 + y2 + z2 = 2, tem-se z = ±√2. Portanto, ~v = (1,−1,√2) ou ~v = (1,−1,−√2). Observac¸a˜o 3.4. Note que dois vetores ~u e ~v diferentes de zero, sa˜o ortogonais (~u⊥~v), se e somente se ~u · ~v = 0. Exemplo. Os vetores ~u = (10, √ 2) e ~v = (−1 5 , √ 2) formam um aˆngulo de 90o, pois ~u · ~v = 10(−1 5 ) + √ 2( √ 2) = 0 Observac¸a˜o 3.5. Sejam dois vetores ~u e ~v quaisquer, 1. |~u · ~v| ≤ |~u||~v| (Desigualdade de Schwartz) 2. |~u+ ~v| ≤ |~u|+ |~v| (Desigualdade Triangular). 3.4.3 Projec¸a˜o de um Vetor sobre Outro Sejam os vetores ~u e ~v na˜o nulos e θ o aˆngulo entre eles. O objetivo sera´ decompor um dos vetores, digamos ~u, da forma ~u = ~u1 + ~u2 29 sendo ~u1‖~v e ~u2 ⊥ ~v. O vetor ~u1 e´ chamado projec¸a˜o ortogonal de ~u sobre ~v, e denotado por: ~u1 = Proj~v ~u. Com efeito, ja que: ~u1‖~v ⇒ ~u1 = α~v e dado que ~u2 = ~u− ~u1 = ~u− α~v enta˜o ~u2 ⊥ ~v ⇒ (~u− α~v) ⊥ ~v ⇒ (~u− α~v) · ~v = 0 ⇒ α = ~u · ~v|~v|2 Portanto, Proj~v ~u = ~u1 = ( ~u · ~v |~v|2 ) ~v. Chamamos de componente de u sobre v ao vetor Comp ~v ~u = ~u2 = ~u− α~v = ~u− Proj ~v ~u. 3.5 Produto Vetorial Chama-se produto vetorial de dois vetores ~u = (x1, y1, z1) e ~v = (x2, y2, z2) de R 3, tomados nessa ordem, e reprentados por ~u× ~v, ao vetor: ~u× ~v = ∣∣∣∣∣∣ y1 z1 y2 z2 ∣∣∣∣∣∣ ~i− ∣∣∣∣∣∣ x1 z1 x2 z2 ∣∣∣∣∣∣ ~j + ∣∣∣∣∣∣ x1 y1 x2 y2 ∣∣∣∣∣∣ ~k. 30 Pela facilidade para memorizar denotaremos a definic¸a˜o anterior da forma: ~u× ~v = ∣∣∣∣∣∣∣∣∣ ~i ~j ~k x1 y1 z1 x2 y2 z2 ∣∣∣∣∣∣∣∣∣ . Exemplo 3.4. Calcular ~u× ~v para ~u = (5, 4, 3) e ~v = (1, 0, 1). Sol. ~u× ~v = ∣∣∣∣∣∣∣∣∣ ~i ~j ~k 5 4 3 1 0 1 ∣∣∣∣∣∣∣∣∣ = ∣∣∣∣∣∣ 4 3 0 1 ∣∣∣∣∣∣ ~i− ∣∣∣∣∣∣ 5 3 1 1 ∣∣∣∣∣∣ ~j + ∣∣∣∣∣∣ 5 4 1 0 ∣∣∣∣∣∣ ~k = 4~i− 2~j − 4~k. Observac¸a˜o 3.6. Uma forma pra´tica para o ca´lculo de ~u× ~v e´ dispondo os dois vetores em linha, e repetindo pela ordem, as duas primeras colunas, As treˆs componentes de ~u× ~v sa˜o dadas pelos treˆs determinantes, conforme a seguir. O sentido do vetor ~u×~v podera´ ser determinado pela regra da ma˜o direita, isto e´, se os dedos da ma˜o direita forem dobrados na mesma direc¸a˜o de rotac¸a˜o, enta˜o o polegar estendido indicara´ o sentido de ~u× ~v. 31 3.5.1 Propriedades: As demonstrac¸o˜es das seguintes propriedades sa˜o uma consequeˆncia direta da definic¸a˜o de produto vetorial e das propriedades de determinante. 1. ~v × ~u = −~u× ~v. 2. ~u× ~v = ~0, se e somente se, ~u ‖ ~v. 3. O vetor ~u× ~v e´ simultaneamente perpendicular a ~u e ~v, isto e´ (~u× ~v) · ~u = ~0 e (~u× ~v) · ~v = ~0. 4. ~u× (~v + ~w) = ~u× ~v + ~u× ~w e (~u+ ~v)× ~w = ~u× ~w + ~v × ~w. 5. α (~u× ~v) = (α ~u)× ~v = ~u× (α ~v). 6. ~u · (~v × ~w) = (~u× ~v) · ~w. 32 7. |~u× ~v|2 = |~u|2 |~v|2 − (~u · ~v)2, (chamada identidade de Lagrange). Observac¸a˜o 3.7. Como uma consequeˆncia da identidade de Lagrange e tendo em conta que ~u · ~v = |~u| |~v| cos θ, temos que: |~u× ~v| = |~u| |~v| sen θ 3.5.2 Interpretac¸a˜o Geome´trica A a´rea de um paralelogramo determinado pelos vetores ~u e ~v , onde a medida da base e´ ~u e a altura e´ |~v| sen θ, e´ A = (base)x(altura) = |~u| |~v| sen θ Observac¸a˜o 3.8. O produto misto ~u · (~v × ~w) e´ igual, em mo´dulo, ao volume do pa- ralelep´ıpedo de arestas determinadas pelos vetores na˜o coplanares ~u, ~v e ~w (os treˆs na˜o se encontram num mesmo plano). 3.6 Exerc´ıcios 1. Sejam A = (1, 2), B = (0, 1), C = (−1,−1) e D = (2, 3) pontos de R2. Calcule e grafique os seguintes vetores (com ponto inicial na origem). a) −→ AB + −−→ BC b) −−→ CD + 2 −→AB c) −→ AB −−−→CD d) −−→CD −−→AB e) −1 2 −−→ DC 33 2. Sejam A = (3, 1, 4), B = (0, 1, 1), C = (1,−1, 2) e D = (2, 1, 0) pontos de R3. Calcule e grafique os seguintes vetores (com ponto inicial na origem). a) −→ AB b) −−→ CD + −→ AB c) −→ AB −−−→CD d) −−→CD +−→AB 3. Encontre as componentes do vetor com ponto inicial P1 e ponto final P2. a) P1 = (4, 3), P2 = (3, 2) b) P1 = (−a, b), P2 = (a, b) c) P1 = (−1, 0, 2), P2 = (2, 1,−2) 4. Encontre um vetor na˜o-nulo ~u com ponto inicial P = (−1, 3,−1) tal que a) ~u tenha a mesma direc¸a˜o e sentido que ~v = (2, 1,−1). b) ~u tenha a mesma direc¸a˜o mas sentido oposto que ~v = (1,−1, 1). 5. Sejam ~u = (1, √ 3), ~v = (0, 1) e ~w = (1, 1) vetores de R2. (i) Calcular a) |2~u| b) 1/|~w| c) |~u+ ~v| d) (~u− ~v) · ~v. (ii) Calcular a) Pr~v~u b) Pr~w~v c) Pr~v ~w d) ∡(~u,~v) e) ∡(~v, ~w). (iii) Calcule a a´rea do paralelogramo determinado por: a) ~u e ~v b) ~v e ~w. 6. Sejam ~u = (2, 1,−1), ~v = (0, 1, 2) e ~w = (−1, 1, 3) vetores de R3. (i) Calcular a) ~u×~v b) ~w/|~w| c) |~u.(~v× ~w)| d) −2~v× ~w e) |~u×~v× ~w|. (ii) Calcular a) Pr~v~u b) Pr~u~v c) Pr~u ~w d) ∡(~u,~v) e) ∡(~v, ~w). 7. Calcule o valor de m para que a a´rea do paralelogramo determinado pelos vetores ~u = (m,−3, 1) e ~v = (1,−2, 2) seja igual a √26. 8. Calcule a a´rea do triaˆngulo ABC e a altura relativa ao lado BC, sendo dados A = (−4, 1, 1), B = (1, 0, 1), C = (0,−1, 3). 9. Encontre o vetor ortogonal ao plano determinado pelos pontos A = (3, 0, 0), B = (0, 3, 0), C = (0, 0, 2). Calcule a a´rea do triaˆngulo ABC. 10. Um paralelep´ıpedo e´ determinado pelos vetores ~u = (3,−1, 4), ~v = (2, 0, 1) e ~w = (−2, 1, 5). Calcule seu volume, e a altura relativa a` base definida pelos vetores ~u e ~v. 34 Cap´ıtulo 4 Espac¸o Vetorial Um espac¸o vetorial e´ um conjunto V de elementos chamados vetores, onde esta˜o definidas duas operac¸o˜es: 1. Adic¸a˜o: Para todo u, v ∈ V , a soma u⊕ v ∈ V . 2. Produto por um escalar α: Seja α ∈ R (ou α ∈ C) e v ∈ V , enta˜o α⊙ v ∈ V . Ale´m disso, para todo u, v, w ∈ V e α, β ∈ R (ou C), os seguintes axiomas sa˜o satisfeitos: Em relac¸a˜o a` adic¸a˜o: 3. (u⊕ v)⊕ w = u⊕ (v ⊕ w) 4. u⊕ v = v ⊕ u 5. ∃ 0 ∈ V, u⊕ 0 = u 6. ∃ (−u) ∈ V, u⊕ (−u) = 0 Em relac¸a˜o ao produto por um escalar: 7. (αβ)⊙ u = α⊙ (β ⊙ u) 8. (α+ β)⊙ u = (α⊙ u)⊕ (β ⊙ u) 9. α⊙ (u⊕ v) = (α⊙ u)⊕ (α⊙ v) 10. 1⊙ u = u 35 Quando os escalares considerados sa˜o nu´meros reais, diremos que V e´ um espac¸o vetorial real. No caso dos escalares serem complexos, V sera´ chamado espac¸o vetorial complexo. Em diante, nos trabalharemos so´ com espac¸os vetoriais reais. Exemplo 4.1. V = Rn = {(x1, x2, . . . , xn)/xi ∈ R} e´ um espac¸o vetorial real com as operac¸o˜es (x1, x2, . . . , xn)⊕ (y1, y2, . . . , yn) = (x1 + y1, x2 + y2, . . . , xn + yn) (4.1) α⊙ (x1, x2, . . . , xn) = (αx1, αx2, . . . , αxn) (4.2) Sol. A prova deste exemplo na˜o e´ mais do que a generalizac¸a˜o das propriedades, vistas no Cap´ıtulo 3, para vetores no plano e no espac¸o associados a pontos (x1, x2) ∈ R2 e (x1, x2, x3) ∈ R3 respectivamente. Assim, com as operac¸o˜es de adic¸a˜o de vetores (4.1) e multiplicac¸a˜o de um vetor por um escalar real (4.2), e´ simples verificar todos os axiomas de espac¸o vetorial. Exemplo 4.2. O conjunto V = Mm×n(R) de todas as matrizes reais de ordem m × n e´ um espac¸o vetorial real com as operac¸o˜es de adic¸a˜o de matrizes e multiplicac¸a˜o por um escalar. Assim, para A = [aij ]m×n, B = [bij ]m×n e α ∈ R, definimos: A⊕B = [cij]m×n onde cij = aij + bij (4.3) α⊙ A = [dij ]m×n onde dij = α aij (4.4) Exemplo 4.3. Seja V = Pn(R) o conjunto de todos os polinoˆmios a0 + a1t + · · ·+ antn com coeficientes ai ∈ R. Enta˜o V e´ um espac¸o vetorial real com as operac¸o˜es de adic¸a˜o de polinoˆmios e multiplicac¸a˜o por um escalar. Seja p(t) = a0 + a1t + · · · + antn e q(t) = b0 + b1t+ · · ·+ bntn, (p⊕ q)(t) = p(t) + q(t) = (a0 + b0) + (a1 + b1)t+ · · ·+ (an + bn)tn (α⊙ p)(t) = α p(t) = α a0 + (α a1)t+ · · ·+ (α an)tn Exemplo 4.4. O conjunto V de todas as func¸o˜es reais definidas sobre o intervalo [a, b], e´ um espac¸o vetorial. Se f = f(x) e g = g(x) ∈ V , definimos (f ⊕ g)(x) = f(x) + g(x) (α⊙ f)(x) = α f(x) 36 Exemplo 4.5. Nenhum dos conjuntos N, Z, Q e´ espac¸o vetorial real, pois em todos eles o produto de um de seus elementos por um escalar, e´ um nu´mero real, o que contraria o Axioma 2 de espac¸o vetorial. 4.1 Subespac¸os Vetoriais Seja W , (W 6= ∅) um subconjunto do espac¸o vetorial V . Dizemos que W e´ um subespac¸o vetorial em relac¸a˜o a`s operac¸o˜es de V , se: i) u, v ∈ W ⇒ u⊕ v ∈ W ii) α ∈ R e u ∈ W ⇒ α⊙ u ∈ W. Exemplo 4.6. Seja V = M2×2(R) e W = {A ∈M2×2(R)/todos os elementos da diagonal de A sa˜o zeros}. Prove que W e´ um subespac¸o vetorial de V , com as operac¸o˜es usuais de matrizes. Sol.: Sejam A = 0 a12 a21 0 e B = 0 b12 b21 0 matrizes quaisquer de W , enta˜o A+B = 0 a12 + b12 a21 + b21 0 ∈ W. Se α ∈ R e A ∈ W , enta˜o αA = α.0 α.a12 α.a21 α.0 = 0 α.a12 α.a21 0 ∈ W Exemplo 4.7. Considere o subconjunto W = {(x, 1) ∈ R2/x ∈ R} com as operac¸o˜es usuais de R2. Prove que W na˜o e´ um subespac¸o vetorial. Sol.:Basta notar que a soma de dois elementos de W na˜o pertence a W . Os elementos (3, 1) ∈ W e (5, 1) ∈ W , mas a soma (3, 1) + (5, 1) = (8, 2) /∈ W 37 4.1.1 Propriedades dos Subespac¸os Soma. Sejam W1 e W2 subspac¸os de um espac¸o vetorial V . Enta˜o, o conjunto W1 +W2 = {v ∈ V / v = w1 + w2, w1 ∈ W1 e w2 ∈ W2} (4.5) e´ um subespac¸o de V . Exemplo 4.8. SejamW1 e W2 duas retas de R 3 que passam pela origem, enta˜o W1+W2 e´ o plano em R3 que conte´m as duas retas. Intersec¸a˜o. SejamW1 eW2 subspac¸os de um espac¸o vetorial V . A intersec¸a˜oW1∩W2 e´ um subespac¸o de V . Exemplo 4.9. Sejam W1 e W2 dois planos de R 3 que passam pela origem, de modo que W1 ∩W2 e´ uma reta em R3 que conte´m o (0, 0, 0). A intersec¸a˜o W1 ∩ W2 e´ um subespac¸o de R3. Quando W1 ∩W2 = {0}, enta˜o W1 +W2 e´ chamada soma direta de W1 com W2, e sera´ denotada por W1 ⊕W2. 38 4.2 Combinac¸a˜o Linear Dizemos que um vetor w e´ uma combinac¸a˜o linear dos vetores v1, v2, . . . , vn do espac¸o vetorial real V , (V,+, .), se existem α1, α2, . . . , αn ∈ R tal que w = α1 · v1 + α2 · v2 + . . .+ αn · vn. Exemplo 4.10. Considere os vetores ~u = (1, 2,−1), ~v = (6, 4, 2) ∈ R3. Mostre que ~w = (9, 2, 7) e´ uma combinac¸a˜o linear de ~u e ~v Sol.: Suponhamos que existem α, β ∈ R de modo que (9, 2, 7) = α(1, 2,−1) + β(6, 4, 2). Enta˜o, α + 6β = 9 2α + 4β = 2 −α + 2β = 7 implica que α = −3, β = 2 Portanto, (9, 2, 7) = −3(1, 2,−1)+2(6, 4, 2), consequentemente ~w e´ uma combinac¸a˜o linear de ~u e ~v. Exemplo 4.11. Considere os polinoˆmios p(x) = 1, q(x) = 1 + x e r(x) = 1 + x + x2. Mostre que qualquer polinoˆmio de ordem 2 pode-se escrever como uma combinac¸a˜o linear de p(x), q(x) e r(x). Sol.: Suponhamos que existem α, β, γ ∈ R de modo que a0 + b0x+ c0x 2 = α(1) + β(1 + x) + γ(1 + x+ x2). Enta˜o, α + β + γ = a0 β + γ = b0 γ = c0 , logo γ = c0, β = b0 − c0, α = a0 − b0 − c0. Portanto, a0 + b0x+ c0x 2 = (a0 − b0 − c0) p(x) + (b0 − c0) q(x) + c0 r(x). 39 4.3 Espac¸o Gerado O subconjunto S de todos os vetores do espac¸o vetorial real V (V,+, .), que sa˜o combinac¸o˜es lineares dos vetores v1, v2, . . . , vn, e´ chamado de subespac¸o vetorial gerado por v1, v2, . . . , vn e sera´ denotado por S = ger{v1, v2, . . . , vn} = [v1, v2, . . . , vn] Para verificar que S e´ subespac¸o vetorial de V , basta notar que para qualquer u, v ∈ S e α ∈ R verifica-se que u+ v = (α1 · v1 + α2 · v2 + · · ·+ αn· vn) + (β1 · v1 + β2 · v2 + · · ·+ βn · vn) = (α1 + β1) · v1 + (α2 + β2) · v2 + · · ·+ (αn + βn) · vn ∈ S α · u = α · (α1 · v1 + α2 · v2 + · · ·+ αn · vn) = (αα1) · v1 + (αα2) · v2 + · · ·+ (ααn) · vn ∈ S. Exemplo 4.12. Calcule o conjunto de geradores do subespac¸o vetorial S de M2×2(R), quando S = { a b c d ∈M2×2(R)/ a = −d e c = 2b } . (4.6) Sol. Usando a definic¸a˜o de S temos S = { −d b 2b d / b e d ∈ R } . (4.7) Logo, S = { d −1 0 0 1 + b 0 1 2 0 / b e d ∈ R } = ger { −1 0 0 1 , 0 1 2 0 }. Exemplo 4.13. Mostre que o conjunto de polinoˆmios {t2+t, t, 1} gera o espac¸o vetorial, P2(R), dos polinoˆmios de grau ≤ 2. Sol. Consideremos p(t) = a2t 2 + a1t+ a0 ∈ P2(R). Suponhamos α, β, γ ∈ R tais que: p(t) = α(t2 + t) + βt+ γ1 ⇒ a2t2 + a1t+ a0 = αt2 + (α + β)t+ γ. 40 Comparando o primeiro e u´ltimo polinoˆmio obtemos α = a2, α + β = a1 e γ = a0, logo α = a2, β = a1 − a2, γ = a0. 4.4 Independeˆncia e Dependeˆncia Linear Seja V um espac¸o vetorial real, (V,+, ·), e v1, v2, . . . , vn ∈ V . Dizemos que o conjunto {v1, v2, . . . , vn} e´ linearmente independente (L.I.), se: α1 · v1 + α2 · v2 + . . .+ αn · vn = 0 =⇒ α1 = α2 = . . . = αn = 0. (4.8) No caso em que exista algum αi 6= 0, diremos que o conjunto {v1, v2, . . . , vn} e´ linearmente dependentes (L.D.). Teorema 4.1. {v1, . . . , vn} e´ linearmente dependente, se e somente se, um destes vetores for combinac¸a˜o linear dos outros. Prova: {v1, . . . , vn} e´ L.D ⇐⇒ ∃ αi 6= 0 / α1v1 + α2v2 + . . .+ αivi + . . .+ αnvn = 0 ⇐⇒ αivi = −α1v1 − . . .− αi−1vi−1 − αi+1vi+1 − . . .− αnvn ⇐⇒ vi = −α1 αi v1 − . . .− αi−1 αi vi−1 − αi+1 αi vi+1 − . . .− αn αi vn ⇐⇒ vi ∈ ger{v1, v2, . . . , vi−1, vi+1 . . . , vn} (4.9) Exemplo 4.14. Os vetores canoˆnicos (1, 0, 0), (0, 1, 0), (0, 0, 1) sa˜o L.I.? Sol. Suponhamos que α1(1, 0, 0) + α2(0, 1, 0) + α3(0, 0, 1) = (0, 0, 0). Somando temos que (α1, α2, α3) = (0, 0, 0). Logo, α1 = α2 = α3 = 0, consequentemente os vetores canoˆnicos sa˜o linearmente independentes. Exemplo 4.15. As matrizes A = 1 −2 4 3 0 −1 e B = 2 −4 8 6 0 −2 sa˜o L.D. 41 Sol. De fato, α1A+ α2B = 0 0 0 0 0 0 ⇔ α1 = −2α2. Corola´rio 4.1. Qualquer conjunto de vetores contendo o vetor nulo e´ L.D. Exemplo 4.16. Os vetores ~u = (1,−2, 3), ~v = (2,−4, 6) e ~w = (1, 1, 1) sa˜o L.D. pois 2~u− ~v + 0~w = ~0. Corola´rio 4.2. Todo subconjunto de um conjunto de vetores L.I. e´ L.I. Exemplo 4.17. E´ sabido que o conjunto S = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e´ L.I, logo qualquer subconjunto de S tambe´m e´ L.I. Observac¸a˜o 4.1. Se ~u1 = (x11, . . . , x1n), ~u2 = (x21, . . . , x2n), . . . , ~un = (xn1, . . . , xnn) sa˜o n-vetores L.I. em Rn, α1~u1 + α2~u2 + · · ·+ αn~un = ~0 =⇒ α1 = α2 = · · · = αn = 0. Da afirmac¸a˜o anterior deduzimos que x11 x21 . . . xn1 ... . . . . . . ... x1n x2n . . . xnn α1 ... αn = 0 ... 0 =⇒ α1 = α2 = · · · = αn = 0. sempre que det x11 x21 . . . xn1 ... . . . . . . ... x1n x2n . . . xnn 6= 0 Exemplo 4.18. Os vetores ~u1 = (1,−2, 7, √ 2), ~u2 = (0, 4,−6, 1), ~u3 = (0, 0, 1, π), ~u4 = (0, 0, 0, sen 1) sa˜o L.I. em R 4 Sol. Segundo a observac¸a˜o anterior eles sa˜o L.I. pois o determinante da matriz (u1, u2, u3, u4) e´ diferente de zero. De fato, det 1 0 0 0 −2 4 0 0 7 −6 1 0 √ 2 1 π sen 1 = 4 sen 1 42 Exemplo 4.19. Seja r > n. Qualquer conjunto com r vetores no espac¸o vetorial Rn e´ linearmente dependente pois todo sistema homogeˆneo de equac¸o˜es lineares com mais inco´gnitas do que equac¸o˜es admite uma soluc¸a˜o na˜o trivial (diferente de zero). Observac¸a˜o 4.2. Geometricamente, a dependeˆncia de dois vetores no plano R2 acontece se e somente se eles se encontram sobre a mesma reta passando pela origem. No espac¸o R3, treˆs vetores sa˜o L. D. se eles esta˜o contidos no mesmo plano passando pela origem. A`s vezes e´ poss´ıvel deduzir a dependeˆncia linear de func¸o˜es apartir de identidades conhecidas, por exemplo ao provar que: {sen2x, cos2 x, 5} e´ um conjunto L.D no espac¸o vetorial das func¸o˜es reais de varia´vel real, F(R,R), basta notar que α sen2x+ β cos2 x+ γ 5 = 0 ⇐⇒ α = β = 5, γ = −1. De modo geral, na˜o existe um me´todo para provar a dependeˆncia ou independeˆncia linear de conjuntos em F(R,R), pois existem casos onde estas ideˆntidades na˜o podem ser aplicadas. Um teorema u´til para determinar se um conjunto particular de func¸o˜es e´ L.I e´ enunciado a seguir. Teorema 4.2. Sejam as funco˜es reais f1, f2, . . . , fn ∈ Cn−1([a, b]) (cont´ınuas e com derivadas cont´ınuas ate´ a ordem n− 1 em todo [a, b]). Se existe um ponto x0 ∈ [a, b] tal que o wronskiano W [f1, f2, . . . , fn](x0), W [f1, f2, . . . , fn](x0) = det f1(x0) f2(x0) . . . fn(x0) f ′1(x0) f ′ 2(x0) . . . f ′ n(x0) ... ... · · · ... fn−11 (x0) f n−1 2 (x0) . . . f n−1 n (x0) 6= 0, (4.10) enta˜o f1, f2, . . . , fn sa˜o L.I. em C n−1([a, b]). Mais ainda, sa˜o L.I em C([a, b]). Exemplo 4.20. As func¸o˜es ex, e−x sa˜o L.I. em C(R)?. Sol. Segundo o teorema anterior eles sa˜o L.I. em C2(R), pois o Wronskiano W [ex, e−x](x0) = det ex0 e−x0 ex0 −e−x0 = −2 6= 0, ∀x0 ∈ R. (4.11) Por outro lado, ja que C2(R) ⊆ C(R) o resultado segue-se. 43 Exemplo 4.21. As func¸o˜es 1, x, x2, x3 sa˜o L.I. em C(R)?. Sol. Segundo o teorema anterior eles sa˜o L.I. em C3(R), pois o Wronskiano W [1, x, x2, x3](x0) = det 1 x0 x 2 0 x 3 0 0 1 2x0 3x 2 0 0 0 2 6x0 0 0 0 6 = 12 6= 0, ∀x0 ∈ R. (4.12) Por outro lado, ja que C3(R) ⊆ C(R) o resultado segue-se. Exemplo 4.22. As func¸o˜es x2 e x|x| sa˜o L.I. em C([−1, 1])?. Sol. Ja que x2, x|x| ∈ C1([−1, 1]), calculando o Wronskiano temos W [x2, x|x|](x0) = det x20 x0|x0| 2x0 2|x0| ≡ 0, (4.13) o que na˜o nos da´ a informac¸a˜o sobre se as func¸o˜es sa˜o L.I ou na˜o. Logo, para responder a pergunta, suponha que: αx2 + βx|x| = 0, x ∈ [−1, 1]. Em particular, para x = 1 e para x = −1, temos o sistema α+ β = 0 α− β = 0, para o qual a u´nica soluc¸a˜o e´ α = β = 0. Portanto, as func¸o˜es x2, x|x| sa˜o L.I em C([−1, 1]). 4.5 Base e Dimensa˜o Os vetores v1, v2, . . . , vn formam uma base do espac¸o vetorial V se, e somente se, 1. v1, v2, . . . , vn e´ um conjunto linearmente independente. 44 2. V = ger{v1, v2, . . . , vn}. (i.e: ∀ v ∈ V, ∃ α1, α2, . . . , αn ∈ R / v = α1v1 + . . .+ αnvn). Exemplo 4.23. O conjunto B = {(1, 1), (0, 1)} e´ uma base de R2, (base canoˆnica). Sol.: De fato, B e´ L.I pois α(1, 1) + β(0, 1) = (0, 0)⇒ (α, α+ β) = (0, 0)⇒ α = 0 e β = 0. Por outro lado, para (x, y) ∈ R2 suponhamos que ∃ α1, α2 ∈ R tal que (x, y) = α1(1, 1) + α2(0, 1) = (α1, α1 + α2)⇒ α1 = x ∈ R e α2 = y − x ∈ R Logo, (x, y) = x(1, 1) + (y − x)(0, 1), isto e´, (x, y) ∈ ger{(1, 1), (0, 1)}. Portanto, R2 ⊆ ger{(1, 1), (0, 1)} e ja que R2 e´ um espac¸o vetorial a igualdade entre estes dois conjuntos segue-se. Exemplo 4.24. O conjunto B = {1 0 0 0 , 0 1 0 0 , 0 0 1 0 , 0 0 0 1 } e´ uma base de M2×2(R) Exemplo 4.25. Os conjuntos {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e {(1, 2, 1), (1, 0,−1), (1,−2, 1)} constituem bases distintas para R3. Podemos encontrar mais de uma base para um espac¸o vetorial; dado, entretanto, o nu´mero de vetores de cada base na˜o varia. Definic¸a˜o 4.1. Se uma base de um espac¸o vetorial real V tem n-vetores, dizemos que V tem dimensa˜o finita n. Denotaremos dim V = n. Conveniremos que o espac¸o vetorial V = {0} temdimensa˜o zero. Exemplo 4.26. Pelo visto nos exemplos anteriores, temos que: 1. dim R 2 = 2. 2. dim Rn = n. 45 3. dim Pn(R) = n + 1. 4. dim Mm×n(R) = mn. Teorema 4.3. Se U e W sa˜o subespac¸os de um espac¸o vetorial V que tem dimensa˜o finita, enta˜o: dim (U +W ) = dimU + dimW − dim (U ∩W ), (4.14) sendo que dimU ≤ dimV e dimW ≤ dimV . Exemplo 4.27. Considere U um plano que passa pela origem em V = R3, e W uma reta contida em U que passa pela origem, enta˜o: dim (U +W ) = 2 + 1− 1 = 2. Teorema 4.4. Seja V um espac¸o vetorial real de dimensa˜o finita n. Qualquer conjunto de vetores L.I. em V e´ parte de uma base, isto e´, pode ser completado ate´ formar uma base de V . Exemplo 4.28. Sejam os vetores v1 = (1,−1, 1, 2) e v2 = (−1, 1,−1, 0) completar o conjunto {v1, v2} de modo a formar uma base de R4. Sol.: Como dim R4 = 4 uma base tera´ 4 vetores L.I. Portanto, faltam dois. Escolhemos um vetor v3 que na˜o e´ combinac¸a˜o linear de v1 = (1,−1, 1, 2) e v2 = (−1, 1,−1, 0), isto e´, v3 6= a1v1+a2v2 para todo a1, a2 ∈ R. Dentre os infinitos vetores existentes, um deles e´ o vetor v3 = (1, 1, 0, 0), e o conjunto {v1, v2, v3} e´ L.I. Para completar, escolhemos um vetor v4 que na˜o seja uma combinac¸a˜o linear de v1, v2 e v3. Um deles e´ o vetor v4 = (1, 0, 0, 0), e o conjunto {v1, v2, v3, v4} e´ L.I. Logo, v1 = (1,−1, 1, 2) v2 = (−1, 1,−1, 0), v3 = (1, 1, 0, 0), v4 = (1, 0, 0, 0). Observac¸a˜o 4.3. Muitas vezes sera´ necessa´rio saber calcular a dimensa˜o de um espac¸o vetorial de forma ra´pida, pois uma vez que esta e´ conhecida, obte´m-se facilmente uma base desse espac¸o. Uma forma pra´tica para determinar a dimensa˜o de um espac¸o vetorial e´ verificar o nu´mero de varia´veis livres de seu vetor gene´rico. Este nu´mero e´ a dimensa˜o do espac¸o. 46 Exemplo 4.29. Determinar a dimensa˜o e a base do espac¸o vetorial S = {(x, y, z) ∈ R3/2x+ y + z = 0} Sol.: Isolando z temos que: z = −2x− y, onde x, y sa˜o varia´veis livres. Isto e´, S = {(x, y, z) ∈ R3/2x+ y + z = 0} = {(x, y, z) ∈ R3/z = −2x− y} = {(x, y,−2x− y)/x ∈ R, y ∈ R} = {(x, 0,−2x) + (0, y,−y)/x ∈ R, y ∈ R} = {x (1, 0,−2) + y (0, 1,−1)/x ∈ R, y ∈ R}, isto e´, todo vetor de S e´ combinac¸a˜o linear dos vetores {(1, 0,−2), (0, 1,−1)}. Como esses dois vetores geradores de S sa˜o L.I, o conjunto e´ uma base de S e, consequentemente, dim S = 2. Exemplo 4.30. Obtenha uma base do subespac¸o vetorial U = ger{(1, 1, 0,−2), (2, 0,−1,−1), (0, 1,−2, 1), (1, 1, 1,−3)} ⊆ R4. Determine a dimensa˜o de U . Sol.: Bastara´ provar que os vetores (1, 1, 0,−2), (2, 0,−1,−1), (0, 1,−2, 1), (1, 1, 1,−3) sa˜o L.I. Suponhamos que, α(1, 1, 0,−2) + β(2, 0,−1,−1) + γ(0, 1,−2, 1) + δ(1, 1, 1,−3) = (0, 0, 0, 0) ou 1 2 0 1 1 0 1 1 0 −1 −2 1 −2 −1 1 −3 α β γ δ = 0 0 0 0 . 47 Para achar a soluc¸a˜o deste sistema homogeˆneo Ax = 0 sera´ suficiente reduzir a matriz A a uma de tipo escalonado (me´todo de operac¸o˜es por linha). A = 1 2 0 1 1 0 1 1 0 −1 −2 1 −2 −1 1 −3 L1 ←→ L1 L2 ←→ L2 − L1 L3 ←→ −L3 L4 ←→ L4 + 2L1 1 2 0 1 0 −2 1 0 0 1 2 −1 0 3 1 −1 L1 ←→ L1 L2 ←→ L3 L4 ←→ L4 ≈ 1 2 0 1 0 1 2 −1 0 −2 1 0 0 3 1 −1 L1 ←→ L1 L2 ←→ L2 L3 ←→ L3 + 2L2 L4 ←→ L4 − 3L2 1 2 0 1 0 1 2 −1 0 0 5 −2 0 0 −5 2 L1 ←→ L1 L2 ←→ L2 L3 ←→ L3 L4 ←→ L4 + L3 ≈ 1 2 0 1 0 1 2 −1 0 0 5 −2 0 0 0 0 = A ′. Logo, o sistema equivalente, A′x = 0 tem infinitas soluc¸o˜es, pois detA′ = 0. Mais ainda, α+ 2β + δ = 0 β + 2γ − δ = 0 5γ − 2δ = 0, o que implica que, para cada γ ∈ R, δ = 5γ 2 , β = γ 2 , α = −7γ 2 . Em outras palavras, α = β = δ = 0 se e somente se γ = 0. Portanto, so´ os vetores B = {(1, 1, 0,−2), (2, 0,−1,−1), (1, 1, 1,−3)} sa˜o L.I. Como esses treˆs vetores sa˜o geradores de U , o conjunto e´ uma base de U e consequentemente, dim U = 3. 4.5.1 Componentes de um Vetor Seja B = {v1, v2, . . . , vn} uma base de V . Tomemos v ∈ V sendo v = a1 v1 + a2 v2 + . . .+ an vn, 48 os nu´meros a1, a2, . . . , an sa˜o chamados componentes do vetor v em relac¸a˜o a` base B (vetor coordenada de v em relac¸a˜o a` base B) e se representa por vB = (a1, a2, . . . , an) ou com a notac¸a˜o matricial (matriz-coordenada de v em relac¸a˜o a` base B) vB = a1 a2 ... an . Exemplo 4.31. Em R2 consideremos as bases A = {(1, 0), (0, 1)}, B = {(2, 0), (1, 3)} e C = {(1,−3), (2, 4)} Achar o vetor coordenada de v = (8, 6) em relac¸a˜o as base A, B e C. Sol.: Ja que: (8, 6) = 8(1, 0) + 6(0, 1) (8, 6) = 3(2, 0) + 2(1, 3) (8, 6) = 2(1,−3) + 3(2, 4), enta˜o, [v]A = (8, 6), [v]B = (3, 2), [v]C = (2, 3). 4.6 Espac¸o Vetorial Euclideano No cap´ıtulo 3, foi definido o produto escalar de dois vetores no R2 ouR3 e foram estabeli- cidas por meio desse produto, algumas propriedades geome´tricas daqueles vetores. Nesta sec¸a˜o, nosso objetivo sera´ generalizar este conceito de produto e definir os conceitos de comprimento, distaˆncia e aˆngulo em espac¸os vetoriais mais gene´ricos. Definic¸a˜o 4.2. Chama-se produto interno no espac¸o vetorial V , a uma func¸a˜o de V ×V em R que a todo par de vetores (u, v) ∈ V ×V associa um nu´mero real, indicado por u.v ou 〈u, v〉, tal que os seguintes axiomas sejam verificados: 49 1. 〈u, v〉 = 〈v, u〉 2. 〈u, v + w〉 = 〈u, v〉+ 〈u, w〉 3. 〈αu, v〉 = α〈u, v〉, para todo α 4. 〈u, u〉 ≥ 0 e 〈u, u〉 = 0 se, e somente se, u = 0. Exemplo 4.32. Em V = R2, para u = (x1, y1) e v = (x2, y2) 〈u, v〉 = 3x1 x2 + 4y1 y2, e´ um produto interno. Exemplo 4.33. Em V = C([a, b]), para f e g 〈f, g〉 = ∫ b a f(x) g(x) dx, e´ um produto interno. Definic¸a˜o 4.3. Um espac¸o vetorial real V , de dimensa˜o finita, no qual esta´ definido um produto interno, e´ um espac¸o vetorial euclideano. Definic¸a˜o 4.4. Seja o produto interno 〈 , 〉 no espac¸o euclideano V . O comprimento ou norma do vetor u, em relac¸a˜o a esse produto interno, e´ definido por ‖u‖ = √ 〈u, u〉. Definimos a norma euclidiana (ou comprimento euclidiano) de um vetor u = (u1, u2, . . . , un) em Rn por ‖u‖ = √u · u = √ u21 + u 2 2 + · · ·+ u2n. Definic¸a˜o 4.5. Chama-se distaˆncia entre dois vetores u e v o nu´mero real repre- sentado por d(u, v) e definido por d(u, v) = ‖u− v‖. Definic¸a˜o 4.6. O aˆngulo entre dois vetores u e v e´ determinado por cos θ = 〈u, v〉 ‖u‖‖v‖ . Definic¸a˜o 4.7. Dois vetores u e v de um espac¸o com produto interno sa˜o ortogonais se < u, v >= 0. 50 4.6.1 Complementos Ortogonais Definic¸a˜o 4.8. Seja W um subespac¸o de um espac¸o com produto interno V . Um vetor u ∈ V e´ dito ortogonal a W se e´ ortogonal a cada vetor de W , e o conjunto de todos os vetores que sa˜o ortogonais a W e´ chamado complemento ortogonal de W , denotaremos por W⊥. Figura 4.1: Cada vetor em W e´ ortogonal a V , V = W⊥. Teorema 4.5. Se W e´ um subespac¸o de um espac¸o com produto interno V de dimensa˜o finita, enta˜o: a) W⊥ e´ um subespac¸o de V b) O u´nico vetor comum a W e W⊥ e´ 0. c) O complemento ortogonal de W⊥ e´ W , ou seja, (W⊥)⊥ =W Teorema 4.6. (Da Projec¸a˜o) Se W e´ um subespac¸o de dimensa˜o finita de um espac¸o com produto interno V , enta˜o cada vetor u ∈ V pode-se expressar de forma u´nica por: u = w1 + w2 onde w1 = ProjWu ∈ W e w2 = u− ProjWu ∈ W⊥. 51 4.6.2 Uma Relac¸a˜o Geometrica Entre Espac¸o Nulo e Espac¸o Linha O seguinte teorema fundamental fornece uma relac¸a˜o geome´trica entre o espac¸o-nulo e o espac¸o linha de uma matriz. Teorema 4.7. Se A e´ uma matriz m× n, enta˜oa) O espac¸o nulo de A, N (A) = {v ∈ Rn×1/Av = 0}, e o espac¸o linha de A sa˜o complementos ortogonais em Rn com relac¸a˜o ao produto interno euclideano. b) O espac¸o nulo de AT e o espac¸o coluna de A sa˜o complementos ortogonais em Rm com relac¸a˜o ao produto interno euclideano. Demonstrac¸a˜o: A prova do item (a) encontra-se em [1], pagina 211. (b) Sejam os vetores coluna r1, r2, . . . , rn da matriz A ∈ Mm×n. Logo, a matriz A pode-se escrever da forma A = [ r1 r2 . . . rn ] , onde ri ∈ Rm×1 Por outro lado, ja que N (AT ) = {v ∈ Rm×1/AT v = 0}, enta˜o: AT v = rT1 rT2 ... rTn v = 0 ⇐⇒ < r T i , v >= 0, ∀ i = 1, 2, . . . , n. 4.6.3 Conjuntos Ortogonais e Ortonormais Seja V um espac¸o vetorial euclidiano. Um subconjunto S = {v1, v2, . . . , vn} ⊂ V e´: 1. Ortogonal, se seus elementos sa˜o ortogonais dois a dois, isto e´: 〈vi, vj〉 = 0 ∀ i 6= j. 52 2. Ortonormal, se S e´ ortogonal e ‖vi‖ = 1 ∀ i, isto e´: 〈vi, vj〉 = 0 para i 6= j 1 para i = j . (4.15) A base gerada por um conjunto de vetores ortogonais e´ dita uma base ortogonal e uma base gerada por um conjunto de vetores ortonormais e´ dita uma base ortonormal. Proposic¸a˜o 4.1. Um conjunto ortonormal e´ L.I. Demonstrac¸a˜o: Seja S = {v1, v2, . . . , vn} um conjunto ortonormal e α1, . . . , αn ∈ R, tal que α1v1 + α2v2 + . . .+ αnvn = 0. Por demonstrar: α1 = α2 = . . . = αn = 0. Multiplicando α1v1 + α2v2 + . . .+ αnvn = 0 por vi, temos 0 =〈0, vi〉 = 〈α1v1 + · · ·+ αnvn, vi〉 =〈α1v1, vi〉+ 〈α2v2, vi〉+ . . .+ 〈αivi, vi〉+ . . .+ 〈αnvn, vi〉 =α1〈v1, vi〉+ α2〈v2, vi〉+ . . .+ αi〈vi, vi〉+ . . .+ αn〈vn, vi〉 (4.16) Ja que S ortogonal, 0 = αi〈vi, vi〉 = αi||vi||2 ⇒ 0 = αi ∀i = 1, 2, . . . , n. Definic¸a˜o 4.9. Seja V um espac¸o vetorial euclidiano, S = {v1, v2, . . . , vn} ⊂ V ortonor- mal e u ∈ V . A projec¸a˜o ortogonal de u sobre o subespac¸o gerado por S e´ o vetor Proj [S]u dado por: Proj [S]u = 〈u, v1〉v1 + 〈u, v2〉v2 + . . .+ 〈u, vn〉vn. Exemplo 4.34. Projetar o vetor u = (5, 2,−3) ∈ R3 sobre o plano [S], onde [S] = ger{(1, 0, 0), (0,−1, 0)}. 53 Sol.: Proj [S]u = 〈(5, 2,−3), (1, 0, 0)〉 (1, 0, 0) + 〈(5, 2,−3), (0,−1, 0)〉 (0,−1, 0) = 5(1, 0, 0)− 2(0,−1, 0) = (5, 2, 0). 4.6.4 Processo de Gram - Schimidt O objetivo do processo de Gram-Schimidt e´ encontrar uma base ortonormal para um espac¸o vetorial euclidiano V . Teorema 4.8. Cada espac¸o vetorial na˜o-nulo de dimensa˜o finita possui uma base ortonor- mal. Demonstrac¸a˜o: Seja V um espac¸o vetorial na˜o-nulo de dimensa˜o finita com produto interno. Suponha que {u1, u2, . . . , un} e´ uma base de V . E´ suficiente mostrar que V tem uma base ortogonal, pois os vetores da base ortogonal podem ser normalizados para produzir uma base ortonormal de V , para isto bastara´ dividir eles entre suas respectivas normas. A seguir, mostramos como achar uma base ortogonal {v1, v2, . . . , vn} de V . 1) Seja v1 = u1. 2) Para obter um vetor v2 que e´ ortogonal a v1 tomamos o componente de u2 que e´ ortogonal ao espac¸o W1 = ger{v1}. Para isso no´s usamos a fo´rmula: v2 = u2 − ProjW1 u2 = u2 − 〈u2, v1〉 ||v1||2 v1 3) Para construir um vetor v3 que e´ ortogonal a ambos v1 e v2, calculamos o componente u3 que e´ ortogonal ao espac¸o W2 = ger{v1, v2}, isto e´, v3 = u3 − ProjW2 u3 = u3 − 〈u3, v1〉 ||v1||2 v1 − 〈u3, v2〉 ||v2||2 v2 4) Para determinar um vetor v4 que e´ ortogonal a v1, v2 e v3, calculamos o componente de u4 que e´ ortogonal ao espac¸o W3 = ger{v1, v2, v3}. v4 = u4 − ProjW3 u4 = u4 − 〈u4, v1〉 ||v1||2 v1 − 〈u4, v2〉 ||v2||2 v2 − 〈u4, v3〉 ||v3||2 v3 54 Continuando desta maneira, no´s iremos obter, depois de n passos, um conjunto ortogonal de vetores {v1, v2, . . . , vn}. O processo acima e´ chamado processo de Gram-Schimidt. Como V tem dimensa˜o n, e conjuntos ortogonais sa˜o linearmente independentes, o conjunto {v1, v2, . . . , vn} e´ uma base ortogonal de V . Exemplo 4.35. Considere o espac¸o vetorial R3 com o produto interno euclidiano. Aplique o processo de Gram-Schimidt para transformar os vetores de base u1 = (1, 1, 1), u2 = (0, 1, 1) e u3 = (0, 0, 1) em uma base ortogonal {v1, v2, v3}; depois normalize os vetores da base ortogonal para obter uma base ortonormal {q1, q2, q3}. Sol.: Segundo o teorema anterior, v1 = u1 = (1, 1, 1) v2 = u2 − projW1 u2 = u2 − 〈u2, v1〉 ||v1||2 v1 = (0, 0, 1)− 2 3 (1, 1, 1) = ( − 2 3 , 1 3 , 1 3 ) v3 = u3 − projW2 u3 = u3 − 〈u3, v1〉 ||v1||2 v1 − 〈u3, v2〉 ||v2||2 v2 = (0, 0, 1)− 1 3 (1, 1, 1)− 1/3 2/3 ( − 2 3 , 1 3 , 1 3 ) = ( 0,−1 2 , 1 2 ) . Assim, v1 = (1, 1, 1), v2 = (−2/3, 1/3, 1/3), v3 = (0,−1/2, 1/2) formam uma base ortogonal de R3. As normas desses vetores sa˜o: ‖v1‖ = √ 3, ‖v2‖ = √ 6 3 , ‖v3‖ = √ 2 2 , deste modo, uma base ortonormal de R3 e´: q1 = v1 ||v1|| = ( √ 3 3 , √ 3 3 , √ 3 3 ), q2 = v2 ||v2|| = ( −2√ 6 , 1√ 6 , 1√ 6 ), q3 = v3 ||v3|| = (0, −1√ 2 , 1√ 2 ). 4.7 Exerc´ıcios 1. Em R2, mantenhamos a definic¸a˜o do produto αv de um nu´mero real por um vetor, mas modifiquemos, de 3 maneiras diferentes, a definic¸a˜o de soma u⊕ v dos vetores 55 u = (x, y) e v = (x′, y′). Em cada tentativa, dizer quais dos axiomas de espac¸o vetorial continuam sendo va´lidos e quais sa˜o violados. (i) u⊕v = (x+y′, x′+y) (ii) u⊕v = (xx′, yy′) (iii) u⊕v = (3x+3x′, 5x+5x′). 2. Seja V = {(x, y) ∈ R2/x > 0 e y > 0} com as operac¸o˜es usuais de R2. Prove que V na˜o e´ um espac¸o vetorial. 3. Determine se cada conjunto a seguir e´ ou na˜o um subespac¸o de R2. (i) {(x, y)/x+ y = 0} (ii) {(x, y)/xy = 0} (i) {(x, y)/x = 3y + 1}. 4. O conjunto V = {f : R −→ R/f(1) = 0} com as operac¸o˜es definidas no exercicio 2, e´ um espac¸o vetorial?. 5. Determine se cada conjunto a seguir e´ ou na˜o um subespac¸o de R3. (i) {(x, y, z)/x+ y = 1} (ii) {(x, y, z)/x = y = z} (i) {(x, y, z)/z = x2 + y2}. 6. Determine quais dos conjuntos a seguir sa˜o subespac¸os do espac¸o vetorial das func¸o˜es cont´ınuas no intervalo [−1, 1], denotado por V = C([−1, 1]). (i) W = {f ∈ C([−1, 1])/f(−1) = f(1)} (ii) W = {f ∈ C([−1, 1])/f e´ na˜o decrescente em [−1, 1]} (iii) W = {f ∈ C([−1, 1])/f(−1) = 0 ou f(1) = 0} 7. Seja A um vetor particular de R2×2. Diga quais dos conjuntos a seguir sa˜o sube- spac¸os vetoriais de R2×2. (i) S1 = {B ∈ R2×2/AB = BA} (ii) S2 = {B ∈ R2×2/AB 6= BA} (iii) S3 = {B ∈ R2×2/BA = 0} 8. Seja V = Mn×n e W o subconjunto de todas as matrizes diagonales. Mostre que W e´ um subespac¸o de Mn×n. 9. Quais vetores sa˜o combinac¸a˜o linear de ~u = (0,−2, 2) e ~v = (1, 3,−1)?. a) (2, 2, 2) b) (3, 1, 5) c) (0, 4, 5) d) (0, 0, 0). 56 10. Quais polinoˆmios sa˜o combinac¸a˜o linear de p1(x) = 2+x+4x 2, p2(x) = 1−x+3x2 e p3(x) = 3 + 2x+ 5x 2?. a) − 9− 7x− 15x2 b) 6 + 11x+ 6x2 c) 0 d) 7 + 8x+ 9x2. 11. Quais dos seguintes vetores geram R3. a) (2, 2, 2), (0, 0, 3), (0, 1, 1) b) (2,−1, 3), (4, 1, 2), (8, 2, 4) 12. Mostre que os polinoˆmios (1 − x3), (1 − x)2, (1 − x) e 1 geram os polinomios de grau ≤ 3. 13. Sejam f = cos2 x e g = sin2 x. Quais das seguintes func¸o˜es esta˜o no espac¸o gerado por f e g?. a) cos 2x b) 3 + x2 c) 1 d) senx. 14. Determine se os vetores dados sa˜o ou na˜o linearmente independentes (i) u = (1, 2) e v = (−2,−4) em IR2 (ii) u = (2, 3), v = (5,−8) e w = (−6,−1) em IR2 (iii) u = (2, 1, 0), v = (3,−1, 2) e w = (0, 1,−4) em IR3 (iv) u = (3, 0,−1), v = (1, 0, 4) em IR3 (v) p1(x) = 6− x2 e p2(x) = 1 + x+ 4x2 em P2 (vi) A = 1 3 2 0 ; B = −1 −3 −2 0 em M2×2. 15. Seja V o espac¸o vetorial de todas as func¸o˜es reais definidas sobre a reta real. Quais dos seguintes conjuntos de vetores sa˜olinearmente dependentes? (i) {6, 3 sin2 x, 2 cos2 x}, (ii) {x, cosx}, (iii) {(3− x)2, x2 − 6x, 5}, 16. Use o wronskiano para mostrar que os seguintes conjuntos de vetores sa˜o linear- mente independentes. (i) {1, x, ex}, (ii) {cosx, sin x, x sin x}, (iii) {ex, xex, x2ex}. 17. Dadas as func¸o˜es x e |x| mostre que: (a) esses dois vetores sa˜o linearmente independentes em C([−1, 1]) (b) esses dois vetores sa˜o linearmente dependentes em C([0, 1]) 57 18. Considere o subespac¸o S = ger{(1, 2,−1)T , (0, 1, 1)T , (2,−1, 3)T} (a) o vetor (−1, 2, 1) ∈ S ?. (b) o vetor (2, 0, 1) ∈ S ?. 19. Quais dos seguintes conjuntos sa˜o bases de R2?. a) (2, 1), (3, 0) b) (4, 1), (−7,−8) c) (0, 0), (1, 3) d) (3, 9), (−4,−12). 20. Quais dos seguintes conjuntos de vetores sa˜o bases de R3?. a) (2,−3, 1), (4, 1, 1), (0,−7, 1) b) (3, 1,−4), (2, 5, 6), (1, 4, 8) c) (1, 0, 0), (2, 2, 0), (3, 3, 3). 21. Quais dos seguintes conjuntos de vetores sa˜o bases de P2?. a) 1− 3x+ 2x2, 1 + x+ 4x2, 1− 7x. b) 1 + x+ x2, x+ x2, x2. c) −4 + x+ 3x2, 6 + 5x+ 2x2, 8 + 4x+ x2. 22. Os quatro primeiros polinoˆmios de Hermite sa˜o 1, 2t, −2 + 4t2 e −12t + 8t3. Mostre que estes polinoˆmios formam uma base de P3(R). 23. Encontre as coordenadas do polinoˆmio p(t) = 7 − 12t− 8t2 + 12t3, na base P3(R) formada pelos polinoˆmios de Hermite. 24. Prove que o seguinte conjunto e´ uma base de M2x2. 3 6 3 −6 ; 0 −1 −1 0 ; 0 −8 −12 −4 ; 1 0 −1 2 25. Exiba uma base para os seguintes subespac¸os de R4 listados a seguir. Qual e´ a dimensa˜o destes?. a) F = {(x, y, z, w)/ x = y = z = w}. b) G = {(x, y, z, w)/ x = y, z = w}. c) H = {(x, y, z, w)/ x = y = z}. d) K = {(x, y, z, w)/ x+ y + z + w = 0}. 58 26. Seja V = ger{S} onde (S = {cos2 x, sin2 x, cos 2x}). Prove que o conjunto S na˜o e´ uma base de V . Encontre uma base para V . 27. Ache uma base para o espac¸o soluc¸a˜o de cada um dos sistemas homogeˆneos: a) x1 + 4x2 + 2x3 = 02x1 + x2 + 5x3 = 0 b) x1 + x2 − x3 = 0 3x1 + 2x2 + x3 = 0 2x1 − x2 + 3x3 = 0 c) x1−2x2+x3 = 0. 28. Considere os vetores ~u = (3,−2, 4), ~v = (−3, 2,−4), ~w = (−6, 4,−8). Qual e´ a dimensa˜o de ger{u, v, w}?. 29. Considere os vetores ~u = (2, 1, 3), ~v = (3,−1, 4), ~w = (2, 6, 4). a) Mostre que u, v, w sa˜o linearmente dependentes. b) Mostre que u, v sa˜o linearmente independentes. c) Qual e´ a dimensa˜o de ger{u, v, w}?. Descreva geometricamente ger{u, v, w}. 30. Em M2x2(R) para A = u1 u2 u3 u4 e B = v1 v2 v3 v4 , a relac¸a˜o 〈A,B〉 = u1 v1 + u2 v2 + u3 v3 + u4 v4 e´ um produto interno usual. Verifique. 31. No espac¸o euclideano M2x2(R) (a) Quais das matrizes abaixo sa˜o ortogonais a M = 2 1 −1 3 ; A = 1 2 4 0 , B = 1 1 1 1 , C = 0 0 0 0 , D = 3 2 −1 3 . (b) Calcule a norma da Matriz M . (c) Determine o aˆngulo entre as matrizes M1 = 2 4 −1 3 , M2 = −3 1 4 2 . (d) Calcule a distaˆncia entre as matrizes M1 e M2. 59 32. Sejam p = a0 + a1 t+ a2 t 2 + a3 t 3 e q = b0 + b1 t+ b2 t 2 + b3 t 3 ∈ P3(R) a relac¸a˜o 〈p, q〉 = a0b0 + a1b1 + a2b2 + a3b3 define um produto interno em P3(R). (a) Dados p = 2 + 3t− t2 e q = 2t+ t2 − 5t3. Calcule 〈p, q〉. (b) Calcule a norma do polinoˆmio p = 3 + 2t2 + t3. 33. Determine a projec¸a˜o ortogonal de u = (2,−1, 3) sobre S = ger{(1, 0, 1), (2, 1,−2)}. 34. Use o me´todo de ortonormalizac¸a˜o de Gram-Schmidt para obter uma base ortonor- mal de R3 apartir de B = {(1, 0, 0), (0, 1, 1), (0, 1, 2)}. 35. Use o me´todo de ortonormalizac¸a˜o de Gram-Schmidt para obter uma base ortonor- mal de R2 apartir de B = {(1, 2), (−1, 3)}. 36. Obtenha uma base ortonormal do subespac¸o vetorial U = {(x, y, z, t) ∈ R4/x− y = 0 e z = 2t} ⊂ R4. A seguir projete o vetor u = (1, 3, 4, 2) ortogonalmente sobre U . 60 Cap´ıtulo 5 Transformac¸o˜es Lineares Neste cap´ıtulo sera´ estudado um tipo especial de func¸a˜o (ou aplicac¸a˜o) onde o domı´nio e o contradomı´nio sa˜o espac¸os vetoriais reais. Assim, tanto a varia´vel independente como a varia´vel dependente sa˜o vetores, raza˜o pela qual essas func¸o˜es sa˜o chamadas de transformac¸o˜es vetoriais satisfazendo algumas condic¸o˜es de linearidade como na definic¸a˜o que segue. Definic¸a˜o 5.1. Uma transformac¸a˜o T : V → W do espac¸o vetorial V no espac¸o vetorial W e´ chamada uma transformac¸a˜o linear se, para u, v ∈ V e α ∈ R i) T (u+ v) = T (u) + T (v), ii) T (αu) = αT (u), Figura 5.1: 61 Observac¸a˜o 5.1. Na definic¸a˜o anterior e´ importante notar que u + v ∈ V , enquanto T (u) + T (v) ∈ W . Do mesmo modo, αu ∈ V e α T (u) ∈ W (ver Figura 5). Uma transformac¸a˜o linear de V em V (e´ o caso de V =W ) e´ chamada de operador linear sobre V Exemplo 5.1. T : IR2 → IR3 , T (x, y) = (2x,−4y, x− y) e´ linear. Sol. De fato, i) Se u = (x1, y1) e v = (x2, y2) sa˜o vetores gene´ricos do IR 2, tem-se: T (u+ v) = T ((x1, y1) + (x2, y2)) = T (x1 + y1, x2 + y2) = (2(x1 + x2),−4(x2 + y2), (x1 + x2)− (y1 + y2))) = (2x1 + 2x2,−4x2 − 4y2, x1 + x2 − y1 − y2) = (2x1,−4x2, x1 − y1) + (2x2,−4y2, x2 − y2) = T ((x1, y1)) + T ((x2, y2)) = T (u) + T (v) ii) Para todo α ∈ IR, tem-se T (αu) = T (α(x1, y1)) = T (αx1, αy1) = (2αx1,−4αy1, αx1 − αy1) = α(2x1,−4y1, x1 − y1) = αT (u) Exemplo 5.2. T : IR→ IR , T (x) = 3x e´ linear. Sol. De fato, se u = x1 e v = x2 sa˜o vetores quaisquer de IR (os vetores, neste caso, sa˜o numeros reais), tem-se: i) T (u+ v) = T (x1 + x2) = 3(x1 + x2) = 3x1 + 3x2 = T (u) + T (v) ii) T (αu) = T (αx1) = 3αx1 = α(3x1) = αT (u) Exemplo 5.3. A transformac¸a˜o Identidade I : V → V , I(v) = v, e´ linear. 62 Sol. De fato: i) I(u+ v) = u+ v = I(u) + I(v) ii) I(αu) = αu = αI(u) Exemplo 5.4. A transformac¸a˜o nula (ou zero) T : V → W , T (v) = 0 e´ linear. Sol. De fato: i) T (u+ v) = 0 = 0 + 0 = T (u) + T (v) ii) T (αu) = 0 = α(0) = αT (u) Exemplo 5.5. Seja A uma matriz de ordem 3× 2 que determina a transformac¸a˜o TA : IR 2 → IR3, TA(v) = Av . Prove que TA e´ linear (v e´ considerado um vetor-coluna de IR 2). Sol. De fato: i) TA(u+ v) = A(u+ v) = Au+ Av = TA(u) + TA(v) ii) TA(αu) = A(αu) = α(Au) = αTA(u). Exemplo 5.6. A transformac¸a˜o T : IR→ IR , T (x) = sen(x) na˜o e´ linear. Sol. De fato, em geral sen(x+ y) 6= sen(x) + sen(y). Exemplo 5.7. A transformac¸a˜o T : IR2 → IR2 , T (x, y) = (2x, y2) na˜o e´ linear. Sol. De fato, se u = (x1, y1) e v = (x2, y2) sa˜o vetores quaisquer do IR 2, Tem-se T (u+ v) = T (x1 + x2, y1 + y2) = (2(x1 + x2), (y1 + y2) 2) = (2x1 + 2x2, y1 2 + 2y1y2 + y2 2) enquanto, T (u) + T (v) = (2x1, y1 2) + (2x2, y2 2) = (2x1 + 2x2, y1 2 + y2 2), isto e´, T (u+ v) 6= T (u) + T (v) 63 5.1 Propriedades das Transformac¸o˜es Lineares 1. Se T : V → W , e´ uma transformac¸a˜o linear, a imagem do vetor 0 ∈ V e´ o vetor 0 ∈ W . Esta propriedade decorre da condic¸a˜o ii) da definic¸a˜o 5.1, de transformac¸a˜o linear, para α = 0: T (0) = T (0v) = 0T (v) = 0 • Nos exemplos 1 e 2 desta sec¸a˜o, verifica-se que T (0, 0) = (0, 0, 0) e T (0) = 0 e, em ambos casos as transformac¸o˜es sa˜o lineares. Entretanto, no exemplo 6, embora T (0) = 0, a transformac¸a˜o na˜o e´ linear. Esses exemplos mostram que se T : V −→ W e´ linear, enta˜o T (0) = 0, mas a rec´ıproca na˜o e´ verdadeira, isto e´, pode existir transformac¸a˜o com T (0) = 0 e T na˜o ser linear. Em conclusa˜o, pois, se impo˜e: se T (0) 6= 0, a transformac¸a˜o na˜o e´ linear. E´ o caso, por exemplo, da transformac¸a˜o: T : IR3 → IR2 , T (x, y, z) = (4x+ 5, x− z), que na˜o e´ linear porque: T (0, 0, 0) = (5, 0) 6= 0 2. Se T : V → W e´ uma transformac¸a˜o linear, tem-se: T (αu+
Compartilhar