Baixe o app para aproveitar ainda mais
Prévia do material em texto
UENF Universidade Estadual do Norte Fluminense Darcy Ribeiro CCT-LCMAT Laborato´rio de Cieˆncias Matema´ticas A´LGEBRA LINEAR PARA ENGENHARIA Liliana A. L. Mescua Rigoberto G. S. Castro Maio de 2013 . Suma´rio 1 Matrizes 1 1.1 Tipos de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2 Operac¸o˜es com Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2.1 Adic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2.2 Subtrac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2.3 Multiplicac¸a˜o de um nu´mero real por uma Matriz . . . . . . . . . . . 5 1.2.4 Multiplicac¸a˜o de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . 5 1.3 Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.3.1 Me´todo de Gauss Jordam para o Ca´lculo de Inversa . . . . . . . . . . 7 1.4 Determinante de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.4.1 Propriedades do Determinante . . . . . . . . . . . . . . . . . . . . . . 11 1.4.2 Ca´lculo por Reduc¸a˜o de Linhas ou Colunas-Triangulac¸a˜o . . . . . . . 12 1.5 A Matriz Adjunta e a Inversibilidade de Matrizes . . . . . . . . . . . . . . . 14 1.6 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2 Sistemas de Equac¸o˜es Lineares Alge´bricas 17 2.1 Classificac¸a˜o de um Sistema Linear . . . . . . . . . . . . . . . . . . . . . . . 18 2.2 Me´todo de Eliminac¸a˜o de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.3 Resoluc¸a˜o de Sistemas pela Regra de Cramer . . . . . . . . . . . . . . . . . . 22 i 2.4 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3 Vetores 26 3.1 Interpretac¸a˜o Geome´trica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.1.1 Adic¸a˜o de Vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 3.1.2 Multiplicac¸a˜o de um Nu´mero Real por um Vetor . . . . . . . . . . . . 28 3.1.3 Aˆngulo entre dois vetores . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.2 Interpretac¸a˜o Alge´brica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.2.1 Interpretac¸a˜o Alge´brica no Plano . . . . . . . . . . . . . . . . . . . . 30 3.2.2 Interpretac¸a˜o Alge´brica no Espac¸o . . . . . . . . . . . . . . . . . . . 32 3.3 Produto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.3.1 Interpretac¸a˜o Geome´trica do Produto Escalar . . . . . . . . . . . . . 34 3.3.2 Aˆngulo entre dois Vetores . . . . . . . . . . . . . . . . . . . . . . . . 35 3.3.3 Projec¸a˜o de um Vetor sobre Outro . . . . . . . . . . . . . . . . . . . 36 3.4 Produto Vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.4.1 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.4.2 Interpretac¸a˜o Geome´trica . . . . . . . . . . . . . . . . . . . . . . . . 39 3.5 Retas e Planos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 3.6 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 4 Espac¸o Vetorial 43 4.1 Subespac¸os Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 4.1.1 Propriedades dos Subespac¸os . . . . . . . . . . . . . . . . . . . . . . 46 4.2 Combinac¸a˜o Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 4.3 Espac¸o Gerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4.4 Independeˆncia e Dependeˆncia Linear . . . . . . . . . . . . . . . . . . . . . . 49 ii 4.5 Base e Dimensa˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 4.5.1 Componentes de um Vetor . . . . . . . . . . . . . . . . . . . . . . . . 56 4.6 Espac¸o Vetorial Euclideano . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 4.6.1 Complementos Ortogonais . . . . . . . . . . . . . . . . . . . . . . . . 59 4.6.2 Uma Relac¸a˜o Geometrica Entre Espac¸o Nulo e Espac¸o Linha . . . . . 60 4.6.3 Conjuntos Ortogonais e Ortonormais . . . . . . . . . . . . . . . . . . 60 4.6.4 Processo de Gram - Schimidt . . . . . . . . . . . . . . . . . . . . . . 62 4.7 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 5 Transformac¸o˜es Lineares 69 5.1 Propriedades das Transformac¸o˜es Lineares . . . . . . . . . . . . . . . . . . . 72 5.1.1 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 5.2 Nu´cleo de uma Transformac¸a˜o Linear . . . . . . . . . . . . . . . . . . . . . . 74 5.3 Imagem de uma Transformac¸a˜o Linear . . . . . . . . . . . . . . . . . . . . . 75 5.4 Propriedades do Nu´cleo e da Imagem . . . . . . . . . . . . . . . . . . . . . . 77 5.4.1 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 5.5 Matriz de uma Transformac¸a˜o Linear . . . . . . . . . . . . . . . . . . . . . . 79 5.6 Operac¸o˜es com Transformac¸o˜es Lineares . . . . . . . . . . . . . . . . . . . . 84 5.6.1 Adic¸a˜o ou Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 5.6.2 Multiplicac¸a˜o por Escalar . . . . . . . . . . . . . . . . . . . . . . . . 84 5.6.3 Composic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 5.6.4 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 5.7 Mudanc¸a de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 5.8 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 6 Autovalores e Autovetores 89 iii 6.1 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 7 Diagonalizac¸a˜o de Matrizes 94 7.1 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 7.2 Matrizes Sime´tricas e autovetores ortogonais . . . . . . . . . . . . . . . . . . 96 8 Aplicac¸o˜es 98 8.1 Me´todo de Mı´nimos Quadrados . . . . . . . . . . . . . . . . . . . . . . . . . 98 8.1.1 Ajuste de Mı´nimos Quadrados a Dados . . . . . . . . . . . . . . . . . 100 8.2 Rotac¸a˜o de Coˆnicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 A Nu´meros Complexos 107 iv Cap´ıtulo 1 Matrizes Definic¸a˜o 1.1. Uma matriz de ordem m× n e´ uma tabela de nu´meros chamados de ele- mentos ou termos da matriz. Esta tabela possui mn elementos escalares (nu´meros reais ou complexos) dispostos em m linhas (nu´mero de filas horizontais) e n colunas (nu´mero de filas verticais). Por convenc¸a˜o usaremos sempre as letras maiu´sculas A, B, C, D, . . . para nomea-las A = a11 a12 . . . a1n a21 a22 . . . a2n ... ... ... ... am1 am2 . . . amn = a11 a12 . . . a1n a21 a22 . . . a2n ... ... ... ... am1 am2 . . . amn = (aij)m×n. (1.1) Exemplo: A = 2 2 0 1 −3 5 2×3 B = 1 4 0 7 2×2 (1.2) Exerc´ıcio: Escreva a matriz A = (aij)3×2 , onde seus elementos aij = 2i+ j. Observac¸a˜o 1.1. De acordo com o nu´mero de linhas e colunas da matriz, podemos destacar os seguintes casos particulares • Quando m = 1, matriz linha • Quando n = 1, matriz coluna • Quando m = n, matriz quadrada 1 Definic¸a˜o 1.2. (Igualdade de Matrizes:) Duas matrizes A = (aij)m×n e B = (bij)m×n sa˜o ditas iguais, se todos seus elementos correspondentes sa˜o iguais, isto e´, se aij = bij. Exerc´ıcio: Determine a, b, c, d de modo que: a 1 1 b+ 1 c− 2 d2 = 2 1 1 1 6 3 . 1.1 Tipos de Matrizes Matriz Nula: E´ uma matriz cujos elementos sa˜o todos nulos, isto e´ aij = 0, ∀ i, j. Denotamos por O ou Om×n Matriz Diagonal Uma matriz quadradaD = (dij)n×n e´ dita diagonal quando dij = 0, ∀ i 6= j. Exemplo: D = 2 0 0 4 Matriz Identidade: E´ uma matriz diagonal onde aii = 1 para todo i, e aij = 0 para todo i 6= j. Exemplo: I = 1 0 . . . 0 0 1 . . . 0 ... ... ... 0 0 . . . 1 Matriz Triangular Uma matriz quadrada A = (aij)nxn e´ dita triangular superior, se aij = 0 para i > j. Uma matriz B = (bij)nxn e´ dita triangular inferior quando bij = 0, para i < j. Exemplo: A = 5 4 4 5 0 1 9 6 0 0 3 8 0 0 0 0 e B = 5 0 0 0 2 1 0 0 9 7 3 0 8 6 5 1 Matriz Sime´trica: E´ uma matriz quadrada, onde aij = aji. 2 Exemplo: 4 3 1 3 2 0 1 0 5 e a b c d b e f g c f h i d g i k Observe que, no caso de uma matriz sime´trica, a parte superior e´ uma “reflexa˜o”da parte inferior, em relac¸a˜o a` diagonal. Matriz Transposta A transposta de uma matriz A = (aij)m×n, e´ uma outra matriz AT = (bij)n×m, cujas linhas sa˜o as colunas de A, isto e´, bij = aji. Exemplo: A transposta de A = 3 −1 4 −2 5 −3 3×2 e´ AT = 3 4 5 −1 −2 −3 2×3 E´ simples verificar que: 1. A transposta da transposta de uma matriz e´ ela mesma, isto e´ (AT )T = A. 2. Uma matriz e´ sime´trica se somente se ela for igual a` sua transposta, isto e´, A = AT . 1.2 Operac¸o˜es com Matrizes Ao utilizar matrizes, surge naturalmente a necessidade de efetuarmos certas operac¸o˜es. Veremos algumas delas e suas propriedades a seguir: 1.2.1 Adic¸a˜o A soma de duas matrizes da mesma ordem, A = (aij)m×n e B = (bij)m×n, e´ uma matriz m× n, definida por A+B = (aij + bij)m×n. Exemplo: 1 4 2 5 3 6 + −1 1 −3 0 4 √ 2 = 1− 1 4 + 1 2− 3 5 + 0 3 + 4 6 + √ 2 = 0 5 −1 5 7 6 + √ 2 . 3 Propriedades da Adic¸a˜o Se as matrizes A, B e C possuem a mesma ordem, valem as seguintes propriedades: 1. A+B = B + A (comutativa). 2. A+ (B + C) = (A+B) + C (associativa). 3. A+O = A, quando O e´ uma matriz nula (elemento neutro). 4. Seja A = (aij)m×n. Chama-se matriz oposta de A, a matriz m × n representada por −A = (−aij)m×n, tal que A+ (−A) = O (−A e´ o elemento oposto). 5. (A+B)T = AT +BT , a transposta de uma soma e´ igual a somas das transpostas. Exemplo: A matriz oposta de A = 1 −4 2 0 7 3 e´ − A = −1 4 −2 0 −7 −3 . 1.2.2 Subtrac¸a˜o A diferenc¸a de duas matrizes da mesma ordem, A = (aij)m×n e B = (bij)m×n, e´ uma matriz m× n, que denota-se por A−B, que e´ a soma de A com a oposta de B; isto e´: A−B = A+ (−B) = (aij)m×n + (−bij)m×n = (aij − bij)m×n (1.3) Exemplo: 1 4 2 5 3 6 − −1 1 −3 0 4 2 = 1 + 1 4− 1 2 + 3 5− 0 3− 4 6− 2 = 2 3 5 5 −1 4 . Exerc´ıcio: 1. Sejam A = (aij)3×2 e B = (bij)3×2, tal que aij = 2i+ j e bij = 1 + i− j. (a) Determine as matrizes C = A+B e D = A−B. (b) Determine uma fo´rmula para os elementos cij de C e dij de D. 4 2. Encontre as matrizes 2× 2, A e B, sabendo que: A+B + 1 1 1 1 = 4 0 1/2 −1 + 0 2 3/2 4 A−B = 6 −3 4 0 − 2 −2 2 1 . 1.2.3 Multiplicac¸a˜o de um nu´mero real por uma Matriz Seja A = (aij)m×n e k um nu´mero escalar. Definimos o mu´ltiplo escalar B = kA = (bij)m×n, a matriz m× n onde bij = kaij. Exemplo Se A = 3 −1 1 0 6 4 , enta˜o 2A = 6 −2 2 0 12 8 e 13 A = 1 −1/3 1/3 0 2 4/3 1.2.4 Multiplicac¸a˜o de Matrizes Sejam as matrizes A = (aij)m×p e B = (bij)p×n. Definimos C = A ·B = (cuv)m×n, tal que cuv = p∑ k=1 aukbkv para todo 1 ≤ u ≤ m e 1 ≤ v ≤ n (1.4) Observac¸a˜o 1.2. So´ se pode efetuar o produto de duas matrizes Am×p e Bp×n, se o nu´mero de colunas da primeira matriz for igual ao nu´mero de linhas da segunda matriz, sendo assim o resultado da multiplicac¸a˜o de A por B sera´ uma matriz de ordem m × n. Note que o elemento cij e´ obtido multiplicando os elementos da i-e´sima linha da primeira matriz pelos elementos correspondentes da j-e´sima coluna da segunda matriz, e somando este produtos. Exemplo: a) −1 2 2×1 ( −3 4 ) 1×2 = −1.(−3) −1.(4) 2.(−3) 2.(4) = 3 −4 −6 8 2×2 b) 1 0 3 −2 2×2 −1 1 5 3 2×2 = 1.(−1) + 0.(5) 1.(1) + 0.(3) 3.(−1) +−2.(5) 3.(1) +−2.(3) = −1 1 −13 −3 2×2 5 Observac¸a˜o 1.3. A propriedade conmutativa em matrizes nem sempre e´ va´lida, isto e´ AB e BA na˜o necessariamente sa˜o iguais. No item b) do exemplo anterior verifique se AB = BA. Se A e´ uma matriz quadrada n× n e I a matriz identidade n× n, enta˜o AI = IA = A. Propriedades da Multiplicac¸a˜o Supondo que a ordem das matrizes A, B e C estejam definidas de modo que cada uma das operac¸o˜es abaixo indicadas possam ser efetuadas, enta˜o as propriedades seguintes sera˜o va´lidas. 1. (A.B).C = A.(B.C) (associatividade). 2. (A±B).C = A.C ±B.C (distributividade a` direita). 3. A.(B ± C) = A.B ± A.C (ditributividade a` esquerda). 4. k(B ± C) = kB ± kC, k, s ∈ R 5. (k ± s)A = kA± sA, k, s ∈ R 6. k(sA) = (ks)A, k, s ∈ R 7. (α.A)T = α.AT , onde α e´ qualquer escalar. 8. (A.B)T = BT .AT (deve-se observar a ordem). Matriz Anti-sime´trica: E´ uma matriz quadrada, onde AT = −A. Exemplo: A = 0 3 4 −3 0 −6 −4 6 0 e´ anti-sime´rica. 1.3 Matriz Inversa Uma matriz quadrada A e´ dita invers´ıvel ou na˜o singular, se existir uma outra matriz B (inversa multiplicativa), da mesma ordem, tal que A.B = I e B.A = I. Denotaremos B = A−1, sendo que A.A−1 = A−1.A = I. 6 Definic¸a˜o 1.3. Uma matriz A e´ dita na˜o invers´ıvel ou singular se ela na˜o tem uma inversa multiplicativa. Propriedades 1. Uma matriz invers´ıvel tem uma u´nica inversa multiplicativa. 2. Se A e B sa˜o matrizes de mesma ordem, ambas invers´ıveis, enta˜o A e B e´ invers´ıvel e (A.B)−1 = B−1 . A−1. 3. Nem toda matriz tem inversa. Exemplo: As matr´ızes A = 2 1 0 4 e B = 1/2 −1/8 0 1/4 sa˜o inversas uma da outra ja que A.B = B.A = I Exerc´ıcio: Encontre a inversa da matriz A = 1 1 0 1 . 1.3.1 Me´todo de Gauss Jordam para o Ca´lculo de Inversa Uma forma para achar a inversa de uma matriz quadrada A, e que envolve substancialmente menos contas do que aplicando a definic¸a˜o diretamente, e´ usando as operac¸o˜es elementares sobre as linhas da matriz aumentada associada (A|I) de modo que esta se transforme numa matriz aumentada da forma (I|B). Diremos que B = A−1. As operac¸o˜es elementares permitidas sa˜o: 1. Permutar linhas Li ←→ Lj 2. Multiplicar uma linha por um nu´mero real α na˜o nulo, Li ←→ αLi. 3. Somar a uma linha um mu´ltiplo de uma outra, Li ←→ Li + αLj. Exemplo: Ache a inversa da matriz A = 2 3 0 1 −2 −1 2 0 −1 se existir. 7 Soluc¸a˜o: A partir da matriz aumentada (A|I), usando as operac¸o˜es por linhas temos: (A|I) = 2 3 0 | 1 0 0 1 −2 −1 | 0 1 0 2 0 −1 | 0 0 1 L1 ←→ L2 L2 ←→ L1 L3 ←→ L3 = 1 −2 −1 | 0 1 0 2 3 0 | 1 0 0 2 0 −1 | 0 0 1 L1 ←→ L1 L2 ←→ L2 − 2L1 L3 ←→ L3 − 2L1 = 1 −2 −1 | 0 1 0 0 7 2 | 1 −2 0 0 4 1 | 0 −2 1 L1 ←→ L1 L2 ←→ L2/7 L3 ←→ L3 = 1 −2 −1 | 0 1 0 0 1 2/7 | 1/7 −2/7 0 0 4 1 | 0 −2 1 L1 ←→ L1 + 2L2 L2 ←→ L2 L3 ←→ L3 − 4L2 = 1 0 −3/7 | 2/7 3/7 0 0 1 2/7 | 1/7 −2/7 0 0 0 −1/7 | −4/7 −6/7 1 L1 ←→ L1 − 3L3 L2 ←→ L2 + 2L3 L3 ←→ −7L3 = 1 0 0 | 2 3 −3 0 1 0 | −1 −2 2 0 0 1 | 4 6 −7 = (I|A−1) Portanto, a inversa da matriz A existee e´ dada por A−1 = 2 3 −3 −1 −2 2 4 6 −7 Exemplo: Encontre a inversa da matriz A = 2 1 −4 −4 −1 6 −2 2 −2 se existir. 8 Soluc¸a˜o: A partir da matriz aumentada (A|I), usando as operac¸o˜es por linhas temos: (A|I) = 2 1 −4 | 1 0 0 −4 −1 6 | 0 1 0 −2 2 −2 | 0 0 1 L1 ←→ L1 L2 ←→ L2 + 2L1 L3 ←→ L3 + L1 = 2 1 −4 | 1 0 0 0 1 −2 | 2 1 0 0 3 −6 | 1 0 1 L1 ←→ L1 L2 ←→ L2 L3 ←→ L3 − 3L2 = 2 1 −4 | 1 0 0 0 1 −2 | 2 1 0 0 0 0 | −5 −3 1 Nesse ponto vemos que na˜o e´ poss´ıvel reduzir A a I, ja que encontramos uma linha de zeros do lado esquerdo da matriz completa. Consequentemente A na˜o e´ invers´ıvel. Exemplo Seja a matriz A = a b c d . Usando o me´todo de Gauss Jordam, prove que a matriz inversa dela e´ A−1 = 1 ad− bc d −b −c a (1.5) Soluc¸a˜o: (A|I) = a b | 1 0 c d | 0 1 L1 ←→ L1a L2 ←→ L2d = 1 ba | 1/a 0 c d 1 | 0 1/d L1 ←→ L1 L2 ←→ L2 − cdL1 = 1 ba | 1a 0 0 1− bc ad | −c ad 1 d L1 ←→ L1 − ba 1(1− bcad )L2 L2 ←→ 11− bc ad L2 = 1 0 | 1a + ba 1(1− bcad ) cad − bad 1(1− bcad ) 0 1 | −c ad 1 (1− bc ad ) 1 d 1 (1− bc ad ) = 1 0 | d(ad−bc) −bad−bc 0 1 | −c ad−bc a ad−bc . Nesta u´ltima matriz, colocando em evideˆncia o fator 1 ad−bc segue o resultado 1.5. 9 1.4 Determinante de uma Matriz E´ poss´ıvel associar a cada matriz A de ordem n×n, um escalar (nu´mero real ou complexo), que denotaremos por detA, cujo valor vai nos dizer se a matriz e´ ou na˜o invert´ıvel. Antes de dar a definic¸a˜o geral vamos a considerar alguns casos particulares. Caso 1. Se A = (a) e´ uma matriz 1× 1, definimos o determinante de A por: detA = a. Diremos que A tem inversa multiplicativa (A e´ invert´ıvel) se e so´ se detA 6= 0. Caso 2. Se A = a11 a12 a21 a22 e´ uma matriz 2 × 2, definimos o determinante de A pelo fator inverso que aparece em (1.5), neste caso sera´: detA = a11a22 − a12a21. Caso 3. Se A = a11 a12 a13 a21 a22 a23 a31 a32 a33 e´ uma matriz 3×3, definimos o determinante de A por: detA = a11a22a33 − a11a32a23 − a12a21a33 + a12a31a23 + a13a21a32 − a13a31a22. Note que o detA e´ o fator inverso que se obte´m ao calcular a matriz inversa de A usando o me´todo de Gauss Jordam. Podemos reescrever a equac¸a˜o anterior na forma detA = a11(a22a33 − a32a23)− a12(a21a33 − a31a23) + a13(a21a32 − a31a22) (1.6) Para j = 1, 2, 3, vamos denotar por M1j a submatriz 2 × 2 de A formada retirando-se a primeira linha e a j-e´sima coluna de A. O determinante de A (1.6) pode ser, enta˜o, colocado na forma detA = a11 detM11 − a12 detM12 + a13 detM13 (1.7) Para ver como generalizar (1.7) para o caso n > 3, vamos a dar a seguinte definic¸a˜o. 10 Definic¸a˜o 1.4. (Menores e Cofatores): Seja A = (aij) uma matriz n × n. O ij-e´simo menor de A e´ o determinante da submatriz Mij, de ordem (n − 1) × (n − 1), que sobra quando suprimimos a i-e´sima linha e a j-e´sima coluna de A. O ij-e´simo Cofator Aij de A (ou o cofator de aij) e´ definido como Aij = (−1)i+j detMij. Definic¸a˜o 1.5. (Desenvolvimento de Laplace) O determinante de uma matriz n× n e´ o nu´mero real detA, definido por detA = ai1.Ai1 + ai2.Ai2 + ...+ a1n.Ain (1.8) ou detA = a1j.A1j + a2j.A2j + ...+ anj.Anj, (1.9) onde Aij e´ ij-e´simo cofator de A. Exemplo: Ache o determinante da matriz A = 0 1 5 3 −6 9 2 6 1 . Soluc¸a˜o.: Calculando a matriz de cofatores temos: cof(A) = −60 15 30 29 −10 2 39 15 −3 Logo, o determinante de A pode-se obter por exemplo das seguintes formas: 1. Em relac¸a˜o a primera linha, detA = 0(−60) + 1(15) + 5(30) = 165. 2. Em relac¸a˜o a tercera linha, detA = 2(39) + 6(15) + 1(−3) = 165. 3. Em relac¸a˜o a segunda coluna, detA = 1(15)− 6(−10) + 6(15) = 165. 1.4.1 Propriedades do Determinante Seja A uma matriz de ordem n× n. 11 1. Se A tem uma linha o uma coluna de zeros, enta˜o detA = 0. 2. Se duas linhas ou colunas de A sa˜o iguais, enta˜o detA = 0. 3. detA = detAT . 4. Se A e´ uma matriz, triangular superior ou triangular inferior ou diagonal, enta˜o o detA e´ igual ao produto de seus elementos da diagonal. 5. Se B e´ uma matriz de ordem n× n, enta˜o: det(A+B) 6= detA+ detB e det(AB) = detA detB 6. Seja B a matriz obtida ao multiplicar uma u´nica linha ou coluna de A por k, enta˜o: detB = k detA (detA = 1 k detB). 7. Seja B a matriz obtida ao permutar duas linhas (ou duas colunas) de A, enta˜o detB = − detA. 8. Seja B a matriz obtida ao somar um mu´ltiplo de uma linha (ou colunas) de A a uma outra linha (ou coluna), enta˜o detB = detA. 1.4.2 Ca´lculo por Reduc¸a˜o de Linhas ou Colunas-Triangulac¸a˜o A seguir apresentamos um me´todo para calcular determinantes que envolve substancialmente menos contas que aplicando a definic¸a˜o diretamente. Assim, tendo em mente as propriedades 6, 7 e 8, a ide´ia sera´ reduzir a matriz A ao formato triangular. Exemplo: Ache o determinante da matriz A = 0 1 5 3 −6 9 2 6 1 . 12 Soluc¸a˜o: Usando as propriedades 6, 7 e 8, obtemos que detA = ∣∣∣∣∣∣∣∣∣ 0 1 5 3 −6 9 2 6 1 ∣∣∣∣∣∣∣∣∣ = − ∣∣∣∣∣∣∣∣∣ 3 −6 9 0 1 5 2 6 1 ∣∣∣∣∣∣∣∣∣ (linhas 2 e 3 foram permutadas) = −3 ∣∣∣∣∣∣∣∣∣ 1 −2 3 0 1 5 2 6 1 ∣∣∣∣∣∣∣∣∣ (o fator comun 3 da linha 1 foi retirado) = −3 ∣∣∣∣∣∣∣∣∣ 1 −2 3 0 1 5 0 10 −5 ∣∣∣∣∣∣∣∣∣ (linha 3 + (-2) (linha 1)) = −3 ∣∣∣∣∣∣∣∣∣ 1 −2 3 0 1 5 0 0 −55 ∣∣∣∣∣∣∣∣∣ (linha 3 + (-10) (linha 2)) = −3(1)(1)(−55) = 165 Exemplo: Ache o determinante da matriz A = 1 0 0 3 2 7 0 6 0 6 3 0 7 3 1 −5 . Soluc¸a˜o: Reduzindo a matriz a uma triangular inferior usando operac¸o˜es por coluna, obte- mos que detA = ∣∣∣∣∣∣∣∣∣∣∣∣ 1 0 0 3 2 7 0 6 0 6 3 0 7 3 1 −5 ∣∣∣∣∣∣∣∣∣∣∣∣ = ∣∣∣∣∣∣∣∣∣∣∣∣ 1 0 0 0 2 7 0 0 0 6 3 0 7 3 1 −26 ∣∣∣∣∣∣∣∣∣∣∣∣ (coluna 4 + (-3)(coluna 1)) = (1)(7)(3)(−26) = −546 13 1.5 A Matriz Adjunta e a Inversibilidade de Matrizes Suponhamos que An×n tenha inversa, isto e´, existe A−1 tal que A · A−1 = I. Usando o determinante obte´m-se det (A · A−1) = det A · det A−1 e det I = 1 Enta˜o: detA−1 = 1 detA Definic¸a˜o 1.6. Seja a matriz A ∈Mn×n(R). Chamaremos Adjunta de A, a matriz Adj(A) que e´ a transposta da matriz de cofatores. Simbolicamente, Adj(A) = (cof(A))T . Teorema 1.1. Se A e´ uma matriz invers´ıvel, enta˜o: A−1 = 1 detA Adj (A). Uma condic¸a˜o necessa´ria para que A tenha inversa e´ que o detA 6= 0. Ex.: Ache a inversa de A = 1 2 −1 3 . Soluc¸a˜o: Calculando temos que detA = 5, a matriz de cofatores cof(A) = 3 1 −2 1 e a adjunta Adj(A) = (cof(A))T = 3 −2 1 1 , logo pelo Teorema 1.1 A−1 = 1 5 · 3 −2 1 1 . (1.10) Teorema 1.2. Uma matriz A de ordem n× n e´ na˜o invers´ıvel se e somente se det(A) = 0 14 1.6 Exerc´ıcios Para conferir seus resultados recomenda-se usar um calculador online Dica: http://www.solvemymath.com/online math calculator/algebra combinatorics/ 1. Sejam A = 3 0 −1 5 , B = 4 −2 1 0 2 3 , C = 1 2 3 4 5 6 e D = 0 −3 −2 1 . Calcular A+ 2D, B − CT , BTCT − CB, A3, DA− AD. 2. Seja A = √2 x2 4x 1 . Calcule os poss´ıveis valores de x, para que AT = A. 3. (i) Se A e´ uma matriz sime´trica n× n, calcule AT − A. (ii) Se A e´ uma matriz triangular inferior, AT e´ uma matriz triangular . . . . . . . (iii) A e´ uma matriz diagonal, calcule AT . 4. Seja a matriz A = 2 3 −4 0 −4 2 1 −1 5 . Usando cofatores, (i) Calcule detA desenvolvendo em relac¸a˜o a` primeira linha. (ii) CalculedetA desenvolvendo em relac¸a˜o a` primeira coluna. (iii) Calcule detA desenvolvendo em relac¸a˜o a` segunda coluna. 5. Usando cofatores e fazendo o menor nu´mero de operac¸o˜es, calcule o determinante de A = 2 0 3 0 3 0 0 1 0 2 3 0 2 0 1 4 , B = 4 0 2 1 5 0 4 2 2 0 3 4 1 1 2 3 e C = 2 0 0 1 0 1 0 0 1 6 2 0 1 1 −2 3 . 6. Calcule o determinante de cada uma das seguintes matrizes (use as operac¸o˜es elemen- tares por linhas para reduzir as matrizes abaixo a` sua forma triangular). A = 2 0 −1 3 0 2 4 −3 7 , B = t+ 3 −1 1 5 t− 3 1 6 −6 t+ 4 e C = 1 4 −5 0 0 1 −1 8 7 . 15 7. Encontre todos os valores poss´ıveis de c que tornem a matriz invers´ıvel 1 1 1 1 9 c 1 c 3 . 8. Sejam as matrizes A = −1 3 −4 2 4 1 −4 2 −9 B = 1 0 0 1 3 0 1 3 5 C = cos θ sen θ 0 − sen θ cos θ 0 0 0 1 D = 2 5 5 −1 −1 0 2 4 3 E = 2 0 3 0 3 2 −2 0 −4 F = 2 0 0 8 1 0 −5 3 6 e G = a b c c a b b c a . (i) Calcule os cofatores das matrizes A, B, C, D, E, F e G. (ii) Determine a inversa das matrizes A, B e C usando o Teorema 1.1. 9. Encontre a inversa das matrizes dadas usando operac¸o˜es por linha 2 3 0 1 −2 −1 2 0 −1 , 1 1 0 1 0 1 0 1 1 , 0 a 0 b 0 c 0 d 0 , 1 0 0 0 0 1 0 0 0 0 1 0 a b c d , √ 2 0 2 √ 2 0 −4√2 √2 0 0 0 0 1 0 0 0 3 1 . 10. Sejam A e B matrizes 3×3 com detA = 4 e detB = 5. Encontre o valor de det(AB), det(3A), det(2AB), det(A−1B) 11. Uma matriz A e´ ortogonal se sua inversa e´ igual a sua transposta, ou seja, A−1 = AT . Provar que a matriz A = cos θ − sen θ sen θ cos θ e´ ortogonal. 16 Cap´ıtulo 2 Sistemas de Equac¸o˜es Lineares Alge´bricas Uma equac¸a˜o linear de n incognitas e´ uma equac¸a˜o da forma a1x1 + a2x2 + · · ·+ anxn = b (2.1) Um sistema linear de m equac¸o˜es alge´bricas lineares de n varia´veis (incognitas) e´ um conjunto de equac¸o˜es lineares que devem ser resolvidas simultaneamente, por exemplo: a11x1 + a12x2 + · · ·+ a1nxn = b1 a21x1 + a22x2 + · · ·+ a2nxn = b2 ... am1x1 + am2x2 + · · ·+ amnxn = bm (2.2) onde os aij e bi sa˜o nu´meros reais. Em 1858, o matema´tico ingleˆs Artur Cayley introduz uma notac¸a˜o abreviada para ex- pressar o sistema linear (2.2), na forma matricial: a11 a12 · · · a1n a21 a22 · · · a2n ... ... . . . ... am1 am2 · · · amn m×n . x1 x2 ... xn n×1 = b1 b2 ... bm m×1 . (2.3) Assim a forma matricial (2.3) escreve-se abreviadamente por: Ax = b, (2.4) 17 onde A e´ uma matriz m× n, b um vetor m× 1 e x e´ um vetor n× 1. “Se b = 0, o sistema e´ dito homogeˆneo, caso contra´rio ele e´ na˜o-homogeˆneo”. 2.1 Classificac¸a˜o de um Sistema Linear O sistema linear (2.2) pode ter ou na˜o soluc¸a˜o. Assim, classificaremos os sistemas lineares em dois tipos: 1. Compat´ıvel (ou poss´ıvel) Determinado, uma u´nica soluc¸a˜oIndeterminado mais de uma soluc¸a˜o. 2. Incompat´ıvel (ou imposs´ıvel) quando na˜o possui soluc¸a˜o. Se o sistema linear (2.2) tem o nu´mero de equac¸o˜es igual ao nu´mero de incognitas (m = n), enta˜o a matriz A associada a forma matricial equivalente (2.4) sera´ uma matriz quadrada n× n. Logo, • Se a matriz A e´ invers´ıvel, isto e´, o det A 6= 0, enta˜o o sistema tem u´nica soluc¸a˜o, ou seja, x = A−1b. • Se a matriz A na˜o e´ invers´ıvel, isto e´ det A = 0, enta˜o o sistema na˜o tem soluc¸a˜o, ou existe soluc¸a˜o mas na˜o e´ u´nica. (Um sistema homogeˆneo: Ax = 0, onde det A = 0, possui infinitas soluc¸o˜es) Observac¸a˜o 2.1. Um sistema linear homogeˆneo Ax = 0 admite sempre a soluc¸a˜o nula, chamada soluc¸a˜o trivial. Logo, um sistema linear homogeˆneo e´ sempre compat´ıvel. Exemplo: E´ simples verificar que a soluc¸a˜o nula x = (0, 0, 0)T e´ soluc¸a˜o do sistema linear homogeˆneo, 3x1 − x2 + 7x3 = 0x1 − 2x2 + 3x3 = 0. ⇐⇒ 3 −1 7 1 −2 3 x1 x2 x3 = 0 0 0 ⇐⇒ Ax = 0 18 Uma interpretac¸a˜o geome´trica das soluc¸o˜es de um sistema linear, pode ser observada para sistemas de ordem 2× 2. Por exemplo, sejam os sistemas: I) x1 + x2 = 2x1 − x2 = 2 II) x1 + x2 = 2x1 + x2 = 1 III) x1 + x2 = 2−x1 − x2 = −2. A soluc¸a˜o dos respectivos sistemas podem ser visualizados nos seguintes gra´ficos (a) Caso I (b) Caso II (c) Caso III Figura 2.1: 2.2 Me´todo de Eliminac¸a˜o de Gauss Consiste na resoluc¸a˜o de Sistemas por Escalonamento onde o objetivo e´ migrar de um sistema linear Ax = b para outro que lhe seja equivalente, e de resoluc¸a˜o mais simples. A ide´ia enta˜o e´, usar as operac¸o˜es elementares sobre as linhas da matriz aumentada (A |b) de modo que esta se transforme a` forma (A′ |b′) onde A′ e´ uma matriz escalonada (*). Assim, o sistema final equivalente A′x = b ′ sera´ resolvido usando substituic¸o˜es regressivas. Definic¸a˜o 2.1. * Uma matriz esta escalonada por linhas quando satisfaz as seguintes propriedades: 1. Todas as linhas que consistem inteiramente de zeros esta˜o na parte inferior da matriz. 2. Em cada linha na˜o nula, o primeiro elemento na˜o nulo (chamado elemento lider) esta´ em uma coluna a` esquerda de qualquer outro elemento l´ıder abaixo dele. 19 Observac¸a˜o 2.2. A forma escalonada de uma matriz na˜o e´ u´nica. Logo, dependendo de sua escolha na hora de fazer as operac¸o˜es elementares vc. podera´ obter va´rias matrizes equivalentes, pore´m sempre uma mesma soluc¸a˜o. Exemplo: Ache a soluc¸a˜o do sistema linear x1 + 2x2 + x3 = 3 3x1 − x2 − 3x3 = −1 2x1 + 3x2 + x3 = 4. ⇐⇒ 1 2 1 3 −1 −3 2 3 1 x1 x2 x3 = 3 −1 4 ⇐⇒ Ax = b Sol.: Apartir da matriz aumentada, usando as operac¸o˜es por linhas temos: (A|b) = 1 2 1 | 3 3 −1 −3 | −1 2 3 1 | 4 L2 ←→ L2 − 3L1 L3 ←→ L3 − 2L1 = 1 2 1 | 3 0 −7 −6 | −10 0 −1 −1 | −2 L2 ←→ L3 = 1 2 1 | 3 0 −1 −1 | −2 0 −7 −6 | −10 L3 ←→ L3 − 7L2 = 1 2 1 | 3 0 −1 −1 | −2 0 0 1 | 4 = (A′|b′) O sistema equivalente resultante e´ x1 +2x2 + x3 = 3 −x2 − x3 = −2 x3 = 4. A soluc¸a˜o deste u´ltimo sistema obtem-se resolvendo a u´ltima equac¸a˜o e substituindo a res- pectiva soluc¸a˜o na equac¸a˜o anterior, ate´ chegar na primeira. Neste caso temos que x3 = 4, x2 = −2 e x1 = 3 Exemplo: Resolva o sistema 20 x + 2y + z + t = 1x + 3y − z + t = 3 Sol.: A matriz aumentada (A|b) associada ao sistema e´ 1 2 1 1 1 1 3 −1 1 3 0 0 0 0 0 0 0 0 0 0 . Logo, fazendo L2 ←→ L2 − L1, a forma escalonada torna-se 1 2 1 1 1 0 1 −2 0 2 0 0 0 0 0 0 0 0 0 0 . Observemos que o nu´mero de varia´veis livres ( que na˜o dependem de outras varia´veis) e´ igual ao nu´mero de linhas na˜o nulas na forma escalonada. No exemplo dado, z e t sa˜o as varia´veis livres . Assim , para z = λ1 e t = λ2 obtemos mediante substituic¸o˜es regresivas: y = 2 + 2λ1, x = 1− 2(2 + 2λ1)− λ1 − λ2 = −3− 5λ1 − λ2. Definic¸a˜o 2.2. O posto de uma matriz, posto(A), e´ o nu´mero de linhas na˜o nulas de qualquer uma de suas formas escalonadas por linhas. Teorema 2.1. (O Teorema do Posto) Seja A a matriz dos coeficientes de um sistema de equac¸o˜es lineares com n varia´veis. Se o sistema for poss´ıvel, enta˜o o nu´mero de varia´veis livres = n − posto(A)No u´ltimo exemplo, ja que o sistema tem soluc¸a˜o, pelo Teorema do Posto temos 4−2 = 2 varia´veis livres, neste caso z e t. Exemplo Resolva o sistema x − y + 2z = 3 x + 2y − z = −3 2y − 2z = 1 21 Sol.: A matriz aumentada (A|b) associada ao sistema e´ 1 −1 2 3 1 2 −1 −3 0 2 −2 1 . Logo, fazendo L2 ←→ L2 − L1, a forma escalonada torna-se 1 −1 2 3 0 3 −3 −6 0 2 −2 1 . Finalmente, fazendo L3 ←→ 3L3 − 2L2, temos 1 −1 2 3 0 3 −3 −6 0 0 0 15 levando a` equac¸a˜o imposs´ıvel 0 = 15. Assim o sistema na˜o tem soluc¸a˜o, ele e´ imposs´ıvel. 2.3 Resoluc¸a˜o de Sistemas pela Regra de Cramer O me´todo de Cramer nos permitira´ escrever a soluc¸a˜o de um sistema de equac¸o˜es lineares n× n em func¸a˜o de determinantes. Entretanto, devemos salientar que este me´todo envolve o ca´lculo de n + 1 determinantes de ordem n o que equivale a resolver mais operac¸o˜es que no me´todo de Gauss. Seja A uma matriz invers´ıvel n×n e seja b ∈ Rn. Seja Ai a matriz obtida substituindo-se a i-e´sima coluna de A por b. Se x = (x1, x2, . . . , xn) T for a u´nica soluc¸a˜o de Ax = b, enta˜o: xi = det (Ai) det A para i = 1, 2, . . . , n. Exemplo: Ache a soluc¸a˜o do sistema linear x1 + 2x2 + x3 = 3 3x1 − x2 − 3x3 = −1 2x1 + 3x2 + x3 = 4. ⇐⇒ 1 2 1 3 −1 −3 2 3 1 x1 x2 x3 = 3 −1 4 ⇐⇒ Ax = b Sol.: Usando o me´todo de Cramer e sabendo que detA = 1(−1 + 9)− 2(3 + 6) + 1(9 + 2) = 8− 18 + 11 = 1 22 temos que: x1 = ∣∣∣∣∣∣∣∣∣ 3 2 1 −1 −1 −3 4 3 1 ∣∣∣∣∣∣∣∣∣ = (3(−1 + 9)− 2(−1 + 12) + 1(−3 + 4)) = 24− 22 + 1 = 3 x2 = ∣∣∣∣∣∣∣∣∣ 1 3 1 3 −1 −3 2 4 1 ∣∣∣∣∣∣∣∣∣ = (1(−1 + 12)− 3(3 + 6) + 1(12 + 2)) = 11− 27 + 14 = −2 x3 = ∣∣∣∣∣∣∣∣∣ 1 2 3 3 −1 −1 2 3 4 ∣∣∣∣∣∣∣∣∣ = (1(−4 + 3)− 2(12 + 2) + 3(9 + 2)) = −1− 28 + 33 = 4 2.4 Exerc´ıcios 1. Resolva os seguintes sistemas pelo me´todo de Gauss-Jordan. (i) 3x − y = 42x − 1 2 y = 1 (ii) 2x − 3y = 4x − 3y = 1 (iii) x − 3y − 2z = 0 −x + 2y + z = 0 2x + 4y + 6z = 0 (iv) 2x + 3y − z + 4w = 0 3x − y + w = 1 3x − 4y + z − w = 2 (v) √ 2x + y + 2z = 1 √ 2y − 3z = −√2 − y + √2z = 1 (vi) −x + 3y − 2z + 4w = 0 2x − 6y + z − 2w = −3 x − 3y + 4z − 8w = 2 (vii) 1 2 x + y − z − 6w = 2 1 6 x + 1 2 y − 3w +t = −1 1 3 x − 2z −4t = 8 (viii) 2x + y = 3 4x + y = 7 2x + 5y = −1 23 ix) x + y + z + w = 4 x + 2y + 3z + 4w = 10 x + 3y + 6z + 10w = 20 x + 4y + 10z + 20w = 35 x) x + y + 2z + w = 1 x − y − z + w = 0 y + z = −1 x + y + w = 2 2. O sistema seguinte na˜o tem soluc¸o˜es para quais valores de a?. Exatamente uma soluc¸a˜o?. Infinitas soluc¸o˜es. x + 2y − 3z = 4 3x − y + 5z = 2 4x + y + (a2 − 14)z = a+ 2 x + y + az = 1 x + ay + z = 1 ax + y + z = −2 3. Determine k para que o sistema admita soluc¸a˜o −4x + 3y = 2 5x − 4y = 0 2x − y = k 4. Resolva o sistema x + y + z = 42x + 5y − 2z = 3 5. Estabelec¸a a condic¸a˜o que deve ser satisfeita a e b para que o sistema seja compat´ıvel. a) x− 2y − z = a 2x+ y + 3z = b 4x− 3y + z = 1 b) ax+ y = −12x+ y = b c) x+ ay = 1bx+ 2y = 5 6. Encontre os coeficientes do polinoˆmio p(x) = ax3 + bx2 + cx + d cujo gra´fico passa pelos pontos (0,−3), (2,−5), (3, 0) e (−1,−8). 7. Encontre a reta intersec¸a˜o de cada par de planos dados a) 3x+ 2y + z = −1 e 2x− y + 4z = 5 b) 4x+ y − z = 0 e 2x− y + 3z = 4 24 8. Mentiras que meu Computador me Contou (David Poole) Existem sistemas chamados Malcondicionados que sa˜o extremadamente sens´ıveis a arredondamentos, a seguir um exemplo deste para vc pensar. a) Resolva o seguinte sistema exatamente (trabalhe apenas com frac¸o˜es) x+ y = 0x+ 801 800 y = 1. b) Sabendo que a forma decimal de 801 800 = 1, 00125 use uma calculadora online e resolva o sistema: x+ y = 0x+ 1, 00125y = 1. Dica: http://www.solvemymath.com/online math calculator/ c) Resolva o sistema dado em a) arredondando 801 800 = 1, 0012 e 801 800 = 1, 001. d) Conclua que mesmo um pequeno erro de arredondamento pode levar a grandes erros de resultado. Explique geometricamente. 25 Cap´ıtulo 3 Vetores Com o intuito de esclarecer melhor o conceito de vetor, uma abordagem geome´trica e alge´brica sera˜o apresentadas. 3.1 Interpretac¸a˜o Geome´trica Existem dois tipos de grandezas: as escalares e as vetoriais. As escalares sa˜o aquelas que ficam definidas por apenas um nu´mero real (acompanhado de uma unidade adequada). Por exemplo, comprimento, a´rea, volume, massa, densidade e temperatura. As grandezas vetori- ais, sa˜o o caso contrario, isto e´, na˜o basta saber seu mo´dulo e unidade correspondente, para serem perfeitamente caracterizadas precissamos sua direc¸a˜o e seu sentido. Por exemplo, forc¸a, velocidade e acelerac¸a˜o. Definic¸a˜o 3.1. Um vetor ~v e´ uma classe de objetos matema´ticos (segmentos) com a mesma direc¸a˜o, mesmo sentido e mesmo mo´dulo, sendo: - A direc¸a˜o, a da reta colinear que conte´m o segmento ou reta paralela. - O sentido, dado pela orientac¸a˜o do movimento. - O mo´dulo, o comprimento do segmento. Um vetor que vai do ponto A (origem) ate´ o ponto B (extremidade) e´ denotado por −→ AB. 26 Na seguinte figura todos os segmentos orientados paralelos ou colineares, de mesmo sen- tido e mesmo comprimento, representam um u´nico vetor. 3.1.1 Adic¸a˜o de Vetores Consideremos dois vetores ~u e ~v, cuja soma ~u + ~v pretendemos encontrar. Tomemos um ponto A qualquer e, com origem nele, tracemos um segmento orientado −→ AB representante do vetor ~u e um segmento orientado −−→ BC representante do vetor ~v. O vetor representado pelo segmento orientado −→ AC sera´ o representante do vetor soma ~u+ ~v, isto e´, ~u+ ~v = −→ AC ou −→ AB + −−→ BC = −→ AC Sendo ~u, ~v e ~w vetores quaisquer, a adic¸a˜o admite as seguintes propriedades 1. Conmutativa: ~u+ ~v = ~v + ~u. 2. Associativa: (~u+ ~v) + ~w = ~u+ (~v + ~w). 3. Elemento Neutro: ~u+~0 = ~u 4. Elemento Oposto: ~u+ (−~u) = ~0 Observac¸a˜o 3.1. O vetor ~u+ (−~v) escreve-se ~u− ~v,e´ chamado diferenc¸a entre ~u e ~v. 27 3.1.2 Multiplicac¸a˜o de um Nu´mero Real por um Vetor Dado um vetor ~u 6= 0 e um nu´mero real α 6= 0, chama-se produto do nu´mero real α pelo vetor ~u, o vetor α~u tal que: 1. Mo´dulo ou comprimento: |α~v| = |α||~v| 2. Direc¸a˜o: α~v e´ paralelo a ~v 3. Sentido: α~v e ~v tem o mesmo sentido se α > 0, e contra´rio se α < 0. 28 3.1.3 Aˆngulo entre dois vetores O aˆngulo entre os vetores na˜o nulos u e v e´ o aˆngulo θ formado por duas semi-retas −→ OA e −−→ OB de mesma origem O, onde ~u = −→ OA, ~v = −−→ OB e 0 ≤ θ ≤ pi. • Se ~u//~v e ~u e ~v teˆm o mesmo sentido, enta˜o θ = 0. Na figura acima, o aˆgulo entre ~u e 2~u e´ zero. • Se ~u//~v e ~u e ~v teˆm sentidos contra´rios, enta˜o θ = pi. Na figura acima, o aˆgulo entre ~u e −3~u e´ pi. 3.2 Interpretac¸a˜o Alge´brica O representante de um vetor ~v = −→ AB, esta´ na posic¸a˜o padra˜o se seu ponto inicial A coincidir com a origemO do sistema de coordenadas. Enta˜o ~v = −→ OP , onde o ponto P = B−A e´ extremidade do vetor. Dessa forma, todo vetor ~v e´ vetor posic¸a˜o de algum ponto P (unicamente determinado) e as coordenadas de P sa˜o as mesmas que as componentes de ~v. Observac¸a˜o 3.2. Todo vetor ~v em Rn pode-se representar matricialmente por: ~v = x1 x2 ... xn ou ~v = (x1, x2, . . . , xn),em ambos casos ~v e´ o vetor posic¸a˜o de P . 29 Exemplo: Se um vetor tem origem em (1, 2) e extremidade em (7, 12), ele e´ representado por −→v = (6, 10), pois: −→v = (7, 12)− (1, 2) = (6, 10) 3.2.1 Interpretac¸a˜o Alge´brica no Plano Consideremos dois vetores ~v1 e ~v2 na˜o paralelos, representados com a origem no mesmo ponto O, e sejam r1 e r2 retas contendo estes representantes, respectivamente. Os vetores ~u, ~v, ~w, ~x e ~y, representados na figura podem ser escritos em func¸a˜o de ~v1 e ~v2 por ~u = 3~v1 + 4~v2 ~v = −2~v1 + 3~v2 ~w = −3~v1 − ~v2 ~x = 2~v1 + 0~v2 ~y = 0~v1 + 3~v2 De modo geral dados dois vetores quaisquer ~v1 e ~v2, existe uma so´ dupla de nu´meros reais a1 e a2, tal que v = a1 ~v1 + a2 ~v2. O vetor ~v e´ chamado combinac¸a˜o linear de v1 e v2. O conjunto B = {~v1, ~v2} e´ chamado de base no plano. 30 “Qualquer conjunto de dois vetores na˜o paralelos forma uma base no plano” Observac¸a˜o 3.3. Dentre as infinitas bases que existem no plano a mais importante e´ aquela que determina o conhecido sistema cartesiano ortogonal xOy. Esta base e´ chamada de base canoˆnica e esta determinada pelos vetores ortogonais e unita´rios ~i = (1, 0) e ~j = (0, 1). Assim, qualquer vetor ~v = (x, y) do plano pode-se escrever da forma v = x~i+ y ~j. Igualdade de Vetores. Dois vetores ~u = (x1, y1) e ~v = (x2, y2) sa˜o iguais se, x1 = x2 e y1 = y2. Neste caso, escrevemos ~u = ~v. Definic¸a˜o 3.2. Sejam dois vetores ~u = (x1, y1) e ~v = (x2, y2) e α ∈ R. Define-se 1. ~u+ ~v = (x1 + x2, y1 + y2) 2. α~u = (α x1, α y1) 3. −~u = (−1)~u = (−x1,−y1) 4. ~u− ~v = ~u+ (−~v) = (x1 − x2, y1 − y2). As definic¸o˜es anteriores e as operac¸o˜es alge´bricas dos nu´meros reais permitem demonstrar as propriedades seguintes: 1. ~u+ ~v = ~v + ~u 2. ~u+~0 = ~u 3. (~u+ ~v) + ~w = ~u+ (~v + ~w) 4. ~u+ (−~u) = ~0 5. α(β~v) = (αβ)~v 6. α(~u+ ~v) = α~u+ α~v 31 7. (α + β)~u = α~u+ β~u 8. 1~u = ~u. Observac¸a˜o 3.4. E´ importante lembrar que um vetor tem infinitos representantes que sa˜o os segmentos orientados de mesmo comprimento, mesma direc¸a˜o e mesmo sentido. E, dentre os infinitos representantes de −→ AB (A = (x1, y1), B = (x2, y2)), o que “melhor o caracteriza” e´ aquele que tem origem em O = (0, 0) e extremidade no ponto P = (x2−x1, y2− y1). O vetor ~v = −→ OP e´ tambe´m chamado vetor posic¸a˜o, vetor diretor ou representante natural de −→ AB. Mo´dulo de um vetor Seja o vetor ~u = (x, y). Pelo Teorema de Pitagoras, vem |u| = √ x2 + y2. (3.1) 3.2.2 Interpretac¸a˜o Alge´brica no Espac¸o No plano vimos que dado qualquer vetor ~u, este pode ser escrito como uma combinac¸a˜o da base canoˆnica {~i,~j}, isto e´, ~u = (x, y) = x~i+ y~j. Analogamente, no espac¸o, consideraremos a base canoˆnica {~i, ~j, ~k}, como aquela que ira´ determinar o sistema cartesiano ortogonal Oxyz, neste caso ~i = (1, 0, 0), ~j = (0, 1, 0), ~k = (0, 0, 1). Assim, dado um vetor qualquer ~u ∈ R3 este pode-se expressar da forma ~u = (x, y, z) = x~i+ y~j + z ~k. (3.2) As definic¸o˜es e concluso˜es no espac¸o sa˜o ana´logas a`s do plano. Definic¸a˜o 3.3. Sejam os vetores ~u = (x1, y1, z1) e ~v = (x2, y2, z2) e α ∈ R. Define-se 1. ~u = ~v se e somente se x1 = x2, y1 = y2 e z1 = z2. 2. ~u+ ~v = (x1 + x2, y1 + y2, z1 + z2) 3. α~u = (α x1, α y1, α z1) 4. −~u = (−1)~u = (−x1,−y1,−z1) 32 5. ~u− ~v = ~u+ (−~v) = (x1 − x2, y1 − y2, z1 − z2). Ale´m disso, 1. ~u+ ~v = ~v + ~u 2. ~u+~0 = ~u 3. (~u+ ~v) + ~w = ~u+ (~v + ~w) 4. ~u+ (−~u) = ~0 5. α(β~v) = (αβ)~v 6. α(~u+ ~v) = α~u+ α~v 7. (α + β)~u = α~u+ β~u 8. 1~u = ~u. Mo´dulo de um vetor Seja o vetor ~u = (x, y, z), |u| = √ x2 + y2 + z2. (3.3) 3.3 Produto Escalar Chama-se produto escalar de dois vetores ~u e ~v ao nu´mero real ~u · ~v, o qual e´ a soma dos produtos de suas componentes correspondentes de ~u e ~v. Quando ~u = (x1, y1) e ~v = (x2, y2) =⇒ ~u · ~v = x1x2 + y1y2. (3.4) Quando u = (x1, y1, z1) e v = (x2, y2, z2) =⇒ ~u · ~v = x1x2 + y1y2 + z1z2. (3.5) Propriedades do Produto Escalar Dados os vetores u, v e w e o nu´mero real α, e´ fa´cil verificar que: Ale´m disso, 1. ~u · ~v = ~v · ~u 2. ~u · (~v + ~w) = ~u · ~v + ~u · ~w 33 3. (~u+ ~v) · ~w = ~u · ~w + ~v · ~w 4. α · (~u · ~v) = (α~u) · ~v = ~u · (α~v) 5. ~u · ~u > 0 se ~u 6= ~0 e ~u · ~u = 0 se ~u = ~0. 6. ~u · ~u = |~u|2. 3.3.1 Interpretac¸a˜o Geome´trica do Produto Escalar Se ~u e ~v sa˜o dois vetores na˜o nulos e θ e´ o aˆngulo entre eles, enta˜o: ~u · ~v = |~u| |~v| cos θ. (3.6) De fato, aplicando a lei dos cossenos ao triaˆngulo ABC, temos: |~u− ~v|2 = |~u|2 + |~v|2 − 2|~u||~v| cos θ. Por outro lado, como |~u − ~v|2 = (~u − ~v) · (~u − ~v) = |~u|2 − 2~u · ~v + |~v|2, enta˜o a igualdade segue-se. Exemplo 3.1. Sejam |~u| = 2, |~v| = 3 e 120o o aˆngulo entre ~u e ~v. Calcular i) ~u · ~v ii) |~u+ ~v| iii) |~u− ~v|. 34 Sol. i) ~u · ~v = |~u||~v| cos 120o = (2)(3) −1 2 = −3 (3.7) ii) |~u+ ~v| = √ |~u|2 + |~v|2 + 2~u · ~v = √ 22 + 32 + 2(−3) = √ 7 (3.8) ii) |~u− ~v| = √ |~u|2 + |~v|2 − 2~u · ~v = √ 22 + 32 − 2(−3) = √ 19. (3.9) 3.3.2 Aˆngulo entre dois Vetores Seja θ o aˆngulo entre ~u e ~v, enta˜o: cos θ = ~u · ~v |~u||~v| . Exemplo 3.2. Sejam ~u = (4,−2), ~v = (3, 1) cos θ = (4,−2) · (3, 1) |(4,−2)||(3, 1)| = 4.3 + (−2).1√ 42 + (−2)2√32 + 1 = 10√ 20 √ 10 = √ 2 2 Logo, θ = arccos √ 2 2 ⇒ θ = 45o. Exemplo 3.3. Um vetor ~v do espac¸o forma com os vetores ~i e ~j aˆngulos de 60o e 120o, respectivamente. Determinar o vetor ~v, sabendo que |~v| = 2. Soluc¸a˜o Das hipoˆteses temos para v = (x, y, z) que: cos 60o = ~v ·~i |~v||~i| = ~v ·~i (2)(1) ⇒ x = ~v ·~i = 2 cos 60o = 1 e cos 120o = ~v ·~j |~v||~j| = ~v ·~j (2)(1) ⇒ y = ~v ·~j = 2 cos 120o = −1 Por outro lado, ja que |~v| = √x2 + y2 + z2 = 2, tem-se z = ±√2. Portanto, ~v = (1,−1,√2) ou ~v = (1,−1,−√2). Observac¸a˜o 3.5. Note que dois vetores ~u e ~v diferentes de zero, sa˜o ortogonais (~u⊥~v), se e somente se ~u · ~v = 0. 35 Exemplo. Os vetores ~u = (10, √ 2) e ~v = (−1 5 , √ 2) formam um aˆngulo de 90o, pois ~u · ~v = 10(−1 5 ) + √ 2( √ 2) = 0 Observac¸a˜o 3.6. Sejam dois vetores ~u e ~v quaisquer, 1. |~u · ~v| ≤ |~u||~v| (Desigualdade de Schwartz) 2. |~u+ ~v| ≤ |~u|+ |~v| (Desigualdade Triangular). 3.3.3 Projec¸a˜o de um Vetor sobre Outro Sejam os vetores ~u e ~v na˜o nulos e θ o aˆngulo entre eles. O objetivo sera´ decompor um dos vetores, digamos ~u, da forma ~u = ~u1 + ~u2 sendo ~u1‖~v e ~u2 ⊥ ~v. O vetor ~u1 e´ chamado projec¸a˜o ortogonal de ~u sobre ~v, e denotado por: ~u1 = Proj~v ~u. Com efeito, ja que: ~u1‖~v ⇒ ~u1 = α~v e dado que ~u2 = ~u− ~u1 = ~u− α~v enta˜o ~u2 ⊥ ~v ⇒ (~u− α~v) ⊥ ~v ⇒ (~u− α~v) · ~v = 0 ⇒ α = ~u · ~v|~v|2 Portanto, Proj~v ~u = ~u1 = ( ~u · ~v |~v|2 ) ~v. Chamamos de componente de u sobre v ao vetor Comp ~v ~u = ~u2 = ~u− α~v = ~u− Proj ~v ~u. 3.4 Produto Vetorial Chama-se produto vetorial de dois vetores ~u = (x1, y1, z1) e ~v = (x2, y2, z2) de R3, tomados nessa ordem, e reprentados por ~u× ~v, ao vetor: ~u× ~v = ∣∣∣∣∣∣y1 z1y2 z2 ∣∣∣∣∣∣ ~i− ∣∣∣∣∣∣x1 z1x2 z2 ∣∣∣∣∣∣ ~j + ∣∣∣∣∣∣x1 y1x2 y2 ∣∣∣∣∣∣ ~k. 36 Pela facilidade para memorizar denotaremos a definic¸a˜o anterior da forma: ~u× ~v = ∣∣∣∣∣∣∣∣∣ ~i ~j ~k x1 y1 z1 x2 y2 z2 ∣∣∣∣∣∣∣∣∣ . Exemplo 3.4. Calcular ~u× ~v para ~u = (5, 4, 3) e ~v = (1, 0, 1). Soluc¸a˜o ~u× ~v = ∣∣∣∣∣∣∣∣∣ ~i ~j ~k 5 4 3 1 0 1 ∣∣∣∣∣∣∣∣∣ = ∣∣∣∣∣∣4 30 1 ∣∣∣∣∣∣ ~i− ∣∣∣∣∣∣5 31 1 ∣∣∣∣∣∣ ~j + ∣∣∣∣∣∣5 41 0 ∣∣∣∣∣∣ ~k = 4~i− 2~j − 4~k. Observac¸a˜o 3.7. Uma forma pra´tica para o ca´lculo de ~u× ~v e´ dispondo os dois vetores em linha, e repetindo pelaordem, as duas primeras colunas, As treˆs componentes de ~u× ~v sa˜o dadas pelos treˆs determinantes, conforme a seguir. 37 O sentido do vetor ~u×~v podera´ ser determinado pela regra da ma˜o direita, isto e´, se os dedos da ma˜o direita forem dobrados na mesma direc¸a˜o de rotac¸a˜o, enta˜o o polegar estendido indicara´ o sentido de ~u× ~v. 3.4.1 Propriedades As demonstrac¸o˜es das seguintes propriedades sa˜o uma consequeˆncia direta da definic¸a˜o de produto vetorial e das propriedades de determinante. 1. ~v × ~u = −~u× ~v. 2. ~u× ~v = ~0, se e somente se, ~u ‖ ~v. 3. O vetor ~u× ~v e´ simultaneamente perpendicular a ~u e ~v, isto e´ (~u× ~v) · ~u = ~0 e (~u× ~v) · ~v = ~0. 38 4. ~u× (~v + ~w) = ~u× ~v + ~u× ~w e (~u+ ~v)× ~w = ~u× ~w + ~v × ~w. 5. α (~u× ~v) = (α ~u)× ~v = ~u× (α ~v). 6. ~u · (~v × ~w) = (~u× ~v) · ~w. 7. |~u× ~v|2 = |~u|2 |~v|2 − (~u · ~v)2, (chamada identidade de Lagrange). Observac¸a˜o 3.8. Como uma consequeˆncia da identidade de Lagrange e tendo em conta que ~u · ~v = |~u| |~v| cos θ, temos que: |~u× ~v| = |~u| |~v| sen θ 3.4.2 Interpretac¸a˜o Geome´trica • A a´rea de um paralelogramo determinado pelos vetores ~u e ~v , onde a medida da base e´ ~u e a altura e´ |~v| sen θ, e´ A = (base)x(altura) = |~u| |~v| sen θ = ‖u× v‖ • O volume do paralelep´ıpedo de arestas determinadas pelos vetores na˜o coplanares ~u, ~v e ~w (os treˆs vetores na˜o se encontram num mesmo plano) e´: V = |~u · (~v × ~w)| = |det[u v w]|. 39 3.5 Retas e Planos Definic¸a˜o 3.4. Em R2 ou R3, a equac¸a˜o vetorial de uma Reta L, com direc¸a˜o ~v 6= 0 que passa pelo ponto P0 cujo vetor posic¸a˜o e´ ~P0 = −→ OP 0, e´: ~P = ~P0 + t ~v O ponto P com vetor posic¸a˜o ~P = −→ OP esta´ sobre a reta L, ∀ t ∈ R. Definic¸a˜o 3.5. A equac¸a˜o normal de um Plano P com vetor normal ~n 6= 0 que conte´m o ponto P0 = (x0, y0, z0) e´: ~n.(~P − ~P0) = 0. O ponto P com vetor posic¸a˜o ~P = −→ OP esta´ sobre o plano P, ∀ t ∈ R. 3.6 Exerc´ıcios 1. Sejam A = (1, 2), B = (0, 1), C = (−1,−1) e D = (2, 3) pontos de R2. Calcule e grafique os vetores posic¸a˜o (na posic¸a˜o padra˜o) de modo que sejam o resultado de: a) −→ AB + −−→ BC b) −−→ CD + 2 −→ AB c) −→ AB −−−→CD d) −−→CD −−→AB e) −1 2 −−→ DC 2. Sejam A = (1, 0, 2), B = (0, 1, 1), C = (1, 1, 2) e D = (2, 1, 0) pontos de R3. Calcule e grafique os vetores posic¸a˜o de modo que sejam o resultado de: a) −→ AB b) −−→ CD + −→ AB c) −→ AB ×−−→CD d) (−−→CD −−→AB)×−−→CD 3. Encontre um vetor na˜o-nulo ~u com ponto inicial P = (−1, 3,−1) tal que a) ~u tenha a mesma direc¸a˜o e sentido que ~v = (2, 1,−1). b) ~u tenha a mesma direc¸a˜o mas sentido oposto que ~v = (1,−1, 1). 4. Um excursionista anda 4 na direc¸a˜o norte e depois 5 na direc¸a˜o nordeste. Desenhe os vetores deslocamento que representam o passeio do excursionista e o vetor que representa o deslocamento a partir do ponto inicial. 5. Sejam ~u = (1, √ 3), ~v = (0, 1) e ~w = (1, 1) vetores de R2. (i) Calcular a) |2~u| b) 1/|~w| c) |~u+ ~v| d) (~u− ~v) · ~v e) ~u · ~v ~w. 40 (ii) Calcular a) Pr~v~u b) Pr~w~v c) Pr~v ~w d) ](~u,~v) e) ](~v, ~w). (iii) Calcule a a´rea do paralelogramo determinado por: a) ~u e ~v b) ~v e ~w. 6. Ache as componentes dos vetores u, v, u+ v e u− v onde u e v aparecem na figura 7. Encontre todos os poss´ıveis valores de k para os quais os vetores sa˜o ortogonais i) ~u = (2, 3), ~v = (k + 1, k − 1) ii) ~u = (1,−1, 2), ~v = (k2, k,−3). 8. Sejam ~u = (2, 1,−1), ~v = (0, 1, 2) e ~w = (−1, 1, 3) vetores de R3. (i) Calcular a) ~u× ~v b) ~w/|~w| c) |~u.(~v × ~w)| d) −2~v × ~w e) |~u× ~v × ~w|. (ii) Calcular a) Pr~v~u b) Pr~u~v c) Pr~u ~w d) ](~u,~v) e) ](~v, ~w). 9. Calcule o valor de m para que a a´rea do paralelogramo determinado pelos vetores ~u = (m,−3, 1) e ~v = (1,−2, 2) seja igual a √26. 10. Calcule a a´rea do triaˆngulo ABC e a altura relativa ao lado BC, sendo dados A = (−4, 1, 1), B = (1, 0, 1), C = (0,−1, 3). 11. Sejam os pontos A = (1, 1,−1), B = (−3, 2,−2), C = (2, 2,−4). Prove que o triaˆngulo ABC e´ retaˆngulo. 12. Encontre o vetor ortogonal ao plano determinado pelos pontos A = (3, 0, 0), B = (0, 3, 0), C = (0, 0, 2). Calcule a a´rea do triaˆngulo ABC. 41 13. Prove que ‖u − v‖ ≥ ‖u‖ − ‖v‖ para todo vetor u e v em Rn (Dica: Substitua u por u− v na desigualdade triangular). 14. Suponha conhecido que u.v = u.w. Pode-se concluir que u = w?. Em caso afirmativo deˆ uma prova va´lida em Rn, caso contra´rio deˆ um contra-exemplo espec´ıfico de vetores u, v, w para os quais a igualdade e´ falsa. 15. Prove que: (a) (u+ v) · (u− v) = ‖u‖2 − ‖v‖2 (b) ‖u+ v‖2 + ‖u− v‖2 = 2‖u‖2 + 2‖v‖2 (c) u · v = 1 4 ‖u+ v‖2 − 1 4 ‖u− v‖2 (d) ‖u+ v‖ = ‖u− v‖ se, e somente se u ⊥ v (e) proju(v − proju(v)) = ~0. 16. Um paralelep´ıpedo e´ determinado pelos vetores ~u = (3,−1, 4), ~v = (2, 0, 1) e ~w = (−2, 1, 5). Calcule seu volume, e a altura relativa a` base definida pelos vetores ~u e ~v. 17. Encontre as equac¸o˜es vetoriais para as retas que passam por: (a) P0 = (4,−3, 5) e e´ paralela a ~v = (0,−1, 3). (b) P = (5,−7, 2) e Q = (0, 0, 4) (c) P = (2,−5, 7) e e´ perpendicular ao plano 3x− 2y + 5z = 7. 18. Encontre uma equac¸a˜o para o plano que passa por: (a) P0 = (3,−7, 5) e e´ paralelo ao plano de equac¸a˜o 3x− y + 2z = 5. (b) P = (3, 1, 2), Q = (5,−1, 3) e (−4, 2, 0). (c) P = (2,−3, 0) e e´ perpendicular a` reta (x, y, z) = (2,−5, 3) + t(6,−6, 5). 19. Determine a distaˆncia do ponto Q = (1, 0, 2) a` reta r que passa por P0 = (3, 1, 1) e e´ paralela a ~v = (−1, 1, 0) 42 Cap´ıtulo 4 Espac¸o Vetorial Nos cap´ıtulos anteriores vimos que a a´lgebra de matrizes e vetores sa˜o similares em muitos aspectos. Em particular podemos fazer a adic¸a˜o de matrizes e vetores, e podemos multiplicar ambos por um escalar. As propriedades resultantes de essas duas operac¸o˜es sa˜o ideˆnticas para as matrizes e vetores. O que se pretende agora e´ usar essas propriedades para definir “vetores”de forma geral. Um espac¸o vetorial e´ um conjunto V de elementos chamados vetores, onde esta˜o definidas duas operac¸o˜es: 1. Axioma da Adic¸a˜o: Para todo u, v ∈ V , a soma u⊕ v ∈ V . 2. Axioma do Produto por um escalar α: Seja α ∈ R (ou α ∈ C) e v ∈ V , enta˜o α� v ∈ V . Ale´m disso, para todo u, v, w ∈ V e α, β ∈ R (ou C), os seguintes axiomas sa˜o satisfeitos: Em relac¸a˜o a` adic¸a˜o: Ax.3. (u⊕ v)⊕ w = u⊕ (v ⊕ w) Ax.4. u⊕ v = v ⊕ u Ax.5. ∃ 0 ∈ V, u⊕ 0 = u Ax.6. ∃ (−u) ∈ V, u⊕ (−u) = 0 Em relac¸a˜o ao produto por um escalar: Ax.7. (αβ)� u = α� (β � u) Ax.8. (α + β)� u = (α� u)⊕ (β � u) Ax.9. α� (u⊕ v) = (α� u)⊕ (α� v) Ax.10. 1� u = u Observac¸a˜o 4.1. Quando os escalares considerados sa˜o nu´meros reais, diremos que V e´ um 43 espac¸o vetorial real. No caso dos escalares serem complexos, V sera´ chamado espac¸o vetorial complexo. Em diante, nos trabalharemos so´ com espac¸os vetoriais reais. Exemplo 4.1. V = Rn = {(x1, x2, . . . , xn)/xi ∈ R} e´ um espac¸o vetorial real com as operac¸o˜es (x1, x2, . . . , xn)⊕ (y1, y2, . . . , yn) = (x1 + y1, x2 + y2, . . . , xn + yn) (4.1) α� (x1, x2, . . . , xn) = (αx1, αx2, . . . , αxn) (4.2) Soluc¸a˜o A prova e´ simplesmente a generalizac¸a˜o das propriedades vistas para vetores no plano e no espac¸o. Assim, pelas proprias definic¸o˜es de adic¸a˜o de vetores (4.1) e multiplicac¸a˜o de um vetor por um escalar real (4.2), e´ simples verificar todos os axiomas de espac¸o vetorial. Exemplo 4.2. O conjunto V = Mm×n(R) de todas as matrizes reais de ordem m × n e´ um espac¸o vetorial real com as operac¸o˜es de adic¸a˜o de matrizes e multiplicac¸a˜o por um escalar. Assim, para A = [aij]m×n, B = [bij]m×n e α ∈ R, definimos: A⊕B = [cij]m×n onde cij = aij + bij (4.3) α� A = [dij]m×n onde dij =α aij (4.4) Exemplo 4.3. O conjunto V = Pn(R), de todos os polinoˆmios a0 + a1t + · · · + antn com coeficientes ai ∈ R e´ um espac¸o vetorial real com as operac¸o˜es usuais de adic¸a˜o de polinoˆmios e multiplicac¸a˜o por um escalar. De fato, para p(t) = a0 + a1t+ · · ·+ antn ∈ Pn(R) e q(t) = b0 + b1t+ · · ·+ bntn ∈ Pn(R), basta definir (p⊕ q)(t) = p(t) + q(t) = (a0 + b0) + (a1 + b1)t+ · · ·+ (an + bn)tn (α� p)(t) = α p(t) = α a0 + (α a1)t+ · · ·+ (α an)tn. Exemplo 4.4. O conjunto V de todas as func¸o˜es reais definidas sobre o intervalo [a, b], e´ um espac¸o vetorial. Para isso, basta definirmos para f = f(x) e g = g(x) ∈ V , as operac¸o˜es usuais: (f ⊕ g)(x) = f(x) + g(x) (α� f)(x) = α f(x) 44 Exemplo 4.5. Nenhum dos conjuntos N, Z, Q e´ espac¸o vetorial real, pois em todos eles o produto de um de seus elementos por um escalar, e´ um nu´mero real, o que contraria o Axioma 2 de espac¸o vetorial. 4.1 Subespac¸os Vetoriais Seja W , (W 6= ∅) um subconjunto do espac¸o vetorial V . Dizemos que W e´ um subespac¸o vetorial em relac¸a˜o a`s operac¸o˜es de V , se: i) u, v ∈ W ⇒ u⊕ v ∈ W ii) α ∈ R e u ∈ W ⇒ α� u ∈ W. Exemplo 4.6. Seja V = M2×2(R) e W = {A ∈M2×2(R)/todos os elementos da diagonal de A sa˜o zeros}. Prove que W e´ um subespac¸o vetorial de V , com as operac¸o˜es usuais de matrizes. Soluc¸a˜o: Sejam A = 0 a12 a21 0 e B = 0 b12 b21 0 matrizes quaisquer de W , enta˜o A+B = 0 a12 + b12 a21 + b21 0 ∈ W. Se α ∈ R e A ∈ W , enta˜o αA = α.0 α.a12 α.a21 α.0 = 0 α.a12 α.a21 0 ∈ W Exemplo 4.7. Considere o subconjunto W = {(x, 1) ∈ R2/x ∈ R} com as operac¸o˜es usuais de R2. Prove que W na˜o e´ um subespac¸o vetorial. Soluc¸a˜o:Basta notar que a soma de dois elementos de W na˜o pertence a W . Os elementos (3, 1) ∈ W e (5, 1) ∈ W , mas a soma (3, 1) + (5, 1) = (8, 2) /∈ W 45 4.1.1 Propriedades dos Subespac¸os Soma. Sejam W1 e W2 subspac¸os de um espac¸o vetorial V . Enta˜o, o conjunto W1 +W2 = {v ∈ V / v = w1 + w2, w1 ∈ W1 e w2 ∈ W2} (4.5) e´ um subespac¸o de V . Exemplo 4.8. Sejam W1 e W2 duas retas de R3 que passam pela origem, enta˜o W1 +W2 e´ o plano em R3 que conte´m as duas retas. Intersec¸a˜o. Sejam W1 e W2 subspac¸os de um espac¸o vetorial V . A intersec¸a˜o W1 ∩W2 e´ um subespac¸o de V . Exemplo 4.9. Sejam W1 e W2 dois planos de R3 que passam pela origem, de modo que W1 ∩W2 e´ uma reta em R3 que conte´m o (0, 0, 0). A intersec¸a˜o W1 ∩W2 e´ um subespac¸o de R3. Quando W1 ∩W2 = {0}, enta˜o W1 +W2 e´ chamada soma direta de W1 com W2, e sera´ denotada por W1 ⊕W2. 46 4.2 Combinac¸a˜o Linear Dizemos que um vetor w e´ uma combinac¸a˜o linear dos vetores v1, v2, . . . , vn do espac¸o vetorial real V , (V,+, .), se existem α1, α2, . . . , αn ∈ R tal que w = α1 · v1 + α2 · v2 + . . .+ αn · vn. Exemplo 4.10. Considere os vetores ~u = (1, 2,−1), ~v = (6, 4, 2) ∈ R3. Mostre que ~w = (9, 2, 7) e´ uma combinac¸a˜o linear de ~u e ~v Soluc¸a˜o: Suponhamos que existem α, β ∈ R de modo que (9, 2, 7) = α(1, 2,−1) + β(6, 4, 2). Enta˜o, α + 6β = 9 2α + 4β = 2 −α + 2β = 7 implica que α = −3, β = 2 Portanto, (9, 2, 7) = −3(1, 2,−1) + 2(6, 4, 2), consequentemente ~w e´ uma combinac¸a˜o linear de ~u e ~v. Exemplo 4.11. Considere os polinoˆmios p(x) = 1, q(x) = 1 + x e r(x) = 1 + x + x2. Mostre que qualquer polinoˆmio de ordem 2 pode-se escrever como uma combinac¸a˜o linear de p(x), q(x) e r(x). Soluc¸a˜o: Suponhamos que existem α, β, γ ∈ R de modo que a0 + b0x+ c0x 2 = α(1) + β(1 + x) + γ(1 + x+ x2). 47 Enta˜o, α + β + γ = a0 β + γ = b0 γ = c0 , logo γ = c0, β = b0 − c0, α = a0 − b0 − c0. Portanto, a0 + b0x+ c0x 2 = (a0 − b0 − c0) p(x) + (b0 − c0) q(x) + c0 r(x). 4.3 Espac¸o Gerado O subconjunto S de todos os vetores do espac¸o vetorial real V (V,+, .), que sa˜o com- binac¸o˜es lineares dos vetores v1, v2, . . . , vn, e´ chamado de subespac¸o vetorial gerado por v1, v2, . . . , vn e sera´ denotado por S = ger{v1, v2, . . . , vn} = [v1, v2, . . . , vn] Para verificar que S e´ subespac¸o vetorial de V , basta notar que para qualquer u, v ∈ S e α ∈ R verifica-se que u+ v = (α1 · v1 + α2 · v2 + · · ·+ αn · vn) + (β1 · v1 + β2 · v2 + · · ·+ βn · vn) = (α1 + β1) · v1 + (α2 + β2) · v2 + · · ·+ (αn + βn) · vn ∈ S α · u = α · (α1 · v1 + α2 · v2 + · · ·+ αn · vn) = (αα1) · v1 + (αα2) · v2 + · · ·+ (ααn) · vn ∈ S. Exemplo 4.12. Calcule o conjunto de geradores do subespac¸o vetorial S de M2×2(R), quando S = { a b c d ∈M2×2(R) / a = −d e c = 2b}. (4.6) Soluc¸a˜o Usando a definic¸a˜o de S temos S = { −d b 2b d / b e d ∈ R}. (4.7) Logo, S = { d −1 0 0 1 + b 0 1 2 0 / b e d ∈ R} = ger{ −1 0 0 1 , 0 1 2 0 }. 48 Exemplo 4.13. Mostre que o conjunto de polinoˆmios {t2 + t, t, 1} gera o espac¸o vetorial, P2(R), dos polinoˆmios de grau ≤ 2. Soluc¸a˜o Consideremos p(t) = a2t 2 + a1t+ a0 ∈ P2(R). Suponhamos α, β, γ ∈ R tais que: p(t) = α(t2 + t) + βt+ γ1 ⇒ a2t2 + a1t+ a0 = αt2 + (α + β)t+ γ. Comparando o primeiro e u´ltimo polinoˆmio obtemos α = a2, α + β = a1 e γ = a0, logo α = a2, β = a1 − a2, γ = a0. 4.4 Independeˆncia e Dependeˆncia Linear Seja V um espac¸o vetorial real, (V,+, ·), e v1, v2, . . . , vn ∈ V . Dizemos que o conjunto {v1, v2, . . . , vn} e´ linearmente independente (L.I.), se: α1 · v1 + α2 · v2 + . . .+ αn · vn = 0 =⇒ α1 = α2 = . . . = αn = 0. (4.8) No caso em que exista algum αi 6= 0, diremos que o conjunto {v1, v2, . . . , vn} e´ linearmente dependentes (L.D.). Teorema 4.1. {v1, . . . , vn} e´ linearmente dependente, se e somente se, um destes vetores for combinac¸a˜o linear dos outros. Prova: {v1, . . . , vn} e´ L.D ⇐⇒ ∃ αi 6= 0 / α1v1 + α2v2 + . . .+ αivi + . . .+ αnvn = 0 ⇐⇒ αivi = −α1v1 − . . .− αi−1vi−1 − αi+1vi+1 − . . .− αnvn ⇐⇒ vi = −α1 αi v1 − . . .− αi−1 αi vi−1 − αi+1 αi vi+1 − . . .− αn αi vn ⇐⇒ vi ∈ ger{v1, v2, . . . , vi−1, vi+1 . . . , vn} (4.9) Exemplo 4.14. Os vetores canoˆnicos (1, 0, 0), (0, 1, 0), (0, 0, 1) sa˜o L.I.? Soluc¸a˜o Suponhamos que α1(1, 0, 0) + α2(0, 1, 0) + α3(0, 0, 1) = (0, 0, 0). Somando temos que (α1, α2, α3) = (0, 0, 0). Logo, α1 = α2 = α3 = 0, consequentemente os vetores canoˆnicos sa˜o linearmente independentes. 49 Exemplo 4.15. As matrizes A = 1 −2 4 3 0 −1 e B = 2 −4 8 6 0 −2 sa˜o L.D. Soluc¸a˜o De fato, α1A+ α2B = 0 0 0 0 0 0 ⇔ α1 = −2α2. Corola´rio 4.1. Qualquer conjunto de vetores contendo o vetor nulo e´ L.D. Exemplo 4.16. Os vetores ~u = (1,−2, 3), ~v = (2,−4, 6) e ~w = (1, 1, 1) sa˜o L.D. pois 2~u− ~v + 0~w = ~0. Corola´rio 4.2. Todo subconjunto de um conjunto de vetores L.I. e´ L.I. Exemplo 4.17. E´ sabido que o conjunto S = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e´ L.I, logo qualquer subconjunto de S tambe´m e´ L.I. Observac¸a˜o 4.2. Se ~u1 = (x11, . . . , x1n), ~u2 = (x21, . . . , x2n), . . . , ~un = (xn1, . . . , xnn) sa˜o n-vetores L.I. em Rn, α1~u1 + α2~u2 + · · ·+ αn~un = ~0 =⇒ α1 = α2 = · · · = αn = 0. Da afirmac¸a˜o anterior deduzimos que x11 x21 . . . xn1 ... . . . . . . ... x1n x2n . . . xnn α1 ... αn = 0 ... 0 =⇒ α1 = α2 = · · · = αn = 0. sempre que det x11 x21 . . . xn1 ... . . . . . . ... x1n x2n . . . xnn 6= 0 Exemplo 4.18. Os vetores ~u1 = (1,−2, 7, √ 2), ~u2 = (0, 4,−6, 1), ~u3 = (0, 0, 1, pi), ~u4 = (0, 0, 0, sen 1) sa˜o L.I. em R4 50 Soluc¸a˜o Segundo a observac¸a˜o anterior eles sa˜o L.I. pois o determinante da matriz (u1, u2, u3, u4) e´ diferente de zero. De fato, det 1 0 0 0 −2 4 0 0 7 −6 1 0 √ 2 1 pi sen 1 = 4 sen 1 Exemplo 4.19. Sejar > n. Qualquer conjunto com r vetores no espac¸o vetorial Rn e´ line- armente dependente pois todo sistema homogeˆneo de equac¸o˜es lineares com mais inco´gnitas do que equac¸o˜es admite uma soluc¸a˜o na˜o trivial (diferente de zero). Observac¸a˜o 4.3. Geometricamente, a dependeˆncia de dois vetores no plano R2 acontece se e somente se eles se encontram sobre a mesma reta passando pela origem. No espac¸o R3, treˆs vetores sa˜o L. D. se eles esta˜o contidos no mesmo plano passando pela origem. A`s vezes e´ poss´ıvel deduzir a dependeˆncia linear de func¸o˜es apartir de identidades conhe- cidas, por exemplo ao provar que: {sen2x, cos2 x, 5} e´ um conjunto L.D no espac¸o vetorial das func¸o˜es reais de varia´vel real, F(R,R), basta notar que α sen2x+ β cos2 x+ γ 5 = 0 ⇐⇒ α = β = 5, γ = −1. De modo geral, na˜o existe um me´todo para provar a dependeˆncia ou independeˆncia linear de conjuntos em F(R,R), pois existem casos onde estas ideˆntidades na˜o podem ser aplicadas. Um teorema u´til para determinar se um conjunto particular de func¸o˜es e´ L.I e´ enunciado a seguir. Teorema 4.2. Sejam as funco˜es reais f1, f2, . . . , fn ∈ Cn−1([a, b]) (cont´ınuas e com deri- vadas cont´ınuas ate´ a ordem n − 1 em todo [a, b]). Se existe um ponto x0 ∈ [a, b] tal que o wronskiano W [f1, f2, . . . , fn](x0), W [f1, f2, . . . , fn](x0) = det f1(x0) f2(x0) . . . fn(x0) f ′1(x0) f ′ 2(x0) . . . f ′ n(x0) ... ... · · · ... fn−11 (x0) f n−1 2 (x0) . . . f n−1 n (x0) 6= 0, (4.10) enta˜o f1, f2, . . . , fn sa˜o L.I. em C n−1([a, b]). Mais ainda, sa˜o L.I em C([a, b]). 51 Exemplo 4.20. As func¸o˜es ex, e−x sa˜o L.I. em C(R)?. Soluc¸a˜o Segundo o teorema anterior eles sa˜o L.I. em C2(R), pois o Wronskiano W [ex, e−x](x0) = det ex0 e−x0 ex0 −e−x0 = −2 6= 0, ∀x0 ∈ R. (4.11) Por outro lado, ja que C2(R) ⊆ C(R) o resultado segue-se. Exemplo 4.21. As func¸o˜es 1, x, x2, x3 sa˜o L.I. em C(R)?. Soluc¸a˜o Segundo o teorema anterior eles sa˜o L.I. em C3(R), pois o Wronskiano W [1, x, x2, x3](x0) = det 1 x0 x 2 0 x 3 0 0 1 2x0 3x 2 0 0 0 2 6x0 0 0 0 6 = 12 6= 0, ∀x0 ∈ R. (4.12) Por outro lado, ja que C3(R) ⊆ C(R) o resultado segue-se. Exemplo 4.22. As func¸o˜es x2 e x|x| sa˜o L.I. em C([−1, 1])?. Soluc¸a˜o Ja que x2, x|x| ∈ C1([−1, 1]), calculando o Wronskiano temos W [x2, x|x|](x0) = det x20 x0|x0| 2x0 2|x0| ≡ 0, (4.13) o que na˜o nos da´ a informac¸a˜o sobre se as func¸o˜es sa˜o L.I ou na˜o. Logo, para responder a pergunta, suponha que: αx2 + βx|x| = 0, x ∈ [−1, 1]. Em particular, para x = 1 e para x = −1, temos o sistema α + β = 0 α− β = 0, para o qual a u´nica soluc¸a˜o e´ α = β = 0. Portanto, as func¸o˜es x2, x|x| sa˜o L.I em C([−1, 1]). 52 4.5 Base e Dimensa˜o Os vetores v1, v2, . . . , vn formam uma base do espac¸o vetorial V se, e somente se, 1. v1, v2, . . . , vn e´ um conjunto linearmente independente. 2. V = ger{v1, v2, . . . , vn}. (i.e: ∀ v ∈ V, ∃ α1, α2, . . . , αn ∈ R / v = α1v1 + . . .+ αnvn). Exemplo 4.23. O conjunto B = {(1, 1), (0, 1)} e´ uma base de R2. Soluc¸a˜o: De fato, B e´ L.I pois α(1, 1) + β(0, 1) = (0, 0)⇒ (α, α + β) = (0, 0)⇒ α = 0 e β = 0. Por outro lado, para (x, y) ∈ R2 suponhamos que ∃ α1, α2 ∈ R tal que (x, y) = α1(1, 1) + α2(0, 1) = (α1, α1 + α2)⇒ α1 = x ∈ R e α2 = y − x ∈ R Logo, (x, y) = x(1, 1) + (y − x)(0, 1), isto e´, (x, y) ∈ ger{(1, 1), (0, 1)}. Portanto, R2 ⊆ ger{(1, 1), (0, 1)} e ja que R2 e´ um espac¸o vetorial a igualdade entre estes dois conjuntos segue-se. Exemplo 4.24. O conjunto B = {1 0 0 0 , 0 1 0 0 , 0 0 1 0 , 0 0 0 1 } e´ uma base de M2×2(R) Exemplo 4.25. Os conjuntos {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e {(1, 2, 1), (1, 0,−1), (1,−2, 1)} constituem bases distintas para R3. Podemos encontrar mais de uma base para um espac¸o vetorial; dado, entretanto, o nu´mero de vetores de cada base na˜o varia. Definic¸a˜o 4.1. Se uma base de um espac¸o vetorial real V tem n-vetores, dizemos que V tem dimensa˜o finita n. Denotaremos dim V = n. Conveniremos que o espac¸o vetorial V = {0} tem dimensa˜o zero. 53 Exemplo 4.26. Pelo visto nos exemplos anteriores, temos que: 1. dim R 2 = 2. 2. dim Rn = n. 3. dim Pn(R) = n+ 1. 4. dim Mm×n(R) = mn. Teorema 4.3. Se U e W sa˜o subespac¸os de um espac¸o vetorial V que tem dimensa˜o finita, enta˜o: dim (U +W ) = dimU + dimW − dim (U ∩W ), (4.14) sendo que dimU ≤ dimV e dimW ≤ dimV . Exemplo 4.27. Considere U um plano que passa pela origem em V = R3, e W uma reta contida em U que passa pela origem, enta˜o: dim (U +W ) = 2 + 1− 1 = 2. Teorema 4.4. Seja V um espac¸o vetorial real de dimensa˜o finita n. Qualquer conjunto de vetores L.I. em V e´ parte de uma base, isto e´, pode ser completado ate´ formar uma base de V . Exemplo 4.28. Sejam os vetores v1 = (1,−1, 1, 2) e v2 = (−1, 1,−1, 0) completar o conjunto {v1, v2} de modo a formar uma base de R4. Soluc¸a˜o: Como dim R4 = 4 uma base tera´ 4 vetores L.I. Portanto, faltam dois. Escolhemos um vetor v3 que na˜o e´ combinac¸a˜o linear de v1 = (1,−1, 1, 2) e v2 = (−1, 1,−1, 0), isto e´, v3 6= a1v1 + a2v2 para todo a1, a2 ∈ R. Dentre os infinitos vetores existentes, um deles e´ o vetor v3 = (1, 1, 0, 0), e o conjunto {v1, v2, v3} e´ L.I. Para completar, escolhemos um vetor v4 que na˜o seja uma combinac¸a˜o linear de v1, v2 e v3. Um deles e´ o vetor v4 = (1, 0, 0, 0), e o conjunto {v1, v2, v3, v4} e´ L.I. Logo, v1 = (1,−1, 1, 2) v2 = (−1, 1,−1, 0), v3 = (1, 1, 0, 0), v4 = (1, 0, 0, 0). 54 Observac¸a˜o 4.4. Muitas vezes sera´ necessa´rio saber calcular a dimensa˜o de um subespac¸o vetorial de forma ra´pida, pois uma vez que esta e´ conhecida, obte´m-se facilmente uma base desse subespac¸o. Uma forma pra´tica para determinar a dimensa˜o de um subespac¸o vetorial e´ verificar o nu´mero de varia´veis livres de seu vetor gene´rico. Este nu´mero e´ a dimensa˜o do subespac¸o. Exemplo 4.29. Determinar a dimensa˜o e a base do subespac¸o vetorial S = {(x, y, z) ∈ R3/2x+ y + z = 0} Soluc¸a˜o: Isolando z temos que: z = −2x− y, onde x, y sa˜o varia´veis livres. Isto e´, S = {(x, y, z) ∈ R3/2x+ y + z = 0} = {(x, y, z) ∈ R3/z = −2x− y} = {(x, y,−2x− y)/x ∈ R, y ∈ R} = {(x, 0,−2x) + (0, y,−y)/x ∈ R, y ∈ R} = {x (1, 0,−2) + y (0, 1,−1)/x ∈ R, y ∈ R}, isto e´, todo vetor de S e´ combinac¸a˜o linear dos vetores {(1, 0,−2), (0, 1,−1)}. Como esses dois vetores geradores de S sa˜o L.I, o conjunto e´ uma base de S e, consequentemente, dim S = 2. Exemplo 4.30. Obtenha uma base do subespac¸o vetorial U = ger{(1, 1, 0,−2), (2, 0,−1,−1), (0, 1,−2, 1), (1, 1, 1,−3)} ⊆ R4. Determine a dimensa˜o de U . Soluc¸a˜o: Bastara´ saber quais vetores em U sa˜o L.I. Suponhamos que, α(1, 1, 0,−2) + β(2, 0,−1,−1) + γ(0, 1,−2, 1) + δ(1, 1, 1,−3) = (0, 0, 0, 0) ou 1 2 0 1 1 0 1 1 0 −1 −2 1 −2 −1 1 −3 α β γ δ = 0 0 0 0 . 55 Para achar a soluc¸a˜o deste sistema homogeˆneo Ax = 0 sera´ suficiente reduzir a matriz A a uma de tipo escalonado (me´todo de operac¸o˜es por linha). A = 1 2 0 1 1 0 1 1 0 −1 −2 1 −2 −1 1 −3 L1 ←→ L1 L2 ←→ L2 − L1 L3 ←→ −L3 L4 ←→ L4 + 2L1 1 2 0 1 0 −2 1 0 0 1 2 −1 0 3 1 −1 L1 ←→ L1 L2 ←→ L3 L4 ←→ L4 ≈ 1 2 0 1 0 1 2 −1 0 −2 1 0 0 3 1 −1 L1 ←→ L1 L2 ←→ L2 L3 ←→ L3 + 2L2 L4 ←→ L4 − 3L2 1 2 0 1 0 1 2 −1 0 0 5 −2 0 0 −5 2 L1 ←→ L1 L2 ←→ L2 L3 ←→ L3 L4 ←→ L4 + L3 ≈ 1 2 0 1 0 1 2 −1 0 0 5 −2 0 0 0 0 = A ′. Logo, o sistema equivalente, A′x = 0 tem infinitas soluc¸o˜es, pois detA′ = 0. Maisainda, α + 2β + δ = 0 β + 2γ − δ = 0 5γ − 2δ = 0, o que implica que, para cada γ ∈ R, δ = 5γ 2 , β = γ 2 , α = −7γ 2 . Em outras palavras, α = β = δ = 0 se e somente se γ = 0. Portanto, so´ os vetores B = {(1, 1, 0,−2), (2, 0,−1,−1), (1, 1, 1,−3)} sa˜o L.I. Como esses treˆs vetores sa˜o geradores de U , o conjunto e´ uma base de U e consequentemente, dim U = 3. 4.5.1 Componentes de um Vetor Seja B = {v1, v2, . . . , vn} uma base de V . Tomemos v ∈ V sendo v = a1 v1 + a2 v2 + . . .+ an vn, 56 os nu´meros a1, a2, . . . , an sa˜o chamados componentes do vetor v em relac¸a˜o a` base B (vetor coordenada de v em relac¸a˜o a` base B) e se representa por vB = (a1, a2, . . . , an) ou com a notac¸a˜o matricial (matriz-coordenada de v em relac¸a˜o a` base B) vB = a1 a2 ... an . Exemplo 4.31. Em R2 consideremos as bases A = {(1, 0), (0, 1)}, B = {(2, 0), (1, 3)} e C = {(1,−3), (2, 4)} Achar o vetor coordenada de v = (8, 6) em relac¸a˜o as base A, B e C. Soluc¸a˜o: Ja que: (8, 6) = 8(1, 0) + 6(0, 1) (8, 6) = 3(2, 0) + 2(1, 3) (8, 6) = 2(1,−3) + 3(2, 4), enta˜o, [v]A = (8, 6), [v]B = (3, 2), [v]C = (2, 3). 4.6 Espac¸o Vetorial Euclideano No cap´ıtulo 3, foi definido o produto escalar de dois vetores no R2 ou R3 e foram estabelicidas por meio desse produto, algumas propriedades geome´tricas daqueles vetores. Nesta sec¸a˜o, nosso objetivo sera´ generalizar este conceito de produto e definir os conceitos de comprimento, distaˆncia e aˆngulo em espac¸os vetoriais mais gene´ricos. Definic¸a˜o 4.2. Chama-se produto interno no espac¸o vetorial V , a uma func¸a˜o de V × V em R que a todo par de vetores (u, v) ∈ V ×V associa um nu´mero real, indicado por u.v ou 〈u, v〉, tal que os seguintes axiomas sejam verificados: 57 1. 〈u, v〉 = 〈v, u〉 2. 〈u, v + w〉 = 〈u, v〉+ 〈u,w〉 3. 〈αu, v〉 = α〈u, v〉, para todo α 4. 〈u, u〉 ≥ 0 e 〈u, u〉 = 0 se, e somente se, u = 0. Exemplo 4.32. Em V = R2, para u = (x1, y1) e v = (x2, y2) 〈u, v〉 = 3x1 x2 + 4y1 y2, e´ um produto interno. Exemplo 4.33. Em V = C([a, b]), para f e g 〈f, g〉 = ∫ b a f(x) g(x) dx, e´ um produto interno. Definic¸a˜o 4.3. Um espac¸o vetorial real V , de dimensa˜o finita, no qual esta´ definido um produto interno, e´ um espac¸o vetorial euclideano. Definic¸a˜o 4.4. Seja o produto interno 〈 , 〉 no espac¸o euclideano V . O comprimento ou norma do vetor u, em relac¸a˜o a esse produto interno, e´ definido por ‖u‖ = √ 〈u, u〉. Definimos a norma euclidiana (ou comprimento euclidiano) de um vetor u = (u1, u2, . . . , un) em Rn por ‖u‖ = √u · u = √ u21 + u 2 2 + · · ·+ u2n. Definic¸a˜o 4.5. Chama-se distaˆncia entre dois vetores u e v o nu´mero real represen- tado por d(u, v) e definido por d(u, v) = ‖u− v‖. Definic¸a˜o 4.6. O aˆngulo entre dois vetores u e v e´ determinado por cos θ = 〈u, v〉 ‖u‖‖v‖ . Definic¸a˜o 4.7. Dois vetores u e v de um espac¸o com produto interno sa˜o ortogonais se < u, v >= 0. 58 4.6.1 Complementos Ortogonais Definic¸a˜o 4.8. Seja W um subespac¸o de um espac¸o com produto interno V . Um vetor u ∈ V e´ dito ortogonal a W se e´ ortogonal a cada vetor de W , e o conjunto de todos os vetores que sa˜o ortogonais a W e´ chamado complemento ortogonal de W , denotaremos por W⊥. Figura 4.1: Cada vetor em W e´ ortogonal a V , V = W⊥. Teorema 4.5. Se W e´ um subespac¸o de um espac¸o com produto interno V de dimensa˜o finita, enta˜o: a) W⊥ e´ um subespac¸o de V b) O u´nico vetor comum a W e W⊥ e´ 0. c) O complemento ortogonal de W⊥ e´ W , ou seja, (W⊥)⊥ = W Teorema 4.6. (Da Projec¸a˜o) Se W e´ um subespac¸o de dimensa˜o finita de um espac¸o com produto interno V , enta˜o cada vetor u ∈ V pode-se expressar de forma u´nica por: u = w1 + w2 onde w1 = ProjWu ∈ W e w2 = u− ProjWu ∈ W⊥. 59 4.6.2 Uma Relac¸a˜o Geometrica Entre Espac¸o Nulo e Espac¸o Linha O seguinte teorema fundamental fornece uma relac¸a˜o geome´trica entre o espac¸o-nulo e o espac¸o linha de uma matriz. Teorema 4.7. Se A e´ uma matriz m× n, enta˜o a) O espac¸o nulo de A, N (A) = {v ∈ Rn×1/Av = 0}, e o espac¸o linha de A sa˜o comple- mentos ortogonais em Rn com relac¸a˜o ao produto interno euclideano. b) O espac¸o nulo de AT e o espac¸o coluna de A sa˜o complementos ortogonais em Rm com relac¸a˜o ao produto interno euclideano. Demonstrac¸a˜o: A prova do item (a) encontra-se em [1], pagina 211. (b) Sejam os vetores coluna r1, r2, . . . , rn da matriz A ∈ Mm×n. Logo, a matriz A pode-se escrever da forma A = [ r1 r2 . . . rn ] , onde ri ∈ Rm×1 Por outro lado, ja que N (AT ) = {v ∈ Rm×1/AT v = 0}, enta˜o: AT v = rT1 rT2 ... rTn v = 0 ⇐⇒ < r T i , v >= 0, ∀ i = 1, 2, . . . , n. 4.6.3 Conjuntos Ortogonais e Ortonormais Seja V um espac¸o vetorial euclidiano. Um subconjunto S = {v1, v2, . . . , vn} ⊂ V e´: 1. Ortogonal, se seus elementos sa˜o ortogonais dois a dois, isto e´: 〈vi, vj〉 = 0 ∀ i 6= j. 2. Ortonormal, se S e´ ortogonal e ‖vi‖ = 1 ∀ i, isto e´: 〈vi, vj〉 = 0 para i 6= j1 para i = j . (4.15) 60 A base gerada por um conjunto de vetores ortogonais e´ dita uma base orto- gonal e uma base gerada por um conjunto de vetores ortonormais e´ dita uma base ortonormal. Proposic¸a˜o 4.1. Um conjunto ortonormal e´ L.I. Demonstrac¸a˜o: Seja S = {v1, v2, . . . , vn} um conjunto ortonormal e α1, . . . , αn ∈ R, tal que α1v1 + α2v2 + . . .+ αnvn = 0. Por demonstrar: α1 = α2 = . . . = αn = 0. Multiplicando α1v1 + α2v2 + . . .+ αnvn = 0 por vi, temos 0 =〈0, vi〉 = 〈α1v1 + · · ·+ αnvn, vi〉 =〈α1v1, vi〉+ 〈α2v2, vi〉+ . . .+ 〈αivi, vi〉+ . . .+ 〈αnvn, vi〉 =α1〈v1, vi〉+ α2〈v2, vi〉+ . . .+ αi〈vi, vi〉+ . . .+ αn〈vn, vi〉 (4.16) Ja que S ortogonal, 0 = αi〈vi, vi〉 = αi||vi||2 ⇒ 0 = αi ∀i = 1, 2, . . . , n. Definic¸a˜o 4.9. Seja V um espac¸o vetorial euclidiano, S = {v1, v2, . . . , vn} ⊂ V ortonormal e u ∈ V . A projec¸a˜o ortogonal de u sobre o subespac¸o gerado por S e´ o vetor Proj [S]u dado por: Proj [S]u = 〈u, v1〉v1 + 〈u, v2〉v2 + . . .+ 〈u, vn〉vn. Exemplo 4.34. Projetar o vetor u = (5, 2,−3) ∈ R3 sobre o plano [S], onde [S] = ger{(1, 0, 0), (0,−1, 0)}. Soluc¸a˜o: Proj [S]u = 〈(5, 2,−3), (1, 0, 0)〉 (1, 0, 0) + 〈(5, 2,−3), (0,−1, 0)〉 (0,−1, 0) = 5(1, 0, 0)− 2(0,−1, 0) = (5, 2, 0). 61 4.6.4 Processo de Gram - Schimidt O objetivo do processo de Gram-Schimidt e´ encontrar uma base ortonormal para um espac¸o vetorial euclidiano V . Teorema 4.8. Cada espac¸o vetorial na˜o-nulo de dimensa˜o finita possui uma base ortonor- mal. Demonstrac¸a˜o: Seja V um espac¸o vetorial na˜o-nulo de dimensa˜o finita com produto interno. Suponha que {u1, u2, . . . , un} e´ uma base de V . E´ suficiente mostrar que V tem uma base ortogonal, pois os vetores da base ortogonal podem ser normalizados para produzir uma base ortonormal de V , para isto bastara´ dividir eles entre suas respectivas normas. A seguir, mostramos como achar uma base ortogonal {v1, v2, . . . , vn} de V . 1) Seja v1 = u1. 2) Para obter um vetor v2 que e´ ortogonal a v1 tomamos o componente de u2 que e´ ortogonal ao espac¸o W1 = ger{v1}. Para isso no´s usamos a fo´rmula: v2 = u2 − ProjW1 u2 = u2 − 〈u2, v1〉 ||v1||2 v1 3) Para construir um vetor v3 que e´ ortogonal a ambos v1 e v2, calculamos o componente u3 que e´ ortogonal ao espac¸o W2 = ger{v1, v2}, isto e´, v3 = u3 − ProjW2 u3 = u3 − 〈u3, v1〉 ||v1||2 v1 − 〈u3, v2〉 ||v2||2 v2 4) Para determinar um vetor v4 que e´ ortogonal a v1, v2 e v3, calculamos o componente de u4 que e´ ortogonal ao espac¸o W3 = ger{v1, v2, v3}. v4 = u4 − ProjW3 u4 = u4 − 〈u4, v1〉 ||v1||2 v1 − 〈u4, v2〉 ||v2||2 v2 − 〈u4, v3〉 ||v3||2 v3 Continuando desta maneira, no´s iremos obter, depois de n passos, um conjunto ortogonal de vetores
Compartilhar