Baixe o app para aproveitar ainda mais
Prévia do material em texto
Álgebra Linear Victor Gonçalves Elias 5 de dezembro de 2011 SUMÁRIO 3 Sumário 1 Introdução 7 1.1 Exercícios de Revisão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2 Espaços Vetoriais 11 2.1 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.1.1 Soma de Subespaços . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.2 Combinações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.3 Espaços Vetoriais Finitamente Gerados . . . . . . . . . . . . . . . . . . . . 18 2.4 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.5 Dependência Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.5.1 Propriedades da Dependência Linear . . . . . . . . . . . . . . . . . 23 2.6 Base de um Espaço Vetorial Finitamente Gerado . . . . . . . . . . . . . . . 23 2.7 Dimensão de um Espaço Vetorial . . . . . . . . . . . . . . . . . . . . . . . 24 2.7.1 Dimensão da soma de subespaços . . . . . . . . . . . . . . . . . . . 26 2.8 Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.9 Mudança de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.10 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3 Produto Interno 33 3.1 Definição e primeiras propriedades . . . . . . . . . . . . . . . . . . . . . . . 33 3.2 Norma e Distância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.3 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.4 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.4.1 Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . 41 3.4.2 Teorema da Projeção . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.5 Produto Interno para Espaços Vetoriais Complexos . . . . . . . . . . . . . 44 3.6 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 4 Transformações Lineares 49 4.1 A Imagem e o Núcleo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.2 Isomorfismos e Automorfismos . . . . . . . . . . . . . . . . . . . . . . . . . 53 4.3 Espaço das Transformações Lineares . . . . . . . . . . . . . . . . . . . . . 54 4.4 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 4.5 Matriz de uma Transformação Linear . . . . . . . . . . . . . . . . . . . . . 59 4.6 Espaço Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 Victor Gonçalves Elias 4 SUMÁRIO 4.7 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 4.8 Isometria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 4.9 Operadores adjuntos e auto-adjuntos . . . . . . . . . . . . . . . . . . . . . 69 4.10 Mudança de base e semelhança de matrizes . . . . . . . . . . . . . . . . . . 71 4.11 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 5 Autovalores e Autovetores 77 5.1 Definição e primeiras propriedades . . . . . . . . . . . . . . . . . . . . . . . 77 5.2 Polinômio Característico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 5.3 Diagonalização de Operadores . . . . . . . . . . . . . . . . . . . . . . . . . 81 5.3.1 Diagonalização de Operadores Auto-adjuntos . . . . . . . . . . . . . 84 5.3.2 Diagonalização de Operadores Ortogonais . . . . . . . . . . . . . . 85 5.4 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 5.5 Aplicações da Diagonalização . . . . . . . . . . . . . . . . . . . . . . . . . 88 5.5.1 Potências de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . 88 5.5.2 Diagonalização e Cônicas . . . . . . . . . . . . . . . . . . . . . . . . 88 5.5.3 Exponencial de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . 90 5.6 Forma Canônica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 5.6.1 Obtenção da Forma Canônica de Jordan . . . . . . . . . . . . . . . 94 5.6.2 Polinômio Mínimo . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 5.6.3 Aplicações da Forma Canônica de Jordan . . . . . . . . . . . . . . . 97 5.7 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 6 Equações Diferenciais Ordinárias 103 6.1 Classificação de Equações Diferenciais . . . . . . . . . . . . . . . . . . . . . 103 6.1.1 Solução de uma EDO . . . . . . . . . . . . . . . . . . . . . . . . . . 105 6.2 Primeiras Propriedades das EDOL’s . . . . . . . . . . . . . . . . . . . . . . 105 6.3 EDOL de Primeira Ordem . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 6.4 EDOLH de Segunda Ordem . . . . . . . . . . . . . . . . . . . . . . . . . . 107 6.4.1 Wronskiano e Propriedades . . . . . . . . . . . . . . . . . . . . . . 107 6.4.2 Médoto de Redução de Ordem . . . . . . . . . . . . . . . . . . . . . 109 6.4.3 Coeficientes Constantes . . . . . . . . . . . . . . . . . . . . . . . . . 109 6.5 EDOLH de Ordem n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 6.5.1 Método de Redução de Ordem . . . . . . . . . . . . . . . . . . . . . 112 6.5.2 Coeficientes Constantes . . . . . . . . . . . . . . . . . . . . . . . . . 112 6.6 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 6.7 SEDOLH de Primeira Ordem . . . . . . . . . . . . . . . . . . . . . . . . . 117 6.7.1 Matriz Fundamental . . . . . . . . . . . . . . . . . . . . . . . . . . 119 6.7.2 Coeficientes Constantes . . . . . . . . . . . . . . . . . . . . . . . . . 121 6.8 Lista de Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 7 Respostas aos exercícios 129 7.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 7.2 Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 7.3 Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 Victor Gonçalves Elias SUMÁRIO 5 7.4 Transformações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 7.5 Autovalores e Autovetores . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 7.6 Equações Diferenciais Ordinárias . . . . . . . . . . . . . . . . . . . . . . . 138 Victor Gonçalves Elias 7 Capítulo 1 Introdução 1.1 Exercícios de Revisão Exercício 1.1 Verificar quais das seguintes matrizes são inversíveis e determinar as inversas respectivas: A = [ 1 2 2 2 ] , B = 1 0 11 1 0 0 −1 1 , C = 0 0 1 1 1 0 0 1 1 1 1 −1 0 2 0 3 . Exercício 1.2 Existe alguma matriz inversível A tal que A2 = O (matriz nula)? Justi- fique. Exercício 1.3 Determinar x, y e z de modo que a matriz 1 0 00 1√ 2 1√ 2 x y z seja ortogonal. Exercício 1.4 Considere a matriz: A = [ 1 2 2 1 ] . Sendo X uma matriz real 2 × 1, quais os valores de λ tal que existe X não nulo que satisfaz a AX = λX? Exercício 1.5 Seja A a seguinte matriz (complexa) A = 0 0 i0 1 0 −i 0 0 , Victor Gonçalves Elias 8 CAPÍTULO 1. INTRODUÇÃO onde i2 = −1. 1. A é uma matriz hermitiana?1 2. Obtenha A−1. 3. Calcule A2. 4. Deduza uma expressão para A2n e A2n+1, sendo n um natural. 5. Sabendo que, para um certo x ∈ R, exA é a matriz dada pela série (que pode se mostrar ser convergente): ∞∑ n=0 (xA)n n! = I + xA+ x2A2 2 + x3A3 3! + . . . obtenha exA. Aqui, por convenção, A0 = I. Exercício 1.6 Considere {v1, v2, . . . , vn} um conjunto de matrizes coluna de ordem n e seja M = [v1 v2 . . . vn] a matriz n × n cujas colunas são dadas justamente pelas matrizes v1, v2, . . . , vn. Mostre que: 1. [λ1v1 λ2v2 . . . λnvn] = MD, onde D = diag(λ1, λ2, . . . , λn) é a matriz diagonal cujos elementos são λ1, λ2, . . . , λn (nestaordem). 2. AM = [Av1 Av2 . . . Avn], onde A é uma matriz n× n. Exercício 1.7 Mostre que não existem matrizes A e B quadradas de ordem n de modo que AB −BA seja a matriz identidade. Exercício 1.8 Seja A uma matriz quadrada cujos elementos são funções deriváveis na variável real t. Se A é inversível (para um certo t), então mostre que: dA−1 dt = −A−1dA dt A−1 Exercício 1.9 Pode-se definir a convergência de uma sequência de matrizes analisando a convergência elemento por elemento. Da mesma forma, pode-se definir a convergência de uma série de matrizes. Supondo que a série de Neumann para uma certa matriz quadrada A: ∞∑ n=0 (I − A)n, seja convergente, mostre que ela converge para A−1. Numericamente, pode-se obter uma aproximação para a inversa da matriz truncando a série acima. 1Uma matriz é hermitiana quando A = A†, sendo A† a matriz complexo-conjugada da transposta de A. Victor Gonçalves Elias 1.1. EXERCÍCIOS DE REVISÃO 9 Exercício 1.10 O traço de uma matriz quadrada P é definido como a soma dos elementos da diagonal principal de P e denotado por tr(P ). 1. Sendo A e B matrizes de ordem m × n e n × m, respectivamente, mostre que tr(AB) = tr(BA) (mesmo quando as matrizes AB e BA são diferentes). 2. Sendo A e B matrizes ambas de ordem m × n, mostre que tr(ABT ) = tr(ATB) = tr(BTA) = tr(BAT ). 3. Se A, B e C são matrizes quadradas de mesma ordem, então mostre a propriedade cíclica do traço: tr(ABC) = tr(BCA) = tr(CAB). Exercício 1.11 Sejam A, U , B e V matrizes reais de ordem p× p, p× q, q × q e q × p, respectivamente. Se A e B + BV A−1UB são não singulares, mostre o teorema binomial da inversa: (A+ UBV )−1 = A−1 − A−1UB(B +BV A−1UB)−1BV A−1. Exercício 1.12 Seja A uma matriz n×n que tem todos os elementos da diagonal principal iguais a zero e os demais elementos iguais a −1. Obtenha o determinante de A. Exercício 1.13 Considere uma matriz A quadrada de ordem n com todos os elementos inteiros, de tal modo que os elementos da diagonal principal de A são ímpares e os demais elementos são pares. Mostre que A é inversível. Exercício 1.14 Seja M uma matriz 5× 5 com todos os elementos inteiros e pares. 1. É possível que o determinante de M seja igual a 120? 2. Nas condições do problema, seja M tal que det(M) = 160. Certamente, M−1 será composta exclusivamente por números racionais. Suponha que os números racionais estejam simplificados ao máximo. Para cada matriz M , denote por d(M) o maior valor do denominador que aparece na sua inversa (supondo que esta já esteja ao máximo simplificada). De todas as matrizes M que satisfazem estas condições, qual o maior valor de d(M)? Exercício 1.15 Considere M uma matriz quadrada com todos os elementos inteiros. Se além disso, a soma de cada linha de M é igual a k, mostre que o determinante de M é um múltiplo de k. Victor Gonçalves Elias 11 Capítulo 2 Espaços Vetoriais Definição 2.1 Seja um conjunto V diferente do vazio e um corpo K (em geral R ou C), para os quais podemos definir as operações de adição e multiplicação por escalar. + : V × V → V (u, v) 7→ u+ v ∈ V · : K × V → V (α, u) 7→ αu ∈ V Dizemos que V é um espaço vetorial sobre K quando, e apenas quando, as seguintes propriedades forem satisfeitas: 1. Comutativa: u+ v = v + u,∀u, v ∈ V 2. Associativa: u+ (v + w) = (u+ v) + w,∀u, v, w ∈ V 3. Elemento Neutro: ∃ΘV ∈ V tal que u+ ΘV = u,∀u ∈ V 4. Elemento Oposto: para cada u ∈ V , existe um elemento oposto (indicado por −u) tal que u+ (−u) = ΘV 5. α(βu) = (αβ)u,∀α, β ∈ K, ∀u ∈ V 6. α(u+ v) = αu+ αv, ∀α ∈ K, ∀u, v ∈ V 7. (α + β)u = αu+ βu, ∀α, β ∈ K, ∀u ∈ V 8. O elemento unitário do corpo 1 é tal que 1 · u = u,∀u ∈ V Nota 2.2 Se K = R, dizemos que V é um espaço vetorial real, se K = C, dizemos que V e um espaço vetorial complexo. Nota 2.3 Os elementos de um espaço vetorial são chamados de vetores, e os elementos do corpo são chamados de escalares. Exemplo 2.4 O conjunto R, com as operações usuais de soma e multiplicação é um espaço vetorial sobre R. Victor Gonçalves Elias 12 CAPÍTULO 2. ESPAÇOS VETORIAIS Exemplo 2.5 O conjunto dos números complexos C, com as operações usuais, é um espaço vetorial sobre R. Por outro lado, C também é um espaço vetorial sobre C. Exemplo 2.6 O espaço Rn com as operações: (u1, u2, . . . , un) + (v1, v2, . . . , vn) = (u1 + v1, u2 + v2, . . . , un + vn) α(u1, u2, . . . , un) = (αu1, αu2, . . . , αun) é um espaço vetorial sobre R. Prova. Para tal, basta mostrarmos que o conjunto satisfaz os oito axiomas de espaço vetorial: 1. u+ v = (u1 + v1, u2 + v2, . . . , un + vn) = (v1 + u1, v2 + u2, . . . , vn + un) = v + u,∀u, v ∈ Rn 2. u+ (v + w) = (u1 + (v1 + w1), u2 + (v2 + w2), . . . , un + (vn + wn)) = ((u1 + v1) + w1, (u2 + v2) + w2, . . . , (un + vn) + wn) = (u+ v) + w,∀u ∈ Rn 3. Existe ΘV = (0, 0, . . . , 0), tal que u+ Θv = (u1 + 0, u2 + 0, . . . , un + 0) = (u1, u2, . . . , un) = u,∀u ∈ Rn 4. Para cada u ∈ Rn, existe um elemento oposto −u = (−u1,−u2, . . . ,−un)⇒ u+ (−u) = (u1 + (−u1), u2 + (−u2), . . . , un + (−un)) = (0, 0, . . . , 0) = ΘV 5. α(βu) = α(βu1, βu2, . . . , βun) = (αβu1, αβu2, . . . , αβun) = (αβ)(u1, u2, . . . , un) = (αβ)u,∀α, β ∈ R,∀u ∈ Rn 6. α(u+ v) = α(u1 + v1, u2 + v2, . . . , un + vn) = (αu1 + αv1, αu2 + αv2, . . . , αun + αvn) = αu+ αv, ∀α ∈ R,∀u, v ∈ Rn 7. (α + β)u = ((α + β)u1, (α + β)u2, . . . , (α + β)un) = (αu1 + βu1, αu2 + βu2, . . . , αun + βun) = αu+ βu, ∀α, β ∈ R,∀u ∈ Rn 8. 1 · u = (1 · u1, 1 · u2, . . . , 1 · un) = (u1, u2, . . . , un) = u,∀u ∈ Rn � Victor Gonçalves Elias 13 Exemplo 2.7 O espaço Cn, com operações análogas às do Rn no Exemplo 2.6, é um espaço vetorial tanto sobre C, como sobre R. Exemplo 2.8 O conjunto de todas as matrizes reais de ordem m×n é um espaço vetorial sobre R (considerando as operações usuais). Este espaço é denotado porMm×n(R). Exemplo 2.9 O conjunto de polinômios de grau menor ou igual a n, é um espaço vetorial sobre R. É representado por Pn(R). Exemplo 2.10 Seja V = C[a, b] o conjunto de todas as funções contínuas f : [a, b]→ R, definindo as operações de soma e multiplicação por escalar como: (f + g)(x) = f(x) + g(x),∀x ∈ [a, b] (αf)(x) = αf(x),∀x ∈ [a, b] V é um espaço vetorial sobre R. Exemplo 2.11 O conjunto R∗+ não é espaço vetorial sobre R (com as operações usuais). Exemplo 2.12 O conjunto R∗+, munido das operações: u⊕ v = uv α� u = uα é um espaço vetorial sobre R. Veremos agora algumas propriedades dos espaços vetoriais derivadas diretamente da definição, mas que não podem ser enxergadas tão facilmente. Proposição 2.13 Seja um espaço vetorial V sobre K, satisfazendo todos os axiomas de espaço vetorial. Então: 1. ∀α ∈ K,αΘV = ΘV 2. ∀u ∈ V, 0u = ΘV 3. αu = ΘV ⇒ α = 0 ∨ u = ΘV 4. ∀α ∈ K, ∀u ∈ V, (−α)u = α(−u) = −(αu) 5. ∀α, β ∈ K, ∀u ∈ V : (α− β)u = αu− βu 6. ∀α ∈ K, ∀u, v ∈ V : α(u− v) = αu− αv 7. ∀β, α1, α2, . . . , αn ∈ K, ∀u1, u2, . . . , un ∈ V : β( n∑ j=1 αjuj) = n∑ j=1 (βαj)uj 8. O vetor ΘV de V é único. Victor Gonçalves Elias 14 CAPÍTULO 2. ESPAÇOS VETORIAIS 9. O elemento oposto, para cada u ∈ V , é único. 10. u+ v = u+ w ⇒ v = w (lei do cancelamento) Nota 2.14 Com a propriedade 4 da proposição anterior podemos definir a operação de subtração: u− v = u+ (−v) 2.1 Subespaços Vetoriais Definição 2.15 Seja V um espaço vetorial sobre o corpo K. Um subespaço vetorial de V é um subconjunto W ⊂ V , tal que: (a) ΘV ∈ W (b) ∀u, v ∈ W ⇒ u+ v ∈ W (c) ∀α ∈ K, u ∈ W ⇒ αu ∈ W Nota 2.16 Podemos reduzir as duas últimas condições para apenas uma: ∀α ∈ K, ∀u, v ∈ W ⇒ u+ αv ∈ W . Exemplo 2.17 Os conjuntos {ΘV } e o próprio V são subespaços de V . Esses são cha- mados de subespaços impróprios ou triviais. Exemplo 2.18 W = {(x, y, z) ∈ R3 : x− y = 0} é subespaço do R3. Prova. Basta demonstrarmos que satisfaz as 3 condições desubespaço vetorial: (a) (0, 0, 0) ∈ W , pois 0 x − 0 y = 0 (b) Sejam u = (u1, u2, u3) ∈ W, v = (v1, v2, v3) ∈ W u+ v = (u1 + v1, u2 + v2, u3 + v3) ∈ W, pois u1 + v1 − (u2 + v2) = (u1 − u2)︸ ︷︷ ︸ 0 pois u∈W + (v1 − v2)︸ ︷︷ ︸ 0 pois v∈W = 0 (c) Seja u = (u1, u2, u3) ∈ W e seja α ∈ K Notamos que αu ∈ W , pois αu = (αu1, αu2, αu3) e αu1 − αu2 = α (u1 − u2)︸ ︷︷ ︸ 0, pois u∈W = 0 � Exemplo 2.19 W = {A ∈Mn(R) : At = A} é subespaço deMn(R). Victor Gonçalves Elias 2.1. SUBESPAÇOS VETORIAIS 15 Exemplo 2.20 A solução de um sistema linear homogêneo é um subespaço do Rn. a11x1 + a12x2 + . . . + a1nxn = 0 ... ... ... am1x1 + am2x2 + . . . + amnxn = 0 Proposição 2.21 A intersecção de dois subespaços U,W ⊂ V também é um subespaço vetorial de V. Prova. Mais uma vez, basta demonstrar as 3 condições de subespaço vetorial. (a) ΘV ∈ W ΘV ∈ U por hip. ΘV ∈ U ∩W (b) Sejam u, v ∈ U ∩W { u, v ∈ U ⇒ u+ v ∈ U u, v ∈ W ⇒ u+ v ∈ W } u+ v ∈ U ∩W (c) Seja u ∈ U ∩ V e seja λ ∈ K { u ∈ U ⇒ λu ∈ U u ∈ W ⇒ λu ∈ W } ⇒ λu ∈ U ∩W � Nota 2.22 Apesar da proposição anterior, a união de subespaços nem sempre é um su- bespaço. Z = {(x, 0) ∈ R2 : x ∈ R} é subespaço do R2. W = {(0, y) ∈ R2 : y ∈ R} é subespaço do R2. Z ∪W não é subespaço. Proposição 2.23 Se W é subespaço de V (espaço vetorial sobre K), então W também é espaço vetorial sobre K. 2.1.1 Soma de Subespaços Definição 2.24 Sejam U e W subespaços de V , definimos a soma de U com W como o seguinte subconjunto de V : U +W = {u+ w : u ∈ U,w ∈ W} É evidente que: • U +W = W + U • U + {ΘV } = U • U ⊂ U +W • W ⊂ U +W Teorema 2.25 Se U e W são subespaços de um espaço vetorial V , então U +W também é subespaço de V . Victor Gonçalves Elias 16 CAPÍTULO 2. ESPAÇOS VETORIAIS Prova. Temos de demonstrar as 3 condições de subespaço vetorial. (a) ΘV ∈ U +W pois ΘV ∈ U e ΘV ∈ V . Logo, ΘV + ΘV = ΘV ∈ U +W . (b) Sejam v1, v2 dois elementos da U + W . Então existem u1, u2 ∈ U e w1, w2 ∈ W tal que: v1 = u1 + w1 v2 = u2 + w2 } considerando z = v1 + v2 = (u1 + u2) + (w1 + w2) Logo, z ∈ U +W , ou seja v1 + v2 ∈ U +W . (c) Seja v ∈ U + W . Nesse caso existem u ∈ U,w ∈ W tal que: v = u + w Mas αv = αu︸︷︷︸ ∈U pois U e´ sub. + αw︸︷︷︸ ∈W pois W e´ sub. . Assim, αv ∈ U +W � Nota 2.26 Quando subespaços U e W são tais que U ∩W = {ΘV } então dizemos que a soma U +W é direta e denotamos por U ⊕W . Nota 2.27 Se U⊕W = V dizemos que U eW são suplementares, ou que U é suplementar de W , ou que W é suplementar de U . Teorema 2.28 Sejam U,W subespaços de um espaço vetorial V . Então U ⊕W = V se, e somente se, cada vetor v ∈ V admite uma única decomposição v = u + w, u ∈ U e w ∈ W . Prova. (⇒) Tomemos u1, u2 ∈ U e w1, w2 ∈ W tal que u1 +w1 = u2 +w2 = v, v ∈ V . Temos então que u1 − u2︸ ︷︷ ︸ ∈U = w2 − w1︸ ︷︷ ︸ ∈W . Como a intersecção entre U e V é {ΘV }, pois a soma entre eles é direta, então u1−u2 = w2−w1 = ΘV , i.e. u1 = u2 e w1 = w2. Portanto, ∀v ∈ V , @u ∈ U e @w ∈ W tal que v = u+ w. (⇐) Se cada vetor v ∈ V admite decomposição da forma v = u + w, u ∈ U,w ∈ W , então é óbvio que U +W = V . Vamos provar que a soma é direta. Seja z ∈ U ∩W . Note que: u+ w = (u+ z)︸ ︷︷ ︸ ∈U + (w − z)︸ ︷︷ ︸ ∈W Da unicidade da decomposição: u+ z = u w − z = w } z = ΘV ou seja, U ∩W = {ΘV }. � Victor Gonçalves Elias 2.2. COMBINAÇÕES LINEARES 17 2.2 Combinações Lineares Definição 2.29 Seja V um espaço vetorial sobre K. Tomemos um subconjunto S = {u1, u2, . . . , un} ⊂ V . Indiquemos por [S] o seguinte subconjunto construído a partir de S: [S] = {α1u1 + α2u2 + . . . + αnun;α1, α2, . . . , αn ∈ K}. Temos então que [S] é um subespaço vetorial: Prova. Temos de demonstrar as 3 condições de subespaço vetorial: (a) ΘV = 0u1 + 0u2 + . . .+ 0un ∈ [S] (b) u, v ∈ [S]⇒ ∃α1, α2, . . . αn ∈ K, ∃β1, β2, . . . , βn ∈ K : u = α1u1 + α2u2 + . . .+ αnun v = β1u1 + β2u2 + . . .+ βnun u+ v = (α1 + β1)︸ ︷︷ ︸ ∈K u1 + . . .+ (αn + βn)︸ ︷︷ ︸ ∈K un ⇒ u+ v ∈ [S] (c) Seja u ∈ [S]. Então existem α1, α2, . . . , αn ∈ K tal que: u = α1u1 + . . .+ αnun λu = (λα1) ∈K u1 + . . .+ (λαn) ∈K un ⇒ λu ∈ [S] � Nota 2.30 O subespaço [S] recebe o nome de subespaço gerado por S, e também pode ser denotado por [u1, u2, . . . , un]. Diz-se também que u1, u2, . . . , un geram [S], ou então que são um sistema de geradores de [S]. Nota 2.31 Cada vetor u ∈ [S] é dito ser uma combinação linear de u1, u2, . . . , un. Nota 2.32 Por convenção, se S = ∅, [S] = {ΘV }. Nota 2.33 Se S for infinito, então definimos [S] mediante a sentença: u ∈ [S] ⇔ ∃v1, v2, . . . , vn ∈ S,∃α1, α2, . . . , αn ∈ K tal que u = α1v1 + . . .+ αnvn. Proposição 2.34 Seja S um subconjunto de V . Temos que S possui as seguintes propri- edades: 1. S ⊂ [S] 2. S1 ⊂ S2 ⇒ [S1] ⊂ [S2] 3. [S] = [[S]] 4. [S1 ∪ S2] = [S1] + [S2] Exemplo 2.35 Se V = R3, u = (−1, 1) e v = (1, 1), determinemos então [u, v]. Note que [u, v] = {(−α + β, α + β);α, β ∈ R} = R2 pois cada par (x, y) ∈ R2 se escreve como (x, y) = (y−x) 2 (−1, 1) + (y+x) 2 (1, 1). Victor Gonçalves Elias 18 CAPÍTULO 2. ESPAÇOS VETORIAIS 2.3 Espaços Vetoriais Finitamente Gerados Definição 2.36 Dizemos que um espaço vetorial V é finitamente gerado se existe S ⊂ V , S finito, tal que V = [S]. Exemplo 2.37 O espaço E3 dos vetores da geometria é gerado pelo conjunto {ıˆ, ˆ, kˆ}, pois qualquer u ∈ E3 se escreve como u = aıˆ+ bˆ+ ckˆ. Exemplo 2.38 Sendo ΘV o vetor nulo de V , então {ΘV } é finitamente gerado, pois {ΘV } = [{ΘV }]. Exemplo 2.39M2(R) é finitamente gerado, pois o conjunto S = {[ 1 0 0 0 ] , [ 0 1 0 0 ] ,[ 0 0 1 0 ] , [ 0 0 0 1 ]} geraM2(R), já que qualquer matriz deM2(R) se escreve como:[ a b c d ] = a [ 1 0 0 0 ] + b [ 0 1 0 0 ] + c [ 0 0 1 0 ] + d [ 0 0 0 1 ] Exemplo 2.40 Rn é finitamente gerado pois temos que um conjunto gerador é: S = {(1, 0, . . . , 0); (0, 1, . . . , 0); . . . ; (0, 0, . . . , 1)} Exemplo 2.41Mm×n(R) é finitamente gerado. De fato, considere as matrizes Ak` : aij = { 1, se i = k e j = ` 0, caso contrário A11 = 1 0 0 · · · 0 0 0 0 · · · 0 0 0 0 · · · 0 ... ... ... . . . ... 0 0 0 · · · 0 A12 = 0 1 0 · · · 0 0 0 0 · · · 0 0 0 0 · · · 0 ... ... ... . . . ... 0 0 0 · · · 0 Então S = {A11, A12, . . . , A1n, A21, A22, . . . , A2n, . . . , Am1, Am2, . . . , Amn} é um gerador deMm×n(R). Exemplo 2.42 Pn(R) é finitamente gerado. De fato, considerando: f0(x) = 1 f1(x) = x ... ... fn(x) = x n Temos que um polinômio qualquer de Pn(R) se escreve como: p(x) = a0 + a1x+ a2x 2 + . . .+ anx n : p = a0fo + a1f1 + . . .+ anfn Victor Gonçalves Elias 2.4. LISTA DE EXERCÍCIOS 19 2.4 Lista de Exercícios Exercício 2.43 Para cada um dos conjuntos de operações a seguir, diga se o conjunto V = {(x, y) : x, y ∈ R} é um espaço vetorial sobre R. Caso não o seja, diga quais dos 8 axiomas não se verificam. 1. (x1, y1) + (x2, y2) = (x1 + x2, 0) e a(x, y) = (ax, ay). 2. (x1, y1) + (x2, y2) = (x1 + x2, y1 + y2) e a(x, y) = (ax, 0). 3. (x1, y1) + (x2, y2) = (x1 + x2, y1 + y2) e a(x, y) = (x, ay). 4. (x1, y1) + (x2, y2) = (x1, y1) e a(x, y) = (ax, ay). 5. (x1, y1) + (x2, y2) = (2x1 − 2y1,−x1 + y1) e a(x, y) = (3ay,−ax). Exercício 2.44 Mostrar que todo espaço vetorial sobre C também é espaço vetorial sobre R. Exercício 2.45 Seja u = (1 + i, i), v = (1 − i, 2i) e w = (2, 3 + i) vetores do espaço vetorial C2 (a) Calcular (3 + i)u− iv − (2− i)w; (b) Existe z ∈ C tal que v = zu? Exercício 2.46 No espaço vetorial P3(R) sejam dados os vetores f(t) = t3 − 1, g(t) = t2 + t− 1 e h(t) = t+ 2. (a) Calcular 2f(t) + 3g(t)− 4h(t); (b) Existe k ∈ R de maneira que f(t) + kg(t) = h(t)? (c) Existemk1, k2 ∈ R tais que f(t) = k1g(t) + k2h(t)? Exercício 2.47 No R2 consideremos os vetores u = (1, 1), v = (3,−2) e w = (3,−2). (a) Resolver a equação: x+ u 2 + v + x 3 = w, na incógnita x ∈ R2; (b) Resolver o seguinte sistema de equações: x+ y + z = u 2x− y + z = v x+ y − 2z = w nas incógnitas x, y, z ∈ R2. Victor Gonçalves Elias 20 CAPÍTULO 2. ESPAÇOS VETORIAIS Exercício 2.48 Quais dos seguintes conjuntos W abaixo são subespaços do R3? 1. W = {(x, y, z) ∈ R3 : x = 0} 2. W = {(x, y, z) ∈ R3 : x ∈ Z} 3. W = {(x, y, z) ∈ R3 : y /∈ Q} 4. W = {(x, y, z) ∈ R3 : x− 3z = 0} 5. W = {(x, y, z) ∈ R3 : ax+ by + cz = 0, a, b, c ∈ R} Exercício 2.49 Quais dos conjuntos abaixo são subespaços do espaço P(R) de todos os polinômios reais? 1. W = {f(t) ∈ P(R) : f(t)tem grau maior que 2} 2. W = {f(t) ∈ P(R) : f(0) = 2f(1)} 3. W = {f(t) ∈ P(R) : f(t) > 0,∀t ∈ R} 4. W = {f(t) ∈ P(R) : f(t) + f ′(t) = 0} Exercício 2.50 Seja I = [0, 1]. Verificar se são subespaços vetoriais de C(I): 1. {f ∈ C(I) : f(0) = 0} 2. {f ∈ C(I) : 1∫ 0 f(t)dt = 0} 3. {f ∈ C(I) : f(0) = f(1)} 4. {f ∈ C(I) : f(0) = 0 em todos os pontos de I, exceto em um número finito deles} Exercício 2.51 Mostrar que os polinômios 1− t, (1− t)2, (1− t)3 e 1 geram P3(R). Exercício 2.52 Dar um sistema de geradores para cada um dos seguintes subespaços do R3: 1. U = {(x, y, z) : x− 2y = 0} 2. V = {(x, y, z) : x+ z = 0 e x− 2y = 0} 3. W = {(x, y, z) : x+ 2y − 3z = 0} 4. U ∩ V 5. V +W Exercício 2.53 Sejam U e V sub-espaços vetoriais do espaço W . Provar que: Victor Gonçalves Elias 2.5. DEPENDÊNCIA LINEAR 21 1. U ⊂ V ⇒ U + V = V ; 2. U ⊂ V ⇒ U ∩ V = U ; 3. U + V = U ⇒ U ⊃ V ; 4. U ∩ V = U ⇒ U ⊂ V . Exercício 2.54 Sejam u e v dois vetores não nulos do R2. Se não existe nenhum t ∈ R tal que u = tv, mostrar que R2 é soma direta dos subespaços [u] e [v]. Exercício 2.55 Se U , V e W são subespaços vetoriais do mesmo espaço, mostrar que (U ∩V ) + (U ∩W ) ⊂ U ∩ (V +W ). Descubra um exemplo para o qual o primeiro membro dessa relação é diferente do segundo e um exemplo onde ocorre igualdade. Exercício 2.56 Mostrar que os números complexos 2+3i e 1−2i geram o espaço vetorial C sobre R. Exercício 2.57 Mostrar que geram o mesmo subespaço vetorial os dois subconjuntos do R3: {(1,−1, 2); (2, 0, 1)} e {(−1,−2, 3); (3, 3,−4)}. Exercício 2.58 Considere os seguintes vetores do R3: (−1, 0, 1) e (3, 4,−2). Determi- nar um sistema de equações homogêneas para o qual o espaço solução seja exatamente o subespaço gerado por esses vetores. Exercício 2.59 Mostrar que os dois conjuntos abaixo formados de funções contínuas reais definidas em R geram o mesmo subespaço vetorial de C(R):{ sin2 t, cos2 t, sin t cos t } e {1, sin 2t cos 2t} 2.5 Dependência Linear Definição 2.60 Um conjunto S = {u1, u2, . . . , un} contido num espaço vetorial é dito ser linearmente independente se, e somente se, uma igualdade do tipo α1u1 + α2u2 + . . . + αnun = ΘV com αi ∈ K, admitir como única solução α1 = α2 = . . . = αn = 0, do contrário, o conjunto S é dito ser linearmente dependente (LD). Nota 2.61 Por convenção, S = ∅ é linearmente independente (LI). Exemplo 2.62 O conjunto S = {(−1, 1, 1); (1,−1, 1); (1, 1,−1)} é LI. De fato, se: α(−1, 1, 1) + β(1,−1, 1) + γ(1, 1,−1) = (0, 0, 0) −α + β + γ = 0 α− β + γ = 0 α + β − γ = 0 ⇒ α = 0 β = 0 γ = 0 Victor Gonçalves Elias 22 CAPÍTULO 2. ESPAÇOS VETORIAIS Exemplo 2.63 O conjunto S = {p0, p1, p2} ⊂ P2(R) é LD (em que p0(x) = x2, p1(x) = 2x, p2(x) = 4x2+7x). De fato αp0+βp1+γp2 = ΘV ⇔ αx2+2βx+4γx2+7γx = 0,∀x ∈ R{ α + 4γ = 0 2β + 7γ = 0 é um SPI (e por isso admite solução não trivial). Exemplo 2.64 Seja C[0, 1] o conjunto das funções contínuas [0, 1]. Considere o subcon- junto S = {ex, e2x, e3x}. S é LI, pois: αex + βe2x + γe3x = 0 ex(α + βex + γe2x) = 0 α + βex + γe2x = 0, ∀x ∈ [0, 1] (α + βex + γe2x)′ = (0)′ βex + 2γe2x = 0 ex(β + 2γex) = 0 β + 2γex = 0,∀x ∈ [0, 1] (β + 2γex)′ = (0)′ 2γex = 0 γ = 0,∀x ∈ [0, 1] α = β = γ = 0 Exemplo 2.65 Seja L = {(1, 2, 3); (1, 4, 9); (1, 8, 27)}. Teremos α, β, γ ∈ R tais que: α(1, 2, 3) + β(1, 4, 9) + γ(1, 8, 27) = (0, 0, 0) α + β + γ = 0 2α + 4β + 8γ = 0 3α + 9β + 27γ = 0 Como ∣∣∣∣∣∣ 1 1 1 2 4 8 3 9 27 ∣∣∣∣∣∣ 6= 0 o sistema é possível e determinado, e a única solução é α = β = γ = 0. Logo L é LI. Exemplo 2.66 Seja L = {1, sin t, cos t} ⊂ C[0, 2pi]. Tomemos α, β, γ ∈ R tais que α + β sin t+ γ cos t = 0, ∀t ∈ [0, 2pi]. Tomando alguns valores de t: t = 0 t = pi/2 t = pi α + γ = 0 α + β = 0 α− γ = 0 ∴ α = β = γ = 0 Logo, L é LI. Exemplo 2.67 Seja L = {(x+ 1)ex, (x2 + 1)ex} ⊂ C[0, 1]. Tomando α, β ∈ R tais que: α(x+ 1)ex + β(x2 + 1)ex = 0,∀x ∈ [0, 1] α(x+ 1) + β(x2 + 1)]ex = 0 α(x+ 1) + β(x2 + 1) = 0,∀x ∈ [0, 1] α = 0 β = 0 α + β = 0 ⇒ o conjunto é LI. Victor Gonçalves Elias 2.6. BASE DE UM ESPAÇO VETORIAL FINITAMENTE GERADO 23 Nota 2.68 Veja que no Exemplo 2.67, a técnica de escolher x = 0 e x = 1 não daria resultado. 2.5.1 Propriedades da Dependência Linear Proposição 2.69 Seja L = {ui ∈ V : i ∈ N, 0 < i ≤ n} um subconjunto do espaço vetorial V . Então: 1. L = {u1, u2, . . . , un} ⊃ {ΘV } ⇒ L é LD. 2. L = {u}, u 6= ΘV ⇒ L é LI. 3. L = {u1, u2, . . . , un} é LD se, e somente se, um dos vetores é combinação linear dos demais. 4. Sejam S1, S2 finitos, com S1 ⊂ S2. Se S1 é LD, então S2 é LD. 5. Sejam S1, S2 finitos, com S1 ⊂ S2. Se S2 é LI, então S1 é LI. 6. Se {u1, u2, . . . , un} é LI e {u1, u2, . . . , un, v} é LD, então v é combinação linear de u1, u2, . . ., un. 7. Se S = {u1, u2, . . . , uj, . . . , un} é tal que uj ∈ [S\{uj}], então [S] = [S\{uj}]. 2.6 Base de um Espaço Vetorial Finitamente Gerado Definição 2.70 Uma base B de um espaço vetorial V finitamente gerado é um conjunto B ⊂ V , satisfazendo a duas propriedades: 1. V = [B] 2. B é LI. Exemplo 2.71 B = {p0, p1, . . . , pn}, onde pj(t) = tj é base de Pn(R). Exemplo 2.72 B = {e1, e2, . . . , en}, sendo ej vetores do Rn tais que a componente j é 1 e as demais são zero é base do Rn. Exemplo 2.73 B = {A11, A12, . . . , A1n, A21, . . . , Amn} é base de Mm×n(R), onde Ak` = (aij)m×n, aij = { 1, se i = k e j = ` 0, caso contrário . Nota 2.74 Todas essas bases são denominadas bases canônicas. Nota 2.75 Convenciona-se que o vazio é base de {ΘV }. Teorema 2.76 Todo espaço vetorial finitamente gerado possui uma base. Victor Gonçalves Elias 24 CAPÍTULO 2. ESPAÇOS VETORIAIS Prova. O conjunto {ΘV } possui a base ∅. No caso de um espaço vetorial diferente do espaço nulo, existe um conjunto S finito contido em V , tal que V é gerado por S. Seja S = {u1, . . . , un}. O conjunto S possui 2n sub-conjuntos. Dentre todos os subconjuntos LI, tomemos um que possua o maior número de vetores. Seja B este conjunto. Por escolha, B é LI. Provemos que B gera V : Seja u ∈ S\B. Como B ∪ {u} é LD, então u ∈ [B]. Assim S\B ⊂ [B]. Logo V = [S] = [(S\B) ∪B] = [S\B] + [B] ⊂ [B] + [B] = [B]. V ⊂ [B], mas V ⊃ [B]. Logo V = [B]. � A seguir, veremos um processo prático para determinar bases do Rn. Proposição 2.77 Seja V um subespaço do Rn. Consideremos um conjunto de geradores de V : V = [u1, u2, . . . , ur]. Note que: 1. O conjunto V não se altera se trocarmos a posição de dois vetores do conjunto de geradores. V = [u1, u2, . . . , ur] = [u1, . . . , ui, . . . , uj, . . . , ur] = [u1, . . . , uj, . . . , ui, . . . , ur] 2. Uma combinação linear de vetores de V não vai alterar o conjunto gerado por V. V = [u1, . . . , ui, . . . , uj + αui, . . . , uk] 3. Se [u1, u2, . . . , ur] está na forma escalonada, então é um conjunto LI (desde que nenhum seja nulo). Exemplo 2.78 Determinar uma base e a dimensão de: U = [(1, 0, 2,−1); (1, 2, 5, 1); (4, 6, 17, 2)] 1 0 2−11 2 5 1 4 6 17 2 ∼ 1 0 2 −10 2 3 2 0 6 9 6 ∼ 1 0 2 −10 2 3 2 0 0 0 0 uma base de U é: {(1, 0, 2,−1); (0, 2, 3, 2)} 2.7 Dimensão de um Espaço Vetorial Proposição 2.79 Todo sistema linear e homogêneo cujo número de incógnitas é maior que o número de equações admite uma solução não trivial. Proposição 2.80 Se um conjunto {v1, v2, . . . , vm} gera o espaço vetorial V , então qual- quer conjunto com mais de m vetores é LD. Victor Gonçalves Elias 2.7. DIMENSÃO DE UM ESPAÇO VETORIAL 25 Prova. Consideremos {u1, u2, . . . , un} ⊂ V tal que n > m. Desde que {v1, . . . , vm} gera V : u1 = α11v1 + α12v2 + . . .+ α1mvm u2 = α21v1 + α22v2 + . . .+ α2mvm ... un = αn1v1 + αn2v2 + . . .+ αnmvm Consideremos o problema x1u1 + . . .+ xnun = ΘV : x1 ( m∑ j=1 α1jvj ) + . . .+ xn ( m∑ j=1 αnjvj ) = ΘV n∑ i=1 ( xi m∑ j=1 αijvj ) = ΘV m∑ j=1 ( n∑ i=1 αijxi ) vj = ΘV ⇒ α11x1 + α21x2 + . . .+ αn1xn = 0 ... α1mx1 + α2mx2 + . . .+ αnmxn = 0 Sistema homogêneo com m equações e n incógnitas. Sabendo que n > m, pela Pro- posição 2.79, existe solução não trivial ⇒ {u1, u2, . . . , un} é LD. � Proposição 2.81 Se um conjunto de n vetores gera um espaço vetorial V , então qualquer conjunto LI possui, no máximo, n vetores. Prova. Suponha um conjunto LI de m vetores. Duas coisas podem acontecer: ou n > m ou n ≤ m. No primeiro caso, pela Proposição 2.80, o conjunto seria LD, então n ≤ m. � Teorema 2.82 (Teorema da Invariância): Se um espaço vetorial V admite uma base com n vetores, então qualquer outra base de V também possui n vetores. Prova. Sejam B = {b1, b2, . . . , bn} e C = {c1, c2, . . . , cm} duas bases de V . Como V = [B] e C é LI, então m ≤ n. Analogamente, como V = [C] e B é LI, então n ≤ m. Portanto, temos que n = m. � Definição 2.83 Diz-se que o espaço vetorial V tem dimensão finita quando admite uma base B com um número finito de vetores. Este número é o mesmo para todas as bases de V e chama-se dimensão do espaço vetorial V : n = dimV . Nota 2.84 Por extensão, diz-se que o espaço vetorial {ΘV } tem dimensão 0. Teorema 2.85 Se a dimensão de V é n, então um conjunto de n vetores gera V se, e somente se, é LI. Victor Gonçalves Elias 26 CAPÍTULO 2. ESPAÇOS VETORIAIS Prova. Se um conjunto gera V e possui n elementos, ele não pode ser LD, pois se fosse, haveria um vetor v que é combinação linear dos demais e V = [B\{v}]. Mas B\{v} tem n− 1 elementos. Isso é incompatível com o fato de uma base ter n elementos. � Teorema 2.86 Seja V um espaço vetorial de dimensão finita n. Então: 1. Todo conjunto X de geradores de V contém uma base. 2. Todo conjunto LI {v1, v2, . . . , vm} ⊂ V está contido numa base. 3. Todo subespaço de V tem dimensão finita e menor ou igual a n. 4. Se a dimensão do subespaço U ⊂ V é n, então U = V . Prova. Demonstremos cada uma das propriedades separadamente. 1. Seja Y = {v1, . . . , vm} um conjunto que gera V . Se Y é LI, então Y é uma base, e a propriedade é trivial. Se Y é LD então existe um vetor v que é combinação linear dos outros. Logo, [Y ] = [Y \{v}] = V . Se Y \{v} for LD, repetimos o processo até acharmos Y \{v1, . . . , vm} LI. Portanto Y ⊃ Y \{v1, . . . , vm}, que é uma base, portanto ∀Y ⊂ V : [Y ] = V ⇒ Y contém uma base de V . 2. Seja Y = {v1, . . . , vm, vm+1, . . . , vk} um conjunto LI com o máximo número de ele- mentos e contendo o conjunto de m vetores dado (k ≤ n). Todo elemento de V é uma combinação linear dos vetores de Y (pois se existir um u ∈ V que viola isto, Y ∪ {u} é LI, um absurdo). Logo V = [Y ] e Y é LI ⇒ Y é base de V . 3. Seja U ⊂ V um subespaço. Seja B uma base de U . U = [B] B é LI ⇒ B tem no máximo n vetores, ou seja, dimU ≤ n. 4. Seja B uma base de U . Então como B tem n elementos e é LI ⇒ V = [B]. Como U = [B], segue que V = U . � 2.7.1 Dimensão da soma de subespaços Teorema 2.87 Se U e V são dois subespaços de um espaço vetorial de dimensão finita, então dim(U + V ) = dimU + dimV − dim(U ∩ V ). Prova. Consideremos {w1, . . . , wr} uma base de U ∩V , e completemos esta base para obter uma base de U e uma base de V : BU = {w1, . . . , wr} ∪ {u1, . . . , un} é base de U . BV = {w1, . . . , wr} ∪ {v1, . . . , vm} é base de V . Mostraremos que B = {w1, . . . , wr, u1, . . . , un, v1, . . . , vm} é base de U + V . Victor Gonçalves Elias 2.8. COORDENADAS 27 B = BU ∪BV [B] = [BU ] + [BV ] [B] = U + V Além disso, se: α1w1 + . . .+ αrwr + β1u1 + . . .+ βnun + θ1v1 + . . .+ θmvm = ΘV α1w1 + . . .+ αrwr + β1u1 + . . .+ βnun︸ ︷︷ ︸ u = −(θ1v1 + . . .+ θmvm)︸ ︷︷ ︸ v u = v Como: u ∈ U, v ∈ V u = v ∈ U ∩ V u = δ1w1 + . . .+ δrwr = α1w1 + . . .+ αrwr + β1u1 + . . .+ βnun δ1 = α1, . . . , δr = αr β1 = 0, . . . , βn = 0 Analogamente, chega-se a: θ1 = . . . = θm = 0 α1 = . . . = αr = 0 Ou seja, B é LI. Assim: dimU = n+ r dimV = m+ r dim(U ∩ V ) = r dim(U + V ) = m+ n+ r E finalmente: dim(U + V ) = dimU + dimV − dim(U ∩ V ) � 2.8 Coordenadas Definição 2.88 Dada uma base de um espaço vetorial B = {u1, . . . , un}, um vetor v pode ser escrito como: v = α1u1 + α2u2 + . . .+ αnun Os coeficientes α1, . . . , αn são univocamente determinados, pois se v = β1u1 + β2u2 + . . .+βnun, então (α1−β1)u1+(α2−β2)u2+. . .+(αn−βn)un = ΘV , e ∴ α1 = β1, . . . , αnf = βn. Se impusermos uma ordem aos vetores de B (i.e., se B estiver ordenado), então os escalares α1, . . . , αn serão chamados de coordenadas do vetor v em relação à base B. Costuma-se representar as coordenadas na forma matricial: [v]B = α1 α2 ... αn é dita ser a matriz de coordenadas do vetor v, com respeito à base B. Exemplo 2.89 Considere o vetor v = (1, 1, 1) ∈ R3. Tomando a base ordenada: B = {(−1, 1, 1); (1,−1, 1); (1, 1,−1)}. Determinemos a matriz de coordenadas [v]B. v = α(−1, 1, 1) + β(1,−1, 1) + γ(1, 1,−1) Victor Gonçalves Elias 28 CAPÍTULO 2. ESPAÇOS VETORIAIS −α + β + γ = 1 α− β + γ = 1 α + β − γ = 1 ⇒ α = β = γ = 1 ∴ [v]B = 11 1 2.9 Mudança de Base Definição 2.90 Consideremos duas bases ordenadas de um espaço vetorial: B = {b1, b2, . . . , bn} e C = {c1, c2, . . . , cn}. Podemos escrever, portanto: [c1]B = α11... αn1 , . . . , [cn]B = α1n... αnn . A matriz MB←C dada a seguir é denotada matriz de mudança de base de (a base) B para (a base) C: MB←C = α11 α21 ... αn1 . . . . . . . . . . . . α1n α2n ... αnn ↑ ↑ [c1]B [cn]B Teorema 2.91 Sendo [u]C a matriz de coordenadas de um vetor u na base C, e [u]B as coordenadas desse mesmo vetor na base B, temos que [u]B = MB←C [u]C. Prova. Consideremos a matriz de coordenadas de um vetor u do espaço vetorial em relação à base C: [u]C = ξ1 ξ2 ... ξn . Vamos obter [u]B = η1 η2 ... ηn : Inicialmente temos que u = n∑ j=1 ξjcj e que cj = n∑ i=1 αijbi. Logo u = n∑ j=1 n∑ i=1 ξjαijbi = n∑ i=1 ( n∑ j=1 αijξj)bi. Ou seja, [u]B = MB←C [u]C . � Teorema 2.92 Dadas as matrizes de mudança de base MB←C e MC←D, temos que a matriz de mudança de base MB←D é dada por MB←CMC←D. Prova. Consideremos agora, uma terceira base ordenada: D = {d1, d2, . . . , dn}. De- Victor Gonçalves Elias 2.10. LISTA DE EXERCÍCIOS 29 sejamos provar que: MB←D = MB←CMC←D. Para tanto, note que: [d1]B = MB←C [d1]C ... [dn]B = MB←C [dn]C MB←D = [ [d1]B [d2]B . . . [dn]B ] = [ MB←C [d1]C MB←C [d2]C . . . MB←C [dn]C ]⇒ ⇒MB←D = MB←C [ [d1]C [d2]C . . . [dn]C ]⇒MB←D = MB←CMC←D � Nota 2.93 A partir do Teorema 2.92 podemos notar que uma matriz de mudança de base é sempre inversível, pois MB←B = MB←CMC←B︸ ︷︷ ︸ inversa . Exemplo 2.94 Determinar as coordenadas de (1, 1, i) ∈ C3 em relação à base ordenada (1,0, 0); (0, i, 0); (1, i, 1 + i). A matriz é 1−i2−1−3i 2 1+i 2 . Exemplo 2.95 A matriz de mudança da base {1 + t, 1− t2} para uma base C do mesmo subespaço de P2(R) é: [ 1 2 2 −1 ] . Podemos determinar então a base C: C1(t) = 1(1 + t) + 2(1− t2) = 3 + t− 2t2 C2(t) = 2(1 + t)− 1(1− t2) = 1 + 2t+ t2 2.10 Lista de Exercícios Exercício 2.96 Diga quais dos subconjuntos abaixo do R3 são linearmente independentes. 1. {(1, 0, 0); (0, 1, 0); (0, 0, 1); (2, 3, 5)} 2. {(1, 1, 1); (1, 0, 1); (1, 0,−2)} 3. {(0, 0, 0); (1, 2, 3); (4, 1,−2)} 4. {(1, 1, 1); (1, 2, 1); (3, 2,−1)} Exercício 2.97 Diga quais dos subconjuntos abaixo do P4(R) são linearmente indepen- dentes. 1. {1, x− 1, x2 + 2x+ 1, x2} 2. {2x, x2 + 1, x+ 1, x2 − 1} 3. {x(x− 1), x3, 2x3 − x2, x} Victor Gonçalves Elias 30 CAPÍTULO 2. ESPAÇOS VETORIAIS 4. {x4 + x− 1, x3 − x+ 1, x2 − 1} Exercício 2.98 Demonstrar que os seguintes conjuntos são LI: 1. {1, ex, e2x} ⊂ C[0, 1] 2. {1, ex, xex} ⊂ C[0, 1] 3. {1, (x− a), (x− a)2, . . . , (x− a)n−1} ⊂ Pn−1(R), onde a é um número arbitrário. Exercício 2.99 Mostrar que o subconjunto {x1, x2, . . . , xn} de vetores de um espaço ve- torial V é LD se, e somente se, existe um inteiro k (1 ≤ k ≤ n) tal que xk é combinação linear dos demais vetores do conjunto. Exercício 2.100 Determinar m e n para que os conjuntos de vetores do R3 dados abaixo sejam LI. 1. {(3, 5m, 1); (2, 0, 4); (1,m, 3)} 2. {(1, 3, 5); (2,m+ 1, 10)} 3. {(6, 2, n); (3,m+ n,m− 1)} Exercício 2.101 Quais dos seguintes subconjuntos do C3 são LI sobre C? 1. {(i, 1, 0); (1 + i, 2, 0); (3, 1, 0)} 2. {(i, 1, 0); (0, 1, i); (0, i, i)} 3. {(i, 1, 0); (2 + i, 3i, 5− i); (2, 4 + 4i, 4− 6i)} Exercício 2.102 Sejam α1, . . . , αn números reais distintos 2 a 2. Provar que o conjunto de funções {eα1t, . . . , eαnt} é LI. Exercício 2.103 Provar que o conjunto de funções {eat cos bt, eat sin bt}, onde a e b são números reais e b 6= 0, é LI. Exercício 2.104 Dar uma base e a dimensão do subespaço W = {(x, y, z, t) ∈ R4 : x− y = y e x− 3y + t = 0} do R4. Exercício 2.105 Sendo W e U subespaços do R4 de dimensão 3, que dimensões pode ter W + U se (1, 2, 1, 0), (−1, 1, 0, 1), (1, 5, 2, 1) é um sistema de geradores de W ∩ U? Exercício 2.106 No espaço vetorial R3 consideremos os seguintes subespaços: U = {(x, y, z) : x = 0} V = {(x, y, z) : y − 2z = 0} e W = [(1, 1, 0); (0, 0, 2)] Victor Gonçalves Elias 2.10. LISTA DE EXERCÍCIOS 31 Determinar uma base e a dimensão de cada um dos seguintes subespaços: U , V , W , U ∩ V , V +W e U + V +W . Exercício 2.107 Determinar uma base e a dimensão do subespaço deM3(R) constituído das matrizes anti-simétricas. Exercício 2.108 Para que valores de a ∈ R o conjunto B = {(a, 1, 0), (1, a, 1), (0, 1, a)} é uma base de R3? Exercício 2.109 Considere o seguinte subespaço vetorial de C3: W = [(1, 0, i), (1, 1 + i, 1− i), (1,−1− i,−1 + 3i)] Determinar uma base desse subespaço. Exercício 2.110 Determinar a dimensão dos seguintes subespaços deMn(R): (a) Subespaço das matrizes simétricas; (b) Subespaço das matrizes anti-simétricas; (c) Subespaço das matrizes A tais que A = 2At; (d) Subespaço das matrizes A = (aij) tais que n∑ i=1 aij = 0. Exercício 2.111 Determinar as coordenadas do vetor u = (4,−5, 3) ∈ R3, em relação às seguintes bases: (a) canônica; (b) {(1, 1, 1); (1, 2, 0); (3, 1, 0)}; (c) {(1, 2, 1); (0, 3, 2); (1, 1, 4)}; Exercício 2.112 Determinar as coordenadas de 1 − 2i ∈ C em relação à seguinte base de C sobre R: {1− i, 1 + i}. Exercício 2.113 Determinar as coordenadas do polinômio t3 em relação à seguinte base de P3(R): {1, 2− t, t2 + 1, 1 + t+ t3}. Exercício 2.114 A matriz de mudança de base {1 + t, 1 − t2} para uma base C ambas do mesmo subespaço de P2(R) é: ( 1 2 1 −1 ) Determinar a base C. Victor Gonçalves Elias 32 CAPÍTULO 2. ESPAÇOS VETORIAIS Exercício 2.115 Considere as bases B = {e1, e2, e3} e C = {g1, g2, g3} de R3 assim relacionadas: g1 = e1 − e2 − e3 g2 = 2e2 + 3e3 g3 = 3e1 + e3 (a) Determinar as matrizes de mudança de base de B para C e de C para B. (b) Se um vetor de u de R3 apresenta coordenadas 1, 2, e 3, em relação a B, quais as coordenadas de u relativamente a C? Exercício 2.116 Seja B = {u1, . . . , un} uma base do espaço vetorial V e seja C = {u1, u1 − u2, . . . , u1 − un}. Mostrar que C é também uma base de V . Achar as matrizes de mudança de base de B para C e de C para B. Victor Gonçalves Elias 33 Capítulo 3 Produto Interno 3.1 Definição e primeiras propriedades Definição 3.1 Consideremos V um espaço vetorial sobre R. Um produto interno é uma aplicação de V×V → R (que obedece às condições de simetria, bilinearidade e positividade, dadas a seguir: 1. Simetria: 〈u, v〉 = 〈v, u〉 ,∀u, v ∈ V 2. Bilinearidade: • 〈u, v + w〉 = 〈u, v〉+ 〈u, w〉 ,∀u, v, w ∈ V • 〈u, αv〉 = α 〈u, v〉 ,∀u, v ∈ V, ∀α ∈ R 3. Positividade: 〈u, u〉 ≥ 0, ∀u ∈ V e 〈u, u〉 = 0⇔ u = ΘV Nota 3.2 Quando um espaço vetorial real possui um produto interno, dizemos que ele é um espaço euclidiano. Exemplo 3.3 Um produto interno (usual) do Rn é: u = (u1, u2, . . . , un) v = (v1, v2, . . . , vn) 〈u, v〉 = u1v1 + u2v2 + . . .+ unvn Não é difícil verificar que esta operação satisfaz as 3 exigências anteriores. Exemplo 3.4 Um produto interno usual no espaço C[a, b] é: 〈f, g〉 = ∫ b a f(x)g(x)dx. Prova. As propriedades de simetria e bilinearidade são de verificação imediata. Veja- mos a positividade: 〈f, f〉 = ∫ b a f 2(x) ≥0 dx ≥ 0 E se 〈f, f〉 = 0, então f(x) ≡ 0. De fato, suponha que ∃x0 ∈ [a, b] em que f 2(x0) > 0. Pelo Teorema da Conservação do Sinal, f 2(x) > 0 numa vizinhança V de x0. Victor Gonçalves Elias 34 CAPÍTULO 3. PRODUTO INTERNO ∫ b a f 2(x)dx = ∫ V f 2(x)dx ︸ ︷︷ ︸ >0 + ∫ [a,b]\V f 2(x)dx ︸ ︷︷ ︸ ≥0 > 0 O que contraria nossa hipótese. Portanto, f(x) ≡ 0, e o produto interno em questão satisfaz a condição de bilinearidade. � Proposição 3.5 Seja um produto interno do espaço vetorial V , satisfazendo as 3 exi- gências da Definição 3.1. Temos que: 1. 〈ΘV , u〉 = 〈u, ΘV 〉 = 0,∀u ∈ V (note que ΘV = 0u) 2. 〈αu, v〉 = α 〈u, v〉 , ∀u, v ∈ V, ∀α ∈ R 〈u+ v, w〉 = 〈u, w〉+ 〈v, w〉 ,∀u, v, w ∈ V 3. 〈 n∑ i=1 αiui, v 〉 = n∑ i=1 αi 〈ui, v〉 ,∀ui, v ∈ V, ∀αi ∈ R〈 u, n∑ j=1 βjvj 〉 = n∑ j=1 βj 〈u, vj〉 ,∀u, vj ∈ V, ∀βj ∈ R 4. 〈 n∑ i=1 αiui, n∑ j=1 βjvj 〉 = n∑ i=1 n∑ j=1 αiβj 〈ui, vj〉 ,∀ui, vj ∈ V, ∀αi, βj ∈ R Teorema 3.6 (Desigualdade de Cauchy-Schwarz): Para quaisquer dois vetores de um espaço euclidiano, tem-se: 〈u, v〉2 ≤ 〈u, u〉 〈v, v〉 e, além disso, a igualdade é válida se, e somente se, {u, v} é LD. Prova. Se v = ΘV , então a prova é imediata. Se v 6= ΘV , considerando o vetor: w = u− v 〈u, v〉〈v, v〉 Como 〈w, w〉 ≥ 0 segue a desigualdade. � 3.2 Norma e Distância Definição 3.7 Uma função mede a distância entre dois elementos de um conjunto E quando: 1. d(x, x) = 0 e d(x, y) > 0 se x 6= y 2. d(x, y) = d(y, x) 3. d(x, y) ≤ d(x, z) + d(z, y) Esta função é conhecida como métrica. Victor Gonçalves Elias 3.2. NORMA E DISTÂNCIA 35 Nota 3.8 Um espaço vetorial munido de uma métrica é chamado de espaço métrico. Definição 3.9 Há outra função, a norma, que mede o comprimento de um vetor. A norma é uma função que obedece à: 1. ‖ΘV ‖ = 0 e ‖u‖ > 0 se u 6= ΘV 2. ‖λu‖ = |λ| ‖u‖ 3. ‖u+ v‖ ≤ ‖u‖+ ‖v‖ Nota 3.10 É possível provar que uma norma sempre induz uma métrica d(u, v) = ‖u− v‖ . Nota 3.11 No caso do produto interno, temos a seguinte norma: ‖u‖ = √〈u, u〉. Nesse caso também é possível definir a distância entre dois vetores de V : d(u, v) = ‖u− v‖ =√〈u− v, u− v〉. Definição 3.12 Podemos definir um ângulo entre dois vetores usando o produto interno. Da desigualdade de Cauchy-Schwarz: −‖u‖ ‖v‖ ≤ 〈u, v〉 ≤ ‖u‖ ‖v‖ . Assim, paraquais- quer vetores não nulos: −1 ≤ 〈u, v〉‖u‖ ‖v‖ ≤ 1 Sendo possível associar um ângulo θ ∈ [0, pi] tal que cos θ = 〈u, v〉‖u‖‖v‖ . θ é chamado de ângulo entre os vetores u e v. Exemplo 3.13 O ângulo entre as matrizes A = [ −1 2 3 0 ] e B = [ 2 0 0 −3 ] conside- rando o produto interno usual 〈A, B〉 = tr(AtB) = tr(ABt) = tr(BtA) = tr(BAt) = n∑ i=1 m∑ j=1 aijbij é: arccos(−1/91). Teorema 3.14 Dois vetores u e v não nulos são LD se, e somente se, θ = 0 ou θ = pi (i.e., se vale a igualdade na desigualdade de Cauchy-Schwarz). Prova. (⇒) Como ∃α, β 6= 0 tal que αu+ βv = ΘV , temos que v = −αβu. Então: cos θ = 〈u, v〉‖u‖‖v‖ = 〈u,−αβ u〉 ‖u‖‖−αβ u‖ = −α β 〈u, u〉 |αβ |‖u‖2 = −α β |αβ | cos θ = ±1 θ = 0 ou pi (⇐) Como θ = 0 ou θ = pi, cos θ = ±1. Caso ‖u‖ = 0 ou ‖v‖ = 0, os dois vetores já são LD trivialmente. Considerando então o caso em que ‖u‖ 6= 0 e ‖v‖ 6= 0. Tomamos αu+ βv = ΘV e fazemos o produto interno dos dois lados da equação por u. Assim: Victor Gonçalves Elias 36 CAPÍTULO 3. PRODUTO INTERNO α 〈u, u〉 = −β 〈u, v〉 ∴ α ‖u‖2 = −β 〈u, v〉 , como ‖u‖ 6= 0‖v‖ 6= 0 ⇒ α ‖u‖ ‖v‖ = −β 〈u, v〉 ‖u‖ ‖v‖︸ ︷︷ ︸ cos θ=±1 α = ± ‖v‖‖u‖β Portanto, o problema αu + βv = ΘV admite uma solução não trivial, i.e. u e v são LD. � 3.3 Lista de Exercícios Exercício 3.15 Sejam u = (x1, x2) e v = (y1, y2) vetores genéricos do R2. Para que valores de t ∈ R a função 〈u, v〉 = x1y1 + tx2y2 é um produto interno sobre o R2? Exercício 3.16 Mostrar que se 〈u, v〉 = 0, para todo vetor v, então u = Θ. Exercício 3.17 No espaço V = P3(R) consideremos o produto interno 〈f(t), g(t)〉 =∫ 1 0 f(t)g(t)dt. Calcular 〈f(t), g(t)〉, ||f(t)||, ||g(t)|| e ||f(t) + g(t)|| quando f(t) = t3 − 1 − 1 e g(t) = t2 + 1. Repita o exercício com f(t) = 2 e g(t) = t3 + t+ 1 Exercício 3.18 Sejam f(t) = a0 +a1t+ ...+antn e g(t) = b0 + b1t+ ...+ bntn polinômios quaisquer de Pn(R). A função (f(t), g(t)) → a0b0 + a1b1 + ... + anbn ∈ R é um produto interno no espaço Pn(R)? Exercício 3.19 Seja V um espaço vetorial euclideano. Dada uma base {e1, ..., en} de V definamos A = (aij) ∈Mn(R) por aij = 〈ei, ej〉 (i, j = 1, ..., n). 1. Provar que A é uma matriz simétrica. 2. Mostrar que se u = ∑n i=1 xiei e v = ∑n i=1 yiei, então o produto escalar em V pode ser expresso na forma matricial seguinte: 〈u, v〉 = (x1 x2 ... xn)A(y1 y2 ... yn)t. Exercício 3.20 Seja V um espaço euclideano com produto interno 〈u, v〉. Para que valores de α ∈ R a aplicação : (u, v)→ α 〈u, v〉 também é um produto interno sobre V ? Exercício 3.21 Chama-se traço de uma matriz A = (aij) quadrada de ordem n a soma dos termos da sua diagonal principal (tr(A) = a11 +a22 + ...+ann). Sendo V =Mm×n(R), mostre que 〈A, B〉 = tr(ABt) define um produto interno sobre V . Victor Gonçalves Elias 3.3. LISTA DE EXERCÍCIOS 37 Exercício 3.22 Sejam u e v dois vetores não nulos de um espaço vetorial euclideano. Sendo θ o ângulo de u e v, mostrar que ||u + v|| = ||u||2 + ||v||2 + 2||u||||v|| cos θ. (Esta igualdade é conhecida como lei dos cossenos na geometria elementar.) Exercício 3.23 Seja u = (x1, x2) e v = (y1, y2) vetores genéricos do R2 e M = [ a11 a12 a21 a22 ] ∈M2(R) Definamos 〈u, v〉 = a11x1y1 + a12x1y2 + a21x2y1 + a22x2y2. 1. Mostrar que o produto assim definido satisfaz as duas primeiras condições da defi- nição de produto interno: 〈u+ v, w〉 = 〈u, w〉+ 〈v, w〉 e 〈αu, v〉 = α 〈u, v〉. 2. Mostrar que a condição 〈u, v〉 = 〈v, u〉 ,∀u, v ∈ R2 é válida se, e seomente se, M é uma matriz simétrica. 3. Qual matriz M que leva ao produto interno usual do R2? 4. Quais das seguintes matrizes define produtos internos do R2 segundo a definição de 〈u, v〉 que foi dada acima: [ 2 1 1 1 ] , [ −1 0 1 0 ] , [ 1 1 1 1 ] . Exercício 3.24 Use a desigualdade de Cauchy-Schwarz no espaço euclideano R3 (produto interno usual) para mostar que, dados os números reais estritamente positivos a1, a2ea3, vale a desigualdade: (a1 + a2 + a3) ( 1 a1 + 1 a2 + 1 a3 ) ≥ 9 Exercício 3.25 Sendo a, b e c números reiais estritamente positivos tais que a+b+c = 1, utilize a desigualdade de Cauchy-Schwarz no R3 para provar que:( 1 a − 1 )( 1 b − 1 )( 1 c − 1 ) ≥ 8 Exercício 3.26 Encontrar a distância de u a v e o cosseno do ângulo entre u e v nos seguintes casos: 1. u = (1, 1, 1, 1) e v = (0, 0, 1, 1) com o produto interno usual do R4; 2. u = 1 + t− t2 e v = 3t2 com o produto interno 〈f(t), g(t)〉 = ∫ 1 0 f(t)g(t)dt; 3. A = [ 1 1 0 0 ] e [ 0 1 1 0 ] com o produto interno 〈A, B〉 = tr(ABt) Victor Gonçalves Elias 38 CAPÍTULO 3. PRODUTO INTERNO Exercício 3.27 Sejam u e v vetores de um espaço vetorial euclideano. Prove que 〈u, v〉 = 0, se, e somente se, ||u+ αv|| ≥ ||u||,∀α ∈ R. Exercício 3.28 Seja f : R → R∗+ uma função contínua e periódica. Mostre que, para todo α real, vale a desigualdade: ∫ T 0 f(x) f(x+ α) dx ≥ T, onde T é o período da função. 3.4 Ortogonalidade Uma vez definido o ângulo θ entre vetores, é imediato extender o conceito de ortogonali- dade já aprendido em geometria. Dizemos, assim, que dois vetores são ortogonais quando o ângulo entre eles é pi/2, ou, de forma equivalente, quando 〈u, v〉 = 0. Definição 3.29 Um conjunto de vetores S = {u1, u2, . . . , un} é dito ser ortonormal quando: • Todos os vetores de S tiverem norma unitária ‖ui‖ = 1, i = 1, . . . , n. • Quaisquer dois vetores distintos de S forem ortogonais. De modo compacto, isso pode ser escrito como 〈ui, uj〉 = δij, onde δij é o delta de Kronecker, definido como δij = { 1, i = j 0, i 6= j . Exemplo 3.30 O conjunto S = 10 0 , 01 0 , 00 1 é ortonormal, considerando-se o produto interno usual. Exemplo 3.31 A base canônica do Rn é uma base ortonormal, considerando-se o produto interno usual. Trabalhar com bases ortonormais (isto é, bases que são conjuntos ortonormais) facilita muito o trabalho de decompor um vetor do espaço em termos dos vetores da base. Teorema 3.32 Todo conjunto ortonormal S = {u1, u2, . . . , um} é LI. Prova. α1u1 + α2u2 + . . .+ αmum = ΘV α1 〈u1, u1〉+ α2 〈u2, u1〉︸ ︷︷ ︸ 0 + . . .+ αm 〈um, u1〉︸ ︷︷ ︸ 0 = 〈ΘV , u1〉︸ ︷︷ ︸ 0 α1 = 0 De forma análoga, αj = 0, j = 2, . . . ,m. Logo, S é LI. � Victor Gonçalves Elias 3.4. ORTOGONALIDADE 39 Teorema 3.33 Seja S = {u1, u2, . . . , um} um conjunto ortonormal. Então para qualquer v do EV, o vetor w = v − 〈v, u1〉u1 − 〈v, u2〉u2 − . . . − 〈v, um〉um é ortonormal a todo vetor de [S]. Prova. 〈w, uj〉 = 〈v, uj〉 − m∑ i=1 〈v, ui〉 〈ui, uj〉︸ ︷︷ ︸ 0,∀i 6=j 〈w, uj〉 = 〈v, uj〉 − 〈v, uj〉 = 0 Logo, é fácil perceber que 〈 w, m∑ j=1 αjuj 〉 = m∑ j=1 αj 〈w, uj〉 = 0. � Teorema 3.34 (Processo de Ortonormalização de Gram-Schmidt): Todo espaço vetorial euclidiano finitamente gerado com dimensão não nula admite uma base ortonor- mal. Prova. Consiste em expor um processo de ortonormalização de bases. Seja, pois, B = {v1, v2, . . . vn} uma base do espaço. Definimos u1 = v1‖v1‖ e com isso ‖u1‖ = 1. Seja, agora, w2 = v2 − 〈v2, u1〉u1. Assim 〈w2, u1〉 = 0 e fazemos u2 = w2‖w2‖ . Com isso, {u1, u2} é ortonormal. Tomando w3 = v3−〈v3, u1〉u1−〈v3, u2〉u2. Temos 〈w3, u1〉 = 〈w3, u2〉 = 0 e fazemos u3 = w3‖w3‖ . {u1, u2, u3} é ortonormal e o processo se repete de modo análogo. � ‘ Exemplo 3.35 Obtendo uma base ortonormal a partir de B = {(1, 1, 0); (0, 1, 0); (0, 0, 1)}. u1 = (1,1,0) ‖(1,1,0)‖ = ( 1√ 2 , 1√ 2 , 0 ) w2 = (0, 1, 0)− 〈( 1√ 2 , 1√ 2 , 0 ) , (0, 1, 0) 〉( 1√ 2 , 1√ 2 , 0 ) = (−1 2 , 1 2 , 0 )⇒ ⇒ u2 = w2‖w2‖ = ( − 1√ 2 , 1√ 2 , 0 ) w3 = (0, 0, 1)− 〈( 1√ 2 , 1√ 2 , 0 ) , (0, 0, 1) 〉( 1√ 2 , 1√ 2 , 0 ) =0 − 〈( − 1√ 2 , 1√ 2 , 0 ) , (0, 0, 1) 〉( − 1√ 2 ,1√ 2 , 0 ) =0 ∴ w3 = (0, 0, 1)⇒ u3 = w3‖w3‖ = (0, 0, 1) Assim, uma base ortonormal a partir de B será {( 1√ 2 , 1√ 2 , 0 ) ; ( − 1√ 2 , 1√ 2 , 0 ) ; (0, 0, 1) } . Exemplo 3.36 Seja B uma base ortonormal. Então qualquer vetor do espaço se escreve como v = 〈v, b1〉 b1 + . . .+ 〈v, bn〉 bn onde B = {b1, . . . , bn}. Prova. Como B é base, qualquer vetor do espaço se escreve como v = α1b1+. . .+αnbn. Assim, 〈v, bj〉 = n∑ i=1 αi 〈bi, bj〉 = αj. � Victor Gonçalves Elias 40 CAPÍTULO 3. PRODUTO INTERNO Teorema 3.37 A matriz de mudança de base entre duas bases ortonormais é uma matriz ortogonal. Prova. Sejam B = {b1, b2, . . . , bn} e C = {c1, c2, . . . , cn} duas bases ortonormais. Fazendo: cj = n∑ k=1 αkjbk ⇒MB←C = α11 α12 · · · α1n α21 α22 · · · α2n ... ... . . . ... αn1 αn2 · · · αnn (3.1) E também: bj = n∑ k=1 βijci ⇒MC←B = β11 β12 · · · β1n β21 β22 · · · β2n ... ... . . . ... βn1 βn2 · · · βnn (3.2) Já vimos que MB←CMC←B = I. Por (3.1), como B é ortonormal: αkj = 〈bk, cj〉. Por (3.2), como C é ortonormal: βij = 〈bj, ci〉. Ou seja, αji = βij, portanto: MC←B = MB←Ct ⇒MB←C−1 = MB←Ct, ou seja, MB←C é ortogonal. � Teorema 3.38 (Fatoração QR): Dada uma matriz Am×n, com colunas LI, é possível encontrar uma matriz Qm×n com colunas ortonormais e uma matriz Rn×n triangular superior, inversível, de modo que A = QR. Exemplo 3.39 Seja a matriz A = 0 2 30 3 2 2 0 1 . Obteremos a fatoração QR. Para isso basta considerarmos os vetores formados pelas colunas de A, e aplicar o processo de or- tonormalização de Gram-Schmidt. v1 = (0, 0, 2)⇒ u1 = (0, 0, 1)⇒ v1 = 2u1 v2 = (2, 3, 0)⇒ u2 = ( 2√ 13 , 3√ 13 , 0 ) ⇒ v2 = √ 13u2 v3 = (3, 2, 1)⇒ u3 = ( 3√ 13 ,− 2√ 13 , 0 ) ⇒ v3 = u1 + 12√13u2 + 5√13u3 A = 0 2√13 3√130 3√ 13 − 2√ 13 1 0 0 2 0 10 √13 12√ 13 0 0 5√ 13 Exemplo 3.40 A fatoração QR da matriz A = 1 1 1 0 1 1 2 4 1 2 0 3 é: A = 1 3 0 0 0 1 3 4 18 2 3 2 3 − 1 18 2 3 −2 3 1 18 3 3 30 3 −1 0 0 6 Victor Gonçalves Elias 3.4. ORTOGONALIDADE 41 . 3.4.1 Complemento Ortogonal Definição 3.41 Dado um subconjunto U de um espaço vetorial V munido do produto interno, definimos seu complemento ortogonal U⊥ como o conjunto de todos os vetores de V que são ortogonais aos vetores de U : U⊥ = {w ∈ V : 〈w, u〉 = 0, ∀u ∈ U}. O conjunto U⊥ é um subespaço vetorial, pois: 1. ∀u ∈ U, 〈ΘV , u〉 = 0⇒ ΘV ∈ U⊥ 2. ∀u ∈ U,∀v1, v2 ∈ V, ∀α ∈ R ⇒ 〈αv1 + v2, u〉 = α 〈v1, u〉︸ ︷︷ ︸ =0,v1∈U⊥ + 〈v2, u〉︸ ︷︷ ︸ =0,v2∈U⊥ = 0 ⇒ αv1 + v2 ∈ U⊥ Teorema 3.42 Dado um espaço vetorial V euclidiano de dimensão finita e um subespaço U ⊂ V , então V = U ⊕ U⊥. Prova. Seja B uma base de U . Se B = ∅, a prova é imediata. Caso contrário, tomando-se B ortonormal, tem-se que ∀v ∈ V, ∃w ∈ V,w = v−〈v, b1〉 b1− . . .−〈v, bn〉 bn tal que w é um vetor normal a todo vetor u ∈ U (Teorema 3.33). Logo w ∈ U⊥. Assim é fácil ver que v = w + 〈v, b1〉 b1 + . . .+ 〈v, bn〉 bn︸ ︷︷ ︸ ∈U ⇒ v = w ∈U⊥ + u ∈U ⇒ V = U + U⊥. Por outro lado, se v ∈ U ∩U⊥ então v é ortogonal a si mesmo, ou seja, 〈v, v〉 = 0⇒ v = ΘV . Ou seja, U ∩ U⊥ = {ΘV } ⇒ V = U ⊕ U⊥. � Exemplo 3.43 No caso em que V = R3 e U = {(x, y, 0) ∈ R3 : x, y ∈ R} temos que U⊥ = {(0, 0, z) ∈ R3 : z ∈ R}. 3.4.2 Teorema da Projeção Consideremos o seguinte problema: dado um vetor v pertencente a V , devemos aproximá- lo a um vetor u do subespaço U , de forma a minimizar o erro cometido pela aproximação. Para isso usamos o teorema da projeção, visto a seguir. Teorema 3.44 (Teorema da Projeção): Seja v ∈ V e seja U um subespaço de V . De todos os elementos de U , aquele que minimiza ‖v − u‖2, u ∈ U é a projeção de v em U (denotada por projUv = vU). Prova. Consideremos v ∈ V . Como V = U ⊕ U⊥, v pode ser escrito de forma única Victor Gonçalves Elias 42 CAPÍTULO 3. PRODUTO INTERNO como v = vU ∈U + w ∈U⊥ . Sendo u um vetor qualquer do subespaço U : ‖v − u‖2 = 〈v − u, v − u〉 = 〈vU − u+ w, vU − u+ w〉 = 〈vU − u, vU − u〉+ 2 〈vU − u, w〉︸ ︷︷ ︸ 0, pois w∈U⊥ + 〈w, w〉 = ‖vU − u‖2 + ‖w‖2 > ‖w‖2, ou = ‖w‖2 ⇔ u = vU � Exemplo 3.45 (Série de Fourier): Seja V = C[0, 2pi] com o produto interno definido por 〈f, g〉 = ∫ 2pi 0 f(x)g(x)W (x)︸ ︷︷ ︸ ≡1 dx. Definamos nesse espaço o conjunto ortonormal B ={ 1√ 2pi , sinx√ pi , cosx√ pi , sin 2x√ pi , cos 2x√ pi , . . . , sinmx√ pi , cosmx√ pi } . Dada uma função f ∈ V , obtenhamos sua melhor aproximação em termos das funções de U = [B]. Seja B = {ϕ0, ϕ1, . . . , ϕ2m}. A projeção de f em U é: projUf = fU = 〈f, ϕ0〉ϕ0 + 〈f, ϕ1〉ϕ1 + . . .+ 〈f, ϕ2m〉ϕ2m . Definamos agora: a0 = 1 pi ∫ 2pi 0 f(x)dx ak = 1 pi ∫ 2pi 0 f(x) cos(kx)dx bk = 1 pi ∫ 2pi 0 f(x) sin(kx)dx Temos então que: 〈f, ϕ0〉 = 1√2pi ∫ 2pi 0 f(x)dx = a0 √ pi√ 2 〈f, ϕ1〉 = 1√pi ∫ 2pi 0 f(x) sinxdx = b1 √ pi 〈f, ϕ2〉 = 1√pi ∫ 2pi 0 f(x) cosxdx = a1 √ pi fU(x) = a0 2 + b1 sinx+ a1 cosx+ . . .+ bm sin(mx) + am cos(mx) fU(x) = a0 2 + m∑ k=1 (bk sin kx+ ak cos kx) Para m → ∞, a expressão anterior dá origem à série de Fourier (alvo de estudo de MAT-42). Exemplo 3.46 (Método dos Mínimos Quadrados): Consideremos um experimento no qual foram realizadas N medidas Xi e Yi, i = 1, . . . , n. æ æ æ æ æ æ æ æ æ æ æ æ 2 4 6 8 10 12 2 4 6 8 10 12 Victor Gonçalves Elias 3.4. ORTOGONALIDADE 43 Desejamos ajustar os pontos para uma reta, isto é, desejamos obter a e b de modo que y(x) = ax + b seja uma boa aproximação para o conjunto de pontos experimentais. Para tanto, para cada ponto (Xi, Yi) definimos um desvio δi = Yi− (aXi + b) e definimos o erro de ajuste como E = n∑ i=1 δi 2 = n∑ i=1 [Yi − (aXi + b)]2. Definimos Y = Y1 Y2 ... Yn , X = X1 X2 ... Xn , W = 1 1 ... 1 ∴ E = ‖Y − aX − bW‖2. Caso todos os pontos estivessem alinhados, seria possível conseguirmos E = 0, e para achar a e b bastaria resolvermos o sistema M [ a b ] = Y , onde M = X1 1 X2 1 ... ... Xn 1 = [ X W ] . Como os pontos não estão alinhados, precisamos minimizar E. Para isso, usando o teorema da projeção com v = Y e u = aX + bW , basta projetar Y no subespaço gerado por {X,W}, de modo que aX + bW = proj[X,W ]Y , e assim Y − aX − bW ∈ [X,W ]⊥, portanto: 〈Y − aX − bW, X〉 = 0 〈Y − aX − bW, W 〉 = 0 Desenvolvendo o sistema ficamos com: { a 〈X, X〉+ b 〈X, W 〉 = 〈X, Y 〉 a 〈X, W 〉+ b 〈W, W 〉 = 〈W, Y 〉 ⇒ [ 〈X, X〉 〈X, W 〉 〈X, W 〉 〈W, W 〉 ] [ a b ] = [ 〈X, Y 〉 〈W, Y 〉 ] (3.3) A partir do sistema inicial M [ a b ] = Y , temos que o que foi obtido em (3.3) seria o mesmo caso tivéssemos feito: M tM [ a b ] = M tY , pois temos que: M tM = [ X1 · · · Xn 1 · · · 1 ] X1 1... ... Xn 1 = n∑ i=1 Xi 2 n∑ i=1 1Xi n∑ i=1 1Xi n∑ i=1 12 = [ 〈X, X〉 〈X, W 〉〈X, W 〉 〈W, W 〉 ] M tY = [ X1 · · · Xn 1 · · · 1 ] Y1... Yn = n∑ i=1 XiYi n∑ i=1 1Yi = [ 〈X, Y 〉〈W, Y 〉 ] Para resolver essa equação mais facilmente, basta fazer a fatoração QR de M : M = Victor Gonçalves Elias 44 CAPÍTULO 3. PRODUTO INTERNO QR. (RtQtQ︸︷︷︸ I R) [ a b ] = RtQtY (RtR) [ a b ] = (RtQt)Y R [ a b ] = QtY Em que R é uma matriz escalonada, ficando a resolução do sistema imediata. 3.5 Produto Interno para Espaços Vetoriais Complexos São inúmeros exemplos de espaços vetoriais complexos de utilidade prática: o uso de C3 para representar campos eletromagnéticos ( ⇀ E e ⇀ H) e o conjuntode funções complexas na mecânica quântica são apenas alguns exemplos. Vejamos então, como a definição de produto interno fica estabelecida nesses casos. Definição 3.47 Seja V um espaço vetorial complexo. Um produto interno é uma aplica- ção de V × V → C (que a cada par u, v ∈ V associa um número complexo 〈u, v〉) que obedece às seguintes condições: 1. Simetria hermitiana: 〈u, v〉 = 〈v, u〉∗, ∀u, v ∈ V 2. Bilinearidade: 〈u, v + w〉 = 〈u, v〉+ 〈u, w〉 ,∀u, v, w ∈ V 〈u, αv〉 = α 〈u, v〉 ,∀u, v ∈ V, ∀α ∈ C 3. Positividade: 〈u, u〉 ≥ 0,∀u ∈ V 〈u, u〉 = 0⇔ u = ΘV Nota 3.48 Para produtos internos complexos, costuma-se usar a notação bra-ket 〈u, v〉 = 〈u | v〉. Ela é muito usada para descrever estados quânticos na mecânica quântica. Leva esse nome pois pode ser representada como o produto de duas partes diferentes: o bra, que é o complexo conjugado da transposta da matriz coluna do vetor 〈u| = [ u∗1 u∗2 · · · u∗n ]; e o ket, que é o vetor representado na forma de uma matriz coluna |v〉 = v1 v2 ... vn . Foi introduzida por Paul Dirac, e também é conhecida como notação de Dirac. Nota 3.49 Um espaço vetorial complexo com produto interno é também chamado de espaço hermitiano. Nota 3.50 〈αu | v〉 = α∗ 〈u | v〉 , ∀u, v ∈ V, ∀α ∈ C Victor Gonçalves Elias 3.6. LISTA DE EXERCÍCIOS 45 Exemplo 3.51 O produto interno usual do Cn é 〈u | v〉 = u1∗v1 + u2∗v2 + . . . + un∗vn, dado u = (u1, u2, . . . , un) e v = (v1, v2, . . . , vn). Exemplo 3.52 O produto interno usual de funções contínuas f : [a, b]→ C é: 〈f | g〉 = ∫ b a f ∗(x)g(x)dx . 3.6 Lista de Exercícios Exercício 3.53 Considere no R2 o produto interno dado por 〈u, v〉 = x1y1 + 2x2y2 − x1y2 − x2y1 para todos os vetores u = (x1, y1) e v = (x2, y2) de R2. 1. Determinar m a fim de que os vetores (1 +m, 2) e (3,m− 1) sejam ortogonais. 2. Determinar todos os vetores do R2 ortogonais a (2, 1). 3. Determinar todos os vetores (m,m− 1) de norma igual a 1. Exercício 3.54 Determinar todos os vetores do R2 de normas iguais a 2 que sejam or- togonais simultaneamente a (2, 1, 2) e (−1, 3, 4). Exercício 3.55 Determinar uma base ortonormal de cada um dos seguintes sub-espaços do R4 utilizando o porcesso de Grahm-Schmidt: 1. W = [(1, 1, 0, 0), (0, 1, 2, 0), (0, 0, 3, 4)] 2. W = [(2, 0, 0, 0), (1, 3, 3, 0), (3,−3,−3, 0)] Exercício 3.56 Determinar uma base ortonormal do sub-espaço W de R3 dado por W = {(x, y, z) ∈ R3 | x− y = 0}. Exercício 3.57 Seja {g1, ..., gn} um subconjunto de um espaço euclideano V cujos vetores são ortogonais dois a dois. Prove que ||∑ni=1 gi||2 = ∑ni=1 ||gi||2(teorema de Pitágoras generalizado). Exercício 3.58 Em P2(R) com produto interno definido por: 〈f(t), g(t)〉 = ∫ 1 0 f(t)g(t)dt 1. Ortonormalize a base {1, 1 + t, 2t2}; 2. Achar o complemento ortogonal do sub-espaço W = [5, 1 + t]. Victor Gonçalves Elias 46 CAPÍTULO 3. PRODUTO INTERNO Exercício 3.59 Determinar um vetor unitário do R3 que seja ortogonal a todos os vetores do sub-espaço W = [(1, 2,−1), (−1, 0, 2)]. Exercício 3.60 Determinar a projeção ortogonal do vetor (1, 1, 0, 1) ∈ R4 sobre o sub- espaço W = {(x, y, z, t) ∈ R4 | x− y − z = 0 e z − 2t = 0}. Exercício 3.61 Sejam u e v vetores linearmente independentes do R3. Mostrar que exis- tem dois, e apenas dois, vetores de norma igual a 1 que são ortogonais simultaneamente a u e v. Exercício 3.62 Resolva Ax = b utilizando o método dos mínimos quadrados: A = 1 00 1 1 1 b = 11 0 . Exercício 3.63 Encontre o quarto polinômio de Legendre. Ele é uma expressão cúbica 5 2 x3 + ax2 + bx+ c ortogonal a 1, x, 1 2 (3x2 − 1) no intervalo −1 ≤ x ≤ 1. Exercício 3.64 Encontre as funções f(x) mais próximas da função g(x) = sin(2x) no intervalo [−pi, pi], considerando: 1. f(x) = a cosx+ b sinx. 2. f(x) = c+ dx. Exercício 3.65 Expresse a matriz A como o produto de duas matrizes QR, de modo que QTQ = I e R seja uma matriz triangular superior. 1. A = 1 1 01 0 1 0 1 1 . 2. A = 3 14 1 0 1 . Exercício 3.66 Prove as seguintes desigualdades: 1. Se A é uma matriz real n×n formada pelas matrizes coluna u1, u2, . . . , un, de modo que A = [ u1 u2 . . . un ] , então: | det(A)| ≤ ||u1||||u2|| . . . ||un||, sendo ||uj|| = √ uTj uj. Victor Gonçalves Elias 3.6. LISTA DE EXERCÍCIOS 47 2. Se A é uma matriz real n× n cujos elementos são em módulo iguais a 1, então: | det(A)| ≤ nn/2. Exercício 3.67 Em R4, sejam W = [(3, 2,−3,−1); (2, 0,−2,−2); (1,−1,−1,−2)] e v = (1, 2, 2,−1). Obter a projeção ortogonal de v em W e a projeção ortogonal de v em W⊥, considerando o produto interno usual. Exercício 3.68 Considere as operações de adição e multiplicação por escalar usuais em cada espaço vetorial abaixo. 1. Se α, β ∈ C, verifique se 〈α, β〉 = α∗β (produto de números complexos) define um produto interno em C espaço vetorial sobre o corpo C. Notação: z∗ é o complexo conjugado de z. 2. Se (a + ib), (c + id) ∈ C, mostre que 〈a+ ib, c+ id〉 = ac + bd define um produto interno em C espaço vetorial sobre o corpo R. 3. Se (z1, z2); (w1, w2) ∈ C2,verifique se 〈(z1, z2), (w1, w2)〉 = z∗1w1 + z∗2w2 define um produto interno em C2 espaço vetorial sobre o corpo C. Exercício 3.69 Seja V = C[0, 1] com o produto interno 〈f, g〉 = 1∫ 0 f(t) g(t) dt. Se g(t) = √ t e h(t) = et, determine as projeções ortogonais de g e h sobre P2(R). Exercício 3.70 Seja V = C[−pi, pi] com o produto interno 〈f, g〉 = pi∫ −pi f(t) g(t) dt. 1. Mostre que, com relação a este produto interno, o conjunto S = {sin(t), sin(2t), . . . , sin(kt)}, k ∈ N, é ortogonal. 2. Se W = [S] e f(t) = cos(mt),m ∈ N, obtenha a projeção ortogonal de f sobre W. Exercício 3.71 Seja V = C[0, 2pi] com o produto interno 〈f, g〉 = 2pi∫ 0 f(t) g(t) dt. 1. Mostre que, com relação a este produto interno, o conjunto S∞ = {u0(x), u1(x), u2(x), ...}, onde u0(x) = 1, u2k−1(x) = sin(kx), u2k(x) = cos(kx), k ∈ N, é ortogonal. 2. Ortonormalize S2n = {u0(x), ..., u2n(x)}. 3. Mostre que a melhor aproximação de f ∈ C[0, 2pi] em [S2n] é dada por: 1 2 a0 + n∑ k=1 (ak cos(kx) + bk sin(kx)) , onde ak = 1pi 2pi∫ 0 f(x) cos(kx)dx e bk = 1pi 2pi∫ 0 f(x) sin(kx)dx . Victor Gonçalves Elias 48 CAPÍTULO 3. PRODUTO INTERNO Exercício 3.72 Considere os vetores de C3 (espaço vetorial sobre C): ψ = iφ1 + 3iφ2 − φ3 χ = φ1 − iφ2 + 5iφ3, onde {φ1, φ2, φ3} é uma base ortonormal de C3. 1. Calcule 〈ψ | χ〉, 〈χ | ψ〉, 〈ψ | ψ〉 e 〈χ | χ〉. 2. A partir do resultado anterior, deduza 〈ψ + χ | ψ + χ〉. Exercício 3.73 Obtenha uma base ortonormal de C3 (espaço vetorial sobre C) a partir da base (i, i, 1 + i), (1, i, 0), (1,−i, 0). Exercício 3.74 Sejam U e V sub-epaços vetoriais de um espaço euclideano de dimensão finita. Provar que (U ∩ V )⊥ = U⊥ + V ⊥. Exercício 3.75 Considere os seguintes vetores do R3: u = (2, 2, 2) e v = (3, 3, 1). 1. Determinar dois vetores v1 e v2, tais que v = v1 + v2; v é ortogonal a u e v2 = λu (λ ∈ R). 2. Se w = (−5, 1,−1) decompor v em uma parcela W = [u,w] e uma parcela de W⊥. 3. Determinar uma base ortonormal de W . Exercício 3.76 Mostrar que a matriz de mudança de base de um espaço euclideano de dimensão finita é uma matriz ortogonal. Victor Gonçalves Elias 49 Capítulo 4 Transformações Lineares O conceito de transformação linear, juntamente com o conceito de matrizes, são os mais básicos da Álgebra Linear. As transformações lineares, pela simplicidade – e ao mesmo tempo rijeza – de suas exigências, possuem propriedades bastante interessantes do ponto de vista prático. Definição 4.1 Sejam U e V dois espaços vetoriais sobre um corpo K. Uma aplicação T : U → V é dita ser uma transformação linear, quando respeitar duas condições: 1. T (u1 + u2) = T (u1) + T (u2),∀u1, u2 ∈ U 2. T (αu) = αT (u),∀u ∈ U,∀α ∈ K Nota 4.2 No caso em que U = V , uma transformação linearde T : U → U é também chamada de operador linear. Exemplo 4.3 A transformação nula O : U → V , O(u) = Θ, ∀u ∈ U é linear. Exemplo 4.4 O operador identidade I : U → U , I(u) = u é linear. Exemplo 4.5 A transformação T : C[a, b]→ R, T (f) = ∫ b a f(x)dx é linear. Exemplo 4.6 A transformação D : Pn(R) → Pn(R), Dp(x) = p′(x) é um operador linear. Exemplo 4.7 A transformada de Laplace L[f ](s) = ∫∞ 0 e−stf(t)dt é linear. Exemplo 4.8 A transformação T : R2 → R, T (x, y) = αx + βy, α e β reais fixados, é linear. Veremos a seguir algumas propriedades oriundas diretamente da definição de trans- formação linear, mas que não podem ser enxergadas imediatamente. Victor Gonçalves Elias 50 CAPÍTULO 4. TRANSFORMAÇÕES LINEARES Proposição 4.9 Seja uma transformação linear T : U → V satisfazendo as condições da Definição 4.1, temos que: 1. T (ΘU) = ΘV 2. T (−u) = −T (u) 3. T (u1 − u2) = T (u1)− T (u2) 4. T ( n∑ i=1 αiui ) = n∑ i=1 αiT (ui) 5. Se W é subespaço de U , então T (W ) é subespaço de V . Prova. As 4 primeiras proposições são consequência direta da definição, portanto provaremos apenas a última. Temos que mostrar que T (W ) é subespaço de V , ∀W subespaço de U . Basta mostrar que T (W ) atende às condições de subespaço vetorial: (a) ΘV ∈ T (W ), pois ΘU ∈ W , e T (ΘU) = ΘV (b) Dados v1, v2 ∈ T (W ), então ∃w1, w2 ∈ W tal que T (w1) = v1 e T (w2) = v2. Tomando w = w1 + αw2 ∈ W tem-se: v = T (w) ∈ T (W ) v = T (w1 + αw2) ∈ T (W ) v = v1 + αv2 ∈ T (W ) � 4.1 A Imagem e o Núcleo Definição 4.10 Sejam U e V dois espaços vetoriais, e seja T : U → V uma transforma- ção linear. A imagem de T é definida como o conjunto Im(T ) = T (U) = {T (u), u ∈ U}. Definição 4.11 O núcleo da transformação linear é definido como o conjunto Ker(T ) = {u ∈ U, tal que T (u) = ΘV }. Nota 4.12 A palavra kernel é derivada do termo cyrnel com a forma da palavra corn, significando semente ou grão. Tal como um grão de milho, o kernel de uma transformação linear é o seu núcleo ou semente, no sentido de que é ele que carrega as informações sobre muitas propriedades importantes da transformação linear. Isso explica porque usamos a notação Ker(T ) para denotar o núcleo de T . Teorema 4.13 Seja T : U → V uma transformação linear. Então: 1. O núcleo de T é um subespaço de U . 2. A imagem de T é um subespaço de V . Victor Gonçalves Elias 4.1. A IMAGEM E O NÚCLEO 51 Prova. Provemos cada propriedade separadamente: 1. Temos que Ker(T ) = {u ∈ U : T (u) = ΘV }. Para mostrar que é um subespaço ve- torial, precisamos provar que o conjunto satisfaz as condições de subespaço vetorial. (a) ΘU ∈ Ker(T ), pois T (ΘU) = ΘV . (b) Sejam u1, u2 ∈ Ker(T ) e α ∈ K, então: T (u1 + αu2) = T (u1) + T (αu2) = T (u1) + αT (u2) = ΘV + αΘV = ΘV Logo, u1 + αu2 ∈ Ker(T ) 2. Temos que U é subespaço vetorial dele mesmo (subespaço impróprio ou trivial). Portanto, pela Proposição 4.9, temos que T (U) = Im(T ) é subespaço de V . � Exemplo 4.14 Seja S : P1(R)→ R a transformação linear definida por: S(p) = 1∫ 0 p(t)dt Um polinômio de P1(R) tem a forma p(t) = at+ b. 1∫ 0 (at+ b)dt = 0 a 2 + b = 0 ∴ a = −2b Portanto, Ker(S) = [p(t)], sendo p(t) = 2t− 1. Teorema 4.15 (Teorema do Núcleo e da Imagem): Sejam U e V espaços vetoriais sobre K de dimensão finita. Seja uma transformação linear: T : U → V . Então: dimU = dim Ker(T ) + dim Im(T ) Prova. Seja B = {u1, u2, . . . , un} uma base de Ker(T ). Completando esta base, é possível encontrar uma base C = {u1, . . . , un, w1, . . . , wm} de U . Por enquanto, temos: dim Ker(T ) = n dimU = n+m Provemos que D = {T (w1), . . . , T (wm)} é uma base de Im(T ) = {T (u) : u ∈ U}. Seja, pois, v ∈ Im(T ). Nesse caso, ∃u ∈ U tal que v = T (u). Escrevendo u em termos dos vetores de C: u = α1u1 + . . .+ αnun + β1w1 + . . .+ βmwm Victor Gonçalves Elias 52 CAPÍTULO 4. TRANSFORMAÇÕES LINEARES Assim: v = α1T (u1) + . . .+ αnT (un)︸ ︷︷ ︸ ΘV +β1T (w1) + . . .+ βmT (wm). v = β1T (w1) + . . .+ βmT (wm)⇒ Im(T ) = [D] Provemos agora que D é LI. θ1T (w1) + . . .+ θmT (wm) = ΘV T (θ1w1 + . . .+ θmwm) = ΘV ∴ θ1w1 + . . .+ θmwm ∈ Ker(T )⇒ ⇒ θ1w1 + . . .+ θmwm = γ1u1 + . . .+ γnun −γ1u1 − . . .− γnun + θ1w1 + . . .+ θmwm = ΘV ∴ γ1 = . . . = γn = 0 θ1 = . . . = θm = 0 Portanto, D é LI. Assim, a dimensão da imagem de T é m ⇒ dimU = dim Ker(T ) + dim Im(T ). � Nota 4.16 A dimensão do núcleo de uma TL é chamada de nulidade da transformação linear, ao passo que a dimensão da imagem de uma TL é chamada de posto da transfor- mação linear. Teorema 4.17 Uma transformação linear é injetiva se, e somente se, sua nulidade for igual a zero. Prova. (⇒) Considerando a transformação linear T : U → V injetiva ⇒ ∀v ∈ V existe um único u ∈ U tal que T (u) = v. Portanto, tomando v = ΘV , temos que @u ∈ U tal que T (u) = ΘV . Como T (ΘU) = ΘV , temos que Ker(T ) = {ΘU}, ou seja, a nulidade de T é zero. (⇐) Se Ker(T ) = {ΘU}, então provemos que T é injetiva. Sejam u1, u2 ∈ U tal que T (u1) = T (u2): T (u1)− T (u2) = ΘV T (u1 − u2) = ΘV u1 − u2 = ΘU u1 = u2 Ou seja, T é injetiva. � Exemplo 4.18 Seja T : Mn(R) →Mn(R) o operador linear que a cada matriz associa a sua transposta T (A) = At. Então: Ker(T ) = {Θ} e Im(T ) =Mn(R) Prova. At = Θ ⇒ Ker(T ) = {Θ} Aplicando o teorema do núcleo e da imagem: dim Im(T ) = n2, dimMn(R) = n2. Assim, Im(T ) =Mn(R). � Victor Gonçalves Elias 4.2. ISOMORFISMOS E AUTOMORFISMOS 53 Exemplo 4.19 Seja D : Pn(R)→ Pn(R) o operador de derivação Dp(t) = p′(t). Temos que p0(t) = 1 ∈ Ker(D). Assim Ker(D) 6= {Θ} ⇒ D não é injetiva. Exemplo 4.20 Seja T : R2 → P1(R) dada por: T (a, b) = a+ (a+ b)t. T é bijetiva. Prova. De fato, analisando o Ker(T ), temos: (a, b) ∈ Ker(T ) ⇔ a + (a + b)t ≡ Θ ⇔ a = b = 0. Ker(T ) = {(0, 0)} ⇒ T é injetiva. Pelo teorema do núcleo e da imagem: dim Im(T ) = 2. Como dimP1(R) = 2 então Im(T ) = P1(R) ⇒ T é sobrejetiva. Por fim, como T é injetiva e sobrejetiva ⇒ T é bijetiva. � Teorema 4.21 Sejam U e V espaços vetoriais finitamente gerados de mesma dimen- são, e seja T : U → V uma transformação linear. Então as seguintes afirmações são equivalentes: 1. T é sobrejetiva. 2. T é bijetiva. 3. T é injetiva. 4. T transforma base de U em uma base de V . Prova. Basta provar que 1⇒ 2⇒ 3⇒ 4⇒ 1. Na ordem: (1⇒ 2) Hipótese: Im(T ) = V . A partir do teorema do núcleo e da imagem: dimU = dim Ker(T ) + dim Im(T ) =dimV=dimU ⇒ dim Ker(T ) = 0⇒ T é injetiva. (2⇒ 3) Decorrente da definição de bijeção. (3⇒ 4) Hipótese: T é injetiva ⇒ Ker(T ) = {ΘU}. Seja B = {u1, . . . , un} uma base de U . Provemos que C = {T (u1), . . . , T (un)} é base de V . Para isso, basta mostrarmos que C é LI, pois temos que C tem o mesmo número de vetores da dimensão de V . α1T (u1) + . . .+ αnT (un) = ΘV T (α1u1 + . . .+ αnun) = ΘV Assim: α1u1 + . . .+αnun = ΘU . Como B é LI, segue que α1 = . . . = αn = 0. Portanto, C também é LI. (4⇒ 1) Seja B = {u1, . . . , un} uma base de U . Por hipótese, o conjunto C = {T (u1), . . . , T (un)} é uma base de V . Desde que Im(T ) = [C] ⇒ dim Im(T ) = n e dimV = n ∴ Im(T ) = V , ou seja, T é sobrejetiva. � 4.2 Isomorfismos e Automorfismos Definição 4.22 Uma transformação linear T : U → V , U e V espaços vetoriais sobre um corpo K, é um isomorfismo quando é bijetiva. Quando U = V , uma transformação linear bijetiva T : U → U é chamada de automorfismo. Victor Gonçalves Elias 54 CAPÍTULO 4. TRANSFORMAÇÕES LINEARES Nota 4.23 Quando existe um isomorfismo entre U e V , dizemos que esses espaços são isomorfos (notação U ∼ V ). Neste caso, podemos, através do isomorfismo, identificar cada elemento de U com um único elemento de V . Exemplo 4.24 O operador identidade é um automorfismo de U . Exemplo 4.25 Dada uma transformação linear T : Pn(R)→ Rn+1 definida como: p(t) = a0
Compartilhar