Prévia do material em texto
Soluc¸o˜es comentadas do livro “A´lgebra Linear e suas Aplicac¸o˜es - Petronio Pulino” Hugo Valada˜o hugoaladav@gmail.com Universidade Estadual de Campinas 11 de Novembro de 2018 1 Atenc¸a˜o: As resoluc¸o˜es dos exerc´ıcios deste documento, mesmo tendo sido revisadas, podem conter al- guns erros. Sendo assim, e´ importante leˆ-las com olhar cr´ıtico e com atenc¸a˜o aos erros (leves ou graves) que possam surgir. Caso perceba qualquer erro (inclusive erro de digitac¸a˜o), agradeceria que me notificasse por e-mail para poder corrigir e atualizar o arquivo. Alia´s, este e´ um docu- mento em constante construc¸a˜o e atualizac¸a˜o, acesse o link do Google Drive (https://goo.gl/UhPMLv) para ter acesso a` versa˜o mais recente. Meus agradecimentos a Laryssa Abdala que revisou, corrigiu e sugeriu algumas das soluc¸o˜es deste pdf! Hugo Valada˜o hugoaladav@gmail.com 11 de Agosto de 2018 Conteu´do 1 Estruturas Alge´bricas 6 1.0.1 Exerc´ıcio 1.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.0.2 Exerc´ıcio 1.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.0.3 Exerc´ıcio 1.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.0.4 Exerc´ıcio 1.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.0.5 Exerc´ıcio 1.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.0.6 Exerc´ıcio 1.12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.0.7 Exerc´ıcio 1.17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.0.8 Exerc´ıcio 1.20 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.0.9 Exerc´ıcio 1.21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2 Espac¸os Vetoriais 10 2.0.1 Exerc´ıcio 3.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.0.2 Exerc´ıcio 3.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.0.3 Exerc´ıcio 3.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.0.4 Exerc´ıcio 3.9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.0.5 Exerc´ıcio 3.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.0.6 Exerc´ıcio 3.14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.0.7 Exerc´ıcio 3.16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.0.8 Exerc´ıcio 3.17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.0.9 Exerc´ıcio 3.20 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.0.10 Exerc´ıcio 3.21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.0.11 Exerc´ıcio 3.23 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.0.12 Exerc´ıcio 3.24 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.0.13 Exerc´ıcio 3.25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.0.14 Exerc´ıcio 3.28 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.0.15 Exerc´ıcio 3.29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.0.16 Exerc´ıcio 3.34 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.0.17 Exerc´ıcio 3.35 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.0.18 Exerc´ıcio 3.37 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.0.19 Exerc´ıcio 3.39 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2 CONTEU´DO 3 2.0.20 Exerc´ıcio 3.43 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.0.21 Exerc´ıcio 3.46 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.0.22 Exerc´ıcio 3.48 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.0.23 Exerc´ıcio 3.54 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.0.24 Exerc´ıcio 3.57 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.0.25 Exerc´ıcio 3.58 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.0.26 Exerc´ıcio 3.60 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.0.27 Exerc´ıcio 3.62 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.0.28 Exerc´ıcio 3.63 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.0.29 Exerc´ıcio 3.64 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.0.30 Exerc´ıcio 3.67 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.0.31 Exerc´ıcio 3.69 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.0.32 Exerc´ıcio 3.70 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.0.33 Exerc´ıcio 3.72 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3 Transformac¸o˜es Lineares 31 3.0.1 Exerc´ıcio 4.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3.0.2 Exerc´ıcio 4.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3.0.3 Exerc´ıcio 4.9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.0.4 Exerc´ıcio 4.10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.0.5 Exerc´ıcio 4.17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.0.6 Exerc´ıcio 4.19 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.0.7 Exerc´ıcio 4.25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.0.8 Exerc´ıcio 4.26 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.0.9 Exerc´ıcio 4.28 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.0.10 Exerc´ıcio 4.42 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.0.11 Exerc´ıcio 4.45 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.0.12 Exerc´ıcio 4.53 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.0.13 Exerc´ıcio 4.55 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 4 Produto Interno 40 4.0.1 Exerc´ıcio 5.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 4.0.2 Exerc´ıcio 5.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 4.0.3 Exerc´ıcio 5.12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 4.0.4 Exerc´ıcio 5.14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 4.0.5 Exerc´ıcio 5.18 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 4.0.6 Exerc´ıcio 5.29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 4.0.7 Exerc´ıcio 5.31 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 4.0.8 Exerc´ıcio 5.41 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 4.0.9 Exerc´ıcio 5.53 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 4.0.10 Exerc´ıcio 5.55 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 4.0.11 Exerc´ıcio 5.57 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 CONTEU´DO 4 4.0.12 Exerc´ıcio 5.58 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 4.0.13 Exerc´ıcio 5.59 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 4.0.14 Exerc´ıcio 5.60 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 4.0.15 Exerc´ıcio 5.62 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4.0.16 Exerc´ıcio 5.64 . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . 48 4.0.17 Exerc´ıcio 5.66 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.0.18 Exerc´ıcio 5.67 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.0.19 Exerc´ıcio 5.71 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 5 Autovalores e Autovetores 51 5.0.1 Exerc´ıcio 6.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 5.0.2 Exerc´ıcio 6.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 5.0.3 Exerc´ıcio 6.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 5.0.4 Exerc´ıcio 6.9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 5.0.5 Exerc´ıcio 6.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 5.0.6 Exerc´ıcio 6.13 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 5.0.7 Exerc´ıcio 6.14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 5.0.8 Exerc´ıcio 6.16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 5.0.9 Exerc´ıcio 6.21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 5.0.10 Exerc´ıcio 6.22 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 5.0.11 Exerc´ıcio 6.25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 5.0.12 Exerc´ıcio 6.27 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 5.0.13 Exerc´ıcio 6.28 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 5.0.14 Exerc´ıcio 6.29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 5.0.15 Exerc´ıcio 6.42 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 5.0.16 Exerc´ıcio 6.43 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 5.0.17 Exerc´ıcio 6.45 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 5.0.18 Exerc´ıcio 6.46 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 5.0.19 Exerc´ıcio 6.51 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 5.0.20 Exerc´ıcio 6.52 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 5.0.21 Exerc´ıcio 6.53 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 5.0.22 Exerc´ıcio 6.60 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 5.0.23 Exerc´ıcio 6.61 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 5.0.24 Exerc´ıcio 6.65 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 5.0.25 Exerc´ıcio 6.69 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 5.0.26 Exerc´ıcio 6.70 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 5.0.27 Exerc´ıcio 6.72 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 5.0.28 Exerc´ıcio 6.88 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 5.0.29 Exerc´ıcio 6.92 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 5.0.30 Exerc´ıcio 6.94 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 5.0.31 Exerc´ıcio 6.95 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 CONTEU´DO 5 5.0.32 Exerc´ıcio 6.100 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 5.0.33 Exerc´ıcio 6.101 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 5.0.34 Exerc´ıcio 6.108 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 Cap´ıtulo 1 Estruturas Alge´bricas Sessa˜o 1.1 1.0.1 Exerc´ıcio 1.1 (a) (E, ?) na˜o e´ grupo pois na˜o satisfaz a propriedade de que todo elemento x ∈ E e´ sime- triza´vel (ale´m disso, note que satisfaz todas as outras). Previamente note que o elemento neutro da operac¸a˜o ? e´ e = 0. Agora tome, por exemplo, x = 1: enta˜o @x′ ∈ E tal que x ? x′ = e. De fato, pois por absurdo suponha que existe x′ ∈ E elemento sime´trico de x = 1. Enta˜o ter´ıamos que 0 = e = x ? x′ = x + x′ =⇒ x′ = −x = −1 6∈ E; Que e´ um absurdo pois assumimos previamente x′ ∈ E. Logo 1 ∈ E na˜o e´ simetriza´vel e portanto E munido da operac¸a˜o ? na˜o tem uma estrutura de grupo (em particular na˜o tem estrutura de grupo abeliano). (b) (E, ?) e´ grupo abeliano e vou provar. i)Associatividade de ?: ∀x, y, z ∈ E vale que: (x ? y) ? z = (x+ y − 1) + z − 1 = x+ (y − 1 + z − 1) pela assosiatividade da soma + de Z. = x+ (y + z − 1− 1) pela comutatividade da soma + de Z. = x+ (y + z − 1)− 1 pela assosiatividade da soma + de Z. = x ? (y ? z) pela definic¸a˜o de ?. ii)Existeˆncia do elemento neutro: Note que ∀x ∈ E vale que (x ? y = x ⇐⇒ x+ y − 1 = x ⇐⇒ y = 1). e (y ? x = x ⇐⇒ y + x− 1 = x ⇐⇒ y = 1). Logo, como y = 1 ∈ E, provamos que x ? y = y ? x = x ∀x ∈ E, isto e´, y e´ o elemento neutro de E com relac¸a˜o a` operac¸a˜o ? Atenc¸a˜o: as implicac¸o˜es ⇐⇒ esta˜o destacadas entre pareˆnteses pois o que vale sa˜o somente as implicac¸o˜es. Na˜o podemos assumir (previamente) que x ? y = x para um certo y, mas podemos com certeza assumir que (x ? y = x ⇐⇒ x+ y − 1 = x) para todo y. 6 CAPI´TULO 1. ESTRUTURAS ALGE´BRICAS 7 iii)Existeˆncia dos sime´tricos: Note que ∀x ∈ E vale que (x ? x′ = e ⇐⇒ x + x′ − 1 = 1 ⇐⇒ x′ = 2 − x), usando as propriedades da soma + de Z. E tambe´m (x′ ? x = e ⇐⇒ x′ + x− 1 = 1 ⇐⇒ x′ = 2− x) Logo dado x ∈ E, x′ = 2 − x satisfaz a propriedade do elemento sime´trico e como 2 − x sem- pre pertence a E, temos que x′ ∈ E e consequentemente todo elemento de E possui elemento sime´trico em E. iv)Comutatividade de ?: ∀x, y ∈ E vale que: x ? y = x+ y − 1 = y + x− 1 = y ? x, usando a comutatividade da soma + de Z. De i), ii), iii) e iv) esta´ provado que (E, ?) e´ um grupo abeliano.� (c) (E, ?) e´ grupo abeliano (ana´logo a` letra (b)). (d) (E, ?) na˜o e´ grupo abeliano pois tomando x = 1 e y = 0 temos que 2 = x ? y 6= y ? x = 1. Logo na˜o satisfaz a propriedade da comutatividade. Pode-se verificar que tambe´m na˜o satisfaz a associatividade nem a do elemento neutro (pois o elemento neutro deve ser u´nico para todo x) e portanto tambe´m na˜o satisfaz a do elemento sime´trico. (e) (E, ?) na˜o e´ grupo abeliano pois na˜o satisfaz a propriedade do elemento sime´trico (o sime´trico deve estar em E para que a propriedade seja satisfeita). Ale´m disso, (E, ?) satisfaz todas as ou- tras propriedades. 1.0.2 Exerc´ıcio 1.2 i)Associatividade: ∀x, y, z ∈ R vale que: ii)Existeˆncia do Elemento Neutro: ∀x ∈ R vale que: (x ? y = x ⇐⇒ x+ y + 4 = x ⇐⇒ y = −4) e tambe´m (y ? x = x ⇐⇒ y + x+ 4 = x ⇐⇒ y = −4). Como y = −4 ∈ R, tenho pela implicac¸a˜o que ele e´ o elementro neutro. iii)Existeˆncia dos sime´tricos:∀x ∈ R vale que: (x ? x′ = e ⇐⇒ x+ x′ + 4 = −4 ⇐⇒ x′ = −x− 8) e tambe´m (x′ ? x = e ⇐⇒ x′ + x+ 4 = −4 ⇐⇒ x′ = −x− 8). Como −x− 8 sempre esta´ em R tenho que este conjunto com esta operac¸a˜o satisfaz a propriedade da existeˆncia dos sime´tricos. iv)Comutatividade: ∀x, y ∈ R vale que x ? y = x + y + 4 = y + x + 4 = y ? x, usando a comutatividade da soma + de R. Portanto, segue de i), ii), iii), iv) que (R, ?) possui estrutura de grupo comutativo. � 1.0.3 Exerc´ıcio 1.3 (R, ?) na˜o possui estrutura de grupo comutativo. Ele na˜o satisfaz nenhuma das 4 propriedades. Associatividade: observando a forma de (x ? y) ? z e de x ? (y ? z) chegamos ao contra-exemplo x = y = 0 e z = 1; Para a comutatividade x = 0 e y = 1 serve de contra-exemplo; A existeˆncia CAPI´TULO 1. ESTRUTURAS ALGE´BRICAS 8 do elemento neutro falha na ”neutralidade pela esquerda”, i.e., na˜o existe um u´nico e tal que e ? x = x ∀x ∈ R, pois se existisse tal elemento ter´ıamos e ? x = e+ 2x− 4 = x =⇒ e = 4− x que varia com x (logo na˜o e´ u´nico, absurdo). (R, ?) tambe´mna˜o pode satisfazer a propriedade da existeˆncia dos sime´tricos pois esta depende da existeˆncia de um elemento neutro (que ja´ vimos que falha). Por fim a comutatividade tambe´m na˜o e´ uma propriedade que (R, ?) possui, contra-exemplo: x = 0 e y = 1. 1.0.4 Exerc´ıcio 1.5 Neste caso, (R, ?) possui estrutura de grupo comutativo! De fato: Associatividade: ∀x, y, z ∈ R vale que (x?y)?z = (x+y−6)?z = (x+y−6)+z−6 = x+y+z−12, pela comutatividade e assosiatividade da soma + de R. Por outro lado, x?(y?z) = x?(y+z−6) = x+ (y + z − 6)− 6 = x+ y + z − 12 = (x ? y) ? z. Comutatividade: ∀x, y ∈ R vale que x ? y = x+ y − 6 = y + x− 6 = y ? x, pela comutatividade da soma + de R. Existeˆncia do Elemento Neutro: ∀x ∈ R vale que (x ? y = x ⇐⇒ x+ y− 6 = x ⇐⇒ y = 6). Enta˜o x ? 6 = x ∀x ∈ R e na˜o precisamos verificar a ”neutralidade pela esquerda”pois ja´ sabemos que ? e´ comutativa (e portanto 6 ? x = x ? 6 = x). Existeˆncia dos Sime´tricos: ∀x ∈ R vale que: (x ? x′ = e ⇐⇒ x+ x′ − 6 = 6 ⇐⇒ x′ = 12− x), e tambe´m (x′ ? x = e ⇐⇒ x′ + x− 6 = 6 ⇐⇒ x′ = 12− x). Logo, dado x ∈ R seu sime´trico e´ x′ = 12− x que esta´ em R. � 1.0.5 Exerc´ıcio 1.7 Note previamente que (Mn(R), ?) tem como elemento neutro a matriz identidade In. Como a operac¸a˜o ? e´ a multiplicac¸a˜o usual de matrizes, e´ de se esperar que nem todo elemento de Mn(R) possua sime´trico (pois nem toda matriz e´ invert´ıvel). Tome, por exemplo, a matriz nula 0. Suponha, por absurdo, que existe o sime´trico A de 0. Neste caso, ter´ıamos In = A?0 = A ·0, mas isso implicaria det(In) = det(A · 0) = det(A) · det(0) = det(A) · 0 = 0, absurdo pois det(In) = 1. Portanto (Mn(R), ?) na˜o satisfaz a propriedade da existeˆncia dos sime´tricos e portanto na˜o e´ um grupo. 1.0.6 Exerc´ıcio 1.12 ? e a b c e e a b c a a b c e b b c e a c c e a b CAPI´TULO 1. ESTRUTURAS ALGE´BRICAS 9 Sessa˜o 1.7 1.0.7 Exerc´ıcio 1.17 Considere Re(z) = x e Im(z) = y. Temos enta˜o:√ x2 + y2 √ 2 ≥ |x|+ |y| ⇐⇒ 2(x2 + y2) ≥ x2 + y2 + 2|xy| ⇐⇒ x2 + y2 ≥ 2|xy| ⇐⇒ x2 − 2|xy|+ y2 ≥ 0 ⇐⇒ (|x| − |y|)2 ≥ 0. Como vale que (|x| − |y|)2 ≥ 0 ∀x, y, conseguimos provar o que quer´ıamos.� Atenc¸a˜o: essa demonstrac¸a˜o so´ e´ va´lida pois as implicac¸o˜es sa˜o “ ⇐⇒ ”. As implicac¸o˜es =⇒ sa˜o mais fa´ceis de verificar, pore´m as ⇐= devem ser verificadas a parte, e muitas vezes elas na˜o sera˜o va´lidas! Partir de uma afirmac¸a˜o A e chegar a uma afirmac¸a˜o verdadeira B, na˜o quer dizer que A e´ necessariamente verdadeira! 1.0.8 Exerc´ıcio 1.20 Como i0 + i1 + i2 + i3 = 1 + i− 1− i = i4 + i5 + i6 + i7 = · · · = 0, 100∑ k=0 ik = 0 + 0 + · · ·+ 0 + i100 = 1 Logo a = 1 e b = 0. 1.0.9 Exerc´ıcio 1.21 z = 1 + i 2− i = 1 + i 2− i ( 2 + i 2 + i ) = 2 + i+ 2i− 1 4 + 1 = 1 5 + 3 5 i Cap´ıtulo 2 Espac¸os Vetoriais Sessa˜o 3.1 2.0.1 Exerc´ıcio 3.2 A1) Comutatividade ∀A,B ∈Mn(R) vale que: A+B = [aij + bij ] = [bij + aij ] = B +A, usando a comutatividade da soma + dos nu´meros reais. A2) Associatividade: ∀A,B,C ∈Mn(R) vale que: (A+B) + C = [(aij + bij) + cij ] = [aij + (bij + cij)] = A+ (B + C), usando a associatividade da soma + dos nu´meros reais. A3) Elemento Neutro: Sei que para toda matriz A vale que: (A+N = A ⇐⇒ [aij +nij ] = [aij ] ⇐⇒ aij +nij = aij ∀i, j ⇐⇒ nij = 0 ∀i, j ⇐⇒ N = 0). Portanto se N e´ a matriz nula 0 enta˜o N e´ o elemento neutro do espac¸o vetorial (note que 0 ∈ Mn(R)). A4) Elemento Sime´trico: dada matriz A ∈Mn(R) vale que: (A+A′ = 0 ⇐⇒ [aij + a′ij ] = 0 ⇐⇒ aij + a′ij = 0 ∀i, j ⇐⇒ a′ij = −aij ⇐⇒ A′ = −A). Portanto dada A seu sime´trico aditivo e´ −A. M1)Associatividade: ∀α, β ∈ R e ∀A ∈Mn(R) vale que: (αβ) ·A = αβ · [aij ] = [(αβ)aij ] = [α(βaij)] = α · [βaij ] = α · (βA), onde usamos a associatividade dos nu´meros reais. M2) Distributividade para Adic¸a˜o de Elementos: ∀α ∈ R e ∀A,B ∈Mn(R) vale que: α · (A+B) = α · [aij + bij ] = [α(aij + bij)] = [αaij + αbij ] = [αaij ] + [αbij ] = α ·A+ α ·B. M3) Distributividade para a Multiplicac¸a˜o por Escalar: ∀α, β ∈ R e ∀A ∈ Mn(R) vale que: (α+ β) ·A = (α+ β) · [aij ] = [(α+ β)aij ] = [αaij + βaij ] = [αaij ] + [βaij ] = α ·A+ β ·A. M4) Elemento Identidade: ∀A ∈Mn(R) vale que: (e ·A = A ⇐⇒ e · [aij ] = [aij ]) ⇐⇒ [eaij ] = [aij ] ⇐⇒ eaij = aij ∀i, j) 10 CAPI´TULO 2. ESPAC¸OS VETORIAIS 11 Se supusermos e = 1 enta˜o temos eaij = aij ∀i, j e consequentemente (pela implicac¸o˜es ⇐= ) temos que e ·A = A. Portanto, provamos que (Mn(R),+, ·) e´ um espac¸o vetorial. � 2.0.2 Exerc´ıcio 3.4 (V,⊕,�) e´ um espac¸o vetorial e vou provar. De fato, as propriedades seguem: A1)Comutatividade: ∀x, y ∈ V vale que: x⊕ y = xy = yx = y ⊕ x, onde usamos a comutatividade do produto dos reais. A2) Associatividade: ∀x, y, z ∈ V vale que: (x⊕ y)⊕ z = (xy)⊕ z pela definic¸a˜o de ⊕ = (xy)z pela definic¸a˜o de ⊕ = x(yz) pela associatividade do produto dos reais = x(y ⊕ z) pela definic¸a˜o de ⊕ = x⊕ (y ⊕ z) pela definic¸a˜o de ⊕ A3) Elemento Neutro: Sei que para todo x ∈ V vale que: (x⊕ e = x ⇐⇒ xe = x ⇐⇒ e = 1) Portanto se e = 1 enta˜o e e´ o elemento neutro do espac¸o vetorial. Note que a segunda → so´ e´ va´lida pois 0 6∈ V . A4) Elemento Sime´trico: dado x ∈ V vale que: (x⊕ x′ = e ⇐⇒ xx′ = 1 ⇐⇒ x′ = 1x ) Portanto dado x ∈ V seu sime´trico aditivo e´ 1x . Novamente a segunda → so´ e´ va´lida pois 0 6∈ V . M1)Associatividade: ∀α, β ∈ R e ∀x ∈ V vale que: (αβ)� x = xαβ = (xβ)α = α� (xβ) = α� (β � x) M2)Distributividade para Adic¸a˜o de Elementos: ∀α ∈ R e ∀x, y ∈ V vale que: α� (x⊕ y) = α� (xy) = (xy)α = xαyα = (α� x)⊕ (α� y) M3) Distributividade para a Multiplicac¸a˜o por Escalar: ∀α, β ∈ R e ∀x ∈ V vale que: (α+ β)� x = xα+β = xαxβ = (α� x)(β � x) = (α� x)⊕ (β � x) M4) Elemento Identidade: ∀x ∈ V vale que: (n� x = x ⇐⇒ xn = x) Note que a u´ltima sentenc¸a vale para todo x positivo se n = 1. Logo n = 1 ∈ V e´ o elementro identidade da ac¸a˜o de multiplicac¸a˜o por escalar. Portanto como sa˜o va´lidas as propriedades A1-A4,M1-M4 esta´ provado que (V,⊕,�) e´ um espac¸o vetorial. 2.0.3 Exerc´ıcio 3.5 A1) Comutatividade: ∀x, y ∈ Z vale que: A2) Associatividade: ∀x, y, z ∈ Z vale que: CAPI´TULO 2. ESPAC¸OS VETORIAIS 12 x+ y = (v1, w1) + (v2, w2) = (v1 + v2, w1 + w2) pela definic¸a˜o da soma + em Z = (v2 + v1, w1 + w2) pois V e´ espac¸o vetorial = (v2 + v1, w2 + w1) pois W e´ espac¸o vetorial = (v2, w2) + (v1, w1) pela definic¸a˜o da soma + em Z = y + x (x+ y) + z = ((v1 + v2, w1 + w2)) + (v3, w3) = ((v1 + v2) + v3, (w1 + w2) + w3) pela definic¸a˜o da soma + em Z = (v1 + (v2 + v3), w1 + (w2 + w3)) pois V e W sa˜o espac¸os vetoriais = (v1, w1) + (v2 + v3, w2 + w3) pela definic¸a˜o de + em Z = x+ (y + z) pela definic¸a˜o de + em Z A3) Elemento Neutro: Sei que para todo x ∈ Z vale que: x + e = x ⇐⇒ (v1, w1) + (e1, e2) = (v1, w1) ⇐⇒ (v1 + e1, w1 + e2) = (v1, w1) ⇐⇒v1 + e1 = v1w1 + e2 = w1 ⇐⇒ e1 = elemento neutro da soma de Ve2 = elemento neutro da soma de W Sendo assim, ao tomarmos (e1, e2) ∈ Z que e´ o par odenado formado pelo neutro de V e pelo neutro de W , temos o elemento neutro de Z. A4) Elemento Sime´trico: dado x = (v1, w1) elemento gene´rico de Z, vale que: x + x′ = (e1, e2) ⇐⇒ (v1, w1) + (v′1, w′1) = (e1, e2) ⇐⇒ (v1 + v′1, w1 + w′1) = (e1, e2) ⇐⇒v1 + v′1 = e1w1 + w′1 = e2 ⇐⇒ v′1e´ o sime´trico de v1 em Vw′1e´ o sime´trico de w1 em W Enta˜o, dado x = (v1, w1) seu sime´trico em Z e´ (v ′ 1, w ′ 1) como descrito acima. OBS.: na˜o e´ necessa´rio mostrar v′1 como e1 − v1, pois A4 diz somente sobre a existeˆncia dos sime´tricos, fato que e´ garantido por V,W serem espac¸os vetoriais. M1) Associatividade: ∀α, β ∈ R e ∀x ∈ Z vale que: (αβ)x = (αβ)(v1, w1) = ((αβ)v1, (αβ)w1) = (α(βv1), α(βw1)), onde usamos que V,W possuem multiplicac¸a˜o por escalar associativa. M2) Distributividade para Adic¸a˜o de Elementos: ∀α ∈ R e ∀x, y ∈ Z vale que: α(x + y) =α(v1 + v2, w1 + w2) = (α(v1 + v2), α(w1 + w2)) = (αv1 + αv2, αw1 + αw2) = (αv1, αw1) + (αv2, αw2) = α(v1, w1) +α(v2, w2) = αx+αy, onde usamos o fato de que V e W sa˜o espac¸os vetoriais. M3) Distributividade para a Multiplicac¸a˜o por Escalar: ∀α, β ∈ R e ∀x ∈ Z vale que: (α + β)x = (α + β)(v1, w1) = ((α + β)v1, (α + β)w1) = (αv1 + βv1, αw1 + βw1) = (αv1, αw1) + (βv1, βw1) = αx+ βx, onde usamos novamente o fato de que V e W sa˜o ambos espac¸os vetoriais. M4) Elemento Identidade: ∀x ∈ Z vale que: nx = x ⇐⇒ (nv1, nw1) = (v1, w1) ⇐⇒ nv1 = v1nw1 = w1 CAPI´TULO 2. ESPAC¸OS VETORIAIS 13 Agora como ambos V e W sa˜o espac¸os vetoriais sobre o corpo F, temos que n = 1F satisfaz as duas equac¸o˜es e, consequentemente, e´ tambe´m o elemento identidade da multiplicac¸a˜o por esca- lar do espac¸o Z.� Sessa˜o 3.2 2.0.4 Exerc´ıcio 3.9 Preciso provar que i)H 6= ∅; ii) H e´ fechado pela soma e iii) H e´ fechado pela multiplicac¸a˜o por escalar. i): Note que (0, · · · , 0) ∈ H, pois c1 · 0 + · · ·+ cn · 0 = 0 =⇒ (0, · · · , 0) ∈ H =⇒ H 6= ∅. ii): Dados (x1, · · · , xn), (y1, · · · , yn) ∈ H quero mostrar que (x1, · · · , xn) + (y1, · · · , yn) ∈ H. De fato, (x1, · · · , xn)+(y1, · · · , yn) = (x1+y1, · · · , xn+yn) e vale que c1 ·(x1+y1)+ · · ·+cn ·(xn+ yn) = (c1 ·x1+· · ·+cn ·xn)+(c1 ·y1+· · ·+cn ·yn) = 0+0 = 0 =⇒ (x1, · · · , xn)+(y1, · · · , yn) ∈ H. iii): Analogamente, dado (x1, · · · , xn) ∈ H e dado λ ∈ R quero mostrar que λ · (x1, · · · , xn) ∈ H. De fato λ · (x1, · · · , xn) = (λ · x1, · · · , λ · xn) e vale que c1 · (λx1) + · · · + cn · (λxn) = λ · (c1x1 + · · ·+ cnxn) = λ · 0 = 0 =⇒ λ · (x1, · · · , xn) ∈ H. Portanto, de i), ii) e iii), esta´ provado. � OBS.: Note que e´ essencial provarmos que H 6= ∅, pois o conjunto vazio satisfaz ii) e iii) mas na˜o e´ um espac¸o vetorial! 2.0.5 Exerc´ıcio 3.11 i) S 6= ∅: Note que f = 0C([0,1]) ∈ S, pois ∫ 1 0 0 dx = 0. Logo 0C([0,1]) ∈ S e S 6= ∅. ii) S e´ fechado pela soma: Dados f, g ∈ S, temos que ∫ 1 0 (f(x) + g(x))dx = ∫ 1 0 f(x)dx +∫ 1 0 g(x)dx = 0 + 0 = 0, pois ambas pertencem a S. iii) S e´ fechado pela multiplicac¸a˜o por escalar: Dada f ∈ S e dado λ ∈ R, ∫ 1 0 λf(x)dx = λ ∫ 1 0 f(x)dx = λ · 0 = 0, pois f ∈ S. Portanto, de i), ii), e iii) esta´ provado que S e´ subespac¸o vetorial de C([0, 1]). 2.0.6 Exerc´ıcio 3.14 Note que a matriz nula 0 satisfaz 0 t = 0 = −0, logo 0 ∈ U,W e portanto U,W 6= ∅. i)U e´ fechado pela soma: ∀A,B ∈ U vale que (A+B)t = At +Bt = (A+B), pois A e B esta˜o em U . Portanto A+B ∈ U . ii)U e´ fechado pela multiplicac¸a˜o por escalar: Dado A ∈ U e λ ∈ R temos que (λA)t = λAt = λA, portanto λA ∈ U . E segue que U e´ um subespac¸o vetorial de Mn(R). Ana´logo para W . CAPI´TULO 2. ESPAC¸OS VETORIAIS 14 2.0.7 Exerc´ıcio 3.16 S na˜o e´ um subespac¸o vetorial de R2 pois na˜o possui elementro neutro da adic¸a˜o. De fato, suponha por absurdo que ∃e ∈ S tal que v + e = e + v = v ∀v ∈ S. Como v e´ um elemento gene´rico de S, pode ser escrito da seguinte forma: v = α(1, 2)+(3, 2) = (α, 2α)+(3, 2) = (α+ 3, 2α+ 2). Logo temos que v+ e = (α+ 3, 2α+ 2) + (e1, e2) = (α+ 3 + e1, 2α+ 2 + e2) = v, e isto acontece se e somente se α+ 3 + e1 = α+ 32α+ 2 + e2 = 2α+ 2 . O que nos leva a e1 = 0 = e2, e portanto e = (0, 0). Absurdo, pois supomos e ∈ S mas (0, 0) 6∈ S.� OBS.: Note que sempre vale que se S ⊆ V e´ um subespac¸o vetorial de V e que se e ∈ V e´ o elemento neutro de V , enta˜o necessariamente o elemento neutro de S tambe´m e´ e. Pela unici- dade deste elemento em V pode-se provar que se e ∈ V na˜o esta´ em S enta˜o S na˜o pode ser um subespac¸o vetorial. Sessa˜o 3.3 2.0.8 Exerc´ıcio 3.17 Seja A = [ x y z t ] matriz gene´rica 2× 2. Enta˜o A ∈ U ⇐⇒ x− y − z = 0 ⇐⇒ x = y + z, logo todos elementos de U sa˜o da forma A = [ y + z y z t ] . Enta˜o temos 3 graus de liberdade para formar o subespac¸o U (isso significa exatamente que a dimensa˜o de U e´ 3). Agora, para achar o sistema de geradores de U basta fatorar A pelas varia´veis restantes. Isto e´: A = [ y + z y z t ] = y · [ 1 1 0 0 ] ︸ ︷︷ ︸ A1 +z · [ 1 0 1 0 ] ︸ ︷︷ ︸ A2 +t · [ 0 0 0 1 ] ︸ ︷︷ ︸ A3 Logo todo elemento de U e´ combinac¸a˜o linear de A1, A2, A3 e portanto S = {A1, A2, A3} e´ um sistema de geradores para o subespac¸o vetorial U . OBS.: Para provar a igualdade de conjuntos U = [S] temos que provar que todo elemento de U esta´ em [S] e que todo elemento de [S] esta´ em U . E afirmar que “todos elementos de U sa˜o da forma A = [ y + z y z t ] ” e´ dizer apenas que todo elemento de U esta´ em [S]. Mas a rec´ıproca dessa afirmac¸a˜o (que completa o que queremos provar) esta´ implicitamente provada pois sabe- mos que A ∈ U ⇐⇒ x = y + z, logo se uma matriz e´ da forma A = [ y + z y z t ] enta˜o automaticamente essa matriz esta´ em U (usando a implicac¸a˜o ⇐= ), o que prova que todo elemento de [S] esta´ em U . CAPI´TULO 2. ESPAC¸OS VETORIAIS 15 2.0.9 Exerc´ıcio 3.20 Aqui usamos o abuso de notac¸a˜o de que u = 12 −8 e que v = 6−3 −2 . Denote o espac¸o gerado pelas colunas da matriz A por U = [A1, A2] onde A1 = 41 0 e A2 = 25 2 . Agora, sabemos que: u ∈ [A1, A2] ⇐⇒ Existem escalares c1, c2 tais que u = c1A1 + c2A2 ⇐⇒ 12 −8 = 4c1c1 0 + 2c25c2 2c2 = 4c1 + 2c2c1 + 5c2 2c2 ⇐⇒ 4c1 + 2c2 = 1 c1 + 5c2 = 2 2c2 = −8 Enta˜o para verificar se u esta´ no subespac¸o, basta verificar se o sistema de equac¸o˜es possui soluc¸a˜o para c1 e c2. E ao tentar resolver o sistema notamos que ele e´ um sistema imposs´ıvel, portanto u 6∈ U . Analogamente para v sabemos que v ∈ [A1, A2] ⇐⇒ 6−3 −2 = 4c1 + 2c2c1 + 5c2 2c2 ⇐⇒ 4c1 + 2c2 = 6 c1 + 5c2 = −3 2c2 = −2 E como c1 = 2 e c2 = −1 resolve o sistema, conclu´ımos que v ∈ U . 2.0.10 Exerc´ıcio 3.21 Tenho que mostrar que W = [A1, A2, A3]. Considere uma matriz gene´rica A = ( x y z t ) . Sabemos que: A ∈W ⇐⇒ A = At ⇐⇒ ( x y z t ) = ( x z y t ) ⇐⇒ x = x y = z t = t Portanto A ∈W ⇐⇒ A = ( x y y t ) = x ( 1 0 0 0 ) + t ( 0 0 0 1 ) + y ( 0 1 1 0 ) ⇐⇒ A = xA1 + tA2 + yA3 ⇐⇒ A ∈ [A1, A2, A3] E consequentemente W = [A1, A2, A3]. � CAPI´TULO 2. ESPAC¸OS VETORIAIS 16 Sessa˜o 3.4 2.0.11 Exerc´ıcio 3.23 Para facilitar nosso trabalho, vamos determinar separadamente um sistema de geradores para U e um sistema de geradores para W . Geradores de U : Dado v = (x, y, z, t) elemento gene´rico de R4, enta˜o v ∈ U ⇐⇒ x+ y = 0 e z − t = 0 ⇐⇒ x = −y e z = t ⇐⇒ v = (−y, y, t, t) Logo v = y(−1, 1, 0, 0) + t(0, 0, 1, 1) e U = [(−1, 1, 0, 0)︸ ︷︷ ︸ u1 , (0, 0, 1, 1)︸ ︷︷ ︸ u2 ]. Geradores de W : Dado v = (x, y, z, t) elemento gene´rico de R4, enta˜o v ∈W ⇐⇒ x− y − z + t = 0 ⇐⇒ x = y + z − t ⇐⇒ v = (y + z − t, y, z, t) Logo v = y(1, 1, 0, 0) + z(1, 0, 1, 0) + t(−1, 0, 0, 1) e W = [(1, 1, 0, 0)︸ ︷︷ ︸ w1 , (1, 0, 1, 0)︸ ︷︷ ︸ w2 , (−1, 0, 0, 1)︸ ︷︷ ︸ w3 ]. (a) Dado v = (x, y, z, t) elemento gene´rico de R4, enta˜o v ∈ U ∩W ⇐⇒ v ∈ U e v ∈W . Portanto existem escalares a1, a2, b1, b2, b3 tais que: v = a1(−1, 1, 0, 0) + a2(0, 0, 1, 1), pois v ∈ U ; e v = b1(1, 1, 0, 0) + b2(1, 0, 1, 0) + b3(−1, 0, 0, 1), pois v ∈W . Da´ı, a1u1 + a2u2 = b1w1 + b2w2 + b3w3, ou seja: (−a1, a1, a2, a2) = (b1 + b2 − b3, b1, b2, b3) Logo temos o sistema −a1 = b1 + b2 − b3 a1 = b1 a2 = b2 a2 = b3 , e vamos resolveˆ-lo para a1, a2 (poder´ıamos ter escolhido resolveˆ-lo para b1, b2, b3). Note que a1 = 0 e a2 = b2 e´ uma soluc¸a˜o para o sistema pois satisfaz todas as equac¸o˜es (se escolhermos as varia´ves ai, as constanstesbi podem ser qualquer valor fixo). Substituindo os valores de a1, a2 que resolvem o sistema (i.e, os valores de a1, a2 para os quais v ale´m de estar em U tambe´m esta´ em W ), obtemos: v = b2(0, 0, 1, 1) E consequentemente U ∩W = [(0, 0, 1, 1)]. (b) Dado v = (x, y, z, t) elemento gene´rico de R4, enta˜o v ∈ U +W ⇐⇒ v = u+ w para algum u ∈ U e w ∈W . CAPI´TULO 2. ESPAC¸OS VETORIAIS 17 Logo, v ∈ U +W se (e somente se) existem escalares a1, a2, b1, b2, b3 tais que v = a1u1 + a2u2︸ ︷︷ ︸ u + b1w1 + b2w2 + b3w3︸ ︷︷ ︸ w E isso e´ a mesma coisa que dizer U +W = [u1, u2, w1, w2, w3]. (c) U +W e´ soma direta se U ∩W = {0R4}. Mas como vimos na letra (a), U +W = [(0, 0, 1, 1)] 6= {0R4}. Portanto na˜o e´ uma soma direta. 2.0.12 Exerc´ıcio 3.24 R3 = U ⊕W se: i)U ∩W = {0R3} e ii) R3 = U +W . i) Como U = [(1, 0, 0)] e W = [(1, 1, 0), (0, 1, 1)], enta˜o v ∈ U ∩ W ⇐⇒ existem escalares a1, b1, b2 tais que v = a1(1, 0, 0) e v = b1(1, 1, 0) + b2(0, 1, 1) Logo a1(1, 0, 0) = b1(1, 1, 0) + b2(0, 1, 1) =⇒ (a1, 0, 0) = (b1, b1 + b2, b2). Enta˜o a1 = b1 0 = b1 + b2 0 = b2 , e resolvendo para a1 obtemos a u´nica soluc¸a˜o a1 = 0. Consequentemente v = 0(1, 0, 0) = (0, 0, 0) e U ∩W = {(0, 0, 0)}. OBS.: obtemos que (0, 0, 0) ∈ U ∩W pois a1 = 0 e´ soluc¸a˜o do sistema e obtemos que na verdade esse e´ o u´nico elemento do subespac¸o pois a soluc¸a˜o do sistema e´ u´nica. ii) Por construc¸a˜o equivalente ao exerc´ıcio 3.23b temos que U +W = [(1, 0, 0), (1, 1, 0), (0, 1, 1)]. Agora, para provar que R3 = U +W devemos provar que U +W ⊆ R3 e que R3 ⊆ U +W . A primeira inclusa˜o se deve ao fato de que R3 e´ um espac¸o vetorial e, portanto, combinac¸o˜es li- neares de seus elementos ainda pertencem ao espac¸o vetorial. Para mostrar que a segunda inclusa˜o e´ va´lida devemos mostrar que todo elemento de R3 esta´ em U + W . Isto e´, dado v = (x, y, z) ∈ R3 preciso encontrar escalares a1, b1, b2 que satisfazem v = a1u1 + b1w1 + b2w2. Enta˜o temos, (x, y, z) = (a1 + b1, b1 + b2, b2) ⇐⇒ x = a1 + b1 y = b1 + b2 z = b2 E preciso resolver o sistema para as varia´veis a1, b1, b2 , pois caso eu mostre que existe uma soluc¸a˜o para essas varia´veis enta˜o existem escalares satisfazendo o que foi pedido. Resolvendo o sistema, obtemos a soluc¸a˜o b2 = z b1 = y − z a1 = x− y + z E portanto mostramos que (x, y, z) = (x − y + z)(1, 0, 0) + (y − z)(1, 1, 0) + z(0, 1, 1), logo v = (x, y, z) esta´ em U +W . � CAPI´TULO 2. ESPAC¸OS VETORIAIS 18 2.0.13 Exerc´ıcio 3.25 Preciso mostrar que: i) U ∩W = {0Mn(R)} e ii) U +W = Mn(R). i) Dada matriz gene´rica A = [aij ], enta˜o A ∈ U ∩W ⇐⇒ A ∈ U e A ∈W . E temos que: A ∈ U ⇐⇒ At = A ⇐⇒ aji = aij ∀i, j; e A ∈W ⇐⇒ At = −A ⇐⇒ aji = −aij ∀i, j. Portanto se A = [aij ] esta´ na intersec¸a˜o devemos ter aij = ajiaij = −aji Mas isso so´ acontece se aij = 0 ∀i, j, e portanto A = 0Mn(R). Enta˜o conclu´ımos que U ∩W = {0Mn(R)}. ii) Dada matriz gene´rica A = [aij ], tenho que mostrar que existe uma matriz sime´trica e uma matriz antissime´trica tais que A e´ a soma das duas. Agora definimos (a partir da matriz dada A) duas matrizes B e C da seguinte maneira: B = [bij ], com bij := aij + aji 2 ∀i, j C = [cij ], com cij := aij − aji 2 ∀i, j Note que bij = bji e cij = −cji ∀i, j; e ale´m disso aij = bij + cij , o que implica que A = B + C � OBS.: Na parte ii) poder´ıamos ter tentado exibir os geradores de U e de W e prosseguido de forma similar a` parte ii) do exerc´ıcio 3.24. Pore´m, por na˜o sabermos o valor de n, fica dif´ıcil exi- bir “concretamente” os geradores de U e W . Segue outra soluc¸a˜o poss´ıvel nesse sentido: Definimos uma matriz Eij = [emn] com emn := 1, se m = i e n = j0, caso contra´rio . Agora considere a matriz Bij := Eij + Eji. Observe que Bij e´ sime´trica ∀i, j e que, ale´m disso, SU = {Bij |i ≤ j} e´ um conjunto de geradores de U . Analogamente definimos Cij := Eij − Eji e obtemos que SW = {Cij |i < j} e´ um conjunto de geradores de W . Logo U +W = [SU ∪ SW ] e podemos (exaustivamente) terminar a prova por esse caminho obser- vando que Eij = 1 2 · (Bij +Cij) e portanto A pode ser (exaustivamente) escrita como combinac¸a˜o linear de elementos de SU ∪ SW . CAPI´TULO 2. ESPAC¸OS VETORIAIS 19 2.0.14 Exerc´ıcio 3.28 U ∪W na˜o e´ um subespac¸o vetorial de R2 e vou provar. De fato, ao considerarmos u = (1, 3) ∈ U e w = (1,−2) ∈W temos que u+w 6∈ U∪W (desenhe!), pois u + w = (2, 1) e 1 6= 3 · 2 (portanto na˜o esta´ em U) e tambe´m 1 6= −2 · 2 (portanto na˜o esta´ em W ). Logo u + w 6∈ U ∪W , e portanto U ∪W na˜o e´ fechado pela soma, logo na˜o e´ subespac¸o vetorial. � OBS.: Note que U ∪W e´ fechado pela multiplicac¸a˜o por escalar. 2.0.15 Exerc´ıcio 3.29 O sistema possui como conjunto soluc¸a˜o S = {(x, y, z) ∈ R3|x = − 72z e y = 32z}. Note que: i) S 6= ∅ pois (0, 0, 0) ∈ S ii) Dados v1 = (x1, y1, z1) e v2 = (x2, y2, z2) elementos de S, v1 + v2 = (x1 + x2, y1 + y2, z1 + z2) e´ tal que x1 + x2 = −7/2z1 − 7/2z2 = − 72 (z1 + z2)y1 + y2 = 3/2z1 + 3/2z2 = 32 (z1 + z2) . Logo v1 + v2 ∈ S. iii) Dados α ∈ R e v1 ∈ S, αv1 = (αx1, αy1, αz1) satisfaz αx1 = α(−7/2z1) = − 72 (αz1)αy1 = α(3/2z1) = 32 (αz1) . Logo αv1 ∈ S. De i), ii) e iii) provamos que S e´ um subespac¸o vetorial. Agora vamos determinar um sistema de geradores para S ∩ U . Note primeiro que S = [(−7/2, 3/2, 1)] = [(−7, 3, 2)] e que U = [(1, 1, 0), (−1, 0, 1)]. Agora temos que v ∈ S ∩ U ⇐⇒ v ∈ S e v ∈ U . Isso acontece se (e somente se) ∃s1, u1, u2 ∈ R tais que s1(−7, 3, 2) = u1(1, 1, 0) + u2(−1, 0, 1). Enta˜o temos −7s1 = u1 − u2 3s1 = u1 2s1 = u2 ⇐⇒ s1 = 0. E consequentemente S ∩ U = {(0, 0, 0)}. Sessa˜o 3.5 2.0.16 Exerc´ıcio 3.34 (a) O conjunto na˜o e´ L.I. pois x2 + 2x+ 1 = 1 · (x2) + 2 · (x− 1) + 3 · (1) (b) O conjunto na˜o e´ L.I. pois 2x3 − x2 = 2 · (x3)− 1 · (x2 − x)− 1 · (x) CAPI´TULO 2. ESPAC¸OS VETORIAIS 20 2.0.17 Exerc´ıcio 3.35 Suponha que existem escalares c1, c2, c3, c4 tais que c1(1, 0, 0,−1) + c2(0, 1, 0, 1) + c3(0, 0, 1, 1) + c4(1, 0, 0, 1) = 0R4 . Enta˜o temos que (c1 + c4, c2, c3,−c1 + c2 + c3 + c4) = (0, 0, 0, 0). Logo c1 + c4 = 0 c2 = 0 c3 = 0 −c1 + c2 + c3 + c4 = 0 que possui somente a soluc¸a˜o trivial c1 = c2 = c3 = c4 = 0. Portanto, provamos que o conjunto {(1, 0, 0,−1), (0, 1, 0, 1), (0, 0, 1, 1), (1, 0, 0, 1)} e´ L.I. � 2.0.18 Exerc´ıcio 3.37 Primeiro vamos mostrar que S = {f, g} e´ L.D. em i)C([−1, 0]) e em ii)C([0, 1]). i): Suponha que existem escalares c1, c2 tais que c1f + c2g = 0C([−1,0]) Como temos uma igualdade de func¸o˜es isso implica que o lado esquerdo se anula em todo x ∈ [−1, 0]. E observe que neste intervalo g(x) = |x| = −x e portanto: 0 = c1f(x) + c2g(x) = c1x− c2x = (c1 − c2)x ∀x ∈ [−1, 0] E como temos uma igualdade de polinoˆmio, isso implica que c1 − c2 = 0 =⇒ c1 = c2. Portanto na˜o conseguimos concluir que c1 = c2 = 0. Por exemplo, c1 = c2 = 1 sa˜o tais que c1f + c2g = 0C([−1,0]) e logo S = {f, g} e´ L.D. neste espac¸o vetorial. ii)Analogamente conclu´ımos que c1 = 1 e c2 = −1 sa˜o tais que c1f + c2g = 0C([0,1]) O que implica que S = {f, g} e´ L.D. em C([0, 1]). Agora, provemos que S = {f, g} e´ L.I. em C([−1, 1]). Suponha que existem escalares c1, c2 tais que c1f + c2g = 0C([−1,1]) Issso implica que 0 = c1f(x) + c2g(x) = c1x+ c2|x| ∀x ∈ [−1, 1]. Agora, se restringirmos a igualdade para o intervalo [−1, 0] temos que 0 = c1x+ c2|x| = c1x− c2x = (c1 − c2)x =⇒ c1 − c2 = 0 =⇒ c1 = c2 (F) CAPI´TULO 2. ESPAC¸OS VETORIAIS 21 E se restringirmos a igualdade para o intervalo [0, 1] temos 0 = c1x+ c2|x| = c1x+ c2x = (c1 + c2)x =⇒ c1 + c2 = 0 =⇒ c1 = −c2 (♥) De ♥ e F conclu´ımos que c1 = c2 = 0, e consequentemente S = {f, g} e´ L.I. em C([−1, 1]). 2.0.19 Exerc´ıcio3.39 Se S = {v1, v2} e´ L.D. enta˜o existem escalares na˜o todos nulos c1, c2 tais que c1v1 + c2v2 = 0. Como pelo menos um dos escalares e´ na˜o nulo, digamos c1 6= 0, temos que v1 = −c2c1 v2. Sessa˜o 3.6 2.0.20 Exerc´ıcio 3.43 Primeiro acharemos os geradores de W . Uma matriz gene´rica de W ⊆M3(R) e´ da forma A = a11 a12 a13a12 a22 a23 a13 a23 a33 . Logo temos: A = a11 1 0 00 0 0 0 0 0 ︸ ︷︷ ︸ A1 +a12 0 1 01 0 0 0 0 0 ︸ ︷︷ ︸ A2 +a13 0 0 10 0 0 1 0 0 ︸ ︷︷ ︸ A3 +a22 0 0 00 1 0 0 0 0 ︸ ︷︷ ︸ A4 +a23 0 0 00 0 1 0 1 0 ︸ ︷︷ ︸ A5 +a33 0 0 00 0 0 0 0 1 ︸ ︷︷ ︸ A6 E consequentemente S = {A1, A2, A3, A4, A5, A6} e´ um conjunto de geradores para W . Agora, para saber se S e´ uma base de W precisamos apenas verificar se S e´ L.I., o que de fato acontece pois: Supondo escalares c1, c2, c3, c4, c5, c6 tais que c1A1 + c2A2 + c3A3 + c4A4 + c5A5 + c6A6 = 0 chegamos num sistema de equac¸o˜es com u´nica soluc¸a˜o c1 = c2 = c3 = c4 = c5 = c6 = 0. E portanto S e´ L.I. E como provamos que S e´ um conjunto de geradores L.I., encontramos a base S para o subespac¸o W . 2.0.21 Exerc´ıcio 3.46 Seja A = [ x y z t ] matriz gene´rica 2× 2. Enta˜o A ∈ U ⇐⇒ x− y − z = 0 ⇐⇒ x = y + z, logo todos elementos de U sa˜o da forma A = [ y + z y z t ] . Agora, para achar o sistema de geradores de U basta fatorar A pelas varia´veis restantes. Isto e´: CAPI´TULO 2. ESPAC¸OS VETORIAIS 22 A = [ y + z y z t ] = y · [ 1 1 0 0 ] ︸ ︷︷ ︸ A1 +z · [ 1 0 1 0 ] ︸ ︷︷ ︸ A2 +t · [ 0 0 0 1 ] ︸ ︷︷ ︸ A3 Logo todo elemento de U e´ combinac¸a˜o linear de A1, A2, A3 e portanto U = [A1, A2, A3]. E tambe´m podemos verificar que S = {A1, A2, A3} e´ um conjunto L.I., pois: c1· [ 1 1 0 0 ] +c2· [ 1 0 1 0 ] +c3· [ 0 0 0 1 ] = 0M2(R) =⇒ c1 + c2 = 0 c1 = 0 c2 = 0 c3 = 0 =⇒ c1 = c2 = c3 = 0. Portanto, como S gera U e e´ L.I., temos que S e´ uma base de U . 2.0.22 Exerc´ıcio 3.48 Encontremos primeiro os geradores de U . Seja p(x) = a+ bx+ cx2 polinoˆmio gene´rico de P2(R). Enta˜o p(x) ∈ U ⇐⇒ a− 2c = 0 ⇐⇒ a = 2c. Enta˜o a forma gene´rica de um elemento de U e´ p(x) = 2c + bx + cx2 = c(2 + x2) + b(x) e, consequentemente, temos U = [2 + x2, x]. Agora, como W = [1 − x, x − x2], podemos concluir que S = {2 + x2, x, 1 − x, x − x2} e´ um conjunto de geradores de U +W . Mas S na˜o e´ uma base de U +W pois, como veremos a seguir, e´ um conjunto L.D.. De fato, supondo escalares k1, k2, k3, k4 tais que k1(2 + x 2) + k2(x) + k3(1− x) + k4(x− x2) = 0P2(R), obtemos (2k1 + k3) + (k2 − k3 + k4)x+ (k1 − k4)x2 = 0P2(R) e portanto 2k1 + k3 = 0 k2 − k3 + k4 = 0 k1 − k4 = 0 (?). Que possui como soluc¸a˜o geral k1 = k4, k2 = −3k4 e k3 = −2k4. Isso significa que ao tomarmos k4 = 1 obtemos: (2 + x2)− 3x− 2(1− x) + (x− x2) = 0 =⇒ (x− x2) = (−1) · (2 + x2) + 3 · x+ 2 · (1− x) Logo x− x2 pode ser expresso como combinac¸a˜o linear dos outros 3 elementos. E enta˜o S′ = {2 + x2, x, 1− x} tambe´m gera U +W . Agora, verificamos que S’ e´ L.I.. Supondo escalares k1, k2, k3 tais que 0 = k1(2+x 2)+k2x+k3(1−x) = (2k1+k3)+(k2−k3)x+k1x2, obtemos apenas a soluc¸a˜o trivial k1 = k2 = k3 = 0. Portanto S′ e´ uma base de U +W . OBS.: O fato do sistema (?) ter soluc¸a˜o geral com apenas 1 grau de liberdade esta´ intimamente ligado com o fato do conjunto S ter apenas 1 elemento que e´ combinac¸a˜o linear dos outros. Isto e´, podemos escolher qual dos elementos na equac¸a˜o vamos expressar como combinac¸a˜o linear dos CAPI´TULO 2. ESPAC¸OS VETORIAIS 23 outros, pore´m ao retira´-lo de S na˜o encontraremos outro elemento que seja combinac¸a˜o linear dos restantes. 2.0.23 Exerc´ıcio 3.54 Dizemos que um conjunto ϕ de condic¸o˜es sa˜o condic¸o˜es necessa´rias e suficientes para que dim(U ∩W ) = dim(W ) quando temos “ϕ ⇐⇒ dim(U ∩W ) = dim(W )”. Agora, sabemos que se W ⊆ U enta˜o temos U ∩W = W e portanto conclu´ımos que W ⊆ U =⇒ dim(U ∩W ) = dim(W ). Caso a volta ⇐= seja va´lida, encontramos o que quer´ıamos. E de fato a rec´ıproca e´ va´lida. Supondo dim(U ∩W ) = dim(W ) vamos provar W ⊆ U . Por absurdo, se fosse W 6⊆ U enta˜o existiria um elemento na˜o-nulo w ∈ W tal que w 6∈ U . Pore´m isso implicaria que para todo escalar λ 6= 0, λw 6∈ U (pois U e´ espac¸o vetorial). Com isso ter´ıamos que dim(U ∩W ) < dim(W ), absurdo! Logo dim(U ∩W ) = dim(W ) =⇒ W ⊆ U . � 2.0.24 Exerc´ıcio 3.57 Seja S = {p1(x), p2(x), p3(x), p4(x)}. Precisamos mostrar que i) P3(R) = [S] e que ii) S e´ L.I.. i) Seja p(x) = a + bx + cx2 + dx3 polinoˆmio gene´rico de P3(R). Preciso mostrar que existem escalares k1, k2, k3, k4 tais que p(x) = k1p1(x) + k2p2(x)k3p3(x) + k4p4(x). E isso acontece se, e somente se: a+ bx+ cx2 + dx3 = (k1 + k2 + k3 + k4) + (k2 − k4)x+ (−k3 − k4)x2 − k4x3 Que e´ equivalente a dizer que k1 + k2 + k3 + k4 = a k2 − k4 = b −k3 − k4 = c −k4 = d . Note que k1 = a− b+ c+ d k2 = b− d k3 = d− c k4 = −d e´ uma soluc¸a˜o do sistema e portanto temos os coeficientes da combinac¸a˜o linear desejada. Logo P3(R) = [S]. ii) Supondo escalares k1, k2, k3, k4 tais que k1p1(x) + k2p2(x)k3p3(x) + k4p4(x) = 0P3(R) e igua- lando coeficiente a coeficiente chegamos no sistema k1 + k2 + k3 + k4 = 0 k2 − k4 = 0 −k3 − k4 = 0 −k4 = 0 . Que possui somente a soluc¸a˜o trivial k1 = k2 = k4 = 0. Portanto S e´ L.I.. CAPI´TULO 2. ESPAC¸OS VETORIAIS 24 Como provamos que S gera P3(R) e que e´ L.I., provamos que S e´ uma base de P3(R). � 2.0.25 Exerc´ıcio 3.58 Precisamos mostrar que: i) V ∩W = {0R3} e ii) R3 = V +W . i) Como V 6⊆ W , existe um elemento v ∈ V que na˜o pertence a W . Com isso temos que todo mu´ltiplo λv na˜o-nulo de v tambe´m na˜o esta´ em W , pois caso contra´rio ter´ıamos que v = 1λλv ∈ W (pois W e´ subespac¸o vetorial). Mas como dim(V ) = 1 isso implica que todo elemento na˜o-nulo de V na˜o pertence a W . E como 0R3 ∈W , segue que V ∩W = {0R3}. ii) Seja A = {w1, w2} uma base de W e B = {v1} uma base de V . Enta˜o temos que A ∪B = {w1, w2, v1} e´ L.I.. De fato, supondo escalares c1, c2, c3 tais que: c1w1 + c2w2 + c3v1 = 0 Temos que c3v1 = −c1w1 − c2w2. Agora, se c3 6= 0 ter´ıamos que v1 e´ combinac¸a˜o linear de w1 e w2 (que sabemos que na˜o e´ verdade); logo c3 = 0. Mas isso implica que c1w1 + c2w2 = 0, e como sabemos que A = {w1, w2} e´ L.I. (pois e´ base) temos que c1 = c2 = 0 = c3. E portanto dim(U +W ) = dim([A ∪B]) = 3. Mas como dim(R3) = 3 e U +W ⊆ R3 segue que U +W = R3. � 2.0.26 Exerc´ıcio 3.60 Note que (−1, 1, 0, 1) = −2(1, 2, 1, 0) + (1, 5, 2, 1) e disso chegamos a dim(U ∩W ) = 2. Enta˜o, como diz o Teorema 3.6.5: dim(U +W ) = dim(U) + dim(W )− dim(U ∩W ) = 3 + 3− 2 = 4 Uma segunda maneira de resolver esse exerc´ıcio e´ a seguinte: Como U ⊆ U +W ⊆ R4, segue que 3 ≤ dim(U +W ) ≤ 4. Finalmente, dim(U + W ) tambe´m na˜o pode ser igual a 3; pois caso contra´rio ter´ıamos 3 = dim(U + W ) = dim(U) = dim(W ) =⇒ U = U + W = W =⇒ U ∩ W = U , que e´ um absurdo pois dim(U ∩W ) = 2. Portanto so´ podemos ter dim(U +W ) = 4. 2.0.27 Exerc´ıcio 3.62 Note que: U = [(0, 1, 0)︸ ︷︷ ︸ u1 , u2︷ ︸︸ ︷ (0, 0, 1)] CAPI´TULO 2. ESPAC¸OS VETORIAIS 25 V = [(1, 0, 0)︸ ︷︷ ︸ v1 , v2︷ ︸︸ ︷ (0, 1, 2)] W = [(1, 1, 0)︸ ︷︷ ︸ w1 , w2︷ ︸︸ ︷ (0, 0, 2)] i) Enta˜o V+W = [v1, v2, w1, w2]. Agora precisamos achar um subconjunto L.I. de {v1, v2, w1, w2}. Supondo escalares c1, c2, c3, c4 tais que c1v1 + c2v2 + c3w1 + c4w2 = 0 chegamos ao sistema: c1 + c3 = 0 c2 + c3 = 0 2c2 + 2c4 = 0 Que possui soluc¸a˜o geral c1 = −c3, c2 = −c3 e c4 = c3. Voltando na combinac¸a˜olinear descobrimos que (colocando c3 = 1) w2 = v1+v2−w1. E podemos verificar que {v1, v2, w1} e´ L.I. e, portanto, uma base de V +W . ii) Agora, temos que U + V + W = [u1, u2, v1, v2, w1, w2]. Analogamente supondo escalares c1, c2, c3, c4, c5, c6 tais que c1u1 + c2u2 + c3v1 + c4v2c5w1 + c6w2 = 0 chegamos ao sistema: c3 + c5 = 0 c1 + c4 + c5 = 0 c2 + 2c4 + 2c6 = 0 Que possui soluc¸a˜o geral c1 = −c4 − c5, c2 = −2c4 − 2c6 e c3 = −c5. Substituindo na combinac¸a˜o linear • c4 = 0 e c5 = c6 = 1 • c5 = 0 e c4 = c6 = 1 • c6 = 0 e c4 = c5 = 1 obtemos, respectivamente: • w1 = u1 + 2u2 + v1 − w2 • w2 = u1 + 4u2 − v2 • v2 = 2u2 + 2u2 + v1 − w1 E portanto U + V + W = [u1, u2, v1]. Podemos verificar que {u1, u2, v1} e´ L.I. e portanto uma base de U + V +W . iii): Seja v = (x, y, z) elemento gene´rico de R3. Enta˜o v ∈ U ∩ V ⇐⇒ v ∈ U e v ∈ V . Logo existem escalares c1, c2, d1, d2 tais que c1u1 + c2u2 = d1v1 + d2v2 CAPI´TULO 2. ESPAC¸OS VETORIAIS 26 Isso equivale a (0, c1, c2) = (d1, d2, 2d2). Como d1 = 0, d2 = c1 resolve o sistema de 3 equac¸o˜es que obtemos da linha de cima, segue que v = c1(0, 1, 2) e portanto U ∩ V = [(0, 1, 2)]. Logo {(0, 1, 2)} e´ uma base para U ∩ V . Sessa˜o 3.7 2.0.28 Exerc´ıcio 3.63 Temos que [ p ] γ = c1 c2 c3 c4 onde c1, c2, c3, c4 sa˜o os escalares que satisfazem p(x) = c1 · (1) + c2 · (1− x) + c3 · (1− x)2 + c4 · (1− x)3 Enta˜o, vamos encontrar tais escalares (existem pois γ e´ uma base). Temos: p(x) = 3− 2x− x2 = c1 + c2 − c2x+ c3 − 2c3x+ c3x2 + c4 − 3c4x+ 3c4x2 − c4x3 = (c1 + c2 + c3 + c4) + (−c2 − 2c3 − 3c4)x+ (c3 + 3c4)x2 − c4x3 Como possu´ımos uma igualdade de polinoˆmios temos que seus coeficientes devem coincidir. Isto e´: c1 + c2 + c3 + c4 = 3 −c2 − 2c3 − 3c4 = −2 c3 + 3c4 = −1 −c4 = 0 =⇒ c1 = c4 = 0, c2 = 4 e c3 = −1. Portanto [ p ] γ = 0 4 −1 0 . 2.0.29 Exerc´ıcio 3.64 Temos que [ p ] β = 3 2 1 −1 , e pela definic¸a˜o de matriz de coordenadas isso nos leva a : p(x) = x+ x2 = 3 2 · (2) + 1 · (a+ x)− 1 · (1 + bx2) Logo temos que x+ x2 = 3 + a+ x− 1− bx2 = (2 + a) + x− bx2, da´ı 0 = 2 + a 1 = 1 1 = −b , que acontece somente se a = −2 e b = −1. CAPI´TULO 2. ESPAC¸OS VETORIAIS 27 2.0.30 Exerc´ıcio 3.67 (a) Precisamos mostrar que: i) V = [β] e ii)β e´ L.I.. i) Dado v elemento gene´rico de V , quero encontrar escalares c1, c2, c3 tais que v = c1v1 + c2(v1 + v2) + c3(−v1 + v2 + v3). Pore´m, ja´ sabemos que γ = {v1, v2, v3} e´ uma base de V . Portanto sei que existem escalares a1, a2, a3 tais que v = a1v1 + a2v2 + a3v3. Agora temos que: v = c1v1 + c2(v1 + v2) + c3(−v1 + v2 + v3) ⇐⇒ a1v1 + a2v2 + a3v3 = c1v1 + c2(v1 + v2) + c3(−v1 + v2 + v3) = (c1 + c2 − c3)v1 + (c2 + c3)v2 + c3v3. Agora verificaremos se conseguimos resolver o sistema c1 + c2 − c3 = a1 c2 + c3 = a2 c3 = a3 , pois enta˜o vamos ter exibido os coeficientes que mostram v como combinac¸a˜o linear dos elementos de β. E de fato conseguimos resolver o sistema, obtendo c3 = a3, c2 = a2−a3 e c1 = a1−a2+2a3 como soluc¸a˜o. Portanto conclu´ımos que todo elemento de V pode ser escrito como combinac¸a˜o linear dos ele- mentos de β. Isto e´, V = [β]. ii) Suponha escalares c1, c2, c3 tais que c1v1 + c2(v1 + v2) + c3(−v1 + v2 + v3) = 0V Enta˜o temos que (c1 + c2 − c3)v1 + (c2 + c3)v2 + c3v3 = 0, e como γ = {v1, v2, v3} e´ L.I. isso implica que necessariamente devemos ter c1 + c2 − c3 = 0 c2 + c3 = 0 c3 = 0 . O que implica que c1 = c2 = c3 = 0. E portanto β e´ L.I.. De i) e ii) provamos que β e´ uma base de V . (b) [ v ] γ = 2−1 1 =⇒ v = 2v1 − v2 + v3. Usando os valores encontrados para os coeficientes da combinac¸a˜o linear dos elementos de β que resulta em v, obtemos c3 = 1, c2 = −1− 1 = −2 e c1 = 2− (−1) + 2 · 1 = 5. Logo [ v ] β = 5−2 1 . Sessa˜o 3.8 2.0.31 Exerc´ıcio 3.69 Seja γ = {A1, A2, A3} e β = {B1, B2, B3}. CAPI´TULO 2. ESPAC¸OS VETORIAIS 28 Por definic¸a˜o, a matriz de mudanc¸a de base de γ para β e´: [ I ]γ β = ∣∣∣ ∣∣∣ ∣∣∣[ A1 ] β [ A2 ] β [ A3 ] β∣∣∣ ∣∣∣ ∣∣∣ Calculemos enta˜o cada coluna separadamente. Por definic¸a˜o, [ A1 ] β = c1c2 c3 Onde os ci’s sa˜o os coeficientes da combinac¸a˜o linear que expressa A1 na base β. Isto e´, os coefi- cientes tais que A1 = c1B1 + c2B2 + c3B3. Substituindo as matrizes que ja´ conhecemos obtemos:[ 1 0 1 0 ] = c1 [ 1 1 0 0 ] + c2 [ 1 0 1 0 ] + c3 [ 0 0 0 1 ] = [ c1 + c2 c1 c2 c3 ] Que nos leva ao sistema c1 + c2 = 1 c1 = 0 c2 = 1 c3 = 0 , que possui soluc¸a˜o c1 = c3 = 0 e c2 = 1. Portanto [ A1 ] β = 01 0 . Analogamente calculamos [ A2 ] β e [ A3 ] β . A2 = c1B1 + c2B2 + c3B3 ⇐⇒ c1 + c2 = 0 c1 = −1 c2 = 1 c3 = 0 ⇐⇒ c1 = −2, c2 = 1 e c3 = 0. A3 = c1B1 + c2B2 + c3B3 ⇐⇒ c1 + c2 = 0 c1 = 0 c2 = 0 c3 = 1 ⇐⇒ c1 = c2 = 0 e c3 = 1. Portanto [ A2 ] β = −21 0 e [A3] β = 00 1 . CAPI´TULO 2. ESPAC¸OS VETORIAIS 29 E enta˜o [ I ]γ β = 0 1 0−2 1 0 0 0 1 . 2.0.32 Exerc´ıcio 3.70 Por definic¸a˜o, [ I ]β γ = ∣∣∣ · · · ∣∣∣[ v1 ] γ · · · [ vn ] γ∣∣∣ · · · ∣∣∣ . Calculemos, por exemplo, a primeira coluna. [ v1 ] γ = k1 ... kn , onde os ki’s sa˜o os coeficientes da combinac¸a˜o linear de γ que expressa v1. Agora, para achar os ci’s vamos representar primeiro v1 na base α e depois representar cada ele- mento da base α na base γ. Isto e´, v1 = a11u1 + · · ·+ an1un = a11(c11w1 + · · ·+ cn1wn) + · · ·+ an1(c1nw1 + · · ·+ cnnwn) Onde cij e´ a i-e´sima coordenada de vj na base γ. Observe que agora ja´ temos v1 como combinac¸a˜o linear de elementos de γ, basta fazer o trabalho manual de exibir os coeficientes. Enta˜o temos: v1 = a11(c11w1 + · · ·+ cn1wn) + · · ·+ an1(c1nw1 + · · ·+ cnnwn) = (a11c11 + · · ·+ an1c1n)w1 + · · ·+ (a11cn1 + · · ·+ an1cnn)wn Fazendo o mesmo processo para todo vj ’s obtemos: vj = a1j(c11w1 + · · ·+ cn1wn) + · · ·+ anj(c1nw1 + · · ·+ cnnwn) = (a1jc11 + · · ·+ anjc1n)w1 + · · ·+ (a1jcn1 + · · ·+ anjcnn)wn Agora temos explicitamente os valores das entradas de [ I ]β γ . Por exemplo, a entrada m11 da matriz de mudanc¸a de base de β para γ sera´ a primeira coorde- nada de v1 na base γ. Isto e´, m11 = n∑ k=1 ak1c1k Por exemplo, a entrada m1j da matriz de mudanc¸a de base de β para γ sera´ a primeira coorde- nada de vj na base γ. Isto e´, m1j = n∑ k=1 akjc1k Por exemplo, a entrada mij da matriz de mudanc¸a de base de β para γ sera´ a i-e´sima coorde- nada de vj na base γ. CAPI´TULO 2. ESPAC¸OS VETORIAIS 30 Isto e´, mij = n∑ k=1 akjcik = n∑ k=1 cikakj . Que e´ exatamente a definic¸a˜o do elemento origina´rio do produto das matrizes Q · P . Isto e´, [ I ]β γ = Q · P = [ I ]α γ [ I ]β α � Agora na segunda parte do exerc´ıcio, queremos provar que uma matriz de mudanc¸a de base gene´rica [ I ]A B e´ invert´ıvel. Por definic¸a˜o [ I ]B B = In. Por outro lado In = [ I ]B B = [ I ]A B [ I ]B A . E portanto segue que [ I ]A B e´ invert´ıvel com ( [ I ]A B )−1 = [ I ]B A . OBS.: A resoluc¸a˜o da primeira parte deste exerc´ıcio e´ muito “conteira” e pesada de notac¸o˜es; pore´m possui pouco conteu´do pragmaticamente relevante, embora seja importante para o desen- volvimento teo´rico. Sendo assim, fica a seu crite´rio a importaˆncia de teˆ-la compreendido “com-pletamente”. 2.0.33 Exerc´ıcio 3.72 Considere α = {v1, v2}. Pela definic¸a˜o de matriz de mudanc¸a de base temos: [ I ]γ α = ∣∣ ∣∣[ u1 ] α [ u2 ] α∣∣ ∣∣ . Sendo assim, obtemos:[ u1 ] α = [ 1 4 ] e [ u2 ] α = [ 0 −2 ] Logo u1 = v1 + 4v2 e u2 = −2v2. E portanto v2 = − 12u2 = (1,−1) e v1 = u1 − 4v2 = (−3, 5). Agora, se [ u ] α = [ 1 2 ] enta˜o u = v1 + 2v2 = (−1, 3). Cap´ıtulo 3 Transformac¸o˜es Lineares Sessa˜o 4.2 3.0.1 Exerc´ıcio 4.4 Base para W : Seja v = (x, y) elemento gene´rico de R2. Enta˜o temos: v ∈ W ⇐⇒ T (x, y) = 3(x, y) ⇐⇒ (2x − y,−x + 2y) = 3(x, y) ⇐⇒ 2x− y = 3x−x+ 2y = 3y ⇐⇒ x = −y Logo v = (x, y) esta´ em W se, e somente se, v = (−y, y) = y(−1, 1). Portanto W = [(−1, 1)] e α = {(−1, 1)} e´ uma base para W . Base para U : Seja v = (x, y) elemento gene´rico de R2. Enta˜o temos: v ∈ U ⇐⇒ T (x, y) = (x, y) ⇐⇒ (2x− y,−x+ 2y) = (x, y) ⇐⇒ 2x− y = x−x+ 2y = y ⇐⇒ x = y Logo v = (x, y) esta´ em U se, e somente se, v = (y, y) = y(1, 1). Portanto U = [(1, 1)] e β = {(1, 1)} e´ uma base para U . 3.0.2 Exerc´ıcio 4.6 O exerc´ıcio de determinar uma transformac¸a˜o linear satisfazendo certas condic¸o˜es e´ bastante t´ıpico e ira´ nos acompanhar ate´ alguns cap´ıtulos a frente. A frase da teoria que fundamenta a soluc¸a˜o deste tipo de exerc´ıcio e´ a seguinte (Teorema 4.2.1): “Uma transformac¸a˜o linear fica completamente determinada pelos seus valores numa base” Sendo assim, nossa tarefa de criar uma transformac¸a˜o linear que satisfac¸a certas propriedades sera´ sempre executada dizendo o que acontece com tal transformac¸a˜o nos elementos de uma base. 31 CAPI´TULO 3. TRANSFORMAC¸O˜ES LINEARES 32 A soluc¸a˜o desse exerc´ıcio e´, em particular, mais direta. Como α = {(1, 1), (1,−1)} e´ uma base de R2, existe somente uma transformac¸a˜o linear T satisfa- zendo as duas condic¸o˜es. Enta˜o econtremos sua fo´rmula. Dado v = (v1, v2) elemento gene´rico de R2, vamos encontrar primeiro suas coordenadas na base α. (v1, v2) = a(1, 1) + b(1,−1) = (a+ b, a− b) =⇒ a+ b = v1a− b = v2 =⇒ a = v1+v22 e b = v1−v22 . Portanto (v1, v2) = v1+v2 2 (1, 1) + v1−v2 2 (1,−1), e aplicando T dos dois lados obtemos: T (v1, v2) = T ( v1 + v2 2 (1, 1) + v1 − v2 2 (1,−1)) = v1 + v2 2 T (1, 1) + v1 − v2 2 T (1,−1) pois T e´ linear. Agora para T satisfazer as duas condic¸o˜es devemos ter T (v1, v2) = v1+v2 2 (x 2 − 1) + v1−v22 (x3 + 1) e consequentemente: T (v1, v2) = −v2 + (v1 + v2 2 )x2 + ( v1 − v2 2 )x3 Sessa˜o 4.3 3.0.3 Exerc´ıcio 4.9 Base para Ker(T ): Dado v = (x, y, z) elemento gene´rico de R3. Enta˜o v ∈ Ker(T ) ⇐⇒ T (v) = 0R2 ⇐⇒ (x− y − z, 2z − x) = (0, 0) ⇐⇒ x− y − z = 02z − x = 0 ⇐⇒ x = 2z e y = z. Portanto v ∈ Ker(T ) ⇐⇒ v = (2z, z, z) = z(2, 1, 1). Logo Ker(T ) = [(2, 1, 1)], e α = {(2, 1, 1)} e´ uma base para Ker(T ). Base para Im(T ): Dado u = (x1, x2) elemento gene´rico de R2. Enta˜o u ∈ Im(T ) ⇐⇒ ∃v = (x, y, z) ∈ R3;u = T (v). Sendo assim, a forma gene´rica de um elemento em Im(T ) e´ u = T (v) = (x− y − z, 2z − x) = x(1,−1) + y(−1, 0) + z(−1, 2). Logo Im(T ) = [(1,−1), (−1, 0), (−1, 2)] e β = {(1,−1), (−1, 0)} e´ uma base para Im(T ). 3.0.4 Exerc´ıcio 4.10 Base para Ker(T ): Dado p(x) = a + bx + cx2 elemento gene´rico de P2(R). Enta˜o p(x) ∈ Ker(T ) ⇐⇒ T (p(x)) = 0U ⇐⇒ a− b+ 2c 0 00 2a+ b 0 0 0 −a− 2b+ 2c = 0 0 00 0 0 0 0 0 ⇐⇒ a− b+ 2c = 0 2a+ b = 0 −a− 2b+ 2c = 0 ⇐⇒ CAPI´TULO 3. TRANSFORMAC¸O˜ES LINEARES 33 b = −2ac = − 32a . Portanto p(x) ∈ Ker(T ) ⇐⇒ p(x) = a− 2ax− 32ax2 = a(1− 2x− 32x2). Logo Ker(T ) = [1− 2x− 32x2] = [2− 4x− 3x2] e α = {2− 4x− 3x2} e´ uma base para Ker(T ). Base para Im(T ): Dada A ∈ U . Enta˜o A ∈ Im(T ) ⇐⇒ ∃p(x) ∈ P2(R);A = T (p(x)). Sendo assim, a forma gene´rica de um elemento em Im(T ) e´ A = T (p(x)) = a− b+ 2c 0 00 2a+ b 0 0 0 −a− 2b+ 2c = a 1 0 00 2 0 0 0 −1 ︸ ︷︷ ︸ A1 +b −1 0 00 1 0 0 0 −2 ︸ ︷︷ ︸ A2 +c 2 0 00 0 0 0 0 2 ︸ ︷︷ ︸ A3 Portanto Im(T ) = [A1, A2, A3] e β = {A1, A2, A3} e´ uma base para Im(T ) pois e´ L.I.. Sessa˜o 4.4 3.0.5 Exerc´ıcio 4.17 Primeiramente note que U = [ u1︷ ︸︸ ︷ (−1, 1, 0), u2︷ ︸︸ ︷ (−1, 0, 1)] e que W = [ w1︷ ︸︸ ︷ (1, 0, 1), w2︷ ︸︸ ︷ (0,−1, 1)]. Determinemos enta˜o U ∩W . Dado v = (x, y, z) elemento gene´rico de R3, sei que v ∈ U ∩W ⇐⇒ v ∈ U e v ∈W ⇐⇒ ∃a1, a2, b1, b2; a1u2 + a2u2 = b1w1 + b2w2 ⇐⇒ (−a1 − a2, a1, a2) = (b1,−b2, b1 + b2) ⇐⇒ a2 = b1 a1 = −b2 a2 = b1 + b2 ⇐⇒ a1 = 0a2 = b1 . Portanto v ∈ U ∩W ⇐⇒ v = b1(−1, 0, 1). Logo U ∩W = [(−1, 0, 1)]. Agora recordamos que “Uma transformac¸a˜o linear fica completamente determinada pelos seus valores numa base” e que devemos satisfazer: i)Im(T ) = [(−1, 1, 0), (−1, 0, 1)] e ii)Ker(T ) = [(−1, 0, 1)]. Escolhemos • T (−1, 0, 1) = 0R3 para satisfazer ii). E tambe´m • T (0, 1, 0) = (−1, 1, 0) • T (0, 0, 1) = (−1, 0, 1) para satisfazer i). Note que com essas 3 informac¸o˜es, T fica completamente determinada pois α = {(−1, 0, 1), (0, 1, 0), (0, 0, 1)} e´ uma base de R3 (Prove!). CAPI´TULO 3. TRANSFORMAC¸O˜ES LINEARES 34 Agora nos resta achar explicitamente a fo´rmula de T (x, y, z), que e´ ana´logo ao Exerc´ıcio 4.6. Primeiro, precisamos achar as coordenadas de um vetor v = (x, y, z) gene´rico de R3 na base α na qual sabemos como T se comporta. Isto e´, precisamos achar os escalares a1, a2, a3 tais que (x, y, z) = a1(−1, 0, 1) + a2(0, 1, 0) + a3(0, 0, 1) Da´ı, temos que (x, y, z) = (−a1, a2, a1 + a3) que nos leva ao sistema −a1 = x a2 = y a1 + a3 = z , que possui soluc¸a˜o a1 = −x a2 = y a3 = z + x . Portanto (x, y, z) = −x(−1, 0, 1) + y(0, 1, 0) + (z + x)(0, 0, 1). Aplicando T nos dois lados da igualdade e usando a linearidade de T temos que: T (x, y, z) = −xT (−1, 0, 1)+yT (0, 1, 0)+(z+x)T (0, 0, 1) = −x(0, 0, 0)+y(−1, 1, 0)+(z+x)(−1, 0, 1) E finalmente conclu´ımos que T (x, y, z) = (−x − y − z, y, x + z) e´ a (u´nica) transformac¸a˜o linear que satisfaz a`s condic¸o˜es citadas. OBS.: E´ de bom costume, apo´s exibir a fo´rmula de T , provar rapidamente as propriedades cita- das (e tambe´m para verificar se na˜o houve nenhum erro de conta no processo!). 3.0.6 Exerc´ıcio 4.19 (a) Falso! Suponha, por absurdo, que existe uma transformac¸a˜o linear injetora T : R4 =⇒ R3. Isso implicaria que Ker(T ) = {0R3} e consequentemente dim(Ker(T )) = 0. Da´ı, pelo teorema do nu´cleo e da imagem ter´ıamos: dim(R4) = dim(Ker(T )) + dim(Im(T )) O que nos leva a 4 = 0 + dim(Im(T )) e dim(Im(T )) = 4, pore´m Im(T ) ⊆ R3 e dim(R3) = 3; absurdo!. � OBS.: Similarmente, sempre que dim(V ) ≥ dim(W ) podemos provar que na˜o existe uma trans- formac¸a˜o linear T : V →W injetora. (b) Verdadeiro! Seja α = {(1, 0, 0, 0), (0, 1, 0, 0)(0, 0, 1, 0), (0, 0, 0, 1)} base canoˆnica de R4 e β = {1, x, x2} base canoˆnica de P2(R). Constru´ımos a transformac¸a˜o linear T considerando que: • T (1, 0, 0, 0) = 1 CAPI´TULO 3. TRANSFORMAC¸O˜ES LINEARES 35 • T (0, 1, 0, 0) = x • T (0, 0, 1, 0) = x2 • T (0, 0, 0, 1) = 0 Podemos verificar que Im(T ) = P2(R) e consequentemente T e´ sobrejetora. � OBS.: Similarmente, sempre que dim(V ) ≥ dim(W ) podemos provar que existe uma trans- formac¸a˜o linear sobrejetora T : V →W . (c) Falso! Sabemos que T e´ bijetora ⇐⇒ T e´ injetora e sobrejetora. Existem transformac¸o˜es lineares injetoras de R2 em P2(R). Pore´m, na˜o existem transformac¸o˜es lineares sobrejetoras T : R2 → P2(R). De fato, suponha que ∃T : R2 → P2(R) linear e sobrejetora. Enta˜o ter´ıamos que Im(T ) = P2(R) e consequentemente dim(Im(T )) = dim(P2(R)) = 3. Mas, pelo Teoremado Nu´cleo e da Imagem, isso implicaria que: dim(R2) = dim(Ker(T )) + dim(Im(T )) Da´ı, 2 = dim(Ker(T )) + 3 e dim(Ker(T )) = −1; absurdo! pois a dimensa˜o de um espac¸o vetorial deve ser sempre na˜o-negativa. � 3.0.7 Exerc´ıcio 4.25 (a) Se T e P sa˜o transformac¸o˜es lineares injetoras, enta˜o Ker(T ) = {0V } e Ker(P ) = {0W }. Pelo Teorema do Nu´cleo e da Imagem temos: dim(U) = dim(Ker(T )) + dim(Im(T )) dim(V ) = dim(Ker(P )) + dim(Im(P )) Portanto dim(U) = dim(Im(T )) e dim(V ) = dim(Im(P )). Mas dim(Im(T )) ≤ dim(V ), pois Im(T ) ⊆ V . Da´ı, dim(U) ≤ dim(V ) F. Similarmente, como dim(Im(P )) ≤ dim(W ), pois Im(P ) ⊆W ; temos que dim(V ) ≤ dim(W ) ♥. De F e ♥ conclu´ımos que dim(U) ≤ dim(V ) ≤ dim(W ). � (b) Se T e P sa˜o transformac¸o˜es lineares sobrejetoras, enta˜o Im(T ) = V e Im(P ) = W . Logo dim(Im(T )) = dim(V ) e dim(Im(P )) = dim(W ). Pelo Teorema do Nu´cleo e da Imagem devemos ter: dim(U) = dim(Ker(T )) + dim(Im(T )) dim(V ) = dim(Ker(P )) + dim(Im(P )) Portanto dim(U) = dim(Ker(T )) + dim(V ) e dim(V ) = dim(Ker(P )) + dim(W ). Logo temos que dim(U) ≥ dim(V )F e dim(V ) ≥ dim(W )♥; pois a dimensa˜o do nu´cleo e´ sempre na˜o-negativa. CAPI´TULO 3. TRANSFORMAC¸O˜ES LINEARES 36 De F e ♥ conclu´ımos que dim(U) ≥ dim(V ) ≥ dim(W ). � Sessa˜o 4.5 3.0.8 Exerc´ıcio 4.26 Uma func¸a˜o T : R3 → R3 e´ um isomorfismo de espac¸os vetoriais se, e somente se, T e´ linear e bijetora. Como ja´ nos foi informado que T e´ linear, basta provar que T e´ bijetora. T e´ injetora: Calculemos Ker(T ). Seja v = (x, y, z) elemento gene´rico de R3, enta˜o v ∈ Ker(T ) ⇐⇒ T (v) = (0, 0, 0) ⇐⇒ (x− 2y, z, x+ y) = (0, 0, 0) ⇐⇒ x− 2y = 0 z = 0 x+ y = 0 ⇐⇒ x = y = z = 0. Portanto Ker(T ) = {0R3} e consequentemente T e´ injetora. T e´ sobrejetora: Provemos que Im(T ) = R3. De fato, seja u ∈ R3. Enta˜o u ∈ Im(T ) ⇐⇒ ∃v = (x, y, z) ∈ R3 tal que u = T (v) Sendo assim, a forma gene´rica de um elemento em Im(T ) e´ u = T (v) = (x − 2y, z, x + y) = x(1, 0, 1) + y(−2, 0, 1) + z(0, 1, 0). Logo Im(T ) = [(1, 0, 1), (−2, 0, 1), (0, 1, 0)] e podemos verificar que {(1, 0, 1), (−2, 0, 1), (0, 1, 0)} e´ L.I. e portanto uma base de Im(T ). Logo dim(Im(T )) = 3 = dim(R3) e como Im(T ) ⊆ R3 segue que Im(T ) = R3 e consequente- mente T e´ sobrejetora. � 3.0.9 Exerc´ıcio 4.28 Note que S = [(1, 1, 0), (−2, 0, 1)]. Agora, consideremos a base α = {(1, 0), (0, 1)} canoˆnica de R2. Enta˜o considere T : R2 → S a transformac¸a˜o linear determinada por: • T (1, 0) = (1, 1, 0) • T (0, 1) = (−2, 0, 1) Agora vamos exibir a fo´rmula de T . Primeiro achamos as coordenadas de um elemento gene´rico (x, y) ∈ R2 na base α. Isto e´, acharemos a1, a2 tais que (x, y) = a1(1, 0) + a2(0, 1). Isso acontece somente se (x, y) = (a1, a2) e logo a1 = x e a2 = y. Enta˜o T (x, y) = xT (1, 0) + yT (0, 1) = (x− 2y, x, y) CAPI´TULO 3. TRANSFORMAC¸O˜ES LINEARES 37 e´ o isomorfismo procurado (Prove que T e´ uma bijec¸a˜o!). � Sessa˜o 4.8 3.0.10 Exerc´ıcio 4.42 Seja α = {a1, a2}, β = {b1, b2} e γ = {c1, c2} bases de R2. � Por definic¸a˜o [ T ]β β = ∣∣ ∣∣[ T (b1) ] β [ T (b2) ] β∣∣ ∣∣ . Agora T (b1) = T (1, 0) = (1, 2) = 1·(1, 0)+2·(0, 1) e T (b2) = T (0, 1) = (2, 4) = 2 · (1, 0) + 4 · (0, 1). Portanto [ T ]β β = [ 1 2 2 4 ] . � Por definic¸a˜o [ T ]β α = ∣∣ ∣∣[ T (b1) ] α [ T (b2) ] α∣∣ ∣∣ . Agora preciso descobrir as constantes k1, k2 tais que T (b2) = (1, 2) = k1(1,−1) + k2(0, 1). Da´ı, (1, 2) = (k1,−k1 + k2) =⇒ k1 = 1−k1 + k2 = 2 =⇒ k1 = 1 e k2 = 3. Agora preciso descobrir as constantes k′1, k′2 tais que T (b2) = (2, 4) = k′1(1,−1) + k′2(0, 1). Da´ı, (2, 4) = (k′1,−k′1 + k′2) =⇒ k′1 = 2−k′1 + k′2 = 4 =⇒ k′1 = 2 e k′2 = 6. Portanto [ T ]β α = [ 1 2 3 6 ] . � Por definic¸a˜o, [ T ]α β = ∣∣ ∣∣[ T (a1) ] β [ T (a2) ] β∣∣ ∣∣ . Agora T (a1) = T (1,−1) = (−1,−2) = −1 · (1, 0) − 2 · (0, 1) e T (a2) = T (0, 1) = (2, 4) = 2 · (1, 0) + 4 · (0, 1). Portanto [ T ]α β = [ −1 2 −2 4 ] . � Por definic¸a˜o, [ T ]γ α = ∣∣ ∣∣[ T (c1) ] α [ T (c2) ] α∣∣ ∣∣ . Agora T (c1) = T (1,−1) = (−1,−2) = −1 · (−1,−2) + 1 · (0, 1) e T (c2) = T (1, 1) = (3, 6) = 3 · (1,−1) + 9 · (0, 1). Portanto [ T ]γ α = [ −1 3 1 9 ] . 3.0.11 Exerc´ıcio 4.45 (a) Sabemos que [ T (p(x)) ] γ = [ T ]β γ · [ p(x) ] β . CAPI´TULO 3. TRANSFORMAC¸O˜ES LINEARES 38 Disso, 35 4 = 1 12 1 1 2 [c1 c2 ] =⇒ c1 + c2 = 3 2c1 + c2 = 5 c1 + 2c2 = 4 , que possui soluc¸a˜o c1 = 2 e c2 = 1. Portanto [ p(x) ] β = [ 2 1 ] . (b) Observe que[ T (x− x2 + x3) ] γ = [ T ]β γ [ x− x2 + x3 ] β = 1 12 1 1 2 [1 0 ] = 12 1 Enta˜o T (x− x2 + x3) = 1− 2x+ 3x2 = 1(x+ 2) + 2p1(x) + p2(x) F. E tambe´m temos[ T (1 + x+ x2) ] γ = [ T ]β γ [ 1 + x+ x2 ] β = 1 12 1 1 2 [0 1 ] = 11 2 Enta˜o T (1 + x+ x2) = 2 + 3x = 1(x+ 2) + p1(x) + 2p2(x) ♥. Somando as equac¸o˜es F e ♥ temos que: 3 + x+ 3x2 = 2(x+ 2) + 3p1(x) + 3p2(x) E consequentemente 3p1(x) + 3p2(x) = −1− x+ 3x2. 3.0.12 Exerc´ıcio 4.53 (a) Por definic¸a˜o [ T ]β γ = ∣∣ ∣∣[ T (1, 0) ] γ [ T (0, 1) ] γ∣∣ ∣∣ . Logo [ T (1, 0) ] γ = 10 −2 e [T (0, 1)] γ = −11 3 . Disso temos que T (1, 0) = 1 · (1, 0, 1) + 0 · (−1, 0, 1)− 2 · (0, 1, 0) = (1,−2, 1) e T (0, 1) = −1 · (1, 0, 1) + 1 · (−1, 0, 1) + 3 · (0, 1, 0) = (−2, 3, 0). (b) Dado (x, y) elemento gene´rico de R2, temos que T (x, y) = T (x(1, 0) + y(0, 1)) = xT (1, 0) + yT (0, 1) = x(1,−2, 1) + y(−2, 3, 0) Portanto Im(T ) = [(1,−2, 1), (−2, 3, 0)] e α = {(1,−2, 1), (−2, 3, 0)} e´ uma base de Im(T ). (c) Calculemos Ker(T ). Pelo T.N.I.: dim(R2) = dim(Ker(T )) + dim(Im(T )) Logo 2 = dim(Ker(T )) + 2 e dim(Ker(T )) = 0. CAPI´TULO 3. TRANSFORMAC¸O˜ES LINEARES 39 Portanto Ker(T ) = {0R3} e T e´ uma transformac¸a˜o linear injetora. 3.0.13 Exerc´ıcio 4.55 (a) Pela definic¸a˜o, [ T ]γ γ = ∣∣∣ ∣∣∣ ∣∣∣ ∣∣∣[ T (v1) ] γ [ T (v2) ] γ [ T (v3) ] γ [ T (v4) ] γ∣∣∣ ∣∣∣ ∣∣∣ ∣∣∣ . Agora, como • T (v1) = v1; • T (v2) = v2; • T (v3) = v3; • T (v4) = v1 + v3. Segue que [ T ]γ γ = 1 0 0 1 0 1 0 0 0 0 1 1 0 0 0 0 . (b) Sabemos que [ T (e1) ] γ = [ T ]β γ [ e1 ] β . E temos que [ T ]β γ = [ T ]γ γ [ I ]β γ = 1 0 0 1 0 1 0 0 0 0 1 1 0 0 0 0 0 0 1 0 0 0 0 1 0 1 0 0 1 0 0 0 = 1 0 1 0 0 0 0 1 1 1 0 0 0 0 0 0 . Consequentemente [ T (e1) ] γ = 1 0 1 0 0 0 0 1 1 1 0 0 0 0 0 0 1 0 0 0 = 1 0 1 0 . Cap´ıtulo 4 Produto Interno Sessa˜o 5.2 4.0.1 Exerc´ıcio 5.2 Considere A = [aij ] a matriz do produto interno de V na base β. Observe que se escrevermos o elemento u na base β como u = n∑ j=1 αjvj , enta˜o 〈u, v1〉 = 〈 n∑ j=1 αjvj , v1〉 = n∑ j=1 αj〈vj , v1〉 = n∑ j=1 αja1j 〈u, v2〉 = 〈 n∑ j=1 αjvj , v2〉 = n∑ j=1 αj〈vj , v2〉 = n∑ j=1 αja2j ... 〈u, vi〉 = 〈 n∑ j=1 αjvj , vi〉 = n∑ j=1 αj〈vj , vi〉 = n∑ j=1 αjaij (F) Enta˜o dados escalares c1, · · · , cn vamos provar que existe um u´nico u ∈ V que satisfaz 〈u, vi〉 = ci ∀i = 1, · · · , n. De fato, 〈u, vi〉 = ci (F)⇐⇒ a11 a12 · · · a1n ... ... ... ... an1 an2 · · · ann α1 α2 ... αn = c1 c2 ... cn ⇐⇒ A[u]β = c1 c2 ... cn Observe que como a matriz A e as constantes ci esta˜o fixadas, temos um sistema de equac¸o˜es nas varia´veis α1, · · · , αn. E na verdade, como a matriz do produto interno A e´ sempre invert´ıvelF, 40 CAPI´TULO 4. PRODUTO INTERNO 41 o sistema A α1 α2 ... αn = c1 c2 ... cn possui soluc¸a˜o u´nica α1 α2 ... αn = A−1 c1 c2 ... cn . Ou seja, existe um u´nico elemento u = α1v1+ · · ·+αnvn que satisfaz a propriedade desejada. � OBS.F: Todas as matrizes n × n positivas definidas sa˜o invert´ıveis. De fato, se A fosse na˜o in- vert´ıvel enta˜o existiria um vetor (matriz coluna) X 6= 0 tal que AX = 0 (pois caso contra´rio Ker(A) = {0} =⇒ dim(Im(A)) = n =⇒ A invert´ıvel ). Enta˜o para tal X 6= 0 temos XtAX = 0 e logo A na˜o pode ser positiva definida. 4.0.2 Exerc´ıcio 5.7 Precisamos provar que: i) 〈A,B〉 = 〈B,A〉 ∀A,B ∈Mn(R); ii) 〈A,A〉 ≥ 0 ∀A ∈Mn(R) com 〈A,A〉 = 0 ⇐⇒ A = 0Mn(R); iii) 〈A+ C,B〉 = 〈A,B〉+ 〈C,B〉 ∀A,B,C ∈Mn(R); iv) 〈λA,B〉 = λ〈A,B〉 ∀A,B ∈Mn(R) ∀λ ∈ R. i) 〈A,B〉 = m∑ i=1 n∑ j=1 aijbij = m∑ i=1 n∑ j=1 bijaij = 〈B,A〉. ii) 〈A,A〉 = m∑ i=1 n∑ j=1 aijaij = m∑ i=1 n∑ j=1 a2ij ≥ 0 ∀A = [aij ] Agora 〈A,A〉 = m∑ i=1 n∑ j=1 a2ij = 0 ⇐⇒ aij = 0 para todo i, j, i.e. A = 0Mn(R). iii) 〈A + C,B〉 = m∑ i=1 n∑ j=1 (aij + cij)bij = m∑ i=1 n∑ j=1 aijbij + cijbij = m∑ i=1 n∑ j=1 aijbij + m∑ i=1 n∑ j=1 cijbij = 〈A,B〉+ 〈C,B〉. iv) 〈λA,B〉 = m∑ i=1 n∑ j=1 λaijbij = λ m∑ i=1 n∑ j=1 aijbij = λ〈A,B〉. 4.0.3 Exerc´ıcio 5.12 a) A matriz A = [aij ] deste produto interno na base canoˆnica e´, por definic¸a˜o, determinada por aij = 〈pj , pi〉. Enta˜o temos: a11 = 〈p1, p1〉 = p1(−1)2 + p1(0)2 + p1(1)2 = 12 + 12 + 12 = 3 a22 = 〈p2, p2〉 = p2(−1)2 + p2(0)2 + p2(1)2 = (−1)2 + 02 + 12 = 2 a33 = 〈p3, p3〉 = p3(−1)2 + p3(0)2 + p3(1)2 = ( (−1)2 )2 + (02)2 + (12)2 = 2 CAPI´TULO 4. PRODUTO INTERNO 42 a21 = a12 = 〈p2, p1〉 = p2(−1)p1(−1) + p2(0)p1(0) + p2(1)p1(1) = (−1) · 1 + 0 · 1 + 1 · 1 = 0 a31 = a13 = 〈p3, p1〉 = p3(−1)p1(−1) + p3(0)p1(0) + p3(1)p1(1) = (−1)2 · 1 + 02 · 1 + 12 · 1 = 2 a32 = a23 = 〈p3, p2〉 = p3(−1)p2(−1) + p3(0)p2(0) + p3(1)p2(1) = (−1)2 · (−1) + 02 · 0 + 12 · 1 = 0 E consequentemente, A = 3 0 20 2 0 2 0 2 . b) 〈p, q〉 = Y tAX = [ 4 2 −1 ]3 0 20 2 0 2 0 2 −13 1 = [10 4 6] −13 1 = −10 + 12 + 6 = 8 c) Considere X como a matriz de coordenadas do polinoˆmio p(x) = −1 + 3x + 1x2 na base canoˆnica e Y a matriz de coordenadas de q(x) = d+ ex+ fx2 na base canoˆnica. Enta˜o: 〈p, q〉 = 0 ⇐⇒ Y tAX = 0 ⇐⇒ [ d e f ]3 0 20 2 0 2 0 2 −13 1 = [3d+ 2f 2e 2d+ 2f] −13 1 = 0 ⇐⇒ −3d− 2f + 6e+ 2d+ 2f = 0 ⇐⇒ d = 6e Portanto os polinoˆmios q tais que 〈p, q〉 = 0 sa˜o da forma q(x) = 6e+ ex+ fx2 = e(6 + x) + fx2. Sessa˜o 5.5 4.0.4 Exerc´ıcio 5.14 Considere o espac¸o vetorial real Rn munido do produto interno usual e os vetores u = (a1, · · · , an) e v = ( 1n , · · · , 1n ). Pela desigualdade de Cauchy-Schwarz 〈u, v〉2 ≤ 〈u, u〉 · 〈v, v〉 Substituindo os valores de u e v obtemos( a1 + · · ·+ an n )2 ≤ (a1 + · · ·+ an) 2 n 4.0.5 Exerc´ıcio 5.18 Considere R4 um espac¸o vetorial real munido do produto interno usual. Enta˜o os vetores u = (1, 2, α, 3) e v = (α, 2, α,−2) sa˜o ortogonais ⇐⇒ 〈u, v〉 = 0 ⇐⇒ α+ 4 + α2 − 6 = 0 ⇐⇒ α2 + α− 2 = 0 ⇐⇒ α = 1 ou α = −2. CAPI´TULO 4. PRODUTO INTERNO 43 4.0.6 Exerc´ıcio 5.29 Devemos provar que para cada par de vetores na˜o-nulos u, v ∈ V existe um θ ∈ [0, pi/2] tal que cos(θ) = |〈u, v〉| ‖u‖2‖v‖2 Ale´m disso, devemos provar que tal θ e´ u´nico. Provando essas duas coisas vamos ter provado que tal aˆngulo pode ser definido “sem ambiguidade”. De fato, pela desigualdade de Cauchy-Schwarz sempre e´ o caso que 0 ≤ 〈u, v〉2 ≤ 〈u, u〉〈v, v〉 =⇒ |〈u, v〉| ≤√〈u, u〉√〈v, v〉 = ‖u‖2‖v‖2. E portanto 0 ≤ |〈u,v〉|‖u‖2‖v‖2 ≤ 1. Agora, observe que a func¸a˜o cosseno restrita ao intervalo [0, pi/2] e com contra-domı´nio [0, 1] e´ bijetora! Disso, certamente existe um θ ∈ [0, pi/2] satisfazendo tal propriedade (sobrejetora) e certamente esse θ sera´ u´nico (injetora). 4.0.7 Exerc´ıcio 5.31 O produto interno usual do espac¸o vetorial real C([0, 1]) e´ definido por: 〈f, g〉 = ∫ 1 0 f(x)g(x) dx Sendo assim, para f(x) = ax+ b e g(x) = x2, f e g sa˜o ortogonais se, e somente se, 0 = 〈f, g〉 = ∫ 1 0 f(x)g(x) dx = ∫ 1 0 (ax+ b)x2 dx = ∫ 1 0 ax3 + bx2 dx = [ a 4x 4 + b3x 3 ]1 0 = a4 + b 3 . Como o exerc´ıcio nos pede apenas uma func¸a˜o deste tipo, escolhemos a = 4 e conclu´ımos que a func¸a˜o f(x) = 4x− 3 e´ ortogonal a` func¸a˜o g(x) = x2 segundo o produto interno usual do espac¸o. Sessa˜o 5.7 Sessa˜o 5.9 4.0.8 Exerc´ıcio 5.41 Ker(T ) v = (x, y, z) ∈ Ker(T ) ⇐⇒ T (x, y, z) = (0, 0) ⇐⇒ (x − y − z, 2z − x) = (0, 0) ⇐⇒x− y − z = 02z − x = 0 ⇐⇒ x = 2z e y = z. Logo Ker(T ) = [(2, 1, 1)]. (Ker(T ))⊥ v = (x, y, z) ∈ Ker(T )⊥ ⇐⇒ 〈v, (2, 1, 1)〉 = 0 ⇐⇒ 2x + y + z = 0 ⇐⇒ y = −2x − z. Logo os elementos de Ker(T )⊥ sa˜o da forma v = (x,−2x − z, z) = x(1,−2, 0) + z(0,−1, 1) e Ker(T )⊥ = [(1,−2, 0), (0,−1, 1)]. Base ortogonal de Ker(T )⊥ CAPI´TULO 4. PRODUTO INTERNO 44 Vamos ortogonalizar a base β = {(1,−2, 0)︸ ︷︷ ︸ v1 , (0,−1, 1)︸ ︷︷ ︸ v2 } de Ker(T )⊥ utilizando o processo de Gram-Schmidt. O processo nos retorna a base ortogonal α = {q1, q2} com q1 = v1 = (1,−2, 0); q2 = v2 − 〈v2,q1〉〈q1,q1〉 q1 = (0,−1, 1)− 25 (1,−2, 0) = (− 25 ,− 15 , 1). Sessa˜o 5.14 4.0.9 Exerc´ıcio 5.53 Preciso mostrar que Ker(T ) ⊆ (Im(T ))⊥ e que (Im(T ))⊥ ⊆ Ker(T ). Ker(T ) ⊆ (Im(T ))⊥ Vamos supor um elemento em Ker(T ) e enta˜o concluir que este elemento e´ perpendicular a todo elemento de Im(T ). Supondo v ∈ Ker(T ) temos que para todo elemento gene´rico da imagem do operador, T (u) ∈ Im(T ), vale que 〈v, T (u)〉 T sime´trico= 〈T (v), u〉 v∈Ker(T )= 〈0, u〉 def. p.i.= 0 E portanto v ∈ (Im(T ))⊥. Disso conclu´ımos a primeira inclusa˜o. (Im(T ))⊥ ⊆ Ker(T ) Similarmente, vamos considerar um elemento em (Im(T ))⊥ e enta˜o concluir que este elemento esta´ tambe´m no nu´cleo do operador. Suponha v ∈ (Im(T ))⊥. Enta˜o para todo elemento u ∈ V , v e´ perpendicular a T (u). Isto e´, 〈v, T (u)〉 = 0 ∀u ∈ V . Mas como T e´ um operador linear sime´trico vale que: 〈v, T (u)〉 = 0 ∀u ∈ V =⇒ 〈T (v), u〉 = 0 ∀u ∈ V e disso podemos concluir que T (v) = 0 pois, pela definic¸a˜o do produto interno, o u´nico elemento que e´ ortogonal a todo u ∈ V e´ o vetor nulo. Portanto conclu´ımos a segunda inclusa˜o e segue a igualdade. 4.0.10 Exerc´ıcio 5.55 Seja α uma base ortonormal de V . Enta˜o considere as matrizes A1 = [T1] α α e A2 = [T2] α α. Como T1 e T2 sa˜o operadores lineares her- mitianos e α e´ base ortonormal, segue que A1 e A2 sa˜o matrizes hermitianas. Agora, provemos a dupla implicac¸a˜o. CAPI´TULO 4. PRODUTO INTERNO 45 =⇒ Assumimos que T1 ◦ T2 e´ um operador hermitiano. Observe que [T1 ◦ T2]αα = A1A2. Enta˜o: A2A1 = A ∗ 2A ∗ 1 A2 e A1 hermitianas = (A1A2) ∗ = A1A2 A1A2 e´ hermitiana Portanto A2A1 = A1A2 e pela definic¸a˜o dessas matrizes conclu´ımos que T2 ◦ T1 = T1 ◦ T2. ⇐= Agora assumimos que T2 ◦ T1 = T1 ◦ T2. Enta˜o: (A1A2) ∗ = A∗2A ∗ 1 = A2A1 A2 e A1 hermitianas = A1A2 T2 ◦ T1 = T1 ◦ T2 Portanto A1A2 e´ uma matriz hermitiana, e pela definic¸a˜o dessas matrizes isso implica que T1 ◦T2 e´ um operador linear hermitiano. � 4.0.11 Exerc´ıcio 5.57 Precisamos provar que i) (a) e (b) =⇒ (c); ii) (a) e (c) =⇒ (b); iii) (b) e (c) =⇒ (a). i) Seja α uma base ortonormal de V . Assumindo que T e´ um operador sime´trico temos que a matriz A := [T ]αα e´ sime´trica (A t = A),assumindo que o operador linear T e´ uma isometria conclu´ımos, pela Proposic¸a˜o 5.14.3, que T e´ ortogonal e portanto A e´ ortogonal (At = A−1). Disso, A2 = AA = AAt = AA−1 = In onde usamos que A e´ sime´trica e ortogonal, respectivamente. Como A2 = [T 2]αα conclu´ımos que T 2 = I. ii) Supondo que T e´ sime´trico e T 2 = I obtemos que para todo v ∈ V vale que 〈T (v), T (v)〉 = 〈v, T (T (v))〉 = 〈v, v〉 onde usamos que T e´ sime´trico e T 2 = I, respectivamente. Consequentemente, T e´ uma isometria. iii) Seja α uma base ortonormal de V . Enta˜o se A := [T ]αα, assumindo que T 2 = I e T e´ isometria linear obtemos A2 = In e A t = A−1, respectivamente. Disso, In = A 2 = AA =⇒ A = A−1 = At CAPI´TULO 4. PRODUTO INTERNO 46 e portanto A e´ uma matriz sime´trica. Como escolhemos uma base ortonormal α segue que T e´ sime´trico. 4.0.12 Exerc´ıcio 5.58 A matriz Q e´ ortogonal sse Qt = Q−1. Agora observe que QQt = [ cos(θ) − sin(θ) sin(θ) cos(θ) ][ cos(θ) sin(θ) − sin(θ) cos(θ) ] = [ cos2(θ) + sin2(θ) 0 0 sin2(θ) + cos2(θ) ] = [ 1 0 0 1 ] = I2 Disso, conclu´ımos que Qt = Q−1 e portanto Q e´ uma matriz ortogonal. 4.0.13 Exerc´ıcio 5.59 Vamos construir a matriz de T na base canoˆnica de R3, que e´ uma base ortonormal, e enta˜o mostrar que esta matriz e´ ortogonal. Seja α = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, enta˜o • T (1, 0, 0) = (cos(θ), sin(θ), 0) • T (0, 1, 0) = (− sin(θ), cos(θ), 0) • T (0, 0, 1) = (0, 0, 1) E portanto A := [T ]αα = cos(θ) − sin(θ) 0sin(θ) cos(θ) 0 0 0 1 . Similarmente ao exerc´ıcio 5.58 podemos ver que AAt = I3 e portanto A e´ uma matriz ortogonal e, como a base utilizada na construc¸a˜o de A e´ uma base ortonormal, segue que T e´ um operador ortogonal. 4.0.14 Exerc´ıcio 5.60 (a) Sejam u, v elementos gene´ricos de V . Enta˜o existem u´nicos u1, v1 ∈ W e u2, v2 ∈ W⊥ tais que u = u1 + u2 v = v1 + v2 Disso temos que, 〈T (u), v〉 = 〈u1 − u2, v1 + v2〉 = 〈u1, v1〉+ 〈u1, v2〉 − 〈u2, v1〉 − 〈u2, v2〉 = 〈u1, v1〉 − 〈u2, v2〉 Por outro lado, 〈u, T (v)〉 = 〈u1 + u2, v1 − v2〉 = 〈u1, v1〉 − 〈u2, v2〉. Portanto 〈T (u), v〉 = 〈u, T (v)〉 ∀u, v ∈ V . Ou seja, T e´ sime´trico. Analogamente podemos ver que: CAPI´TULO 4. PRODUTO INTERNO 47 〈T (u), T (v)〉 = 〈u1, v1〉+ 〈u2, v2〉 = 〈u, v〉 ∀u, v ∈ V e portanto T tambe´m e´ ortogonal. (b) Calculemos W⊥. Como W = [(1, 1, 1)], temos que v = (x, y, z) ∈W⊥ ⇐⇒ 〈(x, y, z), (1, 1, 1)〉 = 0 ⇐⇒ x = −y− z e portanto W⊥ = [(−1, 1, 0), (−1, 0, 1)] Agora, se α e´ a base canoˆnica de R3 e β e´ a base da decomposic¸a˜o ortogonal a partir de W , i.e. β = {(1, 1, 1), (−1, 1, 0)(−1, 0, 1)}, enta˜o [T ]αα = [I] β α[T ] β β [I] α β Sabemos que • T (1, 1, 1) = (1, 1, 1)− (0, 0, 0); • T (−1, 1, 0) = (0, 0, 0)− (−1, 1, 0); • T (−1, 0, 1) = (0, 0, 0)− (−1, 0, 1) E portanto [T ]ββ = 1 0 00 −1 0 0 0 −1 . Agora, resta-nos calcular as matrizes de mudanc¸a de base. Pela definic¸a˜o [I]βα = 1 −1 −11 1 0 1 0 1 . Agora, vamos achar os coeficientes ci tais que (1, 0, 0) = c1(1, 1, 1) + c2(−1, 1, 0) + c3(−1, 0, 1) (0, 1, 0) = c4(1, 1, 1) + c5(−1, 1, 0) + c6(−1, 0, 1) (0, 0, 1) = c7(1, 1, 1) + c8(−1, 1, 0) + c9(−1, 0, 1) pois enta˜o teremos que [I]αβ = c1 c4 c7c2 c5 c8 c3 c6 c9 . Fazendo as contas, obtemos que [I]αβ = 1/3 1/3 1/3−1/3 2/3 −1/3 −1/3 −1/3 2/3 . E consequentemente [T ]αα = 1 −1 −11 1 0 1 0 1 1 0 00 −1 0 0 0 −1 1/3 1/3 1/3−1/3 2/3 −1/3 −1/3 −1/3 2/3 = 1 3 −1 2 22 −1 2 2 2 −1 CAPI´TULO 4. PRODUTO INTERNO 48 4.0.15 Exerc´ıcio 5.62 Lembremos da definic¸a˜o de cosseno do aˆngulo entre dois vetores na˜o-nulos de um espac¸o vetorial com produto interno e da definic¸a˜o de isometria. • Dados u, v ∈ V na˜o-nulos o cosseno entre o aˆngulo θ formado por esses dois vetores e´ defi- nido como cos(θ) := 〈u,v〉‖u‖2‖v‖2 • Um operador T e´ uma isometria ⇐⇒ ‖T (v)‖2 = ‖v‖2 ∀v ∈ V Agora queremos provar que se T e´ uma isometria enta˜o cos(θ0) = cos(θ1), onde θ0 e´ o aˆngulo formado pelos vetores gene´ricos u, v ∈ V e θ1 e´ o aˆngulo formado pelos vetores T (u), T (v) ∈ V . De fato, cos(θ0) = 〈u,v〉 ‖u‖2‖v‖2 = 〈u,v〉‖T (u)‖2‖T (v)‖2 T e´ isometria = 〈T (u),T (v)〉‖T (u)‖2‖T (v)‖2 T e´ ortogonal (T linear e isometria =⇒ T ortogonal ) = cos(θ1) 4.0.16 Exerc´ıcio 5.64 ⇐= Assumimos que a matriz Q e´ ortogonal. Agora, 〈TQ(X), TQ(X)〉 = 〈QX,QX〉 = tr((QX)tQX) = tr(XtQtQX) = tr(XtX) , pois Qt = Q−1 = 〈X,X〉 E portanto TQ e´ uma isometria. =⇒ Se TQ e´ uma isometria (linear) enta˜o TQ e´ um operador ortogonal. Disso temos que para quaisquer matrizes X e Y vale 〈TQ(X), TQ(Y )〉 = 〈X,Y 〉, que pela de- finic¸a˜o do produto interno e´ a mesma coisa que tr((QY )tQX) = tr(Y tX). Em particular, para Y = In temos que tr(Q tQX) = tr(X). E como tr(A+B) = tr(A) + tr(B) ∀A,B, isso implica que: 0 = tr(QtQX −X) = tr( (QtQ− In)X ) = 〈X,QQt − In〉 . CAPI´TULO 4. PRODUTO INTERNO 49 Logo temos que 〈X,QQt − In〉 = 0 para toda matriz X. E isso so´ acontece (pela definic¸a˜o gene´rica de produto interno) se QQt − In = 0Mn(R) e portanto QQt = In, que e´ o mesmo que Q t = Q−1. � Sessa˜o 5.15 4.0.17 Exerc´ıcio 5.66 Note que α = { q1︷ ︸︸ ︷ (1, 1, 1)} e´ uma base ortogonal para S. Enta˜o seja v = (x, y, z) um elemento gene´rico de R3. O operador de projec¸a˜o ortogonal sobre S fica determinado por P (x, y, z) = 1∑ i=1 〈(x, y, z), qi〉 〈qi, qi〉 qi Fazendo as contas obtemos P (x, y, z) = 〈(x,y,z),(1,1,1)〉3 (1, 1, 1) = 1 3 (x+ y + z)(1, 1, 1) = ( x+y+z 3 , x+y+z 3 , x+y+z 3 ). 4.0.18 Exerc´ıcio 5.67 (a) Note que o plano determinado por 3x+ 2y + z = 0 e´ o subespac¸o vetorial W = {(x, y, z) ∈ R3 : 3x+ 2y + z = 0} = [(1, 0,−3), (0, 1,−2)] O caminho que acha uma base ortogonal para W e enta˜o usa a fo´rmula para encontrar o opera- dor de projec¸a˜o ortogonal sobre W a partir dessa base ortogonal e´ extremamente longo (experi- mente). Sendo assim vamos calcular o operador de projec¸a˜o sobre o espac¸o W⊥ e depois utilizaremos o fato de que, para todo vetor v, v = PW (v) + PW⊥(v) para encontrar o operador PW . Sendo assim, note que W⊥ = [(3, 2, 1)]. E que o operador de projec¸a˜o ortogonal sobre W⊥ fica determinado por PW⊥(x, y, z) = 〈(x, y, z), (3, 2, 1)〉 〈(3, 2, 1), (3, 2, 1)〉 · (3, 2, 1) = 3x+ 2y + z 14 (3, 2, 1) E disso, como (x, y, z) = PW (x, y, z) + PW⊥(x, y, z) conclu´ımos que PW (x, y, z) = (x, y, z)− 3x+ 2y + z 14 (3, 2, 1) CAPI´TULO 4. PRODUTO INTERNO 50 (b) Pela definic¸a˜o, Im(PW ) = {PW (v) : v ∈ R3}. Agora sabemos que PW (w) = w ∀w ∈W PW (w ′) = 0 ∀w′ ∈W⊥ E tambe´m temos que R3 = W ⊕W⊥. Logo dado v ∈ R3, existem w,w′ elementos de W e W⊥, respectivamente, tais que v = w + w′. Disso, temos que PW (v) = PW (w) + PW (w ′) = w + 0 = w. Consequentemente, Im(PW ) = {PW (v) : v ∈ R3} = {w : w ∈W} = W (c) Sabemos que (para todo subespac¸o W ) vale que R3 = W ⊕W⊥. E tambe´m que (Corola´rio 5.15.1) R3 = Im(PW )⊕Ker(PW ). Agora como Im(PW ) = W so´ pode ser o caso que Ker(Pw) = W ⊥ = [(3, 2, 1)]. Sessa˜o 5.16 4.0.19 Exerc´ıcio 5.71 (a) Como R(v) = 2P (v)− v para todo vetor v. Segue pelo Exerc´ıcio 5.67(a) que R(x, y, z) = 2((x, y, z)− 3x+ 2y + z 14 (3, 2, 1))− (x, y, z) = (x, y, z)− 2 · 3x+ 2y + z 14 (3, 2, 1) (b) Considere um elemento gene´rico v = (x, y, z) de R3. Enta˜o v = u + u′ para algum u ∈ W e u′ ∈W⊥. Agora v ∈ Ker(R) ⇐⇒ 0 = R(v) = R(u) +R(u′) = u− u′ ⇐⇒ u = u′. Logo u e´ um elemento de W que tambe´m esta´ em W⊥. Mas como W ∩W⊥ = {0R3}, segue que u = u′ = 0. Consequentemente v = 0 e Ker(R) = {0}. (c) Pelo T.N.I., dim(Im(R)) = dim(R3)− dim(Ker(R)) = 3− 0 = 3. E como Im(R) ⊆ R3 segue que Im(R) = R3. Cap´ıtulo 5 Autovalores e Autovetores Sessa˜o6.1 5.0.1 Exerc´ıcio 6.2 =⇒ Supondo que λ = 0 e´ um autovalor de T vou provar que T na˜o e´ um operador injetor. De fato, se ∃v 6= 0 tal que T (v) = λv = 0 enta˜o temos que v ∈ Ker(T ). E como v e´ na˜o-nulo segue que Ker(T ) 6= {0}, logo T na˜o e´ injetor. ⇐= Supomos que T na˜o e´ injetor. Disso temos que Ker(T ) 6= {0}. Logo existe v 6= 0 tal que v ∈ Ker(T ). O que implica que T (v) = 0 = 0 · v e portanto λ = 0 e´ autovalor de T. � 5.0.2 Exerc´ıcio 6.3 Supondo que exista um autovalor λ de T , vou provar que devemos ter necessariamente λ = 0 ou λ = 1. De fato, se T (v) = λv para algum v na˜o-nulo, enta˜o temos: T (T (v)) = T (v) =⇒ T (λv) = λv =⇒ λT (v) = λv =⇒ λ2v = λv Agora se λ = 0 enta˜o ja´ temos o que quer´ıamos (λ = 0 ou λ = 1). Mas se λ 6= 0 podemos dividir os dois lados da u´ltima equac¸a˜o por λ. O que nos leva a: λv = v =⇒ (λ− 1)v = 0 E como v 6= 0 isso implica que λ = 1. Portanto vale que λ = 0 ou λ = 1. � 51 CAPI´TULO 5. AUTOVALORES E AUTOVETORES 52 OBS.: Note que na˜o necessariamente um operador idempotente possui simultaneamente os au- tovalores 1 e 0. Por exemplo, o operador identidade do epsac¸o vetorial V , IV (v) = v, possui somente um autovalor: λ = 1. 5.0.3 Exerc´ıcio 6.6 Aqui novamente recordamos a frase “toda transformac¸a˜o linear fica completamente determinada pelo seus valores numa base”. Ou seja, para criar tal operador T iremos escolher uma base e seus valores nessa base. Para satisfazer (a) devemos ter T (1,−1) = 1 · (1,−1) (note que isso implica que T (y,−y) = yT (1,−1) = (y,−y)). Para satisfazer (b) devemos ter T (0, 1) = 3 · (0, 1) = (0, 3) (analogamente isso implica T (0, y) = 3(0, y)). E note que as duas informac¸o˜es que ja´ temos e´ suficiente para determinar T pois {(1,−1), (0, 1)} e´ uma base de R2. Enta˜o determinemos T . Seja v = (x, y) elemento gene´rico de R2 vamos encontrar primeiro suas coordenadas na base {(1,−1), (0, 1)} na qual sabemos como T se comporta. Isto e´, encontremos c1, c2 tais que (x, y) = c1(1,−1)+c2(0, 1). Disso temos o sistema c1 = x−c1 + c2 = y que possui soluc¸a˜o c1 = x e c2 = x+ y. Logo (x, y) = x(1,−1) + (x+ y)(0, 1) =⇒ T (x, y) = xT (1,−1) + (x+ y)T (0, 1) = x(1,−1) + (x+ y)(0, 3), ou seja, T (x, y) = (x, 2x+ 3y) e´ a transforamc¸a˜o procurada. 5.0.4 Exerc´ıcio 6.9 Vamos provar que se existir um autovalor λ de T enta˜o λ = 0. De fato, suponha que λ e´ um autovalor do operador nilpotente T . Enta˜o existe algum w 6= 0V tal que T (w) = λw, mas como existe um natural n tal que Tn(v) = 0V ∀v, temos que em particular Tn(w) = 0V . Por outro lado, como nos sugere T (w) = λw, T 2(w) = T ( T (w) ) = T (λw) = λT (w) = λ2w, · · · podemos ver (indutivamente) que Tn(w) = λnw ∀n ∈ N. Portanto λnw = Tn(w) = 0V e como w 6= 0V devemos ter λn = 0 =⇒ λ = 0 � 5.0.5 Exerc´ıcio 6.11 Vamos supor um autovalor qualquer λ de T e provar que necessariamente devemos ter λ = λ1 ou λ = λ2. De fato, seja λ um autovalor de T tal que T (A) = λA para alguma matriz A na˜o nula. Enta˜o temos: CAPI´TULO 5. AUTOVALORES E AUTOVETORES 53 T (A) = At =⇒ λA = At =⇒ T (λA) = T (At) =⇒ λT (A) = (At)t =⇒ λ2A = A E se nomearmos as entradas de A como aij , isso implica que λ 2aij = aij ∀i, j e como A na˜o e´ a matriz nula, algum aij e´ diferente de zero e podemos concluir λ 2 = 1. Segue enta˜o que λ = 1 ou λ = −1. � Os subespac¸os associados a λ1 = 1 e λ2 = −1 sa˜o: o subespac¸o das matrizes sime´tricas e o subespac¸o das matrizes antissime´tricas, respectivamente (ver Exerc´ıco 3.25). 5.0.6 Exerc´ıcio 6.13 Lembre-se que um automorfismo e´ um operador linear bijetor. Enta˜o, primeiramente, provemos que T e´ injetor e sobrejetor (pois ja´ foi dito que e´ um operador linear). Para verificar se T e´ injetor, vamos calcular Ker(T ). Considere um elemento gene´rico v ∈ V . Logo se v ∈ Ker(T ) enta˜o T (v) = 0V e portanto −v = T (T (v)) = T (0v) = 0V =⇒ v = 0V =⇒ Ker(T ) ⊆ {0V }, e como 0V ∈ Ker(T ) segue que Ker(T ) = {0V }. E consequentemente T e´ injetor. Pelo Teorema do Nu´cleo e da Imagem, temos: dim(V ) = dim(Ker(T )) + dim(Im(T )) Da parte anterior temos que dim(Ker(T )) = 0 e portanto dim(Im(T )) = dim(V ) e como Im(T ) ⊆ V segue que Im(T ) = V . E portanto T e´ sobrejetor. Agora, vamos supor que λ e´ um autovalor de T e iremos concluir que devemos ter necessaria- mente λ = i ou λ = −i. De fato, se ∃v 6= 0 tal que T (v) = λv enta˜o temos que: T (v) = λv =⇒ T (T (v)) = λT (v) =⇒ −v = λ2v =⇒ 0 = (λ2 + 1)v E como v 6= 0V segue que λ2 + 1 = 0. Consequentemente devemos ter λ = i ou λ = −i. � 5.0.7 Exerc´ıcio 6.14 Temos que T (x, y, z, t) = (−y, x,−t, z) =⇒ T (T (x, y, z, t)) = T (−y, x,−t, z) = (−x,−y,−z,−t). Agora, seja β = {b1, b2, b3, b4} = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} a base canoˆnica de R4. CAPI´TULO 5. AUTOVALORES E AUTOVETORES 54 Por definic¸a˜o [ T ]β β = ∣∣∣ ∣∣∣ ∣∣∣ ∣∣∣[ T (b1) ] β [ T (b2) ] β [ T (b3) ] β [ T (b4) ] β∣∣∣ ∣∣∣ ∣∣∣ ∣∣∣ . E como T (1, 0, 0, 0) = (0, 1, 0, 0) T (0, 1, 0, 0) = (−1, 0, 0, 0) T (0, 0, 1, 0) = (0, 0, 0, 1) T (0, 0, 0, 1) = (0, 0,−1, 0) segue que [ T ]β β = 0 −1 0 0 1 0 0 0 0 0 0 1 0 0 1 0 . Vamos ver agora que T na˜o possui autovalores. Supondo que existe um autovalor λ de T enta˜o ter´ıamos que, para algum v na˜o nulo: T (v) = λv =⇒ T (T (v)) = T (λv) =⇒ −v = λT (v) = λ2v E portanto λ2v + v = 0 =⇒ (λ2 + 1)v = 0 e como v 6= 0V isso implica λ2 = −1. Mas como foi dito, V e´ um espac¸o vetorial real e, portanto, na˜o existe λ ∈ R que satisfac¸a tal propriedade (ser autovalor de T ). Sessa˜o 6.2 5.0.8 Exerc´ıcio 6.16 Vamos calcular a matriz de T na base canoˆnica do espac¸o (pois e´ a base mais fa´cil de se traba- lhar) e enta˜o calcular os autovalores e autovetores da matriz via polinoˆmio caracter´ıstico. Seja β = {1, x, x2} a base canoˆnica de P2(R). Enta˜o T (1) = 1, T (x) = x + (x + 1) = 1 + 2x e T (x2) = x2 + (x+ 1)2x = 2x+ 3x2 e portanto A := [ T ]β β = 1 1 00 2 2 0 0 3 . Agora p(λ) = Ker(A− λI3) = det 1− λ 1 00 2− λ 2 0 0 3− λ = (1− λ)(2− λ)(3− λ). Portanto as ra´ızes do polinoˆmio caracter´ıstico, i.e. os autovalores de T , sa˜o λ1 = 1, λ2 = 2 e λ3 = 3. Agora vamos calcular os autoespac¸os de cada autovalor. Autovetores de λ1 Seja p(x) = a+ bx+ cx2, enta˜o p(x) ∈ Vλ1 ⇐⇒ T (p(x)) = λ1p(x) = p(x) ⇐⇒ p(x) + (x+ 1)p′(x) = p(x) ⇐⇒ (x+ 1)p′(x) = 0 ⇐⇒ (x+ 1)(b+ 2cx) = 0 ⇐⇒ b+ (2c+ b)x+ 2cx2 = 0 ⇐⇒ b = 0 2c+ b = 0 2c = 0 ⇐⇒ a=a, b = 0 e c = 0. Portanto os autovetores associados a λ1 sa˜o da forma p1(x) = a · 1. Consequentemente Vλ1 = [1]. CAPI´TULO 5. AUTOVALORES E AUTOVETORES 55 Autovetores de λ2 Seja p(x) = a+ bx+ cx2, enta˜o p(x) ∈ Vλ2 ⇐⇒ T (p(x)) = 2p(x) ⇐⇒ p(x) + (x+ 1)p′(x) = 2p(x) ⇐⇒ −a+−bx+−cx2 + (x+ 1)(b+ 2cx) = 0 ⇐⇒ (−a+ b) + 2cx+ cx2 = 0 −a+ b = 0 2c = 0 c = 0 ⇐⇒ a = b e c = 0. Portanto os autovetores associados a λ2 sa˜o da forma p2(x) = a+ ax = a(1 + x). Consequentemente Vλ2 = [1 + x]. Autovetores de λ3 Seja p(x) = a + bx + cx2, enta˜o p(x) ∈ Vλ3 ⇐⇒ T (p(x)) = 3p(x) ⇐⇒ p(x) + (x + 1)p′(x) = 3p(x) ⇐⇒ −2a − 2bx − 2cx2 + (x + 1)(b + 2cx) = 0 ⇐⇒ (−2a + b) + (−b + 2c)x = 0 ⇐⇒−2a+ b = 0−b+ 2c = 0 ⇐⇒ b = 2a e c = a Portanto os autovetores associados a λ3 sa˜o da forma p3(x) = a+ 2ax+ ax 2 = a(1 + 2x+ x2). Consequentemente Vλ3 = [1 + 2x+ x 2]. 5.0.9 Exerc´ıcio 6.21 Temos que T (1, 0, 0) = (1, 1, 2) T (0, 1, 0) = (1,−1, 1) T (0, 0, 1) = (0, 2,−1) , e portanto a matriz de T na base β canoˆnica de R3 e´ A := [ T ]β β = 1 1 01 −1 2 2 1 −1 . Calculamos agora o polinoˆmio caracter´ıstico p(λ) = det(A−λI3) = det 1− λ 101 −1− λ 2 2 1 −1− λ = (1−λ)(−1−λ)2+4−( 2(1−λ)+(−1−λ) ) Logo p(λ) = −λ3 − λ2 + 4λ+ 4, por inspec¸a˜o vemos que λ = −1 e´ uma raiz do polinoˆmio e logo, p(λ) = (λ+ 1)(−λ2 + 4). Portanto as ra´ızes do polinoˆmio caracter´ıstico, i.e. os autovalores de T , sa˜o λ1 = −1, λ2 = 2 e λ3 = −2. Agora calculemos os autoespac¸os. Autovetores de λ1 Seja v = (x, y, z). Enta˜o v ∈ Vλ1 ⇐⇒ T (v) = −v ⇐⇒ A xy z = −x−y −z CAPI´TULO 5. AUTOVALORES E AUTOVETORES 56 ⇐⇒ x+ y = −x x− y + 2z = −y 2x+ y − z = −z ⇐⇒ x = −2z e y = 4z. Portanto os elementos de Vλ1 sa˜o da forma v = (−2z, 4z, z) = z(−2, 4, 1). Consequentemente Vλ1 = [(−2, 4, 1)] Autovetores de λ2 Seja v = (x, y, z). Enta˜o v ∈ Vλ2 ⇐⇒ T (v) = 2v ⇐⇒ A xy z = 2x2y 2z ⇐⇒ x+ y = 2x x− y + 2z = 2y 2x+ y − z = 2z ⇐⇒ x = z = y. Portanto os elementos de Vλ2 sa˜o da forma v = (y, y, y) = y(1, 1, 1). Consequentemente Vλ2 = [(1, 1, 1)]. Autovetores de λ3 Seja v = (x, y, z). Enta˜o v ∈ Vλ3 ⇐⇒ T (v) = −2v ⇐⇒ A xy z = −2x−2y −2x ⇐⇒ x+ y = −2x x− y + 2z = −2y 2x+ y − z = −2z ⇐⇒ x = z e y = −3z. Portanto os elementos de Vλ3 sa˜o da forma v = (z,−3z, z) = z(1,−3, 1). Consequentemente Vλ3 = [(1,−3, 1)] Talvez uma das OBS. mais importantes deste pdf OBS.: Para calcular os autovetores no Exerc´ıcio 3.16 utilizamos diretamente a fo´rmula da trans- formac¸a˜o T para achar os vetores p(x) tais que T (p(x)) = λp(x). Ja´ neste Exerc´ıcio 3.21, por questa˜o de praticidade, utilizamos a forma matricial de T para calcular os vetores v = (x, y, z) tais que [ T ]β β xy z = λ xy z F Caso, por algum motivo, queiramos utilizar uma base α = {a1, a2, a3} diferente da canoˆnica para expressar essa equac¸a˜o na˜o podemos dizer que os autovetores v = (x, y, z) de T sera˜o tais que[ T ]α α xy z = λ xy z . Por queˆ?! Porque observe que a equac¸a˜o F e´ equivalente a [ T ]β β [ v ] β = λ [ v ] β . E se mudarmos a base da matriz de T devemos tambe´m mudar a base da matriz de coordenadas do vetor! CAPI´TULO 5. AUTOVALORES E AUTOVETORES 57 A correc¸a˜o que deveria ser feita e´ a seguinte : achar c1, c2, c3 tais que [ T ]α α c1c2 c3 = λ c1c2 c3 e enta˜o concluir que os autovetores sa˜o da forma v = (x, y, z) = c1a1 + c2a2 + c3a3. 5.0.10 Exerc´ıcio 6.22 Encontremos a matriz de T na base canoˆnica de Mn(R) β = { B1︷ ︸︸ ︷[ 1 0 0 0 ] , B2︷ ︸︸ ︷[ 0 1 0 0 ] , B3︷ ︸︸ ︷[ 0 0 1 0 ] , B4︷ ︸︸ ︷[ 0 0 0 1 ] }. Temos que T (B1) = [ 2 0 0 0 ] = 2B1, T (B2) = [ 1 2 0 0 ] = B1 +B2, T (B3) = [ 0 0 2 0 ] = 2B3 e T (B4) = [ 0 0 0 3 ] = 3B4 Portanto A := [ T ]β β = 2 1 0 0 0 2 0 0 0 0 2 0 0 0 0 3 Agora podemos calcular o polinoˆmio caracter´ıstico p(λ) = det(A− λI4) = det 2− λ 1 0 0 0 2− λ 0 0 0 0 2− λ 0 0 0 0 3− λ = (2− λ)3(3− λ) Enta˜o as ra´ızes do polinoˆmio caracter´ıstico, i.e. os autovalores de T , sa˜o λ1 = 2 e λ2 = 3. Calculmeos os autoespac¸os. Autovetores de λ1 Seja A = [ a b c d ] matriz gene´rica de Mn(R). Enta˜o A ∈ Vλ1 ⇐⇒ T (A) = 2A ⇐⇒ 2 1 0 0 0 2 0 0 0 0 2 0 0 0 0 3 a b c d = 2a 2b 2c 2d ⇐⇒ 2a+ b = 2a 2b = 2b 2c = 2c 3d = 2d ⇐⇒ b = d = 0 Portanto os elementos de Vλ1 sa˜o da forma A = [ a 0 c 0 ] = aB1 + cB3. Consequentemente Vλ1 = [B1, B3]. Autovetores de λ2 Seja A = [ a b c d ] matriz gene´rica de Mn(R). Enta˜o A ∈ Vλ2 ⇐⇒ T (A) = 3A CAPI´TULO 5. AUTOVALORES E AUTOVETORES 58 ⇐⇒ 2 1 0 0 0 2 0 0 0 0 2 0 0 0 0 3 a b c d = 3a 3b 3c 3d ⇐⇒ 2a+ b = 3a 2b = 3b 2c = 3c 3d = 3d ⇐⇒ a = b = c = 0 Portanto os elementos de Vλ2 sa˜o da forma A = [ 0 0 0 d ] = dB4. Consequentemente Vλ2 = [B4]. 5.0.11 Exerc´ıcio 6.25 Vamos provar que o polinoˆmio caracter´ıstico de A e o de At sa˜o o mesmo polinoˆmio. De fato: pA(x) = det(A− xIn) = det( (A− xIn)t ) = det(At − xItn) = det(At − xIn) = pAt(x) Sendo assim, as ra´ızes de pA e de pAt , i.e. os autovalores de A e de A t, coincidem! � 5.0.12 Exerc´ıcio 6.27 Seja λ um autovalor da matriz invert´ıvel A com autovetor associado v (na forma de matriz co- luna). Enta˜o: Inv = v =⇒ A−1Av = v =⇒ A−1(λv) = v =⇒ λA−1v = v F =⇒ A−1v = 1λv Enta˜o 1λ e´ um autovalor da matriz A −1. OBS.: A implicac¸a˜o F so´ e´ va´lida se λ 6= 0. E na verdade podemos provar que se A e´ invert´ıvel enta˜o 0 na˜o e´ um de seus autovalores (basta ver que caso 0 fosse autovalor enta˜o Ker(A) 6= {0}). 5.0.13 Exerc´ıcio 6.28 Calculemos as ra´ızes de pA(t). Temos que: pA(t) = det(A− tI3) = det −t 1 00 −t 1 1 0 −t = −t3 + 1 E suas ra´ızes, i.e. os autovalores de A, sa˜o 1, −1+i √ 3 2 e −1−i√3 2 . CAPI´TULO 5. AUTOVALORES E AUTOVETORES 59 5.0.14 Exerc´ıcio 6.29 Pela definic¸a˜o, [ T ]γ γ = ∣∣∣ ∣∣∣ ∣∣∣[ T (v1) ] γ [ T (v2) ] γ [ T (v3) ] γ∣∣∣ ∣∣∣ ∣∣∣ . Agora, como • T (v1) = v1; • T (v2) = v1 + 2v2 + 3v3; • T (v3) = v3; segue que A := [ T ]γ γ = 1 1 00 2 0 0 3 1 . Agora podemos calcular o polinoˆmio caracter´ıstico: pT (t) = det(A− tI3) = det 1− t 1 00 2− t 0 0 3 1− t = (1− t)2(2− t) que possui as ra´ızes (autovalores de T ) λ1 = 1 e λ2 = 2. Calculemos agora os autoespac¸os. Autovetores de λ1 Seja v = (x, y, z) ∈ R3. Enta˜o v ∈ Vλ1 ⇐⇒ T (v) = λ1v ⇐⇒ A xy z = xy z ⇐⇒ 1 1 00 2 0 0 3 1 xy z = xy z ⇐⇒ x+ y = x 2y = y 3y + z = z ⇐⇒ y = 0 Portanto os elementos de Vλ1 sa˜o da forma v = (x, 0, z) = x(1, 0, 0) + z(0, 0, 1). Consequentemente Vλ1 = [(1, 0, 0), (0, 0, 1)]. Autovetores de λ2 Seja v = (x, y, z) ∈ R3. Enta˜o v ∈ Vλ2 ⇐⇒ T (v) = λ2v ⇐⇒ A xy z = 2x2y 2z ⇐⇒ 1 1 00 2 0 0 3 1 xy z = 2x2y 2z ⇐⇒ x+ y = 2x 2y = 2y 3y + z = 2z ⇐⇒ x = y e z = 3y Portanto os elementos de Vλ2 sa˜o da forma v = (y, y, 3y) = y(1, 1, 3). Consequentemente Vλ2 = [(1, 1, 3)]. CAPI´TULO 5. AUTOVALORES E AUTOVETORES 60 Sessa˜o 6.3 5.0.15 Exerc´ıcio 6.42 Calculemos os autovalores e autovetores de A. Temos que: pA(t) = det(A− tI3) = det 1− t 1 10 2− t 1 0 0 1− t = (1− t)2(2− t) que possui como ra´ızes λ1 = 1 com ma(λ1) = 2 e λ2 = 2 com ma(λ2) = 1. Autovetores de λ1 Seja v = xy z . Enta˜o v ∈ Vλ1 ⇐⇒ A xy z = xy z ⇐⇒ 1 1 10 2 1 0 0 1 xy z = xy z ⇐⇒ x+ y + z = x 2y + z = y z = z ⇐⇒ y = −z Portanto os elementos de Vλ1 sa˜o da forma v = (x,−z, z) = x(1, 0, 0) + z(0,−1, 1). Consequentemente Vλ1 = [(1, 0, 0), (0,−1, 1)]. E segue que mg(λ1) = dim(Vλ1) = 2. Autovetores de λ2 Seja v = xy z . Enta˜o v ∈ Vλ2 ⇐⇒ A xy z = 2x2y 2z ⇐⇒ 1 1 10 2 1 0 0 1 xy z = 2x2y 2z ⇐⇒ x+ y + z = 2x 2y + z = 2y z = 2z ⇐⇒ z = 0 e x = y Portanto os elementos de Vλ2 sa˜o da forma v = (y, y, 0) = y(1, 1, 0). Consequentemente Vλ2 = [(1, 1, 0)]. E segue que mg(λ2) = dim(Vλ2) = 1. 5.0.16 Exerc´ıcio 6.43 Os autovalores de matrizes similares sa˜o os mesmos! Vamos provar que se A e B sa˜o matrizes similares enta˜o vale que pA(t) = pB(t). De fato, CAPI´TULO5. AUTOVALORES E AUTOVETORES 61 pA(t) = det(A− tIn) = det(P−1BP − tIn) = det( P−1(B − tIn)P ) 1 = det(P−1) · det(B − tIn) · det(P ) 2 = det(B − tIn) = pB(t) Onde nas igualdades 1 e 2 usamos as propriedades dos determinantes det(AB) = det(A) det(B) e det(A−1) = 1det(A) , respectivamente. 5.0.17 Exerc´ıcio 6.45 (a) Vamos provar que AB e BA possuem o mesmo polinoˆmio caracter´ıstico. De fato, pAB(t) = det(AB − λIn) = det( (AB − λIn)AA−1 ) = det(ABAA−1 − λAA−1) = det(A(BA− λIn)A−1) = det(A) det(A−1) det(BA− λIn) = det(BA− λIn) = pBA(t) Portanto AB e BA possuem os mesmos autovalores (ra´ızes do polinoˆmio caracter´ıstico). � 5.0.18 Exerc´ıcio 6.46 No Exerc´ıcio 6.43 vimos que se A e B sa˜o matrizes similares enta˜o elas possuem o mesmo po- linoˆmio caracter´ıstico. Logo na˜o so´ os autovalores dessas matrizes coincidem mas tambe´m suas respectivas multiplicidades alge´bricas. Resta-nos ver se a multiplicidade geome´trica tambe´m e´ mantida. Agora, dizer que A e B sa˜o matrizes similares e´ dizer que A = P−1BP para alguma matriz in- vert´ıvel P . Fixado um autovalor λ de A queremos provar que dim(Vλ) = dim(V ′ λ) onde Vλ e´ o autoespac¸o de λ como autovalor de A e V ′ λ e´ o autoespac¸o de λ como autovalor de B. Seja enta˜o β = {v1, · · · , vk} uma base para Vλ. Para cada autovetor vi vale que: P−1BPvi = Avi = λvi E ale´m disso, λ(Pvi) = P (λvi) = P (Avi) = P (P −1BPvi) = B(Pvi) CAPI´TULO 5. AUTOVALORES E AUTOVETORES 62 com Pvi 6= 0, pois vi 6= 0 e P e´ invert´ıvel F. Portanto Pvi (i = 1, · · · , k) sa˜o autovetores de B associados ao mesmo autovalor λ. Agora se provarmos que β′ = {Pv1, · · · , Pvk} e´ L.I. estara´ provado que dim(Vλ) ≤ dim(V ′λ). E de fato isso acontece: supondo escalares c1, · · · , ck tais que c1(Pv1) + · · ·+ ck(Pvk) = 0 temos que 0 = c1(Pv1) + · · ·+ ck(Pvk) = P (c1v1 + · · ·+ ckvk) e como P e´ invert´ıvel isso implica que c1v1 + · · ·+ ckvk = 0, disso c1 = c2 = · · · = ck = 0 pois {v1, · · · , vk} = β e´ uma base. Logo β′ e´ realmente L.I.. Agora preciso provar que dim(V ′λ) ≤ dim(Vλ). Para isso, suponha que α′ = {w1, · · · , wm} seja uma base de V ′λ. Temos que B = PAP −1 e analogamente ao caso anterior podemos provar que α = {P−1w1, · · · , P−1wm} sera´ um conjunto L.I. de autovetores de A associados a λ, o que im- plica que dim(V ′λ) ≤ dim(Vλ). De dim(Vλ) ≤ dim(V ′λ) e dim(V ′λ) ≤ dim(Vλ) conclu´ımos finalmente que dim(Vλ) = dim(V ′λ) e consequentemente a transformac¸a˜o de similaridade tambe´m conserva a multiplicidade geome´trica dos autovalores! � OBS.F: Se v 6= 0 e P e´ uma matriz invert´ıvel enta˜o Pv 6= 0. De fato, (pela contrapositiva) suponha Pv = 0, logo P−1Pv = P−1 · 0 =⇒ v = 0. Outra maneira de enxergar essa afirmac¸a˜o e´ olhar P como uma matriz de uma tranformac¸a˜o li- near, i.e. P = [ T ]γ γ para alguma base γ. Enta˜o ser invert´ıvel e´ equivalente a T ser bijetora, o que implica que Ker(T ) = {0} e logo vale a implicac¸a˜o v 6= 0 =⇒ Pv 6= 0. Sessa˜o 6.4 5.0.19 Exerc´ıcio 6.51 Note que para todo vetor (matriz coluna) v vale que (Qv)tQv = vtQtQv = vtv pois Qt = Q−1. Agora se considerarmos v um autovetor de Q com autovalor associado λ ∈ R temos que: (Qv)tQv = (λv)tλv = λ2vtv E portanto λ2vtv = vtv. Como v 6= 0 disso temos λ2 = 1 =⇒ |λ| = 1 =⇒ λ = 1 ou λ = −1. 5.0.20 Exerc´ıcio 6.52 O polinoˆmio caracter´ıstico de uma matriz Q ∈ Mn(R) e´ um polinoˆmio com coeficientes reais. Sendo assim se λ ∈ C e´ uma raiz desse polinoˆmio, i.e. λ e´ um autovalor complexo, enta˜o λ¯ CAPI´TULO 5. AUTOVALORES E AUTOVETORES 63 tambe´m e´ raiz do polinoˆmio! OBS.: Note que Q na˜o precisa ser ortogonal para satisfazer isso. 5.0.21 Exerc´ıcio 6.53 Se A ∈ Mn(R) enta˜o o grau do polinoˆmio caracter´ıstico pA(t) = det(A − tIn) e´ n. Sendo assim, temos um polinoˆmio com coeficientes reais de grau n. Como vimos no Exerc´ıcio 6.52, se existe um autovalor complexo λ enta˜o λ¯ tambe´m e´ autovalor. Agora note que se todos os autovalores na˜o fossem nu´meros reais, ter´ıamos para cada λ outro autovalor diferente λ¯ o que nos levaria a um nu´mero par de autovalores. Sendo assim, se n e´ ı´mpar obrigatoriamente devemos ter um autovalor real. 5.0.22 Exerc´ıcio 6.60 (∗)Neste exerc´ıcio, podemos entender melhor os passos usando o fato de que toda matriz A ∈ Mn(R) pode ser vista como matriz de um operador linear numa base A = [T ]αα. Agora observe que “A e´ invert´ıvel ⇐⇒ T e´ bijetora ”. Sendo assim, considere A uma matriz positiva-definida (xtAx > 0 ∀x 6= 0). Suponha, por absurdo, que A pode ser na˜o-invert´ıvel. Sendo assim, existe um vetor na˜o-nulo v ∈ Ker(A), pois caso contra´rio (∗) nos diria que T e´ bijec¸a˜o. Disso temos que Av = 0 =⇒ vtAv = 0 e v 6= 0, que e´ uma contradic¸a˜o pois assumimos que A e´ positiva-definida. Portanto A positiva-definida =⇒ A invert´ıvel. Agora, sabemos que “A sime´trica e´ positiva-definida ⇐⇒ todos seus autovalores sa˜o positivos (Teorema 6.4.5)”. Agora, sabemos que os autovalores de A−1 sa˜o todos da forma 1λ , onde λ e´ um autovalor de A (Exerc´ıcio 6.27). Disso e´ imediato que se todos os autovalores de A sa˜o positivos enta˜o todos os autovalores de A−1 tambe´m sa˜o positivos, i.e. A positiva-definida =⇒ A−1 positiva-definida. 5.0.23 Exerc´ıcio 6.61 Vamos provar que se uma matriz sime´trica A e´ semipositiva-definida e, ale´m disso, na˜o e´ positiva- definida, enta˜o det(A) = 0 e λ = 0 e´ um autovalor de A. Se tive´ssemos Ker(A) 6= {0} enta˜o Av 6= 0 ∀v 6= 0 =⇒ vtAv 6= 0 ∀v 6= 0 o que na˜o acontece por hipo´tese. Logo existe um vetor na˜o-nulo v tal que Av = 0 = 0 ·v e portanto λ = 0 e´ um autovalor de A. Ale´m disso, A ∈ Mn(R) na˜o pode ser invert´ıvel pois se consideramos A := [T ]αα enta˜o Ker(A) 6= {0} implica que T na˜o e´ injetora e logo T na˜o e´ bijetora, que e´ equivalente a dizer que A na˜o e´ invert´ıvel (i.e. det(A) = 0). CAPI´TULO 5. AUTOVALORES E AUTOVETORES 64 Sessa˜o 6.6 Nesta sessa˜o utilizaremos exaustivamente o Teorema 6.6.6 que afirma resumidamente que: “T e´ diagonaliza´vel ⇐⇒ existe uma base de autovetores de T”. 5.0.24 Exerc´ıcio 6.65 Calculemos primeiramente os autovalores e autovetores do operador linear T . Encontremos a matriz de T na base canoˆnica de R3, β = {(1, 0, 0), (0, 0, 1), (0, 0, 1)}. Temos que T (1, 0, 0) = (−3, 2, 0) T (0, 1, 0) = (−4, 3, 0) T (0, 0, 1) = (0, 0,−1) Portanto A := [ T ]β β = −3 −4 02 3 0 0 0 −1 Agora podemos calcular o polinoˆmio caracter´ıstico p(λ) = det(A−λI3) = det −3− λ −4 02 3− λ 0 0 0 −1− λ = (−3− λ)(3− λ)(−1− λ) + 8(−1− λ) = (−1− λ)[(3− λ)(−3− λ) + 8] = (−1− λ)(λ2 − 1) Enta˜o as ra´ızes do polinoˆmio caracter´ıstico, i.e. os autovalores de T , sa˜o λ1 = 1 e λ2 = −1. Do polinoˆmio caracter´ıstico conclu´ımos que ma(λ1) = 1 e ma(λ2) = 2. Calculmeos agora os autoespac¸os. Autovetores de λ1 Seja v = (x, y, z) vetor gene´rico de R3. Enta˜o v ∈ Vλ1 ⇐⇒ T (x, y, z) = (x, y, z) ⇐⇒ Av = v (escrevendo o vetor como matriz coluna). Disso temos que: v ∈ Vλ1 ⇐⇒−3 −4 02 3 0 0 0 −1 xy z = xy z ⇐⇒ −3x− 4y = x 2x+ 3y = y −z = z ⇐⇒ z = 0; x = −y Portanto os elementos de Vλ1 sa˜o da forma v = (−y, y, 0) = y(−1, 1, 0). Consequentemente Vλ1 = [(−1, 1, 0)] e observe que disso conclu´ımos que mg(λ1) = dim(Vλ1) = 1. Autovetores de λ2 Seja v = (x, y, z) vetor gene´rico de R3. Enta˜o v ∈ Vλ2 ⇐⇒ T (x, y, z) = −1 · (x, y, z) ⇐⇒ Av = −v (escrevendo o vetor como matriz coluna). Disso temos que: v ∈ Vλ2 ⇐⇒ −3 −4 02 3 0 0 0 −1 xy z = −x−y −z ⇐⇒ −3x− 4y = −x 2x+ 3y = −y −z = −z ⇐⇒ x = −2y Portanto os elementos de Vλ2 sa˜o da forma v = (−2y, y, z) = y(−2, 1, 0) + z(0, 0, 1). Consequentemente Vλ2 = [(−2, 1, 0), (0, 0, 1)] e observe que disso conclu´ımos que mg(λ2) =CAPI´TULO 5. AUTOVALORES E AUTOVETORES 65 dim(Vλ2) = 2. Finalmente como dim(Vλ1) + dim(Vλ2) = dim(R3) conseguimos encontrar uma base para R3 formada por autovetores de T . De fato, o conjunto de autovetores β = {(−1, 1, 0), (−2, 1, 0), (0, 0, 1)} e´ L.I. (e portanto base); Podemos verificar manualmente que β e´ L.I. ou usar o fato de que autovetores associados a auto- valores distintos sa˜o L.I. entre si (e os autovetores com mesmo autovalor associado sa˜o L.I. entre si pois sa˜o integrantes da base do autoespac¸o). Tendo feito isso provamos que β e´ uma base de R3 formada por autovetores e, como diz o Teo- rema 6.6.6, fica provado que T e´ um operador linear diagonaliza´vel. 5.0.25 Exerc´ıcio 6.69 Calculemos primeiramente os autovalores e autovetores do operador linear T . Encontremos a matriz de T na base canoˆnica de P2(R), β = {1, x, x2}. Temos que T (1) = 0 T (x) = 2 + 2x T (x2) = 1− x+ 2x2 Portanto A := [ T ]β β = 0 2 10 2 −1 0 0 2 Agora podemos calcular o polinoˆmio caracter´ıstico p(λ) = det(A− λI3) = det −λ 2 10 2− λ −1 0 0 2− λ = (−λ)(2− λ)2 Enta˜o as ra´ızes do polinoˆmio caracter´ıstico, i.e. os autovalores de T , sa˜o λ1 = 0 e λ2 = 2. Do polinoˆmio caracter´ıstico conclu´ımos que ma(λ1) = 1 e ma(λ2) = 2. Calculmeos agora os autoespac¸os. Autovetores de λ1 Para economizar esforc¸o, podemos usar um me´todo diferente do Exerc´ıcio 6.65. Sei que λ1 = 0 e´ autovalor de T . Enta˜o existe um p1(x) 6= 0 tal que p1(x) e´ autovetor associado a λ1. E como ma(λ1) = 1 e 1 ≤ mg(λ1) ≤ ma(λ1) = 1, segue que dim(Vλ1) = mg(λ1) = 1. E veremos que saber a dimensa˜o dos autoespac¸os e´ suficiente para determinar se um operador e´ diagonaliza´vel ou na˜o! Pois “a soma da dimensa˜o dos autoespac¸os e´ igual a dimensa˜o do espac¸o todo ⇐⇒ o operador e´ diagonaliza´vel” (essa afirmac¸a˜o e´ equivalente a dizer que um operador e´ diagonaliza´vel ⇐⇒ existe uma base de autovetores). Autovetores de λ2 Neste caso, na˜o conseguimos um argumento similar ao anterior pois ma(λ2) > 1. Isto e´, na˜o CAPI´TULO 5. AUTOVALORES E AUTOVETORES 66 conseguimos de maneira ra´pida concluir a existeˆncia de um conjunto L.I. de autovetores sem cal- cular os autovetores explicitamente. Enta˜o calculemos eles. Seja p(x) = a+ bx+ cx2 vetor gene´rico de P2(R). Enta˜o p(x) ∈ Vλ2 ⇐⇒ T (p(x)) = 2 · p(x) ⇐⇒ (2b+c)+(2b−c)x+2cx2 = 2a+2bx+2cx2 ⇐⇒ (2b+c−2a)+(2b−c−2b)x+(2c−2c)x2 = 0P2(R). Disso temos que: p(x) ∈ Vλ2 ⇐⇒ 2b+ c− 2a = 0 −c = 0 0 = 0 , que possui soluc¸a˜o c = 0 e b = a. Portanto os elementos de Vλ2 sa˜o da forma p(x) = a+ ax = a(1 + x). Consequentemente Vλ2 = [1 + x] e observe que disso conclu´ımos que mg(λ2) = dim(Vλ2) = 1. Sendo assim, na˜o e´ poss´ıvel encontrar uma base de autovetores, pois conseguimos apenas um conjunto L.I. de no ma´ximo dois autovetores {p1(x), 1 + x} e dim(P2(R)) = 3. Logo na˜o existe base de autovetores e portanto T na˜o e´ um operador diagonaliza´vel. OBS.: Em geral, quando encontrarmos que mg(λ) < ma(λ) para algum autovalor λ isso ja´ sera´ suficiente para concluirmos que o operador em questa˜o na˜o e´ diagonaliza´vel (Por queˆ? ). 5.0.26 Exerc´ıcio 6.70 A base ordenada que o exerc´ıcio nos pede e´ simplesmente uma base de autovetores (Por queˆ? ). Enta˜o vamos calcular os autovetores de T . Do Exerc´ıcio 6.11 temos que os autovalores de T sa˜o λ1 = 1 e λ2 = −1. Autovetores de λ1 Seja A = a b cd e f g h i uma matriz gene´rica de M3(R). Enta˜o A ∈ Vλ1 ⇐⇒ T (A) = A ⇐⇒ At = A ⇐⇒ a d gb e h c f i = a b cd e f g h i ⇐⇒ b = d c = g f = h . Portanto os elementos de Vλ1 sa˜o da forma A = a b cb e f c f i = a 1 0 00 0 0 0 0 0 ︸ ︷︷ ︸ A1 +b 0 1 01 0 0 0 0 0 ︸ ︷︷ ︸ A2 +c 0 0 10 0 0 1 0 0 ︸ ︷︷ ︸ A3 +e 0 0 00 1 0 0 0 0 ︸ ︷︷ ︸ A4 +f 0 0 00 0 1 0 1 0 ︸ ︷︷ ︸ A5 +i 0 0 00 0 0 0 0 1 ︸ ︷︷ ︸ A6 . Consequentemente Vλ1 = [A1, A2, A3, A4, A5, A6]. Autovetores de λ2 CAPI´TULO 5. AUTOVALORES E AUTOVETORES 67 Seja A = a b cd e f g h i uma matriz gene´rica de M3(R). Enta˜o A ∈ Vλ2 ⇐⇒ T (A) = −A ⇐⇒ At = −A ⇐⇒ a d gb e h c f i = −a −b −c−d −e −f −g −h −i ⇐⇒ a = e = i = 0 b = −d c = −g f = −h . Portanto os elementos de Vλ2 sa˜o da forma A = 0 b c−b 0 f −c −f 0 = b 0 1 0−1 0 0 0 0 0 ︸ ︷︷ ︸ B1 +c 0 0 10 0 0 −1 0 0 ︸ ︷︷ ︸ B2 +f 0 0 00 0 1 0 −1 0 ︸ ︷︷ ︸ B3 . Consequentemente Vλ2 = [B1, B2, B3]. Portanto conclu´ımos que a base procurada e´ β = {A1, A2, A3, A4, A5, A6, B1, B2, B3}, pois [ T ]β β e´ sempre diagonal se β e´ base de autovetores. 5.0.27 Exerc´ıcio 6.72 Novamente recorremos ao Teorema 4.2.1 que diz, resumidamente, que: “Uma transformac¸a˜o linear fica completamente determinada pelos seus valores numa base” Prosseguimos da seguinte maneira: Colocamos • T (1, 0, 1) = (0, 0, 0) = 0 · (1, 0, 1) para incluir u = (1, 0, 1) no nu´cleo. E agora, colocamos • T (0, 1, 0) = 1 · (0, 1, 0) • T (0, 0, 1) = 2 · (0, 0, 1) para satisfazer a condic¸a˜o de T ser diagonaliza´vel! A estrate´gia de colocar cada vetor da base escolhida como um autovetor associado a um auto- valor diferente e´ sempre boa porque, apo´s calcularmos a fo´rmula expl´ıcita de T , provar que T e´ diagonaliza´vel sera´ bem ra´pido. De fato, calculando a fo´rmula de T obtemos (exemplo mais detalhado de como calcular a fo´rmula expl´ıcita de um operador no Exerc´ıcio 4.6) : (x, y, z) = c1(1, 0, 1) + c2(0, 1, 0) + c3(0, 0, 1) =⇒ c1 = x, c2 = y e c3 = z − x. E portanto: T (x, y, z) = y(0, 1, 0) + (z − x)(0, 0, 2) = (0, y, 2z − 2x) CAPI´TULO 5. AUTOVALORES E AUTOVETORES 68 Agora podemos concluir que T e´ diagonaliza´vel pois possui 3 autovalores distintos: λ1 = 0, λ2 = 1 e λ3 = 2, o que implica que existe um autovetor vi associado a cada autovalor λi e β = {v1, v2, v3} e´ L.I. pois e´ formado por autovetores de autovalores distintos (e portanto β e´ base de R3). OBS.: Como sempre, e´ uma boa pra´tica verificar (no rascunho) se o operador encontrado real- mente satisfaz as propriedades requeridas. Sessa˜o 6.7 5.0.28 Exerc´ıcio 6.88 Vamos provar que x∗Ax = x∗Ax. De fato, temos que x∗Ax = x∗Ax = xtAx. Agora como xtAx e´ uma matriz 1×1 podemos aplicar a transposta sem alterar nada. Logo x∗Ax = xtAx = (xtAx)t = x∗A∗x = x∗Ax E isso so´ pode acontecer se x∗Ax for um nu´mero real. � 5.0.29 Exerc´ıcio 6.92 (a) Se A e´ diagonaliza´vel enta˜o existe uma matriz invert´ıvel P tal que A = PDP−1, onde D e´ a matriz diagonal dos autovalores de A. Disso, det(A) = det(P ) det(P−1) det(D) = det(D) = λ1 · · ·λn (b) Da mesma forma, tr(A) = tr(PDP−1) = tr(P−1PD) = tr(D) = λ1 + · · ·+ λn 5.0.30 Exerc´ıcio 6.94 Basta diagonalizar a matriz A e enta˜o ortonormalizar a base de autovetores encontrada. Autovalores de A p(t) = det(A− tI3) = det −t 1 11 −t 1 1 1 −t = −t3 + 3t+ 2 = (2− t)(t+ 1)2 Logo os autovalores sa˜o λ1 = −1 e λ2 = 2 Autovetores de A CAPI´TULO 5. AUTOVALORES E AUTOVETORES 69 Av = λ1v ⇐⇒ 0 1 11 0 1 1 1 0 xy z = −1 · xy z ⇐⇒ x+ y + z = 0 x+ y + z = 0 x+ y + z = 0 ⇐⇒ x = −y − z ⇐⇒ v = (−y − z, y, z) = y(−1, 1, 0) + z(−1, 0, 1) Portanto Vλ1 = [(−1, 1, 0), (−1, 0, 1)]. Av = λ2v ⇐⇒ 0 1 11 0 1 1 1 0 xy z = 2 · xy z ⇐⇒ −2x+ y + z = 0 x− 2y + z = 0 x+ y − 2z = 0 ⇐⇒ x = y = z ⇐⇒ v = (x, x, x) = x(1, 1, 1) Portanto Vλ2 = [(1, 1, 1)]. Consequentemente, β = { v1︷ ︸︸ ︷ (−1, 1, 0), v2︷ ︸︸ ︷ (−1, 0, 1), v3︷ ︸︸ ︷ (1, 1, 1)} e´ uma basede autovetores de A. Note que β na˜o e´ uma base ortonormal. Agora aplicamos o processo de Gram-Schmidt na base beta para obter uma base α = {q1, q2, q3} ortonormal. w1 = v1 w2 = v2 − 〈v2,q1〉〈q1,q1〉 q1 w3 = v3 − 〈v3,q1〉〈q1,q1〉 q1 − 〈v3,q2〉 〈q2,q2〉 q2 Finalmente fazemos qi = 1 ‖wi‖wi para i = 1, 2, 3 e obtemos a base ortonormal α. Fazendo as contas obtemos q1 = 1√ 2 (−1, 1, 0), q2 = √ 2√ 3 (−1/2,−1/2, 1) e q3 = 1√3 (1, 1, 1) como os elementos da base ortonormal de autovetores. Portanto Q = −1/ √ 2 −√2/2√3 1/√3 1/ √ 2 −√2/2√3 1/√3 0 √ 2/ √ 3 1/ √ 3 e´ a matriz ortogonal procurada. 5.0.31 Exerc´ıcio 6.95 OBS.: No livro do Pulino, foi definido uma matriz ser “positiva-definida” no caso que a matriz, por hipo´tese, ja´ era sime´trica. Sendo assim, neste exerc´ıcio fica subentendido (ou na˜o) que A e´ uma matriz sime´trica. Este caso particular e´ bem mais simples e sera´ feito abaixo. Uma resposta mais geral tambe´m sera´ feita apo´s. Se A e´ sime´trica, dizer que A e´ positiva-definida e´ equivalente a dizer que todos os autovalores de A sa˜o positivos. Sendo assim, como toda matriz sime´trica e´ diagonaliza´vel, A = P−1DP , onde D e´ a matriz diagonal de autovalores. Segue que det(A) = det(P ) det(P−1) det(D) = det(D) = λ1 · ... · λn > 0, pois λi > 0 (i = 1, · · · , n). � No caso em que na˜o assumimos que A e´ sime´trica, a prova e´ mais longa. Considere a func¸a˜o f(t) = det(tIn + (1− t)A) CAPI´TULO 5. AUTOVALORES E AUTOVETORES 70 definida em [0, 1]. Observe que f e´ cont´ınua e que f(0) = det(A) e f(1) = det(In) = 1. Nosso objetivo agora e´ mostrar que f na˜o se anula, pois disso (usando o Teorema do Valor Inter- media´rio) teremos que det(A) > 0 (pois 1 > 0). Agora, observe que a matriz tIn + (1− t)A tambe´m e´ positiva-definida para todo t ∈ [0, 1] pois xT (tIn − (1− t)A)x = txTx+ (1− t)xTAx > 0 ja´ que xTAx, t, (1− t) > 0. Agora, como matrizes positivas-definidas sa˜o invert´ıveis segue que f(t) = det(tIn + (1− t)A) 6= 0 ∀t ∈ [0, 1] � 5.0.32 Exerc´ıcio 6.100 FUsaremos o Teorema 6.7.10 para dizer que os autovalores na˜o-nulos de uma matriz anti-sime´trica sa˜o necessariamente imagina´rios puros. Como I −A ∈Mn(R), vamos provar que Ker(I −A) = {0} e disso concluir que I −A e´ invert´ıvel (argumento melhor justificado em (*)Exerc´ıcio 6.60). De fato, v ∈ Ker(I −A) ⇐⇒ (I −A)v = 0 ⇐⇒ v −Av = 0 ⇐⇒ Av = v. Logo supondo, por absurdo, que v 6= 0 conclu´ımos que v e´ autovetor de A com autovalor λ = 1. Mas isto e´ uma contradic¸a˜o pois matrizes anti-sime´tricas possuem apenas autovalores nulos ou imagina´rios puros. Logo Ker(I −A) = {0} e portanto I −A e´ invert´ıvel. Ana´logo para I +A. Agora, vamos provar que a matriz B := (I − A)(I + A)−1 satisfaz BtB = I (e portanto e´ ortogo- nal). Primeiro, note que as matrizes I − A e I + A comutam. Isto e´, (I − A)(I + A) = I − A2 = (I +A)(I −A). Agora, note que Bt = ((I + A)−1)t(I − A)t = ((I + A)t)−1(I − A)t = (I + At)−1(I − At) = (I −A)−1(I +A). E finalmente, BtB = (I −A)−1(I +A)(I −A)(I +A)−1 = (I −A)−1(I −A)(I +A)(I +A)−1 = I � 5.0.33 Exerc´ıcio 6.101 Observe que A e´ uma matriz sime´trica. Sendo assim A e´ positiva-definida se, e somente se, todos os seus autovalores sa˜o positivos. Enta˜o vamos calcula´-los! CAPI´TULO 5. AUTOVALORES E AUTOVETORES 71 Note que o polinoˆmio caracter´ıstico de A, pA(t) = det(A− tI3) = det 5− t −1 2−1 8− t −1 2 −1 5− t possui ra´ızes λ1 = 3, λ2 = 6 e λ3 = 9. Sendo assim, todos os autovalores da matriz sime´trica A sa˜o positivos e, portanto, A e´ uma ma- triz positiva definida. Seja D = 3 0 00 6 0 0 0 9 , enta˜o existe uma matriz invert´ıvel P tal que A = PDP−1 (toda matriz sime´trica e´ diagonaliza´vel). Disso, analogamente ao Exerc´ıcio 6.92, conclu´ımos que det(A) = 3 · 6 · 9 = 162 e tr(A) = 3 + 6 + 9 = 18. 5.0.34 Exerc´ıcio 6.108 Vamos provar que se A e´ congruente a identidade enta˜o A e´ positiva-definida. De fato, se A e´ congruente a In enta˜o existe uma matriz invert´ıvel P tal que A = PInP t = PP t. Agora considere um vetor x na˜o-nulo. Enta˜o xtAx = xt(PP t)x = (P tx)t(P tx) = 〈P tx, P tx〉 > 0 pois P invert´ıvel =⇒ P t invert´ıvel =⇒ Ker(P t) = {0} =⇒ P tx 6= 0, se x 6= 0. Disso conclu´ımos que para todo vetor x na˜o-nulo vale que xtAx > 0. Logo A e´ positiva-definida. E como A e´ uma matriz sime´trica, ser positiva-definida e´ equivalente a dizer que todos os auto- valores de A sa˜o positivos. � Estruturas Algébricas Exercício 1.1 Exercício 1.2 Exercício 1.3 Exercício 1.5 Exercício 1.7 Exercício 1.12 Exercício 1.17 Exercício 1.20 Exercício 1.21 Espaços Vetoriais Exercício 3.2 Exercício 3.4 Exercício 3.5 Exercício 3.9 Exercício 3.11 Exercício 3.14 Exercício 3.16 Exercício 3.17 Exercício 3.20 Exercício 3.21 Exercício 3.23 Exercício 3.24 Exercício 3.25 Exercício 3.28 Exercício 3.29 Exercício 3.34 Exercício 3.35 Exercício 3.37 Exercício 3.39 Exercício 3.43 Exercício 3.46 Exercício 3.48 Exercício 3.54 Exercício 3.57 Exercício 3.58 Exercício 3.60 Exercício 3.62 Exercício 3.63 Exercício 3.64 Exercício 3.67 Exercício 3.69 Exercício 3.70 Exercício 3.72 Transformações Lineares Exercício 4.4 Exercício 4.6 Exercício 4.9 Exercício 4.10 Exercício 4.17 Exercício 4.19 Exercício 4.25 Exercício 4.26 Exercício 4.28 Exercício 4.42 Exercício 4.45 Exercício 4.53 Exercício 4.55 Produto Interno Exercício 5.2 Exercício 5.7 Exercício 5.12 Exercício 5.14 Exercício 5.18 Exercício 5.29 Exercício 5.31 Exercício 5.41 Exercício 5.53 Exercício 5.55 Exercício 5.57 Exercício 5.58 Exercício 5.59 Exercício 5.60 Exercício 5.62 Exercício 5.64 Exercício 5.66 Exercício 5.67 Exercício 5.71 Autovalores e Autovetores Exercício 6.2 Exercício 6.3 Exercício 6.6 Exercício 6.9 Exercício 6.11 Exercício 6.13 Exercício 6.14 Exercício 6.16 Exercício 6.21 Exercício 6.22 Exercício 6.25 Exercício 6.27 Exercício 6.28 Exercício 6.29 Exercício 6.42 Exercício 6.43 Exercício 6.45 Exercício 6.46 Exercício 6.51 Exercício 6.52 Exercício 6.53 Exercício 6.60 Exercício 6.61 Exercício 6.65 Exercício 6.69 Exercício 6.70 Exercício 6.72 Exercício 6.88 Exercício 6.92 Exercício 6.94 Exercício 6.95 Exercício 6.100 Exercício 6.101 Exercício 6.108