Baixe o app para aproveitar ainda mais
Prévia do material em texto
Álgebra Linear 1 (AG1M4) e 2 (AG2M5) - IFSP-SP Victor Rodrigues de Oliveira oliveira.victorr@msn.com Sumário 1 Espaços Vetoriais 3 1.1 Subespaços vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2 Independência e Dependência Linear . . . . . . . . . . . . . . . . . . . . . . . . 3 1.3 Subespaço gerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.5 Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2 Espaços vetoriais Euclidianos 5 2.1 Produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.2 Norma de um vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.2.1 Distância entre dois vetores . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.3 Ângulo entre dois vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.3.1 Vetores Ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.3.2 Conjunto de vetores ortogonais . . . . . . . . . . . . . . . . . . . . . . . 6 2.4 Bases ortogonais e ortonormais . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2.4.1 Processo de ortogonalização de Gram-Schmidt . . . . . . . . . . . . . . . 7 2.5 Complemento ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 3 Transformações Lineares 8 3.1 Núcleo e Imagem de uma transformação linear . . . . . . . . . . . . . . . . . . . 9 3.2 Teorema do Núcleo e Imagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 3.3 Matriz de uma transformação linear . . . . . . . . . . . . . . . . . . . . . . . . . 10 4 Operações com transformações lineares 11 4.1 Transformações lineares planas . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 4.2 Transformações lineares espaciais . . . . . . . . . . . . . . . . . . . . . . . . . . 15 5 Operadores Lineares 16 5.1 Operadores Inversíveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 5.2 Matriz de mudança de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 5.3 Operadores ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 5.4 Operadores simétricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 5.5 Autovalores e Autovetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 5.6 Matriz Diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 5.7 Polinômio característico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2 1 Espaços Vetoriais Um Espaço Vetorial E é um conjunto de elementos chamados de vetores. A operação de soma entre esses vetores e de sua multiplicação por um número real deve obedecer os seguintes axiomas: • comutatividade: u+ v = v + u • associatividade: (u+ v) + w = u+ (v + w) • vetor nulo: Existe um vetor 0 ∈ E ,chamado vetor nulo, ou vetor zero, tal que v+0 = 0+ v = v para todo v ∈ E • inverso aditivo: Para cada vetor v ∈ E existe um vetor −v ∈ E chamado inverso aditivo ou vetor simétrico tal que v + (−v) = −v + v = 0 • distributividade: (α + β) · v = α · v + β · v e (u+ v) · α = α · u+ α · v • multiplicação por 1: 1 · v = v 1.1 Subespaços vetoriais Um subespaço vetorial de E é um conjunto F ⊂ E com as seguintes propriedades: 1. 0 ∈ F ; 2. Se u, v ∈ F então u+ v ∈ F ; 3. v ∈ F então, para todo α ∈ R, temos que α · v ∈ F . 1.2 Independência e Dependência Linear Seja E um espaço vetorial. Diz-se que um conjunto X ∈ E é linearmente independente (L.I.) quando nenhum vetor v ∈ X é combinação linear de outros vetores de X . Por definição, se X = v, v é L.I., para v 6= 0. Quando X é L.I. dizemos que ∀v ∈ X é L.I. Quando um conjunto é L.I. seus elementos são todos diferentes de 0, pois o vetor nulo é combinação linear de quaisquer outros vetores: 0 = v1 · α1 + v2 · α2, · · · , vn · αn α1 = α2 = · · · = αn = 0 3 Definição 1.1. : Seja X um conjunto L.I. no espaço vetorial E. n∑ i=1 αi · vi = 0⇔ α1 = α2 = · · · = αn = 0 Definição 1.2. Sejam v1, · · · , vn ∈ E. Se nenhum deles é combinação linear dos outros, então X = {v1, · · · , vn} é L.I. Vem da Definição 2 que um conjunto X ∈ E é linearmente dependente (L.D.) quando não é L.I., o que significa que algum dos vetores em X é combinação linear de outros vetores, ou que X = {0}. Sendo assim, para que um conjunto X seja L.D. é necessário que exista uma combinação linear de vetores nula α1 · v1 + · · ·+ αn · vn = 0, sendo v1, · · · , vn ∈ X com algum αi 6= 0,∀i = 1, · · · , n. Se o conjunto X possuir o vetor nulo, então é necessariamente L.D. 1.3 Subespaço gerado Seja V um espaço vetorial e A = {v1, · · · , vn} um sub-conjunto não vazio de V. Dizemos que um dado [A] = n∑ i=1 αi · vn (∀α ∈ R e ∀ i = 1, · · · , n), ou seja, o conjunto de todas as combi- nações lineares de v1, · · · , vn ∈ V , é subespaço vetorial de V e também chamado de subespaço gerado por A. Se existe A ⊂ V tal que V = [A], dizemos que V é gerado por A, ou que A é gerador de V. Se A ⊂ V é finito, dizemos que V é finitamente gerado. Definição 1.3. Seja V um espaço vetorial sobre R. Um subconjunto B ⊂ V é chamado de base de V se B gera V sendo B L.I. 1.4 Bases Sejam V um espaço vetorial sobre o conjunto R dos reais e B ⊂ R um conjunto não-vazio. Dizemos que B gera V se todo elementos de V são combinações lineares de um número finito de vetores de B. Dado um conjunto B = {v1, . . . , vn} ⊂ V é possível adicionar um vetor em B de tal modo que B se torne gerador se V. Para tanto basta que o vetor a ser adicionado seja L.I. em relação aos vetores existentes em B. Assim, todo espaço vetorial finitamente gerado possui uma base com vetores L.I.∈ B. A base ser constituída de vetores L.I. é a garantia de que os vetores gerados por essa base serão escritos de maneira única. Ainda, tendo B = {v1, . . . , vn} base ordenada de V, escrevemos V = {α1, . . . , αn}B, com (α1, . . . , αn) ∈ R. 4 1.5 Dimensão Se V é finitamente gerado, chama-se dimensão de V (Notação: dimV) o número de ele- mentos de uma base qualquer de V. Se não for finitamente gerado, diz-se que sua dimensão é infinita. 2 Espaços vetoriais Euclidianos Um espaço vetorial sobre os reais onde está definido o produto interno entre vetores é chamado de espaço vetorial euclidiano. 2.1 Produto interno É chamado de produto interno em um espaço vetorial V a operação que associa dois ve- tores u, v ∈ V a um numero real, e é denotada por 〈u, v〉. Em geral n∑ i=1 αi · ui · vi, (αi 6= 0, ∀i = 1, . . . , n) é um produto interno do Rn. Seja V um espaço vetorial sobre R, o produto interno em V é uma função 〈., .〉V× V→ R (u, v) 7→ 〈u, v〉 que satisfaz os seguintes axiomas ∀ u, v, w ∈ V e α ∈ R: 1. 〈u, v〉 = 〈v, u〉; 2. 〈u+ v, w〉 = 〈u · w, v · w〉; 3. 〈αu, v〉 = α〈u, v〉; 4. 〈u, v〉 > 0 e 〈u, u〉 = 0⇔ u = 0. Dos axiomas acima vem as seguintes propriedades: 1. 〈u+ v, w〉 = 〈w, u+ v〉; 2. 〈u, α.v〉 = α〈v, u〉; 3. 〈0, u〉 = 0, ∀u ∈ V. Obs.: Em C-espaço vetorial com produto interno definido, temos que : 〈u, v〉 = 〈u, v〉 = 〈u, v〉e λ〈u, v〉 = λ〈u, v〉 onde 〈u, v〉 é o conjugado de 〈u, v〉 e λ é o conjugado de λ. 5 2.2 Norma de um vetor Seja V um espaço vetorial euclidiano. Norma (ou módulo) de um vetor v ∈ V, denotado por ‖ u ‖ ou | u |, é o número real √〈u, u〉. Propriedades: Seja V um espaço vetorial euclidiano. Para todo u, v ∈ V e λ ∈ R temos: 1. |v| > 0 e |v| = 0⇔ v = 0; 2. |λ · v| = |λ| · |v|; 3. |u+ v| 6 |u|+ |v| (Desigualdade Triangular); 4. |〈u, v〉| 6 |u| · |v| (Desigualdade de Cauchy-Schwarz): Temos que, para ∀ v ∈ V com v 6= 0, ∥∥∥∥ v|v| ∥∥∥∥ = 1, ou seja, é igual ao vetor unitário. 2.2.1 Distância entre dois vetores Chama-se distância entre dois vetores (u e v) e denotado por d(u − v),o numero real | (u− v)|. Portanto d(u− v) = |(u− v)|. 2.3 Ângulo entre dois vetores Sejam V um espaço vetorial euclidiano e u, v ∈ V não nulos. O ângulo θ, 0 < θ < pi, tal que cos θ = 〈u, v〉 | u | · | v | é chamado de ângulo entre u e v. Logo θ = arccos 〈u, v〉 | u | · | v | . 2.3.1 Vetores Ortogonais Dois vetores u e v pertencentes a um dado espaço vetorial euclidiano V são ditos ortogo- nais (u ⊥ v) se e somente se 〈u, v〉 = 0. Propriedades: 1. O vetor 0 ∈ V é ortogonal a qualquer vetor. 2. ∀α ∈ R, 〈α · u, v〉 = 0 = α〈u, v〉, logo u ⊥ v ⇒ αu ⊥ v; 3. Em geral u, v ∈ V com u, v ⊥ w ⇒ αu+ βv ⊥ w, ∀α, β ∈ R 2.3.2 Conjunto de vetores ortogonais Seja V um espaço vetorial euclidiano. Um conjunto A ⊂ V é dito ortogonal se u ⊥ v, ∀u, v ∈ V, com u 6= 0, ou seja, A é ortogonal se os vetores de A foram dois a dois ortogonais. Dada a definição, temos que todo conjunto ortogonal de vetores não nulos é L.I.. Também temos que, sendo V um espaço vetorial de dimensão finita n, se B com B ⊂ V for um conjunto 6 ortogonal com n elementos, então B é base de V. 2.4 Bases ortogonais e ortonormais Seja V um espaço vetorial euclidiano, sabemos que uma base B de V é dita ortogonal se os vetores de B forem ortogonais. Se além disso, |u| = 1, ∀u ∈ B, B é chamado de base ortonormal de V. 2.4.1 Processo de ortogonalização de Gram-Schmidt Sejam V um espaço vetorial euclidiano e B = {v1, . . . , vn} uma base qualquer de V. Que- remos A = {u1, . . . , un} base ortogonal de V a partir de B. un = vn − n−1∑ i=1 〈vn, ui〉 |ui|2 · ui Ou seja: u1 = v1 u2 = v2 − 〈v2, u1〉|u1|2 · u1 u3 = v3 − 〈v3, u1〉|u1|2 · u1 − 〈v3, u2〉 |u2|2 · u2 Logo: un = vn − 〈vn, u1〉|u1|2 · u1 − · · · − 〈vn, un−1〉 |un−1|2 · un−1 Esse processo é chamado de ortogonalização de Gram-Schmidt. A partir do conceito acima, é possível obter os coeficientes que geram um determinado vetor a partir de uma base dada. Sejam V um espaço vetorial euclidiano, B = {v1, . . . , vn} uma base ortogonal de V, e u ∈ V. Então u = α1 · v1, . . . , αn · vn, ∀α1, . . . , αn ∈ R : 〈u, v1〉 = 〈α1 · u1 + · · ·+ αn · un, v1〉 〈u, v1〉 = α1〈u1, v1〉+ · · ·+ αn〈un, v1〉 〈u, v1〉 = α1 · |v1|2 ⇒ α1 = 〈u, v1〉|v1|2 . Analogamente para i = 1, 2, . . . , n: αn = 〈u, v1〉 |v1|2 · v1 + · · ·+ 〈u, vn〉 |vn|2 · vn ou 7 n∑ i=1 〈u, vi〉 |vn|2 · vi E se B é ortonormal, então: n∑ i=1 〈u, vi〉 · vi. 2.5 Complemento ortogonal Sejam V um espaço vetorial euclidiano e S um subconjunto não-vazio de V. O conjunto S⊥ = {u ∈ V/u ⊥ S} é chamado ortogonal a S. Sabemos então que se um vetor u ∈ V é ortogonal a um conjunto B, sendo B L.I., significa que ele também é ortogonal ao espaço gerado por B. E também é correto deduzir que sendo u ∈ V e u ⊥ V então u = 0. Se S é subespaço vetorial de V, então V = S + S⊥, e portanto V = S ⊕ S⊥, já que S ∩ S⊥ = {∅}. 3 Transformações Lineares Definição 3.1. Sejam U e V espaços vetoriais (de dimensão finita ou não) sobre R. Uma fun- ção T:U→ V é chamada transformação (ou aplicação) linear se ∀ u, v ∈ U, ∀α ∈ R, tem-se : T (u+ v) = T (u) + T (v) e T (α.u) = α.T (u) Obs.: Uma transformação linear é uma função entre espaços vetoriais em que se preservam as operações. Sejam U e V espaços vetoriais sobre R: Id : U→ U Id(u) = u e T : U→ U T (u) = 0 São aplicações lineares chamadas identidade e nula respectivamente. Com efeito, ∀ u, v ∈ U e α ∈ R, temos: { Id(u+ v) = u+ v = Id(u) + Id(v); Id(α.u) = α.u = α.Id(u). e{ T (u+ v) = 0 + 0 = T (u) + T (v); T (αu) = 0 = α.0 = αT (0) Propriedades: Seja T : U→ V uma transformação linear. Então: 8 1. T (0) = 0; (T (0) = 0U) 2. T é linear se e somente se: T (α.u+ v) = α.T (u) + T (v) ∀u, v ∈ U, ∀α ∈ R 3. Se T : U→ V é linear, então ∀u, v ∈ U e ∀α, β ∈ R temos: T (α.u+ β.v) = α.T (u) + β.T (v) 4. Se T : U→ V é linear então ∀n ∈ N, n > 2, ∀u1, · · · , un ∈ U, ∀α1, · · · , αn ∈ R temos T( n∑ i=1 αi.ui) = n∑ i=1 αi.T(ui). Obs.: Uma transformação linear T : U→ V fica completamente definida quando conhecemos as imagens dos vetores de uma base. De fato, se B = {u1, · · · , un} é base de U e u ∈ U então u = n∑ i=1 αi.ui, e portanto, T (u) = T ( n∑ i=1 αi.ui ) = n∑ i=1 αi.T (ui). Desse modo, obtemos todas as outras imagens em função das combinações lineares das imagens da base. 3.1 Núcleo e Imagem de uma transformação linear T : U→ V é uma aplicação linear; ImT : imagem de T; ImT = {T (u) : u ∈ U}; (= T(u)) KerT (ou NucT ) : núcleo ou kernel de T; KerT = {u ∈ U : T (u) = 0}1 Obs.: 1. KerT ⊂ U e ImT ⊂ V 2. Como T (0v) = 0v, segue que KerT 6= 0 e ImT 6= 0 3. Uma aplicação linear T : U→ V bijetora2 é chamada de isomorfismo. Nesse caso U e V são ditos isomorfos, e é denotado por U ' V Proposição 1. Seja T : U→ V uma transformação linear. O núcleo e a imagem de T são subespaços vetoriais de U e V respectivamente. Isso vem do fato do vetor nulo pertencer tanto ao núcleo quanto à imagem. Demonstração. isso é uma prova? Proposição 2. Seja T:U→ V uma transformação linear. T é injetora se e somente se kerT = {0}. Sejam U e V espaços vetoriais reais e T:U→ V uma transformação linear: 1 O Núcleo é o conjunto de vetores pertencentes ao domínio que, numa transformação linear, sua imagem é o vetor nulo. 2 Uma função (f : A → B) é bijetora se for injetora (xa 6= xb ⇒ f(a) 6= f(b)) e sobrejetora (Imf=B (∀y ∈ B,∃x ∈ A/y = f(x)). 9 • Se {T (u1), . . . , T (un)} ⊂ V é L.I., então {u1, . . . , un} é L.I. • T é injetora se e somente se T leva cada conjunto L.I. de U e um subconjunto L.I. de V. Seja T:U→ V uma aplicação linear. Se {u1, . . . , un} é base de U então, {T (u1), . . . , T (un)} imagem de T. Corolário: Se T:U→ V é uma aplicação linear injetora e B={u1, · · · , un} é uma base de U, então T(B)= {T (u1), . . . , T (un)} é uma base de ImT. Corolário: Seja T:U→ V uma transformação linear com U e V de dimensão finita n. T é injetora se e somente se T é sobrejetora. 3.2 Teorema do Núcleo e Imagem Sejam U e V espaços vetoriais sobre R, U de dimensão finita, e T:U→ V uma transformação linear. Então: dimU = dimKerT+ dimImT 3.3 Matriz de uma transformação linear Sejam U e V espaços vetoriais reais com dimU = n e dimV = m. Sejam T:U→ V uma transformação linear, A = {u1, · · · , un} uma base de U e B = {v1, · · · , vn} uma base de V. Chama-se matriz T nas bases A e B, e denotada por [T ]AB (ou [T ]BA), a matriz que leva as respectivas imagens de T obtidas dos vetores de u ∈ A a serem escritas em termos de vetores da base B. Fazendo: u = (α1, α2, . . . , αn)A → [u]A = α1 α2 ... αn e T (u) = (β1, . . . , βn)B → [T (u)]B = β1... βn temos [T ]AB · [u]A = [T (u)]B, ou seja: a11 a12 · · · a1n a21 a22 · · · a2n ... ... . . . ... am1 am2 · · · amn · α1 α2 ... αn = β1 β2 ... βn Obs.: 1. [T ]AB transforma vetores de U escritos na base A em vetores de V na base B; 2. A j-ésima coluna de [T ]AB é formada pelas coordenadas da imagem do i-ésimo vetor de A em relação à base B; 3. Se T : U→ V é uma aplicação linear, dimU = n e dimV = m, a matriz [T ]AB é do tipo m× n; 10 4. Mudando-se as bases muda-se a matriz, mas fixado um par de base a matriz da transformação é única. 5. Se T : U→ V é linear, dimU = n e A é base de U, então: • [T ]AA também é escrita [T ]A; • [T ]A é quadrada de ordem n. 6. Se T : U→ V é linear e U e V admitem bases canônicas (finitas), A e B respectivamente, então escreveremos [T ] em vez de [T ]AB. 7. Se dimU = n, B = {v1, . . . , vn} é base de V. Id : V→ V é transformação identidade, então [Id]B = In, ou seja Id(v1) = (1, 0, 0, · · · , 0)B Id(v2) = (0, 1, 0, · · · , 0)B ... Id(vn) = (0, 0, 0, . . . , 1)B → 1 0 0 · · · 0 0 1 0 · · · 0 ... ... ... . . . ...0 0 0 · · · 1 = Idn 4 Operações com transformações lineares 1. Adição: Sejam S, T : U→ V duas aplicações lineares. A aplicação S + T : U→ V definida por (S + T )(u) = S(u) + T (u), ∀u ∈ U é chamada soma de S e T . É fácil provar que se U e V tem dimensões finitas, A é base de U e B é base de V, então. [S + T ]AB = [S]AB + [T ]AB 2. Multiplicação por escalar: Sejam T : U→ V uma transformação linear e α ∈ R. A aplicação α · T : U→ V definida por (α · T )(u) = αT (u) é chamada produto de α por T . Se U e V tem dimensão finita, A e B são bases de U e V respectivamente, é possível mostrar que [α · T ]AB = α · [T ]AB . Sejam U e V espaços vetoriais sobre R. O conjunto de todas as transformações lineares de U em V é denotado por L(U,V), ou seja, L(U,V) = {T : U→ V/T é transformação linear} L(U,V) munido das operações de adição e multiplicação por escalar anteriormente definidas é um espaço vetorial sobre R. Em particular L(U,R) é denotada por U∗. As transformações de U∗ são chamadas de formas, ou funcionais lineares. Assim, U∗ = {f : U→ R/f é aplicação linear} 11 Obs.: Se dimU = n e dimV = m então dimL(U,V) = m× n. Em particular, dimU∗ = dimU× dimR = n× 1 = n. 3. Composição: Dadas duas transformações lineares T : U→ V e S : V→W, a aplicação S ◦ T : U→W, composta de S com T , é linear. Obs.: 1. Pode-se escrever ST em vez de S ◦ T . 2. Se U,V e W são espaços vetoriais de dim <∞, A,B e C bases de U,V e W respectivamente, e T : U→ V e S : V→W são transformações lineares, é possível provar que: [S ◦ T ]AC = [S]BC · [T ]AB Em particular, se U,V e W tem bases canônicas, então: [S ◦ T ] = [S] · [T ] 3. Podemos tomar a composta de 3 ou mais transformações lineares. 4. Se T : U→ V é linear e n ∈ N, n > 2, então T n = T ◦ T ◦ · · · ◦ T , n vezes e T 0 = Id. Se p(x) = a0 + a1x+ a2x2 + · · ·+ anxn é um polinômio, então p(T ) = a0Id+ a1T + a2T 2 + · · ·+ anT n é uma transformação linear de U em V. Obs.: T : U→ V operador linear de U em V e n ∈ N, U com dim <∞ e B base de U: [T n]B = [T ]nB Sejam U e V espaços vetoriais reais de dimensão finita, e T : U→ V uma transformação linear: • T é injetora ⇒ dimU 6 dimV; • T é sobrejetora ⇒ dimU > dimV; • T é bijetora ⇒ dimU = dimV. Sejam U e V espaços vetoriais reais de dimensão finita, A e B bases de U e V respectivamente e T : U→ V uma aplicação linear. T é isomorfismo ⇔ det[T ]AB 6= 0. Sejam U e V espaços vetoriais reais de dimensão finita, A e B bases de U e V respectivamente e T : U→ V um isomorfismo (T é linear e bijetora). 1. T−1 : V→ U é isomorfismo; 2. det[T ]AB 6= 0; 12 3. [T−1]BA = [T ]AB. É importante notar que, toda transformação definida por combinações lineares dos vetores do domínio é linear. 4.1 Transformações lineares planas T : R2 → R2 Reflexões: 1. Em torno do eixo x: T (x, y) = (x,−y)→ [ 1 0 0 −1 ] det[T ] 6= 0⇒ T é isomorfismo. T−1 = T 2. Em torno do eixo y: T (x, y) = (−x, y)→ [−1 0 0 1 ] det[T ] 6= 0⇒ T é isomorfismo. T−1 = T 3. Em torno da origem: T (x, y) = (−x,−y)→ [−1 0 0 −1 ] det[T ] 6= 0⇒ T é isomorfismo. T−1 = T 4. Em torno da reta y = x: T (x, y) = (y, x)→ [ 0 1 1 0 ] det[T ] 6= 0⇒ T é isomorfismo. T−1 = T 5. Em torno da reta y = −x: T (x, y) = (−y,−x)→ [ 0 −1 −1 0 ] 13 det[T ] 6= 0⇒ T é isomorfismo. T−1 = T Dilatação e contração: 1. Na direção do vetor: T (x, y) = (αx, αy), α ∈ R [T ] = [ α 0 0 α ] T é isomorfismo se α 6= 0 [T ]−1(x, y) = ( 1 α x, 1 α y) |α| > 1⇒ dilatação : { α > 1 : No sentido do vetor α < −1 : No sentido contrário 0 < |α| < 1⇒ contração : { 0 < α < 1 : No sentido do vetor −1 < α < 0 : No sentido contrário{ α = 1 : Identidade α = −1 : Reflexão em torno da Origem Obs.: α é chamado de fator 2. Na direção do eixo x: T (x, y) = (αx, y), α > 0 [T ] = [ α 0 0 1 ] T é isomorfismo, e [T ]−1(x, y) = ( 1 α x, y) α = 1 : Identidade; α > 1 : Dilatação; 0 < α < 1 : Contração. Cisalhamento3: 1. Na mesma direção do eixo x: T (x, y) = (x+ αy, y), α ∈ R [T ] = [ 1 α 0 1 ] , T é isomorfismo e T−1(x, y) = (x− αy, y) 2. Na direção do eixo y: T (x, y) = (x, y + αx) [T ] = [ 1 0 α 1 ] , T é isomorfismo e T−1(x, y) = (x, y − αx) 3Quadrado vira losango e etc... 14 Rotação em torno da origem, de ângulo: θ: Rθ(x, y) = (x cosα− y sinα, x sinα + y cosα) [Rθ] = [ cos θ − sin θ sin θ cos θ ] , T é isomorfismo e Rθ(x, y)−1 = R−θ(x, y) 4.2 Transformações lineares espaciais T : R3 → R3 Reflexões: 1. Em torno dos eixos coordenados: i Em torno do eixo Oxy: T (x, y, z) = (x, y,−z), T é isomorfismo, e T−1 = T . ii Em torno do eixo Oxz: T (x, y, z) = (x,−y, z), T é isomorfismo, e T−1 = T . iii Em torno do eixo Oyz: T (x, y, z) = (−x, y, z), T é isomorfismo, e T−1 = T . 2. Em torno dos eixos: i Em torno do eixo Ox: T (x, y, z) = (x,−y,−z), T é isomorfismo, e T−1 = T ii Em torno do eixo Oy: T (x, y, z) = (−x, y,−z), T é isomorfismo, e T−1 = T iii Em torno do eixo Oz: T (x, y, z) = (−x,−y, z), T é isomorfismo, e T−1 = T 3. Em torno da origem O: T (x, y, z) = (−x,−y,−z), T é isomorfismo, e T−1 = T 4. Rotações: i Em torno do eixo Oz: T (x, y, z) = (x cos θ − y sin θ, y cos θ + x sin θ, z) [T ] = cos θ − sin θ 0sin θ cos θ 0 0 0 1 15 ii Em torno do eixo Ox: T (x, y, z) = (x, y cos θ − z sin θ, z cos θ + y sin θ) [T ] = 1 0 00 cos θ − sin θ 0 sin θ cos θ iii Em torno do eixo Oy: T (x, y, z) = (x cos θ − z sin θ, y, z cos θ + x sin θ) [T ] = cos θ 0 − sin θ0 1 0 sin θ 0 cos θ 5 Operadores Lineares Sejam V um espaço vetorial e T : V→ V uma transformação linear. T : V→ V é chamado operador linear em V. 5.1 Operadores Inversíveis Se T : V→ V é um isomorfismo, já vimos que a aplicação inversa T−1 = V→ V também é um isomorfismo. Dizemos, neste caso, que T é inversível (Não singular). É claro que T ◦ T−1 = T−1 ◦ T = Id, onde Id : V→ V é uma aplicação identidade, ou seja, Id(v) = v, ∀v ∈ V. (T ◦ T−1)(v) = (T−1 ◦ T )(v) = v Além disso, vimos que se V tem dimensão finita e B é uma base de V então [T−1]B = [T ]−1B Sejam V um espaço vetorial de dimensão finita e T : V→ V uma transformação linear. i T é inversível ⇔ KerT = {0} ii Se T é inversível e B é base de V, então T (B) é base de V 5.2 Matriz de mudança de base V: Espaço vetorial real de dimV = n > 1 A = {u1, . . . , un} e B = {v1, . . . , vn} bases de V. 16 A matriz [Id]AB é chamada de matriz de mudança de base B para A. u1 = (Id)(u1) = n∑ i=1 ai1vi u2 = (Id)(u2) = n∑ i=1 ai2vi ... un = (Id)(un) = n∑ i=1 ainvi , [Id]AB = a11 a12 · · · a1n a21 a22 · · · a2n ... ... . . . ... am1 am2 · · · ann Lembre-se que [Id]AB · [v]A = [Id(v)]B, ou seja, [Id]AB · [v]A = [(v)]B. Sendo assim, a multiplicação de M = [Id]AB pela matriz coluna das coordenadas de v na base A fornece a matriz coluna das coordenadas de v na base B. M é inversível, pois Id : V→ V é um isomorfismo. Além disso, M−1 = [Id]BA, ou seja, M−1 é matriz de mudança de bases de A para B. De fato, M−1 = [Id]AB −1 = [Id−1]BA = [Id]BA Sendo T : V→ V um operador linear, dimV = n > 1 e A e B bases de V T VA → VA Id ↓ T ′ ↑ Id′ VB → VB , T = Id′ ◦ T ′ ◦ Id [T ]A = [Id · T ′ · Id]A = [Id]BA · [T ]B · [Id]AB [T ]A =M−1 · [T ] [T ]A =M−1 · [T ]B ·M , onde M é a matriz de mudança de base de B para A. Duas matrizes quadradas m e n são ditas semelhantes se existir P inversível tal que M = P−1 ·N · P . Portanto [T ]A e [T ]B são semelhantes. 5.3 Operadores ortogonais V: Espaço vetorial euclidiano Um operador T : V→ V é dito ortogonal se T preserva norma, ou seja, |T (u)| = |u|, ∀u ∈ V. Propriedades: Sendo V um espaço vetorial euclidiano e S, T : V→ V operadores lineares.1. T é ortogonal ⇔ T preserva o produto interno, isto é, 〈T (u), T (v)〉 = 〈u, v〉, ∀u, v ∈ V 2. S e T ortogonais⇒ S ◦ T ortogonal 3. Seja B = {v1, · · · , vn} base ortonormal de V. T ortogonal ⇔ T (B) = {T (v1), · · · , T (vn)} é uma base ortonormal de V. 4. B base ortogonal ⇔ [T ]B é uma matriz ortogonal. 17 5. Se A e B são bases (finitas) ortogonais de V, então a matriz de mudança de bases de B para A([Id]AB) é ortogonal. 6. M é ortogonal⇔ os vetores linha de M formam um conjunto ortonormal. 5.4 Operadores simétricos Um operador T : V→ V, sendo V um espaço vetorial euclidiano, é chamado simétrico se 〈T (u), v〉 = 〈u, T (v)〉, ∀u, v ∈ V . Também são chamados de auto-adjuntos e para uma matriz M ser dita simétrica temos que ter M =M t sendo M a matriz do operador simétrico. Definição 5.1. Dado T : Rn → Rn, T simétrico, temos que as raízes de PT (x) ∈ R para ∀n > 1, n ∈ N. Proposição 3. De fato, se V for um C-espaço vetorial4 e T : V→ V é um operador linear simétrico, então os autovalores de T são reais. Demonstração. Seja λ autovalor associado ao autovetor u: 〈T (u), u〉 = 〈u, T (u)〉 ⇒ 〈λu, u〉 = 〈u, λu〉 ⇒ λ〈u, u〉 = λ〈u, u〉 ⇒ λ = λ⇒ λ ∈ R Proposição 4. Seja T : V→ V um operador linear simétrico. Se v1 e v2 são autovetores associados a autovalores λ1 e λ2 respectivamente, com λ1 6= λ2, então v1 ⊥ v2. Demonstração. 〈T (v1), v2〉 = 〈v1, T (v2)〉, pois T é simétrico ⇒ 〈λ1v1, v2〉 = 〈v1, λ2v2〉 ⇒ λ1〈v1, v2〉 = λ2〈v1, v2〉 ⇒ (λ1 − λ2)〈v1, v2〉 = 0⇒ v1 ⊥ v2 pois λ1 6= λ2 4Definido sobre os complexos 18 5.5 Autovalores e Autovetores Seja T : V→ V um operador linear. Um vetor não nulo v ∈ V é chamado de autovetor se existe λ ∈ R tal que T (v) = λv. Se existir, λ é chamado de autovalor associado ao vetor v. Obs.: 1. Se λ é autovalor de T associado ao autovetor v, também dizemos que v é autovetor de T associado ao autovalor λ. 2. Vetor próprio = Autovetor Valor próprio = Autovalor Sendo T : V→ V operador linear, dimV = n, λ é autovalor de T se e somente se existir v ∈ V, v 6= 0 tal que T (v) = λv. Mas T (v) = λv ⇔ λv − T (v) = 0 ⇔ λId(v)− T (v) = 0 ⇔ (λId− T )(v) = 0 Assim λ é autovalor de T ⇔ KerT (λId− T ) 6= {0} ⇔ T não é injetora ⇔ det[λId− T ]B = 0, B base qualquer de V ⇔ det(λ[Id]B − [T ]B) = 0 ⇔ det(λ[In]− [T ]B) = 0 ⇔ λ é raiz de det(x[In]− [T ]B) = 0 O polinômio PT (x) = det(x[In]− [T ]B) é chamado de polinômio característico de T . Assim, λ é autovalor de T se e somente se λ é raiz de P (x). Obs.:PT (x) independe da base de V a ser tomada. De fato, se B e C forem bases de V , então: det(xIn− [T ]B) = det(M−1 · [xId] ·M −M−1[T ]C ·M) pois [T ]B e [T ]C são semelhantes = det(M−1)det(xIn− [T ]C)detM − det(xIn− [T ]C) O subespaço gerado pelos autovetores associados ao autovalor λ é indicado por AutT (λ), e é chamado de auto espaço associado a λ. Assim, AutT (λ) = Ker(λId− T ) ou Ker(T − λId). 5.6 Matriz Diagonal O operador T é diagonalizável se existir uma base de V tal que [T ]B seja uma matriz diagonalizável, ou seja, se é uma base de autovetores de T . Considerando B = {v1, · · · , vn} 19 uma base de V tal que v1, · · · , vn são autovetores associados, respectivamente, a autovalores λ1, · · · , λn: T (v1) = λ1v1 T (v2) = λ2v2 ... T (vn) = λnvn ; Logo,[T ]B = λ1 0 0 · · · 0 0 λ2 0 · · · 0 0 0 λ3 · · · 0 ... ... ... . . . ... 0 0 0 · · · λn Obs.: Os autovalores podem não existir pois aqui estão definidos somente em R. Seja V um espaço vetorial real, T : V→ V com A e B bases de V e [T ]A =M−1 · [T ]B ·M (M = [Id]AB), onde [T ]A e [T ]B são semelhantes. Se A é uma base de autovetores, então [T ]A é uma matriz diagonal. Uma matriz quadrada D é dita diagonalizável se é semelhante a uma matriz diagonal E, ou seja, se existe uma matriz inversível P tal que E = P−1 ·D · P . Dizemos nesse caso, que P diagonaliza D, ou que P é a matriz diagonalizadora de D. Definição 5.2. Dada uma matriz quadrada A de ordem n, autovalores e autovetores de A são, por definição, autovetores a autovalores do operador linear T : Rn → Rn tal que [T ] = A. 5.7 Polinômio característico Seja T um operador linear em V e A de ordem n uma matriz quadrada tal que A = [T ]. PA(x) = PT (x) = det(xIn− [T ])⇒ PA(x) = det(xIn− A), λ é autovalor de A⇔ λ é raiz de PA(x). Proposição 5. Seja P = [Id] A e B matrizes semelhantes Bn(P−1 · A · P ) = (P−1 · An · P ) Demonstração. (P−1 · A · P )n = (P−1 · A · P ).(P−1 · A · P ).(P−1 · A · P ). · · · . = (P−1 · An · P ) A cada nova parcela da multiplicação, estaremos cancelando P com P−1 PT (T ) ≡ 0, todo polinômio característico tem a propriedade de levar à matriz de um operador numa matriz nula. 20 Espaços Vetoriais Subespaços vetoriais Independência e Dependência Linear Subespaço gerado Bases Dimensão Espaços vetoriais Euclidianos Produto interno Norma de um vetor Distância entre dois vetores Ângulo entre dois vetores Vetores Ortogonais Conjunto de vetores ortogonais Bases ortogonais e ortonormais Processo de ortogonalização de Gram-Schmidt Complemento ortogonal Transformações Lineares Núcleo e Imagem de uma transformação linear Teorema do Núcleo e Imagem Matriz de uma transformação linear Operações com transformações lineares Transformações lineares planas Transformações lineares espaciais Operadores Lineares Operadores Inversíveis Matriz de mudança de base Operadores ortogonais Operadores simétricos Autovalores e Autovetores Matriz Diagonal Polinômio característico
Compartilhar