Baixe o app para aproveitar ainda mais
Prévia do material em texto
A´lgebra Linear 10 de fevereiro de 2014 Cap´ıtulo 1 Espac¸os Vetoriais Definic¸a˜o 1.0.1 Dizemos que um conjunto na˜o vazio V e´ um espac¸o vetorial sobre R se esta˜o definidas duas operac¸o˜es + : V × V −→ V (u, v) 7−→ u+ v e + : R× V −→ V (α, v) 7−→ αv tais que: 1. u+ v = v + u, ∀u, v ∈ V ; 2. u+ (v + w) = (u+ v) + w, ∀u, v, w ∈ V ; 3. Existe um elemento neutro da operac¸a˜o + denotado por 0, isto e´, 0 + v = v, ∀v ∈ V ; 4. A cada v ∈ V existe um elemento oposto, denotado por −v tal que v + (−v) = 0; 5. (αβ)v = α(βv), ∀α, β ∈ R e ∀v ∈ V ; 6. (α+ β)v = αv + βv, ∀α, β ∈ R e ∀v ∈ V ; 7. α(u+ v) = αu+ αv, ∀α ∈ R e ∀u, v ∈ V ; 8. 1v = v, ∀v ∈ V . Observac¸a˜o 1.0.2 Os elementos de um espac¸o vetorial V sa˜o chamados de vetores, e o elemento neutro e´ dito vetor nulo. Observac¸a˜o 1.0.3 O conjunto R usado na definic¸a˜o acima pode ser substitu´ıdo por C, ou por qualquer conjunto que tenha a estrutura de corpo1. 1Ver qualquer livro de estruturas alge´bricas para definic¸a˜o de corpo 1 1.1 Exemplos 1. V = R2 e´ um espac¸o vetorial. Com efeito, basta definir as operac¸o˜es: (x1, y1) + (x2, y2) = (x1 + x2, y1 + y2) λ(x1, y1) = (λx1, λy1). 2. O conjunto da matrizes Mm×n(R) e´ um espac¸o vetorial com as operac¸o˜es convencionais. 3. O pro´prio conjunto R e´ um espac¸o vetorial sobre si mesmo. 4. Seja X um conjunto qualquer na˜o vazio e F(X,R) o conjunto de todas as func¸o˜es f : X → R. Defina as seguintes operac¸o˜es em F(X,R): • para f, g ∈ F(X,R), defina a func¸a˜o f + g : X → R dada por (f + g)(x) = f(x) + g(x) para cada x ∈ X. • para f ∈ F(X,R) e α ∈ R, defina a func¸a˜o α · f : X → R dada por (α · f)(x) = αf(x) para cada x ∈ F(X,R). Com estas operac¸o˜es, o conjunto F(X,R) e´ um espac¸o vetorial sobre R, onde a func¸a˜o nula e´ o vetor nulo desse espac¸o2. 1.2 Propriedades Ba´sicas Seja V um espac¸o vetorial sobre R. Proposic¸a˜o 1.2.1 Para todo α ∈ R, α0 = 0. Dem.: Com efeito, dado α ∈ R existe −(α0). E somando este vetor em cada membro da equac¸a˜o α0 = α(0 + 0) = α0 + α0, obtemos 0 = α0. 2 Proposic¸a˜o 1.2.2 Para todo v ∈ V , 0u = 0. Dem.: Exerc´ıcio Proposic¸a˜o 1.2.3 Se α ∈ R e v ∈ V sa˜o tais que αv = 0, enta˜o α = 0 ou v = 0. Dem.: Sejam α ∈ R e v ∈ V com αv = 0. Se α 6= 0 enta˜o existe α−1. Assim, (α−1)(αv) = α−10 =⇒ v = 0 2 2Tal conjunto e´ denominado espac¸o de func¸o˜es, e e´ um dos principais objetos de estudo de uma a´rea da matema´tica chamada Ana´lise Funcional. 2 Proposic¸a˜o 1.2.4 Para todo α ∈ R e para todo v ∈ V , (−α)v = α(−v) = −(αv). Dem.: Vamos mostrar que α(−v) = −(αv). Note que α(−v) + αv = α(−v + v) = α0 = 0, donde α(−v) = −(αv). A outra igualdade se verifica de maneira ana´loga. 2 Definic¸a˜o 1.2.5 Dados u, v ∈ V definimos a diferenc¸a u− v por u− v = u+ (−v). Proposic¸a˜o 1.2.6 Se α, β ∈ R e v ∈ V , enta˜o (α− β)v = αv − βv. Dem.: Basta verificar a sequeˆncia de igualdades (α− β)v = (α+ (−β))v = αv + (−β)v = αv + (−βv) = αv − βv. 2 Proposic¸a˜o 1.2.7 Sejam α ∈ R e u, v ∈ V . Enta˜o α(u− v) = αu− αv. Dem.: Exerc´ıcio. Proposic¸a˜o 1.2.8 Dados β, α1, · · · , αn ∈ R e u1, · · · , un ∈ V , temos que β ( n∑ i=1 αivi ) = n∑ i=1 βαivi. Dem.: Exerc´ıcio. 1.3 Subespac¸os Vetoriais Definic¸a˜o 1.3.1 Seja V um espac¸o vetorial. Dizemos que um subconjunto U ⊂ V e´ um subespac¸o vetorial de V , se U e´ um espac¸o vetorial sobre R com as operac¸o˜es herdadas de V . Exemplo 1.3.2 Dado um espac¸o vetorial V , os conjuntos {0} e V sa˜o os exemplos triviais de subespac¸o. Proposic¸a˜o 1.3.3 Sejam V um espac¸o vetorial e U ⊂ V . Enta˜o U e´ um subespac¸o de V se, e somente se, 1. 0 ∈ U ; 2. para todos u, v ∈ U tem-se que u+ v ∈ U ; 3. para todo α ∈ R e todo u ∈ U tem-se αu ∈ U . 3 Dem.: (⇒) Evidente. (⇐) Basta verificar que u ∈ U =⇒ −u ∈ U. Mas isto segue de u ∈ U =⇒ (−1)u ∈ U e (−1)u = −u 2 Exemplo 1.3.4 O conjunto U = {(x, y, z) ∈ R3 | x+ y = 0} e´ um subespac¸o de R3. Exemplo 1.3.5 Qualquer reta passando pela origem e´ um subespac¸o de R2. Exemplo 1.3.6 O conjunto das func¸o˜es C([a, b],R) = {f : [a, b] → R | f e´ cont´ınua} e´ um subespac¸o vetorial de F([a, b],R). Exemplo 1.3.7 Sejam U e W subespac¸os de um mesmo espac¸o vetorial V . O conjunto U ∩W e´ um subespac¸o de V . Contudo, o conjunto U ∪W na˜o e´, em geral, subespac¸o de V . Exemplo 1.3.8 O conjunto das matrizes sime´tricas e´ um subespac¸o vetorial de Mn×n(R) 1.4 Somas de Subespac¸os Definic¸a˜o 1.4.1 Sejam U e W subespac¸os de um espac¸o vetorial V . Chamaremos de soma de U com W , e denotaremos por U +W , o conjunto U +W = {u+ w | u ∈ U e w ∈W}. Proposic¸a˜o 1.4.2 Sejam V um espac¸o vetorial, e U,W ⊂ V subespac¸os de V . O conjunto U +W e´ um subespac¸o de V . Dem.: Como 0 ∈ U ∩W e 0 + 0 = 0, temos que 0 ∈ U +W . Sejam v1, v2 ∈ U +W . Escrevendo v1 = u1 + w1 e v2 = u2 + w2, com u1, u2 ∈ U e w1, w2 ∈W temos que v1 + v2 = (u1 + w1) + (u2 + w2) = (u1 + u2) + (w1 + w2) ∈ U +W, pois (u1 + u2) ∈ U e (w1 + w2) ∈W . Por fim, se α ∈ R e v ∈ U +W , escrevendo v = u+ w onde u ∈ U e w ∈W , temos αv = α(u+ w) = αu+ αw ∈ U +W, pois αu ∈ U e αw ∈W 2 Definic¸a˜o 1.4.3 Sejam V um espac¸o vetorial, e U,W ⊂ V subespac¸os de V tais que U ∩W = {0}. Neste caso, diremos que U +W e´ soma direta dos subespac¸os U e W , e escreveremos U ⊕W para representar o espac¸o U +W . Se V = U ⊕W diremos que U e W sa˜o suplementares, e que V e´ a soma direta de U e W . 4 Exemplo 1.4.4 Considere em R2 os subespac¸os U = {(x, y) ∈ R2 | y = 0} e W = {(x, y) ∈ R2 | x = 0}. Temos que a soma entre U e W e´ direta, uma vez que U ∩W = {0}. No exemplo anterior, sera´ que R2 = U ⊕W? A pro´xima proposic¸a˜o nos ajuda nessa resposta. Proposic¸a˜o 1.4.5 Sejam V um espac¸o vetorial, e U,W ⊂ V subespac¸os de V . Enta˜o V = U ⊕W se, e somente se, cada elemento v ∈ V se escreve de maneira u´nica como uma soma u+ w com u ∈ U e w ∈W . Dem.: (⇒) Suponha que V = U ⊕W . Dado v ∈ V temos que v se escreve como a soma de um vetor em U com um vetor em W . Suponha que haja duas formas de fazer isso, ou seja, v = u1+w1 e v = u2+w2 com u1, u2 ∈ U e w1, w2 ∈W . Enta˜o u1 + w1 = u2 + w2 =⇒ u1 − u2 = w2 − w1. Ora, (u1 − u2) ∈ U e (w1 − w2) ∈W , logo u1 − u2 = w2 − w1 = 0 donde u1 = u2 e w1 = w2. (⇐) Supondo agora que cada elemento de V se escreve de maneira u´nica como a soma de um vetor em U com um vetor em W , temos em particular que V = U +W . Ale´m disso, dado v ∈ U ∩W podemos escrever v = v+ 0 com v ∈ U e 0 ∈W , e v = 0+ v com 0 ∈ U e v ∈W . Segue da hipo´tese de unicidade que v = 0, e portanto a soma de U e W e´ direta 2 Exemplo 1.4.6 Com a notac¸a˜o do exemplo anterior, R2 = U ⊕W . 1.5 Combinac¸o˜es Lineares e Espac¸os finitamente Gerados Sejam V um espac¸o vetorial e S = {v1, · · · , vn} ⊂ V . O conjunto [S] = {α1v1 + · · ·+ αnvn | α1, · · · , αn ∈ R} e´ um subespac¸o vetorial de V . Com efeito, 1. 0 = 0.v1 + · · ·+ 0.vn; 2. (α1v1 + · · ·+ αnvn) + (β1v1 + · · ·+ βnvn) = (α1 + β1)v1 + · · ·+ (αn + βn)vn; 3. λ(α1v1 + · · ·+ αnvn) = (λα1)v1 + · · ·+ (λαn)vn. Definic¸a˜o 1.5.1 Dados V espac¸o vetorial e S = {v1, · · · , vn} ⊂ V , chamamos o subespac¸o [S] de ”su- bespac¸o vetorial gerado por S”. Aos vetores de [S] damos o nome de combinac¸a˜o linear de S, ou combinac¸a˜o linear de v1, · · · , vn. Nota c¸a˜o: [S] = [v1, · · · , vn]. Convenc¸a˜o: Se S = ∅ enta˜o [S] = {0}. Para o caso em que S ⊂ V e´ infinito, diremos que u ∈ [S] se existirem v1, · · · , vk ∈ S e α, · · · , αk ∈ R tais que u = α1v1 + · · ·+ αkvk. 5 Proposic¸a˜o 1.5.2 Dados um espac¸o vetorial V e S ⊂ V , enta˜o S ⊂ [S]. Dem.: Se S for finito, digamos S = {v1, · · · , vn} enta˜o vi = 0.v1 + · · ·+ 1.v1 + · · ·+ 0.vn ⇒ vi ∈ [S], ∀ i = 1, · · · , n. Se S for infinito e v ∈ S, enta˜o basta escrever v = 1.v 2 Outras propriedades sa˜o: 1. S1 ⊂ S2 ⊂ V⇒ [S1] ⊂ [S2]; 2. [S] = [[S]]; 3. [S1 ∪ S2] = [S1] + [S2], aqui S1 e S2 sa˜o subespac¸os de um mesmo espac¸o V . Exemplo 1.5.3 Se V = R3, u = (1, 0, 0) e v = (1, 1, 0) o que e´ [u, v]? Definic¸a˜o 1.5.4 Dizemos que um espac¸o vetorial V e´ finitamente gerado se existe um subconjunto finito, S ⊂ V , tal que V = [S]. Exemplo 1.5.5 R3 e´ finitamente gerado. Com efeito, o conjunto S = {e1, e2, e3}3 e´ tal que R3 = [S]. Exemplo 1.5.6 Rn e´ finitamente gerado pelo conjunto S = {e1, · · · , en}. Exemplo 1.5.7 O espac¸o vetorial V =M2(R) e´ gerado pelo conjunto S = {( 1 0 0 0 ) , ( 0 1 0 0 ) , ( 0 0 1 0 ) , ( 0 0 0 1 )} . Exemplo 1.5.8 O espac¸o vetorial V = Pn(R) e´ gerado pelo conjunto S = {1, t, t2, · · · , tn}. 1.6 Base e Dimensa˜o Definic¸a˜o 1.6.1 Seja V um espac¸o vetorial. Considere um subconjunto finito S = {v1, · · · , vn} ⊂ V . Dizemos que S e´ linermaente independente (l.i.) se, e somente se, α1v1 + · · ·+ αnvn = 0 =⇒ α1 = · · · = αn = 0. Caso contra´rio, dizemos que S e´ linearmente dependente (l.d.). Observac¸a˜o 1.6.2 3e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1). 6 1. Convencionaremos que o conjunto vazio e´ l.i.. 2. Todo conjunto contendo o vetor nulo e´ l.d.. 3. Todo espac¸o vetorial na˜o nulo possui um conjunto l.i.. Com efeito, basta considerar S = {v} onde v e´ um vetor na˜o nulo do espac¸o em questa˜o. 4. Todo subconjunto de um conjunto linearmente independente e´ linearmente independente. Exemplo 1.6.3 O conjunto S = {(1, 0, 0), (0, 1, 0), (0, 0, 1), (2, 3, 5)} ⊂ R3 e´ l.d., pois 2(1, 0, 0) + 3(0, 1, 0) + 5(0, 0, 1)− 1(2, 3, 5) = (0, 0, 0). Exemplo 1.6.4 O conjunto S = {(1, 1, 1), (1, 0, 1), (1, 0,−2)} ⊂ R3 e´ l.i.. Exemplo 1.6.5 Considere o espac¸o vetorial V = C{[0, 2pi],R}. O conjunto S ⊂ V dado por S = {sinx, cosx} e´ l.i.. De fato, se α sinx+ β cosx = 0 para todo x ∈ [0, 2pi], enta˜o α = β = 0. Proposic¸a˜o 1.6.6 Sejam V um espac¸o vetorial e S = {v1, · · · , vn} ⊂ V . Enta˜o S e´ l.d. se, e somente se, ao menos um de seus vetores e´ combinac¸a˜o linear dos demais. Dem.: Se S e´ l.d. enta˜o existem α1, · · · , αn ∈ R tais que α1v1 + · · ·+ αnvn = 0 com algum αi 6= 0. Enta˜o podemos dividir a expressa˜o acima por αi, obtendo α1 αi v1 + · · ·+ αi−1 αi vi−1 + vi + αi+1 αi vi+1 + · · ·+ αn αi vn = 0. Logo vi = −α1 αi v1 − · · · − αi−1 αi vi−1 − αi+1 αi vi+1 − · · · − αn αi vn e´ uma combinac¸a˜o linear dos demais vetores de S. Reciprocamente, se algum dos vetores de S e´ combinac¸a˜o linear dos demais, por exemplo vi = β1v1 + · · ·+ βi−1vi−1 + βi+1vi+1 + · · ·+ βnvn, enta˜o β1v1 + · · ·+ βi−1vi−1 − vi + βi+1vi+1 + · · ·+ βnvn = 0. Donde S e´ l.d. 2 Definic¸a˜o 1.6.7 Seja V um espac¸o vetorial. Dizemos que um subconjunto B ⊂ V e´ uma base de V se: 1. [B] = V ; 2. B e´ linearmente independente. Observe que pelas nossas convenc¸o˜es, o conjunto vazio e´ uma base do espac¸o vetorial {0}. 7 Exemplo 1.6.8 O conjunto B = {e1, · · · , en} e´ uma base do espac¸o vetorial Rn. Exemplo 1.6.9 Os conjuntos B1 = {1, x, x2, x3} e B2 = {1, 2 + x, 3x− x2, x− x3} sa˜o exemplos de bases do mesmo espac¸o vetorial P3(R). A primeira e´ dita a base canoˆnica deste espac¸o. Exerc´ıcio 1.6.10 Estenda a noc¸a˜o de conjunto linearmente independente para um conjunto infinito. Em seguida verifique que o conjunto S = {1, x, · · · , xn, · · · } e´ uma base do espac¸o vetorial P(R). Proposic¸a˜o 1.6.11 Sejam V um espac¸o na˜o nulo finitamente gerado, e S = {v1, · · · , vn} ⊂ V um gerador de V . Enta˜o todo conjunto linearmente independente de vetores em V tem no ma´ximo n elementos. Dem.: Considere o conjunto S1 = {u1, · · · , un} ⊂ V com m > n. Como V = [S] temos que cada ui e´ uma combinac¸a˜o linear dos v′js. Enta˜o existem escalares αij ∈ R tais que u1 = α11v1 + · · ·+ α1nvn ... ... um = αm1v1 + · · ·+ αmnvn Para verificar que S1 e´ l.d. fac¸a λ1u1 + · · ·+ λmum = 0. Esta equac¸a˜o (nas inco´gnitas λk) e´ equivalente a (λ1α11 + · · ·+ λmαm1)v1 + · · ·+ (λ1α1n + · · ·+ λmαmn)vn = 0. Considerando a soluc¸a˜o trivial da equac¸a˜o acima obtemos o sistema α11λ1 + · · ·+ αm1λm = 0 ... α1nλ1 + · · ·+ αmnλm = 0 E´ claro que λ1 = · · · = λm = 0 resolve o sistema, mas note que se trata de um sistema com n equac¸o˜es e m varia´veis. Logo, possui uma soluc¸a˜o na˜o nula. Portanto, S1 e´ l.d. 2 Corola´rio 1.6.12 Seja V um espac¸o vetorial finitamente gerado. Enta˜o quaisquer duas bases de V teˆm o mesmo nu´mero de elementos.4 Dem.: Sejam B1 e B2 bases de V com cardinalidades n e m, respectivamente. Como B1 gera V , segue da proposic¸a˜o anterior que m ≤ n. Caso contra´rio B2 seria l.d.. Como B2 tambe´m gera V , segue pelo mesmo argumento que n ≤ m. Donde n = m Definic¸a˜o 1.6.13 Seja V um espac¸o vetorial. Se V admite uma base finita, enta˜o chamamos de dimensa˜o de V o nu´mero de elementos de tal base. Caso contra´rio dizemos que a dimensa˜o de V e´ infinita. Se a dimensa˜o de V e´ n escrevemos dimV = n. Caso seja infinita, dimV =∞. E se quisermos dizer que a dimensa˜o de V e´ finita sem fazer refereˆncia a seu valor, escrevemos dimV <∞. 4Em alguns livros este resultado e´ conhecido como Teorema da Invariaˆncia 8 Exemplo 1.6.14 E´ fa´cil ver que: • dimR2 = 2 • dimR3 = 3 • dimRn = n • dimP(R) = n+ 1 • dimMm×n = m.n • dim{0} = 0 Proposic¸a˜o 1.6.15 Sejam V um espac¸o vetorial e S = {v1, · · · , vn} ⊂ V um subconjunto l.i.. Se existe v ∈ V tal que v /∈ [S] enta˜o S ∪ {v} e´ l.i.. Dem.: Sejam α1, · · · , αn, α ∈ R tais que α1v1 + · · ·+ αnvn + αv = 0. Se α 6= 0 enta˜o v = −α1 α v1 − · · · − αn α vn o que implica em v ∈ [S]. Contradic¸a˜o. Logo, α = 0 =⇒ α1v1 + · · ·+ αnvn = 0. Como S e´ l.i., segue que α1 = · · · = αn = 0. Portanto S ∪ {v} e´ l.i. Teorema 1.6.16 Todo espac¸o vetorial na˜o nulo finitamente gerado possui uma base. Prova: Seja V um espac¸o vetorial na˜o nulo finitamente gerado. Enta˜o existe S ⊂ V com finitos elementos, digamos n, tal que V = [S]. Seja v1 ∈ V , v1 6= 0. Temos que B1 = {v1} e´ l.i., se V = [B] enta˜o B1 e´ uma base de V . Se na˜o, existe v2 ∈ V tal que v2 /∈ [v1]. Pela proposic¸a˜o anterior, B2 = {v1, v2} e´ l.i., se V = [B2] enta˜o B2 e´ uma base de V . Caso contra´rio existira´ v3 ∈ V tal que v3 /∈ [v1, v2]. O que implica em B3 = {v1, v2, v3} ser l.i.. Note que este processo encerra-se em no ma´ximo n vetores, pois um subconjunto de V com n+1 vetores e´ necessariamente l.d. Seja V um espac¸o vetorial de dimensa˜o n. Se B = {v1, · · · , vn} e´ uma base de V , enta˜o cada vetor v ∈ V tem uma u´nica maneira de ser escrito como combinac¸a˜o linear dos vetores de B. De fato, v = n∑ i=1 αivi = n∑ i=1 βivi ⇒ n∑ i=1 (αi − βi)vi = 0 ⇒ αi = βi = 0, ∀ i = 1, · · · , n. Neste caso escrevemos v = (α1, · · · , αn)B e dizemos que (α1, · · · , αn) sa˜o as coordenadas de v na base B. 9 Observac¸a˜o 1.6.17 Note a importaˆncia na ordem dos vetores de B. Neste contexto costuma-se chamar B de base ordenada. Exemplo 1.6.18 O polinoˆmio p(x) = 1+x+x2+x3 que na base canoˆnica tem representac¸a˜o (coordenadas) p(x) = (1, 1, 1, 1)C , e´ escrito na base B = {1, 2 + x, 3x− x2, x− x3} da seguinte forma p(x) = (−9, 5,−1,−1)B . 10 Cap´ıtulo 2 Transformac¸o˜es Lineares Definic¸a˜o 2.0.19 Sejam U e V espac¸os vetoriais sobre R. Uma func¸a˜o T : U → V e´ uma transformac¸a˜o Linear se 1. T (u1 + u2) = T (u1) + T (u2), para todos u1, u2 ∈ U , e 2. T (αu) = αT (u), para todo α ∈ R e todo u ∈ U . Exemplo 2.0.20 A func¸a˜o nula T : U → V dada por T (u) = 0, para todo u ∈ U , e a func¸a˜o identidade Id : U → U dada por Id(u) = u, para todo u ∈ U , sa˜o transformac¸o˜es Lineares. Exemplo 2.0.21 T : R3 → R2 definida por T (x, y, z) = (x, 2x − z), para todo (x, y, z) ∈ R3, e´ tambe´m linear. Exemplo 2.0.22Dado a ∈ R a func¸a˜o f : R → R dada por f(x) = ax, para todo x ∈ R, e´ linear. Mas g : R→ R dada por g(x) = ax+ b, para todo x ∈ R, e´ linear apenas quando b = 0. Exerc´ıcio 2.0.23 Seja D : Pn(R) → Pn(R) definida por D(f(t)) = f ′(t) para todo polinoˆmio f(t) ∈ Pn(R), onde f ′(t) e´ a derivada de f(t). D e´ linear? Proposic¸a˜o 2.0.24 Sejam U e V espac¸os vetoriais e T : U → V uma transformac¸a˜o linear. Enta˜o 1. T (0) = 0, ou seja, se T e´ linear enta˜o T leva o vetor nulo de U no vetor nulo de V . 2. T (−u) = −T (u), para todo u ∈ U . 3. T ( n∑ i=1 αiui ) = n∑ i=1 αiT (ui), onde αi ∈ R e ui ∈ U para i = 1, · · · , n. Prova: T (0 + 0) = T (0) + T (0), pois T e´ linear. Segue que T (0) = 0 provando o primeiro item. Para verificar o segundo item basta escrever T (u) + T (−u) = T (u+ (−u)) = T (u− u) = T (0) = 0. 11 Donde T (−u) = −T (u). Para o u´ltimo item basta fazer induc¸a˜o sobre n 2.1 Nu´cleo e Imagem Definic¸a˜o 2.1.1 Sejam U e V espac¸os vetoriais sobre R e T : U → V uma transformac¸a˜o linear. 1. O conjunto {u ∈ U | T (u) = 0} e´ chamado de nu´cleo de T e sera´ denotado por ker(T ). 2. O conjunto {v ∈ V | ∃u ∈ U com T (u) = v} e´ chamado de imagem de T e sera´ denotado por Im(T ). Proposic¸a˜o 2.1.2 Sejam U e V espac¸os vetoriais sobre R e T : U → V uma transformac¸a˜o linear. Enta˜o 1. ker(T ) e´ um subespac¸o de U , e Im(T ) e´ um subespac¸o de V . 2. T e´ injetora se, e somente se, ker(T ) = {0}. Prova: Como T (0) = 0 segue que 0 ∈ ker(T ). Dados u1, u2 ∈ ker(T ) temos T (u1 + u2) = T (u1) + T (u2) = 0 + 0 = 0. Donde u1 + u2 ∈ ker(T ). Dados α ∈ R e u ∈ U nota-se que T (αu) = αT (u) = α0 = 0 ⇒ αu ∈ ker(T ). Portanto, ker(T ) e´ subespac¸o de U . Como T (0) = 0 segue que 0 ∈ Im(T ). Dados v1 e v2 em Im(T ) temos que existem u1, u2 ∈ U tais que T (u1) = v1 e T (u2) = v2, assim T (u1 + u2) = T (u1) + T (u2) = v1 + v2, ou seja, v1 + v2 ∈ Im(T ). Se α ∈ R e v ∈ Im(T ) enta˜o existe u ∈ U com T (u) = v e T (αu) = αT (u) = αv ⇒ αv ∈ Im(T ). Isso prova que Im(T ) e´ subespac¸o de V e encerra o primeiro item. Se T e´ injetiva temos claramente que ker(T ) = {0}, pois 0 ∈ ker(T ). Por outro lado, suponha que ker(T ) = {0} e vamos mostrar que T e´ injetiva. Sejam u1, u2 ∈ U tais que T (u1) = T (u2). Enta˜o T (u1 − u2) = T (u1)− T (u2) = 0 ⇒ u1 − u2 ∈ kerU. Ora, ker(T ) = {0} por hipo´tese, logo u1 − u2 = 0 e portanto u1 = u2 Exemplo 2.1.3 O perador linear D : Pn(R) → Pn(R) definido por D(f(t)) = f ′(t) para todo polinoˆmio f(t) ∈ Pn(R) na˜o e´ injetor. 12 Teorema 2.1.4 (Teorema do nu´cleo e da Imagem) Sejam U e V espac¸os vetoriais de dimensa˜o finita sobre R e T : U → V uma transformc¸a˜o linear. Enta˜o dim(U) = dim(ker(T )) + dim(Im(T )). Prova: Suponhamos inicialmente que ker(T ) 6= {0} e seja B1 = {u1, · · · , un} uma base de ker(T ). Va- mos estender B1 a uma base de U , digamos B2 = {u1, · · · , un, v1, · · · , vm}. Vamos mostrar que C = {T (v1), · · · , T (vm)} e´ uma base de Im(T ). Dado v ∈ Im(T ) temos que existe u ∈ U tal que T (u) = v, como B2 e´ uma base de U segue que existem escalares α1, · · · , αn, β1, · · · , βm ∈ R tais que u = α1u1 + · · ·+ αnun + β1v1 + · · ·+ βmvm. Assim, v = T (α1u1 + · · ·+ αnun + β1v1 + · · ·+ βmvm). Usando a linearidade de T e o fato de u1, · · · , un ∈ ker(T ), temos v = β1T (v1) + · · ·+ βmT (vm). Portanto C gera Im(T ), restando mostrar que C e´ l.i.. Sejam λ1, · · · , λm ∈ R tais que m∑ i=1 λiT (vi) = 0. Enta˜o T ( m∑ i=1 λi(vi) ) = 0, donde m∑ i=1 λi(vi) pertence ao nu´cleo de T . Logo, existem escalares γ1, · · · , γn ∈ R tais que λ1v1 + · · ·+ λmvm = γ1u1 + · · ·+ γmum. Assim, λ1v1 + · · ·+ λmvm + (−γ1)u1 + · · ·+ (−γm)um = 0 e´ uma combinac¸a˜o linear nula de vetores da base B2. Portanto λ1 = · · · = λm = 0 e C e´ l.i.. Se ker(T ) = {0}, tomamos B = {u1, · · · , un} base de U e, de maneira ana´loga a` feita acima, mostramos que C = {T (u1), · · · , T (un)} e´ base de Im(T ) Uma consequeˆncia do Teorema do nu´cleo e da Imagem e´ dada no corola´rio seguinte, cuja demonstrac¸a˜o e´ deixada como exerc´ıcio. Corola´rio 2.1.5 Sejam U e V espac¸os vetoriais sobre R de mesma dimensa˜o finita. Se T : U → V e´ uma transformac¸a˜o linear, enta˜o sa˜o equivalentes as seguintes afirmac¸o˜es: 1. T e´ sobrejetiva. 2. T e´ injetiva. 13 3. T leva bases de U em bases de V . Exemplo 2.1.6 Considere a transformac¸a˜o linear T : R3 → R dada por T (x, y, z) = 3x− 2y + z, ∀(x, y, z) ∈ R3. Note que seu nu´cleo e´ formado pelos vetores de R3 tais que 3x− 2y + z = 0. Uma vez que a Im(T ) 6= {0} temos que dim(Im(T )) = 1, e como dim(R3) = 3 segue do teorema do nu´cleo e da imagem que ker(T ) tem dimensa˜o 2. De fato, ker(T ) e´ um plano passando pela origem. Exemplo 2.1.7 Considere a seguinte transformac¸a˜o linear T : R2 → R3 (x, y) 7→ (−y, x, x+ y) Observe que ker(T ) = {(x, y) | (−y, x, x+y) = (0, 0, 0)} = {(0, 0)} e, portanto, T e´ injetora. Basta observar que (−1, 0, 0) na˜o e´ um elemento de Im(T ) para concluir que T na˜o e´ sobrejetora. Na˜o e´ dif´ıcil ver tambe´m que {(0, 1, 1), (−1, 0, 1)} forma uma base de Im(T ). 2.2 Isomorfismos Definic¸a˜o 2.2.1 Sejam U e V espac¸os vetoriais sobre R. Dizemos que uma transformac¸a˜o linear T : U → V e´ um isomorfismo (ou isomorfismo linear) se T e´ bijetiva. Dizemos que U e V sa˜o espac¸os isomorfos (ou simplesmente isomorfos) se existe um isomorfismo T : U → V . Um isomorfismo da forma T : U → U e´ dito um automorfismo de U . Se T : U → V e´ uma func¸a˜o bijetiva enta˜o para cada v ∈ V existe u´nico uv ∈ U tal que T (uv) = v. Deste modo, fica bem definida uma func¸a˜o S : V → U dada por S(v) = uv, ∀v ∈ V. Note que S e´ bijetiva, T ◦ S = IdV e S ◦ T = IdU . A func¸a˜o S e´ chamada de func¸a˜o inversa de T , e sera´ denotada por T−1. Proposic¸a˜o 2.2.2 Se T : U → V e´ um isomorfismo linear enta˜o T−1 : V → U tambe´m e´ isomorfismo linear. Prova: Uma vez que T−1 e´ bijetiva, resta provar que T−1 e´ linear. Dados α ∈ R e v1, v2 ∈ V existem u1, u2 ∈ U tais que T (u1) = v1 e T (u2) = v2. Assim, S(αv1 + v2) = S(αT (u1) + T (u2)) = S(T (αu1 + u2)) = αu1 + u2 = αS(v1) + S(v2). Donde T−1 e´ linear 14 Lema 2.2.3 Sejam U e V espac¸os vetoriais sobre R. Se {u1, · · · , un} e´ uma base de U e se {v1, · · · , vn} ⊆ V , enta˜o existe uma u´nica transformac¸a˜o linear T : U → V tal que T (ui) = vi, para cada i = 1, · · · , n. Prova: Dado u ∈ U existem u´nicos α1, · · · , αn ∈ R tais que u = α1u1 + · · ·αnun. Defina T : U → V por T (u) = α1v1 + · · ·+ αnvn. Segue da unicidade dos α′is que T esta´ bem definida. E´ fa´cil ver que T (ui) = vi, para cada i = 1, · · · , n, restando provar sua linearidade. Sejam λ ∈ R e u = n∑ i=1 αiui, w = n∑ i=1 βiui dois vetores de U . Enta˜o T (λu+ w) = T ( λ n∑ i=1 αiui + n∑ i=1 βiui ) = T ( n∑ i=1 (λαi + βi)ui ) = n∑ i=1 (λαi + βi)vi = λ n∑ i=1 αivi + n∑ i=1 βivi = λT (u) + T (w). Provando a linearidade de T . A prova da unicidade e´ deixada a cargo do leitor Teorema 2.2.4 Sejam U e V espac¸os vetoriais de dimensa˜o finita. Enta˜o U e V sa˜o isomorfos se, e somente se, dim(U) = dim(V ). Prova: Sejam U e V espac¸os isomorfos. Enta˜o extiste um isomorfismo T : U → V . Como T e´ injetiva dim(ker(T )) = 0, e pelo Teorema do Nu´cleo e da Imagem dim(U) = dim(Im(T )). Segue da sobrejetividade de T que Im(T ) = V , donde dim(U) = dim(V ). Reciprocamente, suponha que dim(U) = dim(V ) e considere B1 = {u1, · · · , un} e B2 = {v1, · · · , vn} bases de U e V , respectivamente. Vimos no Lema anterior que existe uma u´nica transformac¸a˜o linear T : U → V com T (ui) = vi, para cada i = 1, · · · , n. Tal transformac¸a˜o e´ bijetiva. Com efeito, dado v = n∑ i=1 αivi temos que T ( n∑ i=1 αiui ) = n∑ i=1 αivi= v, donde T e´ sobrejetiva. E se T (u) = T ( n∑ i=1 λiui ) = 0 enta˜o n∑ i=1 λivi = 0 ⇒ λ1 = · · ·λn = 0 ⇒ u = 0. Ou seja, ker(T ) = {0}, provando a injetividade de T 15 2.3 O Espac¸o L(U, V ) Sejam U e V espac¸os vetoriais sobre R. Indicaremos por L(U, V ) o conjunto das transformac¸o˜es lineares de U em V . Se U = V o conjunto sera´ denotado simplesmente por L(U). Note que, do fato de V ser espac¸o vetorial, ficam bem definidas as operac¸o˜es + : L(U, V ) × L(U, V ) → L(U, V ) e · : R × L(U, V ) → L(U, V ), chamadas respectivamente de soma e de produto por escalar, dadas por (T + S)(u) := T (u) + S(u) (α · T )(u) := αT (u), para todo u ∈ U , onde T, S ∈ L(U, V ) e α ∈ R. Daqui em diante omitiremos o ponto na operac¸a˜o produto. Segue ainda do fato de ser V um espac¸o vetorial que o conjunto L(U, V ) tem uma estrutura de espac¸o vetorial, tambe´m sobre R, com as operac¸o˜es definidas acima. Com efeito, quaisquer que sejam T, S,R ∈ L(U, V ) temos que para cada u ∈ U 1. (T + S)(u) = T (u) + S(u) = S(u) + T (u) = (S + T )(u); 2. (T +(S+R))(u) = T (u)+ (S+R)(u) = T (u)+ (S(u)+R(u)) = (T (u)+S(u))+R(u) = (S+T )(u)+ R(u) = ((S + T ) +R)(u). Da mesma forma se verificam as propriedades para o produto. Ale´m disso, a func¸a˜o nula e´ linear e exerce o papel de vetor nulo do espac¸o, e dada T ∈ L(U, V ) definimos −T por (−T )(u) = −T (u). Donde (T + (−T ))(u) = T (u) + (−T (u)) = T (u)− T (u) = 0, ∀u ∈ U. Portanto, T + (−T ) = 0 mostrando que cada elemento (vetor) tem seu oposto. Por fim, (1T )(u) = 1T (u) = T (u) para todo u ∈ U . Logo, 1T = T para todo T ∈ L(U, V ). Exerc´ıcio 2.3.1 Se dim(U) = n e dim(V ) = m podemos afirmar que dim(L(U, V )) <∞? Se sim, podemos calcular seu valor? Definic¸a˜o 2.3.2 Seja V um espac¸o vetorial sobre R. Um funcional linear em V e´ uma transformac¸a˜o linear f : V → R. O conjunto de todos os funcionais lineares de um espac¸o, L(V,R), sera´ denotado por V ∗ e sera´ chamado o espac¸o dual a V (ou espac¸o dual de V ). Sejam V um espac¸o vetorial sobre R de dimensa˜o finita e B = {v1, · · · , vn} uma base de V . Queremos construir uma base de V ∗ relacionada a` base B. Como cada v ∈ V possui uma u´nica forma de se escrever como soma dos elementos de B, ficam bem definidos os funcionais lineares fi : V → R, i = 1, · · · , n, dados por fi(v) = fi(α1v1 + · · ·+ αnvn) = αi. Afirmamos que o conjunto B∗ = {f1, · · · , fn} e´ a base procurada. De fato, dado f ∈ V ∗ temos que f(v) = f(α1v1 + · · ·+ αnvn) = α1f(v1) + · · ·+ αnf(vn), fazendo f(vi) = ki, para i = 1, · · · , n, temos que f(v) = k1α1 + · · ·+ knαn = k1f1(v) + · · ·+ knfn(v), ∀v ∈ V. 16 Ou seja, f = k1f1 + · · ·+ knfn o que implica em V ∗ = [B∗]. Restando mostrar que B∗ e´ l.i.. Sejam λ1, · · · , λn ∈ R tais que λ1f1 + · · ·+ λnfn = 0. Ou seja, estamos escrevendo o funcional nulo como combinac¸a˜o linear dos funcionais de B∗. Aplicando o lado esquerdo da expressa˜o acima em cada vetor de B obtemos λ1f1(v1) + · · ·+ λnfn(v1) = λ1 = 0 ... ... ... λ1f1(vn) + · · ·+ λnfn(vn) = λn = 0 Mostrando que necessariamente λ1 = · · · = λn = 0 e, portanto, B∗ e´ l.i. A base B∗ constru´ıda acima e´ chamada de base dual a B. A relac¸a˜o entre as bases B e B∗ e´ a seguinte: se v e´ um vetor em V enta˜o suas coordenadas na base B sa˜o f1(v), · · · , fn(v), isto e´, v = (f1(v), · · · , fn(v))B , e se f ∈ V ∗ enta˜o f = (f(v1), · · · , f(vn))B∗ . Exemplo 2.3.3 Sejam v1 = (1, 1, 1), v2 = (1, 1,−1) e v3 = (0, 1, 1) em R3. Observe que B = {v1, v2, v3} e´ uma base de R3. Para calcular a base dual de B, B∗ = {f1, f2, f3}, basta escrevermos um vetor gene´rico (x, y, z) ∈ R3 na base B e usarmos suas coordenadas para definir f1(x, y, z), f2(x, y, z) e f3(x, y, z). Para isso, resolvemos o sistema gerado pela equac¸a˜o (x, y, z) = α(1, 1, 1) + β(1, 1,−1) + γ(0, 1, 1). Obtemos α = 2x− y + z 2 β = y − z 2 γ = y − x Donde f1(x, y, z) = 2x− y + z 2 , f2(x, y, z) = y − z 2 , f3(x, y, z) = y − x. 17 Cap´ıtulo 3 Matrizes e Aplicac¸o˜es Lineares 3.1 Matriz Associada a uma Aplicac¸a˜o Linear Sejam U e V espac¸os vetorias sobre R com dimenso˜es n e m, respectivamente, e T : U → V uma trans- formac¸a˜o linear. Fixe B = {u1, · · · , un} base de U e C = {v1, · · · , vm} base de V . Vimos anteriormente que T fica determinada pelas imagens T (uj), j = 1, · · · , n. Portanto, vamos escrever os vetores T (uj) como combinac¸a˜o linear dos vetores de C. T (u1) = a11v1 + a21v2 + · · ·+ am1vm = m∑ i=1 ai1vi ... ... ... T (un) = a1nv1 + a2nv2 + · · ·+ amnvm = m∑ i=1 ainvi onde aij ∈ R para todos i ∈ {1, · · · ,m} e j ∈ {1, · · · , n}. Assim, para cada j temos que T (uj) = m∑ i=i aijvi. Definic¸a˜o 3.1.1 A matriz A, m× n sobre R A = a11 a12 · · · a1n a21 a22 · · · a2n ... ... . . . ... am1 am2 · · · amn denotada por A = (aij)i,j , definida acima e´ chamada dematriz da transformac¸a˜o linear T com relac¸a˜o a`s bases B e C e sera´ escrita [T ]B,C . No caso em que U = V e B = C, denotamos [T ]B,B simplesmente por [T ]B . Exemplo 3.1.2 Seja T : R3 → R2 dada por T (x, y, z) = (z, x+ y). Determine a matriz de T com respeito a`s bases B = {(1, 1, 1), (1, 1, 0), (1, 0, 0)} e C = {(1, 0), (0, 1)}. Ora, basta calcular T (1, 1, 1) = (1, 2) = 1(1, 0) + 2(0, 1) T (1, 1, 0) = (0, 2) = 0(1, 0) + 2(0, 1) T (0, 0, 1) = (0, 1) = 0(1, 0) + 1(0, 1) 18 Donde, [T ]B,C = ( 1 0 0 2 2 1 ) Exemplo 3.1.3 Seja V = P3(R). Considere a transformac¸a˜o linear D : P3(R) → P3(R) dada pela derivac¸a˜o: D(p(x)) = p′(x). A matriz de D com relac¸a˜o a` base canoˆnica {1, x, x2, x3} de V e´ [D]can = 0 1 0 0 0 0 2 0 0 0 0 3 0 0 0 0 . E´ importante observar a vantagem em se ter a matriz de uma transformac¸a˜o linear para o ca´lculo efetivo de uma imagem. Com efeito, se a matriz de T : U → V e´ [T ]B,C = a11 · · · a1n... ... am1 · · · amn e u = n∑ j=1 αjuj ∈ U , onde B = {u1, · · · , un}, enta˜o (T (u))C = [T ]B,C · (u)B. Exemplo 3.1.4 Seja T : R2 → R3 dada por T (x, y) = (2x + y, y − x, 3x) e considere as bases B = {(1, 2), (2,−1)} de R2 e C = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} de R3. Uma conta simples mostra que T (1, 2) = (4, 1, 3) = 4(, 1, 1, 1) + (−3)(0, 1, 1, ) + 2(0, 0, 1) T (2,−1) = (3,−3, 6) = 3(1, 1, 1) + (−6)(0, 1, 1) + 9(0, 0, 1) e da´ı [T ]BC = 4 3−3 −6 2 9 . Agora, se u = (−2, 3)B, enta˜o (T (u))C = 4 3−3 −6 2 9 ( −2 3 ) B = 1−12 23 C Seja V um espac¸o vetorial de dimensa˜o n e consideremos duas bases B = {u1, · · · , un} e C = {v1, · · · , vn}. Enta˜o existe uma u´nica famı´lia de escalares aij de modo que u1 = a11v1 + a21v2 + · · ·+ an1vn ... ... un = a1nv1 + a2nv2 + · · ·+ annvn . 19 Definic¸a˜o 3.1.5 A matriz quadrada de ordem n constru´ıda acima P = a11 a12 · · · a1n a21 a22 · · · a2n ... ... . . . ... an1 an2 · · · ann e´ chamada a matriz de mudanc¸a de base C para B. Note que no mesmo contexto, se Id : V → V e´ a func¸a˜o identidade do espac¸o vetorial V enta˜o [Id]BC = P. De fato, I(u1) = u1 = a11v1 + a21v2 + · · ·+ an1vn ... ... ... I(un) = un = a1nv1 + a2nv2 + · · ·+ annvn . Observac¸a˜o 3.1.6 Note que se Id : U → U e´ a identidade de U e B ⊂ U e´ uma base de U , enta˜o a matriz [Id]B e´ a matriz identidade de ordem igual a` dimensa˜o de U . Vimos que se U e V sa˜o espac¸os vetoriais sobre R de dimenso˜es n e m respectivamente, fixadas B = {u1, · · · , un} base de U e C = {v1, · · · , vm} base de V , e sendo T : U → V uma transformac¸a˜o linear, existe uma matriz M ∈Mm×n(R) tal que [T ]BC =M . A rec´ıproca deste resultado e´ tambe´m verdadeira. Proposic¸a˜o 3.1.7 Sejam U e V espac¸os vetoriais sobre R de dimenso˜es n e m respectivamente.Fixadas B = {u1, · · · , un} base de U e C = {v1, · · · , vm} base de V , temos que para cada matriz M ∈ Mm×n(R) existe uma u´nica transformac¸a˜o linear T : U → V com M = [T ]BC . Prova: Basta definir T (uj) = M · (uj)B. A unicidade segue diretamente do Lema (2.2) Corola´rio 3.1.8 Dados U e V espac¸os vetoriais de dimensa˜o finita, fixadas bases B de U e C de V , sa˜o isomorfos os espac¸os L(U, V ) e Mm×n(R). Prova: (Exerc´ıcio) Exemplo 3.1.9 Considere a matriz M = ( 1 2 3 0 1 0 ) . Calcular T ∈ L(R3,R2) tal que M = [T ]BC , onde B = {(1, 0, 0), (0, 1, 0), (0, 1, 2)} e C = {(1, 0), (1, 1)}. Da definic¸a˜o de [T ]BC temos que T (1, 0, 0) = 1(1, 0) + 0(1, 1) = (1, 0) T (0, 1, 0) = 2(1, 0) + 1(1, 1) = (3, 1) T (0, 1, 2) = 3(1, 0) + 0(1, 1) = (3, 0). Assim, se (x, y, z) ∈ R3 e (x, y, z) = a(1, 0, 0) + b(0, 1, 0) + c(0, 1, 2) 20 enta˜o a = x, b = y − z 2 e c = z 2 . Portanto T (x, y, z) = T ( x(1, 0, 0) + ( y − z 2 ) (0, 1, 0) + z 2 (0, 1, 2) ) = x(1, 0) + ( y − z 2 ) (3, 1) + z 2 (3, 0) = ( x+ 3y, y − z 2 ) . 3.2 Matriz da Transformac¸a˜o Composta Se U , V e W sa˜o espac¸os vetoriais sobre R, T : U → V e S : V → W sa˜o transformac¸o˜es lineares, enta˜o S ◦ T : U →W e´ tambe´m linear. Com efeito, se u1, u2 ∈ U e α ∈ R enta˜o (S ◦ T )(αu1 + u2) = S((T (αu1 + u2))) = S(αT (u1) + T (u2)) = αS(T (u1)) + S(T (u2)) = α(S ◦ T )(u1) + (S ◦ T )(u2) Note que se T ∈ L(U) podemos definir Tn ∈ L(U), para n = 0, 1, 2, · · · , da seguinte forma: T 0 = Id T 1 = T Tn = T ◦ Tn−1 Definic¸a˜o 3.2.1 Uma transformac¸a˜o linear T ∈ L(U) chama-se nilpotente quando, para algum n ∈ N, tem-se Tn = 0. Exemplo 3.2.2 A transformac¸a˜o D : Pn(R) → Pn(R), que associa cada func¸a˜o polinomial p(x) a` sua derivada p′(x), e´ nilpotente. Com efeito, Dn+1(p(x)) = 0 qualquer que seja p(x) ∈ Pn(R). Portanto, Dn+1 = 0. O resultado a seguir ilustra bem uma das vantagens em se trabalhar transformac¸o˜es lineares via suas representac¸o˜es matriciais. Teorema 3.2.3 Sejam T : U → V e S : V → W sa˜o transformac¸o˜es lineares, onde U , V e W sa˜o espac¸os vetoriais de dimenso˜es n, m e r, respectivamente. Fixando bases B1, B2 e B3 para U , V e W , respectivamente, temos que [S ◦ T ]B1B3 = [S]B2B3 · [T ]B1B2 . Prova: Escreva B1 = {u1, · · ·un}, B2 = {v1, · · · , vm}, B3 = {w1, · · · , wr} e considere as matrizes 1. [T ]B1B2 = (aij)i,j , isto e´, T (uj) = m∑ i=1 aijvi, ∀ j = 1, · · · , n. 2. [S]B2B3 = (bki)k,i, isto e´, S(vi) = r∑ k=1 bkiwk, ∀ i = 1, · · · ,m. 21 3. [S ◦ T ]B1B3 = (ckj)k,j , isto e´, (S ◦ T )(uj) = r∑ k=1 ckjwk, ∀ j = 1, · · · , n. De (1) e (2) temos que (S ◦ T )(uj) = S(T (uj)) = S( m∑ i=1 aijvi) = m∑ i=1 aijS(vi) = m∑ i=1 aij( r∑ k=1 bkiwk) = r∑ k=1 ( m∑ i=1 bkiaij)wk. De (3) segue que ckj = m∑ i=1 bkiaij , ∀j = 1, · · · , n, ∀k = 1, · · · r. Portanto, [S ◦ T ]B1B3 = [S]B2B3 · [T ]B1B2 Corola´rio 3.2.4 Sejam U e V espac¸os vetoriais de dimensa˜o n ≥ 1 e considere bases B de U e C de V . Uma transformac¸a˜o linear T : U → V e´ um isomorfismo se, e somente se, a matriz [T ]BC for invert´ıvel. Ale´m disso, neste caso, [T−1]CB = ([T ]BC)−1. Prova: Sejam T um isomorfismo e T−1 sua inversa. Como T ◦ T−1 = IdV e T−1 ◦ T = IdU temos [IdV ]C = [T ◦ T−1]C = [T ]BC · [T−1]CB e [IdU ]B = [T −1 ◦ T ]B = [T−1]CB · [T ]BC . Como [IdV ]C e [IdU ]B sa˜o a matriz identidade (vide observac¸a˜o 3.1), segue o resultado. Uma consequeˆncia dos dois u´ltimos resultados e´ que se tivermos B e C bases de um mesmo espac¸o vetorial U , de dimensa˜o n, e T : U → U uma transformac¸a˜o linear, enta˜o [T ]B = P −1 · [T ]C · P, onde P e´ a matriz de mudanc¸a de bases de C para B. Pois T ◦ Id = Id ◦ T . Exerc´ıcio 3.2.5 Verifique matricialmente se o operador F ∈ L(R3) dado por F (x, y, z) = (x− y, 2y, y + z) e´ invers´ıvel. Se for, ache F−1. 3.3 Posto de uma Matriz Definic¸a˜o 3.3.1 Seja T : U → V uma transformac¸a˜o linear entre espac¸os vetoriais de dimensa˜o finita. O posto de T e´ a dimensa˜o da sua imagem. 22 Note que o posto de uma aplicac¸a˜o linear T : U → V e´ sempre menor do que ou igual a dim(V ). E, pelo Teorema do Nu´cleo e da Imagem, temos tambe´m que dim(Im(U)) ≤ dim(U). Ou seja, o posto de T na˜o excede dim(U) nem dim(V ). O posto de T e´ igual a` dimensa˜o de U se, e somente se, T e´ injetiva. E e´ igual a` dimensa˜o de V se, e somente se, T e´ sobrejetiva. Observac¸a˜o 3.3.2 Se (aij) ∈ Mm×n(R) e´ a matriz de T : U → V relativa a um par de bases B ⊂ U , C ⊂ V , o posto de T e´ a dimensa˜o do subespac¸o de Rm gerado pelas colunas de (aij). Ou seja, o posto de T e´ o nu´mero ma´ximo de colunas linearmente independentes da matriz (aij). A observac¸a˜o acima nos permite fazer a seguinte definic¸a˜o Definic¸a˜o 3.3.3 Dada uma matriz M ∈ Mm×n, definimos o posto segundo colunas de M como sendo o nu´mero ma´ximo de colunas linearmente independentes em M . Este nu´mero e´ igual a` dimensa˜o do subespac¸o vetorial de Rm gerado pelos vetores-coluna deM .(Espac¸o-coluna deM .) Analogamente, definimos o posto segundo linhas da matriz M acima como o nu´mero ma´ximo de linhas l.i. em M , ou seja, como a dimensa˜o do subespac¸o vetorial de Rn gerado pelos vetores-linha da matriz M . (Espac¸o-linha de M) Teorema 3.3.4 Para toda matriz M ∈ Mm×n(R), o posto segundo linhas e o posto segundo colunas sa˜o iguais. Prova: (Exerc´ıcio) Note que o teorema acima nos permite definir o posto de uma matriz M ∈Mm×n como sendo o nu´mero ma´ximo de linhas, ou de colunas, l.i. dessa matriz. 3.4 Eliminac¸a˜o O me´todo de eliminac¸a˜o (tambe´m conhecido como escalonamento), aprendido desde o ensino me´dio, consiste basicamente em ”simplificar”uma matriz a partir de operac¸o˜es ba´sicas. Nesta sec¸a˜o, veremos, ale´m do me´todo em si, algumas aplicac¸o˜es no contexto da a´lgebra linear, deixando claro sempre que for pertinente o significado teo´rico do processo. Dada uma matriz A = (aij) ∈Mm×n(R) o ”simplificar”dito acima significa obter uma matriz B = (bij) ∈ Mm×n(R), a partir de operac¸o˜es ba´sicas sobre A, de modo que os elementos bij sejam todos nulos se i > j. Por operac¸o˜es ba´sicas entendemos: 1. Trocar a posic¸a˜o de duas linhas; 2. Multiplicar uma linha por um nu´mero na˜o nulo; 3. Somar a uma linha um mu´ltiplo de outra linha. Na pra´tica o procedimento e´ o seguinte: 1. Se a11 6= 0, o processo comec¸a deixando a primeira linha intacta e somando a cada linha Li, i > 1, a primeira linha multiplicada por − ai1 a11 . Com isso se obte´m uma matriz cuja primeira coluna e´ (a11, 0, · · · , 0). 23 2. Se a11 = 0, uma troca de linhas deve fornecer uma matriz com a11 6= 0, caso contra´rio, a primeira coluna e´ nula e passa-se para a segunda coluna ou, mais geralmente, para a coluna mais pro´xima, a` direita da primeira onde haja algum elemento na˜o nulo e opera-se como antes, de modo a obter uma matriz cuja primeira coluna na˜o nula comec¸a com elemnto diferente de zero mas todos os demais sa˜o iguais a zero. 3. A partir da´ı na˜o se mexe mais na primeira linha. Recomec¸a-se o processo, trabalhando com as linhas a partir da segunda, ate´ obter uma matriz escalonada. 3.4.1 Aplicac¸o˜es Dimensa˜o do subespac¸o gerado por m vetores O problema consiste em determinar a dimensa˜o do subespac¸o de V gerado por m vetores {v1, · · · , vm}. Por simplicidade1, vamos supor que V = Rn. O princ´ıpio ba´sico a ser utilizado e´ a observac¸a˜o de que se um dos vetores dados, digamos v1, tem uma de suas coordenadas, por exemplo a j-e´sima, diferente de zero mas todos os demais vetores v2, · · · , vm teˆm a j-e´sima coordenada nula enta˜o v1 na˜o e´ combinac¸a˜o linear de v2, · · · , vm. Exemplo 3.4.1 Sejam os vetores v1, v2, v3 ∈ R4 dados por v1 = (1, 2, 3, 4)v2 = (5, 6, 7,8) v3 = (9, 10, 11, 12) . Calcule a dimensa˜o do subespac¸o gerado por esses vetores e exiba uma base. Ca´lculo do posto de uma transformac¸a˜o linear Note que o procedimento realizado no exemplo anterior permite calcular o posto de uma transformac¸a˜o linear T : U → V bem como uma base para Im(T ). Uma tal base pode ser formada pelas colunas na˜o-nulas de uma matriz escalonada, obtida da matriz de T por meio de operac¸o˜es ba´sicas efetuadas sobre suas colunas. Exemplo 3.4.2 Obter uma base para a imagem da transformac¸a˜o linear T : R3 → R4, definida por T (x, y, z) = (x+ 5y + 9z, 2x+ 6y + 10z, 3x+ 7y + 11z, 4x+ 8y + 12z). Resoluc¸a˜o de sistemas lineares A fim de resolver um sistema de m equac¸o˜es lineares, com n inco´gnitas, apresentado sob a forma matricial Ax = b, onde A ∈Mm×n(R), x ∈Mn×1(R) e b ∈Mm×1(R), o me´todo da eliminac¸a˜o revela-se o mais eficaz. 1Note que na˜o ha´ perda de generalidade em supor V = Rn 24 Note que o sistema Ax = b possui soluc¸a˜o se, e somente se, o vetor b ∈ Rm pertence a` imagem da transformac¸a˜o linear T : Rn → Rm cuja matriz (nas bases canoˆnicas de Rn e Rm) e´ A. Escrevendo A = (aij) e b = (b1, · · · , bm), temos que Ax = b tem soluc¸a˜o se, e somente se, as matrizes A e Ab = a11 · · · a1n b1... . . . ... ... am1 · · · amn bm teˆm o mesmo posto. De forma mais completa temos, em termos matriciais, que o sistema Ax = b admite as seguintes alter- nativas: 1. Na˜o possui soluc¸a˜o quando o posto da matriz aumentada Ab e´ maior do que o posto de A; 2. Possui uma u´nica soluc¸a˜o quando a matriz A e a matriz aumentada Ab teˆm o mesmo posto, igual ao nu´mero n de inco´gnitas; 3. Possui infinitas soluc¸o˜es quando se tem que posto de Ab e´ igual ao posto de A e ambos sa˜o menores do que n. Note que isto se trata apenas de uma discussa˜o esclarecedora do ponto de vista teo´rico. Do ponto de vista pra´tico o que se faz e´ simplesmente escalonar a matriz aumentada Ab, obtendo assim um sistema equivalente ao primeiro2, o qual e´ resolvido de baixo para cima: acha-se primeiro o valor da u´ltima inco´gnita, substituindo-a por esse valor na equac¸a˜o anterior e assim por diante. Exemplo 3.4.3 Considere o sistema y + 2z + 3t = 1 2x+ y + 3z = 1 3x+ 4y + 2z = 1 4x+ 2y + t = 1 cuja matriz aumentada e´ 0 1 2 3 1 2 1 3 0 1 3 4 2 0 1 4 2 0 1 1 , que escalonada assume a forma 2 1 3 0 1 0 1 2 3 1 0 0 −152 − 152 −3 0 0 0 7 75 . Portanto, um sistema equivalente e´ 2x + y + 3z = 1 y + 2z + 3t = 1 − 152 z − 152 t = −3 7t = 75 . 2Dois sistemas de equac¸o˜es sa˜o ditos equivalentes se possuem o mesmo conjunto de soluc¸o˜es 25 Resolvendo este sistema de baixo para cima, vem: t = 1 5 , z = 1 5 , y = 0, x = 1 5 . Esta e´ a u´nica soluc¸a˜o do sistema dado. Como a matriz do sistema tem posto 4, a soluc¸a˜o seria u´nica, qualquer que fosse o segundo membro. O me´todo de Gauss-Jordan Dada uma matriz quadrada A ∈ Mn×n, invert´ıvel, o precesso de escalonamento pode ser utilizado a fim de se calcular A−1. Acrescenta-se a matriz identidade In a` direita de A de modo a ter uma matriz aumentada n× 2n: a11 a12 · · · a1n | 1 0 · · · 0 a21 a22 · · · a2n | 0 1 · · · 0 ... ... . . . ... | ... ... . . . ... an1 an2 · · · ann | 0 0 · · · 1 . Em seguida aplicam-se operac¸o˜es ba´sicas a`s linhas dessa matriz aumentada de modo a reduzir a matriz A a` identidade In, chegando-se a: 1 0 · · · 0 | x11 x12 · · · x1n 0 1 · · · 0 | x21 x22 · · · x2n ... ... . . . ... | ... ... . . . ... 0 0 · · · 1 | xn1 xn2 · · · xnn . A matriz (xij) a` direita e´ a inversa de A. Exemplo 3.4.4 Calcule a inversa da matriz 2 4 30 1 −1 3 5 7 . 3.5 Determinantes Definic¸a˜o 3.5.1 Dado n ∈ N considere Jn ⊂ N definido por Jn = {1, 2, 3, · · · , n}. Uma permutac¸a˜o em Jn e´ uma bijec¸a˜o σ : Jn → Jn. Usaremos a seguinte notac¸a˜o para indicar uma permutac¸a˜o em Jn: σ = ( 1 2 · · · n σ(1) σ(2) · · · σ(n) ) Observac¸a˜o 3.5.2 Note que a composic¸a˜o de permutac¸o˜es em um mesmo Jn tambe´m e´ uma permutac¸a˜o, assim como a inversa de uma permutac¸a˜o e´ ainda uma permutac¸a˜o. Observe que em Jn existem exatamente n! permutac¸o˜es distintas. 26 Definic¸a˜o 3.5.3 Sejam σ uma permutac¸a˜o em Jn e r o nu´mero de pares ordenados (i, j) com 1 ≤ i < j ≤ n tais que σ(i) > σ(j). Definimos o sinal de σ, denotado por sgn(σ), como sendo{ sgn(σ) = 1, se r e´ par sgn(σ) = −1, se r e´ ı´mpar Exemplo 3.5.4 Se σ e´ a permutac¸a˜o em J3 dada por σ = ( 1 2 3 2 3 1 ) enta˜o sgn(σ) = 1. Definic¸a˜o 3.5.5 Seja A = (aij) uma matriz n× n. Definimos o determinante da matriz A como sendo o nu´mero det(A) = ∑ σ sgn(σ)a1σ(1) · a2σ(2) · · · anσ(n). Exerc´ıcio 3.5.6 Exibir as fo´rmulas dos determinantes das matrizes 2 × 2 e 3 × 3. Em seguida, usar o resultado obtido para calcular os determinantes das matrizes A = ( 1− λ 1 1 1− λ ) e B = 2− λ 3 41 1− λ 2 0 0 2− λ 3.5.1 Propriedades dos Determinantes Exibiremos agora, sem demonstrac¸a˜o, algumas propriedades dos determinantes de matrizes. Dado n ∈ N temos que para cada A ∈Mn×n(R) o determinante de A pode ser pensado como uma func¸a˜o nas n varia´veis Li, com 1 ≤ i ≤ n, onde cada Li e´ o vetor linha da matriz A. 1. A func¸a˜o determinante e´ linear em cada uma das varia´veis L1, L2, · · · , Ln, ou seja, det(L1, · · · , αLi + L′i, · · · , Ln) = α det(L1, · · · , Li, · · · , Ln) + det(L1, · · · , L′i, · · · , Ln). 2. Se A = (L1, · · · , Ln) e´ uma matriz de ordem n e Li = Lj , com i < j, enta˜o det(A) = 0. 3. det(L1, · · · , Li, · · · , Lj , · · · , Ln) = − det(L1, · · · , Lj , · · · , Li, · · · , Ln). 4. det(L1, · · · , Li, · · · , Ln) = det ( L1, · · · , Li + ∑ k 6=i αkLk, · · · , Ln ) . 5. det(A) = det(At). Exerc´ıcio 3.5.7 Verifique que a matriz 3 −6 x1 −2 y 2 −4 z tem determinante nulo, independente dos valores de x, y e z. 27 3.5.2 Outras fo´rmulas Outra fo´rmula bastante u´til para calcular o determinante de uma matriz, principalmente quando esta apre- senta va´rios zeros em uma linha ou coluna e´: det(A) = n∑ j=1 (−1)i+jaij det(Mij), onde A = (aij) e Mij e´ a matriz n−1×n−1 obtida de A quando desta se retiram a i-e´sima linha e a j-e´sima coluna. Exemplo 3.5.8 Calcule o determinante da matriz 2 1 3 0 1 2 1 0 0 0 2 1 3 1 1 4 . Podemos usar o determinante de uma matriz para calcular sua inversa. Mais especificamente, temos A−1 = 1 det(A) A∗, onde A∗ = A11 A21 · · · An1 A12 A22 · · · An2 ... ... . . . ... A1n A2n · · · Ann , onde Aij = (−1)i+j det(Mij) Definic¸a˜o 3.5.9 A matriz A∗ definida acima e´ dita a adjunta de A. Exemplo 3.5.10 Calcule a matriz inversa de ( 1 1 2 7 ) . 28 Cap´ıtulo 4 Autovetores e Autovalores 4.1 Autovetores e Autovalores Definic¸a˜o 4.1.1 Sejam U um espac¸o vetorial e T : U → U um operador linear. Dizemos que um vetor, na˜o-nulo, u ∈ U e´ um autovetor de T se existe um λ real tal que T (u) = λu. Nesse caso, dizemos que o nu´mero λ e´ um autovalor de T . Tambe´m dizemos1 que u e´ um autovetor associado ao autovalor λ. Note que um autovetor na˜o pode estar associado a dois autovalores distintos. Com efeito, se T (u) = λ1u = λ2u enta˜o (λ1 − λ2)u = 0, e como u 6= 0 segue que λ1 = λ2. Proposic¸a˜o 4.1.2 Se λ e´ um autovalor de T ∈ L(U) enta˜o o conjunto Vλ = {u ∈ U/ T (u) = λu} e´ um subespac¸o de U , chamado auto-espac¸o de T associado a λ. Prova: De fato, u ∈ Vλ ⇔ T (u) = λu⇔ (T − λId)u = 0⇔ u ∈ ker(T − λId). Portanto Vλ = ker(T − λId), que sabemos ser subespac¸o de U Exemplo 4.1.3 Seja T : R2 → R2 dada por T (x, y) = (y, x). A transformac¸a˜o T , claramente linear, e´ a reflexa˜o dos vetores em torno da bissetriz dosquadrantes ı´mpares. Assim, se um vetor u ∈ R2 esta´ na bissetriz dos quadrantes ı´mpares enta˜o T (u) = u. Ou seja, 1 e´ autovalor de T e V1 e´ a bissetriz dos quadrantes ı´mpares. Ha´ mais algum autovetor? Se sim, qual seu auto-espac¸o associado? Exemplo 4.1.4 Seja V = C∞(R) o espac¸o vetorial sobre R de todas as func¸o˜es reais infinitamente diferencia´veis. Dado λ ∈ R a func¸a˜o f ∈ C∞(R) definida por f(t) = eλt, ∀ t ∈ R e´ um autovetor do operador derivada associado ao autovalor λ. 1Outros nomes comuns para u (λ) sa˜o vetor caracter´ıstico (valor caracter´ıstico) e vetor pro´prio (valor pro´prio) 29 Exerc´ıcio 4.1.5 Uma rotac¸a˜o, em R2, de um aˆngulo θ possui autovetores? Proposic¸a˜o 4.1.6 Sejam u1 e u2 autovetores de um operador linear T ∈ L(U), associados respectivamente a λ1 e λ2. Se λ1 6= λ2 enta˜o u1 e u2 sa˜o linearmente independentes. Prova: Sejam α1, α2 ∈ R tais que α1u1 + α2u2 = 0 (4.1) Multiplicando a equac¸a˜o acima por λ1 obtemos α1λ1u1 + α2λ1u2 = 0. Por outro lado, aplicando T em 4.1 segue que α1λ1u1 + α2λ2u2 = 0. Das duas u´ltimas equac¸o˜es temos que α2(λ1 − λ2)u2 = 0. Donde α2 = 0 e, consequentemente, α1 = 0 Exerc´ıcio 4.1.7 Generalize a proposic¸a˜o anterior. Ou seja, se u1, · · · , un sa˜o autovetores associados aos autovalores λ1, · · · , λn, e todos esses autovalores sa˜o distintos, enta˜o o conjunto {u1, · · · , un} e´ l.i. (SUGESTA˜O: Usar induc¸a˜o). Conclua que um espac¸o vetorial de dimensa˜o n pode ter no ma´ximo n autovalores distintos. Use o primeiro resultado para mostrar que se α1, · · · , αm sa˜o nu´meros distintos, enta˜o o conjunto {eα1t, · · · , eαmt} ⊂ C∞(R) e´ linearmente independente. Isto sugere que a dimensa˜o de C∞(R) e´... Observac¸a˜o 4.1.8 Podemos estender a definic¸a˜o de autovalores e autovetores de um operador, de forma natural, para matrizes quadradas. Com efeito, se A ∈ Mn×n(R) dizemos que um vetor coluna na˜o-nulo X ∈Mn×1(R) e´ um autovetor de A associado ao autovalor λ ∈ R se AX = λX. 4.2 Polinoˆmio Caracter´ıstico Definic¸a˜o 4.2.1 Dada uma matriz A = (aij) ∈ Mn×n(R), chamamos de polinoˆmio caracter´ıstico de A o seguinte polinoˆmio de grau n pA(t) = det(A− tIn). Proposic¸a˜o 4.2.2 Sejam A,B, P ∈Mn×n(R) tais que P e´ invers´ıvel e A = P−1BP. Enta˜o os polinoˆmios caracter´ısticos de A e B sa˜o iguais. 30 Prova: pA(t) = det(A− tI) = det(P−1BP − tP−1IP ) = det(P−1(B − tI)P ) = det(P−1) det(B − tI) det(P ) = det(B − tI) = pB(t) Devido ao resultado anterior fica bem definido o polinoˆmio caracter´ıstico de um operador linear: Definic¸a˜o 4.2.3 Sejam U um espac¸o vetorial de dimensa˜o finita e T ∈ L(U). Chamamos de polinoˆmio caracter´ıstico de T , denotado por pT (t), o polinoˆmio caracter´ıstico da matriz de T (em relac¸a˜o a qualquer base). A importaˆncia de calcular o polinoˆmio caracter´ıstico de um operador reside no fato de que ele permite encontrar os autovalores deste operador. De fato, temos o seguinte resultado: Proposic¸a˜o 4.2.4 Dado T ∈ L(U), onde U e´ um espac¸o vetorial de dimensa˜o finita, os autovalores de T coincidem com os zeros do polinoˆmio pT (t). Prova: Com efeito, λ e´ autovalor de T se, e somente se, existe u ∈ U na˜o-nulo tal que (T − λI)u = 0. Isto e´ equivalente a dizer que o operador (T − λI) possui nu´cleo na˜o trivial. Ora, mas isto ocorre se, e somente se, tal operador na˜o e´ invers´ıvel, o que equivale a dizer que a matriz de (T − λI) e´ na˜o invers´ıvel. Por sua vez, a matriz de (T − λI) e´ na˜o invers´ıvel se, e somente se, det(T − λI) = 0 ⇔ pT (λ) = 0. Ou seja, se e somente se λ e´ zero de pT (t) Exemplo 4.2.5 A transformac¸a˜o T : R2 → R2 dada por T (x, y) = (y, x) tem que sua matriz, relativa a` base canoˆnica, e´ [T ] = ( 0 1 1 0 ) . Assim, seu polinoˆmio caracter´ıstico e´ pT (t) = ∣∣∣∣ −t 11 −t ∣∣∣∣ . Logo, pT (t) = t 2 − 1 = (t+ 1)(t− 1). Portanto os autovalores de T sa˜o 1 e −1. Exemplo 4.2.6 Seja T : R2 → R2 a transformac¸a˜o que rotaciona, no sentido anti-hora´rio, todos os vetores de R2 em um aˆngulo θ, 0 ≤ θ ≤ 2pi. Enta˜o a matriz de T relativa a` base canoˆnica e´ [T ] = ( cos(θ) sin(θ) − sin(θ) cos(θ) ) , e seu polinoˆmio caracter´ıstico e´ pT (t) = ∣∣∣∣ cos(θ)− t sin(θ)− sin(θ) cos(θ)− t ∣∣∣∣ . 31 Logo, pT (t) = t 2 − 2t cos(θ) + 1. Fazendo pT (t) = 0 obtemos que as ra´ızes do polinoˆmio caracter´ıstico sa˜o dadas por 2 cos(θ)±√∆ 2 , onde ∆ = 4(cos2(θ)− 1). Ou seja, T admite autovalores (reais) se, e somente se, θ = 0 ou θ = 2pi. Note que se conhecemos um autovalor λ de um operador T , podemos calcular seu autoespac¸o associado. Com efeito, basta resolver a equac¸a˜o (T − λI)u = 0 para u 6= 0. Exemplo 4.2.7 Vimos que os autovalores de T : R2 → R2, definida por T (x, y) = (y, x), sa˜o 1 e −1. Para calcular V1 resolvemos (T − I)(x, y) = (0, 0). Que apresenta como soluc¸a˜o y = x, ou seja, V1 = {(x, y) ∈ R2/ x = y}. Ja´ resolvendo (T + I)(x, y) = (0, 0) obtemos V−1 = {(x, y) ∈ R2/ x = −y}. Definic¸a˜o 4.2.8 Seja λ um autovetor de T ∈ L(U), onde U e´ um espac¸o vetorial de dimensa˜o finita. Chamamos de multiplicidade geome´trica de λ o valor s = dim(Vλ). Por exemplo, a multiplicidade geome´trica de 1 e −1 no exemplo anterior e´ 1. 4.3 Operadores Diagonaliza´veis Sabemos que se um operador linear T ∈ L(U), onde U tem dimensa˜o finita igual a n, possui n autovalores distintos, enta˜o U possui uma base formada por autovetores, sob a qual a representaa˜o matricial de T nos fornece uma matriz diagonal, cujos elementos da diagonal sa˜o exatamente os autovalores. Mais especificamente, se λ1, · · · , λn sa˜o autovalores distintos de T e u1, · · · , un sa˜o autovetores associados, enta˜o B = {u1, · · · , un} e´ uma base de U e [T ]B = λ1 0 · · · 0 0 λ2 · · · 0 ... ... . . . ... 0 0 · · · λn Uma pergunta natural e´: se os autovalores na˜o forem distintos, ainda assim conseguimos uma base que torna a representac¸a˜o matrical de um operador uma matriz diagonal? A resposta e´ dada pelo seguinte resultado. 32 Proposic¸a˜o 4.3.1 Sejam T : U → U um operador linear com dim(U) = n, cuja representec¸a˜o matricial em relac¸a˜o a alguma base ordenada B e´ A = [T ]B, e Xj = [uj ]B = x1j x2j ... xnj as coordenadas de um autovetor u de T associado ao autovalor λj , j = 1, · · · , n. Se os vetores X1, · · · , Xn geram Rn, enta˜o a matriz P = (xij) e´ tal que P−1AP = λ1 0 · · · 0 0 λ2 · · · 0 ... ... . . . ... 0 0 · · · λn = D. Prova: Uma vez que os vetores X1, · · · , Xn geram Rn temos que a matriz P e´ invers´ıvel. Ale´m disso, AXj = λjXj , donde n∑ k=1 aikxkj = λjxij , i = 1, · · · , n. Portanto, AP = ( n∑ k=1 aikxkj ) ij = (λjxij)ij = PD. Logo, P−1AP = D Isto nos permite fazer a seguinte Definic¸a˜o 4.3.2 Seja T : U → U um operador linear com dim(U) = n. Dizemos que T e´ diagonaliza´vel se existir uma base de U formada de autovetores de T . Exemplo 4.3.3 Seja T : R3 → R3 um operador linear cuja representac¸a˜o matricial em relac¸a˜o a` base canoˆnica de R3 e´ A = [T ] = 3 0 −40 3 5 0 0 −1 Note que pT (x) = (x+ 1)(x− 3)2. Assim, λ1 = −1 e λ2 = 3 sa˜o os autovalores de T . Para λ1 = −1 temos que Vλ1 = [(4,−5, 4)]. Para λ2 = 3, temos que Vλ2 = [(1, 0, 0), (0, 1, 0)]. Portanto, B = {(4,−5, 4), (1, 0, 0), (0, 0, 1)} 33 e´ uma base de autovetores de R3. Observe que P−1AP = −1 0 00 3 0 0 0 3 , onde P = 4 1 0−5 0 1 4 0 0 e´ a matriz de mudanc¸a de base da base canoˆnica de R3 para a base B. Exemplo 4.3.4 Seja T : R3 → R3 um operador linear cuja representac¸a˜o matricial em relac¸a˜o a` base canoˆnica de R3 e´ A = [T ] = 3 −3 −40 3 5 0 0 −1 E´ fa´cil ver que o polinoˆmio caracter´ıstico de T e´ pT (x) = (x+ 1)(x− 3)2 cujosautovalores sa˜o λ1 = −1 e λ2 = 3. Contudo, desta vez temos Vλ1 = [(1,−20, 16)] e Vλ2 = [(1, 0, 0)]. Logo, o operador T na˜o e´ diagonaliza´vel.2 A seguir um resultado que nos auxilia na decisa˜o de ser ou na˜o um operador diagonaliza´vel. Omitiremos, contudo, sua demonstrac¸a˜o Teorema 4.3.5 Sejam T : U → U um operador linear com dim(U) = n e Vλi = ker(T − λiI) os auto- espac¸os de T associados aos autovalores distintos aos pares λ1, i = 1, · · · , k. Enta˜o as seguintes condic¸o˜es sa˜o equivalentes: 1. T e´ diagonaliza´vel; 2. O polinoˆmio caracter´ıstico de T e´ pT (x) = (x− λ1)m1(x− λ2)m2 · · · (x− λk)mk , onde mi = dim(Vλi); 3. V = Vλ1 ⊕ · · · ⊕ Vλk . 2Existe uma base B de R3 cuja representac¸a˜o matricial de T e´ dada pela matriz [T ]B = 3 0 01 3 0 0 0 −1 . Essa e´ a chamada forma de Jordan de T . Tais formas sa˜o estudadas em um curso de a´lgebra linear II. 34
Compartilhar