Baixe o app para aproveitar ainda mais
Prévia do material em texto
Anotac¸o˜es sobre transformac¸o˜es lineares. Rodrigo Carlos Silva de Lima ‡ rodrigo.uff.math@gmail.com ‡ 1 Suma´rio 1 3 1.1 Transformac¸o˜es lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2 Produto de transformac¸o˜es lineares . . . . . . . . . . . . . . . . . . . . . . 10 1.2.1 Decomposic¸a˜o c´ıclica para operadores nilpotentes . . . . . . . . . . 16 1.3 Nu´cleo e imagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.3.1 Teorema do nu´cleo e imagem . . . . . . . . . . . . . . . . . . . . . 36 1.3.2 Projec¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 1.3.3 Subespac¸o invariantes . . . . . . . . . . . . . . . . . . . . . . . . . 47 1.3.4 Dimensa˜o do produto cartesiano . . . . . . . . . . . . . . . . . . . . 51 1.3.5 dim(U + V ) = dim(U) + dim(V )− dim(U ∩ V ). . . . . . . . . . . . 52 1.4 Representac¸a˜o matricial de operadores . . . . . . . . . . . . . . . . . . . . 54 1.4.1 Matriz de mudanc¸a de base . . . . . . . . . . . . . . . . . . . . . . 57 2 Cap´ıtulo 1 1.1 Transformac¸o˜es lineares Definic¸a˜o 1 (Transformac¸o˜es lineares). Sejam V e F espac¸os vetoriais sobre um corpo K, uma transformac¸a˜o linear A : V → F e´ uma func¸a˜o que associa cada vetor w ∈ V em um vetor u ∈ F , que simbolizaremos por A(w) = u, sendo va´lida a propriedade de linearidade A(αw + βz) = α.A(w) + βA(z) onde w, z ∈ V e α, β ∈ K arbitra´rios. A pode ser chamada de transformac¸a˜o. Corola´rio 1. A(0v) = 0F , pois A(0v) = A(0v + 0v) = A(0v) + A(0v) pela lei do corte segue que A(0v) = 0F . Propriedade 1. Vale A( n∑ k=1 ck.vk) = n∑ k=1 ck.A(vk). Definic¸a˜o 2 (Operador identidade). E´ a transformac¸a˜o I : V → V definida como I(w) = w. Corola´rio 2. O operador identidade e´ uma transformac¸a˜o linear, pois I(αw + βz) = αw + βz = αI(w) + βI(z). Definic¸a˜o 3 (Transformac¸a˜o nula). Definimos a transformac¸a˜o nula 0 : V → F como a transformac¸a˜o que faz 0v.v = 0F . 3 CAPI´TULO 1. 4 Corola´rio 3. A transformac¸a˜o nula e´ uma transformac¸a˜o linear, pois 0v.(αv + βw) = 0F = α0v(v) + β0v(w) = 0F . Definic¸a˜o 4 (Adic¸a˜o de transformac¸o˜es lineares). Dadas duas transformac¸o˜es lineares A, T de V em F , definimos a adic¸a˜o de dois operadores, que leva no operador A + T : V → F tal que (A+ T )(w) = A(w) + T (w). A+ T chamamos de soma das transformac¸o˜es lineares A e T . Corola´rio 4. A soma de duas transformac¸o˜es lineares e´ uma transformac¸a˜o linear, pois (A+ T )(αw + βv) = A(αw + βv) + T (αw + βv) = αA(w) + βA(v) + αT (w) + βT (v) = = α(A+ T )(w) + β(A+ T )(v). Corola´rio 5. A transformac¸a˜o nula serve como elemento neutro, pois (0 + A)(w) = 0v.w + A(w) = 0f + A(w) = A(w). Corola´rio 6. Vale a comutatividade (A+ T )(v) = A(v) + T (v) = T (v) + A(v) = (T + A)(v). Corola´rio 7. A adic¸a˜o e´ associativa ((A+ T ) +W )(v) = (A+ T )(v) +W (v) = A(v) + T (v) +W (v) = = A(v) + (T (v) +W (v)) = (A+ (T +W ))(v). Definic¸a˜o 5 (Produto por nu´meros escalares). Dado α ∈ K definimos αA : V → F como o operador que faz (αA)(w) = α(A(w)). Corola´rio 8. O produto por escalar e´ distributivo pois (α + β)(A)(v) = (α + β)(A(v)) = αA(V ) + βA(v) = (αA)(v) + (βA)(v). (α(A+ T ))(v) = α((A+ T )(v)) = α(A(v) + T (v)) = αA(v) + αT (v) = (αA+ αT )(v). CAPI´TULO 1. 5 Corola´rio 9. Como corola´rio temos para todo T uma transformac¸a˜o −T tal que (T − T )(v) = T (v)− T (v) = 0v. Corola´rio 10. αA e´ uma transformac¸a˜o linear , pois (αA)(βw + cv) = α(A(βw + cv)) = α(βA(w) + cA(v)) = αβA(w) + αcA(v) = = β(αA)(w) + c(αA)(v). Corola´rio 11. Produto por 1. (1A)(w) = 1(A(w)) = A(w). Definic¸a˜o 6 (Conjunto das transformac¸o˜es lineares). O conjunto das transformac¸o˜es lineares de V em F e´ simbolizado por L(V, F )., Caso V = F , podemos denotar L(V ). Definic¸a˜o 7 (Operadores lineares). Sa˜o as transformac¸o˜es lineares de um espac¸o em si mesmo A : V → V. Definic¸a˜o 8 (Funcionais lineares). Sa˜o transformac¸o˜es lineares A : V → K. Definic¸a˜o 9 (Espac¸o vetorial dual). O espac¸o vetorial dual de um espac¸o vetorial V e´ o conjunto das transformac¸o˜es lineares de V em K, L(V,K) que tambe´m pode ser denotado por V ∗, onde K e´ corpo de escalares de V . A base de um espac¸o vetorial dual e´ chamada de base dual. Propriedade 2. Seja (vk) n 1 base de E, para cada k ∈ In seja fk : E → R funcional linear com fk(vj) = δ(k,j), (fk) n 1 e´ uma base de E ∗ e vale fs(v) = xs para v = n∑ k=1 xkvk em E. Demonstrac¸a˜o. Seja v = n∑ k=1 xkvk, aplicando fs temos fs(v) = n∑ k=1 xkfs(vk) = xs. Seja f : E → R, vamos mostrar que f = n∑ k=1 ckfk CAPI´TULO 1. 6 para constantes ck ∈ K. Seja v ∈ E arbitra´rio, temos v = n∑ k=1 akvk, aplicamos f f(v) = n∑ k=1 ak︸︷︷︸ fk(v) f(vk)︸ ︷︷ ︸ ck = n∑ k=1 ckfk(v) logo (fk) n 1 gera o espac¸o. Agora provamos que os elementos sa˜o LI. Suponha que n∑ k=1 tkfk = 0 aplicamos em vs arbitra´rio, temos ts fs(vs)︸ ︷︷ ︸ 1 = 0 logo ts = 0, como e´ arbitra´rio temos todos coeficientes nulos e os vetores sa˜o LI . Exemplo 1. Os operadores lineares P, P ′, S, S ′ : R2 → R2 definidos como P (x, y) = (x, 0), P ′(x, y) = (0, x), S(x, y) = (0, y), S(x, y) = (y, 0) formam um base de L(R2). Seja f : R2 → R2 linear, enta˜o f(x, y) = xf(1, 0) + yf(0, 1) = x(c1, c3) + y(c2, c4) = (c1x+ c2y, c3x+ c4y) enta˜o temos claramente f(x, y) = c1P (x, y) + c2S ′(x, y) + c3P ′(x, y) + c4S(x, y). Tais func¸o˜es sa˜o LI, pois supondo c1P + c2P ′ + c3s+ c3S ′ = (0, 0) aplicando em (1, 0) temos c1(1, 0) + c2(0, 1) + c3(0, 0) + c4(0, 0) = (0, 0) que implicam c1 = c2 = 0, aplicando em (0, 1) temos c3(0, 1) + c4(1, 0) = (0, 0) o que implica c3 = c4 = 0 enta˜o todos coeficientes sa˜o obrigatoriamente nulos e temos uma base. CAPI´TULO 1. 7 Propriedade 3. Seja v 6= 0 em E, com dimE = n. Dado f 6= {0} existe uma trans- formac¸a˜o linear A : E → F tal que A(v) 6= 0. Demonstrac¸a˜o. Tomamos uma base de E, (vk) n 1 , definimos T (v1) = w1 6= 0 em F e T (vk) = 0 para os outros valores, da´ı T (v) = w1 6= 0. Propriedade 4. Sejam V e W espac¸os vetoriais arbitra´rios, B uma base de V e S, T : V →W transformac¸o˜es lineares T = S ⇔ V e T coincidem em todo vetor de B. Demonstrac¸a˜o. ⇒). Se duas transformac¸o˜es sa˜o iguais enta˜o elas coincidem nos vetores de uma base. ⇐). Seja w ∈ V um vetor qualquer de V , vamos mostrar que T (w) = S(w) e da´ı T e S sa˜o iguais. w se escreve como combinac¸a˜o linear de um nu´mero finito elementos da base , digamos (vk) n 1 , enta˜o w = n∑ k=1 ckvk aplicando T temos T (w) = n∑ k=1 ckT (vk) = n∑ k=1 ckS(vk) = S(w). O que prova o desejado. o mesmo resultado vale se trocamos base B por conjunto de geradores. Corola´rio 12. L(V, F ) e´ um espac¸o vetorial. Segue das propriedades que ja´ demonstra- mos. Propriedade 5. Sejam V e W espac¸os vetoriais e B uma base de V . Podemos a cada vetor uk ∈ B associar um vetor qualquer u′k ∈ W , existindo uma u´nica transformac¸a˜o linear T : V → W tal que T (uk) = u′k para cada uk ∈ B. V e W podem ser espac¸o de dimensa˜o finita ou na˜o e de dimenso˜es diferentes, sem bijec¸a˜o entre as bases. Demonstrac¸a˜o. Todo vetor v ∈ V se exprime de modo u´nico como v = n∑ k=1 ak.uk com uk ∈ B. Definimos T : V → W por T (V ) = n∑ k=1 ak.u ′ k. CAPI´TULO 1. 8 Dados v, w ∈ V e c ∈ R tem-se cv = n∑ k=1 cak.uk, e w = n∑ k=1 bk.uk enta˜o c.v + w = n∑ k=1 (cak + bk).uk logo T (cv + w) = n∑ k=1 (cak + bk).u ′ k = c n∑ k=1 ak.u ′ k + n∑ k=1 bk.u ′ k = cT (v) + T (w) portanto T : V → W e´ uma transformac¸a˜o linear. Suponha uma outra transformac¸a˜o linear A :V → W tal que A(uk) = u′k, ∀uk ∈ B, da´ı tomando v = n∑ k=1 ak.uk tem-se A(v) = A( n∑ k=1 ak.uk) = n∑ k=1 ak.A(uk) = n∑ k=1 ak.u ′ k = T (v) como o vetor e´ arbitra´rio segue que A = T. Propriedade 6. Se A ⊂ V e´ um conjunto de elementos colineares enta˜o T (A) tambe´m e´ um conjunto de elementos colineares. Demonstrac¸a˜o. Os elementos de A sa˜o da forma λv e da´ı os elementos de T (A) sa˜o da forma λT (v), por isso sa˜o colineares. Propriedade 7. Sejam A : E → F linear, C ⊂ E convexo, enta˜o A(C) ⊂ F e´ convexo. O mesmo vale para C uma variedade afim, A(C) e´ uma variedade afim. Demonstrac¸a˜o. Sejam y, y′ ∈ A(C) vamos mostrar que ty + (1 − t)y′ ∈ A(C) para t ∈ [0, 1]. y = A(x), y′ = A(x′), tx + (1 − t)x′ ∈ C para t ∈ [0, 1] por convexidade de C da´ı A(tx+ (1− t)x′) ∈ A(C) e vale A(tx+ (1− t)x′) = tA(x) + (1− t)A(x′) = ty + (1− t)y′ ∈ A(C) como quer´ıamos demonstrar. A demonstrac¸a˜o para variedade afim funciona tomando t ∈ R arbitra´rio . Exemplo 2. Seja A : R2 → R2 linear com A(x, y) = (ax+ by, cx+ dy) com ad− bc 6= 0 enta˜o A(v) = 0⇒ v = 0, isto e´, A e´ injetiva. CAPI´TULO 1. 9 ax+ by = 0cx+ dy = 0 multiplicando a primeira por d e a segunda por b temos adx+ bdy = 0cbx+ bdy = 0 subtraindo a primeira da segunda, segue (ad− bc)x = 0⇒ x = 0 como b e d na˜o podem ser ambos nulos isso implica y = 0, portanto v = (x, y) = 0. Exemplo 3. Se duas transformac¸o˜es lineares sa˜o ideˆnticas num conjunto de geradores de V espac¸o vetorial, enta˜o as transformac¸o˜es lineares sa˜o a mesma transformac¸a˜o em V , pois um conjunto de geradores possui uma base, sendo transformac¸o˜es ideˆnticas numa base implica que sa˜o ideˆnticas. Definic¸a˜o 10 (Transformac¸a˜o afim). A : V → F linear entre espac¸os vetoriais e´ dita transformac¸a˜o afim quando vale A((1− t)u+ tv) = (1− t)A(u) + tA(v) ∀u, v ∈ V, t ∈ R. Propriedade 8. Nas condic¸o˜es da definic¸a˜o anterior, se E ⊂ V e´ variedade afim enta˜o A(E) e´ variedade afim. 1. Se A(0) = 0 enta˜o A e´ linear. 2. Dada T : V → F linear, enta˜o A : V → F com A(v) = T (v) + b e´ afim com b ∈ F fixo. 3. A : V → F e´ afim ⇔ existe T ∈ L(V, F ) e b ∈ F com A(v) = T (v) + b ∀v ∈ V. Demonstrac¸a˜o. Sejam y, y′ ∈ A(E) vamos mostrar que ty + (1 − t)y′ ∈ A(E) para t ∈ R. y = A(x), y′ = A(x′), tx + (1− t)x′ ∈ E para t ∈ R por E ser variedade afim da´ı A(tx+ (1− t)x′) ∈ A(E) e vale A(tx+ (1− t)x′) = tA(x) + (1− t)A(x′) = ty + (1− t)y′ ∈ A(C) como quer´ıamos demonstrar. CAPI´TULO 1. 10 1. Escrevemos cv = (1− c)0 + cv, da´ı A(cv) = (1− c)A(0) + cA(v) = cA(v), c ∈ R. A( u 2 + v 2 ) = 1 2 (A(u) + A(v)) = 1 2 A(u+ v)⇒ A(u) + A(v) = A(u+ v). Enta˜o A e´ linear . 2. Dada T : V → F linear, enta˜o A : V → F com A(v) = T (v) + b e´ afim com b ∈ F fixo. Sejam u, v ∈ V , temos tu+ (1− t)v ∈ V , aplicamos A A(tu+(1−t)v) = T (tu+(1−t)v)+b = tT (u)+(1−t)T (v)+b = t[T (u)+b]+(1−t)[T (v)+b] = tA(u)+(1−t)A(v). 3. ⇐). Ja´ vimos A(v) = T (v) + b e´ afim. ⇒) Se A e´ afim, enta˜o T : V → F com T (v) = A(v)− A(0) e´ linear pois T (0) = 0 e e´ afim pois T (tu+(1−t)v) = A(tu+(1−t)v)−A(0) = tA(u)+(1−t)A(v)−A(0) = t[A(u)−A(0)]+(1−t)[A(v)−A(0)] = t[T (u)]+(1−t)[T (v)] T sendo afim e T (0) = 0 enta˜o T e´ linear, por isso A(v) = T (v) + A(0)︸︷︷︸ b . 1.2 Produto de transformac¸o˜es lineares Definic¸a˜o 11 (Produto de transformac¸o˜es lineares). Dadas as transformac¸o˜es lineares A : V → W e T : W → G definimos o produto TA das transformac¸o˜es lineares como a transformac¸a˜o TA : V → G tal que ∀w ∈ V tem-se (TA)(w) := T (A(w)). Propriedade 9. O produto de transformac¸o˜es lineares e´ linear. Demonstrac¸a˜o. (TA)(cv+w) = T (A(c.v+w)) = T (c.A(v)+A(w)) = cT (A(v))+T (A(w)) = c(TA)(v)+(TA)(w). Corola´rio 13. Vale a associatividade (TA)W = T (AW ) pois a composic¸a˜o de aplicac¸o˜es e´ associativa. Propriedade 10. A adic¸a˜o e´ totalmente distributiva em relac¸a˜o a multiplicac¸a˜o. CAPI´TULO 1. 11 Demonstrac¸a˜o. ((T + A)W )(v) = (T + A)(W (v)) = T (W (v)) + A(W (v)) = (TW )(v) + (AW )(v) (W (T+V ))(v) = W ((T+V )(v)) = W (T (v)+V (v)) = W (T (v))+W (V (v)) = (WT )(v)+(WV )(v). Propriedade 11. Para cada c ∈ K, T,W ∈ L(V ) temos que c(TW ) = (cT )W = T (cW ). Demonstrac¸a˜o. Dado um vetor qualquer v ∈ F c(TW )(v) = (cT )W (v) = T (cW )(v) por linearidade dos operadores. Corola´rio 14. L(V, V ) e´ uma a´lgebra linear com unidade I, operador identidade. Exemplo 4. Na˜o vale necessariamente a comutatividade para o produto de transformac¸o˜es como por exemplo A(x, y) = (0, x), B(x, y) = (y, 0) enta˜o AB(x, y) = A(y, 0) = (0, y) BA(x, y) = B(0, x) = (x, 0) que na˜o comutam. Na˜o vale a lei do corte, podemos ter TA = BT com A,B, T na˜o nulos na˜o implicando A = B. tomando T (x, y) = (x, 0) segue que TA(x, y) = T (0, x) = (0, 0) BT (x, y) = B(x, 0) = (0, 0) logo TA = BT pore´m B neqA e A,B, T sa˜o na˜o nulos. Ale´m disso T e´ na˜o invert´ıvel, se fosse A = T−1BT = 0 absurdo. CAPI´TULO 1. 12 Definic¸a˜o 12 (Poteˆncias de um operador ). Definimos a poteˆncia An, para n natural como An = n∏ k=1 A como o produto de n vezes o operador A por ele mesmo. Em especial se n = 0, definimos A0 = I = 0∏ k=1 A, e´ o operador identidade. Definimos tambe´m o produto´rio de operadores n∏ k=1 Ak como aplicar o operador n vezes, caso n = 0 denotamos como a identidade I. Exemplo 5. No espac¸o vetorial dos polinoˆmios o operador Dx−xD e´ a identidade, onde x e´ o operador que multiplica p polinoˆmio por x. D(xp)− x(Dp) = p+ xp′ − xp′ = p = Ip. Definic¸a˜o 13 (Operador nilpotente.). Um operador T : V → V chama-se nilpotente quando existe algum n ∈ N tal que T n = 0. Definic¸a˜o 14 (Matriz nilpotente). Uma matriz A, n×n para algum n natural e´ dita ser nilpotente se existe algum k tal que Ak = 0. Propriedade 12. Uma matriz nilpotente na˜o e´ invert´ıvel, ou de forma equivalente, possui determinante nulo. Demonstrac¸a˜o. Suponha que A seja nilpotente enta˜o existe t ∈ N tal que At = 0 aplicando o determinante temos det(A)t = 0 logo det(A) = 0 a matriz e´ na˜o invers´ıvel . Propriedade 13. Se Bt+1 = 0 enta˜o I −B possui inversa sendo t∑ s=0 Bk. CAPI´TULO 1. 13 Demonstrac¸a˜o. (I −B) t∑ s=0 Bk = − t∑ s=0 (Bk+1 −Bk) = −(Bt+1︸︷︷︸ 0 −B0) = I. Definic¸a˜o 15 (´Indice de um operador Nilpotente). O ı´ndice de um operador nilpotente T e´ o menor ı´ndice k ∈ N tal que T k = 0 e T k−1v 6= 0 para algum v ∈ V. Denotaremos tal nu´mero por I(T ). Se um operador e´ nilpotente enta˜o ele possui um ı´ndice de nilpoteˆncia inteiro positivo, na˜o vale T 0 = 0 pois T 0 = I. Propriedade 14. Seja A : V → V nilpotente, enta˜o existe v 6= 0 em V tal que A(v) = 0, em especial V na˜o e´ injetora e por isso na˜o e´ invert´ıvel. Demonstrac¸a˜o. Seja s o ı´ndice de nilpoteˆncia de A, enta˜o existe v′ 6= 0 tal que As−1(v′) := v 6= 0, se fosse As−1(v) = 0 ∀v ∈ V o ı´ndice seria s− 1, enta˜o A(As−1(v′)) = A(v) = 0 e v 6= 0. Exemplo 6. Seja Pn = {P ∈ K[x], ∂P ≤ n}∪{0} e D : Pn → Pn, D o operador derivada, enta˜o D e´ nilpotente pois Dn+1 = 0 e para todo k ≤ n temos Dkxk 6= 0, enta˜o seu ı´ndice e´ n+ 1. Propriedade 15. Seja v ∈ V tal que T s(v) = 0 e T s−1(v) 6= 0 enta˜o os vetores (T k(v))s−1k=0 sa˜o LI. Demonstrac¸a˜o. Seja s−1∑ k=0 ckT k(v) = 0 aplicamos T s−1 s−1∑ s=0 ckT k+s−1(v) = c0T s−1(v) + s−1∑ s=1 ckT k+s−1(v) = c0T s−1(v) + s−2∑ k=0 ckT k+s(v)︸ ︷︷ ︸ =0 = 0 logo c0 = 0, seguimos indutivamente aplicando agora T s−2 que anula todos outros termos e deixa c1T s−1(v) = 0 logo c1 = 0, continuando o processo chegamos que cada ck = 0 enta˜o os vetores sa˜o LI. CAPI´TULO 1. 14 Propriedade 16. Seja V com dimV = n, T : V → V linear. Se existe s tal que T s = 0 enta˜o T n= 0. Demonstrac¸a˜o. Suponha que T n 6= 0 enta˜o existe v ∈ V tal que T n(v) 6= 0 e da´ı todas poteˆncias T k(v) 6= 0 com k < n pois caso contra´rio T n(v) = 0. O conjunto dos elementos (T k(v))nk=0 e´ LI e possui n+1 elementos em V o que e´ absurdo, enta˜o tem que vale T n(v) = 0 ∀v logo T n e´ nulo . Corola´rio 15. Se dimV = n e T : V → V e´ nilpotente enta˜o o ı´ndice de T , I(T ) ≤ n. Propriedade 17. Seja V espac¸o vetorial dimV = n, T um operador nilpotente de V , I(T ) = k. Seja w ∈ V tal que T s−1w 6= 0 e considere W = S(T kw)s−10 que possui dimensa˜o s pelo que ja´ provamos. Enta˜o existe um subespac¸o U ≤ V tal que 1. W e´ T invariante. 2. V = W ⊕ U. 3. U e´ T invariante. Demonstrac¸a˜o. 1. Dado v ∈ W ele e´ da forma v = s−1∑ k=0 ckT kw aplicando T temos t(v) = s−1∑ k=0 ckT k+1w = s∑ k=1 ck−1T kw = s−1∑ k=1 ck−1T kw ∈ W. Provaremos por induc¸a˜o sobre s, para s = 1, T = 0, sendo w 6=∈ V W = s(w), qualquer U < V e´ T -invariante logo escolhemos U tal que V = W ⊕V , basta por exemplo completar (w) para uma base de V , os outros elementos que colocarmos nessa base sa˜o geradores de U . Qualquer subespac¸o e´ T -invariante pois T e´ nulo. Assumindo que o lema vale para todo operador com ı´ndice menor que s. Tomamos F = ImT < V . Note que CAPI´TULO 1. 15 F = {Tv, v ∈ V }, T |F e´ nilpotente com I(T |F ) = s − 1. O lema vale para T |F , enta˜o escolhemos Tw ∈ F e temos T s−2(Tw) 6= 0. Seja w0 = S(T kw)s−11 , logo existe U0 < F tal que F = W0 ⊕ U0 e U0 e´ T |F invariante. Resumindo temos 1. F = U0 ⊕W0 = ImT. 2. U0 e´ T invariante. 3. Definimos U1 = T −1(U0) = {v ∈ V, Tv ∈ U0}, U1 e´ T invariante, pois v ∈ U1 ⇔ T (v) ∈ U0, tomando w ∈ U1 temos que mostrar que T (w) ∈ U1 , isto e´, T 2(w) ∈ U0, pore´m como U0 e´ T -invariante e T (w) ∈ U0 segue que T 2(w) ∈ U0 e da´ı T (w) ∈ U1. Afirmamos que V = W + U1, que iremos provar. Observe que para todo v ∈ V temos Tv ∈ F ⇒ Tv = u0 + w0, u0 ∈ U0 e w0 ∈ W0, onde w0 = s−1∑ k=1 ckT kw. Lembrando que W = S(T k)k−10 , isso implica que w0 ∈ W ale´m disso w0 = T (w′) onde w′ = s−1∑ k=1 ckT k−1w ∈ W , portanto Tv = u0 + T (w ′), w ∈ W ⇒ u0 = T (v − w)⇒ v − w ∈ U1 ⇒ v = w︸︷︷︸ ∈W +(v − w)︸ ︷︷ ︸ ∈U1 ∈ W + U1. Vamos mostrar agora que U0∩W = {0}. Seja w′ na intersec¸a˜o T (w′) ∈ T (U0)︸ ︷︷ ︸ ⊂TU1 ∩T (W )︸ ︷︷ ︸ ⊂W0 logo T (w′) = 0. Como w′ ∈ W temos w′ = s−1∑ k=0 ckT kw ⇒ 0 = Tw′ = s−1∑ k=0 ckT k+1w = s−2∑ k=0 ckT k+1w como os termos sa˜o LI segue que ck = 0 de k = 0 ate´ k = s−2, da´ı w′ = cs−1T s−1w, disso segue que w′ ∈ W0, w′ ∈ U0 ∩W0 enta˜o w′ = 0. Considere os subespac¸os de U1, U0 < U1 e W ∩ U1 < U1, seja U ′ tal que U1 = (U ′ ⊕ U0)⊕ (W ∩ U1) lembre que dado V1 < V existe V2 < V tal que V = V1 ⊕ V2, bastando completar uma base de V1 a uma base de V2. Definindo U = U ′ ⊕ U0 enta˜o temos V = W + U1 , U1 = U ′ + U0 +W ∩ U1 ⇒ ∀v ∈ V CAPI´TULO 1. 16 v = w + u1 mas u1 = u ′ + u0 + w′ ⇒ v = (w + w′)︸ ︷︷ ︸ ∈W +(u′ + u0)︸ ︷︷ ︸ ∈U ⇒ V = W + U . A soma e´ direta pois U1 = (U ′ ⊕ U0)⊕ (W ∩ U1), U = U ′ ⊕ U0 ⊂ U1 ⇒ V = W ⊕ U pois vale tambe´m W ∩ U ⊂ (W ∩ U1) ∩ U = {0} U e´ T invariante pois T (U) ⊂ T (U1) ⊂ T (U0) ⊂ U. 1.2.1 Decomposic¸a˜o c´ıclica para operadores nilpotentes Propriedade 18 (Decomposic¸a˜o c´ıclica para operadores nilpotentes). Seja V espac¸o vetorial de dimensa˜o finita e T operador nilpotente, enta˜o existem inteiros, sendo k o ı´ndice de T , k ≥ k1 ≥ · · · kr ≥ 1 unicamente determinados e vetores (vk) r 1 ∈ V tais que T kjvj = 0∀j ∈ Ir tais que os vetores (v1, T v1, · · · , T k1−1v1, v2, T v2, · · · , T k2−1v2, · · · vr, T vr, T kr−1vr) formam uma base de V em particular 1. r = dimN(T ) 2. dimV = r∑ k=1 Kk. Demonstrac¸a˜o. Tome v1 ∈ V tal que T k−1v1 6= 0, pois T e´ de ı´ndice K, seja W1 = S(T sv1) k−1 0 , logo dimW1 = k, escolhemos k1 = k, existe U1 < V T -invariante tal que V = W1⊕U1, tomamos T |U1U1 → U1, temos que T |U1 e´ nilpotente (pois T e´ nilpotente) de ı´ndice K2 ≤ K, logo existe v2 ∈ U1 tal que T k2−1v2 6= 0. Se W2 = S(T sv2)k2−10 , existe U2 < U1 que e´ T |U1- invariante e U1 = W2 ⊕ U2. iterando o racioc´ınio, obtemos uma cadeia decrescente U ⊃ U1 ⊃ U2 que deve terminar pois dimV < ∞, logo o u´ltimo elemento da cadeia e´ Ur = {0}, conseguimos inteiros k ≥ k1 ≥ · · · kr ≥ 1 CAPI´TULO 1. 17 e (vk) r 1 tais que Ws = S(T jvs) ks−1 j=0 com V = W1 ⊕ U1 = W1 ⊕W2 ⊕ U2 = r⊕ j=1 Wj. Assim (v1, T v1, · · · , T k1−1v1, v2, T v2, · · · , T k2−1v2, · · · vr, T vr, T kr−1vr) forma uma base de V , a soma de seus elemento fornece a dimensa˜o. Veremos agora que r = dimN(T ). Por um lado temos T kj−1vj na˜o nulo em N(T ) isso implica que N(T ) ≥ r. Por outro lado dimN(T ) = dimV − dimIm(T ) ⇒ dimIm(T ) = dimV − dimN(T ), como dimIm(T ) + r ≥ dim(V ) logo dimIm(T ) = dimV − dimN(T ) ≥ dim(V )− r disso segue que dimN(T ) ≤ r e com a outra desigualdade temos dimN(T ) = r. O teorema pode ser colocado de maneira matricial. Seja A ∈ Mn×n nilpotente de ı´ndice K, enta˜o existem inteiros K = k1 ≥ k2 ≥ · · · kr ≥ 1 uniformemente determinados tais que A e´ semelhante a uma matriz em blocos Nk1 · · · 0 ... · · · ... 0 · · · Nkr onde Nks = 0 · · · 0 · · · 0 1 · · · 0 · · · 0 0 ... · · · · · · 0 ... · · · · · · · · · 0 0 · · · 0 1 0 , Nks ∈MKs×Ks Definic¸a˜o 16 (Sistema de invariantes). No resultado anterior a sequeˆncia (ks) r 1 e´ dita ser um sistema de invariantes de T . Exemplo 7. Ache todos os operadores nilpotentes de ı´ndice 3 em um espac¸o de dimensa˜o 7. Os poss´ıveis sistemas de invariantes k1 ≥ · · · kn sa˜o soluc¸o˜es de CAPI´TULO 1. 18 7∑ s=1 ks = 7 k1 = 3 as poss´ıveis soluc¸o˜es sa˜o (3, 3, 2) (3, 2, 2) (3, 2, 1, 1) (3, 1, 1, 1) os blocos relacionados a 3, 2, 1 sa˜o respectivamente 0 0 0 1 0 0 0 1 0 , 0 0 1 0 , [0] que sa˜o colocadas em blocos dentro de uma matriz 7× 7. Propriedade 19. Se T k = 0 e existe v ∈ V tal que T k−1v 6= 0 implica T h 6= 0 ∀h < k enta˜o K e´ ı´ndice de T . Demonstrac¸a˜o. Propriedade 20. Seja T : V → V operador nilpotente de ı´ndice k, enta˜o existem k = k1 ≥ k2 ≥ · · · kr ≥ 1 unicamente determinado e vetores (vk) r 1 ∈ V tal que T kj(vj) = 0 ∀j ∈ Ir e os v1T (v1), · · · , T k1−1v1 ... vr, T vr, · · · , T kr−1v1 formam base de V , em particular r∑ k=1 kj = dimV e r = dimN(T ). CAPI´TULO 1. 19 Demonstrac¸a˜o. Prova da existeˆncia. Vamos lembrar o procedimento de prova do teorema do nu´cleo e imagem. Dado T : V → V , sabemos que dimV = dimN(T ) + dimIm(T ), que pode ser feito tomando (wk) s 1 base de Im(T ), (uk) t 1 base de N(T ). Se (vk) s 1 e´ tal que T (vk) = wk temos que (vk) s 1 ∪ (uk)t1 e´ base de V . Provamos o resultado . Seja F = Im(T ) que e´ invariante por T de ı´ndice k, implica { T k−1(T (v)) = 0 ∀ Tv ∈ ImT ∃w | T k−2Tw 6= 0⇒ I(T |F ) = k − 1. Provamos o teorema sobre induc¸a˜o sobre k, se k = 1 enta˜o cada ks = 1, T = 0, qualquer base satisfaz o teorema. Por hipo´tese de induc¸a˜o o teorema vale para T |F . Existem inteiros l1 = k − 1 ≥ l2 ≥ · · · ls ≥ 1 e vetores (wk)s1 em F , tais que Base de F com T lj(wj) = 0 por hipo´tese de induc¸a˜o w1, T (w1), · · · , T l1−1(w1) ... ws, T (ws), · · · , T l1−1(ws) temos T lj−1(wj) ∈ N(T ), ∀j ∈ Is. Aplicamos teorema de nu´cleo-imagem. Sejam (xk)t1 tais que {T l1−1(w1), · · · , T ls−1(ws), x1, · · · , xt} seja base de N(T ). Sejam (vk) s 1 tais que T (vk) = wk, k ∈ Is. Logo uma base de V e´ v1, T (v1), · · · , T l1v1 ... vs, T (vs), · · · , T lsvs x1, · · · xt onde esses u´ltimos elementos completam uma base de N(T ). Logo obtemosuma base como no enunciado tomando k1 = l1 + 1, · · · , ks = ls + 1, ks+1 = 1, · · · , kt = 1. CAPI´TULO 1. 20 Exemplo 8. Seja T : R5 → R5 com T (e1) = e3, T (e2) = e4, T (e3) = e5, T (e4) = T (e5) = 0. Vale que T 3 = 0 e T 2 6= 0 pois T 2(e1) = T (e3) = e5 6= 0. Logo temos o ı´ndice 3. Im(T ) = S(e3, e4, e5), I(T |ImT ) = 2 e3, T (e3) = e5e4 logo temos 2 ≥ 1 ≥ 1 como sistema de invariantes. Temos ainda N(T ) = S(Te3, e4), uma base de V e´ e1, T (e1), T 2(e1) e2, T (e2) com k1 = 3 ≥ k2 = 2 ≥ 1. Nesta base T tem a matriz 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 0 = N3 0 0 N2 Lembre a versa˜o matricial do teorema da´ uma base onde o operador tem a matriz Nk · · · 0 ... · · · 0 0 · · · Nkn onde Nk = 0 · · · 0 1... · · · 0 0 · · · 1 0 k×k neste problema as duas informac¸o˜es determinam a forma canoˆnica de T . Propriedade 21. Seja C(A) o conjunto dos operadores lineares T : E → E que comutam com o operador A ∈ L(E). C(A) e´ subespac¸o vetorial de L(E) e se X,Y ∈ C(A) enta˜o XY ∈ C(A). CAPI´TULO 1. 21 Demonstrac¸a˜o. 0 ∈ C(A) pois comuta com A e qualquer outro operador. 0(A(v)) = 0 = 0(A(v)). Sejam T e P em C(A) e c ∈ K, enta˜o cT + P ∈ C(A) pois (cT + P )(A(v)) = cT [A(v)] + P [A(v)] = A[cT (v) + P (v)] = A(cT + P )(v). XY A(v) = XAY (v) = AXY (V ). 1.3 Nu´cleo e imagem Definic¸a˜o 17 (Imagem). A imagem de T : V →W e´ o conjunto definido como Im(T ) := {m ∈ W | m = T (u) com u ∈ V }. Propriedade 22. Im(T ) e´ um subespac¸o vetorial de W . Demonstrac¸a˜o. Como T e´ linear, temos T (0v) = 0w logo 0w ∈ Im(T ). Dado u′ ∈ Im(T ) e v′ ∈ Im(T ) enta˜o existem u ∈ V e v ∈ V tais que T (u) = u′ e T (v) = v′, da´ı T (u) + T (v) = u′ + v′ = T (u + v) assim u′ + v′ e´ imagem de um elemento de V . Dado α ∈ R e u′ ∈ Im(t) tem-se u ∈ V tal que T (u) = u′ e vale αT (u) = α.u′ = T (αu) logo αu′ e´ imagem de um elemento de V . Definic¸a˜o 18 (Transformac¸a˜o sobrejetiva). Dada T : V → W se Im(T ) = W enta˜o a transformac¸a˜o T e´ dita sobrejetiva. Definic¸a˜o 19 (Inversa a` direita). Uma transformac¸a˜o linear A : V → W e´ dita uma inversa a` direita de T : W → V quando vale TA = Iv. CAPI´TULO 1. 22 Propriedade 23. Sejam V e W espac¸os vetoriais de dimensa˜o finita. A : V →W possui inversa a` direita T ∈ L(W,V ) sse A for sobrejetora. Demonstrac¸a˜o. ⇒ Suponha que exista uma inversa a` direita T , enta˜o vamos mostrar que A e´ sobrejetiva, isto e´, ∀u ∈ W existe m ∈ V tal que A(m) = u. Como T e´ inversa a` direita, enta˜o dado u ∈ W tem-se A(T (u)︸︷︷︸ m∈V ) = A(m) = u, logo realmente A e´ sobrejetiva. ⇐ Tomamos uma base B = {wk | k ∈ Im} ⊂ W como A e´ sobrejetiva, existem vetores (vk) m 1 ∈ V tais que A(vk) = wk, por teorema ja´ provado, existe uma transformac¸a˜o linear T : W → V tal que T (wk) = vk, enta˜o para todo u ∈ w tem-se A(T (u)) = u, pois u = m∑ k=1 αkwk e da´ı A(T (u)) = A( m∑ k=1 αkT (wk)) = A( m∑ k=1 αkvk) = m∑ k=1 αkA(vk) = m∑ k=1 αkwk = u. Definic¸a˜o 20 (Nu´cleo de uma transformac¸a˜o linear). O nu´cleo de uma transformac¸a˜o linear T : V → W e´ o conjunto definido como N(T ) := {u ∈ V | T (u) = 0w}. Exemplo 9. N(0) = V , o nu´cleo do operador nulo de V → W e´ V , pois dado qualquer v ∈ V temos O(v) = 0. Propriedade 24. N(T ) e´ um subespac¸o vetorial de V . Demonstrac¸a˜o. 0v ∈ N(T ) pois T (0v) = 0w Sejam v, u ∈ N(T ) enta˜o T (v) = 0w e T (u) = 0w, como a transformac¸a˜o e´ linear vale T (v + u) = T (v) + T (u) = 0w + 0w = 0w enta˜o v + u ∈ N(T ). Seja c ∈ R e v ∈ N(T ) enta˜o T (v) = 0w e cT (v) = 0w = T (c.v) implicando que c.v ∈ N(T ). Enta˜o o nu´cleo e´ um subespac¸o de V . Propriedade 25. Seja A : E → E. A2 e´ identicamente nula ⇔ ∀v ∈ E tem-se A(v) ∈ N(E). Em s´ımbolos A2 = 0⇔ Im(A) ⊂ N(A). CAPI´TULO 1. 23 Demonstrac¸a˜o. ⇒). Temos A(A(v)) = 0∀v ∈ E logo A(v) ∈ N(E). ⇐). Se ∀v ∈ E temos A(v) ∈ N(E) enta˜o A(A(v)) = 0 por definic¸a˜o de nu´cleo. Exemplo 10. Seja E = C0(R) o espac¸o das func¸o˜es cont´ınuas f : R → R. Definimos o operador A : E → E com A(f) = g tal que g(x) = ∫ x 0 f(t)dt. Determine o nu´cleo e imagem do operador. g e´ deriva´vel, da´ı g′(x) = f(x), se g e´ nula, enta˜o sua derivada se anula e portanto f e´ nula, enta˜o no nu´cleo temos apenas a func¸a˜o nula. A imagem e´ constitu´ıda das func¸o˜es C1(R) tais que g(0) = 0. Pois se f e´ cont´ınua enta˜o g e´ deriva´vel com g′ = f cont´ınua, portanto e´ C1. Ale´m disso se temos g, c1, g′ e´ deriva´vel e temos∫ x 0 g′(t)dt = g(x). Portanto g com tais propriedades pertence a imagem. Exemplo 11. Sejam F1, F2 subespac¸os de E tais que dim(F1) + dim(F2) = n = dimE, enta˜o existe operador linear A : E → E tal que F1 = N(A) e F2 = Im(A). Tomamos uma base de F1, BF1 = {v1, · · · , vm}, completamos a uma base de E, BE = {(vk)m1 , (wk)s1}, tomamos uma base de F2, BF2 = {(tk)l1}, temos que m + s = n = m + l, logo s = l, o nu´mero de elementos na base de F2 e´ igual ao nu´mero de elementos que usamos para completar a base de F1. Definimos A da seguinte maneira A(vk) = 0, A(wk) = tk∀k temos que F1 ⊂ N(A), pois dado x ∈ F1 temos x = m∑ k=1 ckvk ⇒ A(x) = m∑ k=1 ckA(vk) = 0 CAPI´TULO 1. 24 vale IM(A) ⊂ F2, pois dado x ∈ E ele e´ da forma x = m∑ k=1 ckvk + s∑ k=1 bkwk ⇒ A(x) = s∑ k=1 bktk ∈ F2 ale´m disso F2 ⊂ Im(A), pois dado x ∈ F2 ele e´ da forma x = s∑ k=1 bktk da´ı existe y ∈ E da forma, y = s∑ k=1 bkwk tal que A(y) = x. Da identidade dimIm(A) + dimN(A) = n com dimIm(A) = dimF2 segue que dimF1 = dimN(A) como F1 ⊂ N(A) temos a igualdade F1 = N(A). Propriedade 26. Seja A : R2 → R2 linear , na˜o nulo. Se An = 0 para n > 2 enta˜o A2 = 0. Demonstrac¸a˜o. Seja F = Im(A), se dimF = 0 enta˜o dimN(A) = 2 e A = 0o que na˜o pode ser. Se dimF = 2 enta˜o dimN(A) = 0 e N(A) = {0}, A e´ injetora, de dimensa˜o finita enta˜o A e´ sobrejetora, portanto invert´ıvel I = An(A−1)n = 0 absurdo. Enta˜o dimF = 1 ele tem um gerador v 6= 0, como A(v) ∈ Im(A) temos A(v) = c(v), c ∈ R enta˜o indutivamente temos An(v) = cnv = 0 logo c = 0, isto e´, A(v) = 0, tomamos w ∈ R2 arbitra´rio, temos A(w) = cv pois A(w) ∈ Im(A) da´ı A2(w) = cA(v) = 0, isto e´, A2 = 0. Definic¸a˜o 21 (Transformac¸a˜o injetiva). Um transformac¸a˜o T e´ injetiva se v 6= u implica T (v) 6= T (u). Propriedade 27. T ∈ L(V,W ) e´ injetora sse N(T ) = {0v}. CAPI´TULO 1. 25 Demonstrac¸a˜o. ⇒ Seja T injetora, T (u) = 0w = T (0v) enta˜o u = 0v o que implica N(T ) = {0v}. ⇐ Suponha que N(T ) = {0v} enta˜o T (u) = T (u′) implica T (u) − T (u′) = 0w = T (u− u′) da´ı u− u′ = 0v o que implica u = u′ sendo assim a transformac¸a˜o e´ injetora. Propriedade 28. Uma transformac¸a˜o linear e´ injetiva⇔ leva vetores LI em vetores LI. Demonstrac¸a˜o. ⇒ Sejam T : V → W uma transformac¸a˜o linear injetiva e os vetores (vk) n 1 ∈ V linearmente independentes. Suponha n∑ k=1 αkT (vk) = 0w enta˜o T ( n∑ k=1 αkvk) = 0w = T (0v) como T e´ injetora segue que n∑ k=1 αkvk = 0v como os vetores sa˜o LI tem-se αk = 0, da´ı tais T (vk) sa˜o LI. ⇐ . Provamos a contrapositiva. Suponha T na˜o injetora, enta˜o existem v, w ∈ V tais que T (v) = T (w) e v 6= w v = n∑ k=1 akvk, w = n∑ k=1 bkvk com ak 6= bk, como a transformac¸a˜o e´ linear temos T (v − w) = 0v ⇒ n∑ k=1 (ak − bk)T (vk) = 0 com ak − bk 6= 0 pelo menos para algum ı´ndice enta˜o os vetores T (vk) na˜o sa˜o LI, como quer´ıamos demonstrar. Exemplo 12. Se V 6= F com T : V → F transformac¸a˜o linear entre espac¸os vetoriais. Pode acontecer de (T (vk)) n 1 gerar F pore´m (vk) n 1 na˜o gerar V . Por exemplo considere T : R3 → R2 com T (x, y, z) = (x, y) atransformac¸a˜o e´ linear pois T ((x, y, z) + c(w, k, j)) = (x+ cw, y + ck) = T ((x, y, z)) + T (c(w, k, j)) = (x, y) + c(w, k). Vale que T (1, 0, 0) = (1, 0) e T (0, 1, 0) = (0, 1) geram R2, pore´m (1, 0, 0) e (0, 1, 0) na˜o gera R2. CAPI´TULO 1. 26 Propriedade 29. Seja T : V → F . Se (T (vk))n1 sa˜o LI enta˜o (vk)n1 sa˜o LI. Demonstrac¸a˜o. Suponha (T (vk)) n 1 sa˜o LI enta˜o n∑ k=1 ckT (vk) = 0⇔ ck = 0∀k seja n∑ k=1 ckvk = 0 enta˜o aplicando T temos n∑ k=1 ckT (vk) = 0⇔ ck = 0∀k logo (vk) n 1 sa˜o LI. Corola´rio 16. Por contrapositiva da proposic¸a˜o anterior temos que se (vk) n 1 sa˜o LD enta˜o (T (vk)) n 1 sa˜o LD. Propriedade 30. Seja T : V → V com (T (vk))n1 gerando V enta˜o (vk)n1 gera V . Demonstrac¸a˜o. O espac¸o V tem dimensa˜o finita, de (T (vk)) n 1 extra´ımos uma base (T (vk)) m 1 (trocando nome se necessa´rio), (vk) m 1 sa˜o vetores LI pelo resultado anterior, sendo m deles, geram V , pois V possui dimensa˜o m. Propriedade 31. Se (vk) n 1 sa˜o LD enta˜o (T (vk)) n 1 sa˜o LD. Demonstrac¸a˜o. Por (vk) n 1 serem LD, existem constantes na˜o todas nulas (ck) n 1 , tais que n∑ k=1 ckvk = 0 aplicando a transformac¸a˜o T temos n∑ k=1 ckT (vk) = 0 logo (T (vk)) n 1 sa˜o LD. Propriedade 32. Se A(u) e A(v) sa˜o LD enta˜o A(T (u)) e A(T (v)) sa˜o LD, quando o espac¸o V tenha dimensa˜o 2. CAPI´TULO 1. 27 Demonstrac¸a˜o. Se (u, v) e´ LD enta˜o A(T (u)) e A(T (v)) sa˜o LD. Caso sejam LI, temos uma base para o espac¸o e T (u) = c1u+ c2v T (v) = c3u+ c3v aplicamos o operador A, temos A(T (u)) = c1A(u) + c2A(v) A(T (v)) = c3A(u) + c3A(v) A(u) e A(v) sa˜o LD, enta˜o um e´ mu´ltiplo do outro, supondo sem perda de generalidade que seja A(v) = lA(u), substituindo na equac¸a˜o anterior temos A(T (u)) = (c1 + c2)(lA(u)) A(T (v)) = (c3 + c3)(lA(u)) se um deles e´ nulo temos vetores LD, caso contra´rio nenhum deles e´ nulo enta˜o A(T (u)) = (c1 + c2) (c3 + c3) A(T (v)) logo sa˜o vetores LD, como quer´ıamos provar. Exemplo 13. Ja´ vimos que T leva vetores LI em vetores LI, ⇔ e´ injetora, agora damos um exemplo de transformac¸a˜o que leva vetores LI em LD. Considere um espac¸o com vetores (vk) n 1 , LI, a transformac¸a˜o nula T (v) = 0 ∀v leva os vetores LI em {0} que e´ um conjunto LD. Propriedade 33. Sejam A : V → F linear, V e F sobre um corpo K. ∀b ∈ Im(A) o conjunto Vb = {x ∈ v | A(x) = b} e´ uma variedade afim de V paralela a` N(A). Demonstrac¸a˜o. Se Vb e´ vazio terminamos, supomos enta˜o na˜o vazio. Sejam x, y ∈ Vb vamos mostrar que ∀t ∈ K temos tx+ (1− t)y ∈ Vb, aplicamos A A(tx+ (1− t)y) = tA(x) + (1− t)A(y) = tb+ (1− t)b = b logo e´ uma variedade afim. Ale´m disso e´ paralela a` N(A), sendo x0 ∈ V tal que A(x0) = b temos que x0 +N(A) = Vb, pois x0 +N(A) ⊂ Vb, dado y ∈ N(A) temos x0 + y ∈ Vb pois A(x0 + y) = A(x0) + A(y) = b⇒ x0 + y ∈ Vb ⇒ x0 +N(A) ⊂ Vb CAPI´TULO 1. 28 agora a outra inclusa˜o, tomando x ∈ Vb podemos escrever x = x−x0+x0 pois A(x−x0) = 0 logo pertence ao nu´cleo e Vb ⊂ x0 +N(A). Definic¸a˜o 22 (Inversa a` esquerda). Uma transformac¸a˜o linear A : W → V e´ dita ser uma inversa a` esquerda de T : V →W ⇔ para todo x ∈ V tem-se A(T (x)) = x. Propriedade 34. Sejam V e W espac¸os vetoriais de dimensa˜o finita , a transformac¸a˜o linear T : V → W possui inversa a` esquerda A : W → V ⇔ T for injetiva. Demonstrac¸a˜o. ⇒ Supondo que T possua uma inversa a` esquerda enta˜o T (u) = T (v) implica A(Tu) = A(Tv) = u = v, logo a transformac¸a˜o e´ injetiva. ⇐ Suponha T injetiva, tomamos uma base de V , {vk, k ∈ In} como o conjunto e´ LI logo os vetores de {T (vk) ∈ W,k ∈ In} sa˜o LI, tomamos uma base deW , {T (vk), ws, k ∈ In, s ∈ It} , definimos os valores da transformac¸a˜o linear A : W → v como A(T (vk)) := vk e A(ws) = 0v. Dado x ∈ V ele e´ da forma x = n∑ k=1 αkvk da´ı tem-se A(T (x)) = A n∑ k=1 αkT (vk) = n∑ k=1 αkA(T (vk)) = n∑ k=1 αkvk = x enta˜o A e´ inversa a` esquerda. Propriedade 35. Seja X : F → G linear tal que X(w) 6= 0 w ∈ F \ {0}. Se A,B ∈ L(E,F ) com XA = XB enta˜o A = B. Demonstrac¸a˜o. Como X e´ injetora ela possui inversa a´ esquerda, por aplicac¸a˜o de tal inversa em ambos lados segue A = B. Outra maneira, dado v, temos X(A(v)) = X(B(v))⇒ X(A(v)−B(v)) = 0⇒ A(v) = B(v). Logo A = B. Definic¸a˜o 23. Uma transformac¸a˜o linear T : V → W e´ invert´ıvel ⇔ ela e´ injetora e sobrejetora, nesse caso diz-se que T e´ uma bijec¸a˜o linear entre V e W . Propriedade 36. Sejam A : E → F uma transformac¸a˜o linear e B : F → E func¸a˜o tal que AB = IF e BA = IE, enta˜o B e´ uma transformac¸a˜o linear. CAPI´TULO 1. 29 Demonstrac¸a˜o. Tomamos cv + u ∈ F queremos mostrar que B(cv + u) = cB(v) +B(u) existem x2, x3 ∈ E tais que v = A(x2) (por isso cv = A(cx2)) e u = A(x3) logo B(v) = x2, B(u) = x3 B(cv + u) = B(A(cx2 + x3)) = cx2 + x3 = cB(v) +B(u) o que mostra a linearidade. Propriedade 37. Sejam A,P : E → E operadores na˜o nulos tais que AP = 0. Existem vetores u 6= v com A(u) = A(v), a aplicac¸a˜o na˜o e´ injetora. Demonstrac¸a˜o. Existem v1, v2 tais que P (v1) 6= P (v2), pois caso contra´rio, dado v1 = x+ v2, para x qualquer em E, ter´ıamos P (v1) = P (v2)⇒ P (v1 − v2) = 0 = P (x) logo a aplicac¸a˜o seria nula, da´ı A(P (v1)︸ ︷︷ ︸ u ) = 0 = A(P (v2)︸ ︷︷ ︸ v ) e A(u) = A(v) com u 6= v. Definic¸a˜o 24 (Isomorfismo entre espac¸os). Um isomorfismo entre espac¸os V e W e´ uma bijec¸a˜o linear entre eles. Definic¸a˜o 25 (Espac¸os isomorfos). V e W sa˜o ditos espac¸os isomorfos se existe um isomorfismo T : V → W. Definic¸a˜o 26 (Transformac¸a˜o linear invert´ıvel). Uma transformac¸a˜o linear T : V → W e´ dita invert´ıvel quando existe uma transformac¸a˜o linear A : W → V que e´ inversa a` esquerda e a` direita de T . Nesse caso denotamos a inversa de T por T−1. Propriedade 38. Se T : V →W linear e´ invert´ıvel enta˜o T−1 : W → V tambe´m e´ linear. CAPI´TULO 1. 30 Demonstrac¸a˜o. Dados cw1 + w2 ∈ W , vamos mostrar que (denotando T−1 = A) A(cw1 + w2) = cA(w1) + A(w2). Como T e´ bijetora basta mostrar que T (A(cw1 + w2)) = T (cA(w1) + A(w2)) temos T (A(cw1 + w2)) = cw1 + w2 T (cA(w1) + A(w2)) = cT (A(w1)) + T (A(w2)) = cw1 + w2 onde usamos linearidade de T ,como T e´ injetora segue que A(cw1+w2) = cA(w1)+A(w2). Propriedade 39. Seja A ∈ L(Rn, R), existe y ∈ Rn tal que A(x) =< x, y > . Demonstrac¸a˜o. Dado x ∈ Rn ele e´ da forma x = n∑ k=1 xkek onde cada xk ∈ R e (ek)n1 e´ a base canoˆnica, aplicando A linear temos A(x) = n∑ k=1 xk A(ek)︸ ︷︷ ︸ yk∈R ⇒ A(x) = n∑ k=1 xkyk =< x, y > onde y = (yk) n 1 . Corola´rio 17. A composic¸a˜o de isomorfismos e´ um isomorfismo, pois a composic¸a˜o e´ linear e bijetora. Propriedade 40. A inversa de um isomorfismo e´ um isomorfismo. Demonstrac¸a˜o. Propriedade 41. Sendo T : V → W e A : W → V isomorfismos e α 6= 0 enta˜o (TA)−1 = A−1T−1 e (αT )−1 = 1 α T−1. Demonstrac¸a˜o. (TA)−1 = A−1T−1, aplicamos TA em ambos lados I = TAA−1T−1 = I como inversa e´ u´nica segue o resultado . (αT )−1 = 1 α T−1, aplicamos αT em ambos lados I = 1 α T−1αT = I. CAPI´TULO 1. 31 Propriedade 42. Sejam V e W espac¸os vetoriais arbitra´rios e S, T : V → W trans- formac¸o˜es lineares, B uma base de V . Temos que T = S ⇐⇒ T (v) = S(v) ∀v ∈ B. Demonstrac¸a˜o. ⇒). Se T = S eles coincidem em todos elementos em especial tambe´m nos elementos da base. ⇐). Vamos mostrar que T e S coincidem em um vetor arbitra´rio v ∈ V . v se escreve como v = n∑ k=1 akvk onde cada vk ∈ B, como S e T sa˜o transformac¸o˜es lineares que coincidem em B vale que T (v) = T ( n∑ k=1 akvk) = n∑ k=1 akT (vk) = n∑ k=1 akS(vk) = S( n∑ k=1 akvk) = S(v) como quer´ıamos demonstrar.O mesmo vale se trocamos B base por um conjunto de geradores. Propriedade 43. Uma transformac¸a˜o linear T : U → V transforma toda base de U numa base de V ⇔ e´ um isomorfismo. Demonstrac¸a˜o. ⇐). Suponha T isomorfismo, tome α uma base de U e T (α). Como T e´ injetiva o conjunto T (α) e´ LI e T e´ sobrejetiva enta˜o T (α) gera imagem de T que e´ V , portanto levamos uma base de U em uma base de V . ⇒). Tomando α base de U , sabemos que T (α) e´ base de V . Vamos mostrar que T e´ injetiva, seja u ∈ N(T ) ⊂ U , escrevemos u = n∑ k=1 akvk ⇒ 0 = T (u) = n∑ k=1 akT (vk)⇒ ak = 0∀k CAPI´TULO 1. 32 pois a imagem dos vetores e´ LI, logo o nu´cleo tem apenas o elemento nulo, a transformac¸a˜o e´ injetiva. T e´ sobrejetiva. Seja v um elemento de V , enta˜o v = n∑ k=1 ckvk, pore´m como T leva base de U em base de V , temos que existe uk ∈ U tal que T (uk) = vk e da´ı T ( n∑ k=1 ckuk) = n∑ k=1 ckvk e a transformac¸a˜o e´ sobrejetiva. Corola´rio 18. Dois espac¸os vetoriais de dimensa˜o finita isomorfos possuem a mesma dimensa˜o. Propriedade 44. Se dois espac¸os vetoriais de dimensa˜o finita possuem a mesma di- mensa˜o, enta˜o eles sa˜o isomorfos. Demonstrac¸a˜o. Sejam V e W de dimensa˜o finita n, sobre o mesmo corpo K, enta˜o existe base B = {(vk)n1} de V e base B′ = {(wk)n1} definimos T (vk) = wk, a transformac¸a˜o e´ sobrejetora pois dado v = n∑ k=1 ckwk em W , temos s = n∑ k=1 ckvk cuja imagem e´ v. Ale´m disso e´ injetora pois o nu´cleo so´ possui o elemento nulo, , pois supondo T (s) = 0 enta˜o T (s) = n∑ k=1 ckwk = 0 que implica cada ck = 0 pois B ′ = {(wk)n1} e´ LI, enta˜o s e´ o vetor nulo. Corola´rio 19. Todo espac¸o de dimensa˜o n sobre R e´ isomorfo a Rn. Exemplo 14. O espac¸o de polinoˆmio Pn e´ isomorfo a` R n+1, o espac¸o das matrizes n × m(R) e´ isomorfo a` Rnm. Propriedade 45. T : V → W transformac¸a˜o linear, se X ∈ V e´ um conjunto de geradores enta˜o T (X) gera Im(T ). Demonstrac¸a˜o. Seja x ∈ Im(T ) enta˜o x = T (v) para algum v ∈ V , como X e´ conjunto de geradores segue que existem v e´ combinac¸a˜o linear de elementos de X, digamos v = n∑ k=1 ckvk CAPI´TULO 1. 33 aplicando T , temos T (v) = x = n∑ k=1 ckT (vk) disso que T (X) gera Im(T ). Definic¸a˜o 27 (Posto). Seja T : U → V linear, definimos Posto(T ) = dim Im(T ) quando tal dimensa˜o for finita. Definic¸a˜o 28 (Nulidade). Definimos a nulidade de T como nul(T ) = dimN(T ). Tambe´m denotada por nulidade(T ). Definic¸a˜o 29 (Posto coluna). Dada A ∈ Mm×n(K), definimos posto coluna A como a dimensa˜o do espac¸o vetorial gerado em Km pelos vetores coluna. Posto coluna A = PostoLA, onde LA : K n → Km. Definic¸a˜o 30 (Posto Linha). Dada a mesma matriz da definic¸a˜o anterior. Posto linha A= dimensa˜o do espac¸o vetorial gerado em Kn pelos vetores linha. Propriedade 46. Posto linha A= Posto coluna A. Demonstrac¸a˜o. Propriedade 47. Seja X ⊂ F tal que toda transformac¸a˜o linear A : E → F com X ⊂ A(E) e´ sobrejetiva enta˜o X e´ um conjunto de geradores de F . Demonstrac¸a˜o. Seja F ′ = S(X), definimos A : F ′ → F com A(v) = v, temos X ⊂ A(F ′), da´ı A e´ sobrejetiva, da´ı A e´ sobrejetiva, A(F ′) = F , A(S(X)) = F , dado v ∈ F existe n∑ k=1 ckvk ∈ S(X) tal que A( n∑ k=1 ckvk) = n∑ k=1 ckA(vk) = n∑ k=1 ckvk logo X gera F . Propriedade 48. Seja A : E → F uma transformac¸a˜o linear sobrejetiva, E, F de dimensa˜o finita, enta˜o existe um subespac¸o E ′ ⊂ E tal que E ′ e F sa˜o isomorfos pela aplicac¸a˜o de A. CAPI´TULO 1. 34 Demonstrac¸a˜o. Seja (vk) n 1 = G base de F , existem vetores (ek) n 1 tais que A(ek) = vk e tais vetores sa˜o LI, definimos E ′ = S(G), da´ı E ′ e F sa˜o isomorfos pela aplicac¸a˜o de A. Propriedade 49. Toda transformac¸a˜o linear A : E → F pode-se escrever como A = TS onde S e´ sobrejetiva e T injetiva e o mesmo com T injetiva e S sobrejetiva com A = ST . Demonstrac¸a˜o. Definimos S : E → A(E) com S(v) = A(v), ela e´ sobrejetiva e T : A(E)→ A(E) com T (v) = v que e´ injetiva. No segundo caso definimos T : E → E × F com T (v) = (v, A(v)) e S : E × F → F com S(v, w) = w, T e´ injetiva pois T (v) = 0 = (v,A(v)) logo v = 0 e S e´ sobrejetiva, S(0, w) = w, vale ainda a composic¸a˜o ST (v) = S(v, A(v)) = A(v). Definic¸a˜o 31 (Espac¸o bi-dual). O espac¸o bi-dual e´ o espac¸o E ′′ = L(E ′, r) onde E ′ e´ o espac¸o dual . Propriedade 50. Seja g : E → E ′′ com g(v) = v′′ ∈ E ′′ onde v′′(f) = f(v). Enta˜o g e´ um isomorfismo. (revisar) Demonstrac¸a˜o. g e´ linear g(cv1 + v2) = (cv1 + v2) ′′ aplicada em f (cv1 + v2) ′′(f) = f(cv1 + v2) = cf(v1) + f(v2) = cv′′1(f) + v ′′ 2(f) = cg(v1) + g(v2). g e´ injetora, pois existe f ∈ L(E,R) tal que f(v) 6= 0, da´ı v′′(f) = f , f e´ na˜o nula, g e´ injetiva, como dimE = dimE ′ = n e dimE ′ = E ′′ = n logo E e E ′′ sa˜o isomorfos. Propriedade 51. Seja F : E → R funcional linear na˜o nulo, enta˜o existe u ∈ E tal que f(u) = 1. Sendo F a reta gerada por u enta˜o E = F +⊕N(f). Demonstrac¸a˜o. Existe u′ tal que f(u) = x 6= 0 logo f(u ′ x ) = x x = 1, chamamos tal elemento de u. Temos que F ∩ N(f) = {0} pois x 6= 0, x ∈ F enta˜o x = tu com t 6= 0 enta˜o f(x) = f(tu) = tf(u) = t 6= 0 e na˜o pertence ao nu´cleo. CAPI´TULO 1. 35 Agora a parte da soma , se v e´ tal que f(v) = 0 enta˜o v pertence ao nu´cleo, se f(v) = t 6= 0 enta˜o temos f(v) = f(tu) e da´ı f(v − tu) = 0 v− tu = s ∈ N(f), isto e´, s+ tu = v enta˜o todo vetor e´ soma de elemento do nu´cleo com elemento de F . Propriedade 52. Seja A : E → F de posto r, E, F de dimensa˜o finita, enta˜o existem bases u = (uk) n 1 em E e V = (vk) m 1 em F em que a matriz que representa a transformac¸a˜o tem (a(k,k) = 1) r 1 e outras entradas nulas. Demonstrac¸a˜o. Seja (vk) r 1 base de A(E) ⊂ F estendemos a uma base de F , (vk)m1 , sejam (uk) r 1 em E tais que A(uk) = vk e (uk) n r+1 base de N(A), temos que (uk) n 1 e´ base de E, a matriz do operador A tem a propriedade pedida. Definic¸a˜o 32 (Matrizes semelhantes). Duas matrizes A,B ∈ Mn,m(K) sa˜o ditas seme- lhantes se existe P ∈Mn,m(K) invert´ıvel tal que B = PAP−1 nesse caso denotamos A ∼ B. Propriedade 53. ∼ e´ uma relac¸a˜o de equivaleˆncia em Mn,m(K). Demonstrac¸a˜o. Vale a reflexividade A ∼ A pois A = IAI−1. A relac¸a˜o e´ sime´trica pois A ∼ B implica B ∼ A, pois da primeira, sabemos que existe P tal que B = PAP−1 e da´ı P−1BP = A tomando P−1 = X temos XBX−1 = A logo B ∼ A. CAPI´TULO 1. 36 Vale a transitividade. Se valem A ∼ B e B ∼ C tem-se A ∼ C, pois da primeira existe P1 tal que B = P1AP −1 1 da segunda temos C = P2BP −1 2 substituindo a primeira na segunda segue que C = P2P1AP −1 1 P −1 2 = P2P1A(P2P −1 1 ) −1 e da´ı A ∼ C. 1.3.1 Teorema do nu´cleo e imagem Propriedade 54 (Teorema do nu´cleo e imagem). Seja V espac¸o vetorial de dimensa˜o finita e W espac¸o vetorial. Se T : V → W e´ linear, logo dim(V ) = dimN(T ) + dim Im(T ). Demonstrac¸a˜o. Seja (vk) m 1 base de N(T ) e (wk) n 1 base de Im(T ), tomamos (uk) n 1 tais que T (uk) = wk k ∈ In. Para provar o teorema basta provar que B = {(vk)m1 , (uk)n1} e´ uma base de V . B e´ LI. Primeiro B e´ LI, pois m∑ k=1 akvk + n∑ k=1 bkuk = 0 aplicando T , tem-se T (0) = 0 = m∑ k=1 ak T (vk)︸ ︷︷ ︸ 0 + n∑ k=1 bkT (uk)︸ ︷︷ ︸ LI o que implica que cada bk = 0 logo m∑ k=1 akvk = 0 o que implica cada ak = 0 pois sa˜o vetores LI. Portanto nosso conjunto B e´ LI. B gera V . CAPI´TULO 1. 37 Tome v ∈ V , T (v) ∈ Im(T ) = S(w1, · · · , wn) T (v) = n∑ k=1 akwk = n∑ k=1 akT (uk) = T ( n∑ k=1 akuk) implica que T (v − n∑ k=1 akuk) = 0 logov − n∑ k=1 akuk ∈ N(T ) = S(v1, · · · , vm) o que implica v = n∑ k=1 akuk + m∑ k=1 bkvk da´ı B gera V . Propriedade 55. Sejam T : V → W , dimV = dimW = n, T linear, T e´ injetiva ⇔ e´ sobrejetiva. Em especial nessas condic¸o˜es temos que T e´ injetora ⇔ T e´ sobrejetora. Demonstrac¸a˜o. Pelo teorema do nu´cleo e imagem temos que n = dimN(T ) + dimIm(T ) N(T ) = {0}︸ ︷︷ ︸ T e´ injetiva ⇔ dim Im(T ) = n︸ ︷︷ ︸ T e´ sobrejetiva . Propriedade 56. Dados T, S ∈ L(V ). T, S isomorfismos ⇔ T ◦ S e´ um isomorfismo. Demonstrac¸a˜o. ⇒). Composic¸a˜o de isomorfismos e´ um isomorfismo. Exemplo 15. Calcule a n-e´sima poteˆncia da matriz 1 a 0 1 . Associamos a matriz a um operador, na base canoˆnica, temos A(e1) = e1, A(e2) = ae1 + e2. Aplicando A n, temos An(e1) = e1, A k+1(e2) = A k(A(e2)) = A k(ae1 + e2) = ae1 + A k(e2) CAPI´TULO 1. 38 logo Ak+1(e2)− Ak(e2) = ae1 aplicando n−1∑ k=0 temos nae1 = A n(e2)− e2 ⇒ An(e2) = e2 + nae1. Logo a n-e´sima poteˆncia da matriz e´ 1 na 0 1 . Exemplo 16. Dado um operador A : Rn+1 → Rn+1 com A(ck)n0 = (p(k))n0 , determine a matriz do operador na base canoˆnica, onde p(x) = n∑ k=0 akx k. Olhamos em quais vetores, sa˜o levados os vetores da base canoˆnica de Rn+1. e1 → (1)n0 et → (kt−1)nk=0. A transformac¸a˜o e´ injetiva pois se A(ck) n 0 = (p(k)) n 0 = 0 enta˜o temos um polinoˆmio de grau n com n+ 1 valores nulos , logo e´ o polinoˆmio nulo. Como a imagem tem dimensa˜o n+ 1, finita, enta˜o a transformac¸a˜o e´ sobrejetiva e por isso e´ um isomorfismo. Propriedade 57. Uma matriz A m× n tem posto r ⇔ e´ poss´ıvel selecionar r linhas e r colunas ( e na˜o mais), de modo que os elementos comuns formam uma matriz invert´ıvel r × r. Demonstrac¸a˜o. ⇒). Considerando que tenha posto r. Se r = m = n a matriz e´ quadrada invert´ıvel. Se r = m < n as linhas de A sa˜o LI, as colunas sa˜o LD, por teorema do posto o nu´mero de colunas LI e´ r = m, tais r colunas formam formam uma matriz r× r de posto ma´ximo invert´ıvel. Caso r = n < m e´ ana´logo trabalhando com colunas no lugar de linhas. Se r < min{m,n}, as linhas de A sa˜o LD, sendo poss´ıvel escolher r linhas de a que sa˜o LI, com isso encontramos uma matriz B r×n de posto r e aplicamos o procedimento anterior. ⇐). CAPI´TULO 1. 39 Se podemos selecionar r linhas e r colunas ( e na˜o mais), de A que formam uma matriz invert´ıvel, temos r linhas LI, logo posto(A) ≥ r, se fosse s = posto(A) > r, podemos escolher s linhas e colunas de A formando uma matriz invert´ıvel , o que contraria a hipo´tese, logo posto(A) ≤ r e da´ı posto(A) = r. Propriedade 58. Se A e´ uma matriz n× n triangular inferior com diagonal nula enta˜o An = 0. Demonstrac¸a˜o. A e´ matriz de um operador na base canoˆnica onde A(et) = t−1∑ k=1 a(k,t)ek. Tomando um v = n∑ k=1 ckek qualquer e aplicando T , eliminamos a n-e´sima coordenada, ficando com n − 1 vetores da base, aplicac¸o˜es sucessivas reduzem , cada uma, ainda em uma unidade de vetores da base, na n − 1-e´sima aplicac¸a˜o temos apenas um vetor da forma ce1 em que aplicando A novamente se anula, enta˜o A n = 0. Propriedade 59. Uma matriz [c(i,j)] = C m × n tem posto 1 ⇔ existem vetores na˜o nulos (ak) m 1 e (bk) n 1 tais que c(t,j) = atbj Demonstrac¸a˜o. C possui posto 1 ⇔ possui uma linha na˜o nula (bk)n1 tal que todas linhas sa˜o mu´ltiplas dessa, enta˜o a linha t e´ dada por (atbk) n 1 o que prova o resultado. Propriedade 60. Se [c(i,j)] = C m× n tem posto 1 enta˜o Cn+1 = tr(C)n.C. Demonstrac¸a˜o. Usamos o resultado anterior c2(i,j) = n∑ k=1 c(i,k)c(k,j) = n∑ k=1 aibkakbj = aibj n∑ k=1 bkak = c(i,j)Tr(C). Propriedade 61. Vale que Posto (BA) ≤ Posto(A), Posto(B). A e B transformac¸o˜es lineares. CAPI´TULO 1. 40 Demonstrac¸a˜o. Se v ∈ Im(BA)⇒ v = B(A(w)), v ∈ Im(B), logo Im(BA) ⊂ Im(B) e da´ı dimIm(BA) ≤ dimIm(B), , isto e´, Posto(BA) ≤ Posto(B). Sejam A : E → F , B : F → G, dimE = m, dimF = n, dimG = p. Se v ∈ N(A) enta˜o B(A(v)) = 0 o que implica v ∈ N(B(A)), da´ı N(A) ⊂ N(BA). dimN(A) ≤ dimN(BA) por teorema de nu´cleo e imagem temos dimIm(A) = m− dimN(A) ≥ m− dimN(BA) = dimIm(BA) da´ı Posto(A) ≥ Posto(BA). Exemplo 17. Pode valer Posto(A) = Posto(B) > Posto(BA), como exemplo A = B : R2 → R2 com A(x, y) = (y, 0), Posto(A) = 1 e BA(x, y) = B(y, 0) = (0, 0) que possui dimensa˜o zero. Propriedade 62. Uma matriz quadrada A de posto 1 e´ idempotente ⇔ Tr(A) = 1. Demonstrac¸a˜o. Pois A2 = tr(A)A. 1.3.2 Projec¸o˜es Definic¸a˜o 33 (Projec¸a˜o). Sendo V um espac¸o vetorial, uma projec¸a˜o de V em V e´ uma transformac¸a˜o linear T : V → V tal que T 2 = T. Exemplo 18. T : Rn → Rn com T (xk) n 1 = (xk] m 1 , 0] n m+1) e´ uma projec¸a˜o. Exemplo 19. T : R2 → R2 com T (x− y, 0) = (x− y, 0) e´ projec¸a˜o. CAPI´TULO 1. 41 Propriedade 63. Seja T : V → V projec¸a˜o. v ∈ Im(T )⇔ T (v) = v. Demonstrac¸a˜o. ⇐). Se T (v) = v enta˜o v ∈ Im(T ). ⇒). Se v ∈ Im(T ) enta˜o existe u ∈ V tal que T (u) = v e da´ı T 2(u) = T (u) = v = T (v). Propriedade 64. Se T : V → V e´ uma projec¸a˜o enta˜o V = N(T )⊕ Im(T ). Demonstrac¸a˜o. Vamos mostrar primeiro que V = N(T )+Im(T ) que realmente vale pois v = (v − T (v))︸ ︷︷ ︸ ∈N(T ) + T (v)︸︷︷︸ ∈Im(T ) o primeiro pertence ao nu´cleo pois T (v − T (v)) = T (v) − T 2(v) = 0 pois temos uma projec¸a˜o . Agora provamos que a soma e´ direta, suponha por absurdo que v 6= 0 em N(T )∩Im(T ) enta˜o T (v) = 0 e como pertence a imagem, existe v1 ∈ V tal que T (v1) = v, aplicando T novamente tem-se que T (T (v1)) = T (v) = 0 = T (v1) = v 6= 0 absurdo, enta˜o a soma e´ direta. Exemplo 20. A propriedade de soma direta de nu´cleo e imagem na˜o vale para qualquer tipo de operador, por exemplo, tomando A : R2 → R2 com A(x, y) = (x− y, x− y) temos que A(2, 1) = (1, 1), A(1, 1) = 0, (1, 1) ∈ N(A) ∩ Im(A), logo na˜o temos soma direta. Propriedade 65. Se B = (uk) n 1 e´ base de V tal que (uk) r 1 e´ base de Im(E) e (uk) n r+1 e´ base de N(E) enta˜o [E]B = Ir×r 0 0 0 n×n onde Ir×r e´ um bloco r × r com elementos ak,k = 1 e outros nulos, e todos elementos da matriz sa˜o tambe´m nulos, por isso simbolizados por 0 na matriz acima. E sendo projec¸a˜o. CAPI´TULO 1. 42 Demonstrac¸a˜o. Com os elementos da imagem temos E(uk) = uk, logo montamos o bloco identidade Ir×r e o bloco abaixo da identidade formado por zeros, os outros elementos sa˜o nulos pois sa˜o elementos do nu´cleo E(uk) = 0. Propriedade 66. Se (Uk) r 1 sa˜o subespac¸os de V e Bk e´ base de Uk enta˜o V = r⊕ k=1 Uk ⇔ r⋃ k=1 Bk e´ base de V Demonstrac¸a˜o. Definic¸a˜o 34 (Projec¸a˜o sobre W paralelamente a` U .). Se V = U ⊕W enta˜o a trans- formac¸a˜o linear E : V → V com E(u + w) = w e´ uma projec¸a˜o dita, Projec¸a˜o sobre W paralelamente a` U (ou segundo U). Podemos denotar E = EW . Propriedade 67. A definic¸a˜o anterior realmente fornece uma projec¸a˜o , ale´m disso tal projec¸a˜o que possui nu´cleo U e imagem W e´ u´nica. Demonstrac¸a˜o. Um vetor v qualquer se escreve de maneira u´nica como u+ w, temos E(u+ w) = w ⇒ E(E(u+ w)) = E(0 + w) = w logo E2(v) = w = E(v), portanto temos uma projec¸a˜o. W e´ a imagem de E pois todo aplicac¸a˜o assume valor nesse conjunto . U e´ o nucleo de E pois E(u) = 0, ale´m disso se v 6= 0 ∈ N(E) enta˜o v ∈ U , pois se fosse v ∈ W ter´ıamos E(v) = v 6= 0 pore´m como v ∈ N(E) vale E(v) = 0 absurdo, enta˜o v ∈ U e da´ı temos v = N(E). A projec¸a˜o e´ u´nica pois tomando outra projec¸a˜o T com nu´cleo U e imagem W temos T (v) = T (u+ w) = T (w) = w = E(u+ w) portanto T = E pois assumem mesmo valor para qualquer v ∈ V , usamos que v = u+w com u ∈ U (nu´cleo) e w ∈ W imagem e que uma projec¸a˜o satisfaz T(w) = w para w na imagem. Propriedade 68. Seja V = V ⊕W , EV , EW , enta˜o 1. EU + EW = I. CAPI´TULO 1. 43 2. EUEW = 0. Demonstrac¸a˜o. Temos que um v qualquer se escreve como v = u+ w, logo 1. (EU + EW )(u+ w) = EU(u+ w) + EW (u+ w) = u+ w = v por isso o operador e´ a identidade. 2. EUEW (u+ w) = Eu(w) = 0. Definic¸a˜o 35. Seja V = r⊕ k=1 Uk, definimos Es : V → V com Es( r∑ k=1 uk) = us onde uk ∈ Uk. Propriedade 69. Com a definic¸a˜o do item anterior temos que 1. r∑ k=1 Ek = I. 2. EkEj = 0, k 6= j 3. E2k = Ek, isto e´, Ek e´ projec¸a˜o . Reciprocamente se (Ek) r 1 sa˜o transformac¸o˜es tais que valem 1) e 2) enta˜o cada Ek e´ projec¸a˜o e vale V = r⊕ k=1 ImEk Es( r∑ k=1 us = us). Demonstrac¸a˜o. Um vetor v ∈ V se escreve de maneira u´nica como r∑ s=1 us = v. 1. ( r∑ k=1 Ek)︸ ︷︷ ︸ T ( r∑ s=1 us) = r∑ s=1 Tus = r∑ s=1 us = v. 2. EkEj( r∑ s=1 us) = Ekuj = 0, k 6= j. CAPI´TULO 1. 44 3. Ek r∑ s=1 us = uk ⇒ Ekuk = uk, isto e´, E2k = Ek o operador e´ projec¸a˜o . Temos tambe´m que Es e´ linear pois Es(tu+ v) = Es(t r∑ k=1 uk + r∑ k=1 u′k) = tus + u ′ s = tEs(u) + Es(v). Im(Es) = Us e N(Es) = r∑ k=1,k 6=s Uk. Agora provamos a segunda parte, Ek e´ projec¸a˜o, sabemos que Ek = IEk = ( r∑ s=1 Es)Ek = E 2 k pois se anula com os outros operadores. Provamos agora a soma direta, seja v ∈ V V = I(v) = r∑ k=1 Ek(v) enta˜o temos a parte da soma, agora temos que mostrar que sa˜o independentes, seja Im(Ek) = Wk. Seja w := wk ∈ Wk ∩ ( r∑ s=1,s 6=k Ws), enta˜o wk = r∑ s=1,s 6=k ws aplicando Ek temos wk = 0 como w e´ arbitra´rio enta˜o temos a soma direta V = r⊕ k=1 ImEk. Por fim seja v = r∑ k=1 uk = r∑ k=1 Ekuk, aplicando Es temos Es(v) = E 2 s (us) = Es(us) = us pois EsEj = 0, s 6= j. Propriedade 70. Sejam T : V → V linear (Uk)r1 e (Ek)r1 como na propriedade anterior, cada Uk e´ T -invariante ⇔ TEj = EjT ∀j. CAPI´TULO 1. 45 Demonstrac¸a˜o. ⇐). Se T comuta com cada Ej seja v ∈ Uj enta˜o Ej(v) = v T (v) = T (Ej(v)) = Ej(T (v)) como Ej(T (v)) ∈ Uj enta˜o T (v) ∈ Wj, Uj e´ T -invariante. ⇒). Supondo que cada Uj e´ T -invariante vamos mostrar que TEj = EjT . Seja v ∈ V enta˜o v = r∑ k=1 Ek(v), T (v) = r∑ k=1 T (Ek(v)) com Ek(v) ∈ Uk que e´ T -invariante, devemos ter T (Ek(v)) = Ek(bk) para algum bk enta˜o EjT (Ek(v)) = EjEk(bk) que se anula se k 6= j sendo igual a` Ej(bj) caso k = j, logo Ej(T (v)) = Ej(bj) = T (Ej(v)) = TEj(v) valendo para v arbitra´rio logo EjT = TEj. Propriedade 71. Seja T : V → V linear dimV = n, se T e´ diagonaliza´vel e (λk)m1 sa˜o seus autovalores distintos enta˜o existem operadores lineares (Ek) m 1 : V → V tais que 1. T = m∑ k=1 λkEk. 2. I = m∑ k=1 Ek. 3. EkEj = 0 se k 6= j 4. E2k = Ek 5. Im(Ek) = Wλk , isto e´, e´ o autoespac¸o associado a λk. Reciprocamente se existem (λk) m 1 distintos e m operadores lineares na˜o nulos (Ek) m 1 sa- tisfazendo (1), (2) e (3) enta˜o T e´ diagonaliza´vel (λk) m 1 sa˜o os autovalores distintos de T , (4) e (5) tambe´m valem. CAPI´TULO 1. 46 Demonstrac¸a˜o. ⇒) Supondo T diagonaliza´vel com autovalores distintos (λk)m1 , sendo Wλk o autoespac¸o associado a` λk temos que V = m⊕ k=1 Wλk , sendo (Ek) m 1 as projec¸o˜es associadas a esta decomposic¸a˜o enta˜o (2) , (3), (4) e (5) sa˜o satisfeitas como ja´ mostramos em outra propriedade, falta verificar (1) para cada v ∈ V temos v = m∑ k=1 Ek(v) logo T (v) = m∑ k=1 T (Ek(v)) = m∑ k=1 λkEk(v) da´ı T = m∑ k=1 λkEk e terminamos. ⇐). Sejam dados T linear, escalares λk distintos e operadores na˜o nulos Ek satisfazendo (1), (2) e (3) de I = m∑ k=1 Ek multiplicando por Ej tem-se Ej = E 2 j logo cada Ej e´ projec¸a˜o, de T = m∑ k=1 λkEk multiplicando por por Ej a` direita segue que TEj = λjEj o que implica (T − λj)Ej = 0 todo vetor na imagem de Ej esta´ no nu´cleo de T − λjI, isto e´, Im(Ej) ⊂ Wλj , usamos que em projec¸a˜o vale Ej(v) = v se v ∈ Im(Ej). Como Ej 6= 0 existe um vetor na˜o nulo no nu´cleo de T − λj, da´ı λj e´ autovalor de T . Ale´m disso os λj sa˜o os u´nicos autovalores de T , pois se c e´ um escalar arbitra´rio, enta˜o T − cI = m∑ k=1 λkEk − c m∑ k=1 Ek = m∑ k=1 (λk − c)Ek se (T − cI)(v) = 0 temos m∑ k=1 (λk − c)Ek(v) = 0, se v 6= 0 enta˜o I(v) = m∑ k=1 Ek(v) 6= 0 logo deve haver algum k tal que Ek(v) 6= 0 isso implica que (λk − c) = 0 pois m∑ k=1 (λk − c)Ek(v) e´ soma de elementos em espac¸o em soma direta (lembre que Im(Ek) ⊂ Wλk e os CAPI´TULO 1. 47 autoespac¸os esta˜o em soma direta, enta˜o se a soma de elementos deles e´ nula, enta˜o cada membro da soma deve ser nula ). T e´ diagonaliza´vel pois todo vetor na˜o-nulo na imagem de Ej e´ um autovetor de T e o fato de I = m∑ k=1 Ek mostra que esses autovetores geram V . Falta mostrar apenas que N(T − λkI) = Im(Ek), ja´ sabemos que Im(Ek) ⊂ N(T − λkI) falta mostrar a outra inclusa˜o. Se T (v) = λjv enta˜o m∑ k=1 (λk − λj)Ek(v) = 0 logo (λk − λj)Ek(v) = 0 ∀k e da´ı Ej(v) = 0 para j 6= k como v = m∑ k=1 Ek(v) e Ek(v) = 0 para k 6= j enta˜o v = Ej(v) e v ∈ Im(Ej) e terminamos a demonstrac¸a˜o. Definic¸a˜o 36 (Involuc¸a˜o). S : V → V linear e´ dita involuc¸a˜o se S2 = I, isto e´, o operador e´ o inverso dele pro´prio. Propriedade 72. Seja S : V → V involuc¸a˜o se F1 = {u ∈ V | s(u) = u} e F2 = {v ∈ V | S(v) = −v} enta˜o F1, F2 < V , V = F1 ⊕ F2. Definindo P = S + I 2 , enta˜o P : V → V e´ projec¸a˜o sobre F1 paralelamente a F2. Demonstrac¸a˜o. F1 e F2 sa˜o subespac¸os vetoriais pois sa˜o auto-espac¸os. Podemos escrever w ∈ V como w = s(w) + w 2 + w − s(w) 2 s aplicado no primeiro termo resulta em w + s(w) w que se mante´m, no segundo s(w)− w 2 que e´ sime´trico, logo pertencem respectivamente a` F1, F2, a soma e´ direta pois se s(v) = v = −v enta˜o v = 0 em corpo de caracter´ıstica diferente de 2. P e´ projec¸a˜o sobre F1 pois P (w) = P (u+ v) = s(v) + v 2 + s(u) + u 2 = u. 1.3.3 Subespac¸o invariantes Definic¸a˜o 37 (Subespac¸o invariante). Seja T : V → V linear . Um subespac¸o U < V e´ dito invariante por T se temos T (U) ⊂ U. CAPI´TULO 1. 48 Propriedade 73. Sejam E e T operadores lineares de V → V , E uma projec¸a˜o. Im(E) e´ T -invariante ⇔ ETE = TE. Demonstrac¸a˜o. ⇒). Dado v ∈ V arbitra´rio temos que mostrar que ETE(v) = TE(v) como Im(E) e´ T -invariante temos que TE(v) = E(v1) para algum v1 logo ETE(v) = E2(v1) = E(v1) = TE(v) como quer´ıamos demonstrar. ⇐). Suponha que ETE = TE, vamos mostrar que Im(E) e´ T -invariante. Dado v ∈ V qualquer, temos que ETE(v) = TE(v)⇒ T (E(v)) = E(TE(v)) ∈ Im(E) por isso Im(E) e´ T -invariante. Propriedade 74. Os seguintes espac¸os sa˜o invariantes para T : V → V linear. 1. N(T ). 2. {0} 3. V 4. Im(T ). 5. T : V → V com T (v) = cv possui todo subespac¸o invariante. Demonstrac¸a˜o. 1. Pois v ∈ N(T ), enta˜o T (v) = 0 ∈ N(T ). 2. T (0) = 0 ∈ {0}. 3. T (V ) ⊂ V por definic¸a˜o. CAPI´TULO 1. 49 4. Seja x ∈ Im(T ), enta˜o T (x) ∈ V e da´ı T (x) ∈ Im(T ). 5. Seja X um subespac¸o qualquer, enta˜o v ∈ X implica cv ∈ X e da´ı T (X) ⊂ X. Exemplo 21. Sendo D : P [x] → P [x] operador derivac¸a˜o sobre espac¸o de polinoˆmios com coeficientes em K (corpo), enta˜o Pn[x] o espac¸o de polinoˆmios de grau ate´ n e´ D- invariante, pois o operador derivac¸a˜o diminui o grau do polinoˆmio. Exemplo 22. E´ verdade que existe uma u´nica transformac¸a˜o linear T : V → V (V = C3) tal que T (1, 2− 1) = (1, 0, 0), T (0, 1,−1) = (0, 1, 0) e T (1, 2, 0) = (1, 1, 0)?. Sim pois os vetores (1, 2,−1), (0, 2,−1) e (1, 2, 0) sa˜o LI epor isso sa˜o uma base de C3 , uma transformac¸a˜o linear e´ unicamente determina pelos valores de uma base. Vamos mostrar que os vetores realmente sa˜o LI c1(1, 2,−1) + c2(0, 1,−1) + c3(1, 2, 0) = (0, 0, 0) logo 1. c1 + c3 = 0 2. 2c1 + c2 + 2c3 = 0⇒ c1 + c2︸ ︷︷ ︸ 0 + c1 + c3︸ ︷︷ ︸ 0 +c3 = 0 3. −c1 − c2 = 0⇒ c1 + c2 = 0 logo c3 = 0 , da primeira equac¸a˜o c2 = 0 e da terceira c1 = 0 enta˜o os vetores sa˜o realmente LI. Vamos agora escrever a matriz da transformac¸a˜o na base canoˆnica e determinar uma base da imagem e do nu´cleo da transformac¸a˜o. CAPI´TULO 1. 50 1. T (1, 0, 0) + 2T (0, 1, 0)− T (0, 0, 1) = (1, 0, 0) 2. T (0, 1, 0)− T (0, 0, 1) = (0, 1, 0) 3. T (1, 0, 0) + 2T (0, 1, 0) = (1, 1, 0) subtraindo a terceira da primeira temos T (0, 0, 1) = (0, 1, 0) substituindo na segunda equac¸a˜o tem-se T (0, 1, 0) = (0, 2, 0) e agora com a terceira equac¸a˜o temos T (1, 0, 0) = (1, 1, 0)− 2(0, 2, 0) = (1,−3, 0) com essas informac¸o˜es temos a matriz da transformac¸a˜o linear 1 0 0 −3 2 1 0 0 0 Agora iremos encontrar uma base para o nu´cleo do operador. 1 0 0 −3 2 1 0 0 0 x y z = 0 0 0 o que gera as equac¸o˜es x=0 2y+z=0 CAPI´TULO 1. 51 logo os vetores no nu´cleo sa˜o da forma (0, y,−2y) = y(0, 1,−2) logo o nu´cleo possui dimensa˜o 1, sendo gerado pelo vetor (0, 1,−2). Ja´ sabemos enta˜o que a dimensa˜o da imagem e´ 2, pois dimIm(T )+dimN(T ) = 3, agora vamos achar uma base para a imagem. 1 0 0 −3 2 1 0 0 0 x y z = x −3x+ 2y + z 0 logo os vetores da imagem sa˜o da forma x(1,−3, 0) + (2y + z)(0, 1, 0) sendo (1,−3, 0) e (0, 1, 0) vetores LI que geram a imagem, que possui dimensa˜o 2, logo e´ uma base. 1.3.4 Dimensa˜o do produto cartesiano Propriedade 75. Sejam (Vk) n espac¸os vetoriais sobre K onde cada Vk possui dimensa˜o mk, enta˜o A = n∏ k=1 Vk possui dimensa˜o n∑ k=1 mk. Demonstrac¸a˜o. Seja (v(k,s)) nk s=1 base de Vk enta˜o os vetores (v(1,s), · · · , 0)m1s=1, (0, v(2,s), · · · , 0)m2s=1, · · · , (0, · · · , v(n,s))mns=1 formam uma base de A. Eles geram o espac¸o pois (v1, · · · , vn) = ( m1∑ s=1 c(1,s)v(1,s), · · · , mn∑ s=1 c(n,s)v(n,s)) = = m1∑ s=1 c(1,s)(v(1,s), · · · , 0)m1s=1 + · · ·+ mn∑ s=1 c(n,s)(0, · · · , v(n,s))mns=1 tais vetores sa˜o LI pois se m1∑ s=1 c(1,s)(v(1,s), · · · , 0)m1s=1 + · · ·+ mn∑ s=1 c(n,s)(0, · · · , v(n,s))mns=1 = 0 por independeˆncia linear dos vetores em cada coordenada, segue que todos os coeficientes sa˜o nulos, como a base possui n∑ k=1 mk elementos, o resultado segue. CAPI´TULO 1. 52 1.3.5 dim(U + V ) = dim(U) + dim(V )− dim(U ∩ V ). Propriedade 76. Sendo U e V subespac¸os de dimensa˜o finita de F , enta˜o dim(U + V ) = dim(U) + dim(V )− dim(U ∩ V ). Demonstrac¸a˜o.[1] Seja f : U × V → F definida como f(x, y) = x− y. O nu´cleo de f e´ U ∩V. A imagem de f e´ U +V , logo pelo teorema de nu´cleo e imagem temos dim(U + V ) + dim(U ∩ V ) = dim(U × V ) = dim(U) + dim(V ) disso segue que dim(U + V ) = dim(U) + dim(V )− dim(U ∩ V ). Demonstrac¸a˜o.[2] Tomamos uma base de U ∩ V Bn = {u1, · · · , un} extendemos tal base para uma base de U Bt = {u1, · · · , un, un+1, · · · , ut} o mesmo para V Bs = {u1, · · · , un, vn+1, · · · , vs} vamos mostrar que L = {u1, · · · , un, un+1, · · · , ut, vn+1, · · · , vs} que possui t+ s−n elementos, isto e´, dimV +dimU −dim(U ∩V ) elementos, e´ uma base para U + V. Primeiro tal conjunto gera U + V , pois dados u ∈ U e v ∈ V sa˜o da forma u = t∑ k=1 ckuk, v = n∑ k=1 akuk + s∑ k=1+n akvk logo u+ v ∈ S(L), pois u+ v = n∑ k=1 (ck + ak)uk + t∑ k=1+n ckuk + s∑ k=1+n akvk. Agora vamos mostrar que o conjunto e´ {u1, · · · , un, un+1, · · · , ut, vn+1, vn+2} e´ LI, CAPI´TULO 1. 53 t∑ k=1 ckuk + s∑ k=n+1 akvk = 0⇒ t∑ k=1 ckuk = − s∑ k=n+1 akvk ∈ U ∩ V logo podemos escrever n∑ k=1 akvk + s∑ k=n+1 akvk = 0 como o conjunto {u1, · · · , un, vn+1, · · · , vs} e´ LI segue que cada ak = 0 da´ı voltando a equac¸a˜o original segue que t∑ k=1 ckuk = 0 como {u1, · · · , un, un+1, · · · , ut} e´ LI enta˜o cada ck = 0 o que prova que o conjunto L = {u1, · · · , un, un+1, · · · , ut, vn+1, · · · , vs} e´ LI, enta˜o temos uma base e fica provada a identidade dim(U + V ) = dim(U) + dim(V )− dim(U ∩ V ). Corola´rio 20. Vale que dim(U + V ) ≤ dim(U) + dim(V ). Propriedade 77. Se A e B sa˜o matrizes n× n com entradas em K enta˜o Posto(A+B) ≤ Posto(A) + Posto(B). Demonstrac¸a˜o. Seja Sc(A) o espac¸o gerado pelas colunas de A, temos que dimSc(A) = Posto(A), vale ainda que Sc(A+B) ⊂ Sc(A) + Sc(B) sendo v1, · · · , vn vetores coluna de A e u1, · · · , un vetores coluna de B enta˜o um elemento de Sc(A+B) e´ da forma c1(v1 + u1) + · · · cn(vn + un) = c1v1 + · · · cnvn + c1u1 + · · · cnun portanto vale dim(Sc(A+B)) ≤ dim[Sc(A) + Sc(B)] e usando a desigualdade anterior temos que dim[Sc(A) + Sc(B)] ≤ dimSc(A) + dimSc(B) = Posto(A) + Posto(B) CAPI´TULO 1. 54 da´ı temos Posto(A+B) ≤ Posto(A) + Posto(B). Corola´rio 21. Se U ∩ V = {0} , U , e V subespac¸os de W , enta˜o U + V e´ soma direta e vale dim(U) + dim(V ) = dim(U + V ). 1.4 Representac¸a˜o matricial de operadores Definic¸a˜o 38 (Matriz de transformac¸a˜o linear). Sejam A : V → F linear, V e F espac¸os vetoriais sobre K de dimenso˜es n e m, tendo bases ordenadas α = (vk) n 1 , b = (wk) m 1 , respectivamente, a matriz da transformac¸a˜o A nas bases α e b e´ denotada por [A]bα = [ak,j] definida como a matriz m× n onde ak,j e´ dado implicitamente por A(vj) = m∑ k=1 ak,jwk. Em cada coluna da matriz colocamos os vetores A(vj). Estamos considerando bases ordenadas α = (vk) n 1 , b = (wk) m 1 que sa˜o bases em que se considera a ordem dos vetores fixadas. Corola´rio 22. A matriz de um funcional linear A : V → K, onde dimV = n e´ do tipo 1 × n. De uma transformac¸a˜o linear A : K → V temos uma matriz do tipo n × 1, todo vetor na imagem e´ determinado por A(e1) = v, A(te1) = tA(e1) = tv. Propriedade 78. Seja A : V → V linear com dim(V ) = 1 enta˜o A = αI para alguma constante α. Demonstrac¸a˜o. Tomamos u 6= 0 em V enta˜o {u} e´ base, A(u) = αu, dado v ∈ V temos v = λu da´ı A(v) = λA(u) = λαu = αv por isso A = αI. Propriedade 79. Sejam A : V → F linear, V e F espac¸os vetoriais sobreK de dimenso˜es n e m, tendo bases ordenadas α = (vk) n 1 , b = (wk) m 1 respectivamente, enta˜o escrevendo um elemento v = n∑ k=1 ckvk de V como a matriz coluna n× 1 CAPI´TULO 1. 55 v = c1 ... cn sendo a matriz da transformac¸a˜o A nas bases α e b e´ denotada por [A]bα = [ak,j] = T enta˜o a multiplicac¸a˜o de matrizes Tv fornece o resultado da aplicac¸a˜o do operador A no vetor v, considerando o resultado na base ordenada b = (wk) m 1 como vetor coluna m× 1 w = y1 ... ym . Demonstrac¸a˜o. Tv = a1,1 a1,2 · · · a1,n a2,1 a2,2 · · · a2,n ... ... · · · ... am,1 am,2 · · · am,n c1 c2 ... cn = = a1,1c1 + a1,2c2 + · · ·+ a1,ncn a2,1c1 + a2,2c2 + · · ·+ a2,ncn ... am,1c1 + am,2c2 + · · ·+ am,ncn em que o termo na k-e´sima entrada da matriz e´ n∑ j=1 ak,jcj , agora v = n∑ j=1 cjej aplicando A temos A(v) = n∑ j=1 cjA(ej) = n∑ j=1 cj m∑ k=1 ak,jwk = m∑ k=1 ( n∑ j=1 cjak,j)wk como quer´ıamos demonstrar, enta˜o aplicar o operador em v tem o mesmo efeito que multiplicar as matrizes. Propriedade 80. Seja V de dimensa˜o n, F de dimensa˜o m, ambos sobre K, enta˜o a dimensa˜o de L(V,F ) e´ nm . CAPI´TULO 1. 56 Demonstrac¸a˜o. L(V, F ) e´ isomorfo ao espac¸o das matrizes m × n. Consideramos base α de V e b de F e a func¸a˜o f : L(V, F )→Mm×n(K) com f(A) = [A]bα. Tal operador e´ linear pois dado c ∈ K, A,B ∈ L(V, V ) temos f(cA+B) = c[A]bα + [B] b α = cf(A) + f(B). Tal aplicac¸a˜o e´ injetora pelo resultado anterior e sobrejetora pois toda matriz define um operador linear. (revisar) Quando tomarmos transformac¸o˜es lineares de Rn em Rm tomaremos em geral a matriz do operador na base canoˆnica, caso outra base seja usada diremos isso de forma explicita e no caso de A : V → V linear dimV = n iremos considerar tambe´m, salvo menc¸a˜o em contra´rio apenas uma base α de V , na qual representaremos um operador A, nesse caso podemos denotar sua representac¸a˜o nessa base como [A]v1 . Propriedade 81. Sejam V de dimensa˜o finita sobre K, α ∈ K, A : V → V linear com A(v) = αv ∀v ∈ V , relativamente a qualquer base α = (vk)n1 de V a matriz [A]α do operador A e´ sempre a mesma sendo αIn×n. Demonstrac¸a˜o. Dada a base (vk) n 1 temos A(vk) = αvk logo a matriz assume a forma desejada. Definic¸a˜o 39 (Homotetia). A : V → V com A(v) = αv ∀v ∈ V e´ dita ser uma homotetia. Exemplo 23. Sejam P : E → E projec¸a˜o sobre F1 paralela a` F2, V1, V2 ⊂ F1, F2 bases, enta˜o V = V1 ∪ V2 e´ uma base de E, a matriz [P ]v1 possui os primeiros t = dimF1 elementos na diagonal iguais a` 1 e todos os outros termos da matriz nulos. Propriedade 82. A matriz do produto de operadores TA : V → F nas bases α e u e´ o produto de matrizes [T ]ub [A] b α, isto e´, [T ]ub [A] b α = [TA] u α sendo A : V → W e T : W → F lineares α = (vk)n1 base de V , b = (wk)s1 base de W , u = (uk) p 1 base de F . CAPI´TULO 1. 57 Demonstrac¸a˜o. Temos que A(vj) = s∑ k=1 ak,jwk, T (wk) = p∑ l=1 bl,kul logo TA(vj) = s∑ k=1 ak,j p∑ l=1 bl,kul = p∑ l=1 ( s∑ k=1 ak,jbl,k)︸ ︷︷ ︸ cl,j ul = p∑ l=1 ul tem matriz p× n. De outro lado [T ]ub possui elementos dados por [T ] u b = (bl,k) ∈Mp×s, T (wk) = p∑ l=1 bl,kul , [A]bα = (ak,j) ∈ Ms×n com A(vj) = s∑ k=1 ak,jwk, o produto resulta em uma matriz [T ]ub [A] b α = (dl,j) que e´ Mp×n cujos elementos sa˜o dados por dl,j = s∑ k=1 bl,kak,j que e´ igual a` cl,i, enta˜o as matrizes [T ] u b [A] b α e [TA] u α possuem mesmas dimenso˜es e ele- mentos. 1.4.1 Matriz de mudanc¸a de base Teorema 1 (Mudanc¸a de base). Sejam A : E → F linear (vk)n1 = v , (wk)m1 = w bases de E,F em ordem, tais que A : E → F possui matriz [A]wv = (ak,j), isto e´, A(vj) = m∑ k=1 ak,jwk tomando as bases (v′k) n 1 = v ′ , (w′k) m 1 = w ′ bases de E,F em ordem, tais que A : E → F possui matriz [A]w ′ v′ = (a ′ k,j), isto e´, A(v′j) = m∑ k=1 a′k,jw ′ k para obter uma relac¸a˜o entre [A]w ′ v′ e [A] w v tomamos as matrizes de passagem [I] v v′ = (pk,j) ∈Mn×n e [I]ww′ = (qk,j) ∈Mn×n com v′j = n∑ k=1 pk,jvk CAPI´TULO 1. 58 w′r = m∑ i=1 qi,rwi A(v′j) = n∑ k=1 pk,jA(vk) = n∑ k=1 pk,j m∑ i=1 ai,kwi = = m∑ i=1 ( n∑ k=1 ai,kpk,j)︸ ︷︷ ︸ ci,j wi de outra maneira A(v′j) = m∑ r=1 a′r,jw ′ r = m∑ r=1 a′r,j m∑ i=1 qi,rwi = = m∑ r=1 ( m∑ i=1 qi,ra ′ r,j)︸ ︷︷ ︸ di,j wi temos a igualdade dos coeficientes enta˜o tambe´m a igualdade no produto de matrizes [A]wv [I] v v′ = [I] w w′ [A] w′ v′ toda matriz de passagem e´ invert´ıvel pois o operador associado e´ invert´ıvel enta˜o temos [A]w ′ v′ = ([i] w w′) −1[A]wv [I] v v′ em especial se w = v e w′ = v′ enta˜o [A]v ′ v′ = ([i] v v′) −1[A]vv[I] v v′ . Demonstrac¸a˜o.
Compartilhar