Buscar

transformarçoes lineares

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 59 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 59 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 59 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Anotac¸o˜es sobre transformac¸o˜es lineares.
Rodrigo Carlos Silva de Lima ‡
rodrigo.uff.math@gmail.com
‡
1
Suma´rio
1 3
1.1 Transformac¸o˜es lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Produto de transformac¸o˜es lineares . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Decomposic¸a˜o c´ıclica para operadores nilpotentes . . . . . . . . . . 16
1.3 Nu´cleo e imagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.1 Teorema do nu´cleo e imagem . . . . . . . . . . . . . . . . . . . . . 36
1.3.2 Projec¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.3.3 Subespac¸o invariantes . . . . . . . . . . . . . . . . . . . . . . . . . 47
1.3.4 Dimensa˜o do produto cartesiano . . . . . . . . . . . . . . . . . . . . 51
1.3.5 dim(U + V ) = dim(U) + dim(V )− dim(U ∩ V ). . . . . . . . . . . . 52
1.4 Representac¸a˜o matricial de operadores . . . . . . . . . . . . . . . . . . . . 54
1.4.1 Matriz de mudanc¸a de base . . . . . . . . . . . . . . . . . . . . . . 57
2
Cap´ıtulo 1
1.1 Transformac¸o˜es lineares
Definic¸a˜o 1 (Transformac¸o˜es lineares). Sejam V e F espac¸os vetoriais sobre um corpo
K, uma transformac¸a˜o linear A : V → F e´ uma func¸a˜o que associa cada vetor w ∈ V
em um vetor u ∈ F , que simbolizaremos por A(w) = u, sendo va´lida a propriedade de
linearidade
A(αw + βz) = α.A(w) + βA(z)
onde w, z ∈ V e α, β ∈ K arbitra´rios. A pode ser chamada de transformac¸a˜o.
Corola´rio 1. A(0v) = 0F , pois A(0v) = A(0v + 0v) = A(0v) + A(0v) pela lei do corte
segue que A(0v) = 0F .
Propriedade 1. Vale
A(
n∑
k=1
ck.vk) =
n∑
k=1
ck.A(vk).
Definic¸a˜o 2 (Operador identidade). E´ a transformac¸a˜o I : V → V definida como I(w) =
w.
Corola´rio 2. O operador identidade e´ uma transformac¸a˜o linear, pois I(αw + βz) =
αw + βz = αI(w) + βI(z).
Definic¸a˜o 3 (Transformac¸a˜o nula). Definimos a transformac¸a˜o nula 0 : V → F como a
transformac¸a˜o que faz
0v.v = 0F .
3
CAPI´TULO 1. 4
Corola´rio 3. A transformac¸a˜o nula e´ uma transformac¸a˜o linear, pois
0v.(αv + βw) = 0F = α0v(v) + β0v(w) = 0F .
Definic¸a˜o 4 (Adic¸a˜o de transformac¸o˜es lineares). Dadas duas transformac¸o˜es lineares
A, T de V em F , definimos a adic¸a˜o de dois operadores, que leva no operador A + T :
V → F tal que
(A+ T )(w) = A(w) + T (w).
A+ T chamamos de soma das transformac¸o˜es lineares A e T .
Corola´rio 4. A soma de duas transformac¸o˜es lineares e´ uma transformac¸a˜o linear, pois
(A+ T )(αw + βv) = A(αw + βv) + T (αw + βv) = αA(w) + βA(v) + αT (w) + βT (v) =
= α(A+ T )(w) + β(A+ T )(v).
Corola´rio 5. A transformac¸a˜o nula serve como elemento neutro, pois
(0 + A)(w) = 0v.w + A(w) = 0f + A(w) = A(w).
Corola´rio 6. Vale a comutatividade
(A+ T )(v) = A(v) + T (v) = T (v) + A(v) = (T + A)(v).
Corola´rio 7. A adic¸a˜o e´ associativa
((A+ T ) +W )(v) = (A+ T )(v) +W (v) = A(v) + T (v) +W (v) =
= A(v) + (T (v) +W (v)) = (A+ (T +W ))(v).
Definic¸a˜o 5 (Produto por nu´meros escalares). Dado α ∈ K definimos αA : V → F como
o operador que faz
(αA)(w) = α(A(w)).
Corola´rio 8. O produto por escalar e´ distributivo pois
(α + β)(A)(v) = (α + β)(A(v)) = αA(V ) + βA(v) = (αA)(v) + (βA)(v).
(α(A+ T ))(v) = α((A+ T )(v)) = α(A(v) + T (v)) = αA(v) + αT (v) = (αA+ αT )(v).
CAPI´TULO 1. 5
Corola´rio 9. Como corola´rio temos para todo T uma transformac¸a˜o −T tal que (T −
T )(v) = T (v)− T (v) = 0v.
Corola´rio 10. αA e´ uma transformac¸a˜o linear , pois
(αA)(βw + cv) = α(A(βw + cv)) = α(βA(w) + cA(v)) = αβA(w) + αcA(v) =
= β(αA)(w) + c(αA)(v).
Corola´rio 11. Produto por 1.
(1A)(w) = 1(A(w)) = A(w).
Definic¸a˜o 6 (Conjunto das transformac¸o˜es lineares). O conjunto das transformac¸o˜es
lineares de V em F e´ simbolizado por L(V, F )., Caso V = F , podemos denotar L(V ).
Definic¸a˜o 7 (Operadores lineares). Sa˜o as transformac¸o˜es lineares de um espac¸o em si
mesmo A : V → V.
Definic¸a˜o 8 (Funcionais lineares). Sa˜o transformac¸o˜es lineares A : V → K.
Definic¸a˜o 9 (Espac¸o vetorial dual). O espac¸o vetorial dual de um espac¸o vetorial V e´ o
conjunto das transformac¸o˜es lineares de V em K, L(V,K) que tambe´m pode ser denotado
por V ∗, onde K e´ corpo de escalares de V . A base de um espac¸o vetorial dual e´ chamada
de base dual.
Propriedade 2. Seja (vk)
n
1 base de E, para cada k ∈ In seja fk : E → R funcional linear
com fk(vj) = δ(k,j), (fk)
n
1 e´ uma base de E
∗ e vale fs(v) = xs para v =
n∑
k=1
xkvk em E.
Demonstrac¸a˜o. Seja v =
n∑
k=1
xkvk, aplicando fs temos
fs(v) =
n∑
k=1
xkfs(vk) = xs.
Seja f : E → R, vamos mostrar que
f =
n∑
k=1
ckfk
CAPI´TULO 1. 6
para constantes ck ∈ K. Seja v ∈ E arbitra´rio, temos
v =
n∑
k=1
akvk,
aplicamos f
f(v) =
n∑
k=1
ak︸︷︷︸
fk(v)
f(vk)︸ ︷︷ ︸
ck
=
n∑
k=1
ckfk(v)
logo (fk)
n
1 gera o espac¸o. Agora provamos que os elementos sa˜o LI. Suponha que
n∑
k=1
tkfk = 0
aplicamos em vs arbitra´rio, temos
ts fs(vs)︸ ︷︷ ︸
1
= 0
logo ts = 0, como e´ arbitra´rio temos todos coeficientes nulos e os vetores sa˜o LI .
Exemplo 1. Os operadores lineares P, P ′, S, S ′ : R2 → R2 definidos como P (x, y) =
(x, 0), P ′(x, y) = (0, x), S(x, y) = (0, y), S(x, y) = (y, 0) formam um base de L(R2).
Seja f : R2 → R2 linear, enta˜o
f(x, y) = xf(1, 0) + yf(0, 1) = x(c1, c3) + y(c2, c4) = (c1x+ c2y, c3x+ c4y)
enta˜o temos claramente
f(x, y) = c1P (x, y) + c2S
′(x, y) + c3P ′(x, y) + c4S(x, y).
Tais func¸o˜es sa˜o LI, pois supondo
c1P + c2P
′ + c3s+ c3S ′ = (0, 0)
aplicando em (1, 0) temos
c1(1, 0) + c2(0, 1) + c3(0, 0) + c4(0, 0) = (0, 0)
que implicam c1 = c2 = 0, aplicando em (0, 1) temos
c3(0, 1) + c4(1, 0) = (0, 0)
o que implica c3 = c4 = 0 enta˜o todos coeficientes sa˜o obrigatoriamente nulos e temos
uma base.
CAPI´TULO 1. 7
Propriedade 3. Seja v 6= 0 em E, com dimE = n. Dado f 6= {0} existe uma trans-
formac¸a˜o linear A : E → F tal que A(v) 6= 0.
Demonstrac¸a˜o. Tomamos uma base de E, (vk)
n
1 , definimos T (v1) = w1 6= 0 em F e
T (vk) = 0 para os outros valores, da´ı T (v) = w1 6= 0.
Propriedade 4. Sejam V e W espac¸os vetoriais arbitra´rios, B uma base de V e S, T :
V →W transformac¸o˜es lineares T = S ⇔ V e T coincidem em todo vetor de B.
Demonstrac¸a˜o. ⇒).
Se duas transformac¸o˜es sa˜o iguais enta˜o elas coincidem nos vetores de uma base.
⇐).
Seja w ∈ V um vetor qualquer de V , vamos mostrar que T (w) = S(w) e da´ı T e S
sa˜o iguais. w se escreve como combinac¸a˜o linear de um nu´mero finito elementos da base
, digamos (vk)
n
1 , enta˜o
w =
n∑
k=1
ckvk
aplicando T temos
T (w) =
n∑
k=1
ckT (vk) =
n∑
k=1
ckS(vk) = S(w).
O que prova o desejado.
o mesmo resultado vale se trocamos base B por conjunto de geradores.
Corola´rio 12. L(V, F ) e´ um espac¸o vetorial. Segue das propriedades que ja´ demonstra-
mos.
Propriedade 5. Sejam V e W espac¸os vetoriais e B uma base de V . Podemos a cada
vetor uk ∈ B associar um vetor qualquer u′k ∈ W , existindo uma u´nica transformac¸a˜o
linear T : V → W tal que T (uk) = u′k para cada uk ∈ B. V e W podem ser espac¸o de
dimensa˜o finita ou na˜o e de dimenso˜es diferentes, sem bijec¸a˜o entre as bases.
Demonstrac¸a˜o. Todo vetor v ∈ V se exprime de modo u´nico como v =
n∑
k=1
ak.uk
com uk ∈ B. Definimos T : V → W por
T (V ) =
n∑
k=1
ak.u
′
k.
CAPI´TULO 1. 8
Dados v, w ∈ V e c ∈ R tem-se
cv =
n∑
k=1
cak.uk, e w =
n∑
k=1
bk.uk
enta˜o c.v + w =
n∑
k=1
(cak + bk).uk logo
T (cv + w) =
n∑
k=1
(cak + bk).u
′
k = c
n∑
k=1
ak.u
′
k +
n∑
k=1
bk.u
′
k = cT (v) + T (w)
portanto T : V → W e´ uma transformac¸a˜o linear. Suponha uma outra transformac¸a˜o
linear A :V → W tal que A(uk) = u′k, ∀uk ∈ B, da´ı tomando v =
n∑
k=1
ak.uk tem-se
A(v) = A(
n∑
k=1
ak.uk) =
n∑
k=1
ak.A(uk) =
n∑
k=1
ak.u
′
k = T (v)
como o vetor e´ arbitra´rio segue que A = T.
Propriedade 6. Se A ⊂ V e´ um conjunto de elementos colineares enta˜o T (A) tambe´m
e´ um conjunto de elementos colineares.
Demonstrac¸a˜o. Os elementos de A sa˜o da forma λv e da´ı os elementos de T (A) sa˜o
da forma λT (v), por isso sa˜o colineares.
Propriedade 7. Sejam A : E → F linear, C ⊂ E convexo, enta˜o A(C) ⊂ F e´ convexo.
O mesmo vale para C uma variedade afim, A(C) e´ uma variedade afim.
Demonstrac¸a˜o. Sejam y, y′ ∈ A(C) vamos mostrar que ty + (1 − t)y′ ∈ A(C) para
t ∈ [0, 1]. y = A(x), y′ = A(x′), tx + (1 − t)x′ ∈ C para t ∈ [0, 1] por convexidade de C
da´ı A(tx+ (1− t)x′) ∈ A(C) e vale
A(tx+ (1− t)x′) = tA(x) + (1− t)A(x′) = ty + (1− t)y′ ∈ A(C)
como quer´ıamos demonstrar.
A demonstrac¸a˜o para variedade afim funciona tomando t ∈ R arbitra´rio .
Exemplo 2. Seja A : R2 → R2 linear com A(x, y) = (ax+ by, cx+ dy) com ad− bc 6= 0
enta˜o A(v) = 0⇒ v = 0, isto e´, A e´ injetiva.
CAPI´TULO 1. 9
 ax+ by = 0cx+ dy = 0
multiplicando a primeira por d e a segunda por b temos adx+ bdy = 0cbx+ bdy = 0
subtraindo a primeira da segunda, segue (ad− bc)x = 0⇒ x = 0 como b e d na˜o podem
ser ambos nulos isso implica y = 0, portanto v = (x, y) = 0.
Exemplo 3. Se duas transformac¸o˜es lineares sa˜o ideˆnticas num conjunto de geradores
de V espac¸o vetorial, enta˜o as transformac¸o˜es lineares sa˜o a mesma transformac¸a˜o em
V , pois um conjunto de geradores possui uma base, sendo transformac¸o˜es ideˆnticas numa
base implica que sa˜o ideˆnticas.
Definic¸a˜o 10 (Transformac¸a˜o afim). A : V → F linear entre espac¸os vetoriais e´ dita
transformac¸a˜o afim quando vale
A((1− t)u+ tv) = (1− t)A(u) + tA(v) ∀u, v ∈ V, t ∈ R.
Propriedade 8. Nas condic¸o˜es da definic¸a˜o anterior, se E ⊂ V e´ variedade afim enta˜o
A(E) e´ variedade afim.
1. Se A(0) = 0 enta˜o A e´ linear.
2. Dada T : V → F linear, enta˜o A : V → F com A(v) = T (v) + b e´ afim com b ∈ F
fixo.
3. A : V → F e´ afim ⇔ existe T ∈ L(V, F ) e b ∈ F com A(v) = T (v) + b ∀v ∈ V.
Demonstrac¸a˜o. Sejam y, y′ ∈ A(E) vamos mostrar que ty + (1 − t)y′ ∈ A(E) para
t ∈ R. y = A(x), y′ = A(x′), tx + (1− t)x′ ∈ E para t ∈ R por E ser variedade afim da´ı
A(tx+ (1− t)x′) ∈ A(E) e vale
A(tx+ (1− t)x′) = tA(x) + (1− t)A(x′) = ty + (1− t)y′ ∈ A(C)
como quer´ıamos demonstrar.
CAPI´TULO 1. 10
1. Escrevemos cv = (1− c)0 + cv, da´ı A(cv) = (1− c)A(0) + cA(v) = cA(v), c ∈ R.
A(
u
2
+
v
2
) =
1
2
(A(u) + A(v)) =
1
2
A(u+ v)⇒ A(u) + A(v) = A(u+ v).
Enta˜o A e´ linear .
2. Dada T : V → F linear, enta˜o A : V → F com A(v) = T (v) + b e´ afim com b ∈ F
fixo.
Sejam u, v ∈ V , temos tu+ (1− t)v ∈ V , aplicamos A
A(tu+(1−t)v) = T (tu+(1−t)v)+b = tT (u)+(1−t)T (v)+b = t[T (u)+b]+(1−t)[T (v)+b] = tA(u)+(1−t)A(v).
3. ⇐). Ja´ vimos A(v) = T (v) + b e´ afim. ⇒) Se A e´ afim, enta˜o T : V → F com
T (v) = A(v)− A(0) e´ linear pois T (0) = 0 e e´ afim pois
T (tu+(1−t)v) = A(tu+(1−t)v)−A(0) = tA(u)+(1−t)A(v)−A(0) = t[A(u)−A(0)]+(1−t)[A(v)−A(0)] = t[T (u)]+(1−t)[T (v)]
T sendo afim e T (0) = 0 enta˜o T e´ linear, por isso A(v) = T (v) + A(0)︸︷︷︸
b
.
1.2 Produto de transformac¸o˜es lineares
Definic¸a˜o 11 (Produto de transformac¸o˜es lineares). Dadas as transformac¸o˜es lineares
A : V → W e T : W → G definimos o produto TA das transformac¸o˜es lineares como a
transformac¸a˜o TA : V → G tal que ∀w ∈ V tem-se
(TA)(w) := T (A(w)).
Propriedade 9. O produto de transformac¸o˜es lineares e´ linear.
Demonstrac¸a˜o.
(TA)(cv+w) = T (A(c.v+w)) = T (c.A(v)+A(w)) = cT (A(v))+T (A(w)) = c(TA)(v)+(TA)(w).
Corola´rio 13. Vale a associatividade (TA)W = T (AW ) pois a composic¸a˜o de aplicac¸o˜es
e´ associativa.
Propriedade 10. A adic¸a˜o e´ totalmente distributiva em relac¸a˜o a multiplicac¸a˜o.
CAPI´TULO 1. 11
Demonstrac¸a˜o.
((T + A)W )(v) = (T + A)(W (v)) = T (W (v)) + A(W (v)) = (TW )(v) + (AW )(v)
(W (T+V ))(v) = W ((T+V )(v)) = W (T (v)+V (v)) = W (T (v))+W (V (v)) = (WT )(v)+(WV )(v).
Propriedade 11. Para cada c ∈ K, T,W ∈ L(V ) temos que
c(TW ) = (cT )W = T (cW ).
Demonstrac¸a˜o. Dado um vetor qualquer v ∈ F
c(TW )(v) = (cT )W (v) = T (cW )(v)
por linearidade dos operadores.
Corola´rio 14. L(V, V ) e´ uma a´lgebra linear com unidade I, operador identidade.
Exemplo 4. Na˜o vale necessariamente a comutatividade para o produto de transformac¸o˜es
como por exemplo
A(x, y) = (0, x), B(x, y) = (y, 0)
enta˜o
AB(x, y) = A(y, 0) = (0, y)
BA(x, y) = B(0, x) = (x, 0)
que na˜o comutam.
Na˜o vale a lei do corte, podemos ter TA = BT com A,B, T na˜o nulos na˜o implicando
A = B. tomando T (x, y) = (x, 0) segue que
TA(x, y) = T (0, x) = (0, 0)
BT (x, y) = B(x, 0) = (0, 0)
logo TA = BT pore´m B neqA e A,B, T sa˜o na˜o nulos. Ale´m disso T e´ na˜o invert´ıvel, se
fosse A = T−1BT = 0 absurdo.
CAPI´TULO 1. 12
Definic¸a˜o 12 (Poteˆncias de um operador ). Definimos a poteˆncia An, para n natural
como
An =
n∏
k=1
A
como o produto de n vezes o operador A por ele mesmo.
Em especial se n = 0, definimos A0 = I =
0∏
k=1
A, e´ o operador identidade.
Definimos tambe´m o produto´rio de operadores
n∏
k=1
Ak
como aplicar o operador n vezes, caso n = 0 denotamos como a identidade I.
Exemplo 5. No espac¸o vetorial dos polinoˆmios o operador Dx−xD e´ a identidade, onde
x e´ o operador que multiplica p polinoˆmio por x.
D(xp)− x(Dp) = p+ xp′ − xp′ = p = Ip.
Definic¸a˜o 13 (Operador nilpotente.). Um operador T : V → V chama-se nilpotente
quando existe algum n ∈ N tal que T n = 0.
Definic¸a˜o 14 (Matriz nilpotente). Uma matriz A, n×n para algum n natural e´ dita ser
nilpotente se existe algum k tal que Ak = 0.
Propriedade 12. Uma matriz nilpotente na˜o e´ invert´ıvel, ou de forma equivalente, possui
determinante nulo.
Demonstrac¸a˜o. Suponha que A seja nilpotente enta˜o existe t ∈ N tal que At = 0
aplicando o determinante temos
det(A)t = 0
logo det(A) = 0 a matriz e´ na˜o invers´ıvel .
Propriedade 13. Se Bt+1 = 0 enta˜o I −B possui inversa sendo
t∑
s=0
Bk.
CAPI´TULO 1. 13
Demonstrac¸a˜o.
(I −B)
t∑
s=0
Bk = −
t∑
s=0
(Bk+1 −Bk) = −(Bt+1︸︷︷︸
0
−B0) = I.
Definic¸a˜o 15 (´Indice de um operador Nilpotente). O ı´ndice de um operador nilpotente
T e´ o menor ı´ndice k ∈ N tal que T k = 0 e T k−1v 6= 0 para algum v ∈ V. Denotaremos
tal nu´mero por I(T ).
Se um operador e´ nilpotente enta˜o ele possui um ı´ndice de nilpoteˆncia inteiro positivo,
na˜o vale T 0 = 0 pois T 0 = I.
Propriedade 14. Seja A : V → V nilpotente, enta˜o existe v 6= 0 em V tal que A(v) = 0,
em especial V na˜o e´ injetora e por isso na˜o e´ invert´ıvel.
Demonstrac¸a˜o. Seja s o ı´ndice de nilpoteˆncia de A, enta˜o existe v′ 6= 0 tal que
As−1(v′) := v 6= 0, se fosse As−1(v) = 0 ∀v ∈ V o ı´ndice seria s− 1, enta˜o A(As−1(v′)) =
A(v) = 0 e v 6= 0.
Exemplo 6. Seja Pn = {P ∈ K[x], ∂P ≤ n}∪{0} e D : Pn → Pn, D o operador derivada,
enta˜o D e´ nilpotente pois Dn+1 = 0 e para todo k ≤ n temos Dkxk 6= 0, enta˜o seu ı´ndice
e´ n+ 1.
Propriedade 15. Seja v ∈ V tal que T s(v) = 0 e T s−1(v) 6= 0 enta˜o os vetores (T k(v))s−1k=0
sa˜o LI.
Demonstrac¸a˜o. Seja
s−1∑
k=0
ckT
k(v) = 0
aplicamos T s−1
s−1∑
s=0
ckT
k+s−1(v) = c0T s−1(v) +
s−1∑
s=1
ckT
k+s−1(v) = c0T s−1(v) +
s−2∑
k=0
ckT
k+s(v)︸ ︷︷ ︸
=0
= 0
logo c0 = 0, seguimos indutivamente aplicando agora T
s−2 que anula todos outros termos
e deixa c1T
s−1(v) = 0 logo c1 = 0, continuando o processo chegamos que cada ck = 0
enta˜o os vetores sa˜o LI.
CAPI´TULO 1. 14
Propriedade 16. Seja V com dimV = n, T : V → V linear. Se existe s tal que T s = 0
enta˜o T n= 0.
Demonstrac¸a˜o. Suponha que T n 6= 0 enta˜o existe v ∈ V tal que T n(v) 6= 0 e da´ı
todas poteˆncias T k(v) 6= 0 com k < n pois caso contra´rio T n(v) = 0. O conjunto dos
elementos (T k(v))nk=0 e´ LI e possui n+1 elementos em V o que e´ absurdo, enta˜o tem que
vale T n(v) = 0 ∀v logo T n e´ nulo .
Corola´rio 15. Se dimV = n e T : V → V e´ nilpotente enta˜o o ı´ndice de T , I(T ) ≤ n.
Propriedade 17. Seja V espac¸o vetorial dimV = n, T um operador nilpotente de V ,
I(T ) = k. Seja w ∈ V tal que T s−1w 6= 0 e considere
W = S(T kw)s−10
que possui dimensa˜o s pelo que ja´ provamos. Enta˜o existe um subespac¸o U ≤ V tal que
1. W e´ T invariante.
2. V = W ⊕ U.
3. U e´ T invariante.
Demonstrac¸a˜o.
1. Dado v ∈ W ele e´ da forma
v =
s−1∑
k=0
ckT
kw
aplicando T temos
t(v) =
s−1∑
k=0
ckT
k+1w =
s∑
k=1
ck−1T kw =
s−1∑
k=1
ck−1T kw ∈ W.
Provaremos por induc¸a˜o sobre s, para s = 1, T = 0, sendo w 6=∈ V W = s(w),
qualquer U < V e´ T -invariante logo escolhemos U tal que V = W ⊕V , basta por exemplo
completar (w) para uma base de V , os outros elementos que colocarmos nessa base sa˜o
geradores de U . Qualquer subespac¸o e´ T -invariante pois T e´ nulo. Assumindo que o lema
vale para todo operador com ı´ndice menor que s. Tomamos F = ImT < V . Note que
CAPI´TULO 1. 15
F = {Tv, v ∈ V }, T |F e´ nilpotente com I(T |F ) = s − 1. O lema vale para T |F , enta˜o
escolhemos Tw ∈ F e temos T s−2(Tw) 6= 0. Seja w0 = S(T kw)s−11 , logo existe U0 < F tal
que F = W0 ⊕ U0 e U0 e´ T |F invariante. Resumindo temos
1. F = U0 ⊕W0 = ImT.
2. U0 e´ T invariante.
3. Definimos U1 = T
−1(U0) = {v ∈ V, Tv ∈ U0}, U1 e´ T invariante, pois v ∈ U1 ⇔
T (v) ∈ U0, tomando w ∈ U1 temos que mostrar que T (w) ∈ U1 , isto e´, T 2(w) ∈ U0,
pore´m como U0 e´ T -invariante e T (w) ∈ U0 segue que T 2(w) ∈ U0 e da´ı T (w) ∈ U1.
Afirmamos que V = W + U1, que iremos provar. Observe que para todo v ∈ V
temos Tv ∈ F ⇒ Tv = u0 + w0, u0 ∈ U0 e w0 ∈ W0, onde
w0 =
s−1∑
k=1
ckT
kw.
Lembrando que W = S(T k)k−10 , isso implica que w0 ∈ W ale´m disso w0 = T (w′)
onde w′ =
s−1∑
k=1
ckT
k−1w ∈ W , portanto
Tv = u0 + T (w
′), w ∈ W ⇒ u0 = T (v − w)⇒ v − w ∈ U1 ⇒
v = w︸︷︷︸
∈W
+(v − w)︸ ︷︷ ︸
∈U1
∈ W + U1.
Vamos mostrar agora que U0∩W = {0}. Seja w′ na intersec¸a˜o T (w′) ∈ T (U0)︸ ︷︷ ︸
⊂TU1
∩T (W )︸ ︷︷ ︸
⊂W0
logo T (w′) = 0. Como w′ ∈ W temos
w′ =
s−1∑
k=0
ckT
kw ⇒ 0 = Tw′ =
s−1∑
k=0
ckT
k+1w =
s−2∑
k=0
ckT
k+1w
como os termos sa˜o LI segue que ck = 0 de k = 0 ate´ k = s−2, da´ı w′ = cs−1T s−1w,
disso segue que w′ ∈ W0, w′ ∈ U0 ∩W0 enta˜o w′ = 0. Considere os subespac¸os de
U1, U0 < U1 e W ∩ U1 < U1, seja U ′ tal que
U1 = (U
′ ⊕ U0)⊕ (W ∩ U1)
lembre que dado V1 < V existe V2 < V tal que V = V1 ⊕ V2, bastando completar
uma base de V1 a uma base de V2. Definindo U = U
′ ⊕ U0 enta˜o temos
V = W + U1 , U1 = U
′ + U0 +W ∩ U1 ⇒ ∀v ∈ V
CAPI´TULO 1. 16
v = w + u1
mas u1 = u
′ + u0 + w′ ⇒ v = (w + w′)︸ ︷︷ ︸
∈W
+(u′ + u0)︸ ︷︷ ︸
∈U
⇒ V = W + U . A soma e´ direta
pois
U1 = (U
′ ⊕ U0)⊕ (W ∩ U1), U = U ′ ⊕ U0 ⊂ U1 ⇒ V = W ⊕ U
pois vale tambe´m W ∩ U ⊂ (W ∩ U1) ∩ U = {0} U e´ T invariante pois T (U) ⊂
T (U1) ⊂ T (U0) ⊂ U.
1.2.1 Decomposic¸a˜o c´ıclica para operadores nilpotentes
Propriedade 18 (Decomposic¸a˜o c´ıclica para operadores nilpotentes). Seja V espac¸o
vetorial de dimensa˜o finita e T operador nilpotente, enta˜o existem inteiros, sendo k o
ı´ndice de T ,
k ≥ k1 ≥ · · · kr ≥ 1
unicamente determinados e vetores (vk)
r
1 ∈ V tais que T kjvj = 0∀j ∈ Ir tais que os vetores
(v1, T v1, · · · , T k1−1v1, v2, T v2, · · · , T k2−1v2, · · · vr, T vr, T kr−1vr)
formam uma base de V em particular
1. r = dimN(T )
2. dimV =
r∑
k=1
Kk.
Demonstrac¸a˜o. Tome v1 ∈ V tal que T k−1v1 6= 0, pois T e´ de ı´ndice K, seja
W1 = S(T
sv1)
k−1
0 , logo dimW1 = k, escolhemos k1 = k, existe U1 < V T -invariante tal
que V = W1⊕U1, tomamos T |U1U1 → U1, temos que T |U1 e´ nilpotente (pois T e´ nilpotente)
de ı´ndice K2 ≤ K, logo existe v2 ∈ U1 tal que T k2−1v2 6= 0. Se W2 = S(T sv2)k2−10 , existe
U2 < U1 que e´ T |U1- invariante e U1 = W2 ⊕ U2. iterando o racioc´ınio, obtemos uma
cadeia decrescente
U ⊃ U1 ⊃ U2
que deve terminar pois dimV < ∞, logo o u´ltimo elemento da cadeia e´ Ur = {0},
conseguimos inteiros
k ≥ k1 ≥ · · · kr ≥ 1
CAPI´TULO 1. 17
e (vk)
r
1 tais que
Ws = S(T
jvs)
ks−1
j=0
com
V = W1 ⊕ U1 = W1 ⊕W2 ⊕ U2 =
r⊕
j=1
Wj.
Assim
(v1, T v1, · · · , T k1−1v1, v2, T v2, · · · , T k2−1v2, · · · vr, T vr, T kr−1vr)
forma uma base de V , a soma de seus elemento fornece a dimensa˜o. Veremos agora que
r = dimN(T ). Por um lado temos T kj−1vj na˜o nulo em N(T ) isso implica que N(T ) ≥ r.
Por outro lado dimN(T ) = dimV − dimIm(T ) ⇒ dimIm(T ) = dimV − dimN(T ),
como dimIm(T ) + r ≥ dim(V ) logo
dimIm(T ) = dimV − dimN(T ) ≥ dim(V )− r
disso segue que dimN(T ) ≤ r e com a outra desigualdade temos dimN(T ) = r.
O teorema pode ser colocado de maneira matricial. Seja A ∈ Mn×n nilpotente de
ı´ndice K, enta˜o existem inteiros K = k1 ≥ k2 ≥ · · · kr ≥ 1 uniformemente determinados
tais que A e´ semelhante a uma matriz em blocos
Nk1 · · · 0
... · · · ...
0 · · · Nkr

onde
Nks =

0 · · · 0 · · · 0
1 · · · 0 · · · 0
0
... · · · · · · 0
... · · · · · · · · · 0
0 · · · 0 1 0

, Nks ∈MKs×Ks
Definic¸a˜o 16 (Sistema de invariantes). No resultado anterior a sequeˆncia (ks)
r
1 e´ dita ser
um sistema de invariantes de T .
Exemplo 7. Ache todos os operadores nilpotentes de ı´ndice 3 em um espac¸o de dimensa˜o
7. Os poss´ıveis sistemas de invariantes k1 ≥ · · · kn sa˜o soluc¸o˜es de
CAPI´TULO 1. 18

7∑
s=1
ks = 7
k1 = 3
as poss´ıveis soluc¸o˜es sa˜o 
(3, 3, 2)
(3, 2, 2)
(3, 2, 1, 1)
(3, 1, 1, 1)
os blocos relacionados a 3, 2, 1 sa˜o respectivamente

0 0 0
1 0 0
0 1 0
 ,
 0 0
1 0
 , [0]
que sa˜o colocadas em blocos dentro de uma matriz 7× 7.
Propriedade 19. Se T k = 0 e existe v ∈ V tal que T k−1v 6= 0 implica T h 6= 0 ∀h < k
enta˜o K e´ ı´ndice de T .
Demonstrac¸a˜o.
Propriedade 20. Seja T : V → V operador nilpotente de ı´ndice k, enta˜o existem
k = k1 ≥ k2 ≥ · · · kr ≥ 1
unicamente determinado e vetores (vk)
r
1 ∈ V tal que T kj(vj) = 0 ∀j ∈ Ir e os
v1T (v1), · · · , T k1−1v1
...
vr, T vr, · · · , T kr−1v1
formam base de V , em particular
r∑
k=1
kj = dimV e r = dimN(T ).
CAPI´TULO 1. 19
Demonstrac¸a˜o. Prova da existeˆncia. Vamos lembrar o procedimento de prova do
teorema do nu´cleo e imagem. Dado T : V → V , sabemos que dimV = dimN(T ) +
dimIm(T ), que pode ser feito tomando (wk)
s
1 base de Im(T ), (uk)
t
1 base de N(T ). Se
(vk)
s
1 e´ tal que T (vk) = wk temos que
(vk)
s
1 ∪ (uk)t1
e´ base de V . Provamos o resultado . Seja F = Im(T ) que e´ invariante por T de ı´ndice k,
implica
{
T k−1(T (v)) = 0 ∀ Tv ∈ ImT
∃w | T k−2Tw 6= 0⇒ I(T |F ) = k − 1.
Provamos o teorema sobre induc¸a˜o sobre k, se k = 1 enta˜o cada ks = 1, T = 0, qualquer
base satisfaz o teorema. Por hipo´tese de induc¸a˜o o teorema vale para T |F . Existem inteiros
l1 = k − 1 ≥ l2 ≥ · · · ls ≥ 1 e vetores (wk)s1 em F , tais que
Base de F com T lj(wj) = 0 por hipo´tese de induc¸a˜o

w1, T (w1), · · · , T l1−1(w1)
...
ws, T (ws), · · · , T l1−1(ws)
temos T lj−1(wj) ∈ N(T ), ∀j ∈ Is. Aplicamos teorema de nu´cleo-imagem. Sejam (xk)t1
tais que
{T l1−1(w1), · · · , T ls−1(ws), x1, · · · , xt}
seja base de N(T ). Sejam (vk)
s
1 tais que T (vk) = wk, k ∈ Is.
Logo uma base de V e´
v1, T (v1), · · · , T l1v1
...
vs, T (vs), · · · , T lsvs
x1, · · · xt
onde esses u´ltimos elementos completam uma base de N(T ). Logo obtemosuma base
como no enunciado tomando k1 = l1 + 1, · · · , ks = ls + 1, ks+1 = 1, · · · , kt = 1.
CAPI´TULO 1. 20
Exemplo 8. Seja T : R5 → R5 com T (e1) = e3, T (e2) = e4, T (e3) = e5, T (e4) = T (e5) =
0. Vale que T 3 = 0 e T 2 6= 0 pois T 2(e1) = T (e3) = e5 6= 0. Logo temos o ı´ndice 3.
Im(T ) = S(e3, e4, e5), I(T |ImT ) = 2
 e3, T (e3) = e5e4
logo temos 2 ≥ 1 ≥ 1 como sistema de invariantes. Temos ainda N(T ) = S(Te3, e4), uma
base de V e´
e1, T (e1), T
2(e1)
e2, T (e2)
com k1 = 3 ≥ k2 = 2 ≥ 1. Nesta base T tem a matriz

0 0 0 0 0
1 0 0 0 0
0 1 0 0 0
0 0 0 0 0
0 0 0 1 0

=
 N3 0
0 N2

Lembre a versa˜o matricial do teorema da´ uma base onde o operador tem a matriz
Nk · · · 0
... · · · 0
0 · · · Nkn

onde
Nk =

0 · · · 0
1...
· · · 0
0 · · · 1 0

k×k
neste problema as duas informac¸o˜es determinam a forma canoˆnica de T .
Propriedade 21. Seja C(A) o conjunto dos operadores lineares T : E → E que comutam
com o operador A ∈ L(E). C(A) e´ subespac¸o vetorial de L(E) e se X,Y ∈ C(A) enta˜o
XY ∈ C(A).
CAPI´TULO 1. 21
Demonstrac¸a˜o.
ˆ 0 ∈ C(A) pois comuta com A e qualquer outro operador.
0(A(v)) = 0 = 0(A(v)).
ˆ Sejam T e P em C(A) e c ∈ K, enta˜o cT + P ∈ C(A) pois
(cT + P )(A(v)) = cT [A(v)] + P [A(v)] = A[cT (v) + P (v)] = A(cT + P )(v).
ˆ
XY A(v) = XAY (v) = AXY (V ).
1.3 Nu´cleo e imagem
Definic¸a˜o 17 (Imagem). A imagem de T : V →W e´ o conjunto definido como
Im(T ) := {m ∈ W | m = T (u) com u ∈ V }.
Propriedade 22. Im(T ) e´ um subespac¸o vetorial de W .
Demonstrac¸a˜o.
ˆ Como T e´ linear, temos T (0v) = 0w logo 0w ∈ Im(T ).
ˆ Dado u′ ∈ Im(T ) e v′ ∈ Im(T ) enta˜o existem u ∈ V e v ∈ V tais que T (u) = u′
e T (v) = v′, da´ı T (u) + T (v) = u′ + v′ = T (u + v) assim u′ + v′ e´ imagem de um
elemento de V .
ˆ Dado α ∈ R e u′ ∈ Im(t) tem-se u ∈ V tal que T (u) = u′ e vale αT (u) = α.u′ =
T (αu) logo αu′ e´ imagem de um elemento de V .
Definic¸a˜o 18 (Transformac¸a˜o sobrejetiva). Dada T : V → W se Im(T ) = W enta˜o a
transformac¸a˜o T e´ dita sobrejetiva.
Definic¸a˜o 19 (Inversa a` direita). Uma transformac¸a˜o linear A : V → W e´ dita uma
inversa a` direita de T : W → V quando vale TA = Iv.
CAPI´TULO 1. 22
Propriedade 23. Sejam V e W espac¸os vetoriais de dimensa˜o finita. A : V →W possui
inversa a` direita T ∈ L(W,V ) sse A for sobrejetora.
Demonstrac¸a˜o. ⇒ Suponha que exista uma inversa a` direita T , enta˜o vamos mostrar
que A e´ sobrejetiva, isto e´, ∀u ∈ W existe m ∈ V tal que A(m) = u. Como T e´ inversa a`
direita, enta˜o dado u ∈ W tem-se A(T (u)︸︷︷︸
m∈V
) = A(m) = u, logo realmente A e´ sobrejetiva.
⇐ Tomamos uma base B = {wk | k ∈ Im} ⊂ W como A e´ sobrejetiva, existem vetores
(vk)
m
1 ∈ V tais que A(vk) = wk, por teorema ja´ provado, existe uma transformac¸a˜o linear
T : W → V tal que T (wk) = vk, enta˜o para todo u ∈ w tem-se A(T (u)) = u, pois
u =
m∑
k=1
αkwk e da´ı
A(T (u)) = A(
m∑
k=1
αkT (wk)) = A(
m∑
k=1
αkvk) =
m∑
k=1
αkA(vk) =
m∑
k=1
αkwk = u.
Definic¸a˜o 20 (Nu´cleo de uma transformac¸a˜o linear). O nu´cleo de uma transformac¸a˜o
linear T : V → W e´ o conjunto definido como
N(T ) := {u ∈ V | T (u) = 0w}.
Exemplo 9. N(0) = V , o nu´cleo do operador nulo de V → W e´ V , pois dado qualquer
v ∈ V temos O(v) = 0.
Propriedade 24. N(T ) e´ um subespac¸o vetorial de V .
Demonstrac¸a˜o.
ˆ 0v ∈ N(T ) pois T (0v) = 0w
ˆ Sejam v, u ∈ N(T ) enta˜o T (v) = 0w e T (u) = 0w, como a transformac¸a˜o e´ linear
vale T (v + u) = T (v) + T (u) = 0w + 0w = 0w enta˜o v + u ∈ N(T ).
ˆ Seja c ∈ R e v ∈ N(T ) enta˜o T (v) = 0w e cT (v) = 0w = T (c.v) implicando que
c.v ∈ N(T ). Enta˜o o nu´cleo e´ um subespac¸o de V .
Propriedade 25. Seja A : E → E. A2 e´ identicamente nula ⇔ ∀v ∈ E tem-se A(v) ∈
N(E). Em s´ımbolos A2 = 0⇔ Im(A) ⊂ N(A).
CAPI´TULO 1. 23
Demonstrac¸a˜o. ⇒).
Temos A(A(v)) = 0∀v ∈ E logo A(v) ∈ N(E).
⇐).
Se ∀v ∈ E temos A(v) ∈ N(E) enta˜o A(A(v)) = 0 por definic¸a˜o de nu´cleo.
Exemplo 10. Seja E = C0(R) o espac¸o das func¸o˜es cont´ınuas f : R → R. Definimos o
operador A : E → E com
A(f) = g
tal que
g(x) =
∫ x
0
f(t)dt.
Determine o nu´cleo e imagem do operador.
g e´ deriva´vel, da´ı g′(x) = f(x), se g e´ nula, enta˜o sua derivada se anula e portanto f
e´ nula, enta˜o no nu´cleo temos apenas a func¸a˜o nula. A imagem e´ constitu´ıda das func¸o˜es
C1(R) tais que g(0) = 0. Pois se f e´ cont´ınua enta˜o g e´ deriva´vel com g′ = f cont´ınua,
portanto e´ C1. Ale´m disso se temos g, c1, g′ e´ deriva´vel e temos∫ x
0
g′(t)dt = g(x).
Portanto g com tais propriedades pertence a imagem.
Exemplo 11. Sejam F1, F2 subespac¸os de E tais que dim(F1) + dim(F2) = n = dimE,
enta˜o existe operador linear A : E → E tal que F1 = N(A) e F2 = Im(A).
Tomamos uma base de F1, BF1 = {v1, · · · , vm}, completamos a uma base de E, BE =
{(vk)m1 , (wk)s1}, tomamos uma base de F2, BF2 = {(tk)l1}, temos que m + s = n = m + l,
logo s = l, o nu´mero de elementos na base de F2 e´ igual ao nu´mero de elementos que
usamos para completar a base de F1. Definimos A da seguinte maneira
A(vk) = 0, A(wk) = tk∀k
temos que F1 ⊂ N(A), pois dado x ∈ F1 temos
x =
m∑
k=1
ckvk ⇒ A(x) =
m∑
k=1
ckA(vk) = 0
CAPI´TULO 1. 24
vale IM(A) ⊂ F2, pois dado x ∈ E ele e´ da forma
x =
m∑
k=1
ckvk +
s∑
k=1
bkwk ⇒ A(x) =
s∑
k=1
bktk ∈ F2
ale´m disso F2 ⊂ Im(A), pois dado x ∈ F2 ele e´ da forma
x =
s∑
k=1
bktk
da´ı existe y ∈ E da forma, y =
s∑
k=1
bkwk tal que A(y) = x. Da identidade dimIm(A) +
dimN(A) = n com dimIm(A) = dimF2 segue que dimF1 = dimN(A) como F1 ⊂ N(A)
temos a igualdade F1 = N(A).
Propriedade 26. Seja A : R2 → R2 linear , na˜o nulo. Se An = 0 para n > 2 enta˜o
A2 = 0.
Demonstrac¸a˜o. Seja F = Im(A), se dimF = 0 enta˜o dimN(A) = 2 e A = 0o
que na˜o pode ser. Se dimF = 2 enta˜o dimN(A) = 0 e N(A) = {0}, A e´ injetora, de
dimensa˜o finita enta˜o A e´ sobrejetora, portanto invert´ıvel I = An(A−1)n = 0 absurdo.
Enta˜o dimF = 1 ele tem um gerador v 6= 0, como A(v) ∈ Im(A) temos
A(v) = c(v), c ∈ R
enta˜o indutivamente temos
An(v) = cnv = 0
logo c = 0, isto e´, A(v) = 0, tomamos w ∈ R2 arbitra´rio, temos A(w) = cv pois A(w) ∈
Im(A) da´ı
A2(w) = cA(v) = 0,
isto e´, A2 = 0.
Definic¸a˜o 21 (Transformac¸a˜o injetiva). Um transformac¸a˜o T e´ injetiva se v 6= u implica
T (v) 6= T (u).
Propriedade 27. T ∈ L(V,W ) e´ injetora sse N(T ) = {0v}.
CAPI´TULO 1. 25
Demonstrac¸a˜o. ⇒ Seja T injetora, T (u) = 0w = T (0v) enta˜o u = 0v o que implica
N(T ) = {0v}.
⇐ Suponha que N(T ) = {0v} enta˜o T (u) = T (u′) implica T (u) − T (u′) = 0w =
T (u− u′) da´ı u− u′ = 0v o que implica u = u′ sendo assim a transformac¸a˜o e´ injetora.
Propriedade 28. Uma transformac¸a˜o linear e´ injetiva⇔ leva vetores LI em vetores LI.
Demonstrac¸a˜o. ⇒ Sejam T : V → W uma transformac¸a˜o linear injetiva e os vetores
(vk)
n
1 ∈ V linearmente independentes. Suponha
n∑
k=1
αkT (vk) = 0w enta˜o
T (
n∑
k=1
αkvk) = 0w = T (0v)
como T e´ injetora segue que
n∑
k=1
αkvk = 0v
como os vetores sa˜o LI tem-se αk = 0, da´ı tais T (vk) sa˜o LI.
⇐ . Provamos a contrapositiva. Suponha T na˜o injetora, enta˜o existem v, w ∈ V tais
que T (v) = T (w) e v 6= w
v =
n∑
k=1
akvk, w =
n∑
k=1
bkvk
com ak 6= bk, como a transformac¸a˜o e´ linear temos
T (v − w) = 0v ⇒
n∑
k=1
(ak − bk)T (vk) = 0
com ak − bk 6= 0 pelo menos para algum ı´ndice enta˜o os vetores T (vk) na˜o sa˜o LI, como
quer´ıamos demonstrar.
Exemplo 12. Se V 6= F com T : V → F transformac¸a˜o linear entre espac¸os vetoriais.
Pode acontecer de (T (vk))
n
1 gerar F pore´m (vk)
n
1 na˜o gerar V . Por exemplo considere
T : R3 → R2 com T (x, y, z) = (x, y) atransformac¸a˜o e´ linear pois
T ((x, y, z) + c(w, k, j)) = (x+ cw, y + ck) = T ((x, y, z)) + T (c(w, k, j)) = (x, y) + c(w, k).
Vale que T (1, 0, 0) = (1, 0) e T (0, 1, 0) = (0, 1) geram R2, pore´m (1, 0, 0) e (0, 1, 0) na˜o
gera R2.
CAPI´TULO 1. 26
Propriedade 29. Seja T : V → F . Se (T (vk))n1 sa˜o LI enta˜o (vk)n1 sa˜o LI.
Demonstrac¸a˜o. Suponha (T (vk))
n
1 sa˜o LI enta˜o
n∑
k=1
ckT (vk) = 0⇔ ck = 0∀k
seja
n∑
k=1
ckvk = 0 enta˜o aplicando T temos
n∑
k=1
ckT (vk) = 0⇔ ck = 0∀k
logo (vk)
n
1 sa˜o LI.
Corola´rio 16. Por contrapositiva da proposic¸a˜o anterior temos que se (vk)
n
1 sa˜o LD enta˜o
(T (vk))
n
1 sa˜o LD.
Propriedade 30. Seja T : V → V com (T (vk))n1 gerando V enta˜o (vk)n1 gera V .
Demonstrac¸a˜o. O espac¸o V tem dimensa˜o finita, de (T (vk))
n
1 extra´ımos uma base
(T (vk))
m
1 (trocando nome se necessa´rio), (vk)
m
1 sa˜o vetores LI pelo resultado anterior,
sendo m deles, geram V , pois V possui dimensa˜o m.
Propriedade 31. Se (vk)
n
1 sa˜o LD enta˜o (T (vk))
n
1 sa˜o LD.
Demonstrac¸a˜o. Por (vk)
n
1 serem LD, existem constantes na˜o todas nulas (ck)
n
1 , tais
que
n∑
k=1
ckvk = 0
aplicando a transformac¸a˜o T temos
n∑
k=1
ckT (vk) = 0
logo (T (vk))
n
1 sa˜o LD.
Propriedade 32. Se A(u) e A(v) sa˜o LD enta˜o A(T (u)) e A(T (v)) sa˜o LD, quando o
espac¸o V tenha dimensa˜o 2.
CAPI´TULO 1. 27
Demonstrac¸a˜o. Se (u, v) e´ LD enta˜o A(T (u)) e A(T (v)) sa˜o LD. Caso sejam LI,
temos uma base para o espac¸o e
T (u) = c1u+ c2v
T (v) = c3u+ c3v
aplicamos o operador A, temos
A(T (u)) = c1A(u) + c2A(v)
A(T (v)) = c3A(u) + c3A(v)
A(u) e A(v) sa˜o LD, enta˜o um e´ mu´ltiplo do outro, supondo sem perda de generalidade
que seja A(v) = lA(u), substituindo na equac¸a˜o anterior temos
A(T (u)) = (c1 + c2)(lA(u))
A(T (v)) = (c3 + c3)(lA(u))
se um deles e´ nulo temos vetores LD, caso contra´rio nenhum deles e´ nulo enta˜o
A(T (u)) =
(c1 + c2)
(c3 + c3)
A(T (v))
logo sa˜o vetores LD, como quer´ıamos provar.
Exemplo 13. Ja´ vimos que T leva vetores LI em vetores LI, ⇔ e´ injetora, agora damos
um exemplo de transformac¸a˜o que leva vetores LI em LD. Considere um espac¸o com
vetores (vk)
n
1 , LI, a transformac¸a˜o nula T (v) = 0 ∀v leva os vetores LI em {0} que e´ um
conjunto LD.
Propriedade 33. Sejam A : V → F linear, V e F sobre um corpo K. ∀b ∈ Im(A) o
conjunto Vb = {x ∈ v | A(x) = b} e´ uma variedade afim de V paralela a` N(A).
Demonstrac¸a˜o. Se Vb e´ vazio terminamos, supomos enta˜o na˜o vazio. Sejam x, y ∈ Vb
vamos mostrar que ∀t ∈ K temos tx+ (1− t)y ∈ Vb, aplicamos A
A(tx+ (1− t)y) = tA(x) + (1− t)A(y) = tb+ (1− t)b = b
logo e´ uma variedade afim. Ale´m disso e´ paralela a` N(A), sendo x0 ∈ V tal que A(x0) = b
temos que x0 +N(A) = Vb, pois x0 +N(A) ⊂ Vb, dado y ∈ N(A) temos x0 + y ∈ Vb pois
A(x0 + y) = A(x0) + A(y) = b⇒ x0 + y ∈ Vb ⇒ x0 +N(A) ⊂ Vb
CAPI´TULO 1. 28
agora a outra inclusa˜o, tomando x ∈ Vb podemos escrever x = x−x0+x0 pois A(x−x0) = 0
logo pertence ao nu´cleo e Vb ⊂ x0 +N(A).
Definic¸a˜o 22 (Inversa a` esquerda). Uma transformac¸a˜o linear A : W → V e´ dita ser
uma inversa a` esquerda de T : V →W ⇔ para todo x ∈ V tem-se A(T (x)) = x.
Propriedade 34. Sejam V e W espac¸os vetoriais de dimensa˜o finita , a transformac¸a˜o
linear T : V → W possui inversa a` esquerda A : W → V ⇔ T for injetiva.
Demonstrac¸a˜o. ⇒ Supondo que T possua uma inversa a` esquerda enta˜o T (u) = T (v)
implica A(Tu) = A(Tv) = u = v, logo a transformac¸a˜o e´ injetiva.
⇐ Suponha T injetiva, tomamos uma base de V , {vk, k ∈ In} como o conjunto e´ LI
logo os vetores de {T (vk) ∈ W,k ∈ In} sa˜o LI, tomamos uma base deW , {T (vk), ws, k ∈
In, s ∈ It} , definimos os valores da transformac¸a˜o linear A : W → v como A(T (vk)) := vk
e A(ws) = 0v. Dado x ∈ V ele e´ da forma x =
n∑
k=1
αkvk da´ı tem-se
A(T (x)) = A
n∑
k=1
αkT (vk) =
n∑
k=1
αkA(T (vk)) =
n∑
k=1
αkvk = x
enta˜o A e´ inversa a` esquerda.
Propriedade 35. Seja X : F → G linear tal que X(w) 6= 0 w ∈ F \ {0}. Se A,B ∈
L(E,F ) com XA = XB enta˜o A = B.
Demonstrac¸a˜o. Como X e´ injetora ela possui inversa a´ esquerda, por aplicac¸a˜o de
tal inversa em ambos lados segue A = B. Outra maneira, dado v, temos
X(A(v)) = X(B(v))⇒ X(A(v)−B(v)) = 0⇒ A(v) = B(v).
Logo A = B.
Definic¸a˜o 23. Uma transformac¸a˜o linear T : V → W e´ invert´ıvel ⇔ ela e´ injetora e
sobrejetora, nesse caso diz-se que T e´ uma bijec¸a˜o linear entre V e W .
Propriedade 36. Sejam A : E → F uma transformac¸a˜o linear e B : F → E func¸a˜o tal
que AB = IF e BA = IE, enta˜o B e´ uma transformac¸a˜o linear.
CAPI´TULO 1. 29
Demonstrac¸a˜o. Tomamos cv + u ∈ F queremos mostrar que
B(cv + u) = cB(v) +B(u)
existem x2, x3 ∈ E tais que v = A(x2) (por isso cv = A(cx2)) e u = A(x3) logo B(v) =
x2, B(u) = x3
B(cv + u) = B(A(cx2 + x3)) = cx2 + x3 = cB(v) +B(u)
o que mostra a linearidade.
Propriedade 37. Sejam A,P : E → E operadores na˜o nulos tais que AP = 0. Existem
vetores u 6= v com A(u) = A(v), a aplicac¸a˜o na˜o e´ injetora.
Demonstrac¸a˜o. Existem v1, v2 tais que P (v1) 6= P (v2), pois caso contra´rio, dado
v1 = x+ v2, para x qualquer em E, ter´ıamos
P (v1) = P (v2)⇒ P (v1 − v2) = 0 = P (x)
logo a aplicac¸a˜o seria nula, da´ı
A(P (v1)︸ ︷︷ ︸
u
) = 0 = A(P (v2)︸ ︷︷ ︸
v
)
e
A(u) = A(v)
com u 6= v.
Definic¸a˜o 24 (Isomorfismo entre espac¸os). Um isomorfismo entre espac¸os V e W e´ uma
bijec¸a˜o linear entre eles.
Definic¸a˜o 25 (Espac¸os isomorfos). V e W sa˜o ditos espac¸os isomorfos se existe um
isomorfismo T : V → W.
Definic¸a˜o 26 (Transformac¸a˜o linear invert´ıvel). Uma transformac¸a˜o linear T : V → W
e´ dita invert´ıvel quando existe uma transformac¸a˜o linear A : W → V que e´ inversa a`
esquerda e a` direita de T . Nesse caso denotamos a inversa de T por T−1.
Propriedade 38. Se T : V →W linear e´ invert´ıvel enta˜o T−1 : W → V tambe´m e´ linear.
CAPI´TULO 1. 30
Demonstrac¸a˜o. Dados cw1 + w2 ∈ W , vamos mostrar que (denotando T−1 = A)
A(cw1 + w2) = cA(w1) + A(w2).
Como T e´ bijetora basta mostrar que T (A(cw1 + w2)) = T (cA(w1) + A(w2)) temos
T (A(cw1 + w2)) = cw1 + w2
T (cA(w1) + A(w2)) = cT (A(w1)) + T (A(w2)) = cw1 + w2
onde usamos linearidade de T ,como T e´ injetora segue que A(cw1+w2) = cA(w1)+A(w2).
Propriedade 39. Seja A ∈ L(Rn, R), existe y ∈ Rn tal que A(x) =< x, y > .
Demonstrac¸a˜o. Dado x ∈ Rn ele e´ da forma x =
n∑
k=1
xkek onde cada xk ∈ R e (ek)n1
e´ a base canoˆnica, aplicando A linear temos
A(x) =
n∑
k=1
xk A(ek)︸ ︷︷ ︸
yk∈R
⇒
A(x) =
n∑
k=1
xkyk =< x, y >
onde y = (yk)
n
1 .
Corola´rio 17. A composic¸a˜o de isomorfismos e´ um isomorfismo, pois a composic¸a˜o e´
linear e bijetora.
Propriedade 40. A inversa de um isomorfismo e´ um isomorfismo.
Demonstrac¸a˜o.
Propriedade 41. Sendo T : V → W e A : W → V isomorfismos e α 6= 0 enta˜o
(TA)−1 = A−1T−1 e (αT )−1 =
1
α
T−1.
Demonstrac¸a˜o.
(TA)−1 = A−1T−1, aplicamos TA em ambos lados
I = TAA−1T−1 = I
como inversa e´ u´nica segue o resultado .
(αT )−1 =
1
α
T−1, aplicamos αT em ambos lados
I =
1
α
T−1αT = I.
CAPI´TULO 1. 31
Propriedade 42. Sejam V e W espac¸os vetoriais arbitra´rios e S, T : V → W trans-
formac¸o˜es lineares, B uma base de V . Temos que
T = S ⇐⇒ T (v) = S(v) ∀v ∈ B.
Demonstrac¸a˜o.
⇒).
Se T = S eles coincidem em todos elementos em especial tambe´m nos elementos da
base.
⇐).
Vamos mostrar que T e S coincidem em um vetor arbitra´rio v ∈ V . v se escreve como
v =
n∑
k=1
akvk
onde cada vk ∈ B, como S e T sa˜o transformac¸o˜es lineares que coincidem em B vale que
T (v) = T (
n∑
k=1
akvk) =
n∑
k=1
akT (vk) =
n∑
k=1
akS(vk) = S(
n∑
k=1
akvk) = S(v)
como quer´ıamos demonstrar.O mesmo vale se trocamos B base por um conjunto de
geradores.
Propriedade 43. Uma transformac¸a˜o linear T : U → V transforma toda base de U
numa base de V ⇔ e´ um isomorfismo.
Demonstrac¸a˜o.
⇐). Suponha T isomorfismo, tome α uma base de U e T (α). Como T e´ injetiva o
conjunto T (α) e´ LI e T e´ sobrejetiva enta˜o T (α) gera imagem de T que e´ V , portanto
levamos uma base de U em uma base de V .
⇒). Tomando α base de U , sabemos que T (α) e´ base de V . Vamos mostrar que T e´
injetiva, seja u ∈ N(T ) ⊂ U , escrevemos
u =
n∑
k=1
akvk ⇒
0 = T (u) =
n∑
k=1
akT (vk)⇒ ak = 0∀k
CAPI´TULO 1. 32
pois a imagem dos vetores e´ LI, logo o nu´cleo tem apenas o elemento nulo, a transformac¸a˜o
e´ injetiva. T e´ sobrejetiva.
Seja v um elemento de V , enta˜o v =
n∑
k=1
ckvk, pore´m como T leva base de U em base
de V , temos que existe uk ∈ U tal que T (uk) = vk e da´ı
T (
n∑
k=1
ckuk) =
n∑
k=1
ckvk
e a transformac¸a˜o e´ sobrejetiva.
Corola´rio 18. Dois espac¸os vetoriais de dimensa˜o finita isomorfos possuem a mesma
dimensa˜o.
Propriedade 44. Se dois espac¸os vetoriais de dimensa˜o finita possuem a mesma di-
mensa˜o, enta˜o eles sa˜o isomorfos.
Demonstrac¸a˜o. Sejam V e W de dimensa˜o finita n, sobre o mesmo corpo K, enta˜o
existe base B = {(vk)n1} de V e base B′ = {(wk)n1} definimos T (vk) = wk, a transformac¸a˜o
e´ sobrejetora pois dado v =
n∑
k=1
ckwk em W , temos s =
n∑
k=1
ckvk cuja imagem e´ v. Ale´m
disso e´ injetora pois o nu´cleo so´ possui o elemento nulo, , pois supondo T (s) = 0 enta˜o
T (s) =
n∑
k=1
ckwk = 0
que implica cada ck = 0 pois B
′ = {(wk)n1} e´ LI, enta˜o s e´ o vetor nulo.
Corola´rio 19. Todo espac¸o de dimensa˜o n sobre R e´ isomorfo a Rn.
Exemplo 14. O espac¸o de polinoˆmio Pn e´ isomorfo a` R
n+1, o espac¸o das matrizes n ×
m(R) e´ isomorfo a` Rnm.
Propriedade 45. T : V → W transformac¸a˜o linear, se X ∈ V e´ um conjunto de
geradores enta˜o T (X) gera Im(T ).
Demonstrac¸a˜o. Seja x ∈ Im(T ) enta˜o x = T (v) para algum v ∈ V , como X
e´ conjunto de geradores segue que existem v e´ combinac¸a˜o linear de elementos de X,
digamos
v =
n∑
k=1
ckvk
CAPI´TULO 1. 33
aplicando T , temos
T (v) = x =
n∑
k=1
ckT (vk)
disso que T (X) gera Im(T ).
Definic¸a˜o 27 (Posto). Seja T : U → V linear, definimos Posto(T ) = dim Im(T ) quando
tal dimensa˜o for finita.
Definic¸a˜o 28 (Nulidade). Definimos a nulidade de T como nul(T ) = dimN(T ). Tambe´m
denotada por nulidade(T ).
Definic¸a˜o 29 (Posto coluna). Dada A ∈ Mm×n(K), definimos posto coluna A como
a dimensa˜o do espac¸o vetorial gerado em Km pelos vetores coluna. Posto coluna A =
PostoLA, onde LA : K
n → Km.
Definic¸a˜o 30 (Posto Linha). Dada a mesma matriz da definic¸a˜o anterior. Posto linha
A= dimensa˜o do espac¸o vetorial gerado em Kn pelos vetores linha.
Propriedade 46. Posto linha A= Posto coluna A.
Demonstrac¸a˜o.
Propriedade 47. Seja X ⊂ F tal que toda transformac¸a˜o linear A : E → F com
X ⊂ A(E) e´ sobrejetiva enta˜o X e´ um conjunto de geradores de F .
Demonstrac¸a˜o. Seja F ′ = S(X), definimos A : F ′ → F com A(v) = v, temos
X ⊂ A(F ′), da´ı A e´ sobrejetiva, da´ı A e´ sobrejetiva, A(F ′) = F , A(S(X)) = F , dado
v ∈ F existe
n∑
k=1
ckvk ∈ S(X) tal que
A(
n∑
k=1
ckvk) =
n∑
k=1
ckA(vk) =
n∑
k=1
ckvk
logo X gera F .
Propriedade 48. Seja A : E → F uma transformac¸a˜o linear sobrejetiva, E, F de
dimensa˜o finita, enta˜o existe um subespac¸o E ′ ⊂ E tal que E ′ e F sa˜o isomorfos pela
aplicac¸a˜o de A.
CAPI´TULO 1. 34
Demonstrac¸a˜o. Seja (vk)
n
1 = G base de F , existem vetores (ek)
n
1 tais que A(ek) = vk
e tais vetores sa˜o LI, definimos E ′ = S(G), da´ı E ′ e F sa˜o isomorfos pela aplicac¸a˜o de A.
Propriedade 49. Toda transformac¸a˜o linear A : E → F pode-se escrever como A = TS
onde S e´ sobrejetiva e T injetiva e o mesmo com T injetiva e S sobrejetiva com A = ST .
Demonstrac¸a˜o.
Definimos S : E → A(E) com S(v) = A(v), ela e´ sobrejetiva e T : A(E)→ A(E) com
T (v) = v que e´ injetiva.
No segundo caso definimos T : E → E × F com T (v) = (v, A(v)) e S : E × F → F
com S(v, w) = w, T e´ injetiva pois T (v) = 0 = (v,A(v)) logo v = 0 e S e´ sobrejetiva,
S(0, w) = w, vale ainda a composic¸a˜o
ST (v) = S(v, A(v)) = A(v).
Definic¸a˜o 31 (Espac¸o bi-dual). O espac¸o bi-dual e´ o espac¸o E ′′ = L(E ′, r) onde E ′ e´ o
espac¸o dual .
Propriedade 50. Seja g : E → E ′′ com g(v) = v′′ ∈ E ′′ onde v′′(f) = f(v). Enta˜o g e´
um isomorfismo. (revisar)
Demonstrac¸a˜o. g e´ linear
g(cv1 + v2) = (cv1 + v2)
′′
aplicada em f
(cv1 + v2)
′′(f) = f(cv1 + v2) = cf(v1) + f(v2) = cv′′1(f) + v
′′
2(f) = cg(v1) + g(v2).
g e´ injetora, pois existe f ∈ L(E,R) tal que f(v) 6= 0, da´ı v′′(f) = f , f e´ na˜o nula, g
e´ injetiva, como dimE = dimE ′ = n e dimE ′ = E ′′ = n logo E e E ′′ sa˜o isomorfos.
Propriedade 51. Seja F : E → R funcional linear na˜o nulo, enta˜o existe u ∈ E tal que
f(u) = 1. Sendo F a reta gerada por u enta˜o E = F +⊕N(f).
Demonstrac¸a˜o. Existe u′ tal que f(u) = x 6= 0 logo f(u
′
x
) =
x
x
= 1, chamamos tal
elemento de u. Temos que F ∩ N(f) = {0} pois x 6= 0, x ∈ F enta˜o x = tu com t 6= 0
enta˜o f(x) = f(tu) = tf(u) = t 6= 0 e na˜o pertence ao nu´cleo.
CAPI´TULO 1. 35
Agora a parte da soma , se v e´ tal que f(v) = 0 enta˜o v pertence ao nu´cleo, se
f(v) = t 6= 0 enta˜o temos f(v) = f(tu) e da´ı
f(v − tu) = 0
v− tu = s ∈ N(f), isto e´, s+ tu = v enta˜o todo vetor e´ soma de elemento do nu´cleo com
elemento de F .
Propriedade 52. Seja A : E → F de posto r, E, F de dimensa˜o finita, enta˜o existem
bases u = (uk)
n
1 em E e V = (vk)
m
1 em F em que a matriz que representa a transformac¸a˜o
tem (a(k,k) = 1)
r
1 e outras entradas nulas.
Demonstrac¸a˜o. Seja (vk)
r
1 base de A(E) ⊂ F estendemos a uma base de F , (vk)m1 ,
sejam (uk)
r
1 em E tais que A(uk) = vk e (uk)
n
r+1 base de N(A), temos que (uk)
n
1 e´ base de
E, a matriz do operador A tem a propriedade pedida.
Definic¸a˜o 32 (Matrizes semelhantes). Duas matrizes A,B ∈ Mn,m(K) sa˜o ditas seme-
lhantes se existe P ∈Mn,m(K) invert´ıvel tal que
B = PAP−1
nesse caso denotamos A ∼ B.
Propriedade 53. ∼ e´ uma relac¸a˜o de equivaleˆncia em Mn,m(K).
Demonstrac¸a˜o.
ˆ Vale a reflexividade A ∼ A pois
A = IAI−1.
ˆ A relac¸a˜o e´ sime´trica pois A ∼ B implica B ∼ A, pois da primeira, sabemos que
existe P tal que
B = PAP−1
e da´ı P−1BP = A tomando P−1 = X temos XBX−1 = A logo B ∼ A.
CAPI´TULO 1. 36
ˆ Vale a transitividade. Se valem A ∼ B e B ∼ C tem-se A ∼ C, pois da primeira
existe P1 tal que
B = P1AP
−1
1
da segunda temos
C = P2BP
−1
2
substituindo a primeira na segunda segue que
C = P2P1AP
−1
1 P
−1
2 = P2P1A(P2P
−1
1 )
−1
e da´ı A ∼ C.
1.3.1 Teorema do nu´cleo e imagem
Propriedade 54 (Teorema do nu´cleo e imagem). Seja V espac¸o vetorial de dimensa˜o
finita e W espac¸o vetorial. Se T : V → W e´ linear, logo
dim(V ) = dimN(T ) + dim Im(T ).
Demonstrac¸a˜o. Seja (vk)
m
1 base de N(T ) e (wk)
n
1 base de Im(T ), tomamos (uk)
n
1
tais que
T (uk) = wk k ∈ In.
Para provar o teorema basta provar que B = {(vk)m1 , (uk)n1} e´ uma base de V .
ˆ B e´ LI.
Primeiro B e´ LI, pois
m∑
k=1
akvk +
n∑
k=1
bkuk = 0
aplicando T , tem-se
T (0) = 0 =
m∑
k=1
ak T (vk)︸ ︷︷ ︸
0
+
n∑
k=1
bkT (uk)︸ ︷︷ ︸
LI
o que implica que cada bk = 0 logo
m∑
k=1
akvk = 0 o que implica cada ak = 0 pois sa˜o
vetores LI. Portanto nosso conjunto B e´ LI.
ˆ B gera V .
CAPI´TULO 1. 37
Tome v ∈ V , T (v) ∈ Im(T ) = S(w1, · · · , wn)
T (v) =
n∑
k=1
akwk =
n∑
k=1
akT (uk) = T (
n∑
k=1
akuk)
implica que
T (v −
n∑
k=1
akuk) = 0
logov −
n∑
k=1
akuk ∈ N(T ) = S(v1, · · · , vm) o que implica
v =
n∑
k=1
akuk +
m∑
k=1
bkvk
da´ı B gera V .
Propriedade 55. Sejam T : V → W , dimV = dimW = n, T linear, T e´ injetiva ⇔ e´
sobrejetiva.
Em especial nessas condic¸o˜es temos que T e´ injetora ⇔ T e´ sobrejetora.
Demonstrac¸a˜o.
Pelo teorema do nu´cleo e imagem temos que
n = dimN(T ) + dimIm(T )
N(T ) = {0}︸ ︷︷ ︸
T e´ injetiva
⇔ dim Im(T ) = n︸ ︷︷ ︸
T e´ sobrejetiva
.
Propriedade 56. Dados T, S ∈ L(V ). T, S isomorfismos ⇔ T ◦ S e´ um isomorfismo.
Demonstrac¸a˜o. ⇒).
Composic¸a˜o de isomorfismos e´ um isomorfismo.
Exemplo 15. Calcule a n-e´sima poteˆncia da matriz 1 a
0 1
 .
Associamos a matriz a um operador, na base canoˆnica, temos A(e1) = e1, A(e2) =
ae1 + e2. Aplicando A
n, temos
An(e1) = e1, A
k+1(e2) = A
k(A(e2)) = A
k(ae1 + e2) = ae1 + A
k(e2)
CAPI´TULO 1. 38
logo Ak+1(e2)− Ak(e2) = ae1 aplicando
n−1∑
k=0
temos
nae1 = A
n(e2)− e2 ⇒ An(e2) = e2 + nae1.
Logo a n-e´sima poteˆncia da matriz e´ 1 na
0 1
 .
Exemplo 16. Dado um operador A : Rn+1 → Rn+1 com A(ck)n0 = (p(k))n0 , determine a
matriz do operador na base canoˆnica, onde p(x) =
n∑
k=0
akx
k. Olhamos em quais vetores,
sa˜o levados os vetores da base canoˆnica de Rn+1.
e1 → (1)n0
et → (kt−1)nk=0.
A transformac¸a˜o e´ injetiva pois se A(ck)
n
0 = (p(k))
n
0 = 0 enta˜o temos um polinoˆmio de
grau n com n+ 1 valores nulos , logo e´ o polinoˆmio nulo. Como a imagem tem dimensa˜o
n+ 1, finita, enta˜o a transformac¸a˜o e´ sobrejetiva e por isso e´ um isomorfismo.
Propriedade 57. Uma matriz A m× n tem posto r ⇔ e´ poss´ıvel selecionar r linhas e r
colunas ( e na˜o mais), de modo que os elementos comuns formam uma matriz invert´ıvel
r × r.
Demonstrac¸a˜o.
⇒). Considerando que tenha posto r. Se r = m = n a matriz e´ quadrada invert´ıvel.
Se r = m < n as linhas de A sa˜o LI, as colunas sa˜o LD, por teorema do posto o nu´mero
de colunas LI e´ r = m, tais r colunas formam formam uma matriz r× r de posto ma´ximo
invert´ıvel. Caso r = n < m e´ ana´logo trabalhando com colunas no lugar de linhas.
Se r < min{m,n}, as linhas de A sa˜o LD, sendo poss´ıvel escolher r linhas de a que
sa˜o LI, com isso encontramos uma matriz B r×n de posto r e aplicamos o procedimento
anterior.
⇐).
CAPI´TULO 1. 39
Se podemos selecionar r linhas e r colunas ( e na˜o mais), de A que formam uma matriz
invert´ıvel, temos r linhas LI, logo posto(A) ≥ r, se fosse s = posto(A) > r, podemos
escolher s linhas e colunas de A formando uma matriz invert´ıvel , o que contraria a
hipo´tese, logo posto(A) ≤ r e da´ı posto(A) = r.
Propriedade 58. Se A e´ uma matriz n× n triangular inferior com diagonal nula enta˜o
An = 0.
Demonstrac¸a˜o. A e´ matriz de um operador na base canoˆnica onde
A(et) =
t−1∑
k=1
a(k,t)ek.
Tomando um v =
n∑
k=1
ckek qualquer e aplicando T , eliminamos a n-e´sima coordenada,
ficando com n − 1 vetores da base, aplicac¸o˜es sucessivas reduzem , cada uma, ainda em
uma unidade de vetores da base, na n − 1-e´sima aplicac¸a˜o temos apenas um vetor da
forma ce1 em que aplicando A novamente se anula, enta˜o A
n = 0.
Propriedade 59. Uma matriz [c(i,j)] = C m × n tem posto 1 ⇔ existem vetores na˜o
nulos (ak)
m
1 e (bk)
n
1 tais que
c(t,j) = atbj
Demonstrac¸a˜o. C possui posto 1 ⇔ possui uma linha na˜o nula (bk)n1 tal que todas
linhas sa˜o mu´ltiplas dessa, enta˜o a linha t e´ dada por
(atbk)
n
1
o que prova o resultado.
Propriedade 60. Se [c(i,j)] = C m× n tem posto 1 enta˜o Cn+1 = tr(C)n.C.
Demonstrac¸a˜o. Usamos o resultado anterior
c2(i,j) =
n∑
k=1
c(i,k)c(k,j) =
n∑
k=1
aibkakbj = aibj
n∑
k=1
bkak = c(i,j)Tr(C).
Propriedade 61. Vale que Posto (BA) ≤ Posto(A), Posto(B). A e B transformac¸o˜es
lineares.
CAPI´TULO 1. 40
Demonstrac¸a˜o.
Se v ∈ Im(BA)⇒ v = B(A(w)), v ∈ Im(B), logo Im(BA) ⊂ Im(B) e da´ı
dimIm(BA) ≤ dimIm(B),
, isto e´, Posto(BA) ≤ Posto(B).
Sejam A : E → F , B : F → G, dimE = m, dimF = n, dimG = p.
Se v ∈ N(A) enta˜o B(A(v)) = 0 o que implica v ∈ N(B(A)), da´ı N(A) ⊂ N(BA).
dimN(A) ≤ dimN(BA)
por teorema de nu´cleo e imagem temos
dimIm(A) = m− dimN(A) ≥ m− dimN(BA) = dimIm(BA)
da´ı Posto(A) ≥ Posto(BA).
Exemplo 17. Pode valer Posto(A) = Posto(B) > Posto(BA), como exemplo A = B :
R2 → R2 com A(x, y) = (y, 0), Posto(A) = 1 e BA(x, y) = B(y, 0) = (0, 0) que possui
dimensa˜o zero.
Propriedade 62. Uma matriz quadrada A de posto 1 e´ idempotente ⇔ Tr(A) = 1.
Demonstrac¸a˜o. Pois A2 = tr(A)A.
1.3.2 Projec¸o˜es
Definic¸a˜o 33 (Projec¸a˜o). Sendo V um espac¸o vetorial, uma projec¸a˜o de V em V e´ uma
transformac¸a˜o linear T : V → V tal que T 2 = T.
Exemplo 18. T : Rn → Rn com
T (xk)
n
1 = (xk]
m
1 , 0]
n
m+1)
e´ uma projec¸a˜o.
Exemplo 19. T : R2 → R2 com T (x− y, 0) = (x− y, 0) e´ projec¸a˜o.
CAPI´TULO 1. 41
Propriedade 63. Seja T : V → V projec¸a˜o. v ∈ Im(T )⇔ T (v) = v.
Demonstrac¸a˜o.
⇐). Se T (v) = v enta˜o v ∈ Im(T ).
⇒).
Se v ∈ Im(T ) enta˜o existe u ∈ V tal que T (u) = v e da´ı T 2(u) = T (u) = v = T (v).
Propriedade 64. Se T : V → V e´ uma projec¸a˜o enta˜o V = N(T )⊕ Im(T ).
Demonstrac¸a˜o. Vamos mostrar primeiro que V = N(T )+Im(T ) que realmente vale
pois
v = (v − T (v))︸ ︷︷ ︸
∈N(T )
+ T (v)︸︷︷︸
∈Im(T )
o primeiro pertence ao nu´cleo pois T (v − T (v)) = T (v) − T 2(v) = 0 pois temos uma
projec¸a˜o .
Agora provamos que a soma e´ direta, suponha por absurdo que v 6= 0 em N(T )∩Im(T )
enta˜o
T (v) = 0
e como pertence a imagem, existe v1 ∈ V tal que T (v1) = v, aplicando T novamente
tem-se que
T (T (v1)) = T (v) = 0 = T (v1) = v 6= 0
absurdo, enta˜o a soma e´ direta.
Exemplo 20. A propriedade de soma direta de nu´cleo e imagem na˜o vale para qualquer
tipo de operador, por exemplo, tomando A : R2 → R2 com A(x, y) = (x− y, x− y) temos
que A(2, 1) = (1, 1), A(1, 1) = 0, (1, 1) ∈ N(A) ∩ Im(A), logo na˜o temos soma direta.
Propriedade 65. Se B = (uk)
n
1 e´ base de V tal que (uk)
r
1 e´ base de Im(E) e (uk)
n
r+1 e´
base de N(E) enta˜o
[E]B =
 Ir×r 0
0 0

n×n
onde Ir×r e´ um bloco r × r com elementos ak,k = 1 e outros nulos, e todos elementos da
matriz sa˜o tambe´m nulos, por isso simbolizados por 0 na matriz acima. E sendo projec¸a˜o.
CAPI´TULO 1. 42
Demonstrac¸a˜o. Com os elementos da imagem temos E(uk) = uk, logo montamos
o bloco identidade Ir×r e o bloco abaixo da identidade formado por zeros, os outros
elementos sa˜o nulos pois sa˜o elementos do nu´cleo E(uk) = 0.
Propriedade 66. Se (Uk)
r
1 sa˜o subespac¸os de V e Bk e´ base de Uk enta˜o
V =
r⊕
k=1
Uk ⇔
r⋃
k=1
Bk e´ base de V
Demonstrac¸a˜o.
Definic¸a˜o 34 (Projec¸a˜o sobre W paralelamente a` U .). Se V = U ⊕W enta˜o a trans-
formac¸a˜o linear E : V → V com E(u + w) = w e´ uma projec¸a˜o dita, Projec¸a˜o sobre W
paralelamente a` U (ou segundo U). Podemos denotar E = EW .
Propriedade 67. A definic¸a˜o anterior realmente fornece uma projec¸a˜o , ale´m disso tal
projec¸a˜o que possui nu´cleo U e imagem W e´ u´nica.
Demonstrac¸a˜o.
Um vetor v qualquer se escreve de maneira u´nica como u+ w, temos
E(u+ w) = w ⇒ E(E(u+ w)) = E(0 + w) = w
logo E2(v) = w = E(v), portanto temos uma projec¸a˜o.
W e´ a imagem de E pois todo aplicac¸a˜o assume valor nesse conjunto . U e´ o nucleo de
E pois E(u) = 0, ale´m disso se v 6= 0 ∈ N(E) enta˜o v ∈ U , pois se fosse v ∈ W ter´ıamos
E(v) = v 6= 0 pore´m como v ∈ N(E) vale E(v) = 0 absurdo, enta˜o v ∈ U e da´ı temos
v = N(E). A projec¸a˜o e´ u´nica pois tomando outra projec¸a˜o T com nu´cleo U e imagem
W temos
T (v) = T (u+ w) = T (w) = w = E(u+ w)
portanto T = E pois assumem mesmo valor para qualquer v ∈ V , usamos que v = u+w
com u ∈ U (nu´cleo) e w ∈ W imagem e que uma projec¸a˜o satisfaz T(w) = w para w na
imagem.
Propriedade 68. Seja V = V ⊕W , EV , EW , enta˜o
1. EU + EW = I.
CAPI´TULO 1. 43
2. EUEW = 0.
Demonstrac¸a˜o. Temos que um v qualquer se escreve como v = u+ w, logo
1.
(EU + EW )(u+ w) = EU(u+ w) + EW (u+ w) = u+ w = v
por isso o operador e´ a identidade.
2.
EUEW (u+ w) = Eu(w) = 0.
Definic¸a˜o 35. Seja V =
r⊕
k=1
Uk, definimos Es : V → V com Es(
r∑
k=1
uk) = us onde
uk ∈ Uk.
Propriedade 69. Com a definic¸a˜o do item anterior temos que
1.
r∑
k=1
Ek = I.
2. EkEj = 0, k 6= j
3. E2k = Ek, isto e´, Ek e´ projec¸a˜o .
Reciprocamente se (Ek)
r
1 sa˜o transformac¸o˜es tais que valem 1) e 2) enta˜o cada Ek e´
projec¸a˜o e vale
V =
r⊕
k=1
ImEk
Es(
r∑
k=1
us = us).
Demonstrac¸a˜o. Um vetor v ∈ V se escreve de maneira u´nica como
r∑
s=1
us = v.
1. (
r∑
k=1
Ek)︸ ︷︷ ︸
T
(
r∑
s=1
us) =
r∑
s=1
Tus =
r∑
s=1
us = v.
2. EkEj(
r∑
s=1
us) = Ekuj = 0, k 6= j.
CAPI´TULO 1. 44
3. Ek
r∑
s=1
us = uk ⇒ Ekuk = uk, isto e´, E2k = Ek o operador e´ projec¸a˜o .
Temos tambe´m que Es e´ linear pois
Es(tu+ v) = Es(t
r∑
k=1
uk +
r∑
k=1
u′k) = tus + u
′
s = tEs(u) + Es(v).
Im(Es) = Us e N(Es) =
r∑
k=1,k 6=s
Uk.
Agora provamos a segunda parte, Ek e´ projec¸a˜o, sabemos que
Ek = IEk = (
r∑
s=1
Es)Ek = E
2
k
pois se anula com os outros operadores. Provamos agora a soma direta, seja v ∈ V
V = I(v) =
r∑
k=1
Ek(v)
enta˜o temos a parte da soma, agora temos que mostrar que sa˜o independentes, seja
Im(Ek) = Wk.
Seja w := wk ∈ Wk ∩ (
r∑
s=1,s 6=k
Ws), enta˜o
wk =
r∑
s=1,s 6=k
ws
aplicando Ek temos
wk = 0
como w e´ arbitra´rio enta˜o temos a soma direta V =
r⊕
k=1
ImEk. Por fim seja v =
r∑
k=1
uk =
r∑
k=1
Ekuk, aplicando Es temos
Es(v) = E
2
s (us) = Es(us) = us
pois EsEj = 0, s 6= j.
Propriedade 70. Sejam T : V → V linear (Uk)r1 e (Ek)r1 como na propriedade anterior,
cada Uk e´ T -invariante ⇔ TEj = EjT ∀j.
CAPI´TULO 1. 45
Demonstrac¸a˜o. ⇐). Se T comuta com cada Ej seja v ∈ Uj enta˜o Ej(v) = v
T (v) = T (Ej(v)) = Ej(T (v))
como Ej(T (v)) ∈ Uj enta˜o T (v) ∈ Wj, Uj e´ T -invariante.
⇒). Supondo que cada Uj e´ T -invariante vamos mostrar que TEj = EjT . Seja v ∈ V
enta˜o
v =
r∑
k=1
Ek(v), T (v) =
r∑
k=1
T (Ek(v))
com Ek(v) ∈ Uk que e´ T -invariante, devemos ter T (Ek(v)) = Ek(bk) para algum bk enta˜o
EjT (Ek(v)) = EjEk(bk) que se anula se k 6= j sendo igual a` Ej(bj) caso k = j, logo
Ej(T (v)) = Ej(bj) = T (Ej(v)) = TEj(v)
valendo para v arbitra´rio logo EjT = TEj.
Propriedade 71. Seja T : V → V linear dimV = n, se T e´ diagonaliza´vel e (λk)m1 sa˜o
seus autovalores distintos enta˜o existem operadores lineares (Ek)
m
1 : V → V tais que
1. T =
m∑
k=1
λkEk.
2. I =
m∑
k=1
Ek.
3. EkEj = 0 se k 6= j
4. E2k = Ek
5. Im(Ek) = Wλk , isto e´, e´ o autoespac¸o associado a λk.
Reciprocamente se existem (λk)
m
1 distintos e m operadores lineares na˜o nulos (Ek)
m
1 sa-
tisfazendo (1), (2) e (3) enta˜o T e´ diagonaliza´vel (λk)
m
1 sa˜o os autovalores distintos de T
, (4) e (5) tambe´m valem.
CAPI´TULO 1. 46
Demonstrac¸a˜o. ⇒) Supondo T diagonaliza´vel com autovalores distintos (λk)m1 ,
sendo Wλk o autoespac¸o associado a` λk temos que
V =
m⊕
k=1
Wλk ,
sendo (Ek)
m
1 as projec¸o˜es associadas a esta decomposic¸a˜o enta˜o (2) , (3), (4) e (5) sa˜o
satisfeitas como ja´ mostramos em outra propriedade, falta verificar (1) para cada v ∈ V
temos
v =
m∑
k=1
Ek(v)
logo
T (v) =
m∑
k=1
T (Ek(v)) =
m∑
k=1
λkEk(v)
da´ı T =
m∑
k=1
λkEk e terminamos.
⇐).
Sejam dados T linear, escalares λk distintos e operadores na˜o nulos Ek satisfazendo
(1), (2) e (3) de I =
m∑
k=1
Ek multiplicando por Ej tem-se Ej = E
2
j logo cada Ej e´ projec¸a˜o,
de T =
m∑
k=1
λkEk multiplicando por por Ej a` direita segue que TEj = λjEj o que implica
(T − λj)Ej = 0 todo vetor na imagem de Ej esta´ no nu´cleo de T − λjI, isto e´, Im(Ej) ⊂
Wλj , usamos que em projec¸a˜o vale Ej(v) = v se v ∈ Im(Ej). Como Ej 6= 0 existe um
vetor na˜o nulo no nu´cleo de T − λj, da´ı λj e´ autovalor de T . Ale´m disso os λj sa˜o os
u´nicos autovalores de T , pois se c e´ um escalar arbitra´rio, enta˜o
T − cI =
m∑
k=1
λkEk − c
m∑
k=1
Ek =
m∑
k=1
(λk − c)Ek
se (T − cI)(v) = 0 temos
m∑
k=1
(λk − c)Ek(v) = 0, se v 6= 0 enta˜o
I(v) =
m∑
k=1
Ek(v) 6= 0
logo deve haver algum k tal que Ek(v) 6= 0 isso implica que (λk − c) = 0 pois
m∑
k=1
(λk −
c)Ek(v) e´ soma de elementos em espac¸o em soma direta (lembre que Im(Ek) ⊂ Wλk e os
CAPI´TULO 1. 47
autoespac¸os esta˜o em soma direta, enta˜o se a soma de elementos deles e´ nula, enta˜o cada
membro da soma deve ser nula ). T e´ diagonaliza´vel pois todo vetor na˜o-nulo na imagem
de Ej e´ um autovetor de T e o fato de I =
m∑
k=1
Ek mostra que esses autovetores geram V .
Falta mostrar apenas que N(T − λkI) = Im(Ek), ja´ sabemos que Im(Ek) ⊂ N(T − λkI)
falta mostrar a outra inclusa˜o. Se T (v) = λjv enta˜o
m∑
k=1
(λk − λj)Ek(v) = 0
logo (λk − λj)Ek(v) = 0 ∀k e da´ı Ej(v) = 0 para j 6= k como v =
m∑
k=1
Ek(v) e Ek(v) = 0
para k 6= j enta˜o v = Ej(v) e v ∈ Im(Ej) e terminamos a demonstrac¸a˜o.
Definic¸a˜o 36 (Involuc¸a˜o). S : V → V linear e´ dita involuc¸a˜o se S2 = I, isto e´, o operador
e´ o inverso dele pro´prio.
Propriedade 72. Seja S : V → V involuc¸a˜o se F1 = {u ∈ V | s(u) = u} e F2 = {v ∈
V | S(v) = −v} enta˜o F1, F2 < V , V = F1 ⊕ F2. Definindo P = S + I
2
, enta˜o P : V → V
e´ projec¸a˜o sobre F1 paralelamente a F2.
Demonstrac¸a˜o. F1 e F2 sa˜o subespac¸os vetoriais pois sa˜o auto-espac¸os. Podemos
escrever w ∈ V como
w =
s(w) + w
2
+
w − s(w)
2
s aplicado no primeiro termo resulta em
w + s(w)
w
que se mante´m, no segundo
s(w)− w
2
que e´ sime´trico, logo pertencem respectivamente a` F1, F2, a soma e´ direta pois se s(v) =
v = −v enta˜o v = 0 em corpo de caracter´ıstica diferente de 2. P e´ projec¸a˜o sobre F1 pois
P (w) = P (u+ v) =
s(v) + v
2
+
s(u) + u
2
= u.
1.3.3 Subespac¸o invariantes
Definic¸a˜o 37 (Subespac¸o invariante). Seja T : V → V linear . Um subespac¸o U < V e´
dito invariante por T se temos T (U) ⊂ U.
CAPI´TULO 1. 48
Propriedade 73. Sejam E e T operadores lineares de V → V , E uma projec¸a˜o. Im(E)
e´ T -invariante ⇔ ETE = TE.
Demonstrac¸a˜o.
⇒).
Dado v ∈ V arbitra´rio temos que mostrar que
ETE(v) = TE(v)
como Im(E) e´ T -invariante temos que TE(v) = E(v1) para algum v1 logo
ETE(v) = E2(v1) = E(v1) = TE(v)
como quer´ıamos demonstrar.
⇐). Suponha que ETE = TE, vamos mostrar que Im(E) e´ T -invariante. Dado v ∈ V
qualquer, temos que
ETE(v) = TE(v)⇒ T (E(v)) = E(TE(v)) ∈ Im(E)
por isso Im(E) e´ T -invariante.
Propriedade 74. Os seguintes espac¸os sa˜o invariantes para T : V → V linear.
1. N(T ).
2. {0}
3. V
4. Im(T ).
5. T : V → V com T (v) = cv possui todo subespac¸o invariante.
Demonstrac¸a˜o.
1. Pois v ∈ N(T ), enta˜o T (v) = 0 ∈ N(T ).
2. T (0) = 0 ∈ {0}.
3. T (V ) ⊂ V por definic¸a˜o.
CAPI´TULO 1. 49
4. Seja x ∈ Im(T ), enta˜o T (x) ∈ V e da´ı T (x) ∈ Im(T ).
5. Seja X um subespac¸o qualquer, enta˜o v ∈ X implica cv ∈ X e da´ı T (X) ⊂ X.
Exemplo 21. Sendo D : P [x] → P [x] operador derivac¸a˜o sobre espac¸o de polinoˆmios
com coeficientes em K (corpo), enta˜o Pn[x] o espac¸o de polinoˆmios de grau ate´ n e´ D-
invariante, pois o operador derivac¸a˜o diminui o grau do polinoˆmio.
Exemplo 22. E´ verdade que existe uma u´nica transformac¸a˜o linear T : V → V (V = C3)
tal que
T (1, 2− 1) = (1, 0, 0), T (0, 1,−1) = (0, 1, 0) e T (1, 2, 0) = (1, 1, 0)?.
Sim pois os vetores (1, 2,−1), (0, 2,−1) e (1, 2, 0) sa˜o LI epor isso sa˜o uma base de
C3 , uma transformac¸a˜o linear e´ unicamente determina pelos valores de uma base. Vamos
mostrar que os vetores realmente sa˜o LI
c1(1, 2,−1) + c2(0, 1,−1) + c3(1, 2, 0) = (0, 0, 0)
logo
1.
c1 + c3 = 0
2.
2c1 + c2 + 2c3 = 0⇒ c1 + c2︸ ︷︷ ︸
0
+ c1 + c3︸ ︷︷ ︸
0
+c3 = 0
3.
−c1 − c2 = 0⇒ c1 + c2 = 0
logo c3 = 0 , da primeira equac¸a˜o c2 = 0 e da terceira c1 = 0 enta˜o os vetores sa˜o
realmente LI.
Vamos agora escrever a matriz da transformac¸a˜o na base canoˆnica e determinar uma
base da imagem e do nu´cleo da transformac¸a˜o.
CAPI´TULO 1. 50
1.
T (1, 0, 0) + 2T (0, 1, 0)− T (0, 0, 1) = (1, 0, 0)
2.
T (0, 1, 0)− T (0, 0, 1) = (0, 1, 0)
3.
T (1, 0, 0) + 2T (0, 1, 0) = (1, 1, 0)
subtraindo a terceira da primeira temos
T (0, 0, 1) = (0, 1, 0)
substituindo na segunda equac¸a˜o tem-se
T (0, 1, 0) = (0, 2, 0)
e agora com a terceira equac¸a˜o temos
T (1, 0, 0) = (1, 1, 0)− 2(0, 2, 0) = (1,−3, 0)
com essas informac¸o˜es temos a matriz da transformac¸a˜o linear
1 0 0
−3 2 1
0 0 0

Agora iremos encontrar uma base para o nu´cleo do operador.
1 0 0
−3 2 1
0 0 0


x
y
z
 =

0
0
0

o que gera as equac¸o˜es
ˆ x=0
ˆ 2y+z=0
CAPI´TULO 1. 51
logo os vetores no nu´cleo sa˜o da forma
(0, y,−2y) = y(0, 1,−2)
logo o nu´cleo possui dimensa˜o 1, sendo gerado pelo vetor (0, 1,−2). Ja´ sabemos enta˜o que
a dimensa˜o da imagem e´ 2, pois dimIm(T )+dimN(T ) = 3, agora vamos achar uma base
para a imagem. 
1 0 0
−3 2 1
0 0 0


x
y
z
 =

x
−3x+ 2y + z
0

logo os vetores da imagem sa˜o da forma
x(1,−3, 0) + (2y + z)(0, 1, 0)
sendo (1,−3, 0) e (0, 1, 0) vetores LI que geram a imagem, que possui dimensa˜o 2, logo e´
uma base.
1.3.4 Dimensa˜o do produto cartesiano
Propriedade 75. Sejam (Vk)
n espac¸os vetoriais sobre K onde cada Vk possui dimensa˜o
mk, enta˜o A =
n∏
k=1
Vk possui dimensa˜o
n∑
k=1
mk.
Demonstrac¸a˜o. Seja (v(k,s))
nk
s=1 base de Vk enta˜o os vetores
(v(1,s), · · · , 0)m1s=1, (0, v(2,s), · · · , 0)m2s=1, · · · , (0, · · · , v(n,s))mns=1
formam uma base de A. Eles geram o espac¸o pois
(v1, · · · , vn) = (
m1∑
s=1
c(1,s)v(1,s), · · · ,
mn∑
s=1
c(n,s)v(n,s)) =
=
m1∑
s=1
c(1,s)(v(1,s), · · · , 0)m1s=1 + · · ·+
mn∑
s=1
c(n,s)(0, · · · , v(n,s))mns=1
tais vetores sa˜o LI pois se
m1∑
s=1
c(1,s)(v(1,s), · · · , 0)m1s=1 + · · ·+
mn∑
s=1
c(n,s)(0, · · · , v(n,s))mns=1 = 0
por independeˆncia linear dos vetores em cada coordenada, segue que todos os coeficientes
sa˜o nulos, como a base possui
n∑
k=1
mk elementos, o resultado segue.
CAPI´TULO 1. 52
1.3.5 dim(U + V ) = dim(U) + dim(V )− dim(U ∩ V ).
Propriedade 76. Sendo U e V subespac¸os de dimensa˜o finita de F , enta˜o
dim(U + V ) = dim(U) + dim(V )− dim(U ∩ V ).
Demonstrac¸a˜o.[1] Seja f : U × V → F definida como f(x, y) = x− y.
O nu´cleo de f e´ U ∩V. A imagem de f e´ U +V , logo pelo teorema de nu´cleo e imagem
temos
dim(U + V ) + dim(U ∩ V ) = dim(U × V ) = dim(U) + dim(V )
disso segue que
dim(U + V ) = dim(U) + dim(V )− dim(U ∩ V ).
Demonstrac¸a˜o.[2]
Tomamos uma base de U ∩ V
Bn = {u1, · · · , un}
extendemos tal base para uma base de U
Bt = {u1, · · · , un, un+1, · · · , ut}
o mesmo para V
Bs = {u1, · · · , un, vn+1, · · · , vs}
vamos mostrar que
L = {u1, · · · , un, un+1, · · · , ut, vn+1, · · · , vs}
que possui t+ s−n elementos, isto e´, dimV +dimU −dim(U ∩V ) elementos, e´ uma base
para U + V. Primeiro tal conjunto gera U + V , pois dados u ∈ U e v ∈ V sa˜o da forma
u =
t∑
k=1
ckuk, v =
n∑
k=1
akuk +
s∑
k=1+n
akvk
logo u+ v ∈ S(L), pois
u+ v =
n∑
k=1
(ck + ak)uk +
t∑
k=1+n
ckuk +
s∑
k=1+n
akvk.
Agora vamos mostrar que o conjunto e´ {u1, · · · , un, un+1, · · · , ut, vn+1, vn+2} e´ LI,
CAPI´TULO 1. 53
t∑
k=1
ckuk +
s∑
k=n+1
akvk = 0⇒
t∑
k=1
ckuk = −
s∑
k=n+1
akvk ∈ U ∩ V
logo podemos escrever
n∑
k=1
akvk +
s∑
k=n+1
akvk = 0
como o conjunto {u1, · · · , un, vn+1, · · · , vs} e´ LI segue que cada ak = 0 da´ı voltando a
equac¸a˜o original segue que
t∑
k=1
ckuk = 0
como {u1, · · · , un, un+1, · · · , ut} e´ LI enta˜o cada ck = 0 o que prova que o conjunto
L = {u1, · · · , un, un+1, · · · , ut, vn+1, · · · , vs} e´ LI, enta˜o temos uma base e fica provada a
identidade
dim(U + V ) = dim(U) + dim(V )− dim(U ∩ V ).
Corola´rio 20. Vale que
dim(U + V ) ≤ dim(U) + dim(V ).
Propriedade 77. Se A e B sa˜o matrizes n× n com entradas em K enta˜o
Posto(A+B) ≤ Posto(A) + Posto(B).
Demonstrac¸a˜o.
Seja Sc(A) o espac¸o gerado pelas colunas de A, temos que dimSc(A) = Posto(A), vale
ainda que
Sc(A+B) ⊂ Sc(A) + Sc(B)
sendo v1, · · · , vn vetores coluna de A e u1, · · · , un vetores coluna de B enta˜o um elemento
de Sc(A+B) e´ da forma
c1(v1 + u1) + · · · cn(vn + un) = c1v1 + · · · cnvn + c1u1 + · · · cnun
portanto vale
dim(Sc(A+B)) ≤ dim[Sc(A) + Sc(B)]
e usando a desigualdade anterior temos que
dim[Sc(A) + Sc(B)] ≤ dimSc(A) + dimSc(B) = Posto(A) + Posto(B)
CAPI´TULO 1. 54
da´ı temos
Posto(A+B) ≤ Posto(A) + Posto(B).
Corola´rio 21. Se U ∩ V = {0} , U , e V subespac¸os de W , enta˜o U + V e´ soma direta e
vale
dim(U) + dim(V ) = dim(U + V ).
1.4 Representac¸a˜o matricial de operadores
Definic¸a˜o 38 (Matriz de transformac¸a˜o linear). Sejam A : V → F linear, V e F espac¸os
vetoriais sobre K de dimenso˜es n e m, tendo bases ordenadas α = (vk)
n
1 , b = (wk)
m
1 ,
respectivamente, a matriz da transformac¸a˜o A nas bases α e b e´ denotada por [A]bα = [ak,j]
definida como a matriz m× n onde ak,j e´ dado implicitamente por
A(vj) =
m∑
k=1
ak,jwk.
Em cada coluna da matriz colocamos os vetores A(vj).
Estamos considerando bases ordenadas α = (vk)
n
1 , b = (wk)
m
1 que sa˜o bases em que se
considera a ordem dos vetores fixadas.
Corola´rio 22. A matriz de um funcional linear A : V → K, onde dimV = n e´ do tipo
1 × n. De uma transformac¸a˜o linear A : K → V temos uma matriz do tipo n × 1, todo
vetor na imagem e´ determinado por A(e1) = v, A(te1) = tA(e1) = tv.
Propriedade 78. Seja A : V → V linear com dim(V ) = 1 enta˜o A = αI para alguma
constante α.
Demonstrac¸a˜o. Tomamos u 6= 0 em V enta˜o {u} e´ base, A(u) = αu, dado v ∈ V
temos v = λu da´ı A(v) = λA(u) = λαu = αv por isso A = αI.
Propriedade 79. Sejam A : V → F linear, V e F espac¸os vetoriais sobreK de dimenso˜es
n e m, tendo bases ordenadas α = (vk)
n
1 , b = (wk)
m
1 respectivamente, enta˜o escrevendo
um elemento v =
n∑
k=1
ckvk de V como a matriz coluna n× 1
CAPI´TULO 1. 55
v =

c1
...
cn

sendo a matriz da transformac¸a˜o A nas bases α e b e´ denotada por [A]bα = [ak,j] = T
enta˜o a multiplicac¸a˜o de matrizes Tv fornece o resultado da aplicac¸a˜o do operador A no
vetor v, considerando o resultado na base ordenada b = (wk)
m
1 como vetor coluna m× 1
w =

y1
...
ym
 .
Demonstrac¸a˜o.
Tv =

a1,1 a1,2 · · · a1,n
a2,1 a2,2 · · · a2,n
...
... · · · ...
am,1 am,2 · · · am,n


c1
c2
...
cn
 =
=

a1,1c1 + a1,2c2 + · · ·+ a1,ncn
a2,1c1 + a2,2c2 + · · ·+ a2,ncn
...
am,1c1 + am,2c2 + · · ·+ am,ncn

em que o termo na k-e´sima entrada da matriz e´
n∑
j=1
ak,jcj , agora
v =
n∑
j=1
cjej aplicando A temos
A(v) =
n∑
j=1
cjA(ej) =
n∑
j=1
cj
m∑
k=1
ak,jwk =
m∑
k=1
(
n∑
j=1
cjak,j)wk
como quer´ıamos demonstrar, enta˜o aplicar o operador em v tem o mesmo efeito que
multiplicar as matrizes.
Propriedade 80. Seja V de dimensa˜o n, F de dimensa˜o m, ambos sobre K, enta˜o a
dimensa˜o de L(V,F ) e´ nm .
CAPI´TULO 1. 56
Demonstrac¸a˜o. L(V, F ) e´ isomorfo ao espac¸o das matrizes m × n. Consideramos
base α de V e b de F e a func¸a˜o f : L(V, F )→Mm×n(K) com
f(A) = [A]bα.
Tal operador e´ linear pois dado c ∈ K, A,B ∈ L(V, V ) temos
f(cA+B) = c[A]bα + [B]
b
α = cf(A) + f(B).
Tal aplicac¸a˜o e´ injetora pelo resultado anterior e sobrejetora pois toda matriz define
um operador linear. (revisar)
Quando tomarmos transformac¸o˜es lineares de Rn em Rm tomaremos em geral a matriz
do operador na base canoˆnica, caso outra base seja usada diremos isso de forma explicita
e no caso de A : V → V linear dimV = n iremos considerar tambe´m, salvo menc¸a˜o em
contra´rio apenas uma base α de V , na qual representaremos um operador A, nesse caso
podemos denotar sua representac¸a˜o nessa base como [A]v1 .
Propriedade 81. Sejam V de dimensa˜o finita sobre K, α ∈ K, A : V → V linear com
A(v) = αv ∀v ∈ V , relativamente a qualquer base α = (vk)n1 de V a matriz [A]α do
operador A e´ sempre a mesma sendo αIn×n.
Demonstrac¸a˜o. Dada a base (vk)
n
1 temos A(vk) = αvk logo a matriz assume a forma
desejada.
Definic¸a˜o 39 (Homotetia). A : V → V com A(v) = αv ∀v ∈ V e´ dita ser uma homotetia.
Exemplo 23. Sejam P : E → E projec¸a˜o sobre F1 paralela a` F2, V1, V2 ⊂ F1, F2 bases,
enta˜o V = V1 ∪ V2 e´ uma base de E, a matriz [P ]v1 possui os primeiros t = dimF1
elementos na diagonal iguais a` 1 e todos os outros termos da matriz nulos.
Propriedade 82. A matriz do produto de operadores TA : V → F nas bases α e u e´ o
produto de matrizes [T ]ub [A]
b
α, isto e´,
[T ]ub [A]
b
α = [TA]
u
α
sendo A : V → W e T : W → F lineares α = (vk)n1 base de V , b = (wk)s1 base de W ,
u = (uk)
p
1 base de F .
CAPI´TULO 1. 57
Demonstrac¸a˜o. Temos que A(vj) =
s∑
k=1
ak,jwk, T (wk) =
p∑
l=1
bl,kul logo
TA(vj) =
s∑
k=1
ak,j
p∑
l=1
bl,kul =
p∑
l=1
(
s∑
k=1
ak,jbl,k)︸ ︷︷ ︸
cl,j
ul =
p∑
l=1
ul
tem matriz p× n.
De outro lado [T ]ub possui elementos dados por [T ]
u
b = (bl,k) ∈Mp×s, T (wk) =
p∑
l=1
bl,kul
, [A]bα = (ak,j) ∈ Ms×n com A(vj) =
s∑
k=1
ak,jwk, o produto resulta em uma matriz
[T ]ub [A]
b
α = (dl,j) que e´ Mp×n cujos elementos sa˜o dados por
dl,j =
s∑
k=1
bl,kak,j
que e´ igual a` cl,i, enta˜o as matrizes [T ]
u
b [A]
b
α e [TA]
u
α possuem mesmas dimenso˜es e ele-
mentos.
1.4.1 Matriz de mudanc¸a de base
Teorema 1 (Mudanc¸a de base). Sejam A : E → F linear (vk)n1 = v , (wk)m1 = w bases
de E,F em ordem, tais que A : E → F possui matriz [A]wv = (ak,j), isto e´,
A(vj) =
m∑
k=1
ak,jwk
tomando as bases (v′k)
n
1 = v
′ , (w′k)
m
1 = w
′ bases de E,F em ordem, tais que A : E → F
possui matriz [A]w
′
v′ = (a
′
k,j), isto e´,
A(v′j) =
m∑
k=1
a′k,jw
′
k
para obter uma relac¸a˜o entre [A]w
′
v′ e [A]
w
v tomamos as matrizes de passagem [I]
v
v′ =
(pk,j) ∈Mn×n e [I]ww′ = (qk,j) ∈Mn×n com
v′j =
n∑
k=1
pk,jvk
CAPI´TULO 1. 58
w′r =
m∑
i=1
qi,rwi
A(v′j) =
n∑
k=1
pk,jA(vk) =
n∑
k=1
pk,j
m∑
i=1
ai,kwi =
=
m∑
i=1
(
n∑
k=1
ai,kpk,j)︸ ︷︷ ︸
ci,j
wi
de outra maneira
A(v′j) =
m∑
r=1
a′r,jw
′
r =
m∑
r=1
a′r,j
m∑
i=1
qi,rwi =
=
m∑
r=1
(
m∑
i=1
qi,ra
′
r,j)︸ ︷︷ ︸
di,j
wi
temos a igualdade dos coeficientes enta˜o tambe´m a igualdade no produto de matrizes
[A]wv [I]
v
v′ = [I]
w
w′ [A]
w′
v′
toda matriz de passagem e´ invert´ıvel pois o operador associado e´ invert´ıvel
enta˜o temos
[A]w
′
v′ = ([i]
w
w′)
−1[A]wv [I]
v
v′
em especial se w = v e w′ = v′ enta˜o
[A]v
′
v′ = ([i]
v
v′)
−1[A]vv[I]
v
v′ .
Demonstrac¸a˜o.

Continue navegando