Buscar

Assunto- PDF

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 35 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 35 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 35 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

A´lgebra Linear
10 de fevereiro de 2014
Cap´ıtulo 1
Espac¸os Vetoriais
Definic¸a˜o 1.0.1 Dizemos que um conjunto na˜o vazio V e´ um espac¸o vetorial sobre R se esta˜o definidas
duas operac¸o˜es
+ : V × V −→ V
(u, v) 7−→ u+ v
e
+ : R× V −→ V
(α, v) 7−→ αv
tais que:
1. u+ v = v + u, ∀u, v ∈ V ;
2. u+ (v + w) = (u+ v) + w, ∀u, v, w ∈ V ;
3. Existe um elemento neutro da operac¸a˜o + denotado por 0, isto e´, 0 + v = v, ∀v ∈ V ;
4. A cada v ∈ V existe um elemento oposto, denotado por −v tal que v + (−v) = 0;
5. (αβ)v = α(βv), ∀α, β ∈ R e ∀v ∈ V ;
6. (α+ β)v = αv + βv, ∀α, β ∈ R e ∀v ∈ V ;
7. α(u+ v) = αu+ αv, ∀α ∈ R e ∀u, v ∈ V ;
8. 1v = v, ∀v ∈ V .
Observac¸a˜o 1.0.2 Os elementos de um espac¸o vetorial V sa˜o chamados de vetores, e o elemento neutro
e´ dito vetor nulo.
Observac¸a˜o 1.0.3 O conjunto R usado na definic¸a˜o acima pode ser substitu´ıdo por C, ou por qualquer
conjunto que tenha a estrutura de corpo1.
1Ver qualquer livro de estruturas alge´bricas para definic¸a˜o de corpo
1
1.1 Exemplos
1. V = R2 e´ um espac¸o vetorial. Com efeito, basta definir as operac¸o˜es:
(x1, y1) + (x2, y2) = (x1 + x2, y1 + y2)
λ(x1, y1) = (λx1, λy1).
2. O conjunto da matrizes Mm×n(R) e´ um espac¸o vetorial com as operac¸o˜es convencionais.
3. O pro´prio conjunto R e´ um espac¸o vetorial sobre si mesmo.
4. Seja X um conjunto qualquer na˜o vazio e F(X,R) o conjunto de todas as func¸o˜es f : X → R. Defina
as seguintes operac¸o˜es em F(X,R):
• para f, g ∈ F(X,R), defina a func¸a˜o f + g : X → R dada por (f + g)(x) = f(x) + g(x) para cada
x ∈ X.
• para f ∈ F(X,R) e α ∈ R, defina a func¸a˜o α · f : X → R dada por (α · f)(x) = αf(x) para cada
x ∈ F(X,R).
Com estas operac¸o˜es, o conjunto F(X,R) e´ um espac¸o vetorial sobre R, onde a func¸a˜o nula e´ o vetor
nulo desse espac¸o2.
1.2 Propriedades Ba´sicas
Seja V um espac¸o vetorial sobre R.
Proposic¸a˜o 1.2.1 Para todo α ∈ R, α0 = 0.
Dem.: Com efeito, dado α ∈ R existe −(α0). E somando este vetor em cada membro da equac¸a˜o
α0 = α(0 + 0) = α0 + α0,
obtemos
0 = α0.
2
Proposic¸a˜o 1.2.2 Para todo v ∈ V , 0u = 0.
Dem.: Exerc´ıcio
Proposic¸a˜o 1.2.3 Se α ∈ R e v ∈ V sa˜o tais que αv = 0, enta˜o α = 0 ou v = 0.
Dem.: Sejam α ∈ R e v ∈ V com αv = 0. Se α 6= 0 enta˜o existe α−1. Assim,
(α−1)(αv) = α−10 =⇒ v = 0
2
2Tal conjunto e´ denominado espac¸o de func¸o˜es, e e´ um dos principais objetos de estudo de uma a´rea da matema´tica chamada
Ana´lise Funcional.
2
Proposic¸a˜o 1.2.4 Para todo α ∈ R e para todo v ∈ V , (−α)v = α(−v) = −(αv).
Dem.: Vamos mostrar que α(−v) = −(αv). Note que
α(−v) + αv = α(−v + v)
= α0
= 0,
donde α(−v) = −(αv). A outra igualdade se verifica de maneira ana´loga. 2
Definic¸a˜o 1.2.5 Dados u, v ∈ V definimos a diferenc¸a u− v por
u− v = u+ (−v).
Proposic¸a˜o 1.2.6 Se α, β ∈ R e v ∈ V , enta˜o (α− β)v = αv − βv.
Dem.: Basta verificar a sequeˆncia de igualdades
(α− β)v = (α+ (−β))v = αv + (−β)v = αv + (−βv) = αv − βv.
2
Proposic¸a˜o 1.2.7 Sejam α ∈ R e u, v ∈ V . Enta˜o α(u− v) = αu− αv.
Dem.: Exerc´ıcio.
Proposic¸a˜o 1.2.8 Dados β, α1, · · · , αn ∈ R e u1, · · · , un ∈ V , temos que
β
( n∑
i=1
αivi
)
=
n∑
i=1
βαivi.
Dem.: Exerc´ıcio.
1.3 Subespac¸os Vetoriais
Definic¸a˜o 1.3.1 Seja V um espac¸o vetorial. Dizemos que um subconjunto U ⊂ V e´ um subespac¸o vetorial
de V , se U e´ um espac¸o vetorial sobre R com as operac¸o˜es herdadas de V .
Exemplo 1.3.2 Dado um espac¸o vetorial V , os conjuntos {0} e V sa˜o os exemplos triviais de subespac¸o.
Proposic¸a˜o 1.3.3 Sejam V um espac¸o vetorial e U ⊂ V . Enta˜o U e´ um subespac¸o de V se, e somente se,
1. 0 ∈ U ;
2. para todos u, v ∈ U tem-se que u+ v ∈ U ;
3. para todo α ∈ R e todo u ∈ U tem-se αu ∈ U .
3
Dem.: (⇒) Evidente.
(⇐) Basta verificar que
u ∈ U =⇒ −u ∈ U.
Mas isto segue de
u ∈ U =⇒ (−1)u ∈ U
e (−1)u = −u 2
Exemplo 1.3.4 O conjunto U = {(x, y, z) ∈ R3 | x+ y = 0} e´ um subespac¸o de R3.
Exemplo 1.3.5 Qualquer reta passando pela origem e´ um subespac¸o de R2.
Exemplo 1.3.6 O conjunto das func¸o˜es C([a, b],R) = {f : [a, b] → R | f e´ cont´ınua} e´ um subespac¸o
vetorial de F([a, b],R).
Exemplo 1.3.7 Sejam U e W subespac¸os de um mesmo espac¸o vetorial V . O conjunto U ∩W e´ um
subespac¸o de V . Contudo, o conjunto U ∪W na˜o e´, em geral, subespac¸o de V .
Exemplo 1.3.8 O conjunto das matrizes sime´tricas e´ um subespac¸o vetorial de Mn×n(R)
1.4 Somas de Subespac¸os
Definic¸a˜o 1.4.1 Sejam U e W subespac¸os de um espac¸o vetorial V . Chamaremos de soma de U com W ,
e denotaremos por U +W , o conjunto
U +W = {u+ w | u ∈ U e w ∈W}.
Proposic¸a˜o 1.4.2 Sejam V um espac¸o vetorial, e U,W ⊂ V subespac¸os de V . O conjunto U +W e´ um
subespac¸o de V .
Dem.: Como 0 ∈ U ∩W e 0 + 0 = 0, temos que 0 ∈ U +W .
Sejam v1, v2 ∈ U +W . Escrevendo v1 = u1 + w1 e v2 = u2 + w2, com u1, u2 ∈ U e w1, w2 ∈W temos que
v1 + v2 = (u1 + w1) + (u2 + w2) = (u1 + u2) + (w1 + w2) ∈ U +W,
pois (u1 + u2) ∈ U e (w1 + w2) ∈W .
Por fim, se α ∈ R e v ∈ U +W , escrevendo v = u+ w onde u ∈ U e w ∈W , temos
αv = α(u+ w) = αu+ αw ∈ U +W,
pois αu ∈ U e αw ∈W 2
Definic¸a˜o 1.4.3 Sejam V um espac¸o vetorial, e U,W ⊂ V subespac¸os de V tais que U ∩W = {0}. Neste
caso, diremos que U +W e´ soma direta dos subespac¸os U e W , e escreveremos U ⊕W para representar o
espac¸o U +W . Se V = U ⊕W diremos que U e W sa˜o suplementares, e que V e´ a soma direta de U e W .
4
Exemplo 1.4.4 Considere em R2 os subespac¸os U = {(x, y) ∈ R2 | y = 0} e W = {(x, y) ∈ R2 | x = 0}.
Temos que a soma entre U e W e´ direta, uma vez que U ∩W = {0}.
No exemplo anterior, sera´ que R2 = U ⊕W? A pro´xima proposic¸a˜o nos ajuda nessa resposta.
Proposic¸a˜o 1.4.5 Sejam V um espac¸o vetorial, e U,W ⊂ V subespac¸os de V . Enta˜o V = U ⊕W se, e
somente se, cada elemento v ∈ V se escreve de maneira u´nica como uma soma u+ w com u ∈ U e w ∈W .
Dem.: (⇒) Suponha que V = U ⊕W . Dado v ∈ V temos que v se escreve como a soma de um vetor
em U com um vetor em W . Suponha que haja duas formas de fazer isso, ou seja, v = u1+w1 e v = u2+w2
com u1, u2 ∈ U e w1, w2 ∈W . Enta˜o
u1 + w1 = u2 + w2 =⇒ u1 − u2 = w2 − w1.
Ora, (u1 − u2) ∈ U e (w1 − w2) ∈W , logo u1 − u2 = w2 − w1 = 0 donde u1 = u2 e w1 = w2.
(⇐) Supondo agora que cada elemento de V se escreve de maneira u´nica como a soma de um vetor em U
com um vetor em W , temos em particular que V = U +W . Ale´m disso, dado v ∈ U ∩W podemos escrever
v = v+ 0 com v ∈ U e 0 ∈W , e v = 0+ v com 0 ∈ U e v ∈W . Segue da hipo´tese de unicidade que v = 0, e
portanto a soma de U e W e´ direta 2
Exemplo 1.4.6 Com a notac¸a˜o do exemplo anterior, R2 = U ⊕W .
1.5 Combinac¸o˜es Lineares e Espac¸os finitamente Gerados
Sejam V um espac¸o vetorial e S = {v1, · · · , vn} ⊂ V . O conjunto
[S] = {α1v1 + · · ·+ αnvn | α1, · · · , αn ∈ R}
e´ um subespac¸o vetorial de V .
Com efeito,
1. 0 = 0.v1 + · · ·+ 0.vn;
2. (α1v1 + · · ·+ αnvn) + (β1v1 + · · ·+ βnvn) = (α1 + β1)v1 + · · ·+ (αn + βn)vn;
3. λ(α1v1 + · · ·+ αnvn) = (λα1)v1 + · · ·+ (λαn)vn.
Definic¸a˜o 1.5.1 Dados V espac¸o vetorial e S = {v1, · · · , vn} ⊂ V , chamamos o subespac¸o [S] de ”su-
bespac¸o vetorial gerado por S”. Aos vetores de [S] damos o nome de combinac¸a˜o linear de S, ou combinac¸a˜o
linear de v1, · · · , vn.
Nota c¸a˜o: [S] = [v1, · · · , vn].
Convenc¸a˜o: Se S = ∅ enta˜o [S] = {0}.
Para o caso em que S ⊂ V e´ infinito, diremos que u ∈ [S] se existirem v1, · · · , vk ∈ S e α, · · · , αk ∈ R
tais que
u = α1v1 + · · ·+ αkvk.
5
Proposic¸a˜o 1.5.2 Dados um espac¸o vetorial V e S ⊂ V , enta˜o S ⊂ [S].
Dem.: Se S for finito, digamos S = {v1, · · · , vn} enta˜o
vi = 0.v1 + · · ·+ 1.v1 + · · ·+ 0.vn
⇒ vi ∈ [S], ∀ i = 1, · · · , n.
Se S for infinito e v ∈ S, enta˜o basta escrever v = 1.v 2
Outras propriedades sa˜o:
1. S1 ⊂ S2 ⊂ V⇒ [S1] ⊂ [S2];
2. [S] = [[S]];
3. [S1 ∪ S2] = [S1] + [S2], aqui S1 e S2 sa˜o subespac¸os de um mesmo espac¸o V .
Exemplo 1.5.3 Se V = R3, u = (1, 0, 0) e v = (1, 1, 0) o que e´ [u, v]?
Definic¸a˜o 1.5.4 Dizemos que um espac¸o vetorial V e´ finitamente gerado se existe um subconjunto finito,
S ⊂ V , tal que V = [S].
Exemplo 1.5.5 R3 e´ finitamente gerado. Com efeito, o conjunto S = {e1, e2, e3}3 e´ tal que R3 = [S].
Exemplo 1.5.6 Rn e´ finitamente gerado pelo conjunto S = {e1, · · · , en}.
Exemplo 1.5.7 O espac¸o vetorial V =M2(R) e´ gerado pelo conjunto
S =
{(
1 0
0 0
)
,
(
0 1
0 0
)
,
(
0 0
1 0
)
,
(
0 0
0 1
)}
.
Exemplo 1.5.8 O espac¸o vetorial V = Pn(R) e´ gerado pelo conjunto S = {1, t, t2, · · · , tn}.
1.6 Base e Dimensa˜o
Definic¸a˜o 1.6.1 Seja V um espac¸o vetorial. Considere um subconjunto finito S = {v1, · · · , vn} ⊂ V .
Dizemos que S e´ linermaente independente (l.i.) se, e somente se,
α1v1 + · · ·+ αnvn = 0 =⇒ α1 = · · · = αn = 0.
Caso contra´rio, dizemos que S e´ linearmente dependente (l.d.).
Observac¸a˜o 1.6.2
3e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1).
6
1. Convencionaremos que o conjunto vazio e´ l.i..
2. Todo conjunto contendo o vetor nulo e´ l.d..
3. Todo espac¸o vetorial na˜o nulo possui um conjunto l.i.. Com efeito, basta considerar S = {v} onde v e´
um vetor na˜o nulo do espac¸o em questa˜o.
4. Todo subconjunto de um conjunto linearmente independente e´ linearmente independente.
Exemplo 1.6.3 O conjunto S = {(1, 0, 0), (0, 1, 0), (0, 0, 1), (2, 3, 5)} ⊂ R3 e´ l.d., pois
2(1, 0, 0) + 3(0, 1, 0) + 5(0, 0, 1)− 1(2, 3, 5) = (0, 0, 0).
Exemplo 1.6.4 O conjunto S = {(1, 1, 1), (1, 0, 1), (1, 0,−2)} ⊂ R3 e´ l.i..
Exemplo 1.6.5 Considere o espac¸o vetorial V = C{[0, 2pi],R}. O conjunto S ⊂ V dado por S =
{sinx, cosx} e´ l.i.. De fato, se α sinx+ β cosx = 0 para todo x ∈ [0, 2pi], enta˜o α = β = 0.
Proposic¸a˜o 1.6.6 Sejam V um espac¸o vetorial e S = {v1, · · · , vn} ⊂ V . Enta˜o S e´ l.d. se, e somente se,
ao menos um de seus vetores e´ combinac¸a˜o linear dos demais.
Dem.: Se S e´ l.d. enta˜o existem α1, · · · , αn ∈ R tais que
α1v1 + · · ·+ αnvn = 0
com algum αi 6= 0. Enta˜o podemos dividir a expressa˜o acima por αi, obtendo
α1
αi
v1 + · · ·+ αi−1
αi
vi−1 + vi +
αi+1
αi
vi+1 + · · ·+ αn
αi
vn = 0.
Logo
vi = −α1
αi
v1 − · · · − αi−1
αi
vi−1 − αi+1
αi
vi+1 − · · · − αn
αi
vn
e´ uma combinac¸a˜o linear dos demais vetores de S.
Reciprocamente, se algum dos vetores de S e´ combinac¸a˜o linear dos demais, por exemplo
vi = β1v1 + · · ·+ βi−1vi−1 + βi+1vi+1 + · · ·+ βnvn,
enta˜o
β1v1 + · · ·+ βi−1vi−1 − vi + βi+1vi+1 + · · ·+ βnvn = 0.
Donde S e´ l.d. 2
Definic¸a˜o 1.6.7 Seja V um espac¸o vetorial. Dizemos que um subconjunto B ⊂ V e´ uma base de V se:
1. [B] = V ;
2. B e´ linearmente independente.
Observe que pelas nossas convenc¸o˜es, o conjunto vazio e´ uma base do espac¸o vetorial {0}.
7
Exemplo 1.6.8 O conjunto B = {e1, · · · , en} e´ uma base do espac¸o vetorial Rn.
Exemplo 1.6.9 Os conjuntos B1 = {1, x, x2, x3} e B2 = {1, 2 + x, 3x− x2, x− x3} sa˜o exemplos de bases
do mesmo espac¸o vetorial P3(R). A primeira e´ dita a base canoˆnica deste espac¸o.
Exerc´ıcio 1.6.10 Estenda a noc¸a˜o de conjunto linearmente independente para um conjunto infinito. Em
seguida verifique que o conjunto
S = {1, x, · · · , xn, · · · }
e´ uma base do espac¸o vetorial P(R).
Proposic¸a˜o 1.6.11 Sejam V um espac¸o na˜o nulo finitamente gerado, e S = {v1, · · · , vn} ⊂ V um gerador
de V . Enta˜o todo conjunto linearmente independente de vetores em V tem no ma´ximo n elementos.
Dem.: Considere o conjunto S1 = {u1, · · · , un} ⊂ V com m > n. Como V = [S] temos que cada ui e´
uma combinac¸a˜o linear dos v′js. Enta˜o existem escalares αij ∈ R tais que
u1 = α11v1 + · · ·+ α1nvn
...
...
um = αm1v1 + · · ·+ αmnvn
Para verificar que S1 e´ l.d. fac¸a
λ1u1 + · · ·+ λmum = 0.
Esta equac¸a˜o (nas inco´gnitas λk) e´ equivalente a
(λ1α11 + · · ·+ λmαm1)v1 + · · ·+ (λ1α1n + · · ·+ λmαmn)vn = 0.
Considerando a soluc¸a˜o trivial da equac¸a˜o acima obtemos o sistema
α11λ1 + · · ·+ αm1λm = 0
...
α1nλ1 + · · ·+ αmnλm = 0
E´ claro que λ1 = · · · = λm = 0 resolve o sistema, mas note que se trata de um sistema com n equac¸o˜es e m
varia´veis. Logo, possui uma soluc¸a˜o na˜o nula. Portanto, S1 e´ l.d. 2
Corola´rio 1.6.12 Seja V um espac¸o vetorial finitamente gerado. Enta˜o quaisquer duas bases de V teˆm o
mesmo nu´mero de elementos.4
Dem.: Sejam B1 e B2 bases de V com cardinalidades n e m, respectivamente. Como B1 gera V , segue
da proposic¸a˜o anterior que m ≤ n. Caso contra´rio B2 seria l.d.. Como B2 tambe´m gera V , segue pelo mesmo
argumento que n ≤ m. Donde n = m
Definic¸a˜o 1.6.13 Seja V um espac¸o vetorial. Se V admite uma base finita, enta˜o chamamos de dimensa˜o
de V o nu´mero de elementos de tal base. Caso contra´rio dizemos que a dimensa˜o de V e´ infinita.
Se a dimensa˜o de V e´ n escrevemos dimV = n. Caso seja infinita, dimV =∞. E se quisermos dizer que
a dimensa˜o de V e´ finita sem fazer refereˆncia a seu valor, escrevemos dimV <∞.
4Em alguns livros este resultado e´ conhecido como Teorema da Invariaˆncia
8
Exemplo 1.6.14 E´ fa´cil ver que:
• dimR2 = 2
• dimR3 = 3
• dimRn = n
• dimP(R) = n+ 1
• dimMm×n = m.n
• dim{0} = 0
Proposic¸a˜o 1.6.15 Sejam V um espac¸o vetorial e S = {v1, · · · , vn} ⊂ V um subconjunto l.i.. Se existe
v ∈ V tal que v /∈ [S] enta˜o S ∪ {v} e´ l.i..
Dem.: Sejam α1, · · · , αn, α ∈ R tais que
α1v1 + · · ·+ αnvn + αv = 0.
Se α 6= 0 enta˜o
v = −α1
α
v1 − · · · − αn
α
vn
o que implica em v ∈ [S]. Contradic¸a˜o.
Logo, α = 0
=⇒ α1v1 + · · ·+ αnvn = 0.
Como S e´ l.i., segue que α1 = · · · = αn = 0. Portanto S ∪ {v} e´ l.i.
Teorema 1.6.16 Todo espac¸o vetorial na˜o nulo finitamente gerado possui uma base.
Prova: Seja V um espac¸o vetorial na˜o nulo finitamente gerado. Enta˜o existe S ⊂ V com finitos elementos,
digamos n, tal que V = [S].
Seja v1 ∈ V , v1 6= 0. Temos que B1 = {v1} e´ l.i., se V = [B] enta˜o B1 e´ uma base de V . Se na˜o, existe
v2 ∈ V tal que v2 /∈ [v1]. Pela proposic¸a˜o anterior, B2 = {v1, v2} e´ l.i., se V = [B2] enta˜o B2 e´ uma base de
V . Caso contra´rio existira´ v3 ∈ V tal que v3 /∈ [v1, v2]. O que implica em B3 = {v1, v2, v3} ser l.i..
Note que este processo encerra-se em no ma´ximo n vetores, pois um subconjunto de V com n+1 vetores
e´ necessariamente l.d.
Seja V um espac¸o vetorial de dimensa˜o n. Se B = {v1, · · · , vn} e´ uma base de V , enta˜o cada vetor v ∈ V
tem uma u´nica maneira de ser escrito como combinac¸a˜o linear dos vetores de B. De fato,
v =
n∑
i=1
αivi =
n∑
i=1
βivi
⇒
n∑
i=1
(αi − βi)vi = 0
⇒ αi = βi = 0, ∀ i = 1, · · · , n.
Neste caso escrevemos v = (α1, · · · , αn)B e dizemos que (α1, · · · , αn) sa˜o as coordenadas de v na
base B.
9
Observac¸a˜o 1.6.17 Note a importaˆncia na ordem dos vetores de B. Neste contexto costuma-se chamar
B de base ordenada.
Exemplo 1.6.18 O polinoˆmio p(x) = 1+x+x2+x3 que na base canoˆnica tem representac¸a˜o (coordenadas)
p(x) = (1, 1, 1, 1)C , e´ escrito na base B = {1, 2 + x, 3x− x2, x− x3} da seguinte forma
p(x) = (−9, 5,−1,−1)B .
10
Cap´ıtulo 2
Transformac¸o˜es Lineares
Definic¸a˜o 2.0.19 Sejam U e V espac¸os vetoriais sobre R. Uma func¸a˜o T : U → V e´ uma transformac¸a˜o
Linear se
1. T (u1 + u2) = T (u1) + T (u2), para todos u1, u2 ∈ U , e
2. T (αu) = αT (u), para todo α ∈ R e todo u ∈ U .
Exemplo 2.0.20 A func¸a˜o nula T : U → V dada por T (u) = 0, para todo u ∈ U , e a func¸a˜o identidade
Id : U → U dada por Id(u) = u, para todo u ∈ U , sa˜o transformac¸o˜es Lineares.
Exemplo 2.0.21 T : R3 → R2 definida por T (x, y, z) = (x, 2x − z), para todo (x, y, z) ∈ R3, e´ tambe´m
linear.
Exemplo 2.0.22Dado a ∈ R a func¸a˜o f : R → R dada por f(x) = ax, para todo x ∈ R, e´ linear. Mas
g : R→ R dada por g(x) = ax+ b, para todo x ∈ R, e´ linear apenas quando b = 0.
Exerc´ıcio 2.0.23 Seja D : Pn(R) → Pn(R) definida por D(f(t)) = f ′(t) para todo polinoˆmio f(t) ∈
Pn(R), onde f ′(t) e´ a derivada de f(t). D e´ linear?
Proposic¸a˜o 2.0.24 Sejam U e V espac¸os vetoriais e T : U → V uma transformac¸a˜o linear. Enta˜o
1. T (0) = 0, ou seja, se T e´ linear enta˜o T leva o vetor nulo de U no vetor nulo de V .
2. T (−u) = −T (u), para todo u ∈ U .
3. T
( n∑
i=1
αiui
)
=
n∑
i=1
αiT (ui), onde αi ∈ R e ui ∈ U para i = 1, · · · , n.
Prova: T (0 + 0) = T (0) + T (0), pois T e´ linear. Segue que T (0) = 0 provando o primeiro item.
Para verificar o segundo item basta escrever
T (u) + T (−u) = T (u+ (−u)) = T (u− u) = T (0) = 0.
11
Donde T (−u) = −T (u).
Para o u´ltimo item basta fazer induc¸a˜o sobre n
2.1 Nu´cleo e Imagem
Definic¸a˜o 2.1.1 Sejam U e V espac¸os vetoriais sobre R e T : U → V uma transformac¸a˜o linear.
1. O conjunto {u ∈ U | T (u) = 0} e´ chamado de nu´cleo de T e sera´ denotado por ker(T ).
2. O conjunto {v ∈ V | ∃u ∈ U com T (u) = v} e´ chamado de imagem de T e sera´ denotado por Im(T ).
Proposic¸a˜o 2.1.2 Sejam U e V espac¸os vetoriais sobre R e T : U → V uma transformac¸a˜o linear. Enta˜o
1. ker(T ) e´ um subespac¸o de U , e Im(T ) e´ um subespac¸o de V .
2. T e´ injetora se, e somente se, ker(T ) = {0}.
Prova: Como T (0) = 0 segue que 0 ∈ ker(T ). Dados u1, u2 ∈ ker(T ) temos
T (u1 + u2) = T (u1) + T (u2) = 0 + 0 = 0.
Donde u1 + u2 ∈ ker(T ). Dados α ∈ R e u ∈ U nota-se que
T (αu) = αT (u) = α0 = 0 ⇒ αu ∈ ker(T ).
Portanto, ker(T ) e´ subespac¸o de U .
Como T (0) = 0 segue que 0 ∈ Im(T ). Dados v1 e v2 em Im(T ) temos que existem u1, u2 ∈ U tais que
T (u1) = v1 e T (u2) = v2, assim
T (u1 + u2) = T (u1) + T (u2) = v1 + v2,
ou seja, v1 + v2 ∈ Im(T ). Se α ∈ R e v ∈ Im(T ) enta˜o existe u ∈ U com T (u) = v e
T (αu) = αT (u) = αv ⇒ αv ∈ Im(T ).
Isso prova que Im(T ) e´ subespac¸o de V e encerra o primeiro item.
Se T e´ injetiva temos claramente que ker(T ) = {0}, pois 0 ∈ ker(T ). Por outro lado, suponha que
ker(T ) = {0} e vamos mostrar que T e´ injetiva.
Sejam u1, u2 ∈ U tais que T (u1) = T (u2). Enta˜o
T (u1 − u2) = T (u1)− T (u2) = 0 ⇒ u1 − u2 ∈ kerU.
Ora, ker(T ) = {0} por hipo´tese, logo u1 − u2 = 0 e portanto u1 = u2
Exemplo 2.1.3 O perador linear D : Pn(R) → Pn(R) definido por D(f(t)) = f ′(t) para todo polinoˆmio
f(t) ∈ Pn(R) na˜o e´ injetor.
12
Teorema 2.1.4 (Teorema do nu´cleo e da Imagem) Sejam U e V espac¸os vetoriais de dimensa˜o finita sobre
R e T : U → V uma transformc¸a˜o linear. Enta˜o
dim(U) = dim(ker(T )) + dim(Im(T )).
Prova: Suponhamos inicialmente que ker(T ) 6= {0} e seja B1 = {u1, · · · , un} uma base de ker(T ). Va-
mos estender B1 a uma base de U , digamos B2 = {u1, · · · , un, v1, · · · , vm}. Vamos mostrar que C =
{T (v1), · · · , T (vm)} e´ uma base de Im(T ).
Dado v ∈ Im(T ) temos que existe u ∈ U tal que T (u) = v, como B2 e´ uma base de U segue que existem
escalares α1, · · · , αn, β1, · · · , βm ∈ R tais que
u = α1u1 + · · ·+ αnun + β1v1 + · · ·+ βmvm.
Assim,
v = T (α1u1 + · · ·+ αnun + β1v1 + · · ·+ βmvm).
Usando a linearidade de T e o fato de u1, · · · , un ∈ ker(T ), temos
v = β1T (v1) + · · ·+ βmT (vm).
Portanto C gera Im(T ), restando mostrar que C e´ l.i..
Sejam λ1, · · · , λm ∈ R tais que
m∑
i=1
λiT (vi) = 0.
Enta˜o
T
( m∑
i=1
λi(vi)
)
= 0,
donde
m∑
i=1
λi(vi) pertence ao nu´cleo de T . Logo, existem escalares γ1, · · · , γn ∈ R tais que
λ1v1 + · · ·+ λmvm = γ1u1 + · · ·+ γmum.
Assim,
λ1v1 + · · ·+ λmvm + (−γ1)u1 + · · ·+ (−γm)um = 0
e´ uma combinac¸a˜o linear nula de vetores da base B2. Portanto λ1 = · · · = λm = 0 e C e´ l.i..
Se ker(T ) = {0}, tomamos B = {u1, · · · , un} base de U e, de maneira ana´loga a` feita acima, mostramos
que C = {T (u1), · · · , T (un)} e´ base de Im(T )
Uma consequeˆncia do Teorema do nu´cleo e da Imagem e´ dada no corola´rio seguinte, cuja demonstrac¸a˜o
e´ deixada como exerc´ıcio.
Corola´rio 2.1.5 Sejam U e V espac¸os vetoriais sobre R de mesma dimensa˜o finita. Se T : U → V e´ uma
transformac¸a˜o linear, enta˜o sa˜o equivalentes as seguintes afirmac¸o˜es:
1. T e´ sobrejetiva.
2. T e´ injetiva.
13
3. T leva bases de U em bases de V .
Exemplo 2.1.6 Considere a transformac¸a˜o linear T : R3 → R dada por
T (x, y, z) = 3x− 2y + z, ∀(x, y, z) ∈ R3.
Note que seu nu´cleo e´ formado pelos vetores de R3 tais que
3x− 2y + z = 0.
Uma vez que a Im(T ) 6= {0} temos que dim(Im(T )) = 1, e como dim(R3) = 3 segue do teorema do nu´cleo e
da imagem que ker(T ) tem dimensa˜o 2. De fato, ker(T ) e´ um plano passando pela origem.
Exemplo 2.1.7 Considere a seguinte transformac¸a˜o linear
T : R2 → R3
(x, y) 7→ (−y, x, x+ y)
Observe que ker(T ) = {(x, y) | (−y, x, x+y) = (0, 0, 0)} = {(0, 0)} e, portanto, T e´ injetora. Basta observar
que (−1, 0, 0) na˜o e´ um elemento de Im(T ) para concluir que T na˜o e´ sobrejetora. Na˜o e´ dif´ıcil ver tambe´m
que {(0, 1, 1), (−1, 0, 1)} forma uma base de Im(T ).
2.2 Isomorfismos
Definic¸a˜o 2.2.1 Sejam U e V espac¸os vetoriais sobre R. Dizemos que uma transformac¸a˜o linear T : U → V
e´ um isomorfismo (ou isomorfismo linear) se T e´ bijetiva. Dizemos que U e V sa˜o espac¸os isomorfos (ou
simplesmente isomorfos) se existe um isomorfismo T : U → V . Um isomorfismo da forma T : U → U e´
dito um automorfismo de U .
Se T : U → V e´ uma func¸a˜o bijetiva enta˜o para cada v ∈ V existe u´nico uv ∈ U tal que
T (uv) = v.
Deste modo, fica bem definida uma func¸a˜o S : V → U dada por
S(v) = uv, ∀v ∈ V.
Note que S e´ bijetiva, T ◦ S = IdV e S ◦ T = IdU . A func¸a˜o S e´ chamada de func¸a˜o inversa de T , e sera´
denotada por T−1.
Proposic¸a˜o 2.2.2 Se T : U → V e´ um isomorfismo linear enta˜o T−1 : V → U tambe´m e´ isomorfismo
linear.
Prova: Uma vez que T−1 e´ bijetiva, resta provar que T−1 e´ linear. Dados α ∈ R e v1, v2 ∈ V existem
u1, u2 ∈ U tais que T (u1) = v1 e T (u2) = v2. Assim,
S(αv1 + v2) = S(αT (u1) + T (u2))
= S(T (αu1 + u2))
= αu1 + u2
= αS(v1) + S(v2).
Donde T−1 e´ linear
14
Lema 2.2.3 Sejam U e V espac¸os vetoriais sobre R. Se {u1, · · · , un} e´ uma base de U e se {v1, · · · , vn} ⊆
V , enta˜o existe uma u´nica transformac¸a˜o linear T : U → V tal que T (ui) = vi, para cada i = 1, · · · , n.
Prova: Dado u ∈ U existem u´nicos α1, · · · , αn ∈ R tais que
u = α1u1 + · · ·αnun.
Defina T : U → V por
T (u) = α1v1 + · · ·+ αnvn.
Segue da unicidade dos α′is que T esta´ bem definida. E´ fa´cil ver que T (ui) = vi, para cada i = 1, · · · , n,
restando provar sua linearidade. Sejam λ ∈ R e u =
n∑
i=1
αiui, w =
n∑
i=1
βiui dois vetores de U . Enta˜o
T (λu+ w) = T
(
λ
n∑
i=1
αiui +
n∑
i=1
βiui
)
= T
( n∑
i=1
(λαi + βi)ui
)
=
n∑
i=1
(λαi + βi)vi
= λ
n∑
i=1
αivi +
n∑
i=1
βivi
= λT (u) + T (w).
Provando a linearidade de T . A prova da unicidade e´ deixada a cargo do leitor
Teorema 2.2.4 Sejam U e V espac¸os vetoriais de dimensa˜o finita. Enta˜o U e V sa˜o isomorfos se, e
somente se, dim(U) = dim(V ).
Prova: Sejam U e V espac¸os isomorfos. Enta˜o extiste um isomorfismo T : U → V . Como T e´ injetiva
dim(ker(T )) = 0, e pelo Teorema do Nu´cleo e da Imagem dim(U) = dim(Im(T )). Segue da sobrejetividade
de T que Im(T ) = V , donde dim(U) = dim(V ).
Reciprocamente, suponha que dim(U) = dim(V ) e considere B1 = {u1, · · · , un} e B2 = {v1, · · · , vn}
bases de U e V , respectivamente.
Vimos no Lema anterior que existe uma u´nica transformac¸a˜o linear T : U → V com T (ui) = vi, para
cada i = 1, · · · , n. Tal transformac¸a˜o e´ bijetiva. Com efeito, dado v =
n∑
i=1
αivi temos que
T
( n∑
i=1
αiui
)
=
n∑
i=1
αivi= v,
donde T e´ sobrejetiva. E se T (u) = T
( n∑
i=1
λiui
)
= 0 enta˜o
n∑
i=1
λivi = 0 ⇒ λ1 = · · ·λn = 0 ⇒ u = 0.
Ou seja, ker(T ) = {0}, provando a injetividade de T
15
2.3 O Espac¸o L(U, V )
Sejam U e V espac¸os vetoriais sobre R. Indicaremos por L(U, V ) o conjunto das transformac¸o˜es lineares de
U em V . Se U = V o conjunto sera´ denotado simplesmente por L(U). Note que, do fato de V ser espac¸o
vetorial, ficam bem definidas as operac¸o˜es + : L(U, V ) × L(U, V ) → L(U, V ) e · : R × L(U, V ) → L(U, V ),
chamadas respectivamente de soma e de produto por escalar, dadas por
(T + S)(u) := T (u) + S(u)
(α · T )(u) := αT (u),
para todo u ∈ U , onde T, S ∈ L(U, V ) e α ∈ R. Daqui em diante omitiremos o ponto na operac¸a˜o produto.
Segue ainda do fato de ser V um espac¸o vetorial que o conjunto L(U, V ) tem uma estrutura de
espac¸o vetorial, tambe´m sobre R, com as operac¸o˜es definidas acima. Com efeito, quaisquer que sejam
T, S,R ∈ L(U, V ) temos que para cada u ∈ U
1. (T + S)(u) = T (u) + S(u) = S(u) + T (u) = (S + T )(u);
2. (T +(S+R))(u) = T (u)+ (S+R)(u) = T (u)+ (S(u)+R(u)) = (T (u)+S(u))+R(u) = (S+T )(u)+
R(u) = ((S + T ) +R)(u).
Da mesma forma se verificam as propriedades para o produto. Ale´m disso, a func¸a˜o nula e´ linear e exerce o
papel de vetor nulo do espac¸o, e dada T ∈ L(U, V ) definimos −T por (−T )(u) = −T (u). Donde
(T + (−T ))(u) = T (u) + (−T (u)) = T (u)− T (u) = 0, ∀u ∈ U.
Portanto, T + (−T ) = 0 mostrando que cada elemento (vetor) tem seu oposto. Por fim, (1T )(u) = 1T (u) =
T (u) para todo u ∈ U . Logo, 1T = T para todo T ∈ L(U, V ).
Exerc´ıcio 2.3.1 Se dim(U) = n e dim(V ) = m podemos afirmar que dim(L(U, V )) <∞? Se sim, podemos
calcular seu valor?
Definic¸a˜o 2.3.2 Seja V um espac¸o vetorial sobre R. Um funcional linear em V e´ uma transformac¸a˜o
linear f : V → R. O conjunto de todos os funcionais lineares de um espac¸o, L(V,R), sera´ denotado por V ∗
e sera´ chamado o espac¸o dual a V (ou espac¸o dual de V ).
Sejam V um espac¸o vetorial sobre R de dimensa˜o finita e B = {v1, · · · , vn} uma base de V . Queremos
construir uma base de V ∗ relacionada a` base B. Como cada v ∈ V possui uma u´nica forma de se escrever
como soma dos elementos de B, ficam bem definidos os funcionais lineares fi : V → R, i = 1, · · · , n, dados
por
fi(v) = fi(α1v1 + · · ·+ αnvn) = αi.
Afirmamos que o conjunto B∗ = {f1, · · · , fn} e´ a base procurada.
De fato, dado f ∈ V ∗ temos que
f(v) = f(α1v1 + · · ·+ αnvn) = α1f(v1) + · · ·+ αnf(vn),
fazendo f(vi) = ki, para i = 1, · · · , n, temos que
f(v) = k1α1 + · · ·+ knαn = k1f1(v) + · · ·+ knfn(v), ∀v ∈ V.
16
Ou seja,
f = k1f1 + · · ·+ knfn
o que implica em V ∗ = [B∗]. Restando mostrar que B∗ e´ l.i..
Sejam λ1, · · · , λn ∈ R tais que
λ1f1 + · · ·+ λnfn = 0.
Ou seja, estamos escrevendo o funcional nulo como combinac¸a˜o linear dos funcionais de B∗. Aplicando o
lado esquerdo da expressa˜o acima em cada vetor de B obtemos
λ1f1(v1) + · · ·+ λnfn(v1) = λ1 = 0
...
...
...
λ1f1(vn) + · · ·+ λnfn(vn) = λn = 0
Mostrando que necessariamente λ1 = · · · = λn = 0 e, portanto, B∗ e´ l.i.
A base B∗ constru´ıda acima e´ chamada de base dual a B. A relac¸a˜o entre as bases B e B∗ e´ a seguinte:
se v e´ um vetor em V enta˜o suas coordenadas na base B sa˜o f1(v), · · · , fn(v), isto e´, v = (f1(v), · · · , fn(v))B ,
e se f ∈ V ∗ enta˜o f = (f(v1), · · · , f(vn))B∗ .
Exemplo 2.3.3 Sejam v1 = (1, 1, 1), v2 = (1, 1,−1) e v3 = (0, 1, 1) em R3. Observe que B = {v1, v2, v3}
e´ uma base de R3. Para calcular a base dual de B, B∗ = {f1, f2, f3}, basta escrevermos um vetor gene´rico
(x, y, z) ∈ R3 na base B e usarmos suas coordenadas para definir f1(x, y, z), f2(x, y, z) e f3(x, y, z). Para
isso, resolvemos o sistema gerado pela equac¸a˜o
(x, y, z) = α(1, 1, 1) + β(1, 1,−1) + γ(0, 1, 1).
Obtemos 
α =
2x− y + z
2
β =
y − z
2
γ = y − x
Donde
f1(x, y, z) =
2x− y + z
2
, f2(x, y, z) =
y − z
2
, f3(x, y, z) = y − x.
17
Cap´ıtulo 3
Matrizes e Aplicac¸o˜es Lineares
3.1 Matriz Associada a uma Aplicac¸a˜o Linear
Sejam U e V espac¸os vetorias sobre R com dimenso˜es n e m, respectivamente, e T : U → V uma trans-
formac¸a˜o linear. Fixe B = {u1, · · · , un} base de U e C = {v1, · · · , vm} base de V .
Vimos anteriormente que T fica determinada pelas imagens T (uj), j = 1, · · · , n. Portanto, vamos escrever
os vetores T (uj) como combinac¸a˜o linear dos vetores de C.
T (u1) = a11v1 + a21v2 + · · ·+ am1vm =
m∑
i=1
ai1vi
...
...
...
T (un) = a1nv1 + a2nv2 + · · ·+ amnvm =
m∑
i=1
ainvi
onde aij ∈ R para todos i ∈ {1, · · · ,m} e j ∈ {1, · · · , n}. Assim, para cada j temos que T (uj) =
m∑
i=i
aijvi.
Definic¸a˜o 3.1.1 A matriz A, m× n sobre R
A =

a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
. . .
...
am1 am2 · · · amn

denotada por A = (aij)i,j , definida acima e´ chamada dematriz da transformac¸a˜o linear T com relac¸a˜o
a`s bases B e C e sera´ escrita [T ]B,C . No caso em que U = V e B = C, denotamos [T ]B,B simplesmente
por [T ]B .
Exemplo 3.1.2 Seja T : R3 → R2 dada por T (x, y, z) = (z, x+ y). Determine a matriz de T com respeito
a`s bases B = {(1, 1, 1), (1, 1, 0), (1, 0, 0)} e C = {(1, 0), (0, 1)}. Ora, basta calcular
T (1, 1, 1) = (1, 2) = 1(1, 0) + 2(0, 1)
T (1, 1, 0) = (0, 2) = 0(1, 0) + 2(0, 1)
T (0, 0, 1) = (0, 1) = 0(1, 0) + 1(0, 1)
18
Donde,
[T ]B,C =
(
1 0 0
2 2 1
)
Exemplo 3.1.3 Seja V = P3(R). Considere a transformac¸a˜o linear D : P3(R) → P3(R) dada pela
derivac¸a˜o: D(p(x)) = p′(x). A matriz de D com relac¸a˜o a` base canoˆnica {1, x, x2, x3} de V e´
[D]can =

0 1 0 0
0 0 2 0
0 0 0 3
0 0 0 0
 .
E´ importante observar a vantagem em se ter a matriz de uma transformac¸a˜o linear para o ca´lculo efetivo
de uma imagem. Com efeito, se a matriz de T : U → V e´
[T ]B,C =
 a11 · · · a1n... ...
am1 · · · amn

e u =
n∑
j=1
αjuj ∈ U , onde B = {u1, · · · , un}, enta˜o
(T (u))C = [T ]B,C · (u)B.
Exemplo 3.1.4 Seja T : R2 → R3 dada por T (x, y) = (2x + y, y − x, 3x) e considere as bases B =
{(1, 2), (2,−1)} de R2 e C = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} de R3. Uma conta simples mostra que
T (1, 2) = (4, 1, 3) = 4(, 1, 1, 1) + (−3)(0, 1, 1, ) + 2(0, 0, 1)
T (2,−1) = (3,−3, 6) = 3(1, 1, 1) + (−6)(0, 1, 1) + 9(0, 0, 1)
e da´ı
[T ]BC =
 4 3−3 −6
2 9
 .
Agora, se u = (−2, 3)B, enta˜o
(T (u))C =
 4 3−3 −6
2 9
( −2
3
)
B
=
 1−12
23

C
Seja V um espac¸o vetorial de dimensa˜o n e consideremos duas bases B = {u1, · · · , un} e C = {v1, · · · , vn}.
Enta˜o existe uma u´nica famı´lia de escalares aij de modo que
u1 = a11v1 + a21v2 + · · ·+ an1vn
...
...
un = a1nv1 + a2nv2 + · · ·+ annvn
 .
19
Definic¸a˜o 3.1.5 A matriz quadrada de ordem n constru´ıda acima
P =

a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
. . .
...
an1 an2 · · · ann

e´ chamada a matriz de mudanc¸a de base C para B.
Note que no mesmo contexto, se Id : V → V e´ a func¸a˜o identidade do espac¸o vetorial V enta˜o
[Id]BC = P.
De fato, 
I(u1) = u1 = a11v1 + a21v2 + · · ·+ an1vn
...
...
...
I(un) = un = a1nv1 + a2nv2 + · · ·+ annvn
 .
Observac¸a˜o 3.1.6 Note que se Id : U → U e´ a identidade de U e B ⊂ U e´ uma base de U , enta˜o a
matriz [Id]B e´ a matriz identidade de ordem igual a` dimensa˜o de U .
Vimos que se U e V sa˜o espac¸os vetoriais sobre R de dimenso˜es n e m respectivamente, fixadas B =
{u1, · · · , un} base de U e C = {v1, · · · , vm} base de V , e sendo T : U → V uma transformac¸a˜o linear, existe
uma matriz M ∈Mm×n(R) tal que [T ]BC =M . A rec´ıproca deste resultado e´ tambe´m verdadeira.
Proposic¸a˜o 3.1.7 Sejam U e V espac¸os vetoriais sobre R de dimenso˜es n e m respectivamente.Fixadas
B = {u1, · · · , un} base de U e C = {v1, · · · , vm} base de V , temos que para cada matriz M ∈ Mm×n(R)
existe uma u´nica transformac¸a˜o linear T : U → V com
M = [T ]BC .
Prova: Basta definir T (uj) = M · (uj)B. A unicidade segue diretamente do Lema (2.2)
Corola´rio 3.1.8 Dados U e V espac¸os vetoriais de dimensa˜o finita, fixadas bases B de U e C de V , sa˜o
isomorfos os espac¸os L(U, V ) e Mm×n(R).
Prova: (Exerc´ıcio)
Exemplo 3.1.9 Considere a matriz
M =
(
1 2 3
0 1 0
)
.
Calcular T ∈ L(R3,R2) tal que M = [T ]BC , onde B = {(1, 0, 0), (0, 1, 0), (0, 1, 2)} e C = {(1, 0), (1, 1)}. Da
definic¸a˜o de [T ]BC temos que
T (1, 0, 0) = 1(1, 0) + 0(1, 1) = (1, 0)
T (0, 1, 0) = 2(1, 0) + 1(1, 1) = (3, 1)
T (0, 1, 2) = 3(1, 0) + 0(1, 1) = (3, 0).
Assim, se (x, y, z) ∈ R3 e
(x, y, z) = a(1, 0, 0) + b(0, 1, 0) + c(0, 1, 2)
20
enta˜o a = x, b = y − z
2
e c =
z
2
. Portanto
T (x, y, z) = T
(
x(1, 0, 0) +
(
y − z
2
)
(0, 1, 0) +
z
2
(0, 1, 2)
)
= x(1, 0) +
(
y − z
2
)
(3, 1) +
z
2
(3, 0)
=
(
x+ 3y, y − z
2
)
.
3.2 Matriz da Transformac¸a˜o Composta
Se U , V e W sa˜o espac¸os vetoriais sobre R, T : U → V e S : V → W sa˜o transformac¸o˜es lineares, enta˜o
S ◦ T : U →W e´ tambe´m linear. Com efeito, se u1, u2 ∈ U e α ∈ R enta˜o
(S ◦ T )(αu1 + u2) = S((T (αu1 + u2)))
= S(αT (u1) + T (u2))
= αS(T (u1)) + S(T (u2))
= α(S ◦ T )(u1) + (S ◦ T )(u2)
Note que se T ∈ L(U) podemos definir Tn ∈ L(U), para n = 0, 1, 2, · · · , da seguinte forma: T
0 = Id
T 1 = T
Tn = T ◦ Tn−1
Definic¸a˜o 3.2.1 Uma transformac¸a˜o linear T ∈ L(U) chama-se nilpotente quando, para algum n ∈ N,
tem-se Tn = 0.
Exemplo 3.2.2 A transformac¸a˜o D : Pn(R) → Pn(R), que associa cada func¸a˜o polinomial p(x) a` sua
derivada p′(x), e´ nilpotente. Com efeito, Dn+1(p(x)) = 0 qualquer que seja p(x) ∈ Pn(R). Portanto,
Dn+1 = 0.
O resultado a seguir ilustra bem uma das vantagens em se trabalhar transformac¸o˜es lineares via suas
representac¸o˜es matriciais.
Teorema 3.2.3 Sejam T : U → V e S : V → W sa˜o transformac¸o˜es lineares, onde U , V e W sa˜o
espac¸os vetoriais de dimenso˜es n, m e r, respectivamente. Fixando bases B1, B2 e B3 para U , V e W ,
respectivamente, temos que
[S ◦ T ]B1B3 = [S]B2B3 · [T ]B1B2 .
Prova: Escreva B1 = {u1, · · ·un}, B2 = {v1, · · · , vm}, B3 = {w1, · · · , wr} e considere as matrizes
1. [T ]B1B2 = (aij)i,j , isto e´, T (uj) =
m∑
i=1
aijvi, ∀ j = 1, · · · , n.
2. [S]B2B3 = (bki)k,i, isto e´, S(vi) =
r∑
k=1
bkiwk, ∀ i = 1, · · · ,m.
21
3. [S ◦ T ]B1B3 = (ckj)k,j , isto e´, (S ◦ T )(uj) =
r∑
k=1
ckjwk, ∀ j = 1, · · · , n.
De (1) e (2) temos que
(S ◦ T )(uj) = S(T (uj))
= S(
m∑
i=1
aijvi)
=
m∑
i=1
aijS(vi)
=
m∑
i=1
aij(
r∑
k=1
bkiwk)
=
r∑
k=1
(
m∑
i=1
bkiaij)wk.
De (3) segue que
ckj =
m∑
i=1
bkiaij , ∀j = 1, · · · , n, ∀k = 1, · · · r.
Portanto, [S ◦ T ]B1B3 = [S]B2B3 · [T ]B1B2
Corola´rio 3.2.4 Sejam U e V espac¸os vetoriais de dimensa˜o n ≥ 1 e considere bases B de U e C de V .
Uma transformac¸a˜o linear T : U → V e´ um isomorfismo se, e somente se, a matriz [T ]BC for invert´ıvel.
Ale´m disso, neste caso, [T−1]CB = ([T ]BC)−1.
Prova: Sejam T um isomorfismo e T−1 sua inversa. Como T ◦ T−1 = IdV e T−1 ◦ T = IdU temos
[IdV ]C = [T ◦ T−1]C = [T ]BC · [T−1]CB
e
[IdU ]B = [T
−1 ◦ T ]B = [T−1]CB · [T ]BC .
Como [IdV ]C e [IdU ]B sa˜o a matriz identidade (vide observac¸a˜o 3.1), segue o resultado.
Uma consequeˆncia dos dois u´ltimos resultados e´ que se tivermos B e C bases de um mesmo espac¸o vetorial
U , de dimensa˜o n, e T : U → U uma transformac¸a˜o linear, enta˜o
[T ]B = P
−1 · [T ]C · P,
onde P e´ a matriz de mudanc¸a de bases de C para B. Pois T ◦ Id = Id ◦ T .
Exerc´ıcio 3.2.5 Verifique matricialmente se o operador F ∈ L(R3) dado por
F (x, y, z) = (x− y, 2y, y + z)
e´ invers´ıvel. Se for, ache F−1.
3.3 Posto de uma Matriz
Definic¸a˜o 3.3.1 Seja T : U → V uma transformac¸a˜o linear entre espac¸os vetoriais de dimensa˜o finita. O
posto de T e´ a dimensa˜o da sua imagem.
22
Note que o posto de uma aplicac¸a˜o linear T : U → V e´ sempre menor do que ou igual a dim(V ). E, pelo
Teorema do Nu´cleo e da Imagem, temos tambe´m que dim(Im(U)) ≤ dim(U). Ou seja, o posto de T na˜o
excede dim(U) nem dim(V ). O posto de T e´ igual a` dimensa˜o de U se, e somente se, T e´ injetiva. E e´ igual
a` dimensa˜o de V se, e somente se, T e´ sobrejetiva.
Observac¸a˜o 3.3.2 Se (aij) ∈ Mm×n(R) e´ a matriz de T : U → V relativa a um par de bases B ⊂ U ,
C ⊂ V , o posto de T e´ a dimensa˜o do subespac¸o de Rm gerado pelas colunas de (aij). Ou seja, o posto de
T e´ o nu´mero ma´ximo de colunas linearmente independentes da matriz (aij).
A observac¸a˜o acima nos permite fazer a seguinte definic¸a˜o
Definic¸a˜o 3.3.3 Dada uma matriz M ∈ Mm×n, definimos o posto segundo colunas de M como
sendo o nu´mero ma´ximo de colunas linearmente independentes em M . Este nu´mero e´ igual a` dimensa˜o do
subespac¸o vetorial de Rm gerado pelos vetores-coluna deM .(Espac¸o-coluna deM .) Analogamente, definimos
o posto segundo linhas da matriz M acima como o nu´mero ma´ximo de linhas l.i. em M , ou seja, como a
dimensa˜o do subespac¸o vetorial de Rn gerado pelos vetores-linha da matriz M . (Espac¸o-linha de M)
Teorema 3.3.4 Para toda matriz M ∈ Mm×n(R), o posto segundo linhas e o posto segundo colunas sa˜o
iguais.
Prova: (Exerc´ıcio)
Note que o teorema acima nos permite definir o posto de uma matriz M ∈Mm×n como sendo o nu´mero
ma´ximo de linhas, ou de colunas, l.i. dessa matriz.
3.4 Eliminac¸a˜o
O me´todo de eliminac¸a˜o (tambe´m conhecido como escalonamento), aprendido desde o ensino me´dio, consiste
basicamente em ”simplificar”uma matriz a partir de operac¸o˜es ba´sicas. Nesta sec¸a˜o, veremos, ale´m do
me´todo em si, algumas aplicac¸o˜es no contexto da a´lgebra linear, deixando claro sempre que for pertinente o
significado teo´rico do processo.
Dada uma matriz A = (aij) ∈Mm×n(R) o ”simplificar”dito acima significa obter uma matriz B = (bij) ∈
Mm×n(R), a partir de operac¸o˜es ba´sicas sobre A, de modo que os elementos bij sejam todos nulos se i > j.
Por operac¸o˜es ba´sicas entendemos:
1. Trocar a posic¸a˜o de duas linhas;
2. Multiplicar uma linha por um nu´mero na˜o nulo;
3. Somar a uma linha um mu´ltiplo de outra linha.
Na pra´tica o procedimento e´ o seguinte:
1. Se a11 6= 0, o processo comec¸a deixando a primeira linha intacta e somando a cada linha Li, i > 1,
a primeira linha multiplicada por − ai1
a11
. Com isso se obte´m uma matriz cuja primeira coluna e´
(a11, 0, · · · , 0).
23
2. Se a11 = 0, uma troca de linhas deve fornecer uma matriz com a11 6= 0, caso contra´rio, a primeira
coluna e´ nula e passa-se para a segunda coluna ou, mais geralmente, para a coluna mais pro´xima, a`
direita da primeira onde haja algum elemento na˜o nulo e opera-se como antes, de modo a obter uma
matriz cuja primeira coluna na˜o nula comec¸a com elemnto diferente de zero mas todos os demais sa˜o
iguais a zero.
3. A partir da´ı na˜o se mexe mais na primeira linha. Recomec¸a-se o processo, trabalhando com as linhas
a partir da segunda, ate´ obter uma matriz escalonada.
3.4.1 Aplicac¸o˜es
Dimensa˜o do subespac¸o gerado por m vetores
O problema consiste em determinar a dimensa˜o do subespac¸o de V gerado por m vetores {v1, · · · , vm}.
Por simplicidade1, vamos supor que V = Rn. O princ´ıpio ba´sico a ser utilizado e´ a observac¸a˜o de que se
um dos vetores dados, digamos v1, tem uma de suas coordenadas, por exemplo a j-e´sima, diferente de zero
mas todos os demais vetores v2, · · · , vm teˆm a j-e´sima coordenada nula enta˜o v1 na˜o e´ combinac¸a˜o linear de
v2, · · · , vm.
Exemplo 3.4.1 Sejam os vetores v1, v2, v3 ∈ R4 dados por v1 = (1, 2, 3, 4)v2 = (5, 6, 7,8)
v3 = (9, 10, 11, 12)
.
Calcule a dimensa˜o do subespac¸o gerado por esses vetores e exiba uma base.
Ca´lculo do posto de uma transformac¸a˜o linear
Note que o procedimento realizado no exemplo anterior permite calcular o posto de uma transformac¸a˜o linear
T : U → V bem como uma base para Im(T ). Uma tal base pode ser formada pelas colunas na˜o-nulas de
uma matriz escalonada, obtida da matriz de T por meio de operac¸o˜es ba´sicas efetuadas sobre suas colunas.
Exemplo 3.4.2 Obter uma base para a imagem da transformac¸a˜o linear T : R3 → R4, definida por
T (x, y, z) = (x+ 5y + 9z, 2x+ 6y + 10z, 3x+ 7y + 11z, 4x+ 8y + 12z).
Resoluc¸a˜o de sistemas lineares
A fim de resolver um sistema de m equac¸o˜es lineares, com n inco´gnitas, apresentado sob a forma matricial
Ax = b,
onde A ∈Mm×n(R), x ∈Mn×1(R) e b ∈Mm×1(R), o me´todo da eliminac¸a˜o revela-se o mais eficaz.
1Note que na˜o ha´ perda de generalidade em supor V = Rn
24
Note que o sistema Ax = b possui soluc¸a˜o se, e somente se, o vetor b ∈ Rm pertence a` imagem da
transformac¸a˜o linear T : Rn → Rm cuja matriz (nas bases canoˆnicas de Rn e Rm) e´ A.
Escrevendo A = (aij) e b = (b1, · · · , bm), temos que Ax = b tem soluc¸a˜o se, e somente se, as matrizes A e
Ab =
 a11 · · · a1n b1... . . . ... ...
am1 · · · amn bm

teˆm o mesmo posto.
De forma mais completa temos, em termos matriciais, que o sistema Ax = b admite as seguintes alter-
nativas:
1. Na˜o possui soluc¸a˜o quando o posto da matriz aumentada Ab e´ maior do que o posto de A;
2. Possui uma u´nica soluc¸a˜o quando a matriz A e a matriz aumentada Ab teˆm o mesmo posto, igual ao
nu´mero n de inco´gnitas;
3. Possui infinitas soluc¸o˜es quando se tem que posto de Ab e´ igual ao posto de A e ambos sa˜o menores
do que n.
Note que isto se trata apenas de uma discussa˜o esclarecedora do ponto de vista teo´rico. Do ponto
de vista pra´tico o que se faz e´ simplesmente escalonar a matriz aumentada Ab, obtendo assim um sistema
equivalente ao primeiro2, o qual e´ resolvido de baixo para cima: acha-se primeiro o valor da u´ltima inco´gnita,
substituindo-a por esse valor na equac¸a˜o anterior e assim por diante.
Exemplo 3.4.3 Considere o sistema 
y + 2z + 3t = 1
2x+ y + 3z = 1
3x+ 4y + 2z = 1
4x+ 2y + t = 1
cuja matriz aumentada e´ 
0 1 2 3 1
2 1 3 0 1
3 4 2 0 1
4 2 0 1 1
 ,
que escalonada assume a forma 
2 1 3 0 1
0 1 2 3 1
0 0 −152 − 152 −3
0 0 0 7 75
 .
Portanto, um sistema equivalente e´
2x + y + 3z = 1
y + 2z + 3t = 1
− 152 z − 152 t = −3
7t = 75
.
2Dois sistemas de equac¸o˜es sa˜o ditos equivalentes se possuem o mesmo conjunto de soluc¸o˜es
25
Resolvendo este sistema de baixo para cima, vem: t =
1
5
, z =
1
5
, y = 0, x =
1
5
. Esta e´ a u´nica soluc¸a˜o do
sistema dado. Como a matriz do sistema tem posto 4, a soluc¸a˜o seria u´nica, qualquer que fosse o segundo
membro.
O me´todo de Gauss-Jordan
Dada uma matriz quadrada A ∈ Mn×n, invert´ıvel, o precesso de escalonamento pode ser utilizado a fim de
se calcular A−1. Acrescenta-se a matriz identidade In a` direita de A de modo a ter uma matriz aumentada
n× 2n: 
a11 a12 · · · a1n | 1 0 · · · 0
a21 a22 · · · a2n | 0 1 · · · 0
...
...
. . .
... | ... ... . . . ...
an1 an2 · · · ann | 0 0 · · · 1
 .
Em seguida aplicam-se operac¸o˜es ba´sicas a`s linhas dessa matriz aumentada de modo a reduzir a matriz A a`
identidade In, chegando-se a: 
1 0 · · · 0 | x11 x12 · · · x1n
0 1 · · · 0 | x21 x22 · · · x2n
...
...
. . .
... | ... ... . . . ...
0 0 · · · 1 | xn1 xn2 · · · xnn
 .
A matriz (xij) a` direita e´ a inversa de A.
Exemplo 3.4.4 Calcule a inversa da matriz 2 4 30 1 −1
3 5 7
 .
3.5 Determinantes
Definic¸a˜o 3.5.1 Dado n ∈ N considere Jn ⊂ N definido por
Jn = {1, 2, 3, · · · , n}.
Uma permutac¸a˜o em Jn e´ uma bijec¸a˜o
σ : Jn → Jn.
Usaremos a seguinte notac¸a˜o para indicar uma permutac¸a˜o em Jn:
σ =
(
1 2 · · · n
σ(1) σ(2) · · · σ(n)
)
Observac¸a˜o 3.5.2 Note que a composic¸a˜o de permutac¸o˜es em um mesmo Jn tambe´m e´ uma permutac¸a˜o,
assim como a inversa de uma permutac¸a˜o e´ ainda uma permutac¸a˜o. Observe que em Jn existem exatamente
n! permutac¸o˜es distintas.
26
Definic¸a˜o 3.5.3 Sejam σ uma permutac¸a˜o em Jn e r o nu´mero de pares ordenados (i, j) com 1 ≤ i < j ≤ n
tais que σ(i) > σ(j). Definimos o sinal de σ, denotado por sgn(σ), como sendo{
sgn(σ) = 1, se r e´ par
sgn(σ) = −1, se r e´ ı´mpar
Exemplo 3.5.4 Se σ e´ a permutac¸a˜o em J3 dada por
σ =
(
1 2 3
2 3 1
)
enta˜o sgn(σ) = 1.
Definic¸a˜o 3.5.5 Seja A = (aij) uma matriz n× n. Definimos o determinante da matriz A como sendo o
nu´mero
det(A) =
∑
σ
sgn(σ)a1σ(1) · a2σ(2) · · · anσ(n).
Exerc´ıcio 3.5.6 Exibir as fo´rmulas dos determinantes das matrizes 2 × 2 e 3 × 3. Em seguida, usar o
resultado obtido para calcular os determinantes das matrizes
A =
(
1− λ 1
1 1− λ
)
e B =
 2− λ 3 41 1− λ 2
0 0 2− λ

3.5.1 Propriedades dos Determinantes
Exibiremos agora, sem demonstrac¸a˜o, algumas propriedades dos determinantes de matrizes.
Dado n ∈ N temos que para cada A ∈Mn×n(R) o determinante de A pode ser pensado como uma func¸a˜o
nas n varia´veis Li, com 1 ≤ i ≤ n, onde cada Li e´ o vetor linha da matriz A.
1. A func¸a˜o determinante e´ linear em cada uma das varia´veis L1, L2, · · · , Ln, ou seja,
det(L1, · · · , αLi + L′i, · · · , Ln) = α det(L1, · · · , Li, · · · , Ln) + det(L1, · · · , L′i, · · · , Ln).
2. Se A = (L1, · · · , Ln) e´ uma matriz de ordem n e Li = Lj , com i < j, enta˜o det(A) = 0.
3. det(L1, · · · , Li, · · · , Lj , · · · , Ln) = − det(L1, · · · , Lj , · · · , Li, · · · , Ln).
4. det(L1, · · · , Li, · · · , Ln) = det
(
L1, · · · , Li +
∑
k 6=i
αkLk, · · · , Ln
)
.
5. det(A) = det(At).
Exerc´ıcio 3.5.7 Verifique que a matriz  3 −6 x1 −2 y
2 −4 z

tem determinante nulo, independente dos valores de x, y e z.
27
3.5.2 Outras fo´rmulas
Outra fo´rmula bastante u´til para calcular o determinante de uma matriz, principalmente quando esta apre-
senta va´rios zeros em uma linha ou coluna e´:
det(A) =
n∑
j=1
(−1)i+jaij det(Mij),
onde A = (aij) e Mij e´ a matriz n−1×n−1 obtida de A quando desta se retiram a i-e´sima linha e a j-e´sima
coluna.
Exemplo 3.5.8 Calcule o determinante da matriz
2 1 3 0
1 2 1 0
0 0 2 1
3 1 1 4
 .
Podemos usar o determinante de uma matriz para calcular sua inversa. Mais especificamente, temos
A−1 =
1
det(A)
A∗,
onde
A∗ =

A11 A21 · · · An1
A12 A22 · · · An2
...
...
. . .
...
A1n A2n · · · Ann
 ,
onde Aij = (−1)i+j det(Mij)
Definic¸a˜o 3.5.9 A matriz A∗ definida acima e´ dita a adjunta de A.
Exemplo 3.5.10 Calcule a matriz inversa de
(
1 1
2 7
)
.
28
Cap´ıtulo 4
Autovetores e Autovalores
4.1 Autovetores e Autovalores
Definic¸a˜o 4.1.1 Sejam U um espac¸o vetorial e T : U → U um operador linear. Dizemos que um vetor,
na˜o-nulo, u ∈ U e´ um autovetor de T se existe um λ real tal que
T (u) = λu.
Nesse caso, dizemos que o nu´mero λ e´ um autovalor de T . Tambe´m dizemos1 que u e´ um autovetor
associado ao autovalor λ.
Note que um autovetor na˜o pode estar associado a dois autovalores distintos. Com efeito, se T (u) =
λ1u = λ2u enta˜o (λ1 − λ2)u = 0, e como u 6= 0 segue que λ1 = λ2.
Proposic¸a˜o 4.1.2 Se λ e´ um autovalor de T ∈ L(U) enta˜o o conjunto
Vλ = {u ∈ U/ T (u) = λu}
e´ um subespac¸o de U , chamado auto-espac¸o de T associado a λ.
Prova: De fato,
u ∈ Vλ ⇔ T (u) = λu⇔ (T − λId)u = 0⇔ u ∈ ker(T − λId).
Portanto Vλ = ker(T − λId), que sabemos ser subespac¸o de U
Exemplo 4.1.3 Seja T : R2 → R2 dada por T (x, y) = (y, x). A transformac¸a˜o T , claramente linear,
e´ a reflexa˜o dos vetores em torno da bissetriz dosquadrantes ı´mpares. Assim, se um vetor u ∈ R2 esta´
na bissetriz dos quadrantes ı´mpares enta˜o T (u) = u. Ou seja, 1 e´ autovalor de T e V1 e´ a bissetriz dos
quadrantes ı´mpares. Ha´ mais algum autovetor? Se sim, qual seu auto-espac¸o associado?
Exemplo 4.1.4 Seja V = C∞(R) o espac¸o vetorial sobre R de todas as func¸o˜es reais infinitamente
diferencia´veis. Dado λ ∈ R a func¸a˜o f ∈ C∞(R) definida por
f(t) = eλt, ∀ t ∈ R
e´ um autovetor do operador derivada associado ao autovalor λ.
1Outros nomes comuns para u (λ) sa˜o vetor caracter´ıstico (valor caracter´ıstico) e vetor pro´prio (valor pro´prio)
29
Exerc´ıcio 4.1.5 Uma rotac¸a˜o, em R2, de um aˆngulo θ possui autovetores?
Proposic¸a˜o 4.1.6 Sejam u1 e u2 autovetores de um operador linear T ∈ L(U), associados respectivamente
a λ1 e λ2. Se λ1 6= λ2 enta˜o u1 e u2 sa˜o linearmente independentes.
Prova: Sejam α1, α2 ∈ R tais que
α1u1 + α2u2 = 0 (4.1)
Multiplicando a equac¸a˜o acima por λ1 obtemos
α1λ1u1 + α2λ1u2 = 0.
Por outro lado, aplicando T em 4.1 segue que
α1λ1u1 + α2λ2u2 = 0.
Das duas u´ltimas equac¸o˜es temos que
α2(λ1 − λ2)u2 = 0.
Donde α2 = 0 e, consequentemente, α1 = 0
Exerc´ıcio 4.1.7 Generalize a proposic¸a˜o anterior. Ou seja, se u1, · · · , un sa˜o autovetores associados
aos autovalores λ1, · · · , λn, e todos esses autovalores sa˜o distintos, enta˜o o conjunto {u1, · · · , un} e´ l.i.
(SUGESTA˜O: Usar induc¸a˜o). Conclua que um espac¸o vetorial de dimensa˜o n pode ter no ma´ximo n
autovalores distintos. Use o primeiro resultado para mostrar que se α1, · · · , αm sa˜o nu´meros distintos, enta˜o
o conjunto
{eα1t, · · · , eαmt} ⊂ C∞(R)
e´ linearmente independente. Isto sugere que a dimensa˜o de C∞(R) e´...
Observac¸a˜o 4.1.8 Podemos estender a definic¸a˜o de autovalores e autovetores de um operador, de forma
natural, para matrizes quadradas. Com efeito, se A ∈ Mn×n(R) dizemos que um vetor coluna na˜o-nulo
X ∈Mn×1(R) e´ um autovetor de A associado ao autovalor λ ∈ R se
AX = λX.
4.2 Polinoˆmio Caracter´ıstico
Definic¸a˜o 4.2.1 Dada uma matriz A = (aij) ∈ Mn×n(R), chamamos de polinoˆmio caracter´ıstico de
A o seguinte polinoˆmio de grau n
pA(t) = det(A− tIn).
Proposic¸a˜o 4.2.2 Sejam A,B, P ∈Mn×n(R) tais que P e´ invers´ıvel e
A = P−1BP.
Enta˜o os polinoˆmios caracter´ısticos de A e B sa˜o iguais.
30
Prova:
pA(t) = det(A− tI)
= det(P−1BP − tP−1IP )
= det(P−1(B − tI)P )
= det(P−1) det(B − tI) det(P )
= det(B − tI)
= pB(t)
Devido ao resultado anterior fica bem definido o polinoˆmio caracter´ıstico de um operador linear:
Definic¸a˜o 4.2.3 Sejam U um espac¸o vetorial de dimensa˜o finita e T ∈ L(U). Chamamos de polinoˆmio
caracter´ıstico de T , denotado por pT (t), o polinoˆmio caracter´ıstico da matriz de T (em relac¸a˜o a qualquer
base).
A importaˆncia de calcular o polinoˆmio caracter´ıstico de um operador reside no fato de que ele permite
encontrar os autovalores deste operador. De fato, temos o seguinte resultado:
Proposic¸a˜o 4.2.4 Dado T ∈ L(U), onde U e´ um espac¸o vetorial de dimensa˜o finita, os autovalores de T
coincidem com os zeros do polinoˆmio pT (t).
Prova: Com efeito, λ e´ autovalor de T se, e somente se, existe u ∈ U na˜o-nulo tal que
(T − λI)u = 0.
Isto e´ equivalente a dizer que o operador (T − λI) possui nu´cleo na˜o trivial. Ora, mas isto ocorre se, e
somente se, tal operador na˜o e´ invers´ıvel, o que equivale a dizer que a matriz de (T − λI) e´ na˜o invers´ıvel.
Por sua vez, a matriz de (T − λI) e´ na˜o invers´ıvel se, e somente se,
det(T − λI) = 0 ⇔ pT (λ) = 0.
Ou seja, se e somente se λ e´ zero de pT (t)
Exemplo 4.2.5 A transformac¸a˜o T : R2 → R2 dada por T (x, y) = (y, x) tem que sua matriz, relativa a`
base canoˆnica, e´
[T ] =
(
0 1
1 0
)
.
Assim, seu polinoˆmio caracter´ıstico e´
pT (t) =
∣∣∣∣ −t 11 −t
∣∣∣∣ .
Logo,
pT (t) = t
2 − 1 = (t+ 1)(t− 1).
Portanto os autovalores de T sa˜o 1 e −1.
Exemplo 4.2.6 Seja T : R2 → R2 a transformac¸a˜o que rotaciona, no sentido anti-hora´rio, todos os vetores
de R2 em um aˆngulo θ, 0 ≤ θ ≤ 2pi. Enta˜o a matriz de T relativa a` base canoˆnica e´
[T ] =
(
cos(θ) sin(θ)
− sin(θ) cos(θ)
)
,
e seu polinoˆmio caracter´ıstico e´
pT (t) =
∣∣∣∣ cos(θ)− t sin(θ)− sin(θ) cos(θ)− t
∣∣∣∣ .
31
Logo,
pT (t) = t
2 − 2t cos(θ) + 1.
Fazendo pT (t) = 0 obtemos que as ra´ızes do polinoˆmio caracter´ıstico sa˜o dadas por
2 cos(θ)±√∆
2
,
onde ∆ = 4(cos2(θ)− 1). Ou seja, T admite autovalores (reais) se, e somente se, θ = 0 ou θ = 2pi.
Note que se conhecemos um autovalor λ de um operador T , podemos calcular seu autoespac¸o associado.
Com efeito, basta resolver a equac¸a˜o
(T − λI)u = 0
para u 6= 0.
Exemplo 4.2.7 Vimos que os autovalores de T : R2 → R2, definida por T (x, y) = (y, x), sa˜o 1 e −1. Para
calcular V1 resolvemos
(T − I)(x, y) = (0, 0).
Que apresenta como soluc¸a˜o y = x, ou seja, V1 = {(x, y) ∈ R2/ x = y}. Ja´ resolvendo
(T + I)(x, y) = (0, 0)
obtemos V−1 = {(x, y) ∈ R2/ x = −y}.
Definic¸a˜o 4.2.8 Seja λ um autovetor de T ∈ L(U), onde U e´ um espac¸o vetorial de dimensa˜o finita.
Chamamos de multiplicidade geome´trica de λ o valor s = dim(Vλ).
Por exemplo, a multiplicidade geome´trica de 1 e −1 no exemplo anterior e´ 1.
4.3 Operadores Diagonaliza´veis
Sabemos que se um operador linear T ∈ L(U), onde U tem dimensa˜o finita igual a n, possui n autovalores
distintos, enta˜o U possui uma base formada por autovetores, sob a qual a representaa˜o matricial de T nos
fornece uma matriz diagonal, cujos elementos da diagonal sa˜o exatamente os autovalores.
Mais especificamente, se λ1, · · · , λn sa˜o autovalores distintos de T e u1, · · · , un sa˜o autovetores associados,
enta˜o B = {u1, · · · , un} e´ uma base de U e
[T ]B =

λ1 0 · · · 0
0 λ2 · · · 0
...
...
. . .
...
0 0 · · · λn

Uma pergunta natural e´: se os autovalores na˜o forem distintos, ainda assim conseguimos uma base que
torna a representac¸a˜o matrical de um operador uma matriz diagonal? A resposta e´ dada pelo seguinte
resultado.
32
Proposic¸a˜o 4.3.1 Sejam T : U → U um operador linear com dim(U) = n, cuja representec¸a˜o matricial
em relac¸a˜o a alguma base ordenada B e´ A = [T ]B, e
Xj = [uj ]B =

x1j
x2j
...
xnj

as coordenadas de um autovetor u de T associado ao autovalor λj , j = 1, · · · , n. Se os vetores X1, · · · , Xn
geram Rn, enta˜o a matriz P = (xij) e´ tal que
P−1AP =

λ1 0 · · · 0
0 λ2 · · · 0
...
...
. . .
...
0 0 · · · λn
 = D.
Prova: Uma vez que os vetores X1, · · · , Xn geram Rn temos que a matriz P e´ invers´ıvel. Ale´m disso,
AXj = λjXj ,
donde
n∑
k=1
aikxkj = λjxij , i = 1, · · · , n.
Portanto,
AP =
( n∑
k=1
aikxkj
)
ij
= (λjxij)ij = PD.
Logo, P−1AP = D
Isto nos permite fazer a seguinte
Definic¸a˜o 4.3.2 Seja T : U → U um operador linear com dim(U) = n. Dizemos que T e´ diagonaliza´vel
se existir uma base de U formada de autovetores de T .
Exemplo 4.3.3 Seja T : R3 → R3 um operador linear cuja representac¸a˜o matricial em relac¸a˜o a` base
canoˆnica de R3 e´
A = [T ] =
 3 0 −40 3 5
0 0 −1

Note que
pT (x) = (x+ 1)(x− 3)2.
Assim, λ1 = −1 e λ2 = 3 sa˜o os autovalores de T . Para λ1 = −1 temos que
Vλ1 = [(4,−5, 4)].
Para λ2 = 3, temos que
Vλ2 = [(1, 0, 0), (0, 1, 0)].
Portanto,
B = {(4,−5, 4), (1, 0, 0), (0, 0, 1)}
33
e´ uma base de autovetores de R3. Observe que
P−1AP =
 −1 0 00 3 0
0 0 3
 ,
onde
P =
 4 1 0−5 0 1
4 0 0

e´ a matriz de mudanc¸a de base da base canoˆnica de R3 para a base B.
Exemplo 4.3.4 Seja T : R3 → R3 um operador linear cuja representac¸a˜o matricial em relac¸a˜o a` base
canoˆnica de R3 e´
A = [T ] =
 3 −3 −40 3 5
0 0 −1

E´ fa´cil ver que o polinoˆmio caracter´ıstico de T e´
pT (x) = (x+ 1)(x− 3)2
cujosautovalores sa˜o λ1 = −1 e λ2 = 3. Contudo, desta vez temos
Vλ1 = [(1,−20, 16)]
e
Vλ2 = [(1, 0, 0)].
Logo, o operador T na˜o e´ diagonaliza´vel.2
A seguir um resultado que nos auxilia na decisa˜o de ser ou na˜o um operador diagonaliza´vel. Omitiremos,
contudo, sua demonstrac¸a˜o
Teorema 4.3.5 Sejam T : U → U um operador linear com dim(U) = n e Vλi = ker(T − λiI) os auto-
espac¸os de T associados aos autovalores distintos aos pares λ1, i = 1, · · · , k. Enta˜o as seguintes condic¸o˜es
sa˜o equivalentes:
1. T e´ diagonaliza´vel;
2. O polinoˆmio caracter´ıstico de T e´
pT (x) = (x− λ1)m1(x− λ2)m2 · · · (x− λk)mk ,
onde mi = dim(Vλi);
3. V = Vλ1 ⊕ · · · ⊕ Vλk .
2Existe uma base B de R3 cuja representac¸a˜o matricial de T e´ dada pela matriz
[T ]B =
 3 0 01 3 0
0 0 −1
 .
Essa e´ a chamada forma de Jordan de T . Tais formas sa˜o estudadas em um curso de a´lgebra linear II.
34

Outros materiais