Buscar

Notas de Aula sobre algebra

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 92 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 92 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 92 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Notas de Aula
A´lgebra Linear I
Rodney Josue´ Biezuner 1
Departamento de Matema´tica
Instituto de Cieˆncias Exatas (ICEx)
Universidade Federal de Minas Gerais (UFMG)
Notas de aula da disciplina A´lgebra Linear I
dos cursos de graduac¸a˜o em Matema´tica e Matema´tica Computacional,
ministrado durante o segundo semestre de 2008.
20 de novembro de 2008
1E-mail: rodney@mat.ufmg.br; homepage: http://www.mat.ufmg.br/∼rodney.
Suma´rio
1 Espac¸os Vetoriais 3
1.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Bases e Dimensa˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Conjuntos Linearmente Dependentes e Independentes . . . . . . . . . . . . . . . . . . 6
1.3.2 Conjuntos Geradores e Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3 Coordenadas de Vetores em Relac¸a˜o a uma Base . . . . . . . . . . . . . . . . . . . . . 9
1.4 Subespac¸os Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5 Somas de Subespac¸os Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Matrizes 14
2.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Operac¸o˜es com Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 Mudanc¸a de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4 Matrizes Especiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4.1 Matrizes Diagonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4.2 Matrizes Triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4.3 Matrizes Sime´tricas e Anti-sime´tricas . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.4 Matrizes Nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3 Transformac¸o˜es Lineares 25
3.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2 Representac¸o˜es de Transformac¸o˜es Lineares atrave´s de Matrizes . . . . . . . . . . . . . . . . . 27
3.3 Exemplos de Operadores Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.1 Operadores Lineares no Plano R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.2 Operadores Lineares no Espac¸o R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3.3 Operadores Lineares em Espac¸os de Dimensa˜o Infinita . . . . . . . . . . . . . . . . . . 32
3.3.4 Funcionais Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4 Composic¸a˜o de Transformac¸o˜es Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.5 Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.6 Teorema do Nu´cleo e da Imagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.7 Teorema do Posto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.8 Mudanc¸a de Base e Semelhanc¸a de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4 Espac¸os com Produto Interno 43
4.1 Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2 Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.3 Bases Ortonormais e Projec¸o˜es Ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.4 Operador Adjunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.5 Operadores Unita´rios e Isometrias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1
Rodney Josue´ Biezuner 2
5 Determinantes 59
5.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2 Existeˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.3 Unicidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.3.1 Permutac¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.3.2 Demonstrac¸a˜o da Unicidade da Func¸a˜o Determinante . . . . . . . . . . . . . . . . . . 63
5.3.3 Fo´rmula do Determinante atrave´s de Permutac¸o˜es . . . . . . . . . . . . . . . . . . . . 65
5.4 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.5 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6 Diagonalizac¸a˜o de Operadores 70
6.1 Polinoˆmios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
6.2 Autovalores, Autovetores e Autoespac¸os . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.3 Operadores Diagonaliza´veis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.4 Ideais de Polinoˆmios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.5 Polinoˆmio Mı´nimo e o Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . 80
6.6 Polinoˆmio Mı´nimo e Operadores Triangulariza´veis e Diagonaliza´veis . . . . . . . . . . . . . . 83
6.7 Diagonalizac¸a˜o de Operadores Auto-adjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
Cap´ıtulo 1
Espac¸os Vetoriais
1.1 Definic¸a˜o
Intuitivamente, um espac¸o vetorial e´ um conjunto de elementos, que chamamos vetores, com os quais podemos
efetuar combinac¸o˜es lineares, isto e´, somas de elementos e multiplicac¸a˜o de elementos por nu´meros, que
chamamos escalares.
Matematicamente falando, os escalares sa˜o elementos de um conjunto munido de uma estrutura alge´brica
chamada corpo. Grosseiramente, um corpo nada mais e´ que um conjunto de elementos que podem ser
somados e multiplicados, a ordem em que estas operac¸o˜es sa˜o realizadas na˜o tendo importaˆncia para o
resultado, onde todo elemento possui um inverso aditivo, existe um elemento neutro na adic¸a˜o chamado zero
(0), existe um elemento neutro na multiplicac¸a˜o chamado identidade (1), todo elemento possui um inverso
multiplicativo com excec¸a˜o do zero e existe uma relac¸a˜o entre as duas operac¸o˜es. Exemplos de corpos sa˜o o
conjunto dos nu´meros reais R e o conjunto dos nu´meros complexos C. Neste curso, sera˜o os u´nicos corpos
que consideraremos.
1.1 Definic¸a˜o. Um corpo F e´ um conjunto munido de duas operac¸o˜es bina´rias F × F −→ F, adic¸a˜o e
multiplicac¸a˜o que satisfazem as seguintes propriedades:
Adic¸a˜o:
1. Comutatividade: para todos α, β ∈ F
α+ β = β + α.
2. Associatividade: para todos α, β, γ ∈ F
α+ (β + γ) = (α+ β) + γ.
3. Existeˆncia de Elemento Neutro: existe um elemento 0 ∈ F tal que para todo α ∈ F temos
α+ 0 = 0 + α = α.
4. Existeˆncia de Inverso: para todo α ∈ F existe −α ∈ F tal que
α+ (−α) = 0.
Multiplicac¸a˜o:
1. Comutatividade: para todos α, β ∈ F
αβ = βα.
3
Rodney Josue´ Biezuner 4
2. Associatividade: para todos α, β, γ ∈ F
α (βγ) = (αβ) γ.
3. Existeˆncia de Elemento Neutro: existe um elemento 1 ∈ F tal que para todo α ∈ F temos
α1 = 1α = α.
4. Existeˆncia de Inverso: para todo α ∈ F existe α−1 ∈ F tal que
αα−1 = 1.
Distributividade:
1. Para todos α, β, γ ∈ F
α (β + γ) = αβ + αγ.
Como mencionado acima, sempre que nos referirmos ao corpo F, fica subentendido que F pode se referir
tanto ao corpo dos reais R, quanto ao corpo dos complexos C.
1.2 Definic¸a˜o.Um espac¸o vetorial sobre um corpo de escalares F e´ um conjunto V munido de duas
operac¸o˜es, adic¸a˜o de vetores V × V −→ V e multiplicac¸a˜o por escalar F× V −→ V que satisfazem as
seguintes propriedades:
Adic¸a˜o:
1. Comutatividade: para todos v, w ∈ V
v + w = w + v.
2. Associatividade: para todos v, w, u ∈ V
v + (w + u) = (v + w) + u.
3. Existeˆncia de Elemento Neutro: existe um elemento 0 ∈ V tal que para todo v ∈ V temos
v + 0 = 0 + v = v.
4. Existeˆncia de Inverso: para todo v ∈ V existe −v ∈ V tal que
v + (−v) = (−v) + v = 0.
Multiplicac¸a˜o por Escalar:
1. Existeˆncia de Elemento Neutro: para todo v ∈ V vale
1v = v.
2. Associatividade: para todos α, β ∈ F e para todo v ∈ V vale
α (βv) = (αβ) v.
Distributividade:
1. Distributividade em relac¸a˜o a` soma: para todos v, w ∈ V e para todo α ∈ F
α (v + w) = αv + αw.
Rodney Josue´ Biezuner 5
2. Distributividade em relac¸a˜o a` multiplicac¸a˜o por escalar : para todo v ∈ V e para todos α, β ∈ F
(α+ β) v = αv + βv.
Quando F = R, o espac¸o vetorial e´ chamado um espac¸o vetorial real, enquanto que se F = C, o espac¸o
vetorial e´ chamado um espac¸o vetorial complexo.
Das propriedades (ou axiomas) que definem um espac¸o vetorial, seguem algumas consequ¨eˆncias simples:
1.3 Proposic¸a˜o. As seguintes afirmativas sa˜o va´lidas:
(i) α0 = 0.
Prova: Temos
α0 = α (0 + 0) = α0 + α0,
logo
α0 + (−α0) = α0 + α0 + (−α0) ,
donde
0 = α0.
(ii) 0v = 0.
Prova: Temos
0v = (0 + 0) v = 0v + 0v,
logo
0v + (−0v) = 0v + 0v + (−0v) ,
donde
0 = 0v.
(iii) Se α 6= 0 e v 6= 0, enta˜o αv 6= 0.
Prova: Suponha que exista α ∈ F, α 6= 0, tal que αv = 0 para algum v ∈ V , v 6= 0. Enta˜o
α−1 (αv) = α−10 = 0
logo (
α−1α
)
v = 0,
donde
1v = 0,
ou seja,
v = 0,
contradic¸a˜o.
(i), (ii) e (iii) juntas implicam que αv = 0 se e somente se α = 0 ou v = 0.
(iv) (−1) v = −v.
Prova: Temos
0 = 0v = [1 + (−1)] v = 1v + (−1) v = v + (−1) v,
logo
−v + 0 = −v + v + (−1) v,
donde
−v = (−1) v.
(v) Unicidade do vetor nulo.
Prova:
0′ = 0′ + 0 = 0.
Rodney Josue´ Biezuner 6
1.2 Exemplos
1.4 Exemplo. Rn sob as operac¸o˜es usuais e´ um espac¸o vetorial real, enquanto que Cn sob as operac¸o˜es
usuais e´ um espac¸o vetorial complexo. Ou seja, quando definimos a soma de n-uplas de nu´meros reais
ou nu´meros complexos por
(x1, . . . , xn) + (y1, . . . , yn) := (x1 + y1, . . . , xn + yn)
e a multiplicac¸a˜o por escalares por
α (x1, . . . , xn) := (αx1, . . . , αxn) .
1.5 Exemplo. O conjunto Mm×n (R) das matrizes reais m×n sob as operac¸o˜es usuais e´ um espac¸o vetorial
real. O conjuntoMm×n (C) das matrizes complexas m×n sob as operac¸o˜es usuais e´ um espac¸o vetorial
complexo.
1.6 Exemplo. O conjunto Pn (R) dos polinoˆmios (com coeficientes) reais de grau menor que ou igual a
n sob as operac¸o˜es usuais e´ um espac¸o vetorial real. O conjunto P (R) de todos os polinoˆmios reais
tambe´m e´ um espac¸o vetorial real. O conjunto Pn (C) dos polinoˆmios (com coeficientes) complexos de
grau menor que ou igual a n sob as operac¸o˜es usuais e´ um espac¸o vetorial complexo. O conjunto P (C)
de todos os polinoˆmios complexos tambe´m e´ um espac¸o vetorial complexo.
1.7 Exemplo. O conjunto FR das func¸o˜es reais e´ um espac¸o vetorial real. O conjunto FC e´ um espac¸o
vetorial complexo.
1.8 Exemplo. O conjunto C0 ([0, 1]) das func¸o˜es reais cont´ınuas definidas no intervalo [0, 1], o conjunto
Ck ([0, 1]) das func¸o˜es reais com k derivadas cont´ınuas definidas no intervalo [0, 1], e o conjunto
C∞ ([0, 1]) das func¸o˜es reais infinitamente diferencia´veis definidas no intervalo [0, 1] sa˜o espac¸os ve-
toriais reais.
1.3 Bases e Dimensa˜o
1.3.1 Conjuntos Linearmente Dependentes e Independentes
1.9 Definic¸a˜o. Seja S ⊂ V um subconjunto qualquer de um espac¸o vetorial V sobre o corpo F. Uma
combinac¸a˜o linear de elementos de S e´ uma soma finita
α1v1 + . . .+ αkvk
com α1, . . . , αk ∈ F e v1, . . . , vk ∈ S.
1.10 Definic¸a˜o. Dizemos que um conjunto S ⊂ V e´ linearmente dependente se existir um nu´mero finito
de elementos v1, . . . , vk ∈ S e escalares α1, . . . , αk ∈ F na˜o todos nulos tais que
α1v1 + . . .+ αkvk = 0.
Caso contra´rio, dizemos que S e´ linearmente independente.
Em outras palavras, S e´ linearmente dependente se o vetor nulo pode ser escrito como uma combinac¸a˜o
linear na˜o-trivial de elementos de S. Da definic¸a˜o segue que um subconjunto linearmente independente na˜o
pode conter o vetor nulo.
1.11 Lema. Um subconjunto S ⊂ V e´ linearmente dependente se e somente se algum elemento de S puder
ser escrito como combinac¸a˜o linear de outros elementos de S.
Rodney Josue´ Biezuner 7
Prova. Se S e´ linearmente dependente, enta˜o existem vetores v1, . . . , vk ∈ S e escalares α1, . . . , αk na˜o
todos nulos tais que
α1v1 + . . .+ αkvk = 0.
Suponha αi 6= 0. Enta˜o podemos escrever
vi =
α1
αi
v1 + . . .+
αi−1
αi
vi−1 +
αi+1
αi
vi+1 + . . .+
αk
αi
vk,
isto e´, vi e´ combinac¸a˜o linear de outros elementos de S.
Reciprocamente, se v0, v1, . . . , vk ∈ S e α1, . . . , αk ∈ F sa˜o tais que
v0 = α1v1 + . . .+ αkvk,
enta˜o
v0 − α1v1 − . . .− αkvk = 0
e´ uma combinac¸a˜o linear na˜o-trivial de elementos de S. ¥
1.3.2 Conjuntos Geradores e Bases
1.12 Definic¸a˜o. Dizemos que um conjunto S ⊂ V gera o espac¸o V se para todo v ∈ X existirem v1, . . . , vk ∈
S e escalares α1, . . . , αk ∈ F tais que
v = α1v1 + . . .+ αkvk.
1.13 Definic¸a˜o. Dizemos que um conjunto B ⊂ V e´ uma base para o espac¸o V se:
• B gera V.
• B e´ linearmente independente.
1.14 Definic¸a˜o. Dizemos que V e´ um espac¸o vetorial de dimensa˜o finita se V possui uma base com
um nu´mero finito de elementos ou se V = {0}.
O nu´mero de elementos nas bases de um espac¸o vetorial e´ um invariante do espac¸o vetorial:
1.15 Teorema. Todas as bases de um espac¸o vetorial de dimensa˜o finita possuem o mesmo nu´mero de
elementos.
Prova. A demonstrac¸a˜o deste resultado segue do seguinte lema:
1.16 Lema. Suponha que S = {v1, . . . , vk} gera o espac¸o vetorial V e que S′ = {w1, . . . , wl} e´ um subcon-
junto linearmente independente de V . Enta˜o
l 6 k.
Prova. Suponha por absurdo que l > k. Como S gera V e S′ e´ linearmente independente (em particular,
na˜o conte´m o vetor nulo) temos
w1 = α1v1 + . . .+ αkvk
para alguns escalares α1, . . . , αk na˜o todos nulos. Podemos supor α1 6= 0, reordenando os ı´ndices se necessa´rio.
Afirmamos que podemos enta˜o substituir v1 por w1, isto e´, que o conjunto S1 = {w1, v2, . . . , vk} gera V . De
fato, podemos escrever
v1 =
1
α1
w1 − α2
α1
v2 − . . .− αk
α1
vk,
Rodney Josue´ Biezuner 8
de modo que se v = β1v1 + β2v2 + . . .+ βkvk, enta˜o
v =
β1
α1
w1 +
(
β2 − β1α2
α1
)
v2 + . . .+
(
βk − β1αk
α1
)
vk.
Agora, como S1 gera V e S′ e´ linearmente independente, temos
w2 = α1w1 + α2v2 + . . .+ αkvk
para alguns escalares α1, . . . , αk, com α2, . . . , αk na˜o todos nulos (caso contra´rio, w2 seria um mu´ltiplo
escalar de w1). Supondo α2 6= 0, reordenando os ı´ndices se necessa´rio, usamos o mesmo argumento acima
para concluir que podemos substituir v2 por w2, de modo que o conjunto S2 = {w1, w2, v3, . . . , vk} gera
V . Repetindo este procedimento sucessivamente, conclu´ımos que podemos substituir todos os vi’s por um
nu´mero equivalente de wi’s (ja´ que, por hipo´tese de absurdo, l > k), e obter que o subconjunto pro´prio
Sk = {w1, . . . , wk}
de S′ gera V . Mas enta˜o, por definic¸a˜o de conjunto gerador, existem escalares α1, . . . , αk tais que
wk+1 = α1w1 + . . .+ αkwk
contrariando o fato que S′ e´ linearmente independente. ¥
Sejam B1 = {v1, . . . , vk} e B2 = {w1, . . . , wl} duas bases do espac¸o vetorial de dimensa˜o finita V .
Aplicando o Lema 1.16 ao conjunto gerador B1 e ao conjunto linearmente independente B2 conclu´ımosque
l 6 k; aplicando o Lema 1.16 ao conjunto gerador B2 e ao conjunto linearmente independente B1 conclu´ımos
que k 6 l. Portanto, k = l. ¥
1.17 Definic¸a˜o. O nu´mero de elementos de uma base qualquer de um espac¸o vetorial de dimensa˜o finita V
e´ chamada a dimensa˜o do espac¸o e denotada dimV . Se V = {0}, enta˜o definimos dimV = 0.
1.18 Teorema. Todo espac¸o vetorial na˜o-nulo gerado por um subconjunto finito possui uma base finita.
Prova. Suponha que S seja um subconjunto finito que gera o subespac¸o vetorial na˜o-nulo V . Se S for
linearmente independente, enta˜o S e´ a base procurada e na˜o precisamos fazer nada. Caso contra´rio, se S e´
linearmente dependente, podemos retirar um elemento de S e o conjunto resultante ainda gerara´ V (retire
um elemento que seja combinac¸a˜o linear dos demais). Se o conjunto restante for linearmente independente,
enta˜o ele sera´ uma base finita para V . Caso contra´rio, repetimos o procedimento, ate´ obter um conjunto
linearmente independente. ¥
1.19 Lema. Se dimV = n, enta˜o todo subconjunto de V com mais de n vetores e´ linearmente dependente.
Prova. Segue imediatamente do Lema 1.16. ¥
1.20 Lema. Seja S um subconjunto linearmente independente de um espac¸o vetorial V . Suponha que w e´
um vetor de V que na˜o e´ gerado por S. Enta˜o S ∪ {w} e´ linearmente independente.
Prova. Suponha que v1, . . . , vk ∈ S e existem escalares α1, . . . , αk, β tais que
α1v1 + . . .+ αkvk + βw = 0.
Enta˜o β = 0, caso contra´rio
w =
α1
β
v1 + . . .+
αk
β
vk,
o que implicaria que w e´ gerado por V , contrariando a hipo´tese. Mas enta˜o
α1v1 + . . .+ αkvk = 0,
e como S e´ L.I., segue que α1 = . . . = αk = 0. ¥
Rodney Josue´ Biezuner 9
1.21 Teorema. Todo subconjunto linearmente independente de um espac¸o vetorial de dimensa˜o finita pode
ser completado ate´ uma base do espac¸o.
Prova. Suponha que S = {v1, . . . , vk} seja um subconjunto linearmente independente de V . Se S na˜o
e´ uma base para V , ou seja, se k < n := dimV , enta˜o existe um vetor vk+1 ∈ V tal que vk+1 na˜o e´
uma combinac¸a˜o linear de elementos de S. Segue do Lema 1.20 que o conjunto S1 = {v1, . . . , vk, vk+1} e´
linearmente independente. Se k + 1 < n, repetimos o processo. Continuamos este argumento, repetindo o
processo n − k vezes ate´ encontrar um subconjunto Sn−k = {v1, . . . , vk, vk+1, . . . , vn} que e´ uma base para
V . ¥
1.3.3 Coordenadas de Vetores em Relac¸a˜o a uma Base
1.22 Proposic¸a˜o. Seja V um espac¸o vetorial de dimensa˜o finita e B = {v1, . . . , vn} uma base para V .
Enta˜o todo vetor em V se escreve de maneira u´nica como uma combinac¸a˜o linear de vetores de B.
Prova. Suponha que v ∈ V pode ser representado por duas combinac¸o˜es lineares de vetores de B:
v = α1v1 + . . .+ αnvn,
v = α′1v1 + . . .+ α
′
nvn.
Enta˜o
(α1 − α′1) v1 + . . .+ (αn − α′n) vn = 0,
donde α1 = α′1, . . . , αn = α
′
n. ¥
1.23 Definic¸a˜o. Seja V um espac¸o vetorial de dimensa˜o finita e B = {v1, . . . , vn} uma base ordenada para
V . Dado v ∈ V , se
v = α1v1 + . . .+ αnvn,
a n-upla (α1, . . . , αn) e´ chamada as coordenadas de v com relac¸a˜o a` base B, e denotada por
[v]B = (α1, . . . , αn) .
As coordenadas de um vetor dependem da base escolhida. No pro´ximo cap´ıtulo, veremos como as coordenadas
de um vetor em relac¸a˜o a uma base mudam quando mudamos de base.
1.4 Subespac¸os Vetoriais
1.24 Definic¸a˜o. Seja V um espac¸o vetorial sobre um corpo F. Um subespac¸o de V e´ um subconjunto
W ⊂ V que e´ ele pro´prio um espac¸o vetorial sobre F com as operac¸o˜es de soma e multiplicac¸a˜o escalar
induzidas de V .
1.25 Proposic¸a˜o. Um subconjunto na˜o-vazio W ⊂ V e´ um subespac¸o de V se e somente se ele e´ fechado
com relac¸a˜o a`s operac¸o˜es de soma e multiplicac¸a˜o por escalar. Em outras palavras, W ⊂ V e´ um
subespac¸o de V se e somente se αv + βw ∈W para todos v, w ∈ V e para todos α, β ∈ F.
Prova. Suponha que W ⊂ V , W 6= ∅, e´ fechado com relac¸a˜o a`s operac¸o˜es de soma e multiplicac¸a˜o por
escalar. Como as operac¸o˜es de soma e multiplicac¸a˜o por escalar definidas em W sa˜o herdadas das operac¸o˜es
definidas em V , comutatividade, associatividade e distributividade sa˜o imediatamente va´lidas e 1v = v para
todo v ∈W . Basta apenas verificar as duas propriedades seguintes:
• 0 ∈W : pois se v ∈W e´ qualquer vetor (lembre-se que W 6= ∅), enta˜o 0 = 0v ∈W .
• Se v ∈W , enta˜o −v ∈W : pois −v = (−1) v ∈W.
Rodney Josue´ Biezuner 10
A rec´ıproca e´ o´bvia, pois V e´ um espac¸o vetorial sobre F e W ⊂ V e´ um espac¸o vetorial sobre F com as
operac¸o˜es de soma e multiplicac¸a˜o escalar induzidas do pro´prio V . ¥
1.26 Teorema. A intersec¸a˜o de qualquer famı´lia de subespac¸os de um espac¸o vetorial V e´ um subespac¸o
de V .
Prova. Seja {Wλ}λ∈Λ uma colec¸a˜o de subespac¸os de V e W =
⋂
λ∈Λ
Wλ sua intersec¸a˜o. Como cada Wλ
conte´m o vetor nulo, segue que W tambe´m conte´m o vetor nulo e podemos usar a Proposic¸a˜o 1.25 para
provar que W e´ um subespac¸o. Dados quaisquer v, w ∈ W , temos que v, w ∈ Wλ para cada ı´ndice λ ∈ Λ
(por definic¸a˜o de intersec¸a˜o de conjuntos), logo αv + βw ∈ Wλ para todos α, β ∈ F (pela Proposic¸a˜o 1.25,
pois cada Wλ e´ um subespac¸o de V ), portanto αv+βw ∈W para todos α, β ∈ F (novamente, pela definic¸a˜o
de intersec¸a˜o de conjuntos). Segue da Proposic¸a˜o 1.25 que W e´ um subespac¸o. ¥
Segue do Teorema 1.26 que, dado um subconjunto de um espac¸o vetorial, existe um menor subespac¸o
que o conte´m:
1.27 Definic¸a˜o. Seja V um espac¸o vetorial sobre um corpo F e S um subconjunto de V . O subespac¸o
gerado por S e´ a intersec¸a˜o de todos os subespac¸os de V que conte´m S. Denotaremos o subespac¸o
gerado por S por 〈S〉.
1.28 Proposic¸a˜o. O subespac¸o gerado por um subconjunto na˜o-vazio S de um espac¸o vetorial V e´ o con-
junto de todas as combinac¸o˜es lineares de elementos de S.
Prova. Denote por W o subespac¸o gerado por S e por W ′ o conjunto de todas as combinac¸o˜es lineares
de elementos de S. Pela Proposic¸a˜o 1.25, como S ⊂ W , segue que W ′ ⊂ W . Por outro lado, tambe´m pela
Proposic¸a˜o 1.25 o conjunto W ′ e´ um subespac¸o de V , logo W ⊂W ′ por definic¸a˜o (pois W ′ e´ um subespac¸o
de V que conte´m S). Assim W ′ =W . ¥
1.29 Lema. Seja W um subespac¸o de um espac¸o vetorial de dimensa˜o finita V . Enta˜o todo subconjunto
linearmente independente de W e´ finito e pode ser completado ate´ uma base de W .
Prova. Seja S um subconjunto linearmente independente de W com k elementos e suponha que dimV = n.
Como S e´ tambe´m um conjunto linearmente independente de V , segue do Lema 1.16 que S e´ finito; mais
ainda, que k 6 n. Para completar S ate´ uma base de W seguimos um procedimento semelhante ao usado
no Teorema 1.21: se S na˜o gera W , obtemos um vetor w1 ∈ W tal que W na˜o e´ gerado por S. Segue do
Lema 1.20 que S1 = S ∪ {w1} e´ linearmente independente. Se S1 gera W , enta˜o ele e´ uma base para W .
Caso contra´rio, existe um vetor w2 ∈ W que na˜o e´ gerado por S1. Novamente pelo Lema 1.20, o conjunto
S2 = S1 ∪ {w2} = S ∪ {w1, w2} e´ linearmente independente. Continuando desta forma, eventualmente
encontraremos um conjunto Sl = S ∪ {w1, . . . , wl}, com l 6 n− k, que deve ser uma base para W . De fato,
suponha por absurdo que Sl possui n elementos e na˜o gera W . Enta˜o existe um vetor w ∈ W que na˜o e´
gerado por Sl, o que implica pelo Lema 1.20 que Sl ∪ {w} e´ um conjunto linearmente independente em W ,
e portanto tambe´m em V , com n+ 1 elementos, o que e´ uma contradic¸a˜o. ¥
1.30 Teorema. Se W e´ um subespac¸o pro´prio de um espac¸o vetorial de dimensa˜o finita V , enta˜o W tambe´m
tem dimensa˜o finita e dimW < dimV .
Prova. O resultado e´ o´bvio se W e´ o subespac¸o nulo. Se W na˜o e´ o subespac¸o nulo, seja v ∈ W , v 6= 0.
Pelo Lema 1.29, existe uma base de W contendo v. Como esta base de W e´ em particular um subconjunto
linearmente independente de V , ela na˜opode conter mais que dimV elementos. Portanto, dimW 6 dimV .
Por outro lado, como W e´ um subespac¸o pro´prio de V , existe um vetor w ∈ V tal que w /∈W . Adicionando
w a qualquer base de W , obtemos pelo Lema 1.20 um conjunto linearmente independente de V . Isso implica
que dimW < dimV . ¥
Rodney Josue´ Biezuner 11
1.5 Somas de Subespac¸os Vetoriais
1.31 Definic¸a˜o. Sejam S1, . . . , Sk subconjuntos de um espac¸o vetorial V . Definimos a soma dos subcon-
juntos S1, . . . , Sk como sendo o conjunto
k∑
i=1
Si = S1 + . . .+ Sk = {v1 + . . .+ vk : vi ∈ Si para i = 1, . . . k} .
1.32 Proposic¸a˜o. Se W1, . . . ,Wk sa˜o subespac¸os de um espac¸o vetorial V , enta˜o a sua soma W1+ . . .+Wk
tambe´m e´ um subespac¸o vetorial de V e conte´m cada um dos subespac¸os Wi, i = 1, . . . k.
Prova. Pois se
v = w1 + . . .+ wk,
w = w′1 + . . .+ w
′
k,
sa˜o dois vetores quaisquer de W1 + . . . +Wk com wi, w′i ∈ Wi para cada i e α, β sa˜o escalares quaisquer,
segue que
αv + βw = (αw1 + βw′1) + . . .+ (αwk + βw
′
k) ∈W1 + . . .+Wk.
A u´ltima afirmac¸a˜o do enunciado e´ o´bvia, pois o vetor nulo esta em cada um dos subespac¸os. ¥
1.33 Teorema. Se W1,W2 sa˜o dois subespac¸os de dimensa˜o finita de um espac¸o vetorial V , enta˜o W1+W2
tambe´m tem dimensa˜o finita e
dim (W1 +W2) = dimW1 + dimW2 − dim (W1 ∩W2)
Prova. Pelo Teorema 1.30, W1 ∩W2 tem uma base finita
{v1, . . . , vn} .
Pelo Teorema 1.21, esta e´ parte de uma base
B1 = {v1, . . . , vn, w1, . . . , wk}
para W1 e parte de uma base
B2 = {v1, . . . , vn, u1, . . . , ul}
para W2. O subespac¸o W1 +W2 e´ gerado pelo conjunto
B = {v1, . . . , vn, w1, . . . , wk, u1, . . . , ul} .
Basta provar que B e´ L.I. para terminar a demonstrac¸a˜o, pois enta˜o B sera´ uma base para W1 + W2 e
portanto
dimW1 + dimW2 = (n+ k) + (n+ l) = (n+ k + l) + n
= dim (W1 +W2) + dim (W1 ∩W2) .
De fato, suponha que
n∑
i=1
αivi +
k∑
i=1
βiwi +
l∑
i=1
γiui = 0.
Escrevendo
u :=
l∑
i=1
γiui = −
n∑
i=1
αivi −
k∑
i=1
βiwi,
Rodney Josue´ Biezuner 12
vemos que u ∈W1 tambe´m (certamente u ∈W2). Em particular, existem escalares δ1, . . . , δn tais que
u =
n∑
i=1
δivi.
Logo, subtraindo as duas expresso˜es para u, obtemos
n∑
i=1
δivi −
l∑
i=1
γiui = 0,
e como {v1, . . . , vn, u1, . . . , ul} e´ L.I., conclu´ımos que
δ1 = . . . = δn = γ1 = . . . = γl = 0.
Mas enta˜o
n∑
i=1
αivi +
k∑
i=1
βiwi = 0
e como {v1, . . . , vn, w1, . . . , wk} e´ L.I., segue que
α1 = . . . = αn = β1 = . . . = βk = 0.
¥
1.34 Definic¸a˜o. Sejam W1,W2 dois subespac¸os de um espac¸o vetorial V . Dizemos que o subespac¸o W =
W1 +W2 e´ a soma direta dos subespac¸os W1 e W2 se W1 ∩W2 = {0}. Neste caso, denotamos
W =W1 ⊕W2.
1.35 Proposic¸a˜o. Se W =W1 ⊕W2, enta˜o
dimW = dimW1 + dimW2.
Prova. Segue imediatamente do Teorema 1.33 quando se observa que W1 ∩W2 = {0}. ¥
1.36 Proposic¸a˜o. W = W1 ⊕ W2 se e somente se todo elemento w ∈ W se escrever de maneira u´nica
como uma soma w = w1 + w2, w1 ∈ W1 e w2 ∈ W2 (em outras palavras, W1 e W2 sa˜o linearmente
independentes).
Prova. Assuma que W1 ∩W2 = {0}. Seja w ∈W e suponha que
w = w1 + w2
w = w′1 + w
′
2
w1, w
′
1 ∈W1 e w2, w′2 ∈W2. Enta˜o
(w1 − w′1) + (w2 − w′2) = 0,
donde
(w1 − w′1) = − (w2 − w′2) .
Mas enta˜o, (w1 − w′1) ∈W1 ∩W2 e (w2 − w′2) ∈W1 ∩W2, logo w1−w′1 = 0 e w2−w′2 = 0, ou seja, w1 = w′1
e w2 = w′2.
Reciprocamente, assuma que todo elemento w ∈ W se escreve de maneira u´nica como uma soma w =
w1+w2, w1 ∈W1 e w2 ∈W2, e suponha por absurdo que exista um vetor v ∈W1∩W2 tal que v 6= 0. Enta˜o
Rodney Josue´ Biezuner 13
0 = v + (−v) e´ um vetor de W que se escreve pelo menos de duas maneiras como a soma de vetores de W1
e W2:
0 = v + (−v) ,
0 = 0 + 0.
¥
1.37 Teorema. Seja V um espac¸o vetorial de dimensa˜o finita. Enta˜o todo subespac¸o W ⊂ V possui um
complemento em V , isto e´, existe um subespac¸o Z ⊂ V tal que
V =W ⊕ Z.
Prova. Se W = {0} ou W = V , tome Z = V ou Z = {0}. Caso contra´rio, seja {v1, . . . , vk} uma base para
W . Complete esta base ate´ uma base para V : {v1, . . . , vk, w1, . . . , wl}. Enta˜o tomamos como Z o subespac¸o
gerado pelos vetores w1, . . . , wl. De fato, se W ∩Z 6= {0}, tomando um vetor na˜o-nulo u ∈W ∩Z, ter´ıamos
escalares na˜o todos nulos α1, . . . , αk, β1, . . . , βl tais que
u =
k∑
i=1
αivi,
u =
l∑
i=1
βiwi,
donde
k∑
i=1
αivi −
l∑
i=1
βiwi = 0
seria uma combinac¸a˜o linear na˜o trivial produzindo o vetor nulo, contradizendo o fato que {v1, . . . , vk, w1, . . . , wl}
e´ L.I. ¥
Cap´ıtulo 2
Matrizes
2.1 Definic¸a˜o
2.1 Definic¸a˜o. Uma matriz m× n A sobre o corpo F e´ uma func¸a˜o A : [1,m]× [1, n] −→ F.
O conjunto das matrizes m×n sobre F sera´ denotado por Mm×n (F) e por Mn (F) se n = m. Se F = R
dizemos que a matriz e´ real, e se F = C dizemos que a matriz e´ complexa.
A imagem A (i, j) e´ chamado uma entrada ou elemento da matriz e denotada por Aij ou aij . A matriz
A tambe´m e´ denotada frequ¨entemente por A = (aij) e o sub´ındice m× n pode ser usado para denotar
o que chamamos o tamanho da matriz.
Representamos A como uma tabela de m× n escalares de F dispostos em m linhas e n colunas:
A =

a11 a12 . . . a1n
a21 a22 . . . a2n
...
...
. . .
...
am1 am2 . . . amn
 .
A i-e´sima linha de A e´ a matriz 1× n [
ai1 ai2 . . . ain
]
,
onde 1 6 i 6 m, enquanto que a j-e´sima coluna de A e´ a matriz m× 1
a1j
a2j
...
amj
 ,
onde 1 6 j 6 n. Uma matriz n× n e´ chamada uma matriz quadrada de tamanho n.
2.2 Operac¸o˜es com Matrizes
Sec¸o˜es 3.1-3.2 do livro-texto
Sobre o conjunto Mm×n (F) das matrizes m× n definimos as operac¸o˜es a seguir.
2.2 Definic¸a˜o. A soma de matrizes e´ a operac¸a˜o bina´riaMm×n (F)×Mm×n (F) −→Mm×n (F), (A,B) 7→
A+B definida por
(A+B)ij = Aij +Bij .
14
Rodney Josue´ Biezuner 15
2.3 Proposic¸a˜o. A soma de matrizes satisfaz as seguintes propriedades:
(i) Comutatividade: para todas A,B ∈Mm×n (F) temos
A+B = B +A.
Prova:
(A+B)ij = Aij +Bij = Bij +Aij = (B +A)ij .
¥
(ii) Associatividade: para todos A,B,C ∈Mm×n (F) temos
A+ (B + C) = (A+B) + C.
Prova:
[A+ (B + C)]ij = Aij + (B + C)ij
= Aij + (Bij + Cij)
= (Aij +Bij) + Cij
= (A+B)ij + Cij
= [(A+B) + C]ij .
¥
(iii) Existeˆncia de Elemento Neutro: a matriz nula 0 ∈Mm×n (F) definida por 0ij = 0 satisfaz
A+ 0 = 0+A = A
para toda A ∈Mm×n (F).
Prova:
(A+ 0)ij = Aij + 0ij = Aij + 0 = Aij
e a outra expressa˜o segue por comutatividade. ¥
(iv) Existeˆncia de Inverso: para toda A ∈Mm×n (F) existe −A ∈Mm×n (F) tal que
A+ (−A) = (−A) +A = 0.
Prova: Defina
(−A)ij = − (Aij) .
Enta˜o
[A+ (−A)]ij =
[
Aij + (−A)ij
]
= [Aij + (− (Aij))] = 0 = 0ij .
¥
2.4 Definic¸a˜o. Amultiplicac¸a˜o de uma matriz por um escalar e´ a operac¸a˜o bina´ria F×Mm×n (F) −→
Mm×n (F), (α,A) 7→ αA definida por
(αA)ij = αAij .
2.5 Proposic¸a˜o. A multiplicac¸a˜o de uma matriz por um escalar satisfaz as seguintes propriedades:
Rodney Josue´ Biezuner 16
(i) Existeˆncia de Elemento Neutro: para todo A ∈Mm×n (F) temos
1A = A.
Prova:
(1A)ij = 1Aij = Aij .
¥
(ii) Associatividade: para todos α, β ∈ F e para toda A ∈Mm×n (F) temos
α (βA) = (αβ)A.
Prova:
[α (βA)]ij = α (βA)ij = α (βAij) = (αβ)Aij .
¥
2.6 Proposic¸a˜o. A soma de matrizes e a multiplicac¸a˜o de uma matriz por um escalar satisfazem as seguintes
propriedades:
(i) Distributividade em relac¸a˜o a` soma: para todas A,B ∈Mm×n (F) e para todo α ∈ F temos
α (A+B) = αA+ αB.
Prova:
[α (A+B)]ij = α (A+B)ij = αAij + αBij = (αA)ij + (αB)ij = [αA+ αB]ij .
¥
(ii) Distributividade em relac¸a˜o a` multiplicac¸a˜o por escalar: para toda A ∈ Mm×n (F) e para todos
α, β ∈ F temos
(α+ β)A = αA+ βA.
Prova:
[(α+ β)A]ij = (α+ β)Aij = αAij + βAij = (αA)ij + (βA)ij = (αA+ βA)ij.
¥
As Proposic¸o˜es 2.3, 2.5 e 2.6 juntas provam que as operac¸o˜es de soma de matrizes e multiplicac¸a˜o de uma
matriz por um escalar transformam o conjunto Mm×n (F) em um espac¸o vetorial sobre o corpo F.
2.7 Definic¸a˜o. O produto de matrizes e´ a operac¸a˜o bina´ria Mm×p (F) × Mp×n (F) −→ Mm×n (F),
(A,B) 7→ AB definida por
(AB)ij =
p∑
k=1
AikBkj .
A motivac¸a˜o para definir o produto de matrizes desta forma e´ dada pela sua utilidade na resoluc¸a˜o de
sistemas de equac¸o˜es lineares.
2.8 Proposic¸a˜o. O produto de matrizes satisfaz as seguintes propriedades:
Rodney Josue´ Biezuner 17
(i) Associatividade: para todas A ∈Mm×p (F) , B ∈Mp×q (F) , C ∈Mq×n (F) temos
A (BC) = (AB)C.
Prova:
[A (BC)]ij =
p∑
k=1
Aik (BC)kj =
p∑
k=1
Aik
(
n∑
l=1
BklClj
)
=
p∑
k=1
n∑
l=1
AikBklClj
=
n∑
l=1
p∑
k=1
AikBklClj =
n∑
l=1
(
p∑
k=1
AikBkl
)
Clj =
n∑
l=1
(AB)il Clj
= [(AB)C]ij .
¥
(ii) Existeˆncia de Elemento Neutro: a matriz identidade In ∈Mn (F) definida por
(In)ij = δij =
{
1 se i = j,
0 se i 6= j,
isto e´,
In =

1 0 . . . 0
0 1 . . . 0
...
...
. . .
...
0 0 . . . 1
 ,
satisfaz
AIn = ImA = A
para toda A ∈Mm×n (F).
Prova:
(AIn)ij =
n∑
k=1
Aikδkj = Aij ,
(ImA)ij =
m∑
k=1
δikAkj = Aij .
¥
(iii) Distributividade em relac¸a˜o a` soma de matrizes: para todas A ∈ Mm×p (F) , B,C ∈ Mp×n (F)
temos
A (B + C) = AB +AC.
Prova: Exerc´ıcio. ¥
Quando for claro do contexto o valor de n, escreveremos simplesmente I para denotar a matriz identidade.
Diferentemente da operac¸a˜o de adic¸a˜o, a operac¸a˜o de produto de matrizes na˜o possui uma inversa para
cada matriz. Na˜o apenas a matriz nula na˜o possui um inverso multiplicativo (o que tambe´m ocorre em um
corpo), como existe um nu´mero de matrizes que na˜o possuem inversas:
2.9 Exemplo. Seja
A =
[
1 1
1 1
]
.
Rodney Josue´ Biezuner 18
Suponha que
B =
[
x y
z w
]
satisfac¸a
AB =
[
1 1
1 1
] [
x y
z w
]
=
[
1 0
0 1
]
= I.
Enta˜o 
x+ z = 1
y + w = 0
x+ z = 0
y + w = 1
e este sistema na˜o possui soluc¸a˜o. O mesmo argumento mostra que qualquer matriz da forma[
α α
α α
]
qualquer que seja o escalar α ∈ F na˜o possui inverso multiplicativo. ¤
2.10 Definic¸a˜o. Seja A ∈Mn (F). Se existir uma matriz A−1 ∈Mn (F) tal que
AA−1 = A−1A = I
dizemos que A e´ invert´ıvel e chamamos A−1 de a inversa de A.
Observe que a inversa de uma matriz e´ u´nica, pois se B e C sa˜o duas matrizes tais que
AB = BA = I,
AC = CA = I,
enta˜o
B = BI = B (AC) = (BA)C = IC = C.
2.11 Proposic¸a˜o. Se A e B sa˜o matrizes invert´ıveis, enta˜o AB tambe´m e´ e
(AB)−1 = B−1A−1.
Prova:
(AB)
(
B−1A−1
)
= A
(
BB−1
)
A−1 = AIA−1 = AA−1 = I,(
B−1A−1
)
(AB) = B−1
(
A−1A
)
B = B−1IB = B−1B = I.
¥
2.12 Exerc´ıcio. Se A e B sa˜o duas matrizes tais que o produto AB e´ invert´ıvel, e´ verdade que A e B
tambe´m sa˜o invert´ıveis?
2.13 Teorema. Se AB = I enta˜o BA = I.
Prova: Se AB = I, enta˜o a u´nica soluc¸a˜o do sistema BX = 0 e´ a soluc¸a˜o trivial, pois X = IX =
ABX = A0 = 0. Em particular, isso implica que a matriz B e´ equivalente por linhas a` matriz identidade I,
caso contra´rio a forma escalonada reduzida de B teria uma linha nula. A matriz B ser equivalente por linhas
Rodney Josue´ Biezuner 19
a` matriz identidade significa que existem matrizes elementares E1, . . . , Ek (correspondentes a`s operac¸o˜es
elementares sobre as linhas da matriz B) tais que
Ek . . . E1B = I.
Como as matrizes elementares sa˜o invert´ıveis (porque a inversa de uma operac¸a˜o elementar e´ tambe´m uma
operac¸a˜o elementar), segue que
B = E−11 . . . E
−1
k .
Portanto, B e´ o produto de matrizes invert´ıveis, logo e´ invert´ıvel. Seja C tal que BC = I. Para terminar a
demonstrac¸a˜o deste teorema, resta apenas provar que C = A. E, de fato, multiplicando a equac¸a˜o
AB = I
a` direita por C, segue que
(AB)C = IC
donde
A (BC) = C ⇒ AI = C ⇒ A = C.
¥
O produto de matrizes na˜o e´ comutativo:
2.14 Exemplo. Sejam
A =
[
1 0
0 0
]
e B =
[
0 1
0 0
]
.
Enta˜o
AB =
[
1 0
0 0
] [
0 1
0 0
]
=
[
0 1
0 0
]
,
BA =
[
0 1
0 0
] [
1 0
0 0
]
=
[
0 0
0 0
]
.
¤
O fato de existirem matrizes que na˜o possuem inversas e do produto de matrizes na˜o ser comutativo faz com
que muitas propriedades satisfeitas pelos nu´meros reais e complexos na˜o serem satisfeitas pelas matrizes.
2.15 Exerc´ıcio. Determine se as afirmativas a seguir sa˜o falsas ou verdadeiras. Se a afirmativa for verda-
deira, prove; se a afirmativa for falsa, deˆ um contraexemplo e determine se existe alguma situac¸a˜o onde
a afirmativa e´ va´lida:
1. (Lei do Cancelamento) Se AB = AC, enta˜o B = C.
2. Se A,B sa˜o matrizes quadradas, enta˜o (A+B)2 = A2 + 2AB +B2.
3. Se A,B sa˜o matrizes quadradas, enta˜o (A−B)2 = A2 −B2.
4. Se AB = 0, enta˜o A = 0 ou B = 0.
5. Se AB = 0, enta˜o BA = 0.
6. Se A2 = 0, enta˜o A = 0.
¤
2.16 Definic¸a˜o. A transposta de uma matriz m× n A ∈ Mm×n (F) e´ a matriz n×m AT ∈ Mn×m (F)
definida por (
AT
)
ij
= Aij .
Rodney Josue´ Biezuner 20
2.17 Proposic¸a˜o. A transposta de matrizes satisfaz as seguintes propriedades:
(i)
(
AT
)T = A.
(ii) (A+B)T = AT +BT .
(iii) (αA)T = αAT .
(iv) (AB)T = BTAT .
(v)
(
A−1
)T = (AT )−1 .
Prova de (iv):[
(AB)T
]
ij
= (AB)ji =
p∑
k=1
AjkBki =
p∑
k=1
[
AT
]
kj
[
BT
]
ik
=
p∑
k=1
[
BT
]
ik
[
AT
]
kj
=
[
BTAT
]
ij
Prova de (v): Por (iv), segue que
I = IT =
(
AA−1
)T
=
(
A−1
)T
AT .
¥
2.3 Mudanc¸a de Base
Sec¸a˜o 7.11 do livro-texto
Sejam B = {v1, . . . , vn} e B′ = {w1, . . . , wn} duas bases para o espac¸o vetorial V . Suponha que um vetor
v ∈ V se escreve na forma
v = x1v1 + . . .+ xnvn =
n∑
i=1
xivi
como combinac¸a˜o linear dos vetores da base B, ou seja,
v = (x1, . . . , xn)
sa˜o as coordenadas de v em relac¸a˜o a` base B, isto e´,
[v]B =
 x1...
xn
 ,
convencionando representar as coordenadas de vetores em relac¸a˜o a uma base como matrizes-coluna. Como
obter as coordenadas de v em relac¸a˜o a` base B′?
Sabemos que existem escalares pji ∈ F tais que
vi =
n∑
j=1
pjiwj para i = 1, . . . , n.
Enta˜o
v =
n∑
i=1
xivi =
n∑
i=1
xi
 n∑
j=1
pjiwj
 = n∑
i=1
n∑
j=1
xipjiwj =
n∑
j=1
(
n∑
i=1
xipji
)
wj
=
n∑
j=1
(
n∑
i=1
pjixi
)
wj .
Rodney Josue´ Biezuner 21
Assim,
yj =
n∑
i=1
pjixi.
Portanto, se
P = (pij) =

p11 p12 . . . p1n
p21 p22 . . . p2n
...
...
. . .
...
pm1 pm2 . . . pmn
 ,
segue que  y1...
yn
 =

p11 p12 . . . p1n
p21 p22 . . . p2n
...
...
. . .
...
pm1 pm2 . . . pmn

 x1...
xn

ou seja,
[v]B′ = P [v]B .
Em outras palavras, as coordenadas do vetor v em relac¸a˜o a` base B′ sa˜o obtidas atrave´s de multiplicar as
coordenadas de v em relac¸a˜o a` base B pela matriz P , cujas colunas sa˜o as coordenadas dos vetores da base
B em relac¸a˜o a` base B′. P e´ chamada a matriz de mudanc¸a de base da base B para a base B′.
2.18 Proposic¸a˜o. A matriz de mudanc¸a de base e´ invert´ıvel.
Prova: Pois a u´nica soluc¸a˜o de
PX = 0
e´ a soluc¸a˜o identicamente nula, porque o u´nico vetor que tem coordenadas nulas em relac¸a˜o a qualquer base
e´ o vetor nulo. ¥
Em particular, segue que
[v]B = P
−1 [v]B′ ,
isto e´, a matriz de mudanc¸a de base da base B′ para a base B e´ a inversa P−1.
2.19 Exemplo. Obtenha as coordenadas do vetor v = (1, 2, 3) ∈ R3 em relac¸a˜o a` base B′ = {(1, 1, 0) , (1, 0, 1) , (0, 1, 1)} .
Temos que a matriz de mudanc¸a de base e´
P =
 1 1 01 0 1
0 1 1
−1 =
 12 12 − 1212 − 12 12− 12 12 12
 .
Logo as coordenadas de v em relac¸a˜o a B′ sa˜o 12 12 − 121
2 − 12 12− 12 12 12
 12
3
 =
 01
2
 .
Rodney Josue´ Biezuner 22
Observe que  12 12 − 121
2 − 12 12− 12 12 12
 11
0
 =
 10
0
 ,
 12 12 − 121
2 − 12 12− 12 12 12
 10
1
 =
 01
0
 ,
 12 12 − 121
2 − 12 12− 12 12 12
 01
1
 =
 00
1
 ,
pois estas sa˜o as coordenadas dos vetores da base em relac¸a˜o a ela pro´pria. ¤
2.4 Matrizes Especiais
Sec¸a˜o 3.6 do livro-texto
2.4.1 Matrizes Diagonais
2.20 Definic¸a˜o. Dizemos que uma matriz quadrada D ∈ Mn (F) e´ uma matriz diagonal se aij = 0 para
todo i 6= j.
Uma matriz diagonal tem a forma
D =

a11 0 . . . 0
0 a22 . . . 0
...
...
. . .
...
0 0 . . . ann
 ,
isto e´, todos os elementos fora da diagonal principal sa˜o nulos. O conjunto das matrizes diagonais Dn (F) e´
um subespac¸o vetorial de dimensa˜o n.
2.4.2 Matrizes Triangulares
2.21 Definic¸a˜o. Dizemos que uma matriz quadrada T ∈ Mn (F) e´ uma matriz triangular superior se
aij = 0 para todo i > j. Dizemos que T e´ uma matriz triangular inferior se aij = 0 para todo
i < j. Uma matriz triangular superior ou inferior, e´ tambe´m chamada simplesmente uma matriz
triangular.
Uma matriz triangular superior tem a forma
T =

a11 a12 a13 . . . . . . a1n
0 a22 a23 . . . . . . a2n
0 0 a33 . . . . . . a3n
0 0 0
. . .
...
...
...
...
...
. . . an−1,n−1 an−1,n
0 0 . . . . . . 0 ann

,
Rodney Josue´ Biezuner 23
isto e´, todos os elementos abaixo da diagonal principal sa˜o nulos, enquanto que uma matriz triangular inferior
tem a forma
T =

a11 0 0 . . . . . . 0
a21 a22 0 . . . . . . 0
a31 a32 a33
. . . . . . 0
...
...
...
. . . 0
...
an−1,1 . . . . . . . . . an−1,n−1 0
an1 . . . . . . . . . an,n−1 ann

,
isto e´, todos os elementos acima da diagonal principal sa˜o nulos. Ambos os conjuntos de matrizes trian-
gulares superiores Un (F) e de matrizes triangulares inferiores Ln (F) sa˜o subespac¸os vetoriais de dimensa˜o
n (n+ 1) /2. Ale´m disso, Mn (F) = Un (F) + Ln (F), mas esta soma na˜o e´ direta.
2.4.3 Matrizes Sime´tricas e Anti-sime´tricas
2.22 Definic¸a˜o. Dizemos que uma matriz quadrada A ∈ Mn (F) e´ uma matriz sime´trica se AT = A.
Dizemos que A e´ uma matriz anti-sime´trica se AT = −A.
2.23 Proposic¸a˜o. Os conjuntos das matrizes sime´tricas S e das matrizes anti-sime´tricas A sa˜o subespac¸os
vetoriais de Mn (F). Ale´m disso,
Mn (F) = S ⊕A.
Prova: Sejam A,B duas matrizes sime´tricas e α, β escalares. Enta˜o, usando a Proposic¸a˜o 2.17, temos que
(αA+ βB)T = αAT + βBT = αA+ βB
e portanto αA+ βB e´ sime´trica. Analogamente, se A,B sa˜o anti-sime´tricas, enta˜o
(αA+ βB)T = αAT + βBT = α (−A) + β (−B) = − (αA+ βB)
e αA+ βB e´ portanto anti-sime´trica.
Para escrever uma matriz A ∈Mn (F) como a soma de uma matriz sime´trica e uma matriz anti-sime´trica,
defina
B =
A+AT
2
,
C =
A−AT
2
.
Claramente, A = B + C. Por outro lado, da Proposic¸a˜o 2.17 vemos que a matriz B e´ sime´trica e a matriz
C e´ anti-sime´trica, pois
BT =
(
A+AT
2
)T
=
AT +
(
AT
)T
2
=
AT +A
2
= B,
CT =
(
A−AT
2
)T
=
AT − (AT )T
2
=
AT −A
2
= −C.
Falta apenas provar que a u´nica matriz que e´ ao mesmo tempo sime´trica e anti-sime´trica e´ a matriz nula.
De fato, se A ∈ S ∩ A, enta˜o
aij = aji
porque A e´ sime´trica, e
aij = −aji
porque A e´ anti-sime´trica, logo aij = 0. ¥
Rodney Josue´ Biezuner 24
2.24 Proposic¸a˜o. Se uma matriz e´ sime´trica e invert´ıvel, enta˜o sua inversa tambe´m e´ sime´trica. Se uma
matriz e´ anti-sime´trica e invert´ıvel, enta˜o sua inversa tambe´m e´ anti-sime´trica.
Prova: Seja A uma matriz sime´trica, enta˜o da Proposic¸a˜o 2.17 (v) segue que(
A−1
)T
=
(
AT
)−1
= A−1.
Analogamente se A e´ uma matriz anti-sime´trica, temos que(
A−1
)T
=
(
AT
)−1
= (−A)−1 = − (A−1) .
¥
2.25 Proposic¸a˜o. Se A e´ uma matriz qualquer, enta˜o AAT e ATA sa˜o matrizes sime´tricas.
Prova: Temos (
AAT
)T
=
(
AT
)T
AT = AAT .
Analogamente se prova que
(
ATA
)T = ATA. ¥
2.4.4 Matrizes Nilpotentes
2.26 Definic¸a˜o. Dizemos que uma matriz quadrada A ∈Mn (F) e´ uma matriz nilpotente se Ak = 0 para
algum k.
O conjunto das matrizes nilpotentes na˜o e´ um subespac¸o vetorial, ja´ que a soma de matrizes nilpotentes em
geral na˜o e´ uma matriz nilpotente.
2.27 Exemplo. A matriz
A =
[
0 1
0 0
]
e´ nilpotente, pois A2 = 0. A matriz
B =

0 1 0 0
0 0 1 0
0 0 0 0
0 0 0 0

tambe´m e´ nilpotente, pois B3 = 0. ¤
2.28 Proposic¸a˜o. Se A e´ uma matriz nilpotente com Ak = 0, enta˜o I −A e´ invert´ıvel e
(I −A)−1 = I +A+ . . .+Ak−1.
Prova: Temos
(I −A) (I +A+ . . .+Ak−1) = I +A+ . . .+Ak−1 −A− . . .−Ak−1 −Ak = I.
¥
Cap´ıtulo 3
Transformac¸o˜es Lineares
3.1 Definic¸a˜o
Sec¸o˜es 6.1 e 9.3 do livro-texto
Definida uma estrutura matema´tica sobre conjuntos, e´ importante o estudo das func¸o˜es entre estes
conjuntos que preservam a estrutura.
3.1 Definic¸a˜o. Sejam V e W dois espac¸os vetoriais sobre um mesmo corpo F. Uma func¸a˜o T : V −→W e´
chamada uma transformac¸a˜o linear se
T (αv + βw) = αT (v) + βT (w) (3.1)
para todos v, w ∈ V e α, β ∈ F.
Transformac¸o˜es lineares preservam as operac¸o˜es que definem um espac¸o vetorial, soma e multiplicac¸a˜o por
escalar. Em outras palavras, elas preservam combinac¸o˜es lineares.
3.2 Proposic¸a˜o. Seja T : V −→W uma transformac¸a˜o linear entre dois espac¸os vetoriais. Enta˜o T (0V ) =
0W .
Prova: Observe que estamos usando notac¸o˜es diferentes para os vetores nulos de cada espac¸o por motivos
de clareza. Temos
T (0V ) = T (00V ) = 0T (0V ) = 0W .
¥
O seguinte resultado ajuda a entender o significado de uma transformac¸a˜o linear:
3.3 Proposic¸a˜o. Seja T : V −→ W uma transformac¸a˜o linear entre dois espac¸os vetoriais. Se U e´ um
subespac¸o de V , enta˜o T (U) e´ um subespac¸o de W com dimensa˜o menor ou igual a U . Reciprocamente,
se Z e´ um subespac¸o de W , enta˜o T−1 (Z) e´ um subespac¸o de V com dimensa˜o maior ou igual a Z.
Prova: Seja U e´ um subespac¸o de V . Como 0 ∈ U , temos T (U) 6= ∅. Sejam w1, w2 ∈ T (U). Enta˜o existem
u1, u2 ∈ U tais que T (u1) = w1, T (u2) = w2. Para todos α, β ∈ F segue que
αw1 + βw2 = αT (u1) + βT (u2) = T (αu1 + βu2) ,
e como αu1 + βu2 ∈ U , conclu´ımos que αw1 + βw2 ∈ T (U). Temos dimT (U) 6 dimU porque se u1, . . . , uk
geram U enta˜o T (u1) , . . . , T (uk) geram T (U), mas enquanto que u1, . . . , uk podem ser L.I., isso na˜o implica
necessariamente que T (u1) , . . . , T (uk) sera˜o L.I.
25
Rodney Josue´ Biezuner 26
Reciprocamente, seja Z e´ um subespac¸o de W . Sejam v1, v2 ∈ T−1 (Z). Enta˜o T (v1) =: z1, T (v2) =:
z2 ∈ Z. Para todos α, β ∈ F segue que
T (αv1 + βv2) = αT (v1) + βT (v2) = αz1 + βz2 ∈ Z,
logo conclu´ımos que αv1 + βv2 ∈ T−1 (Z). ¥
Em outras palavras, uma transformac¸a˜o linear e´ uma aplicac¸a˜o que leva subespac¸os vetoriais de V em
subespac¸os vetoriais de W de dimensa˜o menor ou igual que o subespac¸o original. Uma transformac¸a˜o linear
leva retas em retas ou no vetor nulo, planos em planos, retas ou no vetor nulo, e assim por diante. Esta
conclusa˜o vale mesmo para subespac¸o afins, isto e´, para conjuntos obtidos pela translac¸a˜o de subespac¸os
vetoriais, definidos por
Ux = U + x0 = {x+ x0 : x ∈ U} (3.2)
onde U e´ um subespac¸o vetorial de V ; exemplos sa˜o retas e planos que na˜o passam pela origem. Uma
transformac¸a˜o linear leva subespac¸os afins em subespac¸os afins de dimensa˜o menor que ou igual, pois
T (Ux) = T (U) + T (x0) . (3.3)
3.4 Exemplo. Sejam V e W dois espac¸os vetoriais sobre um mesmo corpo F de dimensa˜o finita, BV =
{x1, . . ., xn} uma base para V , BW = {y1, . . . , ym} uma base para W e A uma matriz de tamanho
dimW × dimV sobre F. Enta˜o a aplicac¸a˜o
[Tv]BW = A [v]BV
define uma transformac¸a˜o linear T de V em W . ¤
3.5 Teorema. Uma transformac¸a˜o linear do espac¸o vetorial de dimensa˜o finita V para o espac¸o vetorial
W e´ completamente determinada pelos valores que ela toma em uma base qualquer de V .
Prova: Sejam T : V −→W uma transformac¸a˜o linear e B = {x1, . . . , xn} uma base para V . Dado um vetor
v ∈ V , ele se escreve como uma combinac¸a˜o linear
v = α1x1 + . . .+ αnxn.
Enta˜o
Tv = T (α1x1 + . . .+ αnxn) = α1T (x1) + . . .+ αnT (xn) .
¥
Podemos dizer ainda mais: para definir uma transformac¸a˜o linear T : V −→ W basta estipular os seus
valores em uma base:
3.6 Teorema. Sejam V um espac¸o vetorial de dimensa˜o finita, B = {x1, . . . , xn} uma base para V e
y1, . . . , yn vetores quaisquer de um espac¸o vetorial W . Enta˜o existe uma u´nica transformac¸a˜o linear
T : V −→W tal que
Txi = yi (3.4)
para i = 1, . . . , n.
Prova: Como todo vetor v ∈ V se escreve como uma combinac¸a˜o linear dos vetores de B de maneira u´nica
v = α1x1 + . . .+ αnxn,
basta definir
Tv = α1y1 + . . .+ αnyn.
Rodney Josue´ Biezuner 27
De fato, para todos os vetores
x = α1x1 + . . .+ αnxn,
y = β1x1 + . . .+ βnxn,
de V e para todos escalares a, b ∈ F, temos
T (ax+ by) = T
(
a
n∑
i=1
αixi + b
n∑
i=1
βixi
)
= T
(
n∑
i=1
(aαi + bβi)xi
)
=
n∑
i=1
(aαi + bβi) yi = a
n∑
i=1
αiyi + b
n∑
i=1
βiyi
= aT (x) + bT (y) .
A unicidade de T decorre do teorema anterior. ¥
3.2 Representac¸o˜es de Transformac¸o˜es Lineares atrave´s de Matri-
zes
Sec¸a˜o 6.1 do livro-texto
Seja T : V −→ W uma transformac¸a˜o linear entre espac¸os vetoriais de dimensa˜o finita. Escolha bases
BV = {x1, . . . , xn} para V e BW = {y1, . . . , ym} para W . Enta˜o, cada vetor x ∈ V se escreve com relac¸a˜o a`
base BV na forma
x = α1x1 + . . .+ αnxn =
n∑
i=1
αixi,
para alguns escalares α1, . . . , αn. Da´ı, segue que
Tx = T
(
n∑
i=1
αixi
)
=
n∑
i=1
αiT (xi) .
Escreva os vetores Tx1, . . . , Txn em relac¸a˜o a` base BW na forma
T (xi) =
m∑
j=1
ajiyj , (3.5)
isto e´, na forma de matriz coluna:
T (xi) =

a1i
a2i
...
ami
 (3.6)
A matriz A = (aij)m×n e´ chamada a representac¸a˜o matricial da transformac¸a˜o linear T com relac¸a˜o a`s
bases BV e BW . Esta representac¸a˜o de T tambe´m sera´ denotada por
[T ]BV ,BW . (3.7)
Rodney Josue´ Biezuner 28
3.3 Exemplos de Operadores Lineares
Sec¸o˜es 6.1-6.2 do livro-texto
Nesta sec¸a˜o, as transformac¸o˜es lineares sa˜o definidas a partir de suas matrizes com relac¸a˜o a` base canoˆnica
de Rn.
3.7 Definic¸a˜o. Uma transformac¸a˜o linear T : V −→ V , isto e´, de um espac¸o vetorial nele pro´prio, e´
chamada um operador linear.
3.3.1 Operadores Lineares no Plano R2
Rotac¸o˜es. A rotac¸a˜o de aˆngulo θ em torno da origem no sentido anti-hora´rio e´ definida por
Rθ =
[
cos θ − sen θ
sen θ cos θ
]
. (3.8)
Observe que
Rθ (e1) =
[
cos θ
sen θ
]
e Rθ (e2) =
[ − sen θ
cos θ
]
.
A inversa de uma rotac¸a˜o de aˆngulo θ e´ uma rotac¸a˜o de aˆngulo −θ (isto e´, a rotac¸a˜o de aˆngulo θ em torno
da origem no sentido hora´rio), pois
RθR−θ =
[
cos θ − sen θ
sen θ cos θ
] [
cos θ sen θ
− sen θ cos θ
]
=
[
cos2 θ + sen2 θ cos θ sen θ − sen θ cos θ
sen θ cos θ − cos θ sen θ cos2 θ + sen2 θ
]
=
[
1 0
0 1
]
.
Rotac¸o˜es sa˜o operadores que preservam a norma de vetores e o produto escalar entre vetores (e portanto o
aˆngulo entre eles):
〈Rθ (v) , Rθ (w)〉 = 〈v, w〉 (3.9)
e
‖Rθ (v)‖ = ‖v‖ . (3.10)
De fato,
〈Rθ (v) , Rθ (w)〉 =
〈[
cos θ − sen θ
sen θ cos θ
] [
v1
v2
]
,
[
cos θ − sen θ
sen θ cos θ
] [
w1
w2
]〉
=
〈[
cos θv1 − sen θv2
sen θv1 + cos θv2
]
,
[
cos θw1 − sen θw2
sen θw1 + cos θw2
]〉
= cos2 θv1w1 − cos θ sen θv1w2 − sen θ cos θv2w1 + sen2 θv2w2
+ sen2 θv1w1 + cos θ sen θv1w2 + sen θ cos θv2w1 + cos2 θv2w2
= v1w1 + v2w2
= 〈v, w〉 .
Da´ı,
‖Rθ (v)‖ =
√
〈Rθ (v) , Rθ (v)〉 =
√
〈v, v〉 = ‖v‖ .
Note ainda que
detRθ = 1, (3.11)
de modo que rotac¸o˜es tambe´m preservam a´reas.
Rodney Josue´ Biezuner 29
Reflexo˜es. A reflexa˜o em relac¸a˜o a` reta passando pela origem que faz aˆngulo θ com o eixo x positivo e´
definida por
Hθ =
[
cos 2θ sen 2θ
sen 2θ − cos 2θ
]
. (3.12)
Observe que
Hθ (e1) =
[
cos 2θ
sen 2θ
]
e Hθ (e2) =
[
sen 2θ
− cos 2θ
]
.
A inversa de uma reflexa˜o e´ ela pro´pria, pois
H2θ =
[
cos 2θ sen 2θ
sen 2θ − cos 2θ
] [
cos 2θ sen 2θ
sen 2θ − cos 2θ
]
=
[
cos2 2θ + sen2 2θ cos 2θ sen 2θ − sen 2θ cos 2θ
sen 2θ cos 2θ − cos 2θ sen 2θ cos2 2θ + sen2 2θ
]
=
[
1 0
0 1
]
.
Reflexo˜es sa˜o tambe´m operadores que preservam a norma de vetores e o produto escalar entre vetores (e
portanto o aˆngulo entre eles):
〈Hθ (v) ,Hθ (w)〉 = 〈v, w〉 (3.13)
e
‖Hθ (v)‖ = ‖v‖ . (3.14)
De fato,
〈Rθ (v) , Rθ (w)〉 =
〈[
cos θ − sen θ
sen θ cos θ
] [
v1
v2
]
,
[
cos θ − sen θ
sen θ cos θ
] [
w1
w2
]〉
=
〈[
cos θv1 − sen θv2
sen θv1 + cos θv2
]
,
[
cos θw1 − sen θw2
sen θw1 + cos θw2
]〉
= cos2 θv1w1 − cos θ sen θv1w2 − sen θ cos θv2w1 + sen2 θv2w2
+ sen2 θv1w1 + cos θ sen θv1w2 + sen θ cos θv2w1 + cos2 θv2w2
= v1w1 + v2w2
= 〈v, w〉 .
Da´ı,
‖Rθ (v)‖ =
√
〈Rθ (v) , Rθ (v)〉 =
√
〈v, v〉 = ‖v‖ .
Note ainda que
detHθ = −1, (3.15)
de modo que reflexo˜es tambe´m preservam a´reas.
Uma reflexa˜o especial e´ a reflexa˜o em torno da origem, definida por
H =
[
0 −1
−1 0
]
. (3.16)
Ela tem as mesmas propriedades das outras reflexo˜es.
Contrac¸o˜es e Dilatac¸o˜es. Uma homotetia de raza˜o k e´ definida por
T =
[
k 0
0 k
]
, (3.17)
Rodney Josue´ Biezuner 30
ou seja,
T (x, y) = (kx, ky) . (3.18)
Se 0 6 k < 1, T e´ chamada uma contrac¸a˜o, e se k > 1, T e´ chamada uma dilatac¸a˜o.
Os operadores de homotetia na˜o preservam nem a norma, nem o produto escalar de vetores, pois
〈T (v) , T (w)〉 = 〈kv, kw〉 = k2 〈v, w〉 (3.19)
e
‖T (v)‖ = ‖kv‖ = k ‖v‖ , (3.20)
mas preservam o aˆngulo entre vetores:
] (T (v) , T (w)) = ] (v, w) (3.21)
pois
] (T (v) , T (w)) = arccos 〈T (v) , T (w)〉‖T (v)‖ ‖T (w)‖
= arccos
〈kv, kw〉
k ‖v‖ k ‖w‖
= arccos
k2 〈v, w〉
k2 ‖v‖ ‖w‖
= arccos
〈v, w〉
‖v‖ ‖w‖
= ] (v, w) .
A inversa de uma contrac¸a˜o e´ uma dilatac¸a˜o e vice-versa. Temos
detT = k2,
de modo que homotetias tambe´m na˜o preservam a´reas.
Compresso˜es e Expanso˜es. Uma compressa˜o horizontal de raza˜o k e uma expansa˜o horizontal de
raza˜o k sa˜o definidas por
T =
[
k 0
0 1
]
(3.22)
se 0 6 k < 1 no primeiro caso e se k > 1 no segundo caso, ou seja,
T (x, y) = (kx, y) . (3.23)
Do mesmo modo, uma compressa˜o vertical de raza˜o k e uma expansa˜o vertical de raza˜o k sa˜o
definidas por
T =
[
1 0
0 k
]
(3.24)
se 0 6 k < 1 no primeiro caso e se k > 1 no segundo caso, ou seja,
T (x, y) = (x, ky) . (3.25)
Rodney Josue´ Biezuner 31
Cisalhamentos. Um cisalhamento horizontal de raza˜o k e´ definido por
T =
[
1 k
0 1
]
, (3.26)
ou seja,
T (x, y) = (x+ ky, y) . (3.27)
Um cisalhamento vertical de raza˜o k e´ definido por
T =
[
1 0
k 1
]
, (3.28)
ou seja,
T (x, y) = (x, kx+ y) . (3.29)
Compresso˜es, expanso˜es e cisalhamentos na˜o preservam nem normas, nem produtos escalares, nem
aˆngulos entre vetores. Cisalhamentos preservam a´reas, ja´ que seu determinante e´ igual a 1. Cisalhamentos
transformam quadrados em paralelogramos de mesma a´rea.
Todas os operadores lineares considerados acima sa˜o bijetivos. Vamos considerar agora alguns operadores
na˜o bijetivos.
Projec¸o˜es. A projec¸a˜o ortogonal sobre o eixo x e´ definida por
P=
[
1 0
0 0
]
(3.30)
ou seja,
P (x, y) = (x, 0) . (3.31)
A projec¸a˜o ortogonal sobre o eixo y e´ definida por
P =
[
0 0
0 1
]
(3.32)
ou seja,
P (x, y) = (0, y) . (3.33)
Em geral, a projec¸a˜o ortogonal sobre a reta que passa pela origem e faz aˆngulo θ com o eixo x
positivo e´ definida por
Pθ =
[
cos2 θ sen θ cos θ
sen θ cos θ sen2 θ
]
. (3.34)
Para deduzir a u´ltima expressa˜o, note que
Pθv − v = 12 (Hθv − v) ,
logo
Pθv =
1
2
(Hθv + v) =
1
2
(Hθ + I) v,
de modo que
Pθ =
1
2
([
cos 2θ sen 2θ
sen 2θ − cos 2θ
]
+
[
1 0
0 1
])
=
 1 + cos 2θ2 sen 2θ2sen 2θ
2
1− cos 2θ
2

=
[
cos2 θ sen θ cos θ
sen θ cos θ sen2 θ
]
.
Rodney Josue´ Biezuner 32
3.3.2 Operadores Lineares no Espac¸o R3
Como exerc´ıcio, obtenha as expresso˜es matriciais para os correspondentes operadores lineares em R3.
3.3.3 Operadores Lineares em Espac¸os de Dimensa˜o Infinita
3.8 Exemplo. Expresso˜es lineares envolvendo derivadas sa˜o operadores lineares em P [x] ou Ck (X;R) .
3.3.4 Funcionais Lineares
3.9 Definic¸a˜o. Um funcional linear e´ uma transformac¸a˜o linear f : V −→ F.
3.10 Exemplo. A projec¸a˜o na i-e´sima coordenada e´ um funcional linear, isto e´, pii : Fn −→ F definida por
pii (x1, . . . , xn) = xi.
3.11 Exemplo. A integral e´ um funcional linear em C0 (X;R):
I (f) =
∫
X
f.
3.4 Composic¸a˜o de Transformac¸o˜es Lineares
Sec¸a˜o 6.4 do livro-texto
3.12 Proposic¸a˜o. A composta de transformac¸o˜es lineares e´ uma transformac¸a˜o linear.
Prova: Sejam V,W,Z espac¸os vetoriais e T : V −→ W,S : W −→ Z transformac¸o˜es lineares. Enta˜o
S ◦ T : V −→ Z satisfaz
(S ◦ T ) (α1v1 + α2v2) = S [T (α1v1 + α2v2)] = S [α1T (v1) + α2T (v2)] = α1S [T (v1)] + α2S [T (v2)]
= α1 (S ◦ T ) (v1) + α2 (S ◦ T ) (v2) .
¥
3.13 Teorema. Sejam V , W e Z espac¸os vetoriais de dimensa˜o finita com bases BV = {x1, . . . , xn},
BW = {y1, . . . , ym} e BZ = {z1, . . . , zp}, respectivamente. Sejam T : V −→ W e S : W −→ Z
transformac¸o˜es lineares. Enta˜o
[S ◦ T ]BV ,BZ = [S]BW ,BZ [T ]BV ,BW .
Prova: Sejam
[T ]BV ,BW = B = (bij)m×n ,
[S]BW ,BZ = A = (aij)p×m .
Rodney Josue´ Biezuner 33
Temos
(S ◦ T ) (xi) = S [T (xi)] = S
 m∑
j=1
bjiyj
 = m∑
i=1
bjiS (yj)
=
m∑
i=1
bji
p∑
k=1
akjzk =
p∑
k=1
(
m∑
i=1
bjiakj
)
zk
=
p∑
k=1
(
m∑
i=1
akjbji
)
zk
=
p∑
k=1
(AB)ki zk.
¥
3.14 Definic¸a˜o. Sejam V e W espac¸os vetoriais sobre um corpo F. Denote o conjunto das transformac¸o˜es
lineares de V em W por L (V,W ). Definimos as operac¸o˜es de soma e multiplicac¸a˜o por escalar de
elementos de L (V,W ) por
(T + S) (v) := T (v) + S (v) ,
(αT ) (v) := αT (v) ,
para todo v ∈ V .
Se V =W , denotamos L (V,W ) simplesmente por L(V ).
3.15 Proposic¸a˜o. L (V,W ) e´ um espac¸o vetorial sobre F.
3.16 Proposic¸a˜o. Se V tem dimensa˜o n e W tem dimensa˜o m, enta˜o L (V,W ) tem dimensa˜o nm.
Prova: Sejam BV = {x1, . . . , xn} e BW = {y1, . . . , ym} bases ordenadas de V e W respectivamente. Para
cada par de ı´ndices ji, i = 1, . . . , n, j = 1, . . . ,m, defina Eji : V −→ W como sendo a u´nica transformac¸a˜o
linear que satisfaz
Eji (xk) = δikyj , k = 1, . . . , n,
onde δik e´ o delta de Kronecker. Em outras palavras,
Eji (xk) =
{
yj se i = k,
0 se i 6= k.
Observe que com esta definic¸a˜o, a matriz que representa Eji em relac¸a˜o a`s bases BV e BW e´ a matriz que
tem 1 na entrada ji e 0 nas demais entradas. Afirmamos que
B = {Eji : i = 1, . . . , n, j = 1, . . . ,m}
formam uma base para L (V,W ). Como este conjunto tem nm elementos, isto provara´ o resultado.
Para provar que B e´ L.I., suponha que ∑
i=1,...,n
j=1,...,m
αjiEji = 0
e´ uma combinac¸a˜o linear dos Eij produzindo a transformac¸a˜o nula (que e´ o vetor nulo em ). Enta˜o, para
cada k = 1, . . . , n temos  n∑
i=1
m∑
j=1
αjiEji
 (xk) = 0 (xk) = 0.
Rodney Josue´ Biezuner 34
Como  n∑
i=1
m∑
j=1
αjiEji
 (xk) = n∑
i=1
m∑
j=1
αjiEji (xk) =
n∑
i=1
m∑
j=1
αjiδikyj =
m∑
j=1
αjkyj ,
segue que
m∑
j=1
αjkyj = 0,
e como y1, . . . , ym sa˜o L.I., conclu´ımos que α1k = . . . = αmk = 0.
Para provar que B gera L (V,W ), seja T : V −→ W uma transformac¸a˜o linear qualquer. Para cada
i = 1, . . . , n escrevemos
T (xk) =
m∑
j=1
ajkyj .
para alguns escalares ajk ∈ F, isto e´, A = (ajk) e´ a matriz que representa a transformac¸a˜o T em relac¸a˜o a`s
bases BV e BW . Mostraremos que
T =
n∑
i=1
m∑
j=1
αjiEji,
o que provara´ que B gera L (V,W ). Com efeito, para cada k = 1, . . . , n temos n∑
i=1
m∑
j=1
αjiEji
 (xk) = n∑
i=1
m∑
j=1
αjiEji (xk) =
n∑
i=1
m∑
j=1
αji (δikyj)
=
m∑
j=1
(
n∑
i=1
δikαij
)
yj =
m∑
j=1
αkjyj
= T (xk) .
¥
3.17 Definic¸a˜o. Em L(V ), o produto de dois operadores lineares e´ definido por
TS := T ◦ S.
3.5 Isomorfismos
Sec¸a˜o 9.3 do livro-texto
3.18 Definic¸a˜o. Uma relac¸a˜o de equivaleˆncia em um conjunto A e´ uma relac¸a˜o bina´ria ∼ que satisfaz
as seguintes propriedades:
(i) (Reflexividade) a ∼ a para todo a ∈ A.
(ii) (Simetria) Se a ∼ b enta˜o b ∼ a.
(iii) (Transitividade) Se a ∼ b e b ∼ c enta˜o a ∼ c.
Estabelecer uma relac¸a˜o de equivaleˆncia em um conjunto e´ essencialmente identificar formalmente os ele-
mentos do conjunto com respeito a` relac¸a˜o.
Rodney Josue´ Biezuner 35
3.19 Exemplo. Em Z× Z\ {0} estabelecemos a relac¸a˜o de equivaleˆncia
(a, b) ∼ (c, d) se ad = bc.
Representando elementos de Z× Z\ {0} na forma de frac¸o˜es
a
b
,
isso quer dizer que estamos identificando as frac¸o˜es da maneira usual:
a
b
∼ c
d
se ad = bc.
Assim, por exemplo
1
2
∼ 2
4
∼ 5
10
e
2
1
∼ 100
50
∼ −18−9 .
¤
3.20 Definic¸a˜o. Um isomorfismo entre dois espac¸os vetoriais V e W sobre um mesmo corpo F e´ uma
transformac¸a˜o linear bijetiva T : V −→ W cuja inversa e´ linear. Quando existir, dizemos que V e W
sa˜o isomorfos e representamos isso por V ∼=W .
3.21 Proposic¸a˜o. Seja T : V −→ W uma transformac¸a˜o linear injetiva entre dois espac¸os vetoriais. Seja
Z = T (V ). Enta˜o a transformac¸a˜o inversa T−1 : Z −→ V tambe´m e´ linear.
Prova: Dados z1, z2 ∈ Z, sejam v1, v2 ∈ V tais que T (v1) = z1, T (v2) = z2. Dados α, β ∈ F, segue que
T (αv1 + βv2) = αT (v1) + βT (v2) = αz1 + βz2.
Portanto,
T−1 (αz1 + βz2) = αv1 + βv2 = αT−1 (z1) + βT−1 (z2) .
¥
3.22 Proposic¸a˜o. Isomorfia e´ uma relac¸a˜o de equivaleˆncia entre espac¸os vetoriais.
Prova: Com efeito:
(i) V ∼= V . O operador identidade I : V −→ V e´ um isomofismo.
(ii) V ∼= W implica W ∼= V . Se T : V −→ W e´ um isomorfismo, segue da proposic¸a˜o anterior que
T−1 :W −→ V tambe´m e´.
(iii) Se V ∼=W e W ∼= Z, enta˜o V ∼= Z. Se T : V −→W e S :W −→ Z sa˜o isomorfismos, enta˜o a composta
S ◦ T : V −→ Z tambe´m e´. ¥
Assim, do ponto de vista da a´lgebra linear, espac¸os isomorfos sa˜o identificados; eles sa˜o indistingu´ıveis do
ponto de vista de operac¸o˜es lineares entre vetores.
3.23 Lema. Uma transformac¸a˜o linear T : V −→W e´ injetiva se e somente se T−1 (0W ) = 0V .
Prova: Assuma T−1 (0W ) = 0V . Enta˜o, se T (x) = T (y), por linearidade segue que T (x− y) = 0W , logo
x− y = 0V e portanto x = y, ou seja, T e´ injetiva. Reciprocamente, assuma T : V −→W e´ injetiva. Como
, Se T (x) = T (y), por linearidade T (x− y) = 0W , e como T (0V ) = 0W , segue da injetividade de T que
x− y = 0V , logo x = y. ¥
3.24 Teorema. Todo espac¸o vetorial sobre F de dimensa˜o n e´ isomorfo a Fn.
Rodney Josue´ Biezuner 36
Prova: Seja B = {v1, . . . , vn} uma base para um espac¸o vetorial V sobre F de dimensa˜o n. Definimos um
isomorfismo T : V −→ Fn por
T (vi) = ei,
e declarando T linear, ou seja,
T (α1v1 + . . .+ αnvn) = α1e1 + . . .+ αnen.
E´ fa´cil ver que T e´ linear, injetivae sobrejetiva. ¥
Estabelecer coordenadas em um espac¸o vetorial e´ equivalente a estabelecer um isomorfismo entre ele e
Fn. Uma vez que fazemos isso, estamos trabalhando essencialmente em Fn. Assim, do ponto de vista
das operac¸o˜es da a´lgebra linear finita, existem apenas os espac¸os Fn. Todos os outros espac¸os vetoriais de
dimensa˜o finita sobre F sa˜o isomorfos a algum Fn, independentemente se os seus vetores sa˜o n-uplas de
escalares, segmentos orientados, matrizes, func¸o˜es ou o que seja. Tudo o que enxergamos sa˜o as relac¸o˜es
lineares.
3.25 Lema. Se n > m, enta˜o uma transformac¸a˜o linear T : Fn −→ Fm na˜o pode ser injetiva.
Prova: Mostraremos que kerT 6= {0}. Seja A a matrizm×n que representa T em relac¸a˜o a`s bases canoˆnicas
de Fn e Fm:
A =

a11 a12 . . . a1m a1m+1 . . . a1n
a21 a22 . . . a2m a2m+1 . . . a2n
...
...
. . .
...
...
. . .
...
am1 am2 . . . amm amm+1 . . . amn
 .
Resolvendo o sistema linear homogeˆneo AX = 0 para encontrar o nu´cleo de T , chegamos a` forma escalonada
reduzida 
1 0 . . . 0 b1m+1 . . . b1n
0 1 . . . 0 b2m+1 . . . b2n
...
...
. . .
...
...
. . .
...
0 0 . . . 1 bmm+1 . . . bmn
∣∣∣∣∣∣∣∣∣
0
0
...
0

(assumindo que na˜o obtemos nenhuma linha nula; se obtivermos linhas nulas, melhor ainda). Esta matriz
aumentada e´ equivalente ao sistema
x1 = −b1m+1xm+1 − . . .− b1nxn
x2 = −b2m+1xm+1 − . . .− b2nxn
...
xm = −bmm+1xm+1 − . . .− bmnxn
Como xm+1, . . . , xn podem assumir valores arbitra´rios, segue que o sistema homogeˆneo admite infinitas
soluc¸o˜es. ¥
3.26 Lema. Se n < m, enta˜o uma transformac¸a˜o linear T : Fn −→ Fm na˜o pode ser sobrejetiva.
Prova: Ja´ vimos na Proposic¸a˜o 3.3 que T (Fn) e´ um subespac¸o vetorial de Fm com dimensa˜o menor que ou
igual a n. Como dimFm = m > n e a dimensa˜o de um espac¸o vetorial e´ um invariante, segue imediatamente
que na˜o podemos ter T (Fn) = Fm. ¥
3.27 Teorema. Se n 6= m, enta˜o Fn na˜o e´ isomorfo a Fm.
3.28 Corola´rio. Se V e W sa˜o espac¸os vetoriais sobre F, enta˜o eles sa˜o isomorfos se e somente se dimV =
dimW .
Rodney Josue´ Biezuner 37
Prova: Segue dos Teorema 3.24 e 3.27 e do fato de isomorfismo ser uma relac¸a˜o de equivaleˆncia. ¥
3.29 Exemplo. Os seguintes subespac¸os sa˜o isomorfos:
R6 ∼=M2×3 (R) ∼=M3×2 (R) ∼=M6×1 (R) ∼=M1×6 (R) ∼= P5 (R)
e
C24 ∼=M1×24 (C) ∼=M24×1 (C) ∼=M2×12 (C) ∼=M12×2 (C) ∼=M3×8 (C) ∼=M8×3 (C)
∼=M4×6 (C) ∼=M6×4 (C) ∼= P23 (C) .
¤
3.30 Teorema. Sejam BV = {v1, . . . , vn} e BW = {w1, . . . , wm} bases para os espac¸os vetoriais V e W ,
respectivamente. Enta˜o a transformac¸a˜o
Φ : L (V,W ) −→Mm×n (F)
definida por
T 7→ [T ]BV ,BW
e´ um isomofismo entre espac¸os vetoriais. Mais que isso, ela tambe´m preserva o produto.
Prova: Exerc´ıcio. ¥
3.6 Teorema do Nu´cleo e da Imagem
Sec¸a˜o 6.3. 7.3 e 7.4 do livro-texto
Segue da Proposic¸a˜o 3.3 que o conjunto imagem imT de uma transformac¸a˜o linear T : V −→ W entre
espac¸os vetoriais e´ um subespac¸o deW e que o conjunto T−1 (0) e´ um subespac¸o de V ; este u´ltimo e´ chamado
o nu´cleo da transformac¸a˜o linear T e denotado kerT .
O teorema a seguir e´ um dos resultados mais importantes de A´lgebra Linear.
3.31 Teorema. (Teorema do Nu´cleo e da Imagem) Seja T : V −→W uma transformac¸a˜o linear entre dois
espac¸os vetoriais de dimensa˜o finita. Enta˜o
dimV = dim (kerT ) + dim (imT ) .
Prova: Seja {x1, . . . , xk} uma base para kerT e complete este conjunto L.I. ate´ uma base {x1, . . . , xk, xk+1, . . . , xn}
para V . Afirmamos que
B = {Txk+1, . . . , Txn}
e´ uma base para imT . De fato, dado v =
n∑
i=1
αixi, temos Tv =
n∑
i=k+1
αiTxi, ja´ que Tx1 = . . . = Txk = 0,
portanto B gera imT . Para provar que B e´ L.I., suponha que
n∑
i=k+1
αiTxi = 0.
Enta˜o,
T
(
n∑
i=k+1
αixi
)
= 0,
o que implica que
n∑
i=k+1
αixi ∈ kerT (a intersec¸a˜o dos subespac¸os 〈x1, . . . , xk〉 e 〈xk+1, . . . , xn〉 e´ o vetor
nulo), logo
n∑
i=k+1
αixi = 0 e portanto αk+1 = . . . = αn = 0. ¥
Rodney Josue´ Biezuner 38
3.32 Corola´rio. Sejam V e W espac¸os vetoriais com a mesma dimensa˜o. Enta˜o uma transformac¸a˜o linear
T : V −→W e´ injetiva se e somente se ela e´ sobrejetiva.
Prova: Pois
dimW = dimV = dim (kerT ) + dim (imT ) ,
logo dim (kerT ) = 0 se e somente se dim (imT ) = dimW . ¥
O Teorema do Nu´cleo e da Imagem da´ uma demonstrac¸a˜o alternativa dos Lemas 3.25 e 3.26:
3.33 Corola´rio. Sejam V e W espac¸os vetoriais com dimenso˜es n e m, respectivamente. Se n > m uma
transformac¸a˜o linear T : V −→W na˜o pode ser injetiva e se n < m ela na˜o pode ser sobrejetiva.
Prova: Como
n = dim (kerT ) + dim (imT ) 6 dim (kerT ) +m,
se n > m segue que
dim (kerT ) > n−m > 0.
Da mesma forma, como
n = dim (kerT ) + dim (imT ) > dim (imT ) ,
se n < m temos que
dim (imT ) < m.
¥
3.34 Exemplo. Encontre bases para kerT e imT se T : R5 −→ R4 e´ a transformac¸a˜o linear representada
nas bases canoˆnicas de R5 e R4 pela matriz
A =

1 4 5 0 9
3 −2 1 0 −1
−1 0 −1 0 −1
2 3 5 1 8
 .
Soluc¸a˜o.
Nu´cleo de T : Para encontrar kerT , resolvemos o sistema homogeˆneo AX = 0, escalonando a matriz
A ate´ chegar na forma escalonada reduzida:
1 4 5 0 9
3 −2 1 0 −1
−1 0 −1 0 −1
2 3 5 1 8
 ∼ `2 − 3`1`3 + `1
`4 − 2`1

1 4 5 0 9
0 −14 −14 0 −28
0 4 4 0 8
0 −5 −5 1 −10

∼ `2/ (−14)
`4/ (−5)
`3/4 + `2/14

1 4 5 0 9
0 1 1 0 2
0 1 1 −1/5 2
0 0 0 0 0

∼
`1 − 4`3
(−5) (`3 − `2)

1 0 1 0 1
0 1 1 0 2
0 0 0 1 0
0 0 0 0 0
 .
A matriz escalonada reduzida obtida e´ a matriz de coeficientes do sistema homogeˆneo x1 + x3 + x5 = 0x2 + x3 + 2x5 = 0
x4 = 0
Rodney Josue´ Biezuner 39
ou  x1 = −x3 − x5x2 = −x3 − 2x5
x4 = 0
.
Logo, x3 e x5 podem ser atribu´ıdos valores arbitra´rios α e β, de modo que obtemos
kerT = {(−α− β,−α− 2β, α, 0, β) : α, β ∈ R} .
Como
(−α− β,−α− 2β, α, 0, β) = (−α,−α, α, 0, 0) + (β, 2β, 0, 0, β)
= α (−1,−1, 1, 0, 0) + β (1, 2, 0, 0, 1) ,
segue que uma base para kerT e´ dada por
BkerT = {(−1,−1, 1, 0, 0) , (1, 2, 0, 0, 1)} . (3.35)
Em particular,
dim (kerT ) = 2 (3.36)
e segue do Teorema do Nu´cleo e da Imagem que
dim (imT ) = 5− 2 = 3.
Imagem de T : Sabemos que a imagem de T e´ gerada pelos vetores colunas da matriz A. Para
encontrar uma base para imT basta determinar quais destes geradores sa˜o L.I. Isso pode ser feito
de va´rias maneiras. Podemos tomar a matriz transposta de A e escalona´-la ate´ chegar na sua forma
escalonada. Os vetores linha de A formara˜o uma base para imT :
1 3 −1 2
4 −2 0 3
5 1 −1 5
0 0 0 1
9 −1 −1 8
 ∼
`2 − 4`1
`3 − 5`1
`5 − 9`1

1 3 −1 2
0 −14 4 −5
0 −14 4 −5
0 0 0 1
0 −28 8 −10

∼
`2
`4
`3 − `2
`5 − 2`2

1 3 −1 2
0 −14 4 −5
0 0 0 1
0 0 0 0
0 0 0 0

de modo que uma base para imT e´ dada por
BimT = {(1, 3,−1, 2) , (0,−14, 4,−5) , (0, 0, 0, 1)} . (3.37)
Outra maneira de encontrar uma base para imT e´ observar que como dim (imT ) = 3, conforme
obtivemos acima, basta encontrar 3 vetores colunas de A que sa˜o linearmente independentes. Isso e´
mais fa´cil de ver na matriz escalonada reduzida de A que obtivemos acima:
1 0 1 0 1
0 1 1 0 2
0 0 0 1 0
0 0 0 0 0
 .
Chamando as colunas desta matriz de w1, w2, w3, w4 e w5, embora elas na˜o gerem imT (por exemplo,
o vetor (0, 0, 0, 1), que esta´ na imagem de T porque e´ o quarto vetor coluna da matriz A, na˜o pode
Rodney Josue´ Biezuner 40
ser escrito de forma alguma como combinac¸a˜o linear de w1, w2, w3, w4, w5), elas preservam as relac¸o˜es
lineares entre os vetores colunas de A, que chamaremos de v1, v2, v3, v4 e v5. Observando que
w3 = w1 + w2,
w5 = w2 + w3,
e que os vetores w1, w2 e w4 sa˜o L.I., segue tambe´m que
v3 = v1 + v2,
v5 = v2 + v3,e que os vetores v1, v2 e v4 sa˜o L.I., de modo que outra base para imT e´
BimT = {(1, 3,−1, 2) , (4,−2, 0, 3) , (0, 0, 0, 1)} . (3.38)
¤
3.7 Teorema do Posto
Sec¸o˜es 7.3 e 7.5 do livro-texto
3.35 Definic¸a˜o. Se A ∈Mm×n (F), enta˜o existem 3 subespac¸os vetoriais importantes associados com A:
1. O espac¸o-linha lin (A) de A e´ o subespac¸o de Fn gerado pelos vetores-linha de A.
2. O espac¸o-coluna col (A) de A e´ o subespac¸o de Fn gerado pelos vetores-coluna de A.
3. O nu´cleo ou espac¸o nulo ker (A) de A e´ o subespac¸o de Fn soluc¸a˜o do sistema homogeˆneo
AX = 0.
3.36 Definic¸a˜o. O posto de uma matriz e´ a dimensa˜o do espac¸o-coluna da matriz e a sua nulidade e´ a
dimensa˜o do seu nu´cleo.
Do Teorema do Nu´cleo e da Imagem segue que se A ∈Mm×n (F), enta˜o
posto (A) + nulidade (A) = n.
O resultado a seguir tambe´m e´ um dos mais importantes em A´lgebra Linear.
3.37 Teorema. (Teorema do Posto) Seja A ∈Mm×n (F) uma matriz. Enta˜o
dim lin (A) = dim col (A) .
Prova: Suponha que dimlin (A) = k. Isso significa que a forma escalonada reduzida R de A tem k vetores-
linha na˜o-nulos, digamos R1, . . . , Rk. Como A e R tem o mesmo espac¸o-linha, segue que os vetores-linha
A1, . . . , Am de A podem ser escritos como combinac¸o˜es lineares dos vetores-linha de R, digamos
A1 = c11R1 + c12R2 + . . .+ c1kRk,
A2 = c21R1 + c22R2 + . . .+ c2kRk,
...
Am = cm1R1 + cm2R2 + . . .+ cmkRk.
Isso implica que o j-e´simo elemento da linha Ai e´ dado por
Aij = ci1R1j + ci2R2j + . . .+ cikRkj .
Rodney Josue´ Biezuner 41
Logo, a j-e´sima coluna da matriz A e´ dada por
A1j
A2j
...
Amj
 = R1j

c11
c21
...
cm1
+R2j

c12
c22
...
cm2
+ . . .+Rkj

c1k
c2k
...
cmk
 .
Portanto, o espac¸o-coluna de A tambe´m e´ gerado por k vetores. Isso implica que
dim col (A) 6 dim lin (A) , (3.39)
ja´ que na˜o sabemos em princ´ıpio se estes vetores sa˜o linearmente independentes. Mas isso vale para qualquer
matriz, em particular tambe´m vale para a transposta de A, logo tambe´m temos
dim col
(
AT
)
6 dim lin
(
AT
)
. (3.40)
Mas
dim col
(
AT
)
= dim lin (A) ,
dim lin
(
AT
)
= dim col (A) ,
logo (3.40) e´ equivalente a
dim lin (A) 6 dim col (A) . (3.41)
Colocando (3.39) e (3.41) juntos, conclu´ımos que
dim lin (A) = dim col (A) .
¥
Em vista do Teorema do Posto, segue que o posto de uma matriz tambe´m e´ a dimensa˜o de seu espac¸o-linha.
3.8 Mudanc¸a de Base e Semelhanc¸a de Matrizes
Sec¸o˜es 8.1 e 8.2 do livro-texto
3.38 Teorema. Sejam B = {v1, . . . , vn} e B′ = {v′1, . . . , v′n} duas bases para o espac¸o vetorial V . Seja
T : V −→ V um operador linear. Enta˜o existe uma u´nica matriz invert´ıvel P tal que
[T ]B′ = P [T ]B P
−1,
[T ]B = P
−1 [T ]B′ P.
As colunas de P sa˜o dadas pelas coordenadas dos vetores da base B com relac¸a˜o a` base B′, ou seja,
P = [[v1]B′ . . . [vn]B′ ] .
Prova: Sabemos que
[v]B = P
−1 [v]B′ ,
[Tv]B = P
−1 [Tv]B′ ,
para todo vetor v ∈ V . Por definic¸a˜o, tambe´m temos
[Tv]B = [T ]B [v]B .
Rodney Josue´ Biezuner 42
Logo,
P−1 [Tv]B′ = [T ]B P
−1 [v]B′ ,
donde
[Tv]B′ = P [T ]B P
−1 [v]B′ .
Mas, por definic¸a˜o,
[Tv]B′ = [T ]B′ [v]B′ ,
logo
[T ]B′ [v]B′ = P [T ]B P
−1 [v]B′ ,
o que significa que
[T ]B′ = P [T ]B P
−1.
¥
Observe que a matriz P nada mais e´ que a matriz de mudanc¸a de base da base B para a base B′ e portanto
P−1e´ a matriz de mudanc¸a de base da base B′ para a base B. Assim,
[T ]B′ = MudaB→B′ [T ]BMudaB′→B
3.39 Definic¸a˜o. Sejam A,B ∈ Mn (F) duas matrizes quadradas. Dizemos que A e B sa˜o semelhantes se
existe uma matriz invert´ıvel P ∈Mn (F) tal que B = P−1AP .
Segue da rec´ıproca do Teorema 3.30 que duas matrizes sa˜o semelhantes se em cada espac¸o vetorial sobre F
fixado elas representam a mesma transformac¸a˜o linear em relac¸a˜o a duas bases (possivelmente) distintas.
3.40 Exemplo. Seja T : R3 −→ R3 a transformac¸a˜o linear representada na base canoˆnica de R3 pela matriz
A =
 4 2 22 4 2
2 2 4
 .
Encontre a matriz de T em relac¸a˜o a` base B = {(1,−1, 0) , (1, 0,−1) , (1, 1, 1)} .
Soluc¸a˜o. Temos
P−1 =
 1 1 1−1 0 1
0 −1 1
 ,
donde
P =
 1 1 1−1 0 1
0 −1 1
−1 =

1
3 − 23 13
1
3
1
3 − 23
1
3
1
3
1
3
 .
Logo,
[T ]B = PAP
−1 =

1
3 − 23 13
1
3
1
3 − 23
1
3
1
3
1
3

 4 2 22 4 2
2 2 4
 1 1 1−1 0 1
0 −1 1
 =
 2 0 00 2 0
0 0 8
 .
¤
Cap´ıtulo 4
Espac¸os com Produto Interno
4.1 Produto Interno
4.1 Definic¸a˜o. Seja V um espac¸o vetorial real. Um produto interno em V e´ uma func¸a˜o 〈·, ·〉 : V ×V −→
R que satisfaz as seguintes propriedades:
(i) 〈x+ y, z〉 = 〈x, z〉+ 〈y, z〉 para todos x, y, z ∈ V ;
(ii) 〈αx, y〉 = α 〈x, y〉 para todos x, y ∈ V e para todo α ∈ R;
(iii) 〈x, y〉 = 〈y, x〉 para todos x, y ∈ V ;
(iv) 〈x, x〉 > 0 para todo x 6= 0.
Um espac¸o vetorial real de dimensa˜o finita dotado de um produto interno e´ frequ¨entemente chamado
um espac¸o euclidiano.
4.2 Proposic¸a˜o. Em um espac¸o euclidiano valem as seguintes propriedades:
1.
〈x, x〉 > 0 para todo x ∈ V.
2.
〈x, x〉 = 0 se e somente se x = 0.
〈x, αy〉 = α 〈x, y〉 para todos x, y ∈ V e para todo α ∈ R.
Em resumo,
〈αx+ βy, z〉 = α 〈x, z〉+ β 〈y, z〉 para todos x, y, z ∈ V e para todos α, β ∈ R. (4.1)
4.3 Exemplo. Definimos um produto interno em Rn da seguinte forma. Se x = (x1, . . . , xn) e y =
(y1, . . . , yn), enta˜o
〈x, y〉 =
n∑
i=1
xiyi. (4.2)
Este e´ o chamado produto interno canoˆnico em Rn. ¤
43
Rodney Josue´ Biezuner 44
4.4 Exemplo. Identificando Rn com o espac¸o das matrizes reais n× 1 (matrizes colunas reais), dada uma
matriz real n× n invert´ıvel A, definimos um produto interno em Rn por
〈x, y〉 = yt (AtA)x. (4.3)
Note que AtA e´ uma matriz sime´trica. Quando A = I, obtemos o produto interno canoˆnico em Rn.
Vamos verificar apenas as propriedades (iii) e (iv) da Definic¸a˜o 4.1, ja´ que a verificac¸a˜o das demais
propriedades e´ imediata. Como a matriz AtA e´ sime´trica e a transposta de uma matriz 1 × 1 (um
nu´mero) e´ ela pro´prio, temos
〈x, y〉 = yt (AtA)x = [xt (AtA) y]t = xt (AtA) y = 〈y, x〉 .
Em seguida, observando que (
AtA
)
ij
=
n∑
r=1
atirarj =
n∑
r=1
ariarj .
Da´ı,
〈x, x〉 = xt (AtA)x = n∑
i=1
x1i
[(
AtA
)
x
]
i1
=
n∑
i=1
x1i
 n∑
j=1
(
AtA
)
ij
xj1
 = n∑
i=1
x1i
 n∑
j=1
n∑
r=1
ariarjxj1

=
n∑
i,j,r=1
xixjariarj =
n∑
r=1
(
n∑
i=1
arixi
) n∑
j=1
arjxj
 = n∑
r=1
∣∣∣∣∣
n∑
i=1
arixi
∣∣∣∣∣
2
> 0.
Agora, como A e´ invert´ıvel, se x 6= 0 existe pelo menos algum r tal que
n∑
i=1
arixi 6= 0
(este somato´rio e´ exatamente o r-e´simo elemento da matriz Ax) logo 〈x, x〉 > 0. ¤
4.5 Exemplo. Se V e´ um espac¸o vetorial e W e´ um espac¸o vetorial com produto interno, ambos sobre o
mesmo corpo R, se T : V −→ V e´ um isomorfismo, definimos um produto interno em V a partir do
produto interno em W por
〈x, y〉V := 〈Tx, Ty〉W . (4.4)
Dizemos que 〈·, ·〉V e´ o produto interno em V induzido pelo produto interno em W atrave´s do iso-
morfismo T . Na verdade, e´ suficiente que T seja uma aplicac¸a˜o linear injetiva para esta definic¸a˜o fazer
sentido (pois T e´ um isomorfismo de V sobre a sua imagem). ¤
4.6 Exemplo. Definimos um produto interno em Mn (R) por
〈A,B〉 =
n∑
i,j=1
aijbij . (4.5)
Usando a transposta e a func¸a˜o trac¸o, este produto pode ser escrito na forma
〈A,B〉 = tr (ABt) .
¤
Rodney Josue´ Biezuner 45
4.7 Exemplo. Se C ([0, 1] ;R) denota o espac¸o das func¸o˜es cont´ınuas no intervalo [0, 1] com valores em R,
definimos um produto interno neste espac¸o de dimensa˜o infinita por
〈f, g〉 =
∫ 1
0
f (t) g (t) dt. (4.6)
¤
4.8 Proposic¸a˜o. Seja V um espac¸o

Outros materiais