Buscar

Álgebra Linear Oliveira, Victor R IFSP SP

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 20 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 20 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 20 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Álgebra Linear 1 (AG1M4) e 2 (AG2M5) - IFSP-SP
Victor Rodrigues de Oliveira
oliveira.victorr@msn.com
Sumário
1 Espaços Vetoriais 3
1.1 Subespaços vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Independência e Dependência Linear . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Subespaço gerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.5 Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2 Espaços vetoriais Euclidianos 5
2.1 Produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Norma de um vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2.1 Distância entre dois vetores . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.3 Ângulo entre dois vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.3.1 Vetores Ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.3.2 Conjunto de vetores ortogonais . . . . . . . . . . . . . . . . . . . . . . . 6
2.4 Bases ortogonais e ortonormais . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4.1 Processo de ortogonalização de Gram-Schmidt . . . . . . . . . . . . . . . 7
2.5 Complemento ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3 Transformações Lineares 8
3.1 Núcleo e Imagem de uma transformação linear . . . . . . . . . . . . . . . . . . . 9
3.2 Teorema do Núcleo e Imagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.3 Matriz de uma transformação linear . . . . . . . . . . . . . . . . . . . . . . . . . 10
4 Operações com transformações lineares 11
4.1 Transformações lineares planas . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.2 Transformações lineares espaciais . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5 Operadores Lineares 16
5.1 Operadores Inversíveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.2 Matriz de mudança de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.3 Operadores ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
5.4 Operadores simétricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
5.5 Autovalores e Autovetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.6 Matriz Diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.7 Polinômio característico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2
1 Espaços Vetoriais
Um Espaço Vetorial E é um conjunto de elementos chamados de vetores. A operação de
soma entre esses vetores e de sua multiplicação por um número real deve obedecer os seguintes
axiomas:
• comutatividade:
u+ v = v + u
• associatividade:
(u+ v) + w = u+ (v + w)
• vetor nulo:
Existe um vetor 0 ∈ E ,chamado vetor nulo, ou vetor zero, tal que v+0 = 0+ v = v para
todo v ∈ E
• inverso aditivo:
Para cada vetor v ∈ E existe um vetor −v ∈ E chamado inverso aditivo ou vetor simétrico
tal que v + (−v) = −v + v = 0
• distributividade:
(α + β) · v = α · v + β · v e (u+ v) · α = α · u+ α · v
• multiplicação por 1:
1 · v = v
1.1 Subespaços vetoriais
Um subespaço vetorial de E é um conjunto F ⊂ E com as seguintes propriedades:
1. 0 ∈ F ;
2. Se u, v ∈ F então u+ v ∈ F ;
3. v ∈ F então, para todo α ∈ R, temos que α · v ∈ F .
1.2 Independência e Dependência Linear
Seja E um espaço vetorial. Diz-se que um conjunto X ∈ E é linearmente independente
(L.I.) quando nenhum vetor v ∈ X é combinação linear de outros vetores de X .
Por definição, se X = v, v é L.I., para v 6= 0. Quando X é L.I. dizemos que ∀v ∈ X é
L.I. Quando um conjunto é L.I. seus elementos são todos diferentes de 0, pois o vetor nulo é
combinação linear de quaisquer outros vetores:
0 = v1 · α1 + v2 · α2, · · · , vn · αn
α1 = α2 = · · · = αn = 0
3
Definição 1.1. : Seja X um conjunto L.I. no espaço vetorial E.
n∑
i=1
αi · vi = 0⇔ α1 = α2 = · · · = αn = 0
Definição 1.2. Sejam v1, · · · , vn ∈ E. Se nenhum deles é combinação linear dos outros, então
X = {v1, · · · , vn} é L.I.
Vem da Definição 2 que um conjunto X ∈ E é linearmente dependente (L.D.) quando
não é L.I., o que significa que algum dos vetores em X é combinação linear de outros vetores,
ou que X = {0}. Sendo assim, para que um conjunto X seja L.D. é necessário que exista uma
combinação linear de vetores nula α1 · v1 + · · ·+ αn · vn = 0, sendo v1, · · · , vn ∈ X com algum
αi 6= 0,∀i = 1, · · · , n. Se o conjunto X possuir o vetor nulo, então é necessariamente L.D.
1.3 Subespaço gerado
Seja V um espaço vetorial e A = {v1, · · · , vn} um sub-conjunto não vazio de V. Dizemos
que um dado [A] =
n∑
i=1
αi · vn (∀α ∈ R e ∀ i = 1, · · · , n), ou seja, o conjunto de todas as combi-
nações lineares de v1, · · · , vn ∈ V , é subespaço vetorial de V e também chamado de subespaço
gerado por A.
Se existe A ⊂ V tal que V = [A], dizemos que V é gerado por A, ou que A é gerador de
V. Se A ⊂ V é finito, dizemos que V é finitamente gerado.
Definição 1.3. Seja V um espaço vetorial sobre R. Um subconjunto B ⊂ V é chamado de base
de V se B gera V sendo B L.I.
1.4 Bases
Sejam V um espaço vetorial sobre o conjunto R dos reais e B ⊂ R um conjunto não-vazio.
Dizemos que B gera V se todo elementos de V são combinações lineares de um número finito
de vetores de B.
Dado um conjunto B = {v1, . . . , vn} ⊂ V é possível adicionar um vetor em B de tal modo
que B se torne gerador se V. Para tanto basta que o vetor a ser adicionado seja L.I. em relação
aos vetores existentes em B.
Assim, todo espaço vetorial finitamente gerado possui uma base com vetores L.I.∈ B. A
base ser constituída de vetores L.I. é a garantia de que os vetores gerados por essa base serão
escritos de maneira única.
Ainda, tendo B = {v1, . . . , vn} base ordenada de V, escrevemos V = {α1, . . . , αn}B, com
(α1, . . . , αn) ∈ R.
4
1.5 Dimensão
Se V é finitamente gerado, chama-se dimensão de V (Notação: dimV) o número de ele-
mentos de uma base qualquer de V. Se não for finitamente gerado, diz-se que sua dimensão é
infinita.
2 Espaços vetoriais Euclidianos
Um espaço vetorial sobre os reais onde está definido o produto interno entre vetores é
chamado de espaço vetorial euclidiano.
2.1 Produto interno
É chamado de produto interno em um espaço vetorial V a operação que associa dois ve-
tores u, v ∈ V a um numero real, e é denotada por 〈u, v〉.
Em geral
n∑
i=1
αi · ui · vi, (αi 6= 0, ∀i = 1, . . . , n) é um produto interno do Rn.
Seja V um espaço vetorial sobre R, o produto interno em V é uma função
〈., .〉V× V→ R
(u, v) 7→ 〈u, v〉
que satisfaz os seguintes axiomas ∀ u, v, w ∈ V e α ∈ R:
1. 〈u, v〉 = 〈v, u〉;
2. 〈u+ v, w〉 = 〈u · w, v · w〉;
3. 〈αu, v〉 = α〈u, v〉;
4. 〈u, v〉 > 0 e 〈u, u〉 = 0⇔ u = 0.
Dos axiomas acima vem as seguintes propriedades:
1. 〈u+ v, w〉 = 〈w, u+ v〉;
2. 〈u, α.v〉 = α〈v, u〉;
3. 〈0, u〉 = 0, ∀u ∈ V.
Obs.: Em C-espaço vetorial com produto interno definido, temos que :
〈u, v〉 =
 〈u, v〉 = 〈u, v〉e
λ〈u, v〉 = λ〈u, v〉
onde 〈u, v〉 é o conjugado de 〈u, v〉 e λ é o conjugado de λ.
5
2.2 Norma de um vetor
Seja V um espaço vetorial euclidiano. Norma (ou módulo) de um vetor v ∈ V, denotado
por ‖ u ‖ ou | u |, é o número real √〈u, u〉.
Propriedades: Seja V um espaço vetorial euclidiano. Para todo u, v ∈ V e λ ∈ R temos:
1. |v| > 0 e |v| = 0⇔ v = 0;
2. |λ · v| = |λ| · |v|;
3. |u+ v| 6 |u|+ |v| (Desigualdade Triangular);
4. |〈u, v〉| 6 |u| · |v| (Desigualdade de Cauchy-Schwarz):
Temos que, para ∀ v ∈ V com v 6= 0,
∥∥∥∥ v|v|
∥∥∥∥ = 1, ou seja, é igual ao vetor unitário.
2.2.1 Distância entre dois vetores
Chama-se distância entre dois vetores (u e v) e denotado por d(u − v),o numero real
| (u− v)|. Portanto d(u− v) = |(u− v)|.
2.3 Ângulo entre dois vetores
Sejam V um espaço vetorial euclidiano e u, v ∈ V não nulos. O ângulo θ, 0 < θ < pi, tal
que cos θ =
〈u, v〉
| u | · | v | é chamado de ângulo entre u e v.
Logo θ = arccos
〈u, v〉
| u | · | v | .
2.3.1 Vetores Ortogonais
Dois vetores u e v pertencentes a um dado espaço vetorial euclidiano V são ditos ortogo-
nais (u ⊥ v) se e somente se 〈u, v〉 = 0.
Propriedades:
1. O vetor 0 ∈ V é ortogonal a qualquer vetor.
2. ∀α ∈ R, 〈α · u, v〉 = 0 = α〈u, v〉, logo u ⊥ v ⇒ αu ⊥ v;
3. Em geral u, v ∈ V com u, v ⊥ w ⇒ αu+ βv ⊥ w, ∀α, β ∈ R
2.3.2 Conjunto de vetores ortogonais
Seja V um espaço vetorial euclidiano. Um conjunto A ⊂ V é dito ortogonal se u ⊥
v, ∀u, v ∈ V, com u 6= 0, ou seja, A é ortogonal se os vetores de A foram dois a dois ortogonais.
Dada a definição, temos que todo conjunto ortogonal de vetores não nulos é L.I.. Também
temos que, sendo V um espaço vetorial de dimensão finita n, se B com B ⊂ V for um conjunto
6
ortogonal com n elementos, então B é base de V.
2.4 Bases ortogonais e ortonormais
Seja V um espaço vetorial euclidiano, sabemos que uma base B de V é dita ortogonal
se os vetores de B forem ortogonais. Se além disso, |u| = 1, ∀u ∈ B, B é chamado de base
ortonormal de V.
2.4.1 Processo de ortogonalização de Gram-Schmidt
Sejam V um espaço vetorial euclidiano e B = {v1, . . . , vn} uma base qualquer de V. Que-
remos A = {u1, . . . , un} base ortogonal de V a partir de B.
un = vn −
n−1∑
i=1
〈vn, ui〉
|ui|2 · ui
Ou seja:
u1 = v1
u2 = v2 − 〈v2, u1〉|u1|2 · u1
u3 = v3 − 〈v3, u1〉|u1|2 · u1 −
〈v3, u2〉
|u2|2 · u2
Logo:
un = vn − 〈vn, u1〉|u1|2 · u1 − · · · −
〈vn, un−1〉
|un−1|2 · un−1
Esse processo é chamado de ortogonalização de Gram-Schmidt. A partir do conceito acima,
é possível obter os coeficientes que geram um determinado vetor a partir de uma base dada.
Sejam V um espaço vetorial euclidiano, B = {v1, . . . , vn} uma base ortogonal de V, e u ∈ V.
Então u = α1 · v1, . . . , αn · vn, ∀α1, . . . , αn ∈ R :
〈u, v1〉 = 〈α1 · u1 + · · ·+ αn · un, v1〉
〈u, v1〉 = α1〈u1, v1〉+ · · ·+ αn〈un, v1〉
〈u, v1〉 = α1 · |v1|2 ⇒ α1 = 〈u, v1〉|v1|2 .
Analogamente para i = 1, 2, . . . , n:
αn =
〈u, v1〉
|v1|2 · v1 + · · ·+
〈u, vn〉
|vn|2 · vn
ou
7
n∑
i=1
〈u, vi〉
|vn|2 · vi
E se B é ortonormal, então:
n∑
i=1
〈u, vi〉 · vi.
2.5 Complemento ortogonal
Sejam V um espaço vetorial euclidiano e S um subconjunto não-vazio de V. O conjunto
S⊥ = {u ∈ V/u ⊥ S} é chamado ortogonal a S. Sabemos então que se um vetor u ∈ V é
ortogonal a um conjunto B, sendo B L.I., significa que ele também é ortogonal ao espaço gerado
por B. E também é correto deduzir que sendo u ∈ V e u ⊥ V então u = 0.
Se S é subespaço vetorial de V, então V = S + S⊥, e portanto V = S ⊕ S⊥, já que
S ∩ S⊥ = {∅}.
3 Transformações Lineares
Definição 3.1. Sejam U e V espaços vetoriais (de dimensão finita ou não) sobre R. Uma fun-
ção T:U→ V é chamada transformação (ou aplicação) linear se ∀ u, v ∈ U, ∀α ∈ R, tem-se :
T (u+ v) = T (u) + T (v)
e
T (α.u) = α.T (u)
Obs.: Uma transformação linear é uma função entre espaços vetoriais em que se preservam
as operações.
Sejam U e V espaços vetoriais sobre R:
Id : U→ U
Id(u) = u
e
T : U→ U
T (u) = 0
São aplicações lineares chamadas identidade e nula respectivamente. Com efeito, ∀ u, v ∈
U e α ∈ R, temos: {
Id(u+ v) = u+ v = Id(u) + Id(v);
Id(α.u) = α.u = α.Id(u).
e{
T (u+ v) = 0 + 0 = T (u) + T (v);
T (αu) = 0 = α.0 = αT (0)
Propriedades: Seja T : U→ V uma transformação linear. Então:
8
1. T (0) = 0; (T (0) = 0U)
2. T é linear se e somente se:
T (α.u+ v) = α.T (u) + T (v) ∀u, v ∈ U, ∀α ∈ R
3. Se T : U→ V é linear, então ∀u, v ∈ U e ∀α, β ∈ R temos:
T (α.u+ β.v) = α.T (u) + β.T (v)
4. Se T : U→ V é linear então ∀n ∈ N, n > 2, ∀u1, · · · , un ∈ U, ∀α1, · · · , αn ∈ R temos
T(
n∑
i=1
αi.ui) =
n∑
i=1
αi.T(ui).
Obs.: Uma transformação linear T : U→ V fica completamente definida quando conhecemos
as imagens dos vetores de uma base. De fato, se B = {u1, · · · , un} é base de U e u ∈ U então
u =
n∑
i=1
αi.ui, e portanto, T (u) = T
(
n∑
i=1
αi.ui
)
=
n∑
i=1
αi.T (ui). Desse modo, obtemos todas as
outras imagens em função das combinações lineares das imagens da base.
3.1 Núcleo e Imagem de uma transformação linear
T : U→ V é uma aplicação linear;
ImT : imagem de T;
ImT = {T (u) : u ∈ U}; (= T(u))
KerT (ou NucT ) : núcleo ou kernel de T;
KerT = {u ∈ U : T (u) = 0}1
Obs.:
1. KerT ⊂ U e ImT ⊂ V
2. Como T (0v) = 0v, segue que KerT 6= 0 e ImT 6= 0
3. Uma aplicação linear T : U→ V bijetora2 é chamada de isomorfismo. Nesse caso U e V
são ditos isomorfos, e é denotado por U ' V
Proposição 1. Seja T : U→ V uma transformação linear. O núcleo e a imagem de T são
subespaços vetoriais de U e V respectivamente. Isso vem do fato do vetor nulo pertencer tanto
ao núcleo quanto à imagem.
Demonstração. isso é uma prova?
Proposição 2. Seja T:U→ V uma transformação linear. T é injetora se e somente se
kerT = {0}.
Sejam U e V espaços vetoriais reais e T:U→ V uma transformação linear:
1 O Núcleo é o conjunto de vetores pertencentes ao domínio que, numa transformação linear, sua imagem é
o vetor nulo.
2 Uma função (f : A → B) é bijetora se for injetora (xa 6= xb ⇒ f(a) 6= f(b)) e sobrejetora (Imf=B (∀y ∈
B,∃x ∈ A/y = f(x)).
9
• Se {T (u1), . . . , T (un)} ⊂ V é L.I., então {u1, . . . , un} é L.I.
• T é injetora se e somente se T leva cada conjunto L.I. de U e um subconjunto L.I. de V.
Seja T:U→ V uma aplicação linear. Se {u1, . . . , un} é base de U então, {T (u1), . . . , T (un)}
imagem de T.
Corolário: Se T:U→ V é uma aplicação linear injetora e B={u1, · · · , un} é uma base de U,
então T(B)= {T (u1), . . . , T (un)} é uma base de ImT.
Corolário: Seja T:U→ V uma transformação linear com U e V de dimensão finita n. T é
injetora se e somente se T é sobrejetora.
3.2 Teorema do Núcleo e Imagem
Sejam U e V espaços vetoriais sobre R, U de dimensão finita, e T:U→ V uma transformação
linear. Então:
dimU = dimKerT+ dimImT
3.3 Matriz de uma transformação linear
Sejam U e V espaços vetoriais reais com dimU = n e dimV = m. Sejam T:U→ V uma
transformação linear, A = {u1, · · · , un} uma base de U e B = {v1, · · · , vn} uma base de V.
Chama-se matriz T nas bases A e B, e denotada por [T ]AB (ou [T ]BA), a matriz que leva as
respectivas imagens de T obtidas dos vetores de u ∈ A a serem escritas em termos de vetores
da base B.
Fazendo:
u = (α1, α2, . . . , αn)A → [u]A =

α1
α2
...
αn
 e T (u) = (β1, . . . , βn)B → [T (u)]B =
 β1...
βn

temos [T ]AB · [u]A = [T (u)]B, ou seja:
a11 a12 · · · a1n
a21 a22 · · · a2n
...
... . . .
...
am1 am2 · · · amn
 ·

α1
α2
...
αn
 =

β1
β2
...
βn

Obs.:
1. [T ]AB transforma vetores de U escritos na base A em vetores de V na base B;
2. A j-ésima coluna de [T ]AB é formada pelas coordenadas da imagem do i-ésimo vetor de
A em relação à base B;
3. Se T : U→ V é uma aplicação linear, dimU = n e dimV = m, a matriz [T ]AB é do tipo
m× n;
10
4. Mudando-se as bases muda-se a matriz, mas fixado um par de base a matriz da
transformação é única.
5. Se T : U→ V é linear, dimU = n e A é base de U, então:
• [T ]AA também é escrita [T ]A;
• [T ]A é quadrada de ordem n.
6. Se T : U→ V é linear e U e V admitem bases canônicas (finitas), A e B
respectivamente, então escreveremos [T ] em vez de [T ]AB.
7. Se dimU = n, B = {v1, . . . , vn} é base de V. Id : V→ V é transformação identidade,
então [Id]B = In, ou seja
Id(v1) = (1, 0, 0, · · · , 0)B
Id(v2) = (0, 1, 0, · · · , 0)B
...
Id(vn) = (0, 0, 0, . . . , 1)B
→

1 0 0 · · · 0
0 1 0 · · · 0
...
...
... . . .
...0 0 0 · · · 1
 = Idn
4 Operações com transformações lineares
1. Adição:
Sejam S, T : U→ V duas aplicações lineares. A aplicação S + T : U→ V definida por
(S + T )(u) = S(u) + T (u), ∀u ∈ U é chamada soma de S e T . É fácil provar que se U e V
tem dimensões finitas, A é base de U e B é base de V, então.
[S + T ]AB = [S]AB + [T ]AB
2. Multiplicação por escalar:
Sejam T : U→ V uma transformação linear e α ∈ R. A aplicação α · T : U→ V definida por
(α · T )(u) = αT (u) é chamada produto de α por T . Se U e V tem dimensão finita, A e B são
bases de U e V respectivamente, é possível mostrar que
[α · T ]AB = α · [T ]AB
.
Sejam U e V espaços vetoriais sobre R. O conjunto de todas as transformações lineares de
U em V é denotado por L(U,V), ou seja,
L(U,V) = {T : U→ V/T é transformação linear}
L(U,V) munido das operações de adição e multiplicação por escalar anteriormente definidas é
um espaço vetorial sobre R. Em particular L(U,R) é denotada por U∗. As transformações de
U∗ são chamadas de formas, ou funcionais lineares. Assim,
U∗ = {f : U→ R/f é aplicação linear}
11
Obs.:
Se dimU = n e dimV = m então dimL(U,V) = m× n. Em particular,
dimU∗ = dimU× dimR = n× 1 = n.
3. Composição:
Dadas duas transformações lineares T : U→ V e S : V→W, a aplicação S ◦ T : U→W,
composta de S com T , é linear.
Obs.:
1. Pode-se escrever ST em vez de S ◦ T .
2. Se U,V e W são espaços vetoriais de dim <∞, A,B e C bases de U,V e W
respectivamente, e T : U→ V e S : V→W são transformações lineares, é possível
provar que:
[S ◦ T ]AC = [S]BC · [T ]AB
Em particular, se U,V e W tem bases canônicas, então:
[S ◦ T ] = [S] · [T ]
3. Podemos tomar a composta de 3 ou mais transformações lineares.
4. Se T : U→ V é linear e n ∈ N, n > 2, então T n = T ◦ T ◦ · · · ◦ T , n vezes e T 0 = Id.
Se p(x) = a0 + a1x+ a2x2 + · · ·+ anxn é um polinômio, então
p(T ) = a0Id+ a1T + a2T
2 + · · ·+ anT n é uma transformação linear de U em V.
Obs.: T : U→ V operador linear de U em V e n ∈ N, U com dim <∞ e B base de U:
[T n]B = [T ]nB
Sejam U e V espaços vetoriais reais de dimensão finita, e T : U→ V uma transformação
linear:
• T é injetora ⇒ dimU 6 dimV;
• T é sobrejetora ⇒ dimU > dimV;
• T é bijetora ⇒ dimU = dimV.
Sejam U e V espaços vetoriais reais de dimensão finita, A e B bases de U e V
respectivamente e T : U→ V uma aplicação linear. T é isomorfismo ⇔ det[T ]AB 6= 0.
Sejam U e V espaços vetoriais reais de dimensão finita, A e B bases de U e V
respectivamente e T : U→ V um isomorfismo (T é linear e bijetora).
1. T−1 : V→ U é isomorfismo;
2. det[T ]AB 6= 0;
12
3. [T−1]BA = [T ]AB.
É importante notar que, toda transformação definida por combinações lineares dos vetores
do domínio é linear.
4.1 Transformações lineares planas
T : R2 → R2
Reflexões:
1. Em torno do eixo x:
T (x, y) = (x,−y)→
[
1 0
0 −1
]
det[T ] 6= 0⇒ T é isomorfismo.
T−1 = T
2. Em torno do eixo y:
T (x, y) = (−x, y)→
[−1 0
0 1
]
det[T ] 6= 0⇒ T é isomorfismo.
T−1 = T
3. Em torno da origem:
T (x, y) = (−x,−y)→
[−1 0
0 −1
]
det[T ] 6= 0⇒ T é isomorfismo.
T−1 = T
4. Em torno da reta y = x:
T (x, y) = (y, x)→
[
0 1
1 0
]
det[T ] 6= 0⇒ T é isomorfismo.
T−1 = T
5. Em torno da reta y = −x:
T (x, y) = (−y,−x)→
[
0 −1
−1 0
]
13
det[T ] 6= 0⇒ T é isomorfismo.
T−1 = T
Dilatação e contração:
1. Na direção do vetor:
T (x, y) = (αx, αy), α ∈ R
[T ] =
[
α 0
0 α
]
T é isomorfismo se α 6= 0
[T ]−1(x, y) = ( 1
α
x, 1
α
y)
|α| > 1⇒ dilatação :
{
α > 1 : No sentido do vetor
α < −1 : No sentido contrário
0 < |α| < 1⇒ contração :
{
0 < α < 1 : No sentido do vetor
−1 < α < 0 : No sentido contrário{
α = 1 : Identidade
α = −1 : Reflexão em torno da Origem
Obs.: α é chamado de fator
2. Na direção do eixo x:
T (x, y) = (αx, y), α > 0
[T ] =
[
α 0
0 1
]
T é isomorfismo, e [T ]−1(x, y) = ( 1
α
x, y)
α = 1 : Identidade;
α > 1 : Dilatação;
0 < α < 1 : Contração.
Cisalhamento3:
1. Na mesma direção do eixo x:
T (x, y) = (x+ αy, y), α ∈ R
[T ] =
[
1 α
0 1
]
, T é isomorfismo e T−1(x, y) = (x− αy, y)
2. Na direção do eixo y:
T (x, y) = (x, y + αx)
[T ] =
[
1 0
α 1
]
, T é isomorfismo e T−1(x, y) = (x, y − αx)
3Quadrado vira losango e etc...
14
Rotação em torno da origem, de ângulo: θ:
Rθ(x, y) = (x cosα− y sinα, x sinα + y cosα)
[Rθ] =
[
cos θ − sin θ
sin θ cos θ
]
, T é isomorfismo e Rθ(x, y)−1 = R−θ(x, y)
4.2 Transformações lineares espaciais
T : R3 → R3
Reflexões:
1. Em torno dos eixos coordenados:
i Em torno do eixo Oxy:
T (x, y, z) = (x, y,−z), T é isomorfismo, e T−1 = T .
ii Em torno do eixo Oxz:
T (x, y, z) = (x,−y, z), T é isomorfismo, e T−1 = T .
iii Em torno do eixo Oyz:
T (x, y, z) = (−x, y, z), T é isomorfismo, e T−1 = T .
2. Em torno dos eixos:
i Em torno do eixo Ox:
T (x, y, z) = (x,−y,−z), T é isomorfismo, e T−1 = T
ii Em torno do eixo Oy:
T (x, y, z) = (−x, y,−z), T é isomorfismo, e T−1 = T
iii Em torno do eixo Oz:
T (x, y, z) = (−x,−y, z), T é isomorfismo, e T−1 = T
3. Em torno da origem O:
T (x, y, z) = (−x,−y,−z), T é isomorfismo, e T−1 = T
4. Rotações:
i Em torno do eixo Oz:
T (x, y, z) = (x cos θ − y sin θ, y cos θ + x sin θ, z)
[T ] =
cos θ − sin θ 0sin θ cos θ 0
0 0 1

15
ii Em torno do eixo Ox:
T (x, y, z) = (x, y cos θ − z sin θ, z cos θ + y sin θ)
[T ] =
1 0 00 cos θ − sin θ
0 sin θ cos θ

iii Em torno do eixo Oy:
T (x, y, z) = (x cos θ − z sin θ, y, z cos θ + x sin θ)
[T ] =
cos θ 0 − sin θ0 1 0
sin θ 0 cos θ

5 Operadores Lineares
Sejam V um espaço vetorial e T : V→ V uma transformação linear. T : V→ V é chamado
operador linear em V.
5.1 Operadores Inversíveis
Se T : V→ V é um isomorfismo, já vimos que a aplicação inversa T−1 = V→ V também é
um isomorfismo.
Dizemos, neste caso, que T é inversível (Não singular).
É claro que T ◦ T−1 = T−1 ◦ T = Id, onde Id : V→ V é uma aplicação identidade, ou seja,
Id(v) = v, ∀v ∈ V.
(T ◦ T−1)(v) = (T−1 ◦ T )(v) = v
Além disso, vimos que se V tem dimensão finita e B é uma base de V então
[T−1]B = [T ]−1B
Sejam V um espaço vetorial de dimensão finita e T : V→ V uma transformação linear.
i T é inversível ⇔ KerT = {0}
ii Se T é inversível e B é base de V, então T (B) é base de V
5.2 Matriz de mudança de base
V: Espaço vetorial real de dimV = n > 1
A = {u1, . . . , un} e B = {v1, . . . , vn} bases de V.
16
A matriz [Id]AB é chamada de matriz de mudança de base B para A.
u1 = (Id)(u1) =
n∑
i=1
ai1vi
u2 = (Id)(u2) =
n∑
i=1
ai2vi
...
un = (Id)(un) =
n∑
i=1
ainvi
, [Id]AB =

a11 a12 · · · a1n
a21 a22 · · · a2n
...
... . . .
...
am1 am2 · · · ann

Lembre-se que [Id]AB · [v]A = [Id(v)]B, ou seja, [Id]AB · [v]A = [(v)]B. Sendo assim, a
multiplicação de M = [Id]AB pela matriz coluna das coordenadas de v na base A fornece a
matriz coluna das coordenadas de v na base B.
M é inversível, pois Id : V→ V é um isomorfismo.
Além disso, M−1 = [Id]BA, ou seja, M−1 é matriz de mudança de bases de A para B. De fato,
M−1 = [Id]AB
−1 = [Id−1]BA = [Id]BA
Sendo T : V→ V um operador linear, dimV = n > 1 e A e B bases de V
T
VA → VA
Id ↓ T ′ ↑ Id′
VB → VB
, T = Id′ ◦ T ′ ◦ Id
[T ]A = [Id · T ′ · Id]A = [Id]BA · [T ]B · [Id]AB
[T ]A =M−1 · [T ]
[T ]A =M−1 · [T ]B ·M , onde M é a matriz de mudança de base de B para A.
Duas matrizes quadradas m e n são ditas semelhantes se existir P inversível tal que
M = P−1 ·N · P .
Portanto [T ]A e [T ]B são semelhantes.
5.3 Operadores ortogonais
V: Espaço vetorial euclidiano
Um operador T : V→ V é dito ortogonal se T preserva norma, ou seja, |T (u)| = |u|, ∀u ∈ V.
Propriedades: Sendo V um espaço vetorial euclidiano e S, T : V→ V operadores lineares.1. T é ortogonal ⇔ T preserva o produto interno, isto é, 〈T (u), T (v)〉 = 〈u, v〉, ∀u, v ∈ V
2. S e T ortogonais⇒ S ◦ T ortogonal
3. Seja B = {v1, · · · , vn} base ortonormal de V. T ortogonal ⇔ T (B) = {T (v1), · · · , T (vn)}
é uma base ortonormal de V.
4. B base ortogonal ⇔ [T ]B é uma matriz ortogonal.
17
5. Se A e B são bases (finitas) ortogonais de V, então a matriz de mudança de bases de B
para A([Id]AB) é ortogonal.
6. M é ortogonal⇔ os vetores linha de M formam um conjunto ortonormal.
5.4 Operadores simétricos
Um operador T : V→ V, sendo V um espaço vetorial euclidiano, é chamado simétrico se
〈T (u), v〉 = 〈u, T (v)〉, ∀u, v ∈ V
.
Também são chamados de auto-adjuntos e para uma matriz M ser dita simétrica temos que
ter M =M t sendo M a matriz do operador simétrico.
Definição 5.1. Dado T : Rn → Rn, T simétrico, temos que as raízes de PT (x) ∈ R para
∀n > 1, n ∈ N.
Proposição 3. De fato, se V for um C-espaço vetorial4 e T : V→ V é um operador linear
simétrico, então os autovalores de T são reais.
Demonstração. Seja λ autovalor associado ao autovetor u:
〈T (u), u〉 = 〈u, T (u)〉 ⇒
〈λu, u〉 = 〈u, λu〉 ⇒
λ〈u, u〉 = λ〈u, u〉 ⇒
λ = λ⇒ λ ∈ R
Proposição 4. Seja T : V→ V um operador linear simétrico. Se v1 e v2 são autovetores
associados a autovalores λ1 e λ2 respectivamente, com λ1 6= λ2, então v1 ⊥ v2.
Demonstração.
〈T (v1), v2〉 = 〈v1, T (v2)〉, pois T é simétrico
⇒ 〈λ1v1, v2〉 = 〈v1, λ2v2〉
⇒ λ1〈v1, v2〉 = λ2〈v1, v2〉
⇒ (λ1 − λ2)〈v1, v2〉 = 0⇒ v1 ⊥ v2 pois λ1 6= λ2
4Definido sobre os complexos
18
5.5 Autovalores e Autovetores
Seja T : V→ V um operador linear. Um vetor não nulo v ∈ V é chamado de autovetor se
existe λ ∈ R tal que T (v) = λv. Se existir, λ é chamado de autovalor associado ao vetor v.
Obs.:
1. Se λ é autovalor de T associado ao autovetor v, também dizemos que v é autovetor de T
associado ao autovalor λ.
2. Vetor próprio = Autovetor
Valor próprio = Autovalor
Sendo T : V→ V operador linear, dimV = n, λ é autovalor de T se e somente se existir
v ∈ V, v 6= 0 tal que T (v) = λv. Mas
T (v) = λv ⇔ λv − T (v) = 0
⇔ λId(v)− T (v) = 0
⇔ (λId− T )(v) = 0
Assim λ é autovalor de T ⇔ KerT (λId− T ) 6= {0}
⇔ T não é injetora
⇔ det[λId− T ]B = 0, B base qualquer de V
⇔ det(λ[Id]B − [T ]B) = 0
⇔ det(λ[In]− [T ]B) = 0
⇔ λ é raiz de det(x[In]− [T ]B) = 0
O polinômio PT (x) = det(x[In]− [T ]B) é chamado de polinômio característico de T . Assim, λ
é autovalor de T se e somente se λ é raiz de P (x).
Obs.:PT (x) independe da base de V a ser tomada. De fato, se B e C forem bases de V , então:
det(xIn− [T ]B) = det(M−1 · [xId] ·M −M−1[T ]C ·M) pois [T ]B e [T ]C são semelhantes
= det(M−1)det(xIn− [T ]C)detM − det(xIn− [T ]C)
O subespaço gerado pelos autovetores associados ao autovalor λ é indicado por AutT (λ), e é
chamado de auto espaço associado a λ. Assim, AutT (λ) = Ker(λId− T ) ou Ker(T − λId).
5.6 Matriz Diagonal
O operador T é diagonalizável se existir uma base de V tal que [T ]B seja uma matriz
diagonalizável, ou seja, se é uma base de autovetores de T . Considerando B = {v1, · · · , vn}
19
uma base de V tal que v1, · · · , vn são autovetores associados, respectivamente, a autovalores
λ1, · · · , λn: 
T (v1) = λ1v1
T (v2) = λ2v2
...
T (vn) = λnvn
; Logo,[T ]B =

λ1 0 0 · · · 0
0 λ2 0 · · · 0
0 0 λ3 · · · 0
...
...
... . . .
...
0 0 0 · · · λn

Obs.: Os autovalores podem não existir pois aqui estão definidos somente em R.
Seja V um espaço vetorial real, T : V→ V com A e B bases de V e [T ]A =M−1 · [T ]B ·M
(M = [Id]AB), onde [T ]A e [T ]B são semelhantes. Se A é uma base de autovetores, então [T ]A
é uma matriz diagonal.
Uma matriz quadrada D é dita diagonalizável se é semelhante a uma matriz diagonal E, ou
seja, se existe uma matriz inversível P tal que E = P−1 ·D · P . Dizemos nesse caso, que P
diagonaliza D, ou que P é a matriz diagonalizadora de D.
Definição 5.2. Dada uma matriz quadrada A de ordem n, autovalores e autovetores de A
são, por definição, autovetores a autovalores do operador linear T : Rn → Rn tal que [T ] = A.
5.7 Polinômio característico
Seja T um operador linear em V e A de ordem n uma matriz quadrada tal que A = [T ].
PA(x) = PT (x) = det(xIn− [T ])⇒ PA(x) = det(xIn− A), λ é autovalor de A⇔ λ é raiz de
PA(x).
Proposição 5. Seja P = [Id] A e B matrizes semelhantes Bn(P−1 · A · P ) = (P−1 · An · P )
Demonstração. (P−1 · A · P )n = (P−1 · A · P ).(P−1 · A · P ).(P−1 · A · P ). · · · . = (P−1 · An · P )
A cada nova parcela da multiplicação, estaremos cancelando P com P−1
PT (T ) ≡ 0, todo polinômio característico tem a propriedade de levar à matriz de um operador
numa matriz nula.
20
	Espaços Vetoriais
	Subespaços vetoriais
	Independência e Dependência Linear
	Subespaço gerado
	Bases
	Dimensão
	Espaços vetoriais Euclidianos
	Produto interno
	Norma de um vetor
	Distância entre dois vetores
	Ângulo entre dois vetores
	Vetores Ortogonais
	Conjunto de vetores ortogonais
	Bases ortogonais e ortonormais
	Processo de ortogonalização de Gram-Schmidt
	Complemento ortogonal
	Transformações Lineares
	Núcleo e Imagem de uma transformação linear
	Teorema do Núcleo e Imagem
	Matriz de uma transformação linear
	Operações com transformações lineares
	Transformações lineares planas
	Transformações lineares espaciais
	Operadores Lineares
	Operadores Inversíveis
	Matriz de mudança de base
	Operadores ortogonais
	Operadores simétricos
	Autovalores e Autovetores
	Matriz Diagonal
	Polinômio característico

Outros materiais