Buscar

SebentaCompleta ALGA

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 169 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 169 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 169 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Jorge Buescu | 1 
 
 
Resolução de Sistemas de Equações Lineares (SEL): 
método de eliminação de Gauss-Jordan 
 
 
Eu tenho o dobro da idade que tinha quando o meu pai 
tinha a idade que eu tenho. 
Além disso, a soma das nossas idades é 100. 
Quais são as nossas idades? 
 
Duas variáveis: x = minha idade, 
 y = idade do meu pai. 
 
Sistema de equações lineares: 
{
3𝑥 = 2𝑦
𝑥 + 𝑦 = 100
 (TPC: verificar!) 
Forma canónica do sistema: 
{
3𝑥 − 2𝑦 = 0
𝑥 + 𝑦 = 100
 
 
 Variáveis = termos independentes 
 
Jorge Buescu | 2 
 
 
Sistema de equações lineares 5 × 5 na forma canónica: 
 
{
 
 
 
 𝑥1 + 2𝑥2 + 5𝑥3 + √2𝑥4 + 𝜋𝑥5
2𝑥1 − 𝑥2 + 3𝑥3 + 7𝑥4 + 13𝑥5
𝜋2𝑥1 + 5𝑥2 − 2𝑥3 + 𝑥4 + 2𝑥5
3𝑥1 + 3𝑥2 +𝑥3 + 6𝑥4 − 3𝑥5
−𝑥1 − 𝑥2 + 3𝑥3 + 7𝑥4 + 13𝑥5
=
=
=
=
=
33
√3
4
−1
0
𝑒
 
Matriz do sistema: quadro dos coeficientes que afectam 
as variáveis 
𝐴5×5 =
[
 
 
 
 
 1 2 5 √2 𝜋
 2 −1 3 7 13
 𝜋2
 3 
−1 
 5 
 3 
−1 
−2 1 2
 1 6 −3
 3 7 13]
 
 
 
 
 
5 linhas, tantas quantas as equações; 
5 colunas, tantas quantas as variáveis. 
 
Vector (coluna) dos termos independentes: 
𝒃5×1 =
[
 
 
 
 
33
√3
4
−1
0
𝑒 ]
 
 
 
 
 
Obs: um vector pode ser considerado uma matriz com uma só coluna; neste caso é 
uma matriz com 5 linhas e uma coluna. Designa-se por vezes como matriz-coluna. 
 
Jorge Buescu | 3 
 
 
Matriz aumentada (ou ampliada) do sistema 
 
 
A matriz aumentada de um sistema de equações lineares é a que 
se obtém juntando à matriz do sistema A coluna dos termos 
independentes, que se costuma separar com um traço vertical: 
𝐴𝑎𝑢𝑚 = [𝐴 | 𝒃] 
 
No caso anterior, 
𝐴𝑎𝑢𝑚 =
[
 
 
 
 
 
1 2 5 √2 𝜋 | 33
2 −1 3 7 13 | √3
4
 𝜋2 
3 
−1
 5
 3
−1
−2 1 2 | −1
1 6 −3 | 0
3 7 13 | 𝑒 ]
 
 
 
 
 
 
Note-se que a matriz aumentada possui mais uma coluna 
do que a matriz do sistema. Neste caso, 𝐴𝑎𝑢𝑚 é, pois, 
uma matriz 5 × 6 (5 linhas, 6 colunas). 
RESOLVER UM SISTEMA DE EQUAÇÕES LINEARES 
REDUZ-SE A REALIZAR CERTAS OPERAÇÕES 
(MÉTODO DE ELIMINAÇÃO DE GAUSS-JORDAN) 
SOBRE A MATRIZ AUMENTADA DO SISTEMA. 
 
Jorge Buescu 
1 
Resolução de sistemas de equações lineares m X n pelo Método 
de Eliminação de Gauss-Jordan com troca de linhas 
(abreviadamente MEG) 
 
 
 
Jorge Buescu 
2 
 
Eliminação de Gauss = operações elementares sobre linhas 
 
 
Operações elementares do MEG: 
1. Somar a uma linha um múltiplo de outra; 
2. Multiplicar uma linha por uma constante ≠ 0; 
3. Trocar duas linhas. 
 
 
 
Jorge Buescu 
3 
 
 
Matrizes escalonadas, pivots 
 
 
 Uma matriz BmXp diz-se escalonada, ou em escada de linhas, se a 
primeira entrada diferente de zero em cada linha ocorre 
estritamente à esquerda do primeiro elemento diferente de zero 
na linha por baixo dela. 
 
 O primeiro elemento diferente de zero, vindo da esquerda, de 
cada linha não-nula de uma matriz escalonada diz-se um pivot. 
 
 
Exemplo: 
𝐵 = [
0 ∎ ∗
0 0 ∎
∗ ∗ ∗
∗ ∗ ∗
0 0 0
0 0 0
0 ∎ ∗
0 0 0
] 
 
A matriz B está escalonada. ∎ é um número ≠ 0, e portanto um pivot 
de B. * representa números quaisquer. 
 
 
 
 
Jorge Buescu 
4 
 
Discussão e resolução de SEL 
 a partir da forma escalonada da matriz aumentada 
 
Após escalonamento por aplicação do MEG, 
𝐴𝑎𝑢𝑚
´ =
[
 
 
 
 
0 ∎ ∗
0 0 ∎
∗ ∗ ∗ | 𝑏1
′
∗ ∗ ∗ | 𝑏2
′
0
⋮
0
⋮
0
⋮
0 0 0
0
⋮
∎
⋮
∗ | 𝑏3
′
⋮ | ⋮
0 0 0 | 𝑏𝑚
′ ]
 
 
 
 
 
A discussão da natureza do sistema faz-se nesta fase: 
 
 
Observação. Na resolução de um sistema indeterminado deve 
sempre tomar-se para independentes as variáveis sem pivot! 
Aula 4 – Jorge Buescu 
1 
Matrizes 
 
Uma matriz 𝒎× 𝒏 é um quadro rectangular de números 
(de ℝ 𝑜𝑢 ℂ), dispostos em m linhas e n colunas. 
𝐴𝑚×𝑛 = [𝑎𝑖𝑗]𝑖=1,⋯,𝑚
𝑗=1,⋯,𝑛 
= [
𝑎11 𝑎12
𝑎21 𝑎22
⋯
…
𝑎1𝑛
𝑎2𝑛
⋮ ⋱ ⋮
𝑎𝑚1 … ⋯ 𝑎𝑚𝑛
] 
 O primeiro índice identifica a linha (é 
constante ao longo de uma linha) 
 O segundo índice identifica a coluna (é 
constante ao longo de uma coluna) 
Por exemplo, eis uma matriz 3 X 5: 
𝐴 = [
1 4 𝑒 27 −1
0 √2 3 𝜋 52
−1 2 √5
3
3 12
] 
𝑎15 = entrada na linha 1, coluna 5 = -1 
𝑎23 = entrada na linha 2, coluna 3 = 3 
𝑎32 = entrada na linha 3, coluna 2 = 2 
Igualdade de matrizes: duas matrizes A e B são iguais sse 
(1) tiverem as mesmas ordens, (2) entradas 
correspondentes forem iguais (𝑎𝑖𝑗 = 𝑏𝑖𝑗 para todo o i e j). 
Aula 4 – Jorge Buescu 
2 
 
 
Alguns tipos especiais de matrizes 
 
 
1. Matriz-linha: 
𝐿 = [𝑎11 𝑎12 ⋯ 𝑎1𝑛]1×𝑛, 
matriz com 1 linha e n colunas (pode ser identificado com um 
vector, pelo que se chama por vezes vector-linha) 
2. Matriz-coluna: 
𝐶 = [
𝑎11
𝑎21
⋮
𝑎𝑛1
]
𝑛×1
 
 
matriz com n linhas e 1 coluna (pode ser identificado com 
um vector, pelo que se chama por vezes vector-coluna) 
 
3. Matriz quadrada: n=m, isto é, tantas linhas como 
colunas 
𝐴𝑛×𝑛 = [
𝑎11 𝑎12
𝑎21 𝑎22
⋯
…
𝑎1𝑛
𝑎2𝑛
⋮ ⋱ ⋮
𝑎𝑛1 … ⋯ 𝑎𝑛𝑛
] 
Aula 4 – Jorge Buescu 
3 
Uma matriz quadrada 𝐴𝑛×𝑛 diz-se: 
 
1. Matriz diagonal se 𝑖 ≠ 𝑗 ⇒ 𝑎𝑖𝑗 = 0: 
𝐴𝑛×𝑛 = [
𝑎11 0
0 𝑎22
⋯
…
0
0
⋮ ⋱ ⋮
0 … 0 𝑎𝑛𝑛
] 
(todos os elementos fora da diagonal principal são nulos); 
Exemplo: matriz identidade de ordem n: 
𝐼𝑛 = [
1 0
0 1
⋯
…
0
0
⋮ ⋱ ⋮
0 … 0 1
] 
2. Triangular superior se 𝑖 > 𝑗 ⇒ 𝑎𝑖𝑗 = 0: 
𝐴𝑛×𝑛 = [
 𝑎11 𝑎12
 0 𝑎22
⋯
…
𝑎1𝑛
𝑎2𝑛
⋮ ⋱ ⋮
 0 0 0 𝑎𝑛𝑛
] 
(todas as entradas abaixo da diagonal principal são nulas); 
3. Triangular inferior se 𝑖 < 𝑗 ⇒ 𝑎𝑖𝑗 = 0: 
𝐴𝑛×𝑛 = [
𝑎11 0 
 𝑎21 𝑎22
⋯
…
 0 
 0 
⋮ ⋱ 0 
𝑎𝑛1 … ⋯ 𝑎𝑛𝑛
] 
(todas as entradas acima da diagonal principal são nulas). 
Obs.: Uma matriz diagonal é simultaneamente triangular inferior e 
superior (exº: a identidade!). 
Aula 4 – Jorge Buescu 
4 
 
Eliminação de Gauss = Aritmética sobre Matrizes 
 
 
A ordem de uma matriz 𝐴𝑚×𝑛 é o seu número de linhas e 
colunas. 
Soma de matrizes: Dadas duas matrizes 𝐴𝑚×𝑛 e 𝐵𝑚×𝑛 com as 
mesmas ordens, a matriz soma é a matriz 𝐶𝑚×𝑛 que se obtém 
somando entradas correspondentes: 
(𝐶)𝑖𝑗 = 𝑐𝑖𝑗 = (𝐴 + 𝐵)𝑖𝑗 = (𝐴)𝑖𝑗 + (𝐵)𝑖𝑗 = 𝑎𝑖𝑗 + 𝑏𝑖𝑗 
 
Multiplicação de uma matriz por um escalar: Dado um número 
𝜆 ∈ ℝ (𝑟𝑒𝑠𝑝. ℂ), a que chamaremos escalar, e uma matriz 
𝐴𝑚×𝑛 de entradas em ℝ (𝑟𝑒𝑠𝑝. ℂ), define-se o produto 
(𝜆𝐴)𝑚×𝑛 = [𝜆𝑎𝑖𝑗]𝑖=1,⋯,𝑚
𝑗=1,⋯,𝑛 
 
É simples verificar que estas operações entre matrizes têm propriedades aritméticas análogas às dos 
números reais ou complexos: a soma de matrizes é comutativa, associativa, possui elemento neutro 
(matriz nula) e admite simétrico, e verificam-se as distributividades entre operações. 
ℳ𝑚×𝑛(ℝ) = {matrizes 𝑚 × 𝑛 de entradas em ℝ}; 
ℳ𝑚×𝑛(ℂ) = {matrizes 𝑚 × 𝑛 de entradas em ℂ}. 
A soma e a multiplicação escalar estão bem definidas em 
ℳ𝑚×𝑛(ℝ) e ℳ𝑚×𝑛(ℂ). 
Aula 4 – Jorge Buescu 
5 
Produto de Matrizes 
Dadas duas matrizes 𝐴𝑚×𝑛 e 𝐵𝑛×𝑝, o seu produto 
𝐶 = 𝐴. 𝐵 é uma matriz C de ordem 𝑚 × 𝑝 cujo elemento 
na linha i, coluna j é 
(𝐶)𝑖𝑗 = 𝑐𝑖𝑗 = (𝐴. 𝐵)𝑖𝑗 = ∑ 𝑎𝑖𝑘 𝑏𝑘𝑗 
𝑛
𝑘=1
 
As matrizes precisamde “encaixar”: o número de linhas da matriz à 
direita tem de ser igual ao número de colunas da matriz à esquerda 
 
O elemento 𝑐𝑖𝑗 da matriz produto é o “produto interno” da linha i, encarada 
como vector-linha, pela coluna j, encarada como vector-coluna: 
 
Aula 4 – Jorge Buescu 
6 
 
Propriedades básicas do produto de matrizes 
 
 
 É associativo: (A.B).C = A.(B.C) 
 
[(𝐴𝐵)𝐶]𝑖𝑗 =∑(𝐴𝐵)𝑖𝑘𝑐𝑘𝑗 =
𝑛
𝑘=1
∑(∑𝑎𝑖𝑙
𝑚
𝑙=1
𝑏𝑙𝑘)
⏟ 
𝑐𝑘𝑗 =
𝑛
𝑘=1
∑𝑎𝑖𝑙 (∑𝑏𝑙𝑘𝑐𝑘𝑗
𝑛
𝑘=1
) = [𝐴(𝐵𝐶)]𝑖𝑗
𝑚
𝑙=1
 
 (𝐴𝐵)𝑖𝑘 
 
 É distributivo em relação às operações soma de matrizes 
e produto de uma matriz por um escalar: 
 
 𝐴(𝐵 + 𝐶) = 𝐴𝐵 + 𝐴𝐶 
 (𝐴 + 𝐵)𝐶 = 𝐴𝐶 + 𝐵𝐶 
 𝜆. (𝐴. 𝐵) = (𝜆. 𝐴). 𝐵 = 𝐴. (𝜆. 𝐵) 
 
para todas as matrizes A, B, C e todo o escalar 𝜆 
 
 Se 𝐼𝑝 é a matriz identidade de ordem 𝑝, dada uma 
matriz 𝐴𝑚×𝑛 
 
𝐴𝑚×𝑛 𝐼𝑛 = 𝐼𝑚 𝐴𝑚×𝑛 = 𝐴. 
 
Aula 4 – Jorge Buescu 
7 
MAS 
O PRODUTO DE MATRIZES NÃO É 
COMUTATIVO: 
 
𝐴𝐵 ≠ 𝐵𝐴! (em geral) 
 
Exemplo 1: dadas matrizes 𝐴2×3 e 𝐵3×3, 
 𝐴2×3 𝐵3×3 é uma matriz 2 × 3; 
 𝐵3×3𝐴2×3 não existe. 
 
Trivialmente, não se pode ter 𝐴𝐵 = 𝐵𝐴. 
 
Exemplo 2: dadas matrizes 𝐴2×3 e 𝐵3×2, 
 
 𝐴2×3 𝐵3×2 é uma matriz 2 × 2, 
 𝐵3×2𝐴2×3 é uma matriz 3 × 3, 
pelo que [𝐴𝐵]2×2 ≠ [𝐵𝐴]3×3 
Exemplo 3. Se 𝐴 = [
1 2
3 4
] , 𝐵 = [
1 −1
1 1
], tem-se 
𝐴𝐵 = [
3 1
7 1
] , 𝐵𝐴 = [
−2 −2
4 6
] 
ambos os produtos estão definidos e têm a mesma ordem mas 
𝐴𝐵 ≠ 𝐵𝐴. 
Aula 4 – Jorge Buescu 
8 
 
A não-comutatividade do produto faz com 
que a álgebra de matrizes seja muito 
diferente da dos números reais! 
 
Por exemplo , a “lei do corte” 𝑎𝑏 = 0 ⇒ 𝑎 = 0 𝑜𝑢 𝑏 = 0, válida 
para números reais, é falsa para matrizes: 
 
Se 𝐴 = [
0 1
0 0
] , 𝐵 = [
1 1
0 0
], tem-se 
 
𝐴𝐵 = [
0 0
0 0
] 
 
mas nem A nem B são a matriz nula! 
 
Na verdade, é fácil ver que 
 
𝐴𝐴 = 𝐴2 = [
0 0
0 0
] 
 
sem que A seja nulo, o que é impossível em ℝ ou ℂ. 
 
(objectos com esta propriedade chamam-se, em álgebra abstracta, “divisores de zero”) 
 
Aula 5 - Jorge Buescu 
1 
SISTEMAS HOMOGÉNEO, NÃO-HOMOGÉNEO, 
SOLUÇÃO TRIVIAL 
 
Aula 5 - Jorge Buescu 
2 
 
Característica de uma matriz 
 
 
 
Definição (característica de uma matriz) 
Característica de uma matriz 𝐴 (designada por car(𝐴) ou 
rank(𝐴)) é o número de pivots da matriz escalonada que se 
obtém de 𝐴 por EG. 
 
 
Obs.: dado um sistema de equações lineares 𝐴𝒙 = 𝒃, car(𝐴) é 
igual a: 
 Nº de variáveis determinadas (i.e. não livres) do sistema; 
 Nº de linhas não-nulas no final de EG; 
 Nº de equações “independentes” do sistema. 
 
 
 
 
 
 
 
Aula 5 - Jorge Buescu 
3 
 
NÚCLEO DE UMA MATRIZ 
 
 
Aula 5 - Jorge Buescu 
4 
Matrizes singulares e não-singulares 
 
 
Aula 6- Jorge Buescu 
1 
 
Operações e matrizes elementares 
 
O MEG-J com troca de linhas consiste em efectuar sobre uma 
matriz 𝐴𝑚×𝑛 operações elementares de três tipos: 
 
Aula 6- Jorge Buescu 
2 
 
Matrizes elementares 
 
 
Cada operação elementar se obtém pela multiplicação à 
esquerda da matriz A por uma matriz elementar! 
1. Para multiplicar a linha 𝑖 por 𝛼 ≠ 0: 
 
 𝐸𝑖(𝛼) é a matriz que se obtém da Identidade 
substituindo o 1 na entrada (𝑖, 𝑖) por 𝛼. 
 
 Multiplicar à esquerda por 𝐸𝑖(𝛼)𝐴 tem o efeito de 
multiplicar a linha 𝑖 de 𝐴 por 𝛼! 
Exemplo: 
[
1 0 0
0 −2 0
0 0 1
]
⏟ 
[
3 1 5
1 2 3
0 −1 4
] = [
3 1 5
−2 −4 −6
0 −1 4
] 
 𝐸2(−2) 
Aula 6- Jorge Buescu 
3 
2. Para multiplicar a linha 𝑖 por 𝛼 e somá-la à linha 𝑗 
 (𝑖 ≠ 𝑗): 
 
 
 𝐸𝑖
𝑗
(𝛼) é a matriz que se obtém de 𝐼𝑚×𝑚 substituindo o 
0 na entrada (𝑗, 𝑖) por 𝛼. 
 
 Multiplicar à esquerda por 𝐸𝑖
𝑗
(𝛼) tem o efeito de 
substituir 𝐿𝑗 por 𝐿𝑗 + 𝛼𝐿𝑖! 
 
Exemplo: 
[
1 0 0
0 1 0
2 0 1
]
⏟ 
[
3 1 −1
1 2 3
0 −1 3
] = [
3 1 −1
1 2 3
6 1 1
] 
 𝐸1
3(2) 
 
Elemento (3,1)= 2: a linha 3 é somada com 2 X a linha 1 
 
Aula 6- Jorge Buescu 
4 
 
3. Para trocar (Permutar) as linhas 𝑖 e 𝑗 (𝑖 ≠ 𝑗): 
 
 
 𝑃𝑖𝑗 é a matriz que se obtém de 𝐼𝑚×𝑚 fazendo as 
substituições 𝑎𝑖𝑖 = 𝑎𝑗𝑗 = 0 e 𝑎𝑖𝑗 = 𝑎𝑗𝑖 = 1. 
 
 Multiplicar à esquerda por 𝑃𝑖𝑗 tem o efeito de trocar as 
linhas 𝑖 e 𝑗! 
 
Exemplo: 
 
[
1 0 0
0 0 1
0 1 0
]
⏟ 
[
3 1 −1
1 2 4
0 −1 3
] = [
3 1 −1
0 −1 3
1 2 4
] 
 𝑃23: troca as linhas 2 e 3 
 
Aula 6- Jorge Buescu 
5 
Matrizes elementares são invertíveis! 
1. 𝐸𝑖(𝛼)
−1 = 𝐸𝑖(𝛼
−1) 
Exemplo: 
[
1 0 0
0 3 0
0 0 1
]
⏟ 
[
1 0 0
0 1/3 0
0 0 1
]
⏟ 
= [
1 0 0
0 1/3 0
0 0 1
] [
1 0 0
0 3 0
0 0 1
] = [
1 0 0
0 1 0
0 0 1
] 
 𝐸2(3) 𝐸2(1/3) 
 
2. 𝐸𝑖
𝑗
(𝛼)−1 = 𝐸𝑖
𝑗
(−𝛼) 
Exemplo: 
[
1 0 0
0 1 0
2 0 1
]
⏟ 
[
1 0 0
0 1 0
−2 0 1
]
⏟ 
= [
1 0 0
0 1 0
−2 0 1
] [
1 0 0
0 1 0
2 0 1
] = [
1 0 0
0 1 0
0 0 1
] 
 𝐸1
3(2) 𝐸1
3(−2) 
 
3. 𝑃𝑖𝑗
−1 = 𝑃𝑖𝑗 
 𝑃𝑖𝑗 é a sua própria inversa (porquê, em termos de operações?) 
Exemplo 3 × 3: 
[
1 0 0
0 0 1
0 1 0
]
⏟ 
[
1 0 0
0 0 1
0 1 0
]
⏟ 
= [
1 0 0
0 1 0
0 0 1
] 
 𝑃23 𝑃23 
Aula 7 – Jorge Buescu 
1 
ALGORITMO DE INVERSÃO DE MATRIZES 
Dada uma matriz QUADRADA 𝐴𝑛×𝑛, começa por escrever-
se lado a lado 𝐴 e 𝐼𝑛, resultando numa matriz super-
aumentada 𝑛 × 2𝑛: 
 
Obs 1: O próprio algoritmo revela se a matriz 𝐴 é ou não invertível. 
Obs. 2: Este algoritmo conclui a demonstração do Teorema 3: 
𝐴 invertível ⇔ 𝐴 é não-singular 
Aula 7 – Jorge Buescu 
2 
 
Matriz transposta 
 
 
Definição (matriz transposta). Seja 𝐴𝑚×𝑛 = [𝑎𝑖𝑗]𝑖=1,…,𝑚
𝑗=1,…,𝑛
 uma matriz 
𝑚 × 𝑛. A matriz transposta de 𝐴, designada por 𝐴𝑇 , é a matriz 𝑛 × 𝑚 
resultante de trocar linhas com colunas em 𝐴: 
[𝐴𝑇]𝑖𝑗 = [𝐴]𝑗𝑖 = 𝑎𝑗𝑖. 
 
Exemplo: 
[
1 3 5
6 4 2
]
𝑇
= [
1 6
3 4
5 2
]. 
 
Obs. Se A é quadrada e verifica 𝐴 = 𝐴𝑇, diz-se simétrica (pois as suas 
entradas são simétricas em relação à diagonal principal, uma vez que 
𝑎𝑖𝑗 = 𝑎𝑗𝑖 ). 
 
Exemplo: a matriz 
𝐴 = [
1 −1 𝜋
−1 2 0
𝜋 0 3
] 
 
é simétrica, pois 𝑎𝑖𝑗 = 𝑎𝑗𝑖, ou equivalentemente 𝐴 = 𝐴
𝑇 . 
Aula 7 – Jorge Buescu 
3 
 
 
Teorema: propriedades da transposição 
Sempre que as ordens de A e B o permitam, tem-se 
a) (𝐴𝑇)𝑇 = 𝐴. 
b) (𝐴 + 𝐵)𝑇 = 𝐴𝑇 + 𝐵𝑇. 
c) (𝜆𝐴)𝑇 = 𝜆𝐴𝑇 . 
d) (𝐴𝐵)𝑇 = 𝐵𝑇𝐴𝑇 
 
Dem: (a), (b), (c) são triviais; (d) faz-se na aula T. 
Aula 8: espaços vectoriais 
Aula 8 – Jorge Buescu 
1 
 CAP 2. Espaços vectoriais abstractos 
Ingredientes necessários para definir um espaço vectorial: 
1. Soma de vectores pela regra do paralelogramo 
2. Multiplicação por um escalar 𝜆 (∈ ℝ 𝑜𝑢 ℂ) 
 
Exemplos bem conhecidos: 
 ℝ2 = {(𝑥1, 𝑥2): 𝑥1, 𝑥2 ∈ ℝ}, com a soma e o produto 
por escalar usuais (componente a componente): 
[
𝑥1
𝑥2
] + [
𝑦
1
𝑦
2
]
⏟= [
𝑥1 + 𝑦1
𝑥2 + 𝑦2
], 𝜆. [
𝑥1
𝑥2
]
⏟ 
= [
𝜆𝑥1
𝜆𝑥2
] 
 Soma de vectores produto de um vector por um escalar 
 ℝ3 = {(𝑥1, 𝑥2, 𝑥3): 𝑥1, 𝑥2,𝑥3 ∈ ℝ}, operações usuais: 
[
𝑥1
𝑥2
𝑥3
] + [
𝑦
1
𝑦
2
𝑦
3
]
⏟ 
= [
𝑥1 + 𝑦1
𝑥2 + 𝑦2
𝑥3 + 𝑦3
], 𝜆. [
𝑥1
𝑥2
𝑥3
]
⏟ 
= [
𝜆𝑥1
𝜆𝑥2
𝜆𝑥3
] 
Em ℝ2ou ℝ3, vectores podem ser concebidos como “setinhas” (ver fig. acima) 
 Queremos generalizar o conceito de Espaço 
Vectorial a conjuntos e operações abstractas! 
Aula 8: espaços vectoriais 
Aula 8 – Jorge Buescu 
2 
Espaço vectorial (ou linear): Definição 
Suponhamos dados os seguintes ingredientes: 
1. 𝑉 ≠ ∅: conjunto de objectos (vectores) 
2. Operação soma definida entre objectos de 𝑉: 𝒖 + 𝒗 
3. Multiplicação escalar entre um escalar 𝜆 e 𝒗 ∈ 𝑉 : 𝜆 . 𝒗, onde 
4. Os escalares estão num corpo 𝕂 (geralmente ℝ 𝑜𝑢 ℂ). 
 
Definição 2.1. (𝑉, +, . , 𝕂) diz-se um espaço vectorial sobre 𝕂 se: 
1. [Fecho para a soma] Se 𝒖, 𝒗 ∈ 𝑉, então 𝒖 + 𝒗 ∈ 𝑉. 
2. [Comutatividade da soma] 𝒖 + 𝒗 = 𝒗 + 𝒖 ∀𝒖, 𝒗 ∈ 𝑉. 
3. [Associatividade da soma] (𝒖 + 𝒗) + 𝒘 = 𝒖 + (𝒗 + 𝒘) ∀𝒖, 𝒗,𝒘 ∈ 𝑉. 
4. [Vector nulo] Existe um vector 0, designado por vector nulo de V, tal que 
𝟎 + 𝒖 = 𝒖 + 𝟎 = 𝒖 ∀𝒖 ∈ 𝑉. 
5. [Simétrico] Para cada 𝒖 ∈ 𝑉 existe um objecto 𝒘 ∈ 𝑉, dito simétrico de 𝒖, tal 
que 
𝒘+ 𝒖 = 𝒖 +𝒘 = 𝟎 ∀𝒖 ∈ 𝑉. 
6. [Fecho para a multiplicação escalar] Se 𝜆 ∈ 𝑲 é um escalar e 𝒖 ∈ 𝑉, 𝜆𝒖 ∈ 𝑉. 
7. [Associatividade da ME] 
𝜆1(𝜆2𝒖) = (𝜆1𝜆2)𝒖. 
 
8. [Distributividade à esquerda] 
(𝜆1 + 𝜆2)𝒖 = 𝜆1𝒖 + 𝜆2𝒖. 
9. [Distributividade à direita] 
𝜆(𝒖 + 𝒗) = 𝜆𝒖 + 𝜆𝒗. 
10. [Identidade] 1. 𝒖 = 𝒖 ∀𝒖 ∈ 𝑉. 
 
Obs. 1: Quando 𝕂 = ℝ o espaço vectorial diz-se um espaço vectorial real; 
quando 𝕂 = ℂ diz-se um espaço vectorial complexo. 
Obs. 2: Um corpo é uma estrutura algébrica onde estão definidas as operações da 
aritmética (+, ×). A aritmética em 𝕂 = ℝ ou ℂ é a aritmética usual. 
Aula 8: espaços vectoriais 
Aula 8 – Jorge Buescu 
3 
1 - O espaço vectorial real ℝ𝑛 
 
ℝ𝑛 = {(𝑥1, 𝑥2, ⋯ , 𝑥𝑛) ∶ 𝑥𝑖 ∈ ℝ, 𝑖 = 1,⋯ , 𝑛}, 
conjunto dos n-uplos ordenados de números reais, munido das operações “usuais” 
Soma vectorial: 
 
Se 𝒙 = (𝑥1, 𝑥2,⋯ , 𝑥𝑛) ∈ ℝ
𝑛
 
e 𝒚 = (𝑦1, 𝑦2,⋯ , 𝑦𝑛) ∈ ℝ
𝑛, então 
𝒙 + 𝒚 = (𝑥1 + 𝑦1, 𝑥2 + 𝑦2, ⋯ , 𝑥𝑛 + 𝑦𝑛) 
(dita “soma componente a componente”), 
Multiplicação por um escalar (real): 
Se 𝜆 ∈ ℝ é um escalar e 𝒙 = (𝑥1, 𝑥2,⋯ , 𝑥𝑛) ∈ ℝ
𝑛 é um vector, então 
𝜆𝒙 = 𝜆(𝑥1, 𝑥2, ⋯ , 𝑥𝑛) = (𝜆𝑥1, 𝜆𝑥2, ⋯ , 𝜆𝑥𝑛) 
(dita “multiplicação componente a componente”), 
é um espaço vectorial real, pois satisfaz todos os 
axiomas 1—10 (verificar). 
Obs.: vectores de ℝ𝑛, podem, quando conveniente, escrever-se em coluna: 
𝒙 = [
𝑥1
𝑥2
⋮
𝑥𝑛
] 
Obs. 2: os vectores de ℝ𝑛 não são “setinhas” – a menos, claro, que o estudante consiga 
visualizar setas com n dimensões (aviso: o Prof só consegue até n=3 ou, com esforço, 4). 
Aula 8: espaços vectoriais 
Aula 8 – Jorge Buescu 
4 
 
2 - O espaço vectorial das matrizes reais 2 × 2 
 
 
ℳ2×2(ℝ) = {[
𝑎 𝑏
𝑐 𝑑
] ∶ 𝑎, 𝑏, 𝑐, 𝑑 ∈ ℝ} 
conjunto das matrizes 2 × 2 de elementos reais, munido das operações 
usuais entre matrizes: 
Soma: 
Se A1 = [
𝑎1 𝑏1
𝑐1 𝑑1
] ∈ ℳ2×2(ℝ) 
e A2 = [
𝑎2 𝑏2
𝑐2 𝑑2
] ∈ ℳ2×2(ℝ), então 
A1 + A2 = [
𝑎1 + 𝑎2 𝑏1 + 𝑏2
𝑐1 + 𝑐2 𝑑1 + 𝑑2
] (“soma elemento a elemento”) 
Multiplicação por um escalar (real): 
Se 𝜆 ∈ ℝ é um escalar e A = [
𝑎 𝑏
𝑐 𝑑
] é uma matriz, então 
𝜆A = 𝜆 [
𝑎 𝑏
𝑐 𝑑
] = [
𝜆𝑎 𝜆𝑏
𝜆𝑐 𝜆𝑑
] 
 
é um espaço vectorial real, pois satisfaz todos os 
axiomas 1—10. 
Obs: Neste espaço, os vectores são matrizes 2 × 2 – decididamente não são 
“setinhas!” 
Aula 8: espaços vectoriais 
Aula 8 – Jorge Buescu 
5 
3-Espaço vectorial das matrizes reais 𝑚 × 𝑛 
Analogamente, 
ℳ𝑚×𝑛(ℝ) = {𝐴 = [
𝑎11 𝑎12 … 𝑎1𝑛
⋮ ⋮ ⋮ ⋮
𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛
] ∶ 𝑎𝑖𝑗 ∈ ℝ} 
conjunto das matrizes 𝑚 × 𝑛 de entradas reais, munido das operações 
usuais entre matrizes: 
Soma: 
Se A = [
𝑎11 𝑎12 … 𝑎1𝑛
⋮ ⋮ ⋮ ⋮
𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛
] 
e B = [
𝑏11 𝑏12 … 𝑏1𝑛
⋮ ⋮ ⋮ ⋮
𝑏𝑚1 𝑏𝑚2 ⋯ 𝑏𝑚𝑛
] , então 
 A + B = [
𝑎11 + 𝑏11 𝑎12 + 𝑏12 … 𝑎1𝑛 + 𝑏1𝑛
⋮ ⋮ ⋮ ⋮
𝑎𝑚1 + 𝑏𝑚1 𝑎𝑚2 + 𝑏𝑚2 ⋯ 𝑎𝑚𝑛 + 𝑏𝑚𝑛
] (“soma elemento a elemento”) 
Multiplicação por um escalar (real): 
Se 𝜆 ∈ ℝ é um escalar e A = [
𝑎11 𝑎12 … 𝑎1𝑛
⋮ ⋮ ⋮ ⋮
𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛
] é uma matriz, 
então 
𝜆A = 𝜆 [
𝑎11 𝑎12 … 𝑎1𝑛
⋮ ⋮ ⋮ ⋮
𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛
] = [
𝜆𝑎11 𝜆𝑎12 … 𝜆𝑎1𝑛
⋮ ⋮ ⋮ ⋮
𝜆𝑎𝑚1 𝜆𝑎𝑚2 ⋯ 𝜆𝑎𝑚𝑛
] 
é um espaço vectorial real, pois satisfaz os axiomas 1—
10 (TPC: verificar!). 
 Neste espaço, os vectores são matrizes 𝑚 × 𝑛. 
 Um vector é um elemento de um espaço vectorial! 
Aula 8: espaços vectoriais 
Aula 8 – Jorge Buescu 
6 
 
4- Espaço ℱ(ℝ) das funções reais de variável real 
 
 
ℱ(ℝ) = { 𝑓: ℝ → ℝ, f função real de variável real} 
munindo este conjunto das operações usuais entre funções: 
Se 𝑓 e 𝑔 são funções reais de variável real, 
 
Soma: 
 (𝑓 + 𝑔) é a função r.v.r. definida em cada ponto 𝑥 ∈ ℝ por 
(𝑓 + 𝑔)(𝑥) = 𝑓(𝑥) + 𝑔(𝑥) ∀𝑥 ∈ ℝ; 
 
Produto por escalar: 
 𝜆𝑓 é a função r.v.r. definida em cada ponto 𝑥 ∈ ℝ por 
𝜆𝑓(𝑥) = 𝜆𝑓(𝑥) ∀𝑥 ∈ ℝ. 
Com estas operações, ℱ(ℝ) é um espaço vectorial. 
 Um ponto deste espaço (≡ vector) é uma função! Em particular, 
o vector nulo de ℱ(ℝ) é a função identicamente nula: 
𝑓(𝑥) ≡ 0, i.e. 𝑓(𝑥) = 0 ∀𝑥 ∈ ℝ. 
 
Aula 8: espaços vectoriais 
Aula 8 – Jorge Buescu 
7 
5- Um conjunto que não é um espaço vectorial: 
𝐶 = { (𝑥, 𝑦) ∈ ℝ2: 𝑥2 + 𝑦2 = 2} 
i.e. circunferência de raio √2 no plano 
 
Tomando por exemplo 𝒖 = (1,1), 𝒗 = (1,−1), tem-se 
𝒖 ∈ 𝐶,𝒗 ∈ 𝐶 mas 𝒖 + 𝒗 = (2,0) ∉ 𝐶 
pelo que C não é fechado para a soma (Falha o Axioma 1) 
Assim, C não é um espaço vectorial. 
C também não é fechado para a multiplicação escalar: 
tomando 𝒖 = (1,1), tem-se por exemplo 
2 𝒖 = (2,2) ∉ 𝐶 
pelo que também falha o Axioma 6. 
 𝐶 também não contém o vector nulo (0,0), pelo que também falha o Ax. 4… 
Aula 8: espaços vectoriais 
Aula 8 – Jorge Buescu 
8 
6 – O ESPAÇO NULO 
 
Se V só tem um elemento, que designamos por 0, existe 
apenas uma forma de lhe dar a estrutura de espaço vectorial: 
𝟎 + 𝟎 = 𝟎, 𝜆𝟎 = 𝟎 ∀ 𝜆 escalar. 
𝑉 = {𝟎}, munido destas operações, diz-se o espaço nulo. 
 
 
 
 
 
 
 
 
 
 
 
 
 
Aula 8: espaços vectoriais 
Aula 8 – Jorge Buescu 
9 
Teorema 2.2. 
Seja 𝑉 um espaço vectorial, 𝑢 ∈ 𝑉 um vector e 𝜆 um 
escalar. Então: 
a) 0 𝒖 = 𝟎. 
b) 𝜆𝟎 = 𝟎. 
c) (−1)𝒖 = −𝒖. 
d) Se 𝜆𝒖 = 𝟎, então 𝜆 = 0 ou 𝒖 = 𝟎. 
Aula 9: Subespaços 
Aula 9 – Jorge Buescu 
1 
 
Subespaços vectoriais 
 
 
 
Definição 2.3. Um subconjunto 𝑊 de um espaço vectorial 𝑉 diz-se um 
subespaço de 𝑉 se for, ele próprio, um espaço vectorial (relativamente 
às operações definidas em 𝑉). 
 
 
Para verificar que 𝑊 é subespaço de 𝑉, basta verificar os 2 axiomas de 
fecho (axiomas 1e 6): 
 
Teorema 2.4 
Seja 𝑊 ⊂ 𝑉 não vazio. Então W é subespaço de V se, e só se, verifica 
os dois axiomas de fecho: 
a) [fecho para a soma] ∀𝑢, 𝑣 ∈ 𝑊 𝑢 + 𝑣 ∈ 𝑊; 
b) [fecho para a ME] ∀𝑢 ∈ 𝑊 ∀𝜆 ∈ 𝑲 𝜆𝑢 ∈ 𝑊. 
 
 
 
 
Aula 9: Subespaços 
Aula 9 – Jorge Buescu 
2 
Exº 1: um plano que passa pela origem é um subespaço de ℝ3 
 
 
Equação do plano P : 𝑎𝑥 + 𝑏𝑦 + 𝑐𝑧 = 0. 
𝒖 = (𝑢1, 𝑢2, 𝑢3) ∈ 𝑃 ⇔ 𝑎𝑢1 + 𝑏𝑢2 + 𝑐𝑢3 = 0 
𝒗 = (𝑣1, 𝑣2, 𝑣3) ∈ 𝑃 ⇔ 𝑎𝑣1 + 𝑏𝑣2 + 𝑐𝑣3 = 0 
 pelo que 𝒖 + 𝒗 = (𝑢1 + 𝑣1, 𝑢2 + 𝑣2, 𝑢3 + 𝑣3) verifica 
𝑎(𝑢1 + 𝑣1) + 𝑏(𝑢2 + 𝑣2) + 𝑐(𝑢3 + 𝑣3) = 0 ⇔ 𝒖 + 𝒗 ∈ 𝑃. 
Ou seja, W é fechado para a soma. 
Analogamente, 𝜆𝑢 = 𝜆(𝑢1, 𝑢2, 𝑢3) = (𝜆𝑢1, 𝜆𝑢2, 𝜆𝑢3) verifica 
𝑎𝜆𝑢1 + 𝑏𝜆𝑢2 + 𝑐𝜆𝑢3 = 0 ⇔ 𝜆𝒖 ∈ 𝑃. 
Ou seja, W é fechado para a multiplicação escalar. 
Conclusão: W é fechado para ambas as operações 
 W é subespaço de ℝ3. 
Aula 9: Subespaços 
Aula 9 – Jorge Buescu 
3 
 
Exº 2: uma recta que passa pela origem é um subespaço de ℝ3 
 
 
 
Raciocínio análogo: TPC 
(Os vectores sobre uma recta que passa pela origem e tem 
vector director 𝒖 = (𝑢1, 𝑢2, 𝑢3) são todos múltiplos de 𝒖). 
 
 
Aula 9: Subespaços 
Aula 9 – Jorge Buescu 
4 
Rectas e planos que não passam pela origem 
não são subespaços! 
 
Exemplo: recta R: 𝑦 = −𝑥 + 1 no plano ℝ2 
 
 𝒖 = (0,1) e 𝒗 = (1,0), p.ex., ∈ 𝑅. Mas 
𝒖 + 𝒗 = (1,1) ∉ 𝑅 ⇒ 𝑅 não é fechado para a soma 
 2𝒖 = (0,2) ∉ 𝑅 ⇒ 𝑅 também não é fechado para a ME 
⇒ 𝑅 não é subespaço de ℝ2 
Bastaria ter observado que, para ser subespaço, deve conter o vector nulo 
𝟎 = (0,0) [Axioma 4], o que não se verifica pois a recta R por hipótese não 
passa pela origem (que corresponde ao vector nulo). 
Aula 9: Subespaços 
Aula 9 – Jorge Buescu 
5 
 
 O núcleo de uma matriz 𝐴𝑚×𝑛 é 
um subespaço de ℝ𝑛 
Recordar: 𝒩(𝐴) = {𝒙 ∈ ℝ𝑛: 𝐴𝒙 = 0} 
1. Fecho para a soma: 
𝒙 ∈ 𝒩(𝐴) ⇔ 𝐴𝒙 = 𝟎 
𝒚 ∈ 𝒩(𝐴) ⇔ 𝐴𝒚 = 𝟎 
𝐴(𝒙 + 𝒚) = 𝐴𝒙 + 𝐴𝒚 = 𝟎 + 𝟎 = 𝟎 , 
pelo que 𝒩(𝐴) é fechado para a soma. 
2. Fecho para a ME: 
 
𝒙 ∈ 𝒩(𝐴) ⇔ 𝐴𝒙 = 𝟎 
⇒ 𝐴(𝜆𝒙) = 𝜆 (𝐴𝒙⏟
𝟎
) = 𝟎 ⇔ 𝜆𝒙 ∈ 𝒩(𝐴) 
pelo que 𝒩(𝐴) é fechado para a ME. 
 
Na verdade, mostrar-se-á no cap. 4 que, reciprocamente, 
Aula 9: Subespaços 
Aula 9 – Jorge Buescu 
6 
todos os subespaços de ℝ𝑛 são dados por 
núcleos de matrizes adequadas. 
Exº 4: Subespaços de ℳ𝑛×𝑛(ℝ) 
 
 𝒮𝑛(ℝ) = {𝐴 ∈ ℳ𝑛×𝑛(ℝ): 𝐴 = 𝐴
𝑇} 
 = {matrizes simétricas 𝑛 × 𝑛} 
é um subespaço de ℳ𝑛×𝑛(ℝ) pois verifica os fechos: 
 
1. [fecho para a soma] a soma de matrizes simétricas é 
simétrica [ (𝐴 + 𝐵)𝑇 = 𝐴𝑇 + 𝐵𝑇 = 𝐴 + 𝐵 ] 
2. [fecho para ME] A multiplicação de uma matriz simétrica 
por um escalar é simétrica [ (𝜆 𝐴)𝑇 = 𝜆𝐴𝑇 = 𝜆𝐴 ] 
Assim, pelo Teorema 2.2 𝒮𝑛(ℝ) é subespaço de 
ℳ𝑛×𝑛(ℝ). 
 
Verificação concreta, para matrizes simétricas 2X2: 
 [
𝑎 𝑏
𝑏 𝑐
] + [
𝑒 𝑓
𝑓 𝑔
] = [
𝑎 + 𝑒 𝑏 + 𝑓
𝑏 + 𝑓 𝑐 + 𝑔
] , 
pelo que a soma de matrizes simétricas é simétrica. 
 𝜆 [
𝑎 𝑏
𝑏 𝑐
] = [
𝜆𝑎 𝜆𝑏
𝜆𝑏 𝜆𝑐
] , 
Aula 9: Subespaços 
Aula 9 – Jorge Buescu 
7 
pelo que a multiplicação de uma matriz simétrica por escalar 
resulta numa matriz simétrica. 
 
 
Exº 3: Subespaços de ℳ𝑛×𝑛(ℝ) (cont.) 
Analogamente, tem-se [verificar!] : 
 
 𝒯𝑛
𝑠𝑢𝑝 = {𝐴 ∈ ℳ𝑛×𝑛(ℝ): 𝐴 é triangular superior} é 
um subespaço de ℳ𝑛×𝑛(ℝ) 
 
elemento genérico de 𝒯𝑛
𝑠𝑢𝑝 : [
𝑎11 𝑎12 … 𝑎1𝑛
 0 𝑎22 … 𝑎2𝑛
⋮
0
⋮
⋯
…
0
⋮
𝑎𝑛𝑛
] 
 
TPC: provar fechos do conjunto destas matrizes. 
 
 𝒯𝑛
𝑖𝑛𝑓
= {𝐴 ∈ ℳ𝑛×𝑛(ℝ): 𝐴 é triangular inferior} 
 
elemento genérico de 𝒯𝑛
𝑖𝑛𝑓
: [
𝑎11 0 … 0
 𝑎21 𝑎22 … ⋮
⋮
𝑎𝑛1
⋮
⋯
 …
𝑎𝑛−1,𝑛
0
𝑎𝑛𝑛
] 
 
 
TPC: provar fechos do conjunto destas matrizes. 
Aula 9: Subespaços 
Aula 9 – Jorge Buescu 
8 
 
Subespaços de ℱ(ℝ): 
funções contínuas e diferenciáveis 
 
 
𝐶0(ℝ) = { 𝑓 ∈ ℱ(ℝ): 𝑓 é contínua em ℝ} 
 
𝑓, 𝑔 ∈ 𝐶0(ℝ) ⇔ 𝑓(𝑥), 𝑔(𝑥) são contínuas ∀𝑥 ∈ ℝ. 
Sabemos que a soma pontual de funções contínuas é contínua: 
se f e g são contínuas em 𝑥, então 𝑓 + 𝑔 é contínua em 𝑥. 
Assim, (𝑓 + 𝑔)(𝑥) é contínua ∀𝑥 ∈ ℝ, e portanto 
 
𝑓, 𝑔 ∈ 𝐶0(ℝ) ⇒ 𝑓 + 𝑔 ∈ 𝐶0(ℝ) [fecho para a soma] 
 
Analogamente, dado qualquer escalar 𝜆 ∈ ℝ 
𝑓 ∈ 𝐶0(ℝ) ⇒ 𝜆 𝑓 ∈ 𝐶0(ℝ) [fecho para a ME] 
Assim, 𝐶0(ℝ) é um subespaço linear de ℱ(ℝ) 
(espaço das funções contínuas) 
Aula 9: Subespaços 
Aula 9 – Jorge Buescu 
9 
 
Analogamente: 
𝐶1(ℝ) = { 𝑓 ∈ ℱ(ℝ): 𝑓´ existe e é contínua em ℝ} 
é um subespaço de ℱ(ℝ), uma vez que 
 soma de funções com 1ª derivada contínua tem 1ª 
derivada contínua [fecho para a soma]; 
 multiplicação de uma função com 1ª derivada 
contínua resulta numa função com 1ª derivada 
contínua [fecho para ME]. 
 
Estas funções designam-se por continuamente diferenciáveis. 
Observe-se que 𝐶1(ℝ) ⊂ 𝐶0(ℝ), pois uma função diferenciável 
é contínua! 
 
Resumindo, 
𝐶1(ℝ) é um subespaço de ℱ(ℝ) 
 é também subespaço de 𝐶0(ℝ)! 
 
 
Aula 9: Subespaços 
Aula 9 – Jorge Buescu 
10 
 
 
Os espaços 𝐶𝑘(ℝ) 
 
 
𝐶𝑘(ℝ) = { 𝑓 ∈ ℱ(ℝ): 𝑓(𝑘) existe e é contínua em ℝ} 
 
Se 𝑓 ∈ 𝐶𝑘(ℝ), a derivada de ordem 𝑘 existe e é 
contínua 
⇒ todas as derivadas de 𝑓 de ordem 1, 2, … , 𝑘 − 1 
existem e são contínuas 
 
⇒ 𝐶𝑘(ℝ) ⊂ 𝐶𝑘−1(ℝ) ⊂ 𝐶𝑘−2(ℝ) ⊂ ⋯ ⊂ 𝐶1(ℝ) ⊂ 𝐶0(ℝ). 
 
TPC: verificar que são fechados para as operações soma e 
ME 
Todos estes são subespaços de ℱ(ℝ) (e portanto 
espaços vectoriais por direito próprio) 
Aula 9: Subespaços 
Aula 9 – Jorge Buescu 
11 
 
𝐶∞(ℝ) = { 𝑓 ∈ ℱ(ℝ): 𝑓(𝑘) existe ∀ 𝑘 ∈ ℕ} 
 
Funções indefinidamente diferenciáveis: possuem 
derivadas de todas as ordens 
Exº: 𝑓(𝑥) = sin(𝑥) ; 𝑔(𝑥) = 𝑒𝑥; ℎ(𝑥) = 𝑥5 + 𝑥2 + 1; … 
 
𝐶∞(ℝ) forma um subespaço de ℱ(ℝ) (verificar), 
contido em todos os espaços 𝐶𝑘(ℝ), 𝑘 ∈ ℕ. 
 
𝒫𝑛(ℝ) = { polinómios de grau ≤ 𝑛} 
𝑝 ∈ 𝒫𝑛(ℝ) ⇔ 𝑝(𝑥) = 𝑎0 + 𝑎1𝑥 + 𝑎2𝑥
2 + ⋯ + 𝑎𝑛𝑥
𝑛 
 
𝒫𝑛(ℝ) forma um subespaço de 𝐶
∞(ℝ), pois 
 𝒫𝑛(ℝ) ⊂ 𝐶
∞(ℝ) (porquê?) 
 Soma e ME de polinómios de grau ≤ 𝑛 continua 
a ser um polinómio de grau ≤ 𝑛. 
Obs.: {polinómios de grau = 𝑛} não é um subespaço! 
Porquê? 
Aula 9: Subespaços 
Aula 9 – Jorge Buescu 
12 
 
𝒫𝑛(ℝ) ⊂ 𝐶
∞(ℝ) ⊂ 𝐶𝑘(ℝ) ⊂ 𝐶𝑘−1(ℝ) ⊂
𝐶𝑘−2(ℝ) ⊂ ⋯ ⊂ 𝐶1(ℝ) ⊂ 𝐶0(ℝ) ⊂ ℱ(ℝ) 
 
 
 
Aula 10: Combinações lineares, espaço gerado por um conjunto de vectores 
Aula 10 – Jorge Buescu 
1 
 
Definição 2.5 (combinação linear) 
Um vector 𝒘 ∈ 𝑉 diz-se combinação linear dos vectores 
𝒗1, 𝒗2, … , 𝒗𝑘 se puder exprimir-se da forma 
𝒘 = 𝑐1𝒗1 + 𝑐2𝒗2 + ⋯ + 𝑐𝑘𝒗𝑘 = ∑ 𝑐𝑖𝒗𝑖
𝑘
𝑖=1
 
onde 𝑐1, 𝑐2, … , 𝑐𝑘 são escalares. 
 
 
Definição 2.6 (espaço gerado) 
Designamos por ger(𝒗1, 𝒗2, … , 𝒗𝑘) o conjunto de todas as 
combinações lineares dos vectores 𝒗1, 𝒗2, … , 𝒗𝑘: 
ger(𝒗1, 𝒗2, … , 𝒗𝑘) = { 𝒘 = ∑ 𝑐𝑖𝒗𝑖 ∶ 
𝑘
𝑖=1 𝜆𝑖 ∈ 𝕂, 𝑖 = 1, … , 𝑘}. 
 
Teorema 2.7. 
ger(𝒗1, 𝒗2, … , 𝒗𝑘) é um subespaço de V. De facto, é o 
menor subespaço de V que contém {𝒗1, 𝒗2, … , 𝒗𝑘}. 
 
O conjunto {𝒗1, 𝒗2, … , 𝒗𝑘} diz-se um conjunto de geradores do 
subespaço ger(𝒗1, 𝒗2, … , 𝒗𝑘). 
 
Aula 10: Combinações lineares, espaço gerado por umconjunto de vectores 
Aula 10 – Jorge Buescu 
2 
 
 
Exº 1. Determinar, em ℝ3, ger((1,0,0), (0,1,0)). 
Determinar quando é que um vector 𝒘 = (𝑎, 𝑏, 𝑐) ∈ 
ger((1,0,0), (0,1,0)). 
 
Exº 2. O espaço 𝒫𝑛(ℝ) dos polinómios de grau ≤ 𝑛 é 
gerado por qualquer dos conjuntos: 
1. 𝐴 = {1, 𝑥, 𝑥2, … , 𝑥𝑛}; 
2. 𝐵 = {1, 1 + 𝑥, (1 + 𝑥)2, … , (1 + 𝑥)𝑛}. 
 
Exº 3. Consideremos os vectores de ℝ3 𝒗1 = (1,2, −1),
𝒗2 = (3,2,1). Verificar se os vectores 𝒖 = (9,2,7) e 
𝒘 = (4, −1,8) pertencem, ou não, a ger(𝒗1, 𝒗2). 
 
Exº 4. Determinar se os vectores 𝒗1 = (1,1,2), 𝒗2 =
(1,0,1), 𝒗3 = (2,1,3) geram ℝ
3. 
 
 
 
 
Aula 10: Combinações lineares, espaço gerado por um conjunto de vectores 
Aula 10 – Jorge Buescu 
3 
 
Definição 2.8 (espaço das linhas e das colunas de uma matriz) 
Dada uma matriz 𝐴𝑚×𝑛: 
1. o subespaço de ℝ𝑚 gerado pelos vectores definidos pelas 𝑛 
colunas de 𝐴 encaradas como vectores de ℝ𝑚 diz-se o espaço 
das colunas de A e denota-se por col(A). 
2. o subespaço de ℝ𝑛 gerado pelos vectores definidos pelas 𝑚 
linhas de 𝐴 encaradas como vectores de ℝ𝑛 diz-se o espaço 
das linhas de A e denota-se por lin(A). 
 
 
 
Exº: Se 𝐴3×4 = [
 1 𝜋 5 7
−1 2 4 9
√2 0 𝑒 3
], 
 
col(𝐴) = ger{[
1
−1
√2
] , [
𝜋
2
0
] , [
5
4
𝑒
] , [
7
9
3
]} ⊂ ℝ3; 
 
lin(𝐴) = ger{(1, 𝜋, 5,7), (−1,2,4,9), (√2, 0, 𝑒, 3)} ⊂ ℝ4. 
 
 
 
 
Aula 10: Combinações lineares, espaço gerado por um conjunto de vectores 
Aula 10 – Jorge Buescu 
4 
 
Teorema 2.9 
Dada uma matriz 𝐴𝑚×𝑛, o sistema de equações 
lineares 
𝐴𝒙 = 𝒃 
é possível se, e só se, 
𝒃 ∈ col(A). 
 
 
 
Exº: Consideremos o sistema 
 
[
1 2
2 4
] [
𝑥1
𝑥2
] = [
𝛼
𝛽]. 
 
A eliminação de Gauss sobre a matriz aumentada mostra que o 
sistema é possível se e só se 2𝛼 = 𝛽, ou seja, se e só se o termo 
independente 𝒃=[
𝛼
𝛽] for da forma 
𝒃 = 𝛼 [
1
2
] , 𝛼 ∈ ℝ. (*) 
 
Mas col(𝐴) = ger{[
1
2
] , [
2
4
]} = ger{[
1
2
]}, pelo que a condição (*) é 
equivalente a 𝒃 ∈ col(𝐴). 
 
 
 
Aula 10: Combinações lineares, espaço gerado por um conjunto de vectores 
Aula 10 – Jorge Buescu 
5 
 
Definição 2.10 [intersecção e soma de subespaços] 
Dados subespaços 𝑈, 𝑊 de um espaço vectorial 𝑉, define-se 
1. 𝑈 ∩ 𝑊 = {𝒗 ∈ 𝑉: 𝒗 ∈ 𝑈 ∧ 𝒗 ∈ 𝑊}; 
2. 𝑈 + 𝑊 = {𝒗 ∈ 𝑉: 𝒗 = 𝒖 + 𝒘, 𝒖 ∈ 𝑈 , 𝒘 ∈ 𝑊} 
 
 
Intersecção e soma de subespaços. 
 
 
Teorema 2.10 Intersecção e soma são subespaços 
1. 𝑈 ∩ 𝑊 é subespaço de 𝑉. 
2. 𝑈 + 𝑊 é subespaço de 𝑉; é o menor subespaço de V que 
contém 𝑈 ∪ 𝑊 (que em geral não é subespaço de V). 
Aulas 12-13: Independência linear 
Aula 11 – Jorge Buescu 
1 
 
Definição 2.11 (Independência e dependência linear) 
Um conjunto 𝑆 = {𝒗1, 𝒗2, … , 𝒗𝑘} de vectores de um espaço 
linear V diz-se linearmente independente (LI) se 
𝑐1𝒗1 + 𝑐2𝒗2 +⋯𝑐𝑘𝒗𝑘 = 𝟎 ⇒ 𝑐1 = 𝑐2 = ⋯𝑐𝑘 = 0 (2.1) 
Um conjunto que não é linearmente independente diz-se 
linearmente dependente (LD). 
Obs. 1. A equação 𝑐1𝒗1 + 𝑐2𝒗2 +⋯𝑐𝑘𝒗𝑘 = 𝟎 tem sempre uma solução: a que 
tem todos os coeficientes nulos. A definição 2.11 afirma que, se os vectores 
forem LI, essa é a única combinação linear de elementos de S igual ao vector 
nulo. 
 
Exemplo 1. Qualquer conjunto que contenha o vector nulo 𝟎 é 
LD 
(pois, por exemplo, 1. 𝟎 + 0. 𝒗2 +⋯0. 𝒗𝑘 = 𝟎 é uma 
combinação linear igual ao vector nulo sem que todos os 
coeficientes sejam nulos) 
 
Exemplo 2. Qualquer subconjunto de um conjunto LI é LI 
(raciocinar por absurdo) 
 
 
 
Aulas 12-13: Independência linear 
Aula 11 – Jorge Buescu 
2 
Exemplo 3. Consideremos os conjuntos de vectores de ℝ3 
𝑆1 = {[
1
0
0
] , [
1
1
0
] , [
1
1
1
]} , 𝑆2 =
{
 
 
 
 
[
1
1
1
]
⏟
𝒗1
, [
2
1
0
]
⏟
𝒗2
, [
−1
0
1
]
⏟
𝒗3 }
 
 
 
 
 . 
O conjunto 𝑆1é linearmente independente (LI), ao passo que 𝑆2 
é linearmente dependente. 
Os vectores de 𝑆2 verificam a relação de dependência linear 
𝒗1 = 𝒗2 + 𝒗3, 
pelo que são complanares (ver abaixo). 
 
 
 
Os vectores de 𝑆1 são independentes: Os vectores de 𝑆2 são dependentes: 
nenhum é CL dos outros dois. são complanares e 𝒗1 = 𝒗2 + 𝒗3. 
 
 
Aulas 12-13: Independência linear 
Aula 11 – Jorge Buescu 
3 
Exemplo 4. Em ℝ𝑛, o conjunto de 𝑛 vectores 
ℬ𝑛 =
{
 
 
 
 
[
 
 
 
 
1
0
0
⋮
0]
 
 
 
 
⏟
𝒆1
,
[
 
 
 
0
1
0
⋮
0]
 
 
 
⏟
𝒆2
, … ,
[
 
 
 
0
0
0
⋮
1]
 
 
 
⏟
𝒆𝑛
 
}
 
 
 
 
= {𝒆1, 𝒆2, … , 𝒆𝑛} 
é linearmente independente. 
 
Se S é um conjunto LD, por definição existe uma combinação linear 
não-trivial (i.e. em que os coeficientes não são simultaneamente nulos) 
igual ao vector nulo. Essa combinação linear diz-se uma relação de 
dependência linear entre os vectores de 𝑆. 
Exº: no exemplo 3 acima, 𝒗1 − 𝒗2 − 𝒗3 = 𝟎 é uma relação de 
dependência linear entre os vectores de 𝑆2. 
 
 
Proposição 2.11. 
Um conjunto de vectores S é linearmente dependente se, e só se, 
existe um vector de S que é combinação linear dos restantes. 
 
Dem.: 
imediata a partir de uma relação não-trivial de dependência linear. 
 
Aulas 12-13: Independência linear 
Aula 11 – Jorge Buescu 
4 
 
Exº 5: Estudar, em 𝒫4(ℝ), dependência ou independência linear dos 
conjuntos de vectores, e sempre que LD construir uma relação de 
dependência linear entre os respectivos vectores: 
 𝐴 = {1⏟
𝑝1
, 𝑥⏟
𝑝2
, 𝑥2⏟
𝑝3
} ; 
 𝐵 = {1 + 𝑥⏟ 
𝑞1
, 1 − 𝑥⏟ 
𝑞2
, 𝑥2 + 1⏟ 
𝑞3
, 1⏟
𝑞4
}. 
 
 
Resp.: A é LI. B é linearmente dependente; uma relação não-trivial de dependência linear é, 
por exemplo, 
−𝑞1 − 𝑞2 + 2𝑞4 = 0 
De facto −𝑞1(𝑥) − 𝑞2(𝑥) + 2𝑞4(𝑥) = −(1 + 𝑥) − (1 − 𝑥) + 2 = 0 ∀𝑥 ∈ℝ. 
 
Exº 6.: Mostrar que, em 𝒫𝑛(ℝ), {1, 𝑥, 𝑥
2, … , 𝑥𝑛} é um conjunto 
linearmente independente. 
 
Exº 7. Mostrar que, no espaço 𝐶0(ℝ), 
 𝐴 = {sin 𝑥, cos 𝑥} é um conjunto linearmente independente; 
 𝐵 = {sin 𝑥, cos 𝑥, sin (𝑥 + 𝛼)} é um conjunto linearmente 
dependente. 
 
 
Aulas 12-13: Independência linear 
Aula 11 – Jorge Buescu 
5 
 
Teorema 2.12. 
1) Um conjunto 𝑆 = {𝒗1, 𝒗2, … , 𝒗𝑛} de vectores de ℝ
𝑚 é 
linearmente independente sse o sistema homogéneo 𝐴𝒙 = 𝟎, 
onde 𝐴𝑚×𝑛 é a matriz cujas 𝑛 colunas são 𝒗1, 𝒗2, … , 𝒗𝑛, tem 
apenas a solução trivial 𝒙 = 𝟎. 
2) Um conjunto de 𝑛 vectores em ℝ𝑚, com 𝑛 > 𝑚, é 
linearmente dependente. 
Aplicação: construção de um subconjunto LI maximal. 
Os 4 vectores de ℝ4 
{
 
 
 
 
[
1
1
0
2
]
⏞
𝒗1
, [
 1
−1
 
1
0
]
⏞
𝒗2
, [
0
1
1
1
]
⏞
𝒗3
, [
1
1
1
2
]
⏞
𝒗4
}
 
 
 
 
 formam um conjunto linearmente 
dependente, uma vez que a matriz 𝐴 cujas colunas são os vectores, 
 𝐴 = [
1 1 0 1
1 −1 1 1
0
2
1
0
1 1
1 2
], 
tem característica 3, pelo que o sistema 𝐴𝒙 = 𝟎 é indeterminado. Assim, por 
1), o conjunto formado pelos 4 vectores é LD. 
Por outro lado, os pivots de A estão nas colunas 1, 2 e 3. A matriz 𝐵4×3 formada 
pelos vectores 𝒗1, 𝒗2, 𝒗3, 
𝐵 = [
1 1 0
1 −1 1
0
2
1
0
1
1
] 
tem característica 3. Isto significa que as suas colunas, e portanto osvectores 
𝒗1, 𝒗2, 𝒗3, são linearmente independentes (também por 1). 
Aula 14: Bases de um espaço linear 
Aula 14 – Jorge Buescu 
1 
 
Def. 2.13 (Base) 
Chama-se base de um espaço vectorial V a qualquer conjunto 
de vectores que seja simultaneamente 
(1) linearmente independente, 
(2) gerador de V. 
 
Exemplo 1: 
𝐴 = {[
1
0
0
] , [
1
2
0
] , [
1
1
1
]} é uma base de ℝ3; 
𝐵 = {[
1
0
0
] , [
1
1
0
] , [
2
1
0
]} não é base de ℝ3. 
 
Proposição 2.14. 
Dada uma base ℬ de um espaço vectorial 𝑉, qualquer vector se 
pode representar de forma única como combinação linear dos 
vectores de ℬ. 
Isto é, dada uma base ℬ = {𝒗1, 𝒗2, … , 𝒗𝑛}, a forma de escrever 
𝒖 = 𝑐1𝒗1 + 𝑐2𝒗2 +⋯+ 𝑐𝑛𝒗𝑛 
é única. 
Aula 14: Bases de um espaço linear 
Aula 14 – Jorge Buescu 
2 
 
Definição 2.15. 
Dada uma base ℬ = {𝒗1, 𝒗2, … , 𝒗𝑛} de um espaço vectorial 𝑉, 
chamam-se coordenadas do vector 𝒖 na base 𝓑 os coeficientes 
(𝑐1, 𝑐2, … , 𝑐𝑛) 
da combinação linear de 𝒖 na base ℬ 
𝒖 = 𝑐1𝒗1 + 𝑐2𝒗2 +⋯+ 𝑐𝑛𝒗𝑛. 
Utiliza-se para designar este facto a notação 
𝒖 ↝ℬ (𝑐1, 𝑐2, … , 𝑐𝑛). 
 Exº 1: Em ℝ𝑛, o conjunto 
ℬ𝑐 =
{
 
 
 
 
[
 
 
 
1
0
0
⋮
0]
 
 
 
⏟
𝒆1
,
[
 
 
 
0
1
0
⋮
0]
 
 
 
⏟
𝒆2
, … ,
[
 
 
 
0
0
0
⋮
1]
 
 
 
⏟
𝒆𝑛
 
}
 
 
 
 
= {𝒆1, 𝒆2, … , 𝒆𝑛} 
forma uma base, chamada base canónica de ℝ𝑛. 
Dado um vector 𝒖 =
[
 
 
 
 
𝑢1
𝑢2
𝑢3
⋮
𝑢𝑛]
 
 
 
 
∈ ℝ𝑛, as suas coordenadas 
 
(𝑐1, 𝑐2, … , 𝑐𝑛) na base canónica satisfazem 
Aula 14: Bases de um espaço linear 
Aula 14 – Jorge Buescu 
3 
 
[
 
 
 
 
𝑢1
𝑢2
𝑢3
⋮
𝑢𝑛]
 
 
 
 
= 𝑐1
[
 
 
 
 
1
0
0
⋮
0]
 
 
 
 
+ 𝑐2
[
 
 
 
0
1
0
⋮
0]
 
 
 
+ 𝑐3
[
 
 
 
0
0
1
⋮
0]
 
 
 
+ ⋯+ 𝑐𝑛
[
 
 
 
0
0
0
⋮
1]
 
 
 
 
 
Em ℬ𝑐 ocorre o milagre da base canónica: as coordenadas 
coincidem com as componentes do vector original! 
(𝑐1, 𝑐2, … , 𝑐𝑛) = (𝑢1, 𝑢2, … , 𝑢𝑛) 
ou, na notação da Def. 2.15, 
𝒖 =
[
 
 
 
 
𝑢1
𝑢2
𝑢3
⋮
𝑢𝑛]
 
 
 
 
 ⟺ 𝒖 ↝ℬ (𝑢1, 𝑢2, … , 𝑢𝑛) 
 
 
Mas as coordenadas numa base de ℝ𝑛não são as 
componentes do vector! 
 
 
 
Aula 14: Bases de um espaço linear 
Aula 14 – Jorge Buescu 
4 
Exemplo 2: Em ℝ2 consideremos as duas bases 
ℬ𝑐 = {[
1
0
] , [
0
1
]} (base canónica), 
ℬ1 = {[
−1
3
] , [
3
−1
]} (porque é base? ) 
e o vector 𝒗 = (2,2). 
 
𝒗 = 2 [
1
0
] + 2 [
0
1
] ⇒ As coordenadas de 𝒗 em ℬ𝑐 são 𝒗↝(2,2) 
 
𝒗 = 1 [
−1
3
] + 1 [
3
−1
] ⇒ As coordenadas de 𝒗 em ℬ1 são 𝒗↝(1,1) 
 
O vector é sempre o mesmo. As suas coordenadas dependem 
da base: o mesmo vector tem coordenadas diferentes em bases 
diferentes. 
 
 
Aula 14: Bases de um espaço linear 
Aula 14 – Jorge Buescu 
5 
 
Exº. Em 𝒫2(ℝ), calcular as coordenadas do polinómio 
𝑝(𝑥) = 7 + 6𝑥 + 5𝑥2 
na base ℬ = {1⏟
𝑝1
, 1 + 𝑥⏟ 
𝑝2
, 1 + 𝑥 + 𝑥2⏟ 
𝑝3
 }. 
Resolução: As coordenadas de 𝑝 na base ℬ são dadas pela 
solução de 
7 + 6𝑥 + 5𝑥2 = 𝑐1. 1 + 𝑐2. (1 + 𝑥) + 𝑐3. (1 + 𝑥 + 𝑥
2) 
 = (𝑐1 + 𝑐2 + 𝑐3) + (𝑐2 + 𝑐3)𝑥 + 𝑐3𝑥
2 
Igualando termos do mesmo grau, obtemos para as 
coordenadas (𝑐1, 𝑐2, 𝑐3) o sistema (possível e determinado) 
[
1 1 1
0 1 1
0 0 1
] [
𝑐1
𝑐2
𝑐3
] = [
7
6
5
] 
 
cuja solução única é dada por [
𝑐1
𝑐2
𝑐3
] = [
1
1
5
]. 
 
Assim, as coordenadas de 𝑝 na base ℬ são 
𝑝 ↝ℬ (1,1,5). 
(onde se utiliza o símbolo ↝ℬ para designar “tem coordenadas em 𝑉 dadas por”) 
 
Aula 14: Bases de um espaço linear 
Aula 14 – Jorge Buescu 
6 
Verificação: 
 
 1. 𝑝1(𝑥) + 1. 𝑝2(𝑥) + 5. 𝑝3(𝑥) = 
= 1.1 + 1. (1 + 𝑥) + 5. (1 + 𝑥 + 𝑥2) 
= 7 + 6𝑥 + 5𝑥2 = 𝑝(𝑥). 
 
 
Vector = ∑ (coordenada)𝑖 . (Vector de base)𝑖𝑖 
 
 
Aula 15: dimensão 
Aulas 15+16 – Jorge Buescu 
1 
 
Uma base de um espaço vectorial 𝑉 não pode ter vectores “a 
menos” pois eles têm de ser geradores de V; mas também não 
pode ter vectores “a mais” pois têm de ser linearmente 
independentes. 
 
O número de vectores de uma base de 𝑉 é independente da 
base: 
 
Teorema 2.16 (Teorema da dimensão) 
Todas as bases de um espaço linear 𝑉 ≠ {𝟎} têm o mesmo 
número de elementos. 
 
Este número inteiro é portanto uma característica intrínseca do 
espaço 𝑉, a que vamos chamar dimensão de 𝑉. 
 
Definição 2.17 (Dimensão) 
A dimensão de um espaço 𝑉 é o número de vectores numa base 
de 𝑉, se este for finito. Caso contrário, o espaço diz-se de 
dimensão infinita. 
Obs.: para determinar a dimensão de um espaço, basta fixar uma base qualquer 
e contar o número de vectores na base! 
Aula 15: dimensão 
Aulas 15+16 – Jorge Buescu 
2 
 
Corolário 2.18 
Num espaço de dimensão 𝑛, quaisquer 𝑛 + 1 vectores são 
sempre linearmente dependentes. 
 
Exemplo 1: 
ℝ𝑛 tem dimensão 𝑛 (basta considerar a base canónica). 
Em particular, ℝ (“uma recta”) tem dimensão 1, ℝ2 (“um 
plano”) tem dimensão 2, ℝ3 (“o espaço físico”) tem dim 3… 
 
Exemplo 2: 
ℳ2×2(ℝ) = {matrizes reais 2 × 2} tem dimensão 4, pois 
ℬ𝑐𝑎𝑛 = {[
1 0
0 0
] , [
0 1
0 0
] , [
0 0
1 0
] [
0 0
0 1
]} 
é base de ℳ2×2(ℝ) (verificar) e tem 4 vectores. 
Esta base chama-se base canónica de ℳ2×2(ℝ), pois as 
coordenadas de um vector nesta base são imediatas: se 
𝐴 = [
𝑎 𝑏
𝑐 𝑑
] , então 
𝐴 = 𝑎 [
1 0
0 0
] + 𝑏 [
0 1
0 0
] + 𝑐 [
0 0
1 0
] + 𝑑 [
0 0
0 1
] 
pelo que 𝐴 tem as coordenadas 𝐴↝(𝑎, 𝑏, 𝑐, 𝑑) em ℬ𝑐𝑎𝑛. 
Aula 15: dimensão 
Aulas 15+16 – Jorge Buescu 
3 
 
Exemplo 3: 
ℳ𝑚×𝑛(ℝ) = {matrizes reais 𝑚 × 𝑛} tem dimensão 𝑚𝑛, pois a 
correspondente base canónica 
 
ℬ𝑐𝑎𝑛 = {[
1 0 … 0
0
⋮
0
0 … 0
 ⋮ ⋱ 0
0 … 0
] , [
0 1 … 0
0
⋮
0
0 … 0
 ⋮ ⋱ 0
0 … 0
] ,… [
0 0 … 1
0
⋮
0
0 … 0
 ⋮ ⋱ 0
0 … 0
] , 
[
0 0 … 0
1
⋮
0
0 … 0
 ⋮ ⋱ 0
0 … 0
] , [
0 0 … 0
0
⋮
0
1 … 0
 ⋮ ⋱ 0
0 … 0
] , … [
0 0 … 0
0
⋮
0
0 … 1
 ⋮ ⋱ 0
0 … 0
], 
 
…, [
0 0 … 0
0
⋮
1
0 … 0
 ⋮ ⋱ 0
0 … 0
] , [
0 0 … 0
0
⋮
0
0 … 0
 ⋮ ⋱ 0
1 … 0
] ,… [
0 0 … 0
0
⋮
0
0 … 0
 ⋮ ⋱ 0
0 … 1
]}, 
 
(todas as matrizes são 𝑚 × 𝑛) é base de ℳ𝑚×𝑛(ℝ) (verificar) e 
tem 𝑚𝑛 elementos. 
 
 
 
 
Aula 15: dimensão 
Aulas 15+16 – Jorge Buescu 
4 
 
Exemplo 4. 
 
O espaço 𝒫𝑛(ℝ) = {polinómios reais de grau ≤ 𝑛} tem 
dimensão 𝑛 + 1. Uma sua base é 
 
ℬ𝑐𝑎𝑛 = {1, 𝑥, 𝑥
2, … , 𝑥𝑛}, 
que tem 𝑛 + 1 elementos. 
 
Exemplo 5. 
 
O espaço 𝒫(ℝ) = {polinómios reais} tem dimensão infinita. 
 
Para todo o 𝑛 ∈ ℕ, o conjunto {1, 𝑥, 𝑥2, … , 𝑥𝑛} tem 𝑛 + 1 
vectores linearmente independentes mas 
ger({1, 𝑥, 𝑥2, … , 𝑥𝑛} ) = 𝒫𝑛(ℝ) ⊊ 𝒫(ℝ). 
Assim, ∀𝑛 ∈ ℕ,𝒫(ℝ) possui um subespaço de dimensão 𝑛 
⇒ dim(𝒫(ℝ)) não pode ser finita 
⇒ dim(𝒫(ℝ)) = ∞ 
 
Aula 15: dimensão 
Aulas 15+16 – Jorge Buescu 
5 
 
Corolário: qualquer espaço de funções que contenha 
𝒫(ℝ) tem dimensão infinita. 
 
 
𝒫(ℝ) ⊂ 𝐶∞(ℝ) ⊂ ⋯ ⊂ 𝐶𝑘(ℝ)… ⊂ 𝐶1(ℝ)
⊂ 𝐶0(ℝ) ⊂ ℱ(ℝ) 
 
 
O mais pequeno tem dimensão ∞ ⇒ todos têm dimensão ∞. 
Aula 15: dimensão 
Aulas 15+16 – Jorge Buescu6 
 
Exemplo 6. Núcleos de matrizes. 
Se 𝐴𝑚×𝑛 é uma matriz de característica 𝑘, 
 o sistema 𝐴𝒙 = 𝟎 é indeterminado com grau de 
indeterminação 𝑛 − 𝑘; 
 𝒩(𝐴) é um subespaço de ℝ𝑛 de dimensão 𝑛 − 𝑘; 
 uma base para 𝒩(𝐴) é constituída pelos 𝑛 − 𝑘 vectores 
linearmente independentes obtidos por resolução do 
sistema. 
 
Definição 2.19: 
Dada uma matriz 𝐴𝑚×𝑛, define-se a nulidade nul(A) como 
𝑛𝑢𝑙(𝐴) = dim𝒩(𝐴) 
 
 
Teorema 2.20 (da característica-nulidade) 
 
Dada uma matriz 𝐴𝑚×𝑛, tem-se 
𝑐𝑎𝑟(𝐴) + 𝑛𝑢𝑙(𝐴) = 𝑛. 
 
Aula 15: dimensão 
Aulas 15+16 – Jorge Buescu 
7 
 
Exemplo 7 (propositadamente os cálculos são triviais): 
𝐴 = [
1 2 1
0 0 0
0 0 0
] 
 car(A) = 1; 
 nul(A) =dim( 𝒩(𝐴)) = 2 
 = grau de indeterminação de 𝐴𝒙 
 = nº variáveis – nº pivots 
 = 3 – car(A); 
 𝒩(𝐴) = { 𝒙 ∈ ℝ𝟑 ∶ 𝐴𝒙 = 𝟎} = 
 =
{
 
 
 
 
[
𝑥1
𝑥2
𝑥3
] = 𝑡 [
−2
1
0
]
⏟
𝒗1
+ 𝑠 [
−1
0
1
]
⏟
𝒗2
, 𝑡, 𝑠 ∈ ℝ
}
 
 
 
 
 
 
Ao escrever a solução geral de 𝐴𝒙 = 𝟎 na forma vectorial, fica 
explícita a base para 𝒩(𝐴)! 
ℬ𝒩(𝐴) =
{
 
 
 
 
[
−2
1
0
]
⏟
𝒗1
, [
−1
0
1
]
⏟
𝒗2
 
}
 
 
 
 
 
Geometricamente, trata-se do plano que passa pela origem e 
contém os vectores 𝒗1, 𝒗2. 
Aula 15: dimensão 
Aulas 15+16 – Jorge Buescu 
8 
Teorema 2.21 
Seja 𝑉 um espaço linear de dimensão 𝑛. Então: 
1. Qualquer subconjunto LI de 𝑉 é subconjunto de uma base de 
𝑉. 
2. Qualquer conjunto de n vectores LI é base de V. 
3. Qualquer conjunto de n vectores que gera V é base de V. 
 
Exº 8: Sabemos que ℝ4 tem dimensão 4. O conjunto de 4 
vectores 
𝑆 = {[
1
0
0
0
] , [
1
1
0
0
] , [
1
1
1
0
] , [
1
1
1
1
]} 
é LI, pois a matriz 𝐴 cujas colunas são os vectores, 
𝐴 = [
1 1 1 1
0
0
0
1
0
0
1
1
0
1
1
1
], 
tem característica 4. Pelo Teorema 2.22, 𝑆 é base de ℝ4. 
 
Exemplo 9. Consideremos, em 𝒫(ℝ), o conjunto de 4 vectores 
𝑆 = {1, 1 − 𝑥2, (1 + 𝑥)2, 1 + 𝑥2}. 
Determinar a dimensão e construir uma base para ger(𝑆) 
formada por elementos de 𝑆. 
Aula 15: dimensão 
Aulas 15+16 – Jorge Buescu 
9 
Bases para o espaço das linhas e colunas de uma matriz A 
 
Prop. 2.22 
O espaço das linhas lin(𝐴) mantém-se invariante ao longo do 
processo de eliminação de Gauss. 
Dem.: cada passo de EG consiste em combinar linearmente linhas de A, o que não altera o espaço gerado. 
 
Corolário 2.23 (bases para lin(𝐴)) 
São bases para o espaço das linhas lin(𝐴): 
a) O conjunto das linhas não-nulas no final da EG; 
b) O conjunto das linhas com pivot em qualquer fase da EG (em 
particular, antes da EG). 
 
Teorema 2.24 
dim (lin(𝐴)) = dim (col(𝐴)) = car(𝐴). 
 
Proposição 2.25 (base para col(𝐴)) 
Uma base para col(𝐴) é formada pelas colunas da matriz A 
que contêm pivots. 
Observação: Ao contrário do espaço das linhas, o espaço das colunas é 
alterado por EG, pelo que uma base é formada apenas pelas colunas da 
matriz inicial! 
Aula 15: dimensão 
Aulas 15+16 – Jorge Buescu 
10 
Exemplo 10: 
Determinar a dimensão e bases para o espaço das linhas e 
colunas de 
𝐴 = [
1 −1 2 1
−2
0
1
2
0
−1
−4
0
 2
1
1
2
] 
Res.: por EG a matriz é conduzida à forma escalonada 
𝐴′ = [
1 −1 2 1
0
0
0
0
0
0
0
0
0
3
0
0
]. 
Assim, car(𝐴) = 2 e portanto dim (lin(𝐴)) = dim (col(𝐴)) = 2. Os pivots 
de A estão nas linhas 1 e 2. Duas bases possíveis para (lin(𝐴)) são 
ℬ𝑙𝑖𝑛(𝐴)
1 = {(1,−1,2,1), (0,0,0,3)} (linhas LI da matriz final) 
ℬ𝑙𝑖𝑛(𝐴)
2 = {(1,−1,2,1), (−2,2,4,1)} (linhas LI da matriz inicial) 
 
Para o espaço das colunas, uma base é formada pelas colunas 
linearmente independentes da matriz inicial. Como os pivots estão nas 
colunas 1 e 4, estas são as colunas LI. Portanto uma base para col((𝐴)) 
é dada por 
ℬ𝑐𝑜𝑙(𝐴) = {[
1
−2
0
1
] , [
1
1
1
2
]} 
 
Aula 17: Mudança de base em espaços vectoriais 
Aula 17 – Jorge Buescu 
1 
Teorema 2.27 (mudança de base) 
Seja 𝑉 um espaço linear de dimensão 𝑛. Consideremos duas 
bases ordenadas de 𝑉, ℬ𝑎 = {𝒗1, 𝒗2, … , 𝒗𝑛} (“antiga”), 
ℬ𝑛 = {𝒘1, 𝒘2, … , 𝒘𝑛} (“nova”). 
Se 𝑥 = [
𝑥1
𝑥2
⋮
𝑥𝑛
] são as coordenadas de um vector 𝒖 na base ℬ𝑎, 
isto é, 𝒖 = 𝑥1𝒗1 + 𝑥2𝒗2 + ⋯ 𝑥𝑛𝒗𝑛, 
e 𝑦 = [
𝑦1
𝑦2
⋮
𝑦𝑛
] as coordenadas de 𝒖 em ℬ2, 
i.e. 𝒖 = 𝑦1𝒘1 + 𝑦2𝒘2 + ⋯ +𝑦𝑛𝒘𝑛, então 
[
𝑦1
𝑦2
⋮
𝑦𝑛
] = 𝑆−1 [
𝑥1
𝑥2
⋮
𝑥𝑛
] 
onde 𝑆 é a matriz cujas colunas são as coordenadas dos 
vectores de ℬ𝑛 (base nova) expressos em ℬ𝑎 (base antiga): 
𝒘𝑗 = ∑ 𝑠𝑖𝑗𝒗𝑖
𝑛
𝑖=1
, 𝑗 = 1, … , 𝑛. 
Obs.: 𝑆 = [𝑠𝑖𝑗]𝑖=1,…,𝑛
𝑗=1,…,𝑛
 diz-se matriz de mudança de base [MMB] de ℬ𝑎 para ℬ𝑛, 
utilizando-se por vezes a notação 𝑆ℬ𝑎→ℬ𝑛para representar este facto. 
Aula 17: Mudança de base em espaços vectoriais 
Aula 17 – Jorge Buescu 
2 
 
Aula 17: Mudança de base em espaços vectoriais 
Aula 17 – Jorge Buescu 
3 
Exº 1: Em ℝ2, mudança da base canónica 
ℬ𝑐𝑎𝑛 = {𝒆1, 𝒆2} = {[
1
0
] , [
0
1
]} 
para uma base “rodada por 𝜃”, 
ℬ𝜃 = {𝒘1, 𝒘2} = {[
cos 𝜃
sin 𝜃
] , [
− sin 𝜃
cos 𝜃
]} 
 
Res.: As coordenadas dos vectores da base nova na antiga são 
𝒘1 = cos 𝜃 [
1
0
] + sin 𝜃 [
0
1
], 
𝒘2 = −sin 𝜃 [
1
0
] + cos 𝜃 [
0
1
]. 
A matriz de mudança de base 𝑆ℬ𝑐𝑎𝑛→ℬ𝜃 é portanto 
𝑆 = [
cos 𝜃 − sin 𝜃
sin 𝜃 cos 𝜃
] 
A sua inversa é dada por 
𝑆−1 = [
cos 𝜃 sin 𝜃
−sin 𝜃 cos 𝜃
] 
Pelo que, se 𝒖 = 𝑥1𝒆1 + 𝑥1𝒆2 = 𝑦1𝒘1 + 𝑦21𝒘2 , se tem 
[
𝑦1
𝑦2
] = [
cos 𝜃 sin 𝜃
−sin 𝜃 cos 𝜃
] [
𝑥1
𝑥2
] 
Exº: se 𝒖 = [
1
2
], tem-se 𝒖↝ℬ𝜃
(cos 𝜃 + 2sin 𝜃 , − sin 𝜃 + 2cos 𝜃). Verificação: 
(cos 𝜃 + 2sin 𝜃) [
cos 𝜃
sin 𝜃
] + (− sin 𝜃 + 2cos 𝜃) [
− sin 𝜃
cos 𝜃
] = [
1
2
] . 
Aula 17: Mudança de base em espaços vectoriais 
Aula 17 – Jorge Buescu 
4 
 
Exº 2. Em ℝ3, mudar da base canónica 
ℬ𝑐𝑎𝑛 = {𝒆1, 𝒆2, 𝒆3} = {[
1
0
0
] , [
0
1
0
] , [
0
0
1
]} 
para a base 
ℬ𝑛𝑜𝑣𝑎 = {𝒘1, 𝒘2, 𝒘3} = {[
1
0
0
] , [
1
1
0
] , [
1
1
1
]}. 
 
A MMB 𝑆ℬ𝑐𝑎𝑛→ℬ𝑛𝑜𝑣𝑎 tem por colunas as coordenadas dos 
vectores da base nova na antiga. Como a base antiga é a 
canónica, ela é simplesmente a matriz cujas coluna 𝑖 é formada 
pelas componentes dos vectores do vector 𝒘𝑖: 
𝑆 = [
1 1 1
0 1 1
0 0 1
]. 
A sua inversa é (verificar!) 
𝑆−1 = [
1 −1 0
0 1 −1
0 0 1
]. 
 
 
 
Aula 17: Mudança de base em espaços vectoriais 
Aula 17 – Jorge Buescu 
5 
Verifiquemos a correcção deste resultado. Um vector 𝒖 = [
𝑥
𝑦
𝑧
] ∈ ℝ3 
tem por coordenadas na base canónica 𝒖↝ℬ𝑐𝑎𝑛 (𝑥, 𝑦, 𝑧). 
As suas coordenadas na base ℬ𝑛𝑜𝑣𝑎 são 
 
𝑆−1 [
𝑥
𝑦
𝑧
] = [
𝑥 − 𝑦
𝑦 − 𝑧
𝑧
], 
ou seja, 𝒖↝ℬ𝑛𝑜𝑣𝑎 (𝑥 − 𝑦, 𝑦 − 𝑧, 𝑧). E, com efeito, 
 
(𝑥 − 𝑦) [
1
0
0
] + (𝑦 − 𝑧) [
1
1
0
] + 𝑧 [
1
1
1
] = [
𝑥
𝑦
𝑧
] = 𝒖. 
 
 
 
 
O Teorema de mudança de base permite fazer a 
mudança de base, de uma vez só, para todos os vectores 
do espaço! 
 
 
 
aula 18 – transformações lineares 
 
Aula 18 – Jorge Buescu 
1 
 
Cap. 3 – TRANSFORMAÇÕES LINEARES 
 
Em tudo o que se segue 𝑉, 𝑊 designam espaços lineares. 
Definição 3.1 
Sejam 𝑉,𝑊 espaços lineares sobre o mesmo corpo 𝕂1. Uma 
função 𝑇: 𝑉 → 𝑊 diz-se uma transformação linear (TL) de 𝑉 em 
𝑊 se 
(1) ∀ 𝒗1, 𝒗2 ∈ 𝑉 𝑇(𝒗1 + 𝒗2) = 𝑇(𝒗1) + 𝑇(𝒗2), 
(2) ∀ 𝑐 ∈ 𝕂, ∀ 𝒗 ∈ 𝑉 𝑇(𝑐𝒗) = 𝑐𝑇(𝒗). 
 
 
 
 
1
 Recorde-se que 𝕂 = ℝ 𝑜𝑢 ℂ no contexto desta disciplina. 
aula 18 – transformações lineares 
 
Aula 18 – Jorge Buescu 
2 
Transformações Lineares são funções, no sentido usual do 
termo, de um espaço linear V noutro espaço W. 
A condição de serem funções lineares imposta na def. 3.1 é uma 
restrição fortíssima sobre as funções a considerar. 
 
Exemplo 1. ℝ é um espaço linear de dimensão 1. Quais são as 
transformações lineares (= funções lineares) de ℝ em ℝ? 
 
 
 
Qualquer outra função 𝑓: ℝ → ℝ que não seja dada por 
𝑓(𝑥) = 𝑎𝑥 é uma função não-linear! sin 𝑥, 𝑥2, 1
1+𝑥2
… são não-lineares. 
Cálculo Dif e Int. lida com funções não-lineares num espaço de dim. 1 
Álgebra Linear lida com funções lineares em espaços de dim 𝑚, 𝑛! 
aula 18 – transformações lineares 
 
Aula 18 – Jorge Buescu 
3 
Prop. 3.2 
𝑇: 𝑉 → 𝑊 é uma transformação linear se e só se 
∀ 𝑐1, 𝑐2 ∈ 𝕂, ∀ 𝒗1, 𝒗2 ∈ 𝑉 𝑇(𝑐1𝒗1 + 𝑐2𝒗2) = 𝑐1𝑇(𝒗1) + 𝑐2𝑇(𝒗2). 
 
 
Prop. 3.3 
Seja 𝑇: 𝑉 → 𝑊 uma transformação linear. Então 𝑇 preserva 
combinações lineares, isto é, 
𝑇 (∑ 𝑐𝑖𝒗𝑖
𝑛
𝑖=1
) = ∑ 𝑐𝑖𝑇(𝒗𝑖).
𝑛
𝑖=1
 
 
Exemplo 2. A transformação nula 
𝑇: 𝑉 → 𝑊 dada por ∀𝒗 ∈ 𝑉 𝑇(𝒗) = 𝟎𝑊 é linear. 
 
Exemplo 3. A transformação 𝑇: 𝑉 → 𝑉 que multiplica cada 
vector por um escalar fixo 𝜆, isto é, 
∀𝒗 ∈ 𝑉 𝑇(𝒗) = 𝜆𝒗 
É linear. 
Obs. Quando 𝜆 = 1 esta transformação é 𝑇(𝒗) = 𝒗 (identidade). 
aula 18 – transformações lineares 
 
Aula 18 – Jorge Buescu 
4 
 
Exemplo 4. Tranformações definidas por matrizes em ℝ𝑛: 
Seja 𝐴𝑚×𝑛 uma matriz 𝑚 × 𝑛. 
A transformação 𝑇: ℝ𝑛 → ℝ𝑚 definida por 
𝑇(𝒙) = 𝐴𝒙 
é linear. 
 
Exemplo 5. A transformação 𝑅𝜃: ℝ
2 → ℝ2 definida pela matriz 
𝐴𝜃 = [
cos 𝜃 − sin 𝜃
sin 𝜃 cos 𝜃
] 
é linear, em consequência do exemplo anterior. 
Ela representa, geometricamente, uma rotação pelo ângulo 𝜃 
em torno da origem. 
 
Obs. Tomando 𝜃 = 0 obtemos a matriz identidade (rotação pelo 
ângulo 0). Interpretar a matriz quando 𝜃 =
𝜋
2
. 
aula 18 – transformações lineares 
 
Aula 18 – Jorge Buescu 
5 
 
Exemplo 6. O operador derivação 
𝐷: 𝐶1(ℝ) → 𝐶0(ℝ) 
 𝑓⏟
∈𝐶1(ℝ)
↦ 𝐷(𝑓) = 𝑓′⏟
∈𝐶0(ℝ)
, derivada de 𝑓 
 
é linear. 
 
 
 
 
 
 
 
aula 19- representação matricial de tranformações lineares 
 
Jorge Buescu 1 
 
Teorema 3.4 (Representação matricial de TLs) 
Sejam 
 𝑉espaço linear de dimensão 𝑛 com base ordenada 
ℬ𝑉 = {𝒗1, 𝒗2, … , 𝒗𝑛} e 
 𝑊 espaço linear de dimensão 𝑚 com base ordenada 
ℬ𝑊 = {𝒘1, 𝒘2, … , 𝒘𝑚} 
e 𝑇: 𝑉 → 𝑊 uma transformação linear de 𝑉 para 𝑊. 
Sejam 
𝒗⏟
∈𝑉
= ∑ 𝑥𝑖𝒗𝑖
𝑛
𝑖=1
, 𝒘⏟
∈𝑊
= ∑ 𝑦𝑗𝒘𝑗
𝑚
𝑗=1
. 
Então 
[
𝑦1
𝑦2
⋮
𝑦𝑚
] = 𝐴𝑚×𝑛 [
𝑥1
𝑥2
⋮
𝑥𝑛
], 
onde 𝐴𝑚×𝑛 é a matriz cuja coluna 𝑖 são as coordenadas dos 
vectores 𝑇(𝒗𝑖), 𝑖 = 1, … , 𝑛. 
 
Obs. 1: A matriz 𝐴 diz-se uma representação matricial da 
transformação linear 𝑇. 
Obs. 2: A matriz 𝐴 depende da escolha das bases ℬ𝑉 e ℬ𝑊. 
aula 19- representação matricial de tranformações lineares 
 
Jorge Buescu 2 
 
Construção da matriz 𝐴 
 
 ℬ𝑉 = {𝒗1, 𝒗2, … , 𝒗𝑛} ℬ𝑊 = {𝒘1, 𝒘2, … , 𝒘𝑚} 
 
𝑇(𝒗1) = 𝑎11𝒘1 + 𝑎21𝒘2 + ⋯ + 𝑎𝑚1𝒘𝑚 → coluna 1 
𝑇(𝒗2) = 𝑎12𝒘1 + 𝑎22𝒘2 + ⋯ + 𝑎𝑚2𝒘𝑚 → coluna 2 
 … … … 
𝑇(𝒗𝑛) = 𝑎1𝑛𝒘1 + 𝑎2𝑛𝒘2 + ⋯ + 𝑎𝑚𝑛𝒘𝑚 → coluna 𝑛 
 
 col 1 col 2 … col 𝑛 
 ↓ ↓ ↓ 
𝐴𝑚×𝑛 = [
𝑎11
𝑎21
⋮
𝑎𝑚1
𝑎12
𝑎22
⋮
𝑎𝑚2
…
…
…
𝑎1𝑛
𝑎2𝑛
⋮
𝑎𝑚𝑛
] 
aula 19- representação matricial de tranformações lineares 
 
Jorge Buescu 3 
 
 
ALGUNS EXEMPLOS GEOMÉTRICOS DE TLs 
 
Exemplo 1. Reflexão em ℝ3 no plano 𝑥 = 𝑦: 
𝑇: ℝ3 → ℝ3 
 
Vamos fixar a base canónica ℬ𝑐𝑎𝑛 = {𝒆1, 𝒆2, 𝒆3} tanto no 
espaço de partida como de chegada. Tem-se (cfr geometria) 
 
 𝑇(𝒆1) = 𝒆2 = 0. 𝒆1 + 1. 𝒆2 + 0. 𝒆3 
𝑇(𝒆2) = 𝒆1 = 1. 𝒆1 + 0. 𝒆2 + 0. 𝒆3 
 𝑇(𝒆3) = 𝒆3 = 0. 𝒆1 + 0. 𝒆2 + 1. 𝒆3 
Assim, a representação matricial de 𝑇 nestas bases é 
𝐴 = [
0 1 0
1 0 0
0 0 1
] 
Dado um vector 𝒙 = (𝑥1, 𝑥2, 𝑥3), tem-se 𝒙 ↝ℬ𝑐𝑎𝑛 (𝑥1, 𝑥2, 𝑥3), 
e, sendo 𝑇(𝒙) = 𝒚 ↝ℬ𝑐𝑎𝑛 (𝑦1, 𝑦2, 𝑦3), tem-se 
[
𝑦1
𝑦2
𝑦3
] = [
0 1 0
1 0 0
0 0 1
] [
𝑥1
𝑥2
𝑥3
] . 
aula 19- representação matricial de tranformações lineares 
 
Jorge Buescu 4 
 
 
Exemplo 2. Rotações em ℝ2. 
𝑅𝜃: ℝ
2 → ℝ2 é a rotação pelo ângulo 𝜃 em torno da origem. 
 
 
Fixando a base canónica em ℝ2 à partida e à chegada, obtém-
se a representação matricial 𝐴𝜃 de 𝑅𝜃 nestas bases: 
 
𝐴𝜃 = [
cos 𝜃 − sin 𝜃
sin 𝜃 cos 𝜃
]. 
 
Assim, dado um vector 𝒙 ↝ℬ𝑐𝑎𝑛 (𝑥1, 𝑥2), as coordenadas do 
vector imagem 𝒚 ↝ℬ𝑐𝑎𝑛 (𝑦1, 𝑦2), após a rotação são dadas por 
 
[
𝑦1
𝑦2
] = [
cos 𝜃 − sin 𝜃
sin 𝜃 cos 𝜃
] [
𝑥1
𝑥2
]. 
aula 19- representação matricial de tranformações lineares 
 
Jorge Buescu 5 
 
 
Exemplo 3. Rotações em ℝ3 torno do eixo dos 𝑧𝑧´: 
𝑅𝑧(𝜃) é a rotação pelo ângulo 𝜃 em torno do eixo 𝑧𝑧´: 
 
 
Fixando as bases canónicas à partida e à chegada, obtém-se a 
representação matricial 
 
𝐴𝑧(𝜃) = [
cos 𝜃 − sin 𝜃 0
sin 𝜃 cos 𝜃 0
0 0 1
] 
 
Esta é chamada a matriz de rotação em torno do eixo dos zz’. 
 
aula 19- representação matricial de tranformações lineares 
 
Jorge Buescu 6 
 
http://blog.wolfire.com/2010/07/Linear-algebra-for-game-developers-part-4 
Exemplo 4. Rotações em ℝ3 torno do eixo 𝑥𝑥´ ou do eixo 𝑦𝑦’: 
 
 
𝑅𝑥(𝜃) conduz, fixando as bases canónicas, à matriz de rotação 
em torno do eixo 𝑥𝑥´: 
𝐴𝑥(𝜃) = [
1 0 0
0 cos 𝜃 − sin 𝜃
0 sin 𝜃 cos 𝜃
] 
 
Analogamente, 𝑅𝑦(𝜃) conduz, fixando as bases canónicas, à 
matriz de rotação em torno do eixo 𝑦𝑦´: 
𝐴𝑦(𝜃) = [
cos 𝜃 0 − sin 𝜃
0 1 0
sin 𝜃 0 cos 𝜃
] 
 
aula 19- representação matricial de tranformações lineares 
 
Jorge Buescu 7 
 
 
Rotações em torno de eixos diferentes não comutam! 
 
 
Porque o produto de matrizes não é comutativo! 
Em cima, está representado 
𝑅𝑦(180
0) ∘ 𝑅𝑥(90
0); 
em baixo, 
𝑅𝑥(90
0) ∘ 𝑅𝑦(180
0) 
Os resultados são diferentes, pois 
𝐴𝑥(90
0) 𝐴𝑦(180
0) ≠ 𝐴𝑦(180
0) 𝐴𝑥(90
0): 
aula 19- representação matricial de tranformações lineares 
 
Jorge Buescu 8 
 
[
1 0 0
0 0 −1
0 1 0
] [
−1 0 0
0 1 0
0 0 −1
] ≠ [
−1 0 0
0 1 0
0 0 −1
] [
1 0 0
0 0 −1
0 1 0
] 
aula 20- representação matricial de transformações lineares 
 
Jorge Buescu 1 
 
 
Representações matriciais (recap): 
𝑉 
 𝑇 
→ 𝑊 
 fixar ℬ𝑉 ↓ ↓ fixar ℬ𝑊 
(𝑉,ℬ𝑉)
 𝐴 
→ (𝑊;ℬ𝑊) 
 
A é a representação matricialde T relativamente às bases 
ℬ𝑉, ℬ𝑊. Se mudarem as bases, muda a matriz. 
 
aula 20- representação matricial de transformações lineares 
 
Jorge Buescu 2 
 
Exemplo 4. O operador Derivação 𝐷: 𝒫3(ℝ) → 𝒫3(ℝ). 
 
Como vimos, o operador derivação é linear. Como a derivada 
de um polinómio de grau ≤ 3 
𝑝 ∈ 𝒫3(ℝ) ⇔ 𝑝(𝑡) = 𝑎 + 𝑏𝑡 + 𝑐𝑡
2 + 𝑑𝑡3 
é um polinómio de grau ≤ 3, 
𝑝′(𝑡) = 𝑏 + 2𝑐𝑡 + 3𝑑𝑡2, 
o operador Derivação aplica 𝒫3(ℝ) → 𝒫3(ℝ). 
 
Uma vez que 𝒫3(ℝ) tem dimensão 4, podemos calcular, fixa 
uma base de 𝒫3(ℝ) à partida e à chegada, a sua 
representação matricial. 
 
Tomando a base canónica ℬ𝑐𝑎𝑛 = {1, 𝑡, 𝑡
2, 𝑡3} à partida e à 
chegada, obtemos a representação matricial 
𝐴 = [
0 1 0 0
0 0 2 0
0
0
0
0
0 3
0 0
] 
 
Se 𝑝(𝑡) = 𝑎 + 𝑏𝑡 + 𝑐𝑡2 + 𝑑𝑡3, então 𝑝 ↝ℬ𝑐𝑎𝑛 (𝑎, 𝑏, 𝑐, 𝑑); e 
aula 20- representação matricial de transformações lineares 
 
Jorge Buescu 3 
 
𝐴 [
𝑎
𝑏
𝑐
𝑑
] = [
0 1 0 0
0 0 2 0
0
0
0
0
0 3
0 0
] [
𝑎
𝑏
𝑐
𝑑
] = [
𝑏
2𝑐
3𝑑
0
], 
coordenadas que correspondem, na base canónica, ao polinómio 
𝑝′(𝑡) = 𝑏 + 2𝑐𝑡 + 3𝑑𝑡2. 
 
Tomando para base de 𝒫3(ℝ) à partida e à chegada o conjunto 
 
ℬ1 = {1 + 𝑡, 1 − 𝑡, 𝑡
2, 𝑡3}, 
 
Obtemos para representação do mesmo operador a matriz 
 
𝐵 = [
1/2 −1/2 1 0
1/2 −1/2 −1 0
0
0
0
0
 0 3
 0 0
]. 
 
Qual é a relação entre 𝐴 e 𝐵? 
 
Como se altera a matriz que representa uma 
TL quando se muda de base? 
aula 20- representação matricial de transformações lineares 
 
Jorge Buescu 4 
 
Teorema 3.5 (Mudança de base em TLs) 
Sejam 𝑉,𝑊 espaços lineares de dimensões resp. 𝑛 e 𝑚, e 
𝑇: 𝑉 → 𝑊 uma transformação linear. Suponhamos que 
 Fixando bases ℬ𝑉,1 = {𝒗1, 𝒗2, … , 𝒗𝑛} e ℬ𝑊,1 = {𝒘1, 𝒘2, … ,𝒘𝑚}, a 
representação matricial de T é dada pela matriz 𝐴; 
 Fixando bases ℬ𝑉,2 = {𝒗1
′ , 𝒗2
′ , … , 𝒗𝑛
′ } e ℬ𝑊,2 = {𝒘1
′ , 𝒘2
′ , … ,𝒘𝑚
′ }, a 
representação matricial de T é dada pela matriz 𝐵; 
Então tem-se 
𝐵 = 𝑆𝑊
−1 𝐴 𝑆𝑉 
onde 
𝑆𝑉 é a matriz de mudança de base, em 𝑉, de ℬ𝑉,1 𝑝𝑎𝑟𝑎 ℬ𝑉,2, 
𝑆𝑊 é a matriz de mudança de base, em 𝑊, de ℬ𝑊,1 𝑝𝑎𝑟𝑎 ℬ𝑊,2. 
 
aula 20- representação matricial de transformações lineares 
 
Jorge Buescu 5 
 
Um caso particular de extrema importância é aquele em que 
V=W (o espaço de partida e chegada coincidem). Tem-se 
então: 
 
Corolário 3.6. 
Sejam 𝑉 um espaço linear de dimensão 𝑛, 𝑇: 𝑉 → 𝑉 linear, e 
ℬ1 = {𝒗1, 𝒗2, … , 𝒗𝑛}, ℬ2 = {𝒗1
′ , 𝒗2
′ , … , 𝒗𝑛
′ } duas bases de V. 
Se A e B são as matrizes que representam T nas bases ℬ1 e 
ℬ2, tem-se 
𝐵 = 𝑆−1𝐴 𝑆, 
 
Onde 𝑆 é a MMB de ℬ1 para ℬ2. 
 
 
 
 
 
 
aula 20- representação matricial de transformações lineares 
 
Jorge Buescu 6 
 
 
 
 
Definição 3.7 (Matrizes semelhantes) 
Duas matrizes 𝑛 × 𝑛 A e B dizem-se semelhantes se existir 
uma matriz não-singular S tal que 
𝐵 = 𝑆−1𝐴 𝑆. 
 
Corolário 3.8. 
Uma transformação linear 𝑇: 𝑉 → 𝑉 é representada, em 
bases diferentes, por matrizes semelhantes. 
 
aula 20- representação matricial de transformações lineares 
 
Jorge Buescu 7 
 
Exemplo 4 (cont.) 
O operador derivação em 𝒫3(ℝ) é representado: 
 em relação à ℬ𝑐𝑎𝑛 = {1, 𝑡, 𝑡
2, 𝑡3} pela matriz 
𝐴 = [
0 1 0 0
0 0 2 0
0
0
0
0
0 3
0 0
] 
 em relação a ℬ1 = {1 + 𝑡, 1 − 𝑡, 𝑡
2, 𝑡3} pela matriz 
𝐵 = [
1/2 −1/2 1 0
1/2 −1/2 −1 0
0
0
0
0
 0 3
 0 0
]. 
 
A matriz de mudança de base de ℬ𝑐𝑎𝑛 para ℬ1 é 
𝑆 = [
1 1 0 0
1 −1 0 0
0
0
0
0
 1 0
 0 1
]. 
Tem-se 𝑆−1 = [
1/2 1/2 0 0
1/2 −1/2 0 0
0
0
0
0
 1 0
 0 1
] 
 
e 𝐵 = 𝑆−1𝐴 𝑆 (verificar). 
 
aula 21 – a álgebra das transformações lineares 
 
Jorge Buescu | 1 
 
Definição 3.9 
Sejam 𝑆, 𝑇: 𝑉 → 𝑊 transformações lineares e 𝜆 escalar. Então: 
a) (𝑆 + 𝑇)(𝑣) = 𝑆(𝑣) + 𝑇(𝑣) ∀𝑣 ∈ 𝑉, 
b) (𝜆𝑇) (𝑣) = 𝜆 𝑇(𝑣) ∀𝑣 ∈ 𝑉. 
 
Definição 3.10 
Dados espaços lineares 𝑉,𝑊, definimos o conjunto de todas 
as transformações lineares de 𝑉 para 𝑊: 
𝐿(𝑉,𝑊) = {𝑇: 𝑇 é 𝑡𝑟𝑎𝑛𝑓𝑜𝑟𝑚𝑎çã𝑜 𝑙𝑖𝑛𝑒𝑎𝑟 𝑑𝑒 𝑉 𝑒𝑚 𝑊} 
 
 
Teorema 3.11 
Com as operações acima, 𝐿(𝑉,𝑊) é um espaço linear. 
 
Teorema 3.12 (linearidade da composta) 
Sejam 𝑈, 𝑉,𝑊 espaços lineares e 𝑇:𝑈 → 𝑉, 𝑆: 𝑉 → 𝑊 
transformações lineares. Então a transformação composta 
𝑆 ∘ 𝑇: 𝑈 → 𝑊 
é linear. 
aula 21 – a álgebra das transformações lineares 
 
Jorge Buescu | 2 
 
Observação 1. Em particular, se 𝑇: 𝑉 → 𝑉, fica definida 
𝑇𝑛 = 𝑇 ∘ 𝑇 ∘ … ∘ 𝑇⏟ 
𝑛 𝑣𝑒𝑧𝑒𝑠
. 
 
Observação 2. Em geral, 𝑆 ∘ 𝑇 ≠ 𝑇 ∘ 𝑆 (basta ver que a 
composição na ordem inversa pode nem existir). Mas: 
1) 𝑅 ∘ (𝑆 ∘ 𝑇) = (𝑅 ∘ 𝑆) ∘ 𝑇 (associatividade); 
2) 𝑅 ∘ (𝑆 + 𝑇) = 𝑅 ∘ 𝑆 + 𝑅 ∘ 𝑇 (distributividade). 
 
As propriedades da Álgebra das TLs são formalmente 
idênticas às da Álgebra de Matrizes – o que é natural pois TLs 
são representadas por matrizes. 
Podemos no entanto mostrar que isto é mais do que uma 
analogia formal. Para precisar esta ideia, necessitamos da 
noção de isomorfismo. 
 
Definição 3.13 (Isomorfismo) 
Dois espaços lineares 𝑉 𝑒 𝑊 dizem-se isomorfos se existem 
uma transformação linear bijectiva 𝑇: 𝑉 → 𝑊. Qualquer T 
nestas condições se diz um isomorfismo entre 𝑉 𝑒 𝑊. 
 
Obs. Escreve-se 𝑉 ≅ 𝑊 e lê-se “V é isomorfo a W.” 
aula 21 – a álgebra das transformações lineares 
 
Jorge Buescu | 3 
 
Exº 1: ℳ2×2(ℝ) ≅ ℝ
4. 
Exº 2: 𝒫3(ℝ) ≅ ℝ
4. 
 
 Porque não pode 𝒫3(ℝ) ser isomorfo a ℝ
3? E a ℝ5? 
 
Teorema 3.14 (do isomorfismo) 
Dois espaços lineares U e V de dimensão finita sobre o 
mesmo corpo 𝕂 são isomorfos se e só se têm a mesma 
dimensão. 
 
 
Obs. : Qualquer espaço linear de dimensão n sobre 𝕂 é, em 
particular, isomorfo a 𝕂𝑛 = {(𝑥1, 𝑥2, … , 𝑥𝑛): 𝑥𝑖 ∈ 𝕂}. 
Assim, a menos de isomorfismo existe apenas um espaço 
linear de dimensão n sobre 𝕂, que é 𝕂𝑛. 
 
Exº 3: 𝒫𝑛(ℝ) ≅ ℝ
𝑛+1. 
Exº 4: ℳ𝑚×𝑛(ℝ) ≅ ℝ
𝑚𝑛. 
Exº 5: ℳ𝑚×𝑛(ℂ) ≅ ℂ
𝑚𝑛. 
 
aula 21 – a álgebra das transformações lineares 
 
Jorge Buescu | 4 
 
Teorema 3.15. 
Sejam V, W espaços lineares resp. de dimensão 𝑛 𝑒 𝑚 sobre o 
mesmo corpo 𝕂. Então 
𝐿(𝑉,𝑊) ≅ ℳ𝑚×𝑛(𝕂). 
Um isomorfismo é dado pela aplicação 
𝑀: 𝐿(𝑉,𝑊) → ℳ𝑚×𝑛(𝕂) 
que associa a cada transformação 𝑇 a sua representação 
matricial 𝑀(𝑇) 
𝑇⏟
∈𝐿(𝑉,𝑊)
⟼ 𝑀(𝑇)⏟ ,
∈ ℳ𝑚×𝑛(𝕂)
 
fixas bases em 𝑉 𝑒 𝑊. 
 
Corolário 3.16. 
Sejam 𝑈, 𝑉,𝑊 espaços lineares e 𝑇:𝑈 → 𝑉, 𝑆: 𝑉 → 𝑊 
transformações lineares. Fixadas bases em 𝑈, 𝑉,𝑊, designemos 
as representações matriciais de 𝑆 𝑒 𝑇 resp. por 𝑀(𝑆) 𝑒 𝑀(𝑇). 
Então a matriz que representa 𝑆 ∘ 𝑇 nestas bases é 
𝑀(𝑆 ∘ 𝑇) = 𝑀(𝑆)𝑀(𝑇). 
Isto é: a composição de transformações lineares corresponde, 
fixas bases, a multiplicar as matrizes que as representam! 
aula 21 – a álgebra das transformações lineares 
 
Jorge Buescu | 5 
 
Observação: Em particular, se 𝑇: 𝑉 → 𝑉 é representado pela 
matriz 𝑀(𝑇) em certa bases, então 𝑇𝑛 = 𝑇 ∘ 𝑇 ∘ … ∘ 𝑇⏟ 
𝑛 𝑣𝑒𝑧𝑒𝑠
 é 
representado pela matriz 
𝑀(𝑇)𝑛 = 𝑀(𝑇)𝑀(𝑇)…𝑀(𝑇)⏟ 
𝑛 𝑣𝑒𝑧𝑒𝑠
 
nessa base. 
 
aula 22- Nucleo e imagem de tranformações lineares 
 
Jorge Buescu 1Definição 3.17 (Núcleo, Imagem) 
Seja 𝑇: 𝑉 → 𝑊 transformação linear. Definem-se: 
1. 𝒩(𝑇) = {𝒗 ∈ 𝑉: 𝑇(𝒗) = 𝟎𝑊} (Núcleo de T) 
2. 𝐼𝑚(𝑇) = {𝒘 ∈ 𝑊: ∃𝒗 ∈ 𝑉 𝒘 = 𝑇(𝒗)} (Imagem de T) 
 
𝒩(𝑇) é o subconjunto do espaço de partida 𝑉 que se aplica no 
vector nulo de W. 
𝐼𝑚(𝑇) é o contradomínio de T: subconjunto do espaço de 
chegada formado por vectores que são imagem de algum vector 
de 𝑉. 
 
 
 𝒩(𝑇) ⊂ 𝑉 𝐼𝑚(𝑇) ⊂ 𝑊 
 
aula 22- Nucleo e imagem de tranformações lineares 
 
Jorge Buescu 2 
 
Observação: numa transformação linear tem-se sempre 
𝑇(𝟎𝑉) = 𝟎𝑊, pelo que 𝒩(𝑇) é sempre não-vazio (contém pelo 
menos 𝟎𝑉). 
 
Exemplo 1: Consideremos 𝑇: ℝ3 → ℝ3 definida por 
(𝑦1, 𝑦2, 𝑦3) = 𝑇(𝑥1, 𝑥2, 𝑥3) = (𝑥1 + 𝑥2, 𝑥2, 0). 
Tem-se 
𝒩(𝑇) = {(𝑥1, 𝑥2, 𝑥3): 𝑇(𝑥1, 𝑥2, 𝑥3) = (0,0,0)} 
 = {(𝑥1, 𝑥2, 𝑥3) = 𝑡(0,0,1), 𝑡 ∈ ℝ} = 𝑔𝑒𝑟{(0,0,1)}; 
𝐼𝑚(𝑇) = {(𝑦1, 𝑦2, 𝑦3): 𝑇(𝑥1, 𝑥2, 𝑥3) = (𝑦1, 𝑦2, 𝑦3)} 
 = {(0, 𝑡, 𝑠): 𝑡, 𝑠 ∈ ℝ} = 𝑔𝑒𝑟{(1,0,0), (0,1,0)}. 
Atenção: 
 𝒩(𝑇) é um subconjunto do ℝ3 de partida, 
 𝐼𝑚(𝑇) é um subconjunto do ℝ3 de chegada! 
 
 
 
 
 
aula 22- Nucleo e imagem de tranformações lineares 
 
Jorge Buescu 3 
 
Teorema 3.18 
Nas condições da def. 3.17, 
1. 𝒩(𝑇) é subespaço de 𝑉; 
2. 𝐼𝑚(𝑇) é subespaço de 𝑊. 
 
Exemplo 1. 
Se 𝑇: 𝑉 → 𝑊 é a transformação nula (i.e. 𝑇(𝑣) = 0 ∀𝑣 ∈ 𝑉) 
então 𝒩(𝑇) = 𝑉, 𝐼𝑚(𝑇) = {0}. 
Exemplo 2. 
Se 𝑇: 𝑉 → 𝑉 é a transformação identidade (𝑇(𝑣) = 𝑣 ∀𝑣 ∈ 𝑉), 
então 𝒩(𝑇) = {0𝑉}, 𝐼𝑚(𝑇) = V. 
Exemplo 3. 
Se 𝑇: ℝ𝑛 → ℝ𝑚 é uma transformação definida por uma matriz 
𝐴𝑚×𝑛, isto é, se transforma 𝒙 = (𝑥1, 𝑥2, … , 𝑥𝑛) ∈ ℝ
𝑛 em 
𝑇(𝒙) = 𝐴𝑚×𝑛 [
𝑥1
𝑥2
⋮
𝑥𝑛
] ∈ ℝ𝑚, então 
 𝒩(𝑇) = 𝒩(𝐴), núcleo da matriz 𝐴, e 
 𝐼𝑚(𝑇) = col(𝐴), espaço das colunas da matriz 𝐴. 
 
aula 22- Nucleo e imagem de tranformações lineares 
 
Jorge Buescu 4 
 
Exemplo 4. Operador derivação. 
Se 𝐷: 𝐶1(ℝ) → 𝐶0(ℝ) é o operador derivação, 
 𝒩(𝑇) = {𝑓(𝑥) = 𝑘 ∀𝑥 ∈ ℝ} (trivial) 
 𝐼𝑚(𝑇) = 𝐶0(ℝ) (consequência do Teorema Fundamental 
do Cálculo) 
 
Definição 3.19 (nulidade, característica) 
Seja 𝑇: 𝑉 → 𝑊 transformação linear. Definem-se: 
1. nul(𝑇) = dim 𝒩(𝑇) (nulidade de T) 
2. car(𝑇) = dim 𝐼𝑚(𝑇) (característica de T) 
 
O exemplo 3 mostra que, para transformações de ℝ𝑛em ℝ𝑚 , 
necessariamente definidas por matrizes 𝑚 × 𝑛, se tem 
nul(𝑇) = dim 𝒩(𝑇) = dim 𝒩(𝐴) = nul(𝐴) e 
car(𝑇) = dim 𝐼𝑚(𝑇) = dim col(𝐴) = car(𝐴); 
e, pelo Teorema da característica-nulidade para matrizes 
(Teorema 2.20), sabemos que 
nul(𝐴) + car(𝐴) = 𝑛 (n= nº colunas de A) 
Este facto é verdadeiro para transformações lineares gerais! 
aula 22- Nucleo e imagem de tranformações lineares 
 
Jorge Buescu 5 
 
Teorema 3.20 (do núcleo-imagem) 
Se V tem dimensão finita e 𝑇: 𝑉 → 𝑊 é transformação linear, 
então 𝐼𝑚(𝑇) tem dimensão finita e 
dim 𝒩(𝑇) + dim 𝐼𝑚(𝑇) = dim 𝑉 (*) 
 
 
Observação. Se V tem dimensão infinita, então 𝒩(𝑇), ou 
𝐼𝑚(𝑇), ou ambos, têm dimensão infinita. Assim, o teorema do 
núcleo-imagem verifica-se mesmo em dimensão infinita 
 
Exemplo: Para o operador derivação, 
 dim 𝐶1(ℝ) = ∞ 
 dim 𝒩(𝐷) = 1 
 dim 𝐶0(ℝ) = ∞ 
e a igualdade (*) do Teorema 3.20 assume a forma 
1 + ∞ = ∞. 
 
aula 23- invertibilidade de tranformações lineares 
 
Jorge Buescu 1 
 
Definição 3.21 (Invertibilidade de funções) 
Dados conjuntos 𝑉, 𝑊 e uma função 𝑇: 𝑉 → 𝑊, diz-se que T é 
invertível com inversa S se existe 𝑆: 𝑇(𝑉) → 𝑉 tal que 
𝑆 ∘ 𝑇 = 𝐼𝑉; 
𝑇 ∘ 𝑆 = 𝐼𝑇(𝑉). 
 
Designa-se a inversa 𝑆 𝑑𝑒 𝑇 por 𝑇−1. 
 
Teorema 3.22 
1. Se existe 𝑆: 𝑇(𝑉) → 𝑉 tal que 𝑆 ∘ 𝑇 = 𝐼𝑉 , então 𝑆 = 𝑇
−1. 
2. T é invertível se e só se T é injectiva. 
 
Obs. Recorde-se que T injectiva significa que objectos diferentes 
têm imagens diferentes por T: 
𝑥 ≠ 𝑦 ⇒ 𝑇(𝑥) ≠ 𝑇(𝑦). 
 
 
 
 
aula 23- invertibilidade de tranformações lineares 
 
Jorge Buescu 2 
 
Teorema 3.23 (Invertibilidade de transformações lineares) 
Sejam 𝑉, 𝑊 espaços lineares e 𝑇: 𝑉 → 𝑊 uma transformação 
linear. São equivalentes as afirmações: 
a) 𝑇 é injectiva; 
b) 𝑇 é invertível e 𝑇−1: 𝐼𝑚(𝑇) → 𝑉 é linear; 
c) 𝒩(𝑇) = {𝟎}. 
Se 𝑉 tem dimensão finita, dim 𝑉 = 𝑛, estas afirmações são 
ainda equivalentes a: 
d) dim 𝐼𝑚(𝑇) = 𝑛; 
e) 𝑇 transforma vectores LI de 𝑉 em vectores LI de 𝑊; 
f) 𝑇 transforma bases de 𝑉 em bases de 𝑊. 
 
Corolário 3.24 
Se 𝑇: 𝑉 → 𝑊 é linear e invertível, então é um isomorfismo 
entre 𝑉 e 𝐼𝑚(𝑇). 
Dem: dim 𝐼𝑚(𝑉) = dim 𝑉 é, pelo Teorema do isomorfismo 
3.12, equivalente a 𝐼𝑚(𝑉) ≅ 𝑉. 
 
 
 
aula 23- invertibilidade de tranformações lineares 
 
Jorge Buescu 3 
 
 
Proposição 3.25 
Seja 𝑇: 𝑉 → 𝑊 linear e dim 𝑉 = 𝑛. Fixemos bases ℬ𝑉 e ℬ𝑊 em 
𝑉 𝑒 𝑊, respectivamente, e seja A a matriz que representa 𝑇 
nestas bases. Se 𝑊 = 𝐼𝑚(𝑇)1 [isto é, se 𝑇 é sobrejectiva] então 
T é invertível sse a matriz A é não-singular. A matriz que 
representa 𝑇−1nestas bases é 𝐴−1. 
 
Exº 1: É condição necessária e suficiente para que uma 
transformação linear T seja invertível sobre a sua imagem que 
exista uma sua representação matricial com núcleo trivial. 
 
 
 
 
 
 
 
1
 isto é, se 𝑇 é sobrejectiva. 
aulas 24/26- produtos internos 
 
Jorge Buescu 1 
 
 
Capítulo 4 – ESPAÇOS COM PRODUTO INTERNO 
 
 
Definição 4.1 (Produto interno) 
Seja 𝑉 um espaço vectorial real. Um produto interno em 𝑉 é 
uma função que associa a cada par de vectores 𝒖, 𝒗 ∈ 𝑉 um 
número real 〈𝒖, 𝒗〉 satisfazendo as seguintes condições: 
1. 〈𝒖, 𝒗〉 = 〈𝒗, 𝒖〉 (Simetria) 
2. 〈𝒖 + 𝒗, 𝒘〉 = 〈𝒖, 𝒘〉 + 〈𝒗, 𝒘〉 (aditividade) 
3. 〈𝑘𝒖, 𝒗〉 = 𝑘〈𝒖, 𝒗〉 para todo o escalar 𝑘 ∈ ℝ (Homogeneidade) 
4. 〈𝒗, 𝒗〉 ≥ 0 ∀𝒗 ∈ 𝑉 e 〈𝒗, 𝒗〉 = 𝟎 ⇔ 𝒗 = 𝟎. (Positividade) 
Um espaço vectorial V munido de um produto interno diz-se um 
espaço com produto interno. 
 
Observação: 
Aditividade e homogeneidade conjuntamente implicam que o 
produto interno é uma função linear da primeira variável fixa a 
segunda. Simetria implica que é linear na segunda fixa a 
primeira. 
aulas 24/26- produtos internos 
 
Jorge Buescu 2 
 
Exemplo 1: Produto interno usual em ℝ𝑛 
Dados vectores de ℝ𝑛 
𝒖 = (𝑢1, 𝑢2, … , 𝑢𝑛), 𝒗 = (𝑣1, 𝑣2, … , 𝑣𝑛) 
define-se o produto interno usual como 
〈𝒖, 𝒗〉 = 𝑢1𝑣1 + 𝑢2𝑣2 + ⋯ + 𝑢𝑛𝑣𝑛. 
(verificar que é um produto interno) 
Por vezes a notação utilizada para este produto interno de ℝ𝑛 é 
𝒖 ⋅ 𝒗. 
 
 
Exemplo 2. Produto interno não-usual em ℝ2 
A função 〈 , 〉: ℝ2 → ℝ tal que, dados 
𝒖 = (𝑢1, 𝑢2), 𝒗 = (𝑣1, 𝑣2), lhes associa o real 
〈𝒖, 𝒗〉 = 4𝑢1𝑣1 + 𝑢1𝑣2 + 𝑢2𝑣1 + 𝑢2𝑣2 
É um produto interno (não-usual) em ℝ2 
 
 
 
aulas 24/26- produtos internos 
 
Jorge Buescu 3 
 
Definição 4.2. 
Se 𝑉 é um espaço com produto interno, a norma (ou 
comprimento) de um vector 𝒖 é definida por 
‖𝒖‖ = 〈𝒖, 𝒖〉1/2. 
A distância entre dois pontos 𝒖 e 𝒗 num espaço vectorial é dada 
por 
𝑑(𝒖, 𝒗) = ‖𝒖 − 𝒗‖. 
 
 
Exemplo 3: os conceitos de norma e distância em ℝ𝑛 munido do 
produto interno usual são os habituais. Qual a esfera unitária?

Continue navegando