Buscar

Apostila Álgebra Linear Algorítmica - S.C. Coutinho

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 137 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 137 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 137 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Álgebra linear algorítmica
S. C. Coutinho
Prefácio
Agradeço a todos os alunos que cursaram álgebra linear algorítmica em 2010 e 2011
e que serviram de cobaias para a disciplina e para as notas que a acompanharam, espe-
cialmente Fabio Ferman, Fillipe Barros da Silva, João Augusto Marrara Marzagão, Raul
Barbosa, Mateus Gregório, Rochanne de Miranda Corrêa, Filipe Qiang Zhou, Júlio Zyn-
ger, Edberg dos Santos Franco e Victor Lima Campos, que detectaram e ajudaram a corrigir
alguns dos inúmeros erros do manuscrito original.
iii
Sumário
Prefácio iii
Capítulo 1. O plano 1
1. Vetores 1
2. Transformações lineares 10
3. Matrizes 18
Exercícios 31
Capítulo 2. Sistemas lineares 35
1. Eliminação gaussiana 35
2. Decomposição de matrizes 56
3. Aplicações 73
Exercícios 81
Capítulo 3. Modelos multidimensionais 85
1. Dinâmica de populações 85
2. O espaço Rn e suas transformações lineares 93
3. Subespaços 98
4. Projeções e reflexões 104
5. Método dos mínimos quadrados 106
6. Autovalores e autovetores 111
7. Rotações no espaço 119
Exercícios 125
Referências Bibliográficas 131
v
CAPíTULO 1
O plano
Neste capítulo estudamos os principais conceitos deste curso, vetores e transformações
lineares, no contexo concreto do plano. Boa parte do que faremos aqui será generalizado
para dimensões maiores em capítulos posteriores. Nosso tratamento das matrizes, entre-
tanto, será inteiramente geral. Afinal, trata-se basicamente de uma revisão de matéria vista
no ensino médio.
1. Vetores
Um vetor é, essencialmente, um segmento de reta orientado e, como tal, tem:
• um comprimento, geralmente chamado de módulo ou norma;
• uma direção, dada pela reta subjacente ao segmento;
• um sentido, que nos diz para que lado da reta subjacente o segmento aponta.
Além disso suporemos que vetores não podem “flutuar” por onde desejarem. Fixaremos
para todo o sempre um ponto do plano, que chamaremos de origem e denotaremos por O.
Todos os vetores terão uma de suas extremidades na origem e a orientação do segmento
será sempre da origem para a outra extremidade, como mostra a figura.
·O
GG�������������
Designaremos vetores por letras, sem a necessidade de adicionar a tradicional seta no alto
da letra. Se u for um vetor, seu módulo será denotado por ‖u‖. Reservaremos as barras
simples para o módulo de um número real; isto é, se r ∈ R, então
|r| =
{
r se r ≥ 0;
−r se r < 0;
1
2 1. O PLANO
1.1. Operações com vetores. Ao contrários dos segmentos de retas, vetores não são
estáticos: podemos operar com eles. A operação mais simples é a soma de vetores, definida
pela regra do paralelogramo:
dados dois vetores u e v, formamos o paralelogramo, com vértice na
origem e lados u e v; a soma u + v corresponde à diagonal maior do
paralelogramo orientada da origem para o vértice oposto; como mostra
a figura.
jjjjjjjjjj
�
�
�
�
�
�
�
·
u
GG��������������
v
44hhhhhhhhhhhhhhhhhhhh
u+v
;;vvvvvvvvvvvvvvvvvvvvvvvvvvvvvv
A ideia que levou a esta definição é antiga e muito natural. Por exemplo, balsas eram
comumente puxadas ao longo de um canal por dois cavalos, um em cada margem; que é
uma ilustração perfeita da regra acima. Em seu famoso Principia, Newton prova a regra
do paralelogramo no corolário I da Lei II, que corresponde à nossa segunda lei de Newton.
Diga-se de passagem que a noção de vetor só foi introduzida 200 anos depois de Newton.
Por isso, o corolário I foi formulado em termos de forças e movimento (ou deslocamento),
não em termos de vetores.
Já para subtrair o vetor u do vetor v, somamos a v o vetor −u, obtido invertendo-
se o sentido da seta de u. Como todos os vetores têm que ter seu ponto de partida na
origem, uma maneira mais precisa de descrever esta receita consiste em dizer que, sobre
a mesma reta ao longo da qual está u, desenhamos −u como o segmento orientado de
mesmo comprimento que u, mas que aponta no sentido oposto a u, como ilustra a figura.
·
O
u
77ooooooo
−uwwoooo
ooo
ooo
ooo
o
1. VETORES 3
Observe que, literalmente falando, não podemos aplicar a regra do paralelogramo a estes
dois vetores. Afinal, eles são colineares e, por isso, não constituem os lados de um paralel-
ogramo. Interpretaremos isto como significando que a soma destes vetores é o vetor zero,
aquele que tem início e fim na origem, e que denotaremos por 0. Sob estas convenções é
fácil, mas muito monótono, verificar geometricamente as seguintes propriedades da soma
e da subtração de vetores. Se u, v e w são vetores do plano, então
• (u+ v) + w = u+ (v + w);
• u+ v = v + u;
• u+ 0 = u;
• u+ (−u) = 0.
Segundo a primeira das propriedades acima, o posicionamento dos parêntesis não afeta
o resultado final da adição de vetores. Com isso, se k ∈ N, podemos abreviar
u+ · · ·+ u︸ ︷︷ ︸
k vezes
por ku, como de praxe. Como definimos −u como sendo o vetor colinear e de sentido
oposto a u, convém dizer que (−1) ·u = −u. Portanto, se k é um inteiro negativo, teremos
(1) k · u = −u− · · · − u︸ ︷︷ ︸
|k| vezes
.
Na verdade, vamos generalizar estas definições de modo a permitir o produto de qualquer
número real λ por um vetor u. Para isso, declaramos λu como sendo o segmento orientado
colinear a u cujo comprimento é igual a |λ| vezes o comprimento de u. Para que esta
definição seja compatível com (1), precisamos que λu tenha a mesma direção que u se
λ > 0 e a direção oposta se λ < 0. E quando o escalar é o zero? Pela regra anterior, o
vetor obtido multiplicando o escalar 0 por um vetor u tem norma 0 · ‖u‖ = 0; de modo
que tem que ser o vetor nulo. O produto de um escalar por um vetor satisfaz as seguintes
propriedades:
• 1 · u = u
• 0 · u = 0
• λ(u+ v) = λu+ λv;
• (λ+ µ)u = λu+ µu;
• (λµ)u = λ(µu);
em que u, v e w são vetores do plano e λ, µ ∈ R. Note que em 0 · u = 0 o zero que
multiplica u é um escalar, ao passo que o zero à direita do sinal de igualdade é o vetor
nulo.
Como aplicação do que fizemos até aqui descreveremos a equação vetorial de uma
reta r. O caso mais simples é aquele em que r passa pela origem. Neste caso, podemos
4 1. O PLANO
escolher um vetor não nulo u ao longo da reta, que pode então ser descrita como o conjunto
de múltiplos de u. Isto é, a reta corresponde ao conjunto
r = {λ · u |λ ∈ R}.
Talvez esta definição de uma reta pela origem lhe incomode. Afinal, aprendemos no ensino
fundamental que uma reta é um conjunto de pontos, não de vetores. Na verdade, trata-se
de uma mera questão de ponto de vista, já que podemos identificar um ponto qualquer P
da reta com o segmento orientado que vai da origem a p, e vice-versa.
Se a reta r não passa pela origem, precisamos escolher primeiramente um vetor u0 cuja
extremidade está sobre r, e que consideraremos fixo de agora em diante. Neste caso é
melhor evitar falar de um vetor “da reta” ou “sobre a reta” porque, como mostra a figura,
somente a ponta do vetor vai tocar a reta.
r _______ ____ __________ ______
·
u0
GG��������������
v
77oooooooooooooooooooooooooooo v−u0 //
Se v é um outro vetor qualquer, cuja extremidade também está sobre r, então a diferença
v − u0 nos dá um vetor na direção da reta. Na verdade, se pudéssemos transpor o vetor da
origem para a extremidade de u0, obteríamos o segmento orientado que vai da extremidade
de u0 à extremidade de v. Seja u um vetor qualquer nesta direção. O que dissemos acima
nos permite concluir que v − u0 é múltiplo escalar de u; em símbolos, v − u0 = λu, para
algum λ ∈ R. Portanto,
dados um vetor u0 com extremidade sobre a reta r e um vetor u na
direção de r, qualquer vetor v de r pode ser escrito na forma v = u0+λu,
para algum número real λ.
Na linguagem de conjuntos,
r = {u0 + λ · u |λ ∈ R}.
Na terminologia usual, u é o vetor diretor da reta r e u0+λu é a equação vetorial de r. Uma
pergunta razoável é: de que forma a equação vetorial se relaciona à equaçãocartesiana
da reta, que é aquela que aprendemos no ensino médio? Para respondê-la, precisamos
introduzir coordenadas nos nossos vetores.
1. VETORES 5
1.2. Projeção e coordenadas. Como ilustrado na figura abaixo, um exercício simples
de trigonometria mostra que projetando o segmento correspondente a um vetor v sobre a
reta suporte do vetor u obtemos um segmento de comprimento ‖v‖| cos θ|, em que θ é o
menor ângulo entre os vetores u e v.
�
�
�
�
�
�
�
·
u
θ //
v
::ttttttttttttttttttttttt ______
Usando isto, definimos a projeção do vetor v sobre o vetor u, como sendo o vetor Proju(v),
que tem comprimento ‖v‖| cos θ| e mesma reta suporte que u. O sentido da projeção é o
mesmo de u se o ângulo θ for agudo, e oposto a u se θ for obtuso.
Naturalmente, podemos determinar se o ângulo θ é agudo ou obtuso a partir do cosseno;
no primeiro caso, cos θ é positivo; no segundo, negativo. Mas isto significa que se u for
um vetor de norma um, então o vetor
(‖v‖ cos θ) · u
é colinear a u e tem o mesmo comprimento e sentido de Proju(v); de modo que estes
dois vetores são iguais. Quando u não for unitário, podemos facilmente construir um vetor
unitário de mesma direção e sentido que u dividindo-o por sua norma. Portanto, em geral,
(2) Proju(v) =
‖v‖ cos θ
‖u‖ · u.
A noção de projeção nos permite introduzir coordenadas para vetores do plano. Já
vimos que, para descrever vetores, precisamos fixar o ponto que lhes serve de origem.
Para introduzir coordenadas, fixamos dois vetores unitário não colineares no plano, que
denotaremos por e1 e e2. O conjunto {e1, e2} é conhecido como uma base do plano. Para
simplificar os cálculos, escolheremos e1 e e2 como sendo vetores perpendiculares. Seja
v um vetor qualquer do plano. Supondo que θ é o ângulo entre v e e1, um argumento
trigonométrico simples mostra que
(3) v = (‖v‖ cos θ) · e1 + (‖v‖ senθ) · e2.
Os números ‖v‖ cos θ e ‖v‖ senθ são as coordenadas de v relativamente à base {e1, e2}.
Uma vez que a base esteja fixada, podemos abreviar (3) escrevendo
v = (‖v‖ cos θ, ‖v‖ senθ);
isto é, identificamos o vetor com seu par de coordenadas. Note que se
(4) v = a · e1 + b · e2,
6 1. O PLANO
então segue de (3) que
(a · e1 + b · e2)− ((‖v‖ cos θ) · e1 + (‖v‖ senθ) · e2) = 0;
isto é,
(a− ‖v‖ cos θ) · e1 + (b− ‖v‖ senθ) · e2 = 0;
ou ainda
(a− ‖v‖ cos θ) · e1 = −(b− ‖v‖ senθ) · e2.
Como os vetores e1 e e2 não são colineares, esta última equação só é possível se
a− ‖v‖ cos θ = 0 e b− ‖v‖ senθ = 0.
Concluímos, assim, que em qualquer expressão da forma (4), teremos sempre que
a = ‖v‖ cos θ(5)
b = ‖v‖ senθ
Em outras palavras, as coordenadas de v relativamente à base {e1, e2} ficam completa-
mente determinadas pela expressão (4).
Vejamos de que forma as coordenadas se comportam relativamente à soma de vetores
e ao produto de um vetor por um escalar. Sejam v1 e v2 dois vetores do plano cujas
coordenadas são
v1 = (a1, b1) e v2 = (a2, b2).
Note que não explicitamos as coordenadas em termos do comprimento do vetor e do ângulo
que forma com e1. Só faremos isto quando for realmente necessário. Em geral, as coorde-
nadas serão consideradas apenas como o par de números que representam os comprimentos
das projeções de v sobre e1 e e2, respectivamente. Pela definição de coordenadas, temos
que
v1 = a1e1 + b1e2 e v2 = a2e1 + b2e2.
Pela associatividades da adição de vetores
v1 + v2 = a1e1 + a2e1 + b1e2 + b2e2;
que pelas propriedades do produto por escalar, podemos reescrever como
v1 + v2 = (a1 + a2)e1 + (b1 + b2)e2.
Logo, a v1 + v2 corresponde o par de coordenadas
(a1 + a2, b1 + b2).
Um argumento semelhante mostra que se λ é um número real, então
λ · v1 = (λa1, λb1).
É costumeiro resumir isto dizendo-se que a adição de vetores e a multiplicação de um vetor
por um escalar são feitas “coordenada a coordenada”.
1. VETORES 7
Agora que sabemos escrever vetores usando coordenadas, podemos responder à per-
gunta formulada ao final do artigo anterior: qual a relação entre a equação vetorial e a
equação cartesiana y = ax + b da reta? Lembre-se que esta última equação estabelece
a relação entre abscissa e ordenada de um ponto qualquer da reta. Identificando o ponto
(x, y) com a extremidade de um vetor e usando a relação acima, temos que
(x, y) = (x, ax+ b).
Apelando para as operações com vetores, podemos reescrever esta igualdade na forma
(x, y) = x(1, a) + (0, b).
Como x pode assumir qualquer valor real, podemos interpretá-lo como parâmetro. Assim,
y = ax+ b é a reta que, passando pela extremidade do vetor u0 = (0, b), tem vetor diretor
igual a u = (1, a), de modo que sua equação vetorial é u0 + λu.
E se a equação vetorial de uma reta r for dada, como obtemos a e b, de modo que
y = ax+ b represente a mesma reta? Suponhamos que u0 + λu seja a equação vetorial de
r e que as coordenadas de u e u0 sejam
u0 = (α0, β0) e u = (α, β).
Dado um vetor qualquer v = (x, y), com extremidade em r, temos que
(x, y) = v = u0 + λu = (α0, β0) + λ(α, β);
donde podemos concluir que
(x, y) = (α0 + λα, β0 + λβ);
ou ainda, que
x = α0 + λα;
y = β0 + λβ;
que são conhecidas como equações paramétricas da reta r. Supondo que α 6= 0, podemos
explicitar o valor de λ da primeira equação na forma
λ =
x− α0
α
.
Substituindo na segunda equação, obtemos
y = β0 +
(
x− α0
α
)
β;
que pode ser reescrita na forma
y =
αβ0 − α0β
α
+
β
α
x;
8 1. O PLANO
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.............
...........
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
.......................
............
...........
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
....
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
....
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
..............
.......
.......
.......
.......
.......
.......
...............
...........
...................................
....................................
....................................
....................................
....................................
....................................
......................................
......................................
......................................
......................................
........................................
........................................
........................................
..........................................
..........................................
............................................
..............................................
................................................
..................................................
....................................................
........................................................
............................................................
..................................................................
..........................................................................
........................................................................................
...............................................................................................
...............................................................................................................................
................................................................................................................................
................................................................................................................................
................................................................................................................................
..................................................................................................................................
..................................................................................................................................
..................................................................................................................................
..................................................................................................................................
....................................................................................................................................
.......................................................................................
.............................................................................................................................................
....................................................................................................................................................
................................................................................................................................................................
..................................................................................................................................................................................
................................................................................................................................................................................................................
..........................................................................................................................................................................................................................................................................................
.....................................................................................................................................
............................................................................................................................. ....
.......
u
v
FIGURA 1. Produto interno
que é a equação da reta na forma usual. Como, para chegar a esta resposta, supusemos que
α 6= 0, resta descobrir o que ocorre se α = 0. Neste caso, as equações paramétricas serão
x = α0;
y = β0 + λβ.
Como a abscissa está fixa, esta é a reta vertical que corta o eixo x no ponto (α0, 0). Acon-
tece que a equação de uma reta vertical não pode ser escrita na forma y = ax+ b. De fato,
a equação da reta r acima é simplesmente x = α0.
1.3. Produto interno. Em física aprendemos que o produto interno ou produto es-
calar entre dois vetores v1 e v2 do plano é definido como sendo o número
〈v1 | v2〉 = ‖v1‖‖v2‖ cos θ;
em que θ é o menor ângulo entre os vetores v1 e v2. Se {e1, e2} é uma base do plano
formada por vetores unitários perpendiculares entre si, de que maneira podemos expressar
〈v1 | v2〉 em função das coordenadas de u e v relativas a esta base?
Para isto precisamos relacionar o ângulo θ aos ângulos que v1 e v2 formam com o vetor
e1, e que são usados para determinar suas coordenadas. Chamando de α e β os ângulos
entre e1 e os vetores u e v, respectivamente, temos da figura que θ = β − α. Portanto,
cos(θ) = cos(β − α) = cos(β) cos(α) + sen(β) sen(α),
1. VETORES 9
de modo que
〈v1 | v2〉 = ‖v1‖ cos(β)‖v2‖ cos(α) + ‖v1‖ sen(β)‖v2‖ sen(α).
Denotando por (a1, b1) as coordenadas de v1 e por (a2, b2) as coordenadas de v2, temos de
(5) que
(6) 〈v1 | v2〉 = a1a2 + b1b2.
Esta expressão do produto interno é muito conveniente. Por exemplo, a partir dela podemos
provar facilmente as seguintes propriedades:
(1) 〈u | v1 + v2〉 = 〈u | v1〉+ 〈u | v2〉;
(2) 〈v1 |λv2〉 = λ〈v1 | v2〉;
(3) 〈v1 | v2〉 = 〈v2 | v1〉;
(4) 〈u |u〉 ≥ 0;
(5) 〈u |u〉 = 0 se, e somente se, u = 0;
quaisquer que sejam os vetores u, v1 e v2 do plano e o escalar λ. Note que a propriedade
(3) implica que valem os análogos de (1) e (2) com a operação sendo efetuada na primeira
coordenada e a segunda coordenada estando fixa.
Finalmente, a expressão (6) também nos permite interpretar geometricamente a equa-
ção geral da reta, que tem a forma
αx+ βy + γ = 0,
em que α, β e γ são constantes. Começaremos considerando o caso especial em que γ = 0.
Sejam n e v os vetores cujas coordenadas relativamente à base {e1, e2} são
n = (α, β) e v = (x, y).
Por (6) temos que
〈n | v〉 = αx+ βy.
Portanto,
v pertence à reta de equação αx+ βy = 0 se, e somente se 〈n | v〉 = 0.
Em outras palavras,
v pertence à reta de equação αx + βy = 0 se, e somente se v é perpen-
dicular ao vetor fixo n.
Note que esta reta contém a origem, que não está contida na reta de equação αx+βy+γ =
0, quando γ 6= 0. Neste caso, como mostra a figura 1.3, não é o vetor v que é perpendicular
ao vetor normal n, mas sim a diferença v − p, em que p corresponde a um vetor fixo com
extremidade sobre a reta.
10 1. O PLANO
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
...............................
...........
.........
.........
.........
.........
.........
.........
.........
.........
.........
.........
.........
.........
.........
.........
.........
.........
.........
.........
.........
.........
.........
.........
.........
.........
.........
.........
....................
...........
......................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
.............................................................................................................................................................................................................................................................................................................. ......
.....
......................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
...................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
...
...................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
....................
.....
..........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
n
p
X
O
Portanto, a equação de uma reta geral pode ser escrita na forma
〈n | (v − p)〉 = 0;
que, pelas propriedades do produto interno, pode ser reescrita na forma
〈n | v〉 = 〈n | p〉.
Já vimos que o lado esquerdo desta expressão é igual a αx+ βy, logo
γ = −〈n | p〉,
que é mesmo um constante, uma vez que n e p estão fixos.
2. Transformações lineares
Até aqui podemos esticar ou encolher um vetor, multiplicando-o por um escalar, ou
somar dois vetores; mas há muitas outras coisas que podemos fazer a um vetor, como rodá-
lo ou refleti-lo relativamente a uma reta. O que não podemos fazer é entortá-lo, porque
assim deixaria de ser um vetor. Além disso, como todos os vetores partem da origem, este
ponto tem que ficar fixo por qualquer transformação de vetores. Vejamos alguns exemplos.
2.1. Projeções. Começaremos pelas projeções, porque já vimos como calculá-las.
Seja u um vetor unitário e v um vetor qualquer do plano. Por (2), a projeção de v em
u é dada por
Proju(v) = (‖v‖ cos(θ)) · u,
2. TRANSFORMAÇÕES LINEARES 11
em que θ é o ângulo entre u e v. Podemos usar o produto interno para reescrever esta
fórmula como
Proju(v) = 〈u | v〉 · u,
uma vez que u tem módulo um. Disto obtemos, como muito pouco esforço, uma fórmula
para a projeção em termos das coordenadas de u e de v. De fato, se
u = (a, b) e v = (x, y),
então
Proju(v) = ((ax+ by)a, (ax+ by)b) = (a
2x+ aby, abx+ b2y).
2.2. Reflexões. As reflexões podem ser tratadas de maneira semelhante às projeções.
Chamaremos de espelho à reta em torno do qual será realizada a reflexão e cujo vetor
diretor unitário denotaremos por u. Já n será um vetor, também unitário, perpendicular a
u. No plano, uma vez fixado u, só há duas possibilidades para n. Afinal o módulo de n
está fixo, pois é igual a um, e sua direção também, já que está sobre a reta perpendicular ao
espelho. Resta escolher seu sentido, para o qual temos apenas duas possibilidades. Observe
que os vetores u e n formam uma base do plano, de acordo com a definição do artigo 1.2,
pois são unitários e perpendiculares entre si. Portanto, se v for um vetor do plano e R(v)
seu reflexo relativamente ao espelho de vetor diretor u, temos que
R(v) = Proju(R(v)) + Projn(R(v)).
Resta-nos determinar as projeções de R(v) sobre u e n em termos das coordenadas de v
nesta base. Para isto faremos uso da descrição geométrica usual de uma reflexão.
Para começar, um vetor v e seu reflexo R(v) têm ambos o mesmo módulo. Além disso,
o ângulo que o vetor v forma com o espelho é o mesmo entre o R(v) e o espelho. A
diferença é que v está de um lado do espelho, ao passo que R(v) está do outro lado, como
ilustra a figura 2.2.
O ponto crucial para determinar uma fórmula para o reflexo R(v) de um vetor v é
observar que as projeções de v e R(v) sobre a u satisfazem
Proju(R(v)) = Proju(v).
ao passo que as projeções sobre a normal n satisfazem,
Projn(R(v)) = −Projn(v).
Logo,
R(v) = Proju(v)− Projn(v) = v − 2 Projn(v).
Representando a projeção sobre n em termos do produto interno, como no artigo anterior,
temos que
Projn(v) = 〈n | v〉 · n,
12 1. O PLANO
.......................................................................................................................
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
...
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
...
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
..............
...........
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
..............
.......
.......
.......
.......
.......
.......
.......
....
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
....
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
.......
...............
...........
...............................................................................................................................
.................
.................
.................
.................
.................
.................
.................
.................
.................
.................
.................
.................
.................
..............
.................
.................
.................
.................
.................
.................
.................
.................
.................
.................
.................
.................
.................
..............
.................
.................
.................
.................
.................
.................
.................
.................
.................
.................
.................
.................
.................
.........................
...........
espelho
uv
R(v)
donde
(7) R(v) = v − 2〈n | v〉 · n.
Encerraremos este artigo determinando uma fórmula para R(v) em função das coorde-
nadas de v. A maneira mais fácil de fazer isto consiste em usar a base {u, n} ao descrever
as coordenadas dos vetores. Afinal, relativamente a esta base, u tem coordenadas (1, 0) e
n tem coordenadas (0, 1), pois
u = 1 · u+ 0 · n e n = 0 · u+ 1 · n.
Supondo que v tem coordenadas (x, y) relativamente a esta mesma base, uma aplicação
direta da fórmula (7) nos dá
R(x, y) = (x, y)− 2y(0, 1) = (x,−y);
como seria de esperar da descrição geométrica. O problema é que ao usar {u, n} como
base estamos criando uma situação um pouco artificial. Na prática, os vetores u e v são
dados em termos de suas coordenadas relativamente a uma base pré-fixada do plano, e não
vice-versa. Portanto, tendo em vista futuras aplicações, convém determinar como seria
a fórmula da reflexão em termos das coordenadas dos vetores relativamente a uma base
qualquer.
Para isto suporemos que uma base {e1, e2} foi fixada e que u tem coordenadas (a, b)
relativamente a esta base. Mas o produto interno de u com o vetor de coordenadas (−b, a)
é igual a zero e, além disso
‖u‖ =
√
a2 + b2 = ‖n‖,
2. TRANSFORMAÇÕES LINEARES 13
de modo que se u for unitário o mesmo terá que ser verdadeiro para n. Portanto, podemos
escolher
n = (−b, a),
Escrevendo v = (x, y), a fórmula da reflexão obtida acima nos diz que
R(v) = (x, y)− 2(ay − bx) · (−b, a);
isto é,
R(v) = ((1− 2b2)x+ 2bay, 2abx+ (1− 2a2)y).
2.3. Rotação. Passando à rotação, digamos que ρθ seja a transformação que roda um
vetor v de um ângulo θ no sentido anti-horário. Mais uma vez, nosso objetivo consiste em
escrever uma fórmula para esta transformação em termos das coordenadas de um vetor v
relativamente a uma base {e1, e2} formada por vetores unitários e perpendiculares entre si.
Como já se tornou usual, diremos que as coordenadas de v são (x, y). A fórmula (5)
nos permite afirmar que
x = ‖v‖ cosα
y = ‖v‖ senα
em que α é o ângulo entre v e o vetor e1. Tendo expresso x e y desta maneira, fica fácil
determinar as coordenadas de ρθ(v). Afinal, ao rodar v de um ângulo θ no sentido anti-
horário, o ângulo entre v e e1 aumenta de α para α + θ. Isto é, as coordenadas de ρθ(v)
serão
(‖v‖ cos(α + θ), ‖v‖ sen(α + θ)).
Para explicitar a relação entre estas coordenadas e as coordenadas x e y de v, usamos duas
bem conhecidas fórmulas de trigonometria
sen(α + θ) = sen(α) cos(θ) + sen(θ) cos(α)
cos(α + θ) = cos(α) cos(θ)− sen(θ) sen(α).
Multiplicando estas expressões por ‖v‖ e substituindo ‖v‖ cosα por x e ‖v‖ senα por y,
obtemos
ρθ(x, y) = (cos(θ)x− sen(θ)y, cos(θ)y + sen(θ)x),
que é a fórmula desejada.
2.4. Definição e propriedades. Uma coisa que transparece das fórmulas obtidas para
projeções, reflexões e rotações é que as coordenadas são sempre expressões lineares sem
termo contante, nas coordenadas x e y do argumento v. As transformações com esta pro-
priedade são tão abundantes nas ciências naturais, e tão importantes no estudo dos vetores,
que merecem uma designação à parte.
14 1. O PLANO
Seja T uma transformação (ou aplicação) do plano nele mesmo e fixemos uma base do
plano. Diremos que T é uma transformação linear do plano se existirem constantes a, b, c
e d de modo que a imagem de qualquer vetor v pode ser escrita na forma
T (v) = (ax+ by, cx+ dy) sempre que v = (x, y).
A origem do uso do adjetivo linear para designar tais transformações é claro: as coorde-
nadas do vetor imagem são, de fato, expressões lineares em x e y. Observe que excluímos
a possibilidade de termos constantes nesta expressão desde o começo, porque decidimos
de partida que a imagem do vetor zero por T teria que ser o mesmo vetor zero, já que todos
os vetores partem de um mesmo ponto.
As transformações lineares do plano têm três propriedades importantes. Se v1 e v2 são
dois vetores quaisquer do plano e λ ∈ R, então:
(1) T (0) = 0;
(2) T (v1 + v2) = T (v1) + T (v2);
(3) T (λv1) = λT (v1).
A propriedade (1) é óbvia; provaremos a segunda e deixaremos a terceira aos seus cuida-
dos. Suponhamos que v1 e v2 têm coordenadas
v1 = (x1, y1) e v2 = (x2, y2),
relativamente à base fixada. Neste caso,
v1 + v2 = (x1 + x2, y1 + y2);
de modo que
T (v1 + v2) = (a(x1 + x2) + b(y1 + y2), c(x1 + x2) + d(y1 + y2)).
Mas o lado direito da equação acima é igual a
((ax1 + by1) + (ax2 + by2), (cx1 + dy1) + (cx2 + dy2))
que é igual à soma de vetores,
(ax1 + by1, cx1 + dy1) + (ax2 + by2, cx2 + dy2);
isto é, a T (v1) + T (v2), provando assim a propriedade desejada.
Na verdade, qualquer aplicação do plano nele mesmo que satisfaz estas três propri-
edades tem que ser uma transformação linear. A verificação é simples e muito importante
para a caracterização final que daremos a estas transformações, por isso vamos fazê-la
em detalhes. Para deixar bem claro o que queremos fazer, convém enunciá-lo de maneira
bastante precisa:
se uma transformação T do plano satisfaz as propriedades (1), (2) e (3)
acima então existem constantes a, b, c e d de modo que T (x, y) = (ax+
by, cx+ dy);
2. TRANSFORMAÇÕES LINEARES 15
em que a escolha das coordenadas naturalmente pressupõe que fixamos uma base do plano.
Começaremos supondo v é um vetor do plano cujas coordenadas relativamente à base
fixada são (x, y). Por definição, isto significa que, se a base for constituída pelos vetores
e1 e e2, então
v = xe1 + ye2.
Portanto,
T (v) = T (xe1 + ye2).
Usando as propriedades (2) e (3) o lado direito desta última equação pode ser escrito na
forma
T (v) = xT (e1) + yT (e2).
Mas, tanto T (e1) como T (e2) são vetores do plano e, como tais, podem ser escritos em
termos de suas coordenadas na base {e1, e2}. Se
T (e1) = ae1 + ce2 e que T (e2) = be1 + de2,
então
T (v) = x(ae1 + ce2) + y(be1 + de2) = (ax+ by)e1 + (cx+ dy)e2.
Podemos reformular isto diretamente em termos das coordenadas como
T (x, y) = (ax+ by, cx+ dy),
que é a fórmula que desejávamos obter. Observe que, como os vetores e1 e e2 estão fixados,
os números reais a, b, c e d dependem apenas de T e não das coordenadas de v. Na
verdade, descobrimos o que estes quatro números representam: são as coordenadas deT (e1) e T (e2). Voltaremos a usar isto no artigo 2.6. Convém resumir o que fizemos acima
para uso futuro.
PROPOSIÇÃO 2.1. Seja T uma aplicação do plano no plano e fixemos uma base do
plano em relação à qual tomaremos todas as coordenadas dos vetores. As seguintes
condições são equivalentes:
• T satisfaz as propriedades (1), (2) e (3) acima;
• T (x, y) = (ax+ by, cx+ dy) em que T (e1) = (a, c) e T (e2) = (b, d).
2.5. Combinando transformações lineares. Duas transformações lineares do plano
podem ser somadas ou compostas, disto resultando uma nova transformação linear do
plano. Se S e T são transformações lineares do plano, então definimos sua soma como
sendo a aplicação S + T definida em um vetor v por
(S + T )(v) = S(v) + T (v),
ao passo que sua composição S ◦ T é definida por
(S ◦ T )(v) = S(T (v)).
16 1. O PLANO
Note que S ◦ T e T ◦ S representam transformações que podem ser diferentes, ao passo
que S + T e T + S sempre designam a mesma transformação, porque a soma de vetores
não depende de quem vem primeiro.
Verificaremos com cuidado que tanto S+T quanto S◦T são transformações lineares. A
maneira mais fácil seria provar que estas transformações satisfazem as propriedades (1), (2)
e (3) do artigo anterior. Pela proposição 2.1 isto garantiria que se tratam de transformações
lineares. Em vez disso, vamos deduzir uma fórmula em termos de coordenadas para S+T
e S ◦ T , a partir das respectivas fórmulas para S e T . Procederemos assim porque estas
fórmulas serão necessárias no artigo seguinte.
Supondo fixada uma base do plano, digamos que
T (x, y) = (ax+ by, cx+ dy) e que S(x, y) = (αx+ βy, γx+ δy),
em que a, b, c, d, α, β, γ, δ são constantes. Por definição,
(S + T )(x, y) = S(x, y) + T (x, y),
que é igual a
(ax+ by, cx+ dy) + (αx+ βy, γx+ δy);
somando os vetores, concluímos que
(S + T )(x, y) = ((a+ α)x+ (b+ β)y, (c+ γ)x+ (d+ δ)y).
A fórmula resultante é muito fácil de lembrar, porque apenas somamos os coeficientes de
x e y em cada coordenada do vetor imagem. A fórmula da composta, infelizmente, está
longe de ser tão simples. Partindo da definição temos que
(S ◦ T )(x, y) = S(T (x, y)) = S(ax+ by, cx+ dy);
a que aplicamos a fórmula para S, obtendo
(S ◦ T )(x, y) = (α(ax+ by) + β(cx+ dy), γ(ax+ by) + δ(cx+ dy)).
Reagrupando os termos,
(S ◦ T )(x, y) = ((αa+ βc)x+ (αb+ βd)y, (γa+ δc)x+ (γb+ δd)y),
que é bem menos fácil de lembrar que a anterior. Imagine se, ao invés de compor duas
funções, precisássemos compor três ou quatro: uma rotação, seguida de uma reflexão, de
uma nova rotação e finalmente uma projeção. Problemas como este ocorrem frequente-
mente na prática e levaram Arthur Cayley, no século XIX, a procurar uma maneira sucinta
de resolvê-los. Para isto ele inventou as matrizes.
2. TRANSFORMAÇÕES LINEARES 17
2.6. Matriz de uma transformação linear. A ideia de Cayley é que, uma vez fixada
uma base do plano, uma transformação linear fica completamente determinada por quatro
números: os coeficientes de x e y nas expressões que definem as coordenadas de T (x, y).
Quando
T (x, y) = (ax+ by, cx+ dy),
os números são a, b, c e d. Mas isto significa que, para fazer cálculos com T basta conhecer
estes números e descobrir como se transformam sob estes cálculos. Para tornar tudo mais
transparente, Cayley resolveu dispor estes números em um quadro,[
a b
c d
]
e assim foram inventadas as matrizes. Como sempre, este resumo histórico não representa
o que realmente aconteceu. A disposição em forma de quadro já era usada desde o século
XVIII para denotar determinantes, e o nome matriz foi usado por Sylvester antes mesmo
do primeiro artigo do Cayley sobre o assunto; para mais detalhes, consulte [3, p. 171].
Como a matriz de uma transformação depende completamente da base do plano que foi
escolhida e fixada, denotaremos a matriz de T escrita acima por (T )ε, em que ε = {e1, e2}
é a base na qual estamos escrevendo as coordenadas dos vetores do plano.
Usando esta notação e as expressões para a projeção, reflexão e rotação em termos das
coordenadas dos vetores, podemos facilmente determinar as matrizes correspondentes a
estas transformações lineares; que são
( Proju)ε =
[
a2 ab
ab b2
]
e (R)ε =
[
1− 2a2 −2ab
−2ab 1− 2b2
]
em que (a, b) são as coordenadas do vetor unitário u e
(ρθ)ε =
[
cos(θ) − sen(θ)
sen(θ) cos(θ)
]
para a rotação anti-horária de um ângulo θ. Na verdade, no caso da projeção e da re-
flexão, a matriz pode ser expressa de maneira ainda mais compacta usando operações com
matrizes, como veremos no artigo 3.4. Enquanto isto, vamos nos contentar em descrever
explicitamente as matrizes correspondentes à soma e à composição de dois operadores.
Para isto, considere duas transformações lineares T e S do plano, definidas em uma
base ε por
T (x, y) = (ax+ by, cx+ dy) e S(x, y) = (αx+ βy, γx+ δy).
Pela regra criada por Cayley as matrizes correspondentes na base ε serão
(T )ε =
[
a b
c d
]
e (S)ε =
[
α β
γ δ
]
.
18 1. O PLANO
Usando as fórmulas para S + T e S ◦ T obtidas no artigo anterior, obtemos
(S + T )ε =
[
a+ α b+ β
c+ γ d+ δ
]
ao passo que (S ◦ T )ε =
[
αa+ βc αb+ βd
γa+ δc γb+ δd
]
.
Cayley deu, então, um passo à frente, utilizando estas fórmulas para definir a adição e a
multiplicação diretamente sobre as matrizes; mais precisamente
(S)ε + (T )ε = (S + T )ε
(S)ε · (T )ε = (S ◦ T )ε
Abstraindo completamente das transformações, obtemos as operações usuais com ma-
trizes: a soma, definida entrada a entrada, e a multiplicação, definida pela regra[
α β
γ δ
]
·
[
a b
c d
]
=
[
αa+ βc αb+ βd
γa+ δc γb+ δd
]
.
Portanto, a regra para multiplicação de matrizes, à primeira vista tão artificial, é obtida
coletando os coeficientes de x e y na fórmula resultante da composição de duas transfor-
mações lineares.
3. Matrizes
Uma vez introduzido um novo conceito, é improvável que não venha a ser generalizado,
assim que surgir a oportunidade. No caso das matrizes, o próprio Cayley as apresentou em
um grau de generalidade muito maior que o adotado na seção anterior.
3.1. Definição geral. Considerando uma matriz como um quadro de números, nada
nos impede de criá-las com qualquer número de linhas e colunas que desejemos. Nem
mesmo há a necessidade de que a quantidade de linhas e colunas seja a mesma. Tendo
isto em vista, Cayley definiu matrizes m × n como quadros de números com m linhas
e n colunas cujas posições podem ser preenchidas por números reais, ou outros objetos
matemáticos de natureza semelhante. Como seria de esperar, as matrizes para as quais
m = n são chamadas de quadradas; as demais são conhecidas como matrizes retangulares.
Os números que ocupam as várias posições de uma matriz são conhecidos como en-
tradas ou coeficientes da matriz e dispostos em uma tabela, encapsulada por colchetes.
Para não ter que repetir todo o quadro numérico a cada vez que nos referimos a uma ma-
triz, vamos designá-las por letras, geralmente maiúsculas. Por exemplo,
A =
 1 5 pi −5/71/8 9 8 pi/2
0 −65 0 7/pi

é uma matriz com 3× 4 (isto é, tem 3 linhas e 4 colunas) cujas entradas são números reais.
3. MATRIZES 19
Para localizar uma entrada em uma matriz, definimos sua posição em termos da linha
e da coluna que ocupa. Por exemplo, na matriz A acima, pi/2 ocupa a posição 2, 4 e −65
a posição 3, 2. Como frases do tipo “o número α ocupa a posição que está na interseção
da linha i com a coluna j da matriz M” são muito verbosas, vamos abreviá-las escrevendo
simplesmente
Mi,j = α ou M [i, j] = α.
conforme nossa conveniência. Assim, tomando como base a matriz A do exemplo acima
mais uma vez, temos
A1,4 = −5/7 e A(2, 2) = 9.
Usando esta nomeclatura, a diagonal de uma matriz M corresponde às posições Mi,i. Na
matriz do exemplo, a diagonal é formada pelas entradas
A1,1 = 1, A2,2 = 9 e A3,3 = 0.Naturalmente a diagonal de uma matriz só se parece com uma diagonal, no sentido ge-
ométrico do termo, quando a matriz é quadrada. Chamaremos de diagonal as matrizes
quadradas cujas únicas entradas não nulas pertencem à sua diagonal. Por exemplo, a ma-
triz 
1 0 0 0
0 pi/2 0 0
0 0 4 0
0 0 0 2
 é diagonal, já

1 0 0 0
0 pi/2 8 0
0 0 4 0
0 0 0 2
 não é.
A mais importante de todas as matrizes diagonais é a matriz identidade. Denotada por I ,
ou In quando for necessário deixar claro que se trata de uma matriz n × n, ela tem 1s ao
longo da diagonal e zeros em todas as outras posições, como é o caso de
I4 =

1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1

Nem sempre é conveniente definir uma matriz apresentando-a como um quadro de
números. Isto ocorre, por exemplo, se a matriz for esparsa; isto é, se a maioria de suas
entradas forem nulas, como é o caso da matriz identidade. Imagine desenhar uma matriz
identidade 100×100: o quadro numérico é enorme, mas está quase todo ocupado por zeros!
Uma maneira mais econômica de definir tais matrizes consiste em defini-las coeficiente a
coeficiente. Fazendo isto para a matrizA do início deste artigo teríamos as entradas listadas
na tabela
Que não parece ser nada além de uma versão piorada do quadro introduzido pelo Cay-
ley. Mas não se esqueça de que esta matriz não é, de forma alguma, esparsa. Nos casos
20 1. O PLANO
A1,1 = 1 A1,2 = 5 A1,3 = pi A1,4 = −5/7
A2,1 = 1/8 A2,2 = 9 A2,3 = 8 A2,4 = pi/2
A3,1 = 0 A3,2 = −65 A3,3 = 0 A3,4 = 7/pi
mais vantajosos, ou a matriz é esparsa ou os coeficientes podem ser facilmente descritos
por uma regra (ou ambos!). Por exemplo, a matriz identidade n × n pode ser definida
facilmente por
In(i, j) =
{
1 quando i = j
0 quando i 6= j
Note que escolhemos pôr os índices que identificam a posição da entrada entre colchetes,
em vez de usar subscritos, para evitar conflito com o n que identifica a dimensão da ma-
triz. As matrizes de Vandermonde, que desempenham papel essencial nos problemas de
interpolação que estudaremos adiante, também são mais facilmente definidas por uma de-
scrição de seus coeficientes, ainda que não sejam matrizes esparsas. Dados n números reais
α1, . . . , αn, a matriz de Vandermonde V = V (α1, . . . , αn) determinada por este números
é definida pela regra
Vi,j = α
j−1
i .
Quando n = 3 isto nos dá 1 α1 α
2
1
1 α2 α
2
2
1 α3 α
2
3

Esta maneira de definir matrizes será muito útil na formalização das regras usadas nas
operações com matrizes.
3.2. Operações com matrizes. Nosso objetivo neste artigo é adaptar as regras que de-
scobrimos para a adição e multiplicação de matrizes 2× 2 para o caso geral em que as ma-
trizes não são nem mesmo quadradas. Antes, porém, de escrever estas regras, precisamos
saber comparar duas matrizes e determinar se são ou não iguais. Como matrizes são, em
última análise, uma espécie de tabela, diremos que duas delas são iguais se isto valer para
as tabelas correspondentes. Mais precisamente, para que uma matriz A de tamanho m× n
e uma matriz B de tamanho r × s sejam iguais, suas dimensões precisam coincidir, de
modo que m = r e n = s e as entradas de uma mesma posição devem coincidir; isto é,
Ai,j = Bi,j
para todo 1 ≤ i ≤ m e 1 ≤ j ≤ n.
Em nosso estudo das operações manteremos as convenções estabelecidas acima para
as matrizes A e B. Começaremos analisando a adição. Como vimos, para somar duas
matrizes 2 × 2, somamos os seus coeficientes entrada a entrada. Para podermos estender
isto às matrizes A e B é necessário que tenham as mesmas dimensões; isto é, que m = r e
3. MATRIZES 21
que n = s. Admitindo que isto se verifica, podemos descrever a soma A + B a partir dos
seus coeficientes por
(A+B)i,j = Ai,j +Bi,j.
Em outras palavras, a entrada i, j da soma é igual à soma das entradas i, j das matrizes
A e B. Outra operação fácil de descrever desta maneira é a multiplicação de uma matriz
por um escalar, que não apareceu antes e não deve ser confundida com a multiplicação de
matrizes. Se λ for um número real, definimos a matriz λ · A por
(λ · A)i,j = λ · Ai,j.
Portanto, λ·A é a matriz obtida multiplicando-se cada coeficiente deA por λ. Por exemplo,
(−2) ·
 1 5 pi −5/71/8 9 8 pi/2
0 −65 0 7/pi
 =
 −2 −10 −2pi 10/7−1/4 −18 −16 −pi
0 130 0 −14/pi

As operações de adição de matrizes e multiplicação de uma matriz por um escalar sat-
isfazem algumas propriedades simples que listamos a seguir. Se A, B e C são matrizes
m× n e λ e µ são números reais, então
(1) (A+B) + C = A+ (B + C);
(2) A+B = B + A;
(3) A+ 0 = A;
(4) λ · (A+B) = λ · A+ λ ·B;
(5) (λ+ µ) · A = λ · A+ µ · A;
(6) 1 · A = A;
(7) 0 · A = 0;
em que o símbolo 0, usado nas propriedades (3) e no lado direito da propriedade (7) denota
a matriz cujas entradas são todas nulas. Entretanto, o 0 que multiplica a matriz A do
lado esquerdo de (7) é nosso velho conhecido, o número real zero. Observe que estas
propriedades são muito semelhantes às da adição de vetores e multiplicação de um vetor
por escalar, descritas no artigo 1.1. Prová-las fica por sua conta.
Passemos à fórmula para a multiplicação de matrizes. A maneira usual de descrevê-la
recorre a uma fórmula geral, cheia de coeficientes. Mas há uma maneira mais civilizada de
expressá-la. Começamos com o caso em que
L =
[
`1 `2
]
e C =
[
c1
c2
]
A regra para multplicação de matrizes 2× 2 deduzida no artigo 2.6 sugere que deveríamos
definir o produto L ·C como sendo a matriz 1×1 cuja única entrada é `1c1+`2c2. Podemos
22 1. O PLANO
considerar isto como uma matriz 1 × 1 ou como um número real, isto é, um escalar. Em
geral, se
L =
[
`1 · · · `n
]
e C =

c1
...
cn

então copiamos a definição acima, escrevendo,
(8) L · C = `1c1 + · · ·+ `ncn.
Por exemplo, quando
L =
[
1 2 3
]
e C =
45
6

obtemos
L · C = 1 · 4 + 2 · 5 + 3 · 6 = 32.
Note que escolhemos L como tendo n colunas e C como tendo n linhas, do contrário
sobrariam coeficientes em L ou C quando viéssemos a construir o somatório que define
L · C. Pondo de outra maneira,
só faz sentido multiplicar uma matriz 1×n por uma matriz r×1 quando
n = r.
A propósito, as matrizes 1×n são conhecidas como matrizes linha e as r×1 como matrizes
coluna.
Para estender isto às matrizes A e B do início do artigo, consideraremos cada linha
de A como sendo uma matriz 1 × n e cada coluna de B como sendo uma matriz r × 1.
A primeira coisa a notar é que, para que seja possível multiplicar uma linha de A por
uma coluna de B devemos ter que n = r. Sob esta condição, definiremos a entrada i, j da
matriz produtoAB como sendo o escalar que resulta do produto da i-ésima linha deA pela
j-ésima coluna de B. Para escrever uma fórmula explícita é conveniente ter uma notação
para linhas e colunas de uma matriz. Utilizando a terminologia do SCILAB escreveremos
A(i, :) para denotar a i-ésima linha e A(:, j) para denotar a j-ésima coluna da matriz A.
Com isto, a fórmula que define a matriz produto AB é
(AB)(i, j) = A(i, :) ·B(:, j).
Note que i percorre os índices das linhas de A, ao passo que j percorre os índices das
colunas de B. Como AB tem uma entrada para cada i e cada j, sua dimensão será m× s.
Temos, assim, que
o produto de uma matriz m×n por uma matriz r× s só existe se n = r;
neste caso o produto será uma matriz m× s.
3. MATRIZES 23
Usaremos esta fórmula para provar que a matriz identidade merece o nome que tem;
isto é, que se comporta como uma identidade relativamente à multiplicação de matrizes,
de modo que
A · In = In · A = A,
para toda matriz quadrada A de tamanho n× n. Pela fórmula acima,
(A · In)(i, j) = A(i, :) · In(:, j).
Mas In(:, j) tem apenas uma entrada não nula, que fica na posição j, j. Portanto, pela
fórmula (8),
A(i, :) · In(:, j) = A(i, j).
Logo,
(A · In)(i, j) =A(i, j),
de modo que a entrada i, j de A · In coincide com a entrada de mesma posição de A,
provando a igualdade destas duas matrizes. A igualdade In · A = A é provada de maneira
semelhante, os detalhes ficam por sua conta. Argumentos parecidos permitem provar as
seguintes propriedades da multiplicação de matrizes:
(1) A(BC) = (AB)C;
(2) A · 0 = 0;
(3) A(B + C) = AB + AC;
em que 0 representa a matriz nula e A, B e C representam matrizes quadradas de mesmo
tamanho. A propriedade AB = BA não foi listada acima por uma razão muito simples:
ela é falsa. Por exemplo, [
1 1
0 1
][
1 0
1 1
]
=
[
2 1
1 1
]
não é igual a [
1 0
1 1
][
1 1
0 1
]
=
[
1 1
1 2
]
Encerraremos o artigo definindo e considerando as propriedades de mais uma operação
com matrizes. Se A for a matriz do início do artigo, definimos a transposta At de A como
sendo a matriz obtida trocando-se as linhas pelas colunas de A. Na notação acima,
(At)(i, :) = A(:, i);
ou, o que dá no mesmo,
(At)(i, j) = A(j, i).
Naturalmente, se a matrizA tem tamanhom×n, então sua transposta tem tamanho, n×m;
afinal, linhas viraram colunas e vice-versa. Naturalmente, a transposta da transposta é a
matriz original:
(At)t = A.
24 1. O PLANO
O comportameto da adição e da multiplicação por escalar relativamente à transposição é
muito simples. Se A e B forem matrizes de mesmo tamanho, então
(A+B)t = At +Bt e (λ · A)t = λ · At;
qualquer que seja o escalar λ. Já o comportamento da multiplicação relativamente à trans-
posição é um pouco mais sutil. Suponhamos que A é uma matriz m × n e B uma matriz
n × s. Como o número de colunas de A coincide com o de linhas de B, o produto AB
existe e é uma matriz m × s. Portanto, a transposta (AB)t será uma matriz s × m. Ao
contrário do que você possa esperar, esta matriz não pode, em geral, ser igual a At ·Bt. Na
verdade, como At tem tamanho n×m e Bt tamanho s×n, o produto At ·Bt sequer estará
definido quando m 6= s. Curiosamente, os tamanhos de At e Bt nos permitem calcular
BtAt. Mais impressionante ainda é que este produto venha a coincidir com (AB)t; mas é
exatamente isto que acontece. Para provar isto, lembre-se que por definição
(At)(:, j) = A(j, :) e (Bt)(i, :) = B(:, i)
ao passo que
((AB)t)(i, j) = (AB)(j, i);
que pela fórmula do produto é igual a
A(j, :)B(:, i) = (Bt)(i, :)(At)(:, j);
que nada mais é, senão
(Bt)(At)(i, j);
provando, assim, a igualdade desejada.
3.3. Algumas matrizes especiais. Várias matrizes especiais aparecerão ao longo des-
te livro. Precisaremos introduzir algumas das mais básicas nesta seção porque algumas de
suas propriedades serão necessárias já no próximo capítulo.
Os primeiros tipos especiais de matrizes que introduziremos dizem respeito ao posi-
cionamento dos zeros. Seja A uma matriz retangular de tamanho m × n. Se todas as
posições abaixo da diagonal de A são nulas, então A é triangular superior; se são as
posições acima da diagonal que são nulas, dizemos que A é triangular inferior. Na no-
tação introduzida no artigo 3.2 estas definições podem ser formuladas da seguinte maneira
se Ai,j = 0 sempre que
{
j > i
j < i
então A é
{
triangular inferior
triangular superior
Por exemplo,
1 1 1 1
0 1 0 3
0 0 4 −17
0 0 0 2
 é triangular superior e

3 0 0 0 0
−8 3 0 0 0
11 7 7 0 0
1 8 2 7 1
 é triangular inferior.
3. MATRIZES 25
Em seguida definimos uma família de matrizes a partir das quais qualquer matriz pode
ser representada. Digamos que m e n são inteiros positivos. Dados inteiros 1 ≤ i ≤ m e
1 ≤ j ≤ n, definimos Eij como sendo a matriz m × n que tem 1 na posição i, j e zero
em todas as suas outras entradas. Usando, mais uma vez, a notação do artigo 3.2, podemos
definir as entradas desta matriz por
Eij(k, `) =
{
1 se i = k e j = `
0 em qualquer outro caso
Portanto, quando m = 2 e n = 3, temos as seguintes matrizes
E1,1 =
[
1 0 0
0 0 0
]
, E1,2 =
[
0 1 0
0 0 0
]
, E1,3 =
[
0 0 1
0 0 0
]
e assim por diante, num total de 2 · 3 = 6 matrizes, uma para cada posição não nula no
quadro 2 por 3.
A importância destas matrizes está no fato de que podemos escrever qualquer matriz A
de tamanho m× n como uma soma da forma
(9) A =
m∑
i=1
n∑
j=1
A(i, j) · Ei,j,
em que A(i, j) denota a entrada de A que ocupa a posição i, j. É muito fácil somar duas
matrizes representadas desta maneira, e deixamos isto por sua conta. Mais interessante é
que a distributividade da multiplicação de matrizes nos permite calcular o produto de duas
matrizes expressas em duplos somatórios desde que saibamos calcularEi,j ·Ek,`, quaisquer
que sejam 1 ≤ i, k ≤ m e 1 ≤ j, ` ≤ n. ComoEi,j eEk,` têm apenas uma posição não nula
cada, seu produto pode ter, no máximo, uma entrada não nula. Se existir, esta entrada tem
que aparecer quando multiplicamos a i-ésima linha de Ei,j pela `-ésima coluna de Ek,`,
porque qualquer posição fora desta linha e coluna são nulas. Entretanto, para que haja de
fato uma entrada não nula é preciso que o 1 ocupe na i-ésima linha exatamente a mesma
posição que ocupa na `-ésima coluna; que é uma maneira prolixa de dizer que k tem que
ser igual a j. Resumindo,
(10) Ei,j · Ek,` =
{
Ei,` se j = k
0 se j 6= k
Na decomposição que fizemos acima a matriz foi escrita diretamente a partir de suas
entradas, mas pode ser conveniente decompor uma matriz em termos de matrizes menores,
chamadas de blocos. Por exemplo, uma matriz 4× 4 qualquer pode ser considerada como
26 1. O PLANO
uma matriz cujas entradas são, elas próprias, matrizes 2× 2. Se a matriz 4× 4 for
M =

1 2 3 4
0 7 1 0
1 2 9 4
1 2 30 11

os blocos serão as matrizes,
A =
[
1 2
0 7
]
, B =
[
3 4
1 0
]
, C =
[
1 2
1 2
]
, e D =
[
4 4
30 11
]
;
com o que podemos escrever
M =
[
A B
C D
]
Em geral, se r é fator de m e s é fator de n, podemos representar uma matriz m× n como
uma matriz formada por blocos de tamanho r × s, que terá m/r blocos por linha e n/s
blocos por coluna.
Finalmente, dizemos que uma matriz quadrada A de tamanho n × n é inversível se
existe uma matriz B, também de tamanho n× n tal que
A ·B = B · A = I.
Observe que esta equação só faz sentido quando A e B forem ambas matrizes quadradas
e de mesmo tamanho. A matriz B é chamada de inversa de A e geralmente denotada por
A−1.
Ainda que toda matriz inversível tenha que ser quadrada, nem toda matriz quadrada é
inversível. Por exemplo, a matrizEi,j não é inversível, não importa que valores escolhamos
para i e j. Podemos provar isto facilmente usando as fórmulas (9) e (10). Digamos, por
exemplo, que Ek,` seja uma matriz n× n com 1 ≤ k, ` ≤ n. Se Ek,` tivesse como inverso
uma matriz A de tamanho n× n, então por (9) e pela distributividade da multiplicação de
matrizes
Ek,`A =
m∑
i=1
n∑
j=1
A(i, j) · Ek,` · Ei,j,
de modo que, por (10),
Ek,`A =
n∑
j=1
A(`, j) · Ek,j.
Em particular, todas as posições desta matriz localizadas fora da k-ésima linha têm que
ser nulas. Contudo, a matriz identidade tem uma posição não nula, na diagonal, para cada
3. MATRIZES 27
linha e cada coluna. Portanto,
Ek,`A 6= I, quaisquer que sejam i e j.
No artigo 3.2 do capítulo 2, estudaremos um algoritmo que determina se uma dada
matriz quadrada tem ou não inversa e que calcula tal inversa, caso exista. Por enquanto
vamos nos contentar em calcular a inversa de uma matriz triangular inferior. Começamos
tratando do caso em que a matriz é 3× 3. Supondo que
M =
a1 0 0b1 b2 0
c1 c2 c3
 tenha inversa X =
x1 x2 x3y1 y2 y3
z1 z2 z3

teremos
M ·X =
 a1x1 a1x2 a1x3b2y1 + b1x1 b2y2 + b1x2 b2y3 + b1x3
c3z1 + c2y1 + c1x1 c3z2 + c2y2 + c1x2 c3z3 + c2y3 + c1x3
 .
Igualando esta matriz à identidade 3× 3, obtemos o sistema linear
a1x1 = 1
a1x2= 0
a1x3 = 0
b2y1 + b1x1 = 0
b2y2 + b1x2 = 1
b2y3 + b1x3 = 0
c3z1 + c2y1 + c1x1 = 0
c3z2 + c2y2 + c1x2 = 0
c3z3 + c2y3 + c1x3 = 1
A primeira coisa que este sistema nos revela é que se a1 for nulo então M não tem inversa,
porque a primeira equação do sistema já seria impossível. Por outro lado, se a1 6= 0 então,
resolvendo as três primeiras equações, obtemos
x1 = 1/a1 e x2 = x3 = 0.
28 1. O PLANO
Substituindo isto no sistema, as seis últimas equações podem ser reescritas na forma
b2y1 + b1/a1 = 0
b2y2 = 1
b2y3 = 0
c3z1 + c2y1 + c1/a1 = 0
c3z2 + c2y2 = 0
c3z3 + c2y3 = 1.
Argumentando como acima verificamos que o sistema só terá solução se b2 6= 0; neste
caso,
y1 = −b1/b2a1, y2 = 1/b2 e y3 = 0.
Substituindo estes valores nas três últimas equações, vemos que o sistema terá solução
z1 = (b1c2 − b2c1)/c3b2a1, z2 = −c2/c3b2 e z3 = 1/c3.
se c3 6= 0; caso contrário não haverá solução. Portanto, se a1 6= 0, b2 6= 0 e c3 6= 0, a
matriz M terá inversa igual a 1/a1 0 0−b1/a1b2 1/b2 0
(b1c2 − b2c1)/a1b2c3 −c2/b2c3 1/c3

Estes cálculos simples mostram que, pelo menos no caso 3 × 3, determinar a inversa de
uma matriz triangular inferior se reduz a achar as soluções de um sistema linear muito fácil
de resolver. Voltaremos a considerar estes sistemas, conhecidos apropriadamente como
triangulares inferiores, de maneira mais abrangente no artigo 1.2 do capítulo 2. Podemos
concluir, do que fizemos, que
• uma matriz triangular inferior é inversível se, e somente se, não tem entradas nulas
ao longo da diagonal;
• quando a inversa de uma matriz triangular inferior existe ela também é triangular
inferior.
Estritamente falando, só provamos estes dois resultados para matrizes 3×3, mas eles valem
em geral. Na verdade a demonstração do caso geral é mera continuação do caso 3 × 3, já
podemos imaginar M como representando o vértice superior de uma matriz triangular
superior n× n quando n ≥ 3.
3.4. Matrizes retangulares, para quê? Ainda que você tenha se convencido de que
as matrizes quadradas 2× 2 possam ser úteis na representação de transformações lineares
do plano, talvez você se perguntando se matrizes retangulares não são fruto da obsessão
dos matemáticos em generalizar tudo o que pode ser generalizado. Apesar de ter todo o
3. MATRIZES 29
resto deste livro para lhe convencer de que não é este o caso, não custa dar alguns exemplos
relacionados aos vetores do plano e suas transformações lineares.
Para começar, podemos considerar um vetor do plano como sendo uma matriz. À
primeira vista o natural seria descrever um vetor como sendo uma matriz 1 × 2, mas a
verdade é que é melhor identificar um vetor (a, b) com a matriz coluna[
a
b
]
.
A razão para esta escolha um tanto bizarra logo ficará clara. O fato é que, somando vetores,
ou as matrizes que lhes coorespondem, obtemos o mesmo resultado. Mais precisamente,
a matriz coluna correspondente à soma dos vetores u com v é igual à
soma das matrizes coluna correspondentes a u e v, e o mesmo pode ser
dito sobre o produto de um vetor por um escalar.
Por isso, de agora em diante, consideraremos vetores do plano como sendo matrizes 2× 1
sempre que isto for conveniente. Supondo isto para dois vetores u e v, podemos descrever
seu produto escalar, a partir do produto de matrizes, por
(11) 〈u |v 〉 = ut · v.
Note que convertemos o vetor coluna u em um vetor linha tomando a sua transposta, para
que fosse possível efetuar a multiplicação desejada.
Passando às transformações lineares do plano, vimos que se T é definida, na base ε,
por
T (x, y) = (ax+ by, cx+ dy)
então a matriz a ela associada é
(T )ε =
[
a b
c d
]
.
No entanto, um cálculo simples mostra que se o vetor v tem coordenadas
v =
[
x
y
]
,
na mesma base ε, então as coordenadas de Tv nesta mesma base serão
Tv =
[
a b
c d
][
x
y
]
Com isto podemos explicar porque escolhemos representar vetores como matrizes colunas
e não linhas. Lembre-se que a uma transformação linear do plano fizemos corresponder
uma matriz 2× 2. Vetores escritos como matrizes linha têm tamanho 1× 2 o que nos obri-
garia a multiplicá-los à esquerda das matrizes que designam as transformações. Mas isto
30 1. O PLANO
produz um conflito com a convenção de que o argumento de uma transformação sempre
aparece à direita do símbolo que a denota; assim Tv, e não vT . Para evitar a confusão
que resultaria da permutação dos lados entre duas fórmulas que representam exatamente o
mesmo fato, preferimos escrever os vetores como colunas, em vez de linhas.
Mais interessante ainda são as expressões para as matrizes das projeções e reflexões
que obtemos combinando a multiplicação e a transposição. Por exemplo, vimos no artigo
2.1 que a projeção de um vetor v qualquer sobre um vetor unitário u é dada por
Proju(v) = 〈u | v〉 · u;
que (11) nos permite reescrever na forma
Proju(v) = (u
t · v) · u.
Como ut · v é um escalar, esta fórmula é igual a
Proju(v) = u · (ut · v).
Donde, pelas propriedades do produto de matrizes, obtemos
Proju(v) = (u · ut) · v.
Portanto, a matriz que descreve a projeção de v em u é igual ao produto u · ut. De fato,
supondo que u = [a, b]t e efetuando o produto, chegamos à mesma matriz que havíamos
obtido na equação (11).
Por outro lado, como vimos no artigo 2.2, a reflexão do vetor v relativamente à reta
pela origem de vetor unitário normal n é igual a
R(v) = v − 2 Projn(v).
Aplicando a fórmula matricial obtida acima a Projn(v), obtemos
R(v) = v − 2(nnt)v.
A presença do v em ambas as parcelas sugere pô-lo em evidência. No entanto, (1−2nnt)v
não faz sentido. De fato, duas matrizes só podem ser somadas se têm a mesma dimensão.
Contudo, mesmo considerando o escalar 1 como uma matriz 1× 1, não podemos somá-lo
à matriz nnt, que tem tamanho 2 × 2. Felizmente há uma saída simples, basta considerar
v como sendo o produto I · v, em que I é a matriz identidade 2× 2. Fazendo isto, obtemos
R(v) = (I − 2(nnt))v.
Mais uma vez, se n tem coordenadas (b,−a) na base ε, um cálculo elementar mostra que
I − 2(nnt) coincide com a matriz de reflexão encontrada no artigo 2.2. Obtivemos, assim,
fórmulas muito compactas para a projeção e reflexão no plano usando a multiplicação de
matrizes não quadradas.
EXERCÍCIOS 31
Exercícios
1. Sejam u e v vetores do plano. Use as propriedades do produto interno para calcular
〈u+ v|u+ v〉, 〈u− v|u− v〉 e 〈u− v|u+ v〉
em função de 〈u|v〉 e das normas de u e v.
2. Prove que as diagonais de um losango são perpendiculares.
SUGESTÃO: suponha que o losango tem um dos vértices na origem e que u e v são os
vetores que correspondem aos seus lados; calcule as diagonais em função de u e v, e
use as fórmulas do exercício 1.
3. Seja ε uma base do plano formada por dois vetores unitários, e1 e e2, perpendiculares
entre si. Prove que todo vetor v do plano pode ser escrito na forma
v = 〈v | e1〉e1 + 〈v | e2〉e2.
4. Sejam u e v vetores do plano. Prove que:
(a) |〈u|v〉| ≤ ‖u‖ · ‖v‖;
(b) ‖u+ v‖ ≤ ‖u‖+ ‖v‖;
(c) |‖u‖ − ‖v‖| ≤ ‖u− v‖.
A desigualdade em (a) é conhecida como desigualdade de Schwarz e aquela em (b)
como desigualdade triangular.
SUGESTÃO: para provar (b), calcule 〈u+ v|u+ v〉 e aplique a desigualdade (a).
5. Sejam u1 e u2 vetores do plano e U a matriz cuja primeira linha é u1 e cuja segunda
linha é u2. Prove que as seguintes afirmações são equivalentes:
(a) u1 e u2 são colineares;
(b) det(U) = 0.
6. Calcule o ângulo entre as retas 2x+ 3y = 0 e 5x+ 2y = 0.
7. Sejam P e Q pontos do plano e u e v vetores cujas extremidades são P e Q, respecti-
vamente. Mostre que a distância entre P e Q é igual à norma do vetor u− v.
8. Prove que uma transformação linear que preserva norma de vetores tem que preservar
distância entre pontos.
9. Dê exemplo de uma transformação que não é linear e que preserva a norma de vetores
mas não preserva distância.10. Prove que um operador linear T do plano tem inverso se, e somente se, a matriz de T
relativamente a uma base ε do plano é invertível.
32 1. O PLANO
11. Dizemos que uma matriz n× n C comuta com todas as matrizes n× n se AC = CA,
qualquer que seja a matriz A, desde que tenha tamanho n × n. Prove que se λ é um
escalar, então λ · In comuta com todas as matrizes n× n.
12. Mostre que a recíproca do exercício anterior é verdadeira. Isto é, prove que se C é
uma matriz que comuta com todas as matrizes n× n, então existe um escalar λ tal que
C = λ · In.
13. Seja Eij a matriz n×n que tem zeros em todas as suas posições, exceto na posição ij,
cuja entrada é igual a 1. Calcule A · Eij e Eij · A.
14. Mostre que se α é um escalar e i < j, então (I + αEij)A é igual à matriz A com sua
j-ésima linha substituída por ela própria mais α vezes a i-ésima linha de A. O que
acontece quando calculamos A(I + αEij)?
15. Sejam A e B matrizes 2× 2. Prove que:
(a) det(At) = det(A);
(b) (At)t = A.
16. Uma matriz A é simétrica se At = A. Mostre que as matrizes correspondentes a
projeções e reflexões do plano têm que ser simétricas.
17. Uma matriz A é antissimétrica se At = −A. Prove que toda matriz n × n pode ser
escrita como a soma de uma matriz simétrica com uma antissimétrica.
18. Prove que se a e b são números reais tais que a2 + b2 = 1, então[
a −b
b a
]
é uma matriz de rotação e calcule o ângulo de rotação em função de a e b.
19. Seja ε = {e1, e2} uma base do plano formada por vetores unitários, perpendiculares
entre si. Dado α ∈ R, definimos uma transformação linear cα do plano por
cα(e1) = e1 e cα(e2) = e2 + αe1.
Calcule a matriz de cα relativamente a ε. Transformações como esta são conhecidas
como cisalhamentos.
20. Determine as matrizes que correspondem às seguintes transformações lineares:
(a) um cisalhamento que leva a reta x = 0 em y = 2x;
(b) uma rotação anti-horária de pi/6 radianos;
(c) uma reflexão cujo espelho é a reta y = 2x;
(d) uma projeção sobre a reta y = 3x.
EXERCÍCIOS 33
21. Seja f uma aplicação de um conjunto C em outro conjunto C ′. A imagem de f é o
subconjunto de C ′ definido por
Im(f) = {f(c) | c ∈ C}.
Calcule as imagens de cada uma das seguintes transformações lineares do plano nele
próprio: cisalhamento, projeção, reflexão e rotação.
22. Uma aplicação f de um conjunto C em outro conjunto C ′ é sobrejetiva se Im(f) = C;
isto é, todo elemento de C ′ é imagem de um elemento de C por f . Quais das seguintes
transformações lineares do plano nele próprio: dilatação, cisalhamento, projeção, re-
flexão e rotação.
23. Uma aplicação f de um conjunto C em outro conjunto C ′ é injetiva se elementos
diferentes de C são levados por f em elementos diferentes de C ′> Quais das seguintes
transformações lineares do plano nele próprio: dilatação, cisalhamento, projeção, re-
flexão e rotação.
24. Dada um transformação linear T do plano, prove que são equivalentes:
(a) T é bijetiva;
(b) T tem inversa;
(c) T é sobrejetiva;
(d) T é injetiva;
(e) Tv = 0 só pode acontecer se v = 0.
25. Prove que se P é a matriz de uma projeção do plano em uma reta então P é simétrica
e P 2 = P .
26. Seja P a matriz de um operador linear do plano. Prove que se P é simétrica e P 2 = P ,
então o operador que corresponde a P é uma projeção do plano em uma reta.
27. Seja P a matriz de uma projeção do plano em uma reta. Explique como determinar
o vetor ao longo do qual é feita a projeção e a reta sobre a qual se dá esta projeção a
partir dos coeficientes de P .
28. Sejam A e B duas matrizes quadradas inversíveis de mesmo tamanho. Prove que a
inversa de AB é igual a B−1A−1. Cuidado com a troca de posição das matrizes e
lembre-se que a multiplicação de matrizes não é comutativa.
29. Prove que se A é uma matriz n× n, então
Ak − I = (A− I)(Ak−1 + Ak−2 + · · ·+ I).
34 1. O PLANO
30. Uma matriz quadrada Q é chamada de ortogonal se Q · Qt = I , em que I é a matriz
identidade. Em outras palavras, Q é inversível e sua inversa é igual à sua transposta.
Mostre que as matrizes que definem a rotação e a reflexão no plano são ortogonais.
31. Prove que toda matriz ortogonal Q de tamanho 2× 2 pode ser escrita na forma[
cos(θ) ± sen(θ)
sen(θ) cos(θ)
]
relativamente a uma base ε formada por dois vetores ortogonais unitários. Mostre que
esta matriz tem determinante igual a ±1.
32. Seja Q uma matriz ortogonal de tamanho 2× 2. Use o exercício anterior para mostrar
que
• se det(Q) = 1 então Q é uma rotação;
• se det(Q) = −1 então Q é uma reflexão.
Em particular, qualquer matriz ortogonal 2× 2 é uma rotação ou uma reflexão. Como
veremos no artigo 7.1, este resultado não se estende às matrizes ortogonais 3× 3.
CAPíTULO 2
Sistemas lineares
Neste capítulo introduzimos um algoritmo, talvez o mais importante da álgebra linear,
usando como motivação sua aplicação à solução de sistemas lineares. Interpretado como
uma decomposição matricial, este mesmo algoritmo provará sua utilidade em inúmeros
outras situações, entre elas o cálculo de determinantes e a inversão de matrizes.
1. Eliminação gaussiana
Começaremos a seção analisando em detalhes um método bem conhecido para a solu-
ção de sistemas lineares com apenas duas incógnitas, do qual o algoritmo geral pode ser
facilmente obtido.
1.1. Sistemas lineares com duas equações. Nos últimos anos do ensino fundamental
aprendemos vários métodos para resolver sistemas lineares de duas variáveis. Um deles,
o método de adição, consiste em multiplicar uma (ou ambas) as equações por constantes
apropriadas de modo que, quando forem somadas, resta uma equação linear em apenas
uma das variáveis, que pode então ser facilmente resolvida. Vejamos um exemplo. Se o
sistema for
x+ 3y = 1
2x+ 5y = 4,
então subtraímos da segunda equação o dobro da primeira, o que nos dá −y = 2; isto é,
y = −2. Substituindo isto em qualquer das duas equações originais, podemos determinar
o valor de x. De fato, da primeira equação
x = 1− 3y = 1− 3 · (−2) = 7.
Portanto o sistema tem solução x = 7 e y = −2.
Como este método é o ponto de partida para boa parte do que faremos no curso, vamos
analisá-lo em detalhe. Começaremos defindo com cuidado algumas noções básicas. Um
sistema linear nas variáveis x e y corresponde a um par de equações
a1x+ a
′
1y = b1(12)
a2x+ a
′
2y = b2;
35
36 2. SISTEMAS LINEARES
em que a1, a2, a1, a′2, b1 e b2 são números reais. O mesmo sistema pode ser escrito na
forma
a1x+ a
′
1y − b1 = 0
a2x+ a
′
2y − b2 = 0;
ou, de maneira ainda mais compacta como
E1 = 0(13)
E2 = 0;
em que
E1 = a1x+ a
′
1y − b1 e E2 = a2x+ a′2y − b2
são polinômios lineares. Dados dois números reais x0 e y0, denotaremos por E1(x0, y0)
o número real obtido substituindo-se x por x0 e y por y0 no polinômio E1. No caso do
exemplo resolvido no início deste artigo, estes polinômios serão
E1 = x+ 3y − 1 e E2 = 2x+ 5y − 4.
Usando esta notação, podemos definir uma solução do sistema (13) como sendo um par de
números (x0, y0) para o qual
E1(x0, y0) = 0
E2(x0, y0) = 0
Levando em conta que a ordem das equações não altera o sistema, escolheremos sem-
pre a primeira equação de maneira que nela o x apareça com coeficiente diferente de zero.
Observe que esta escolha é sempre possível, porque estamos supondo que se trata de um
sistema em duas incógnitas. No sistema (12) isto significa que podemos supor que a1 6= 0
na equação E1. A estratégia que adotaremos consiste em substituir o sistema{
E1 = 0
E2 = 0
por um sistema da forma
{
E1 = 0
cE1 + E2 = 0,
em que c é um número real. Naturalmente c será escolhido de maneira que o segundo
sistema seja mais fácil de resolver que o primeiro. De fato, se c = −a2/a1, temos que
(14) cE1 + E2 =
(
a′2 −
a2a
′
1
a1
)
y − (b2 − b1a2
a1
);
de modo que cE1 +E2 = 0 é uma equação linear em uma única variável (neste caso y). Se
α = a′2 −

Continue navegando