Buscar

Exercicios Álgebra Linear Area II - Lista 11 - Resolução Comentada

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 19 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 19 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 19 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

MAT 01355 – Álgebra Linear I-A 2020/1
Lista Adicional 11
Resolução Comentada
1. Considere W = Span {(1, 1, 1), (−1, 3,−2)} e v = (−1, 4, 3) ∈ R3.
(a) Determine o vetor projeção ortogonal de v sobre W .
(b) Determine a distância de v ao subespaço W .
Solução. (a). Note que {(1, 1, 1), (−1, 3,−2)} é um conjunto ortogonal, pois
(1, 1, 1)·(−1, 3,−2) = 1.(−1) + 1.3 + 1.(−2) = −1 + 3− 2 = 0
Logo, o conjunto {(1, 1, 1), (−1, 3,−2)} é uma base ortogonal de W . Podemos então
calcular o vetor projeção ortogonal de v sobre W , via fórmula dada no Teorema da
Projeção ortogonal. Assim, chamando v1 = (1, 1, 1) e v2 = (−1, 3,−2), temos
proj
W
v =
v·v1
v1·v1
v1 +
v·v2
v2·v2
v2
=
(−1, 4, 3)·(1, 1, 1)
(1, 1, 1)·(1, 1, 1)
(1, 1, 1) +
(−1, 4, 3)·(−1, 3,−2)
(−1, 3,−2)·(−1, 3,−2)
(−1, 3,−2)
= 0(1, 1, 1) +
1
2
(−1, 3,−2)
=
(
−1
2
,
3
2
,−1
)
(b). Segue como uma consequência do Teorema da Projeção Ortogonal, que a distância
de v ao espaço W é dada pela norma do vetor v−proj
W
v. Este vetor diferença é algumas
vezes chamada de componente ortogonal de v sobre W , pois temos
v = (proj
W
v)︸ ︷︷ ︸
∈W
+ (v − proj
W
v)︸ ︷︷ ︸
W⊥
Assim, temos
dist (v,W ) = ‖v − proj
W
v‖
=
∥∥∥∥(−1, 4, 3)− (−12 , 32 ,−1
)∥∥∥∥
=
∥∥∥∥(−12 , 52 , 4
)∥∥∥∥
=
√
1 + 25 + 16
4
=
√
42
2
2. Considere v1 = (1, 2, 1, 1), v2 = (−2, 1,−1, 1), v3 = (1, 1,−2,−1), v4 = (−1, 1, 1,−2) e
w = (4, 5,−3, 3), vetores de R4.
(a) Mostre que B = {v1,v2,v3,v4} é uma base ortogonal de R4.
(b) Calcule o vetor de B-coordenadas de w.
(c) Calcule o vetor projeção ortogonal de w sobre o subespaço W = Span {v1,v2,v3}.
(d) Escreva w como uma soma da forma w = ŵ + u, onde ŵ ∈ W e u ∈ W⊥.
(e) Calcule o produto interno entre u e cada um dos vetores geradores de W . Pelas
respostas obtidas você pode garantir que não houve erro de cálculos? Justifique.
Solução. (a). Para mostrar que B = {v1,v2,v3,v4} é uma base ortogonal de R4, basta
mostrar que os vetores de B são dois a dois ortogonais, pois neste caso, teremos que B é
um conjunto linearmente independente e, por consequência, é uma base de R4 e, portanto,
uma base ortogonal de R4. Vamos calcular, então, os seguintes produtos internos:
v1·v2 = (1, 2, 1, 1)·(−2, 1,−1, 1) = 1.(−2) + 2.1 + 1.(−1) + 1.1 = −2 + 2− 1 + 1 = 0
v1·v3 = (1, 2, 1, 1)·(1, 1,−2,−1) = 1.1 + 2.1 + 1.(−2) + 1.(−1) = 1 + 2− 2− 1 = 0
v1·v4 = (1, 2, 1, 1)·(−1, 1, 1,−2) = 1.(−1) + 2.1 + 1.1 + 1.(−2) = −1 + 2 + 1− 2 = 0
v2·v3 = (−2, 1,−1, 1)·(1, 1,−2,−1) = (−2).1 + 1.1 + (−1).(−2) + 1.(−1) = −2 + 1 + 2− 1 = 0
v2·v4 = (−2, 1,−1, 1)·(−1, 1, 1,−2) = (−2).(−1) + 1.1 + (−1).1 + 1.(−2) = 2 + 1− 1− 2 = 0
v3·v4 = (1, 1,−2,−1)·(−1, 1, 1,−2) = 1.(−1) + 1.1 + (−2).1 + (−1).(−2) = −1 + 1− 2 + 2 = 0
Os cálculos acima mostram que vi·vj = 0, sempre que i 6= j. Portanto, temos que vi ⊥ vj,
se i 6= j, de onde segue que B é uma base ortogonal de R4.
(b). Como B é uma base ortogonal de R4, segue que o vetor de B-coordenadas de w é
dado por
[w]B =
(
w · v1
v1·v1
,
w · v2
v2·v2
,
w · v3
v3·v3
,
w · v4
v4·v4
)
Calculando estes produtos internos, obtemos:
w · v1
v1·v1
=
(4, 5,−3, 3)·(1, 2, 1, 1)
(1, 2, 1, 1)·(1, 2, 1, 1)
=
4 + 10− 3 + 3
1 + 4 + 1 + 1
= 2
w · v2
v2·v2
=
(4, 5,−3, 3)·(−2, 1,−1, 1)
(−2, 1,−1, 1)·(−2, 1,−1, 1)
=
−8 + 5 + 3 + 3
4 + 1 + 1 + 1
=
3
7
w · v3
v3·v3
=
(4, 5,−3, 3)·(1, 1,−2,−1)
(1, 1,−2,−1)·(1, 1,−2,−1)
=
4 + 5 + 6− 3
1 + 1 + 4 + 1
=
12
7
w · v4
v4·v4
=
(4, 5,−3, 3)·(−1, 1, 1,−2)
(−1, 1, 1,−2)·(−1, 1, 1,−2)
=
−4 + 5− 3− 6
1 + 1 + 1 + 4
= −8
7
Portanto, devemos ter
[w]B =
(
2,
3
7
,
12
7
,−8
7
)
(c). Se W = Span {v1,v2,v3}, então BW = {v1,v2,v3} é uma base ortogonal de W .
Desta forma, segue do Teorema da Projeção Ortogonal que
proj
W
w =
w · v1
v1·v1
v1 +
w · v2
v2·v2
v2 +
w · v3
v3·v3
v3
Usando então os cálculos realizados no item anterior, obtemos então que
proj
W
w = 2v1 +
3
7
v2 +
12
7
v3
= 2(1, 2, 1, 1) +
3
7
(−2, 1,−1, 1) + 12
7
(1, 1,−2,−1)
= (2, 4, 2, 2) +
(
−6
7
,
3
7
,−3
7
,
3
7
)
+
(
12
7
,
12
7
,−24
7
,−12
7
)
=
(
20
7
,
43
7
,−13
7
,
5
7
)
(d). No item (b), obtemos o vetor de B-coordenadas de w, o qual é dado por
[w]B =
(
2,
3
7
,
12
7
,−8
7
)
Logo, devemos ter
w = 2v1 +
3
7
v2 +
12
7
v3︸ ︷︷ ︸
∈W
− 8
7
v4︸︷︷︸
∈W⊥
pois W = Span {v1,v2,v3} e v4 ∈ W⊥.
Portanto, fazendo
• ŵ = 2v1 + 37v2 +
12
7
v3 =
(
20
7
, 43
7
,−13
7
, 5
7
)
∈ W
• u = −8
7
v4 =
(
8
7
,−8
7
,−8
7
, 16
7
)
∈ W⊥
obtemos que
w =
(
20
7
,
43
7
,−13
7
,
5
7
)
+
(
8
7
,−8
7
,−8
7
,
16
7
)
Observação. Note que ŵ = proj
W
w e u = w − proj
W
w, como diz o Teorema da
Projeção Ortogonal.
(e). Como u ∈ Span {v4} e já sabemos que os vetores v1,v2,v3 e v4 são dois a dois
ortogonais, segue que u·v1 = 0, u·v2 = 0 e u·v3 = 0, não havendo necessidade de
fazermos mais cálculos. Isto também mostra que a decomposição do vetor w feita acima
está correta.
3. Considere v1 = (1, 2,−1), v2 = (5, 7, 1), v3 = (1, 7, 3) e w = (6, 1, 2), vetores de R3.
(a) Mostre que B = {v1,v2,v3} é uma base de R3, mas que não é uma base ortogonal.
(b) Calcule o vetor projeção ortogonal de w sobre o subespaço W = Span {v1,v2}.
(c) Escreva w como uma soma da forma w = ŵ + u, onde ŵ ∈ W e u ∈ W⊥.
(d) Calcule o produto interno entre u e cada um dos vetores geradores de W . Pelas
respostas obtidas você pode garantir que não houve erro de cálculos? Justifique.
Solução. Este exerćıcio é do mesmo tipo do anterior, apenas diferindo o fato de não
conhecermos uma base ortogonal de W . Portanto, precisamos ter o cuidado de não
utilizarmos a fórmula da projeção, usando os vetores geradores de W que são dados no
exerćıcio, pois estes não são ortogonais. Vejamos abaixo como proceder neste caso.
(a). Para ver que B = {v1,v2,v3} é uma base de R3, basta mostrar que estes vetores
são linearmente independentes. Para isto, podemos escalonar a matriz cujas colunas são
exatamente estes vetores. Assim, temos 1 5 12 7 7
−1 1 3
 ∼ · · · ∼
 1 5 10 −3 5
0 0 14

o que mostra que o conjunto B é linearmente independente e, por consequência, uma base
de R3.
Agora note que v1·v2 = 5 + 14 − 1 6= 0, de onde segue que B não é uma base ortogonal
de R3.
(b). Consideremos W = Span {v1,v2} = {(1, 2,−1), (5, 7, 1)}. Vamos calcular o vetor
projeção ortogonal de w sobre W .
Primeiro, precisamos determinar uma base ortogonal de W , o que pode ser feito através
do algoritmo de Gram-Schmidt. Usando este algoritmo, encontramos a base ortonormal
B′ = {w1,w2}, onde W1 = Span {w1} e:
w1 = v1 = (1, 2,−1)
w2 = v2 − projW1 v2
= (5, 7, 1)−
(
(5, 7, 1)·(1, 2,−1)
(1, 2,−1)·(1, 2,−1)
(1, 2,−1)
)
= (5, 7, 1)− 3(1, 2,−1)
= (2, 1, 4)
Agora que temos uma base ortogonal de W , dada por Bort = {(1, 2,−1), (2, 1, 4)}, po-
demos determinar o vetor projeção ortogonal de w sobre W , usando a fórmula dada no
Teorema da Projeção Ortogonal:
proj
W
w =
w·w1
w1·w1
w1 +
w·w2
w2·w2
w2
Assim, temos
proj
W
w =
(6, 1, 2)·(1, 2,−1)
(1, 2,−1)·(1, 2,−1)
(1, 2,−1) + (6, 1, 2)·(2, 1, 4)
(2, 1, 4)·(2, 1, 4)
(2, 1, 4)
=
6
6
(1, 2,−1) + 21
21
(2, 1, 4)
= (1, 2,−1) + (2, 1, 4)
= (3, 3, 3)
Portanto, temos
proj
W
w = (3, 3, 3)
(c). Para escrever w da forma w = ŵ + u, com ŵ ∈ W e u ∈ W⊥, vamos tomar
ŵ = proj
W
w = (3, 3, 3, ) ∈ W e u = w− proj
W
w ∈ W⊥, como afirmado no Teorema da
Projeção Ortogonal. Usando o que já foi determinado nos itens anteriores, temos
u = (6, 1, 2)− (3, 3, 3) = (3,−2,−1)
Portanto,
w = (3, 3, 3)︸ ︷︷ ︸
ŵ
+ (3,−2,−1)︸ ︷︷ ︸
u
(d). Vamos calcular o produto interno entre os vetores u e os geradores de W , a saber,
v1 e v2, para confirmarmos que de fato u ∈ W⊥, como afirma o Teorema da Projeção
Ortogonal. Assim, temos
u · v1 = (3,−2,−1)·(1, 2,−1) = 3− 4 + 1 = 0⇒ u ⊥ v1
u · v1 = (3,−2,−1)·(5, 7, 1) = 15− 14− 1 = 0⇒ u ⊥ v2
Conclúımos então que u ∈ W⊥, como esperado. Além disso, conformamos que não houve
erros de cálculos, quando determinamos os vetores ŵ e u, para escrever w daforma
w = ŵ + u, com ŵ ∈ W e u ∈ W⊥, pois esta escrita é única, e claramente o vetor ŵ
pertence ao subespaço W , por ser constrúıdo como uma combinação linear de vetores de
uma base ortogonal de W .
4. Considere o subespaço W = {(x, y, z) ∈ R3 : x− 4y + 2z = 0} de R3 e seja v = (1, 0, 4).
(a) Determine o vetor de projeção ortogonal v sobre W .
(b) Escreva v da forma v̂ + u. onde v̂ ∈ W e u ∈ W⊥.
Solução. Novamente, este exerćıcio é do mesmo tipo dos anteriores. A diferença aqui é
que não conhecemos, a prinćıpio, um conjunto gerador de W . Começaremos então deter-
minando vetores geradores de W , para depois aplicarmos a mesma estratégia empregada
na resolução do exerćıcio anterior.
Note que se x− 4y + 2z = 0, então x = 4y − 2z, de onde segue que
W = {(x, y, z) ∈ R3 : x− 4y + 2z = 0}
= {(4y − 2z, y, z) : y, z ∈ R}
= {(4y, y, 0) + (−2z, 0, z) : y, z ∈ R}
= {y(4, 1, 0) + z(−2, 0, 1) : y, z ∈ R}
= Span {(4, 1, 0), (−2, 0, 1)}
e segue que o conjunto {(4, 1, 0), (−2, 0, 1)} é um conjunto gerador de W . Podemos assim,
determinar uma base ortogonal para W , via o algoritmo de Gram-Schmidt, para então
obter o vetor projeção ortogonal de v sobre W , pela fórmula da projeção ortogonal.
Como o conjunto gerador de W obtido acima é linearmente independente, por construção,
segue que o conjunto B = {(−2, 0, 1)︸ ︷︷ ︸
v1
, (4, 1, 0)︸ ︷︷ ︸
v2
} é uma base de W . Aplicando o algoritmo
de Gram-Schmidt nos vetores desta base de W , obtemos:
w1 = v1 = (−2, 0, 1)
w2 = v2 − projSpan {w1}v2
= (4, 1, 0)−
(
(4, 1, 0)·(−2, 0, 1)
(−2, 0, 1)·(−2, 0, 1)
(−2, 0, 1)
)
= (4, 1, 0)−
(
−8
5
(−2, 0, 1)
)
= (4, 1, 0) +
(
−16
5
, 0,
8
5
)
=
(
4
5
, 1,
8
5
)
e, assim, podemos tomar a base B′ = {(−2, 0, 1)︸ ︷︷ ︸
w1
, (4, 5, 8)︸ ︷︷ ︸
w′2
} como sendo uma base ortogonal
de W . Note que tomamos o múltiplo escalar w′2 = (4, 5, 8) do vetor w2 =
(
4
5
, 1, 8
5
)
encontrado no algoritmo de Gram-Schmidt, pois queremos evitar cálculos com frações nos
produtos internos que teremos de calcular adiante. Isto é leǵıtimo, pois não alteramos a
ortogonalidade dos vetores da base ortogonal procurada.
Vamos usar agora a base ortogonal B′ = {(−2, 0, 1), (4, 5, 8)} de W obtida acima, para
calcular o vetor projeção ortogonal de v sobre W . Temos
proj
W
v =
v·w1
w1·w1
w1 +
v·w′2
w′2·w′2
w′2
=
(1, 0, 4)·(−2, 0, 1)
(−2, 0, 1)·(−2, 0, 1)
(−2, 0, 1) + (1, 0, 4)·(4, 5, 8)
(4, 5, 8)·(4, 5, 8)
(4, 5, 8)
=
2
5
(−2, 0, 1) + 12
35
(4, 5, 8)
=
(
−4
5
, 0,
2
5
)
+
(
48
35
,
12
7
,
96
35
)
=
(
4
7
,
12
7
,
22
7
)
ou seja, temos
proj
W
v =
(
4
7
,
12
7
,
22
7
)
(b). Para escrever o vetor v = (1, 0, 4) da forma v̂ + u. onde v̂ ∈ W e u ∈ W⊥, basta
tomar ŵ = proj
W
v =
(
4
7
, 12
7
, 22
7
)
e u = v − proj
W
v = (1, 0, 4)−
(
4
7
, 12
7
, 22
7
)
=
(
3
7
,−12
7
, 6
7
)
,
para obter
v =
(
4
7
,
12
7
,
22
7
)
︸ ︷︷ ︸
ŵ
+
(
3
7
,−12
7
,
6
7
)
︸ ︷︷ ︸
u
Observação. Podemos verificar se não houve erro nos cálculos acima, testando a orto-
gonalidade do vetor u obtido acima com os vetores geradores v1 e v2 de W , obtidos no
ińıcio da nossa resolução. Temos assim,
u·v1 =
(
3
7
,−12
7
,
6
7
)
·(−2, 0, 1) = −6
7
+ 0 +
6
7
= 0
u·v2 =
(
3
7
,−12
7
,
6
7
)
·(4, 1, 0) = 12
7
− 12
7
+ 0 = 0
atestando que u ∈ W⊥ e que não cometemos erros de cálculos no desenvolvimento do
exerćıcio.
5. Sejam W = {(x, y, z) ∈ R3 : x− 2y + 3z = 0}, v = (−2, 4,−6) e u = (−1, 1, 1).
(a) Determine o vetor de projeção ortogonal de v sobre W .
(b) Determine o vetor de projeção ortogonal de u sobre W .
(c) Com base nos resultados acima, podemos dizer em que subespaços estão os vetores
v e u, respectivamente? Explique.
(d) É posśıvel generalizar os resultados obtidos acima? Justifique.
Solução. Precisamos encontrar uma base ortogonal de W para podermos usar a fórmula
da projeção, a fim de determinar os vetores projeção ortogonal solicitados no exerćıcio.
Faremos isto inicialmente.
Note que se x− 2y + 3z = 0, então x = 2y − 3z e segue que
W = {(x, y, z) ∈ R3 : x−2y+3z = 0} = {(2y−3z, y, z) : y, z ∈ R} = Span{(2, 1, 0), (−3, 0, 1)}
Assim, conhecendo uma base de W , dada por B = {(2, 1, 0), (−3, 0, 1)}, podemos aplicar
o algoritmo de Gram-Schmidt nos vetores desta base, encontrando nossa base ortogonal
de W necessária. Desta forma, obtemos
w1 = (2, 1, 0)
w2 = (−3.0.1)− projSpan{(2,1,0)}(−3, 0, 1)
= (−3, 0, 1)−
(
(−3, 0, 1)·(2, 1, 0)
(2, 1, 0)·(2, 1, 0)
(2, 1, 0)
)
= (−3, 0, 1)−
(
−6
5
(2, 1, 0)
)
=
(
−3
5
,
6
5
, 1
)
Portanto, tomando w′2 = (−3, 6, 5) em lugar de w2 =
(
−3
5
, 6
5
, 1
)
encontrado acima,
teremos que B′ = {(2, 1, 0), (−3, 6, 5)} é uma base ortogonal de W . Vamos utilizar esta
base para resolver os itens (a) e (b) do exerćıcio.
(a). Sendo v = (−2, 4,−6) ∈ R3 e B′ = {(2, 1, 0)︸ ︷︷ ︸
w1
, (−3, 6, 5)︸ ︷︷ ︸
w′2
}, uma base ortogonal de W ,
temos:
proj
W
v =
v·w1
w1·w1
w1 +
v·w′2
w′2·w′2
w′2
=
(−2, 4,−6)·(2, 1, 0)
(2, 1, 0)·(2, 1, 0)
(2, 1, 0) +
(−2, 4,−6)·(−3, 6, 5)
(−3, 6, 5)·(−3, 6, 5)
(−3, 6, 5)
= 0(2, 1, 0) + 0(−3, 6, 5)
= (0, 0, 0)
ou seja, temos
proj
W
v = (0, 0, 0)
(b). Sendo u = (−1, 1, 1) ∈ R3 e B′ = {(2, 1, 0)︸ ︷︷ ︸
w1
, (−3, 6, 5)︸ ︷︷ ︸
w′2
}, uma base ortogonal de W ,
temos:
proj
W
u =
u·w1
w1·w1
w1 +
u·w′2
w′2·w′2
w′2
=
(−1, 1, 1)·(2, 1, 0)
(2, 1, 0)·(2, 1, 0)
(2, 1, 0) +
(−1, 1, 1)·(−3, 6, 5)
(−3, 6, 5)·(−3, 6, 5)
(−3, 6, 5)
= (−1
5
2, 1, 0) +
1
5
(−3, 6, 5)
= (−1, 1, 1)
ou seja, temos
proj
W
u = (−1, 1, 1)
(c). O Teorema da Projeção Ortogonal nos diz que se w ∈ Rn e W é um subespaço
de Rn, então temos w = (proj
W
w)︸ ︷︷ ︸
∈W
+ (w − proj
W
w)︸ ︷︷ ︸
∈W⊥
de uma única maneira. Assim, se
proj
W
v = 0 e proj
W
u = u, então devemos ter:
• v = 0︸︷︷︸
=proj
W
v
+ v︸︷︷︸
=v−proj
W
v
∈ W⊥
• u = u︸︷︷︸
=proj
W
u
+ 0︸︷︷︸
=u−proj
W
u
∈ W
de modo que podemos garantir, com base em nossos resultados anteriores, que
v ∈ W⊥ e u ∈ W
(d). O resultado do item anterior é completamente geral. Como:
(i) A decomposição de um vetor v ∈ Rn da forma v = v̂ + u, com v̂ ∈ W e u ∈ W⊥,
dada pelo Teorema da Projeção Ortogonal, onde W é um subespaço de Rn, é única;
(ii) Sempre temos proj
W
v ∈ W e v − proj
W
v ∈ W⊥;
(iii) E v = v + (v − 0) = 0 + (v − 0),
claramente temos:
proj
W
v = v⇔ v ∈ W e proj
W
v = 0⇔ v ∈ W⊥
6. Considere os vetores v1 = (0, 4, 2), v2 = (5, 6,−7) e v3 = (4,−1, 2).
(a) Mostre que B = {v1,v2,v3} é uma base de R3.
(b) Use o algoritmo de Gram-Schmidt para obter uma base ortogonal de R3, a partir da
base B.
(c) Denotando por Bort = {u1,u2,u3} a base ortogonal de R3 encontrada no item ante-
rior, verifique que:
– Span {v1} = Span {u1}
– Span {v1,v2} = Span {u1,u2}
– Span {v1,v2,v3} = Span {u1,u2,u3}
(d) O resultado acima é geral? Isto é, ele pode ser generalizado para Rn? Ou ainda,
se B = {v1,v2, . . . ,vn} é uma base de Rn e Bort = {u1,u2, . . . ,un} é uma base
ortogonal de Rn obtida através da aplicação do algoritmo de Gram-Schmidt em B,
então temos
Span {v1, . . . ,vj} = Span {u1, . . . ,uj}, ∀ 1 ≤ j ≤ n
Solução. (a). Para mostrar que B é uma base de R3, basta mostrar que os vetores v1,v2
e v3 são linearmente independentes, o que se pode fazer facilmente escalonando a matriz
cujas colunas são exatamente estes vetores. Fazendo isto, obtemos 0 5 44 6 −1
2 −7 2
 ∼ · · · ∼
 2 −7 20 20 −5
0 0 21
4

de onde obtemos que B = {v1,v2,v3} é uma base de R3.
(b). Aplicando o algoritmo de Gram-Schmidt nos vetores de B, obtemos:
u1 = v1 = (0, 4, 2)
u2 = v2 − projSpan{w1}v2
= (5, 6,−7)− (5, 6,−7)·(0, 4, 2)
(0, 4, 2)·(0, 4, 2)
(0, 4, 2)
= (5, 6,−7)− 1
2
(0, 4, 2)
= (5, 4,−8)
Note agora que (4,−1, 2) ⊥ (0, 4, 2) e (4,−1, 2) ⊥ (5, 6,−7), pois (4,−1, 2)·(0, 4, 2) =
0 − 4 + 4 = 0 e (4,−1, 2)·(5, 6,−7) = 20 − 6 − 14 = 0, de onde segue que (4,−1, 2) ∈
(Span{(0, 4, 2), (5, 6,−7)})⊥, o que nos permite concluir que
Bort = {(0, 4, 2), (5, 4,−8), (4,−1, 2)}
é uma base ortogonal de R3, não sendonecessário desenvolver todo o algoritmo de Gram-
Schmidt.
Suponhamos que o leitor não se deu conta da observação feita acima. Então este leitor iria
continuar o método de encontrar base ortogonal, realizando o último passo do algoritmo
de Gram-Schmidt, que transcrevemos abaixo:
u3 = v3 − projSpan{w1,w2}v2
= (4,−1, 2)−
(
(4,−1, 2)·(0, 4, 2)
(4,−1, 2)·(0, 4, 2)
(0, 4, 2) +
(4,−1, 2)·(5, 4,−8)
(5, 4,−8)·(5, 4,−8)
(5, 4,−8)
)
= (4,−1, 2)− (0(0, 4, 2) + 0(5, 4,−8))
= (4,−1, 2)− (0, 0, 0)
= (4,−1, 2)
obtendo a mesma base ortogonal Bort de antes.
(c). Estamos considerando as bases
B = {(0, 4, 2)︸ ︷︷ ︸
v1
, (5, 6,−7)︸ ︷︷ ︸
v2
, (4,−1, 2)︸ ︷︷ ︸
v3
} e Bort = {(0, 4, 2)︸ ︷︷ ︸
u1
, (5, 4,−8)︸ ︷︷ ︸
u2
, (4,−1, 2)︸ ︷︷ ︸
u3
}
de R3, onde a última foi obtida da primeira, aplicando-se o algoritmo de Gram-Schmidt.
Então, neste caso, temos
• u1 = v1
• u2 = v2 − projSpan{u1}v2 ⇒ u2 = v2 − αu1 e v2 = u2 + αu1
• u3 = v3 (isto ocorre porque v3 ∈ (Span{v1,v2})⊥).
Então temos Span{v1} = Span{u1}, claramente. Além disso, se v ∈ Span{v1,v2}, então
temos v = β1v1 + β2v2, e segue que
v = β1v1 + β2v2
= β1v1 + β2(u2 + αu1)
= β1u1 + β2(u2 + αu1)
= (β1 + β2α)u1 + β2u2
∈ Span{u1,u2}
e, por outro lado, se u ∈ Span{u1,u2}, então temos u = γ1u1 + γ2u2, e segue que
u = γ1u1 + γ2u2
= γ1u1 + γ2(v2 − αu1)
= γ1v1 + γ2(v2 − αv1)
= (γ1 − γ2α)v1 + γ2v2
∈ Span{v1,v2}
e conclúımos então que Span{v1,v2} ⊆ Span{u1,u2} e Span{u1,u2} ⊆ Span{v1,v2}.
Portanto, sempre temos
Span{v1,v2} = Span{u1,u2}
Como v3 = u3, segue do resultado anterior que
Span{v1,v2,v3} = Span{u1,u2,u3}
(d). Vamos ver agora que o algoritmo de Gram-Schmidt, além de produzir uma base
ortogonal, preserva os subespaços gerados pelos primeiros veotres da base onde ele é
aplicado. Ou seja, se B = {v1,v2, . . . ,vn} é uma base de Rn e Bort = {u1,u2, . . . ,un}
é uma base ortogonal de Rn obtida através da aplicação do algoritmo de Gram-Schmidt
em B, então temos
Span {v1, . . . ,vj} = Span {u1, . . . ,uj}, ∀ 1 ≤ j ≤ n
Começamos observando que na j-ésima etapa do algoritmo, encontramos uj = vj −
proj
Wj−1
vj, onde Wj−1 = Span{u1, . . . ,uj−1}
A argumentação feita no item anterior, mostra que
Span{v1} = Span{u1} e Span{v1,v2} = Span{u1,u2}
Vamos mostrar agora que Span{v1,v2,v3} = Span{u1,u2,u3}. De fato, pois se v ∈
Span{v1,v2,v3}, u ∈ Span{u1,u2,u3} e Span{v1,v2} = Span{u1,u2}, então:
• v = α1v1 + α2v2 + α3v3
• u = β1u1 + β2u2 + β3u3
• u3 = v3 − projSpan{u1,u2}v3
• projSpan{u1,u2}v3 = γ1u1 + γ2u2
de onde segue que
u3 = v3 − γ1u1 − γ2u2 e v3 = u3 + γ1u1 + γ2u2
e, portanto, temos
v = α1v1 + α2v2 + α3v3
= α′1u1 + α
′
2u2 + α3(u3 − γ1u1 − γ2u2)
= (α′1 − α3γ1)u1 + (α′2 − α3γ2)u2 + α3u3
∈ Span{u1,u2,u3}
e
u = β1u1 + β2u2 + β3u3
= β′1v1 + β
′
2v2 + β3(v3 − γ1u1 − γ2u2)
= β′1v1 + β
′
2v2 + β3(v3 − γ′1v1 − γ′2v2)
= (β′1 − β3γ′1)v1 + (β′2 − β3γ′2)v2 + β3v3
∈ Span{v1,v2,v3}
de onde se conclui que Span{v1,v2,v3} = Span{u1,u2,u3}
Continuando este processo, passo a passo, obtemos na j-ésima etapa
Span{v1,v2, . . . ,vj−1} = Span{u1,u2, . . . ,uj−1}
7. Na Lista Adicional 9, mostramos que se W é um subespaço de Rn de dimensão k, então
W⊥ é um subespaço de Rn de dimensão n− k. Vamos usar este fato neste exerćıcio. Seja
A = [v1 v2 · · · vn] uma matriz de ordem m× n. Vamos considerar a transformação
linear A : Rn → Rm (ou seja, queremos enxergar A como uma transformação linear, a
qual é definida por u 7→ Au,∀u ∈ Rn). Então a transposta de A pode ser vista como
uma transformação linear At : Rm → Rn.
(a) Dado v ∈ Nul At, mostre que v ∈ (Col A)⊥.
(b) Conclua do anterior que Nul At = (Col A)⊥
(c) Mostre que se A é uma transformação linear sobrejetora, então At é uma trans-
formação linear injetora. (Sugestão. Use o resultado da Lista adicional 9 indicado
acima e o Teorema do Posto).
(d) Usando que (At)t = A, conclua que Nul A = (Col At)⊥
(e) Mostre que se A é uma transformação linear injetora, então At é uma transformação
linear sobrejetora.
Solução. (a). Seja A = [v1 v2 · · · vn] uma matriz de ordem m × n. Suponhamos
que v ∈ NulAt, então Atv = 0, ou seja
− v1 −
− v2 −
...
...
...
− vn −

 |v
|
 =
 0...
0

Agora, observe que ao efetuarmos o produto matricial, quando fazemos o somatório das
entradas da linha vj pelas entradas da coluna de v, obtemos o produto interno entre
os vetores vj e v. Mas então, devemos ter v ⊥ vj, para todo 1 ≤ j ≤ n. Portanto,
v ∈ (Col A)⊥. Isto mostra que Nul At ⊆ (Col A)⊥
(b). Na verdade, o argumento acima mostra que também vale a contenção contrária, ou
seja, (Col A)⊥ ⊆ Nul At. De fato, pois se v ∈ (Col A)⊥, então v é uma solução particular
do sistema linear homogêneo Atx = 0. Portanto, devemos ter
(Col A)⊥ = Nul At
(c). Suponhamos que a transformação linear A : Rn → Rm, dada por v 7→ Av, é
sobrejetora. Então, devemos ter Col A = Rm. Usando o exerćıcio da Lista Adicional 9,
indicado acima, obtemos que
dim (Col A)⊥ = dimRm − dim Col A = m−m = 0
e, usando o resultado do item anterior, temos dimNul At = 0. Portanto, At : Rm → Rn,
definida por u 7→ Atu, é uma transformação linear injetora.
(d). Usando o resultado do item (b), a saber, (Col A)⊥ = Nul At, e o fato que (At)t = A,
obtemos
Nul A = Nul (At)t = (Col At)⊥
(e). Suponhamos que A : Rn → Rm, dada por v 7→ Av, é uma transformação li-
near injetora. Então, temos dimNul A = 0. Assim sendo, segue do item anterior, que
dim (Col At)⊥ = 0. Usando novamente o Exerćıcio da Lista Adicional 9 indicado acima,
obtemos então que
dim Col At = dimRn − (Col At)⊥ = n− 0 = n
de onde segue que a transformação linear At : Rm → Rn, definido por u 7→ Atu é
sobrejetora.
8. Considere a matriz A =
 1 0 01 1 0
1 1 1
. Vamos denotar as colunas de A como os vetores
v1 = (1, 1, 1) (primeira coluna de A), v2 = (0, 1, 1) (segunda coluna de A) e v3 = (0, 0, 1)
(terceira coluna de A).
(a) Determine uma base ortonormal do espaço Col A.
(b) Denote a base ortonormal obtida no item anterior por B = {q1,q2,q3}. Calcule o
vetor de B-coordenadas de v1, v2 e v3.
(c) Consideremos as matrizes Q = [q1 q2 q3] e R = [[v1]B [v2]B [v3]B] (Assim, R
é a matriz cujas colunas são os vetores de B-coordenadas obtidas no item anterior).
Calcule o produto QR.
(d) Você consegue explicar porque você obteve a matriz A como resultado do produto
QR no item anterior?
(e) O resultado acima pode ser generalizado? Tente fazer uma justificativa de sua res-
posta (Note que A é uma matriz com colunas linearmente independentes).
Observação. A fatoração acima é chamada de fatoração QR de A. Numa tal fatoração,
a matriz R é sempre uma matriz triangular superior, cujas entradas na diagonal principal
são todas positivas (isto é consequência da aplicação do algoritmo de Gram-Schmidt
para obter a matriz Q). Assim, nestas condições, R é sempre uma matriz invert́ıvel.
Esta fatoração não será objeto de avaliação. Apenas apresentamos aqui como uma
curiosidade.
Solução. (a). O Algoŕımo de Gram-Schmidt nos diz que Bort = {w1, w2, w3} é uma base
ortogonal de R3, onde
• w1 = (1, 1, 1)
• w2 = (0, 1, 1)−
(
< (0, 1, 1), (1, 1, 1) >
< (1, 1, 1), (1, 1, 1) >
(1, 1, 1)
)
= (0, 1, 1)−
(
2
3
(1, 1, 1)
)
=
(
−2
3
,
1
3
,
1
3
)
Por uma questão de simplicidade, vamos substituir w2 =
(
−2
3
,
1
3
,
1
3
)
por w′2 =
(−2, 1, 1), para os próximos cálculos.
•
w3 = (0, 0, 1)−
(
< (0, 1, 1), (1, 1, 1) >
< (1, 1, 1), (1, 1, 1) >
(1, 1, 1) +
< (0, 1, 1), (−2, 1, 1) >
< (−2, 1, 1), (−2, 1, 1) >
(−2, 1, 1)
)
= (0, 0, 1)−
(
1
3
(1, 1, 1) +
1
6
(−2, 1, 1)
)
= (0, 0, 1)−
(
0,
1
2
,
1
2
)
=
(
0,−1
2
,
1
2
)
Portanto, Bort = {(1, 1, 1), (−2, 1, 1), (0,−1, 1)} é uma base ortogonal de R3.
Note que os dois últimos vetores inclúıdos na base ortogonal acima são múltiplos escalares
dos correspondentes vetores obtidos pelo algoritmo de Gram-Schmidt. Já observamos
anteriormente que isto não altera a propriedade de ortogonalidade da base procurada.
Como buscamosuma base ortonormal de R3, vamos agora normalizar os vetores encon-
trados acima. Como
‖(1, 1, 1)‖ =
√
12 + 12 + 12 =
√
3
‖(−2, 1, 1)‖ =
√
(−2)2 + 12 + 12 =
√
6
‖(0,−1, 1)‖ =
√
02 + (−1)2 + 12 =
√
2
e, consequentemente, o conjunto
Bortn =
{(
1√
3
,
1√
3
,
1√
3
)
,
(
− 2√
6
,
1√
6
,
1√
6
)
,
(
0,− 1√
2
,
1√
2
)}
é uma base ortonormal do espaço Col A.
(b). Como Bortn =

(
1√
3
,
1√
3
,
1√
3
)
︸ ︷︷ ︸
q1
,
(
− 2√
6
,
1√
6
,
1√
6
)
︸ ︷︷ ︸
q2
,
(
0,− 1√
2
,
1√
2
)
︸ ︷︷ ︸
q3
 é uma base
ortonormal do espaço Col A, segue que
[v1]Bortn = (v1·q1,v1·q2), (v1·q3))
=
(
(1, 1, 1)·
(
1√
3
,
1√
3
,
1√
3
)
, (1, 1, 1)·
(
− 2√
6
,
1√
6
,
1√
6
)
, (1, 1, 1)·
(
0,− 1√
2
,
1√
2
))
= (
√
3, 0, 0)
[v2]Bortn = (v2·q1)q1 + (v2·q2)q2 + (v2·q3)q3
=
(
(0, 1, 1)·
(
1√
3
,
1√
3
,
1√
3
)
, (0, 1, 1)·
(
− 2√
6
,
1√
6
,
1√
6
)
, (0, 1, 1)·
(
0,− 1√
2
,
1√
2
))
=
(
2√
3
,
2√
6
, 0
)
[v3]Bortn = (v3·q1)q1 + (v3·q2)q2 + (v3·q3)q3
=
(
(0, 0, 1)·
(
1√
3
,
1√
3
,
1√
3
)
, (0, 0, 1)·
(
− 2√
6
,
1√
6
,
1√
6
)
, (0, 0, 1)·
(
0,− 1√
2
,
1√
2
))
=
(
1√
3
,
1√
6
,
1√
2
)
Resumindo, temos
[v1]Bortn = (
√
3, 0, 0), [v2]Bortn =
(
2√
3
,
2√
6
, 0
)
e [v3]Bortn =
(
1√
3
,
1√
6
,
1√
2
)
(c). Tomando
Q =

1√
3
− 2√
6
0
1√
3
1√
6
− 1√
2
1√
3
1√
6
1√
2
 e R =

√
3 2√
3
1√
3
0 2√
6
1√
6
0 0 1√
2

obtemos
QR =

1√
3
− 2√
6
0
1√
3
1√
6
− 1√
2
1√
3
1√
6
1√
2


√
3 2√
3
1√
3
0 2√
6
1√
6
0 0 1√
2
 =
 1 0 01 1 0
1 1 1
 = A
(d). Note que a matriz R possui em suas colunas justamente as Bortn-coordenadas das
colunas de A. Assim, devemos ter Q[v1]ortn = v1, Q[v2]ortn = v2 e Q[v3]ortn = v3.
Portanto,
QR = Q[[v1]ortn [v2]ortn [v3]ortn]
= [Q[v1]ortn Q[v2]ortn Q[v3]ortn]
= [v1 v2 v3]
= A
(e). O resultado acima é completamente geral. Se A é uma matriz com colunas li-
nearmente independentes, digamos A = [v1 v2 · · · vn]m×n, então o conjunto B =
{v1,v2, . . . ,vn} é uma base do espaço Col A. Podemos então proceder da seguinte forma:
1. Aplicamos o algoritmo de Gram-Schmidt nos vetores de B, para obter Bort = {u1,u2, . . . ,un},
uma base ortogonal do espaço Col A.
2. Normalizamos os vetores da base Bort, para obter a base ortonormal Bortn =
{q1,q2, . . . ,qn} do espaço Col A.
3. Consideramos a matriz Q = [q1 q2 . . . qn], cujas colunas são vetores ortonor-
mais.
4. Constrúımos a matriz n × n R, cujas colunas são os vetores de Bortn-coordenadas
das respectivas colunas de A, ou seja, constrúımos
R = [[v1]Bortn [v2]Bortn . . . [vn]Bortn ]
5. Finalmente obtemos
QR = Q[[v1]Bortn [v2]Bortn . . . [vn]Bortn ]
= [Q[v1]Bortn Q[v2]Bortn . . . Q[vn]Bortn ]
= [v1 v2 . . . vn]
= A
Observação. Como a matriz Q = [q1 q2 . . . qn] tem colunas ortonormais, devemos
ter QtQ = In, pois qi·qj = 0, se i 6= j e qi·qi = 1, para todos os ı́ndices 1 ≤ i, j ≤ n.
Assim,
QtQ =

− q1 −
− 22 −
...
...
...
− qn −

 | | · · · |q1 q2 · · · qn
| | · · · |
 =

1 0 · · · 0
0 1 · · · 0
...
...
. . .
...
0 0 · · · 1
 = In
podemos determinar a matriz R fazendo QtA, uma vez que se vale A = QR, então
QtA = Qt(QR) = (QtQ)R = InR = R
e obtemos uma fórmula mais simples para obter a matriz R.
9. Seja W = Span {(1, 1, 1), (1, 1, 0), (2, 2, 1)}. (Note que o terceiro vetor gerador de W
é uma combinação linear dos dois primeiros). Este exerćıcio pretende estudar o que
acontece quando aplicamos o algoritmo de Gram-Schmidt em um conjunto linearmente
dependente.
(a) Aplique o algoritmo de Gram-Schmidt nos vetores geradores de W , dados acima, na
tentativa de encontrar uma base ortogonal de W .
(b) O fenômeno que ocorreu acima deve ocorrer sempre que aplicarmos o algoritmo de
Gram-Schmidt em um conjunto linearmente dependente? Tente dar uma explicação.
(c) Podeŕıamos aproveitar os cálculos feitos no item (a) para obter uma base ortogonal
de W? Explique.
Solução. (a). Aplicando o algoritmo de Gram-Schmidt nos vetores geradores de W ,
v1 = (1, 1, 1), v2 = (1, 1, 0) e v3 = (2, 2, 1), obtemos
w1 = (1, 1, 1)
w2 = (1, 1, 0)−
(
(1, 1, 0)·(1, 1, 1)
(1, 1, 1)·(1, 1, 1)
(1, 1, 1)
)
= (1, 1, 0)−
(
2
3
(1, 1, 1)
)
=
(
1
3
,
1
3
,−2
3
)
w3 = (2, 2, 1)−
(
(2, 2, 1)·(1, 1, 1)
(1, 1, 1)·(1, 1, 1)
(1, 1, 1) +
(2, 2, 1)·
(
1
3
, 1
3
,−2
3
)(
1
3
, 1
3
,−2
3
)
·
(
1
3
, 1
3
,−2
3
) (1
3
,
1
3
,−2
3
))
= (2, 2, 1)−
(
5
3
(1, 1, 1) + 1
(
1
3
,
1
3
,−2
3
))
= (2, 2, 1)− (2, 2, 1)
= (0, 0, 0)
Assim, o algoritmo de Gram-Schmidt aplicado no conjunto {(1, 1, 1), (1, 1, 0), (2, 2, 1)},
produz o conjunto {(1, 1, 1),
(
1
3
, 1
3
,−2
3
)
, (0, 0, 0)}. Note que os dois primeiros vetores deste
último conjunto são vetores ortogonais. Logo, este conjunto é um conjunto ortogonal, mas
como ele contém o vetor nulo, este conjunto não é uma base ortogonal de W .
(b). Note que v3 ∈ Span{v1,v2} = Span{w1,w2}. Portanto, devemos ter
projSpan{w1,w2}v3 = v3
e, consequentemente,
w3 = v3 − projSpan{w1,w2}v3 = v3 − v3 = 0
Este argumento pode ser repetido em qualquer etapa do algoritmo de Gram-Schmidt,
pois já vimos que {w1,w2, . . . ,wn} foi obtido do conjunto {v1,v2, . . . ,vn} pelo algoritmo
de Gram-Schmidt, então
Span{v1,v2, . . . ,vk} = Span{w1,w2, . . . ,wk}, 1 ≤ k ≤ n
Portanto, se para algum ı́ndice k ∈ {1, 2, ..., n} temos vk ∈ {v1,v2, . . . ,vk−1}, então
projSpan{w1,...,wk−1}vk = vk
e segue que
wk = vk − projSpan{w1,...,wk−1}vk = vk − vk = 0
A rećıproca deste argumento também é verdadeira, pois se wk = 0, então
0 = wk = vk − projSpan{w1,...,wk−1}vk
de onde segue que
vk = projSpan{w1,...,wk−1}vk ∈ Span{w1, . . . ,wk−1} = Span{v1, . . . ,vk−1}
e o conjunto
{v1,v2, . . . ,vn}
é linearmente dependente.
(c). Sempre que um vetor obtido pelo algoritmo de Gram-Schmidt for o vetor nulo,
significa que o correspondente vetor do conjunto original é uma combinação linear dos
anteriores. Portanto, eliminando-se os vetores nulos obtidos ao final da aplicação do
algoritmo de Gram-Schmidt, os demais formarão uma base ortogonal do espaço gerado
pela lista de vetores dada, para a qual aplicamos o processo de Gram-Schmidt. Com esta
observação, podeŕıamos produzir bases ortogonais a partir de conjuntos geradores.
10. Classifique as afirmações abaixo em verdadeiras ou falsas, apresentando uma breve justi-
ficativa.
(a) Se B = {v1,v2,v3} é uma base ortogonal de W , então B′ = {v1, αv2,v3}, onde
α ∈ R, também é uma base ortogonal de W .
Afirmação falsa. Note que se α = 0, então αv2 = 0 e o conjunto B′ não é
linearmente independente, a pesar de ser um conjunto ortogonal.
O problema desta afirmação é não excluir o escalar nulo, pois se α ∈ R e v·u = 0,
então segue das propriedades do produto interno que (αv)·u = α(v·u) = α.0 = 0, ou
seja, v ⊥ u ⇒ (αv) ⊥ u. Portanto, se garantirmos que αv2 6= 0, então B′ se torna
um conjunto linearmente independente, o que implicaria, neste caso, que B′ seria
uma base ortogonal de W . Temos sempre que ter um cuidado especial em relação
ao vetr nulo nestas afirmações envolvendo ortogonalidade.
(b) Considere W um subespaço de Rn. Sejam B = {w1,w2, . . . ,wk} uma base de W e
v ∈ Rn. Então o vetor projeção ortogonal de v em relação ao subespaço W é dado
por
proj
W
v =
v ·w1
w1 ·w1
w1 +
v ·w2
w2 ·w2
w2 + · · ·+
v ·wk
wk ·wk
wk
Afirmação falsa. A fórmula apresentada na afirmação só é verdadeira se a base B
de W for uma base ortogonal, pois os coeficientes que aparecem na escrita do vetor
projeção ortogonal de v sobre W , só representam as coordenadas de v em relação a
uma base de W , se esta base for uma base ortogonal.
(c) Sejam A uma matriz de ordem m×n e v ∈ Rn. Então podemos escrever v da forma
v = v̂ + u, onde v̂ ∈ LinA e u ∈ Nul A.
Afirmação verdadeira. O Teorema da Projeção Ortogonal garante que se W é um
subespaço de Rn e v ∈ Rn, então existe uma única maneira de escrever v da forma
v = v̂ + u, com v̂ ∈ W e u ∈ W⊥. Considerando entãoW = LinA ⊆ Rn, segue que
(LinA)⊥ = (Col At)⊥ = Nul A (veja Exerćıcio 7(d)). Portanto, neste caso, teremos
v̂ ∈ W = LinA e u ∈ W⊥ = (LinA)⊥ = Nul A
como solicitado no exerćıcio.
(d) Sejam W um subespaço de Rn e v ∈ Rn. Então proj
W
v = v se, e somente se,
v ∈ W . (Sugestão. Use o Teorema da Projeção Ortogonal.)
Afirmação verdadeira. Basta usar a argumentação utilizada na resolução do
Exerćıcio 5(d).
(e) Sejam W um subespaço de Rn e v ∈ Rn. Então proj
W
v = 0 se, e somente se,
v ∈ W⊥. (Sugestão. Use o Teorema da Projeção Ortogonal.)
Afirmação verdadeira. Basta usar a argumentação utilizada na resolução do
Exerćıcio 5(d).
(f) Sejam A e Q matrizes com ordem m× n e R uma matriz com ordem n× n, tais que
A = QR. Se R é invert́ıvel, então Col A = Col Q. (Sugestão. Pense o produto QR
como uma composição de transformações lineares).
Afirmação verdadeira. O diagrama abaixo ilustra como agem as matrizes A, Q e
R.
Rn
R
��
A
""
Rm
Rn
Q
<<
Assim, temos:
• v ∈ Col A⇒ Au = v, para algum u ∈ Rn. Como R é uma transformação linear
de Rn em Rn, segue que existe u′ tal que Ru = u′. Consequentemente, temos
v = Au = QRu = Qu′, ou seja, v ∈ Col Q. Assim, Col A ⊆ Col Q.
• v ∈ Col Q ⇒ Qu = v, para algum u ∈ Rn. Como R é uma transformação
linear invert́ıvel, existe u′ ∈ Rn tal que Ru′ = u. Assim, v = Qu = Q(Ru′) =
(QR)u′ = Au′, e segue que v ∈ Col A. Portanto, Col Q ⊆ Col A.
A argumentação acima então mostra que
Col Q = Col A
(g) Sejam A e Q matrizes com ordem m× n e R uma matriz com ordem n× n, tais que
A = QR. Se A tem colunas linearmente independentes, então R é necessariamente
uma matriz invert́ıvel. (Sugestão. Estude as soluções do sistema linear homogêneo
Rx = 0)
Afirmação verdadeira. Como R é uma matriz de ordem n× n, mostrar que R é
invert́ıvel é equivalente a mostrar que R possui colunas linearmente independentes,
o que por sua vez, é equivalente a mostrar que o sistema linear homogêneo Rx = 0
admite somente a solução trivial.
Consideremos então v ∈ Rn uma solução particular do sistema Rx = 0. Assim,
temos Rv = 0 e, consequentemente,
Av = (QR)v = Q(Rv) = Q0 = 0
e segue que v = 0, pois A tem colunas linearmente independentes, por hipótese (e
neste caso, o sistema linear homogêneo Ax = 0 admite somente a solução trivial).
Portanto, como toda solução particular do sistema Rx = 0 é nula, segue que R tem
colunas linearmente independentes, ou seja, R é invert́ıvel.
(h) Sejam A e Q matrizes com ordem m × n e R uma matriz com ordem n × n, tais
que A = QR. Se Col A = Col Q, então R é invert́ıvel. (Sugestão. Pense porque
inclúımos a condição de independência linear no item anterior).
Afirmação falsa. Para construir um contra-exemplo, basta considerar uma matriz
A com colunas linearmente dependentes. Por exemplo, se tomamos A uma matriz
2 × 2 tal que Ae1 = e1 e Ae2 = 0, Q uma matriz tal que Qe1 = 0 e Qe2 = e1.
Então, teremos Col A = Span{e1} = Col Q. Definindo R como sendo a matriz 2× 2
tal que Re1 = e2 e Re2 = 0, teremos
(QR)e1 = Q(Re1) = Qe2 = e1 = Ae1
e
(QR)e2 = Q(Re2) = Q0 = 0 = Ae2
de modo que A = QR, mas R não é invert́ıvel.
A argumentação acima mostra que a hipótese de A ter colunas linearmente indepen-
dentes é indispensável para se garantir a invertibilidade de R. Isto também mostra
que se A não possui colunas linearmente independentes, então A não possui uma
fatoração QR, satisfazendo as condições dadas no Exerćıcio 8.

Continue navegando