Baixe o app para aproveitar ainda mais
Prévia do material em texto
MAT 01355 – Álgebra Linear I-A 2020/1 Lista Adicional 11 Resolução Comentada 1. Considere W = Span {(1, 1, 1), (−1, 3,−2)} e v = (−1, 4, 3) ∈ R3. (a) Determine o vetor projeção ortogonal de v sobre W . (b) Determine a distância de v ao subespaço W . Solução. (a). Note que {(1, 1, 1), (−1, 3,−2)} é um conjunto ortogonal, pois (1, 1, 1)·(−1, 3,−2) = 1.(−1) + 1.3 + 1.(−2) = −1 + 3− 2 = 0 Logo, o conjunto {(1, 1, 1), (−1, 3,−2)} é uma base ortogonal de W . Podemos então calcular o vetor projeção ortogonal de v sobre W , via fórmula dada no Teorema da Projeção ortogonal. Assim, chamando v1 = (1, 1, 1) e v2 = (−1, 3,−2), temos proj W v = v·v1 v1·v1 v1 + v·v2 v2·v2 v2 = (−1, 4, 3)·(1, 1, 1) (1, 1, 1)·(1, 1, 1) (1, 1, 1) + (−1, 4, 3)·(−1, 3,−2) (−1, 3,−2)·(−1, 3,−2) (−1, 3,−2) = 0(1, 1, 1) + 1 2 (−1, 3,−2) = ( −1 2 , 3 2 ,−1 ) (b). Segue como uma consequência do Teorema da Projeção Ortogonal, que a distância de v ao espaço W é dada pela norma do vetor v−proj W v. Este vetor diferença é algumas vezes chamada de componente ortogonal de v sobre W , pois temos v = (proj W v)︸ ︷︷ ︸ ∈W + (v − proj W v)︸ ︷︷ ︸ W⊥ Assim, temos dist (v,W ) = ‖v − proj W v‖ = ∥∥∥∥(−1, 4, 3)− (−12 , 32 ,−1 )∥∥∥∥ = ∥∥∥∥(−12 , 52 , 4 )∥∥∥∥ = √ 1 + 25 + 16 4 = √ 42 2 2. Considere v1 = (1, 2, 1, 1), v2 = (−2, 1,−1, 1), v3 = (1, 1,−2,−1), v4 = (−1, 1, 1,−2) e w = (4, 5,−3, 3), vetores de R4. (a) Mostre que B = {v1,v2,v3,v4} é uma base ortogonal de R4. (b) Calcule o vetor de B-coordenadas de w. (c) Calcule o vetor projeção ortogonal de w sobre o subespaço W = Span {v1,v2,v3}. (d) Escreva w como uma soma da forma w = ŵ + u, onde ŵ ∈ W e u ∈ W⊥. (e) Calcule o produto interno entre u e cada um dos vetores geradores de W . Pelas respostas obtidas você pode garantir que não houve erro de cálculos? Justifique. Solução. (a). Para mostrar que B = {v1,v2,v3,v4} é uma base ortogonal de R4, basta mostrar que os vetores de B são dois a dois ortogonais, pois neste caso, teremos que B é um conjunto linearmente independente e, por consequência, é uma base de R4 e, portanto, uma base ortogonal de R4. Vamos calcular, então, os seguintes produtos internos: v1·v2 = (1, 2, 1, 1)·(−2, 1,−1, 1) = 1.(−2) + 2.1 + 1.(−1) + 1.1 = −2 + 2− 1 + 1 = 0 v1·v3 = (1, 2, 1, 1)·(1, 1,−2,−1) = 1.1 + 2.1 + 1.(−2) + 1.(−1) = 1 + 2− 2− 1 = 0 v1·v4 = (1, 2, 1, 1)·(−1, 1, 1,−2) = 1.(−1) + 2.1 + 1.1 + 1.(−2) = −1 + 2 + 1− 2 = 0 v2·v3 = (−2, 1,−1, 1)·(1, 1,−2,−1) = (−2).1 + 1.1 + (−1).(−2) + 1.(−1) = −2 + 1 + 2− 1 = 0 v2·v4 = (−2, 1,−1, 1)·(−1, 1, 1,−2) = (−2).(−1) + 1.1 + (−1).1 + 1.(−2) = 2 + 1− 1− 2 = 0 v3·v4 = (1, 1,−2,−1)·(−1, 1, 1,−2) = 1.(−1) + 1.1 + (−2).1 + (−1).(−2) = −1 + 1− 2 + 2 = 0 Os cálculos acima mostram que vi·vj = 0, sempre que i 6= j. Portanto, temos que vi ⊥ vj, se i 6= j, de onde segue que B é uma base ortogonal de R4. (b). Como B é uma base ortogonal de R4, segue que o vetor de B-coordenadas de w é dado por [w]B = ( w · v1 v1·v1 , w · v2 v2·v2 , w · v3 v3·v3 , w · v4 v4·v4 ) Calculando estes produtos internos, obtemos: w · v1 v1·v1 = (4, 5,−3, 3)·(1, 2, 1, 1) (1, 2, 1, 1)·(1, 2, 1, 1) = 4 + 10− 3 + 3 1 + 4 + 1 + 1 = 2 w · v2 v2·v2 = (4, 5,−3, 3)·(−2, 1,−1, 1) (−2, 1,−1, 1)·(−2, 1,−1, 1) = −8 + 5 + 3 + 3 4 + 1 + 1 + 1 = 3 7 w · v3 v3·v3 = (4, 5,−3, 3)·(1, 1,−2,−1) (1, 1,−2,−1)·(1, 1,−2,−1) = 4 + 5 + 6− 3 1 + 1 + 4 + 1 = 12 7 w · v4 v4·v4 = (4, 5,−3, 3)·(−1, 1, 1,−2) (−1, 1, 1,−2)·(−1, 1, 1,−2) = −4 + 5− 3− 6 1 + 1 + 1 + 4 = −8 7 Portanto, devemos ter [w]B = ( 2, 3 7 , 12 7 ,−8 7 ) (c). Se W = Span {v1,v2,v3}, então BW = {v1,v2,v3} é uma base ortogonal de W . Desta forma, segue do Teorema da Projeção Ortogonal que proj W w = w · v1 v1·v1 v1 + w · v2 v2·v2 v2 + w · v3 v3·v3 v3 Usando então os cálculos realizados no item anterior, obtemos então que proj W w = 2v1 + 3 7 v2 + 12 7 v3 = 2(1, 2, 1, 1) + 3 7 (−2, 1,−1, 1) + 12 7 (1, 1,−2,−1) = (2, 4, 2, 2) + ( −6 7 , 3 7 ,−3 7 , 3 7 ) + ( 12 7 , 12 7 ,−24 7 ,−12 7 ) = ( 20 7 , 43 7 ,−13 7 , 5 7 ) (d). No item (b), obtemos o vetor de B-coordenadas de w, o qual é dado por [w]B = ( 2, 3 7 , 12 7 ,−8 7 ) Logo, devemos ter w = 2v1 + 3 7 v2 + 12 7 v3︸ ︷︷ ︸ ∈W − 8 7 v4︸︷︷︸ ∈W⊥ pois W = Span {v1,v2,v3} e v4 ∈ W⊥. Portanto, fazendo • ŵ = 2v1 + 37v2 + 12 7 v3 = ( 20 7 , 43 7 ,−13 7 , 5 7 ) ∈ W • u = −8 7 v4 = ( 8 7 ,−8 7 ,−8 7 , 16 7 ) ∈ W⊥ obtemos que w = ( 20 7 , 43 7 ,−13 7 , 5 7 ) + ( 8 7 ,−8 7 ,−8 7 , 16 7 ) Observação. Note que ŵ = proj W w e u = w − proj W w, como diz o Teorema da Projeção Ortogonal. (e). Como u ∈ Span {v4} e já sabemos que os vetores v1,v2,v3 e v4 são dois a dois ortogonais, segue que u·v1 = 0, u·v2 = 0 e u·v3 = 0, não havendo necessidade de fazermos mais cálculos. Isto também mostra que a decomposição do vetor w feita acima está correta. 3. Considere v1 = (1, 2,−1), v2 = (5, 7, 1), v3 = (1, 7, 3) e w = (6, 1, 2), vetores de R3. (a) Mostre que B = {v1,v2,v3} é uma base de R3, mas que não é uma base ortogonal. (b) Calcule o vetor projeção ortogonal de w sobre o subespaço W = Span {v1,v2}. (c) Escreva w como uma soma da forma w = ŵ + u, onde ŵ ∈ W e u ∈ W⊥. (d) Calcule o produto interno entre u e cada um dos vetores geradores de W . Pelas respostas obtidas você pode garantir que não houve erro de cálculos? Justifique. Solução. Este exerćıcio é do mesmo tipo do anterior, apenas diferindo o fato de não conhecermos uma base ortogonal de W . Portanto, precisamos ter o cuidado de não utilizarmos a fórmula da projeção, usando os vetores geradores de W que são dados no exerćıcio, pois estes não são ortogonais. Vejamos abaixo como proceder neste caso. (a). Para ver que B = {v1,v2,v3} é uma base de R3, basta mostrar que estes vetores são linearmente independentes. Para isto, podemos escalonar a matriz cujas colunas são exatamente estes vetores. Assim, temos 1 5 12 7 7 −1 1 3 ∼ · · · ∼ 1 5 10 −3 5 0 0 14 o que mostra que o conjunto B é linearmente independente e, por consequência, uma base de R3. Agora note que v1·v2 = 5 + 14 − 1 6= 0, de onde segue que B não é uma base ortogonal de R3. (b). Consideremos W = Span {v1,v2} = {(1, 2,−1), (5, 7, 1)}. Vamos calcular o vetor projeção ortogonal de w sobre W . Primeiro, precisamos determinar uma base ortogonal de W , o que pode ser feito através do algoritmo de Gram-Schmidt. Usando este algoritmo, encontramos a base ortonormal B′ = {w1,w2}, onde W1 = Span {w1} e: w1 = v1 = (1, 2,−1) w2 = v2 − projW1 v2 = (5, 7, 1)− ( (5, 7, 1)·(1, 2,−1) (1, 2,−1)·(1, 2,−1) (1, 2,−1) ) = (5, 7, 1)− 3(1, 2,−1) = (2, 1, 4) Agora que temos uma base ortogonal de W , dada por Bort = {(1, 2,−1), (2, 1, 4)}, po- demos determinar o vetor projeção ortogonal de w sobre W , usando a fórmula dada no Teorema da Projeção Ortogonal: proj W w = w·w1 w1·w1 w1 + w·w2 w2·w2 w2 Assim, temos proj W w = (6, 1, 2)·(1, 2,−1) (1, 2,−1)·(1, 2,−1) (1, 2,−1) + (6, 1, 2)·(2, 1, 4) (2, 1, 4)·(2, 1, 4) (2, 1, 4) = 6 6 (1, 2,−1) + 21 21 (2, 1, 4) = (1, 2,−1) + (2, 1, 4) = (3, 3, 3) Portanto, temos proj W w = (3, 3, 3) (c). Para escrever w da forma w = ŵ + u, com ŵ ∈ W e u ∈ W⊥, vamos tomar ŵ = proj W w = (3, 3, 3, ) ∈ W e u = w− proj W w ∈ W⊥, como afirmado no Teorema da Projeção Ortogonal. Usando o que já foi determinado nos itens anteriores, temos u = (6, 1, 2)− (3, 3, 3) = (3,−2,−1) Portanto, w = (3, 3, 3)︸ ︷︷ ︸ ŵ + (3,−2,−1)︸ ︷︷ ︸ u (d). Vamos calcular o produto interno entre os vetores u e os geradores de W , a saber, v1 e v2, para confirmarmos que de fato u ∈ W⊥, como afirma o Teorema da Projeção Ortogonal. Assim, temos u · v1 = (3,−2,−1)·(1, 2,−1) = 3− 4 + 1 = 0⇒ u ⊥ v1 u · v1 = (3,−2,−1)·(5, 7, 1) = 15− 14− 1 = 0⇒ u ⊥ v2 Conclúımos então que u ∈ W⊥, como esperado. Além disso, conformamos que não houve erros de cálculos, quando determinamos os vetores ŵ e u, para escrever w daforma w = ŵ + u, com ŵ ∈ W e u ∈ W⊥, pois esta escrita é única, e claramente o vetor ŵ pertence ao subespaço W , por ser constrúıdo como uma combinação linear de vetores de uma base ortogonal de W . 4. Considere o subespaço W = {(x, y, z) ∈ R3 : x− 4y + 2z = 0} de R3 e seja v = (1, 0, 4). (a) Determine o vetor de projeção ortogonal v sobre W . (b) Escreva v da forma v̂ + u. onde v̂ ∈ W e u ∈ W⊥. Solução. Novamente, este exerćıcio é do mesmo tipo dos anteriores. A diferença aqui é que não conhecemos, a prinćıpio, um conjunto gerador de W . Começaremos então deter- minando vetores geradores de W , para depois aplicarmos a mesma estratégia empregada na resolução do exerćıcio anterior. Note que se x− 4y + 2z = 0, então x = 4y − 2z, de onde segue que W = {(x, y, z) ∈ R3 : x− 4y + 2z = 0} = {(4y − 2z, y, z) : y, z ∈ R} = {(4y, y, 0) + (−2z, 0, z) : y, z ∈ R} = {y(4, 1, 0) + z(−2, 0, 1) : y, z ∈ R} = Span {(4, 1, 0), (−2, 0, 1)} e segue que o conjunto {(4, 1, 0), (−2, 0, 1)} é um conjunto gerador de W . Podemos assim, determinar uma base ortogonal para W , via o algoritmo de Gram-Schmidt, para então obter o vetor projeção ortogonal de v sobre W , pela fórmula da projeção ortogonal. Como o conjunto gerador de W obtido acima é linearmente independente, por construção, segue que o conjunto B = {(−2, 0, 1)︸ ︷︷ ︸ v1 , (4, 1, 0)︸ ︷︷ ︸ v2 } é uma base de W . Aplicando o algoritmo de Gram-Schmidt nos vetores desta base de W , obtemos: w1 = v1 = (−2, 0, 1) w2 = v2 − projSpan {w1}v2 = (4, 1, 0)− ( (4, 1, 0)·(−2, 0, 1) (−2, 0, 1)·(−2, 0, 1) (−2, 0, 1) ) = (4, 1, 0)− ( −8 5 (−2, 0, 1) ) = (4, 1, 0) + ( −16 5 , 0, 8 5 ) = ( 4 5 , 1, 8 5 ) e, assim, podemos tomar a base B′ = {(−2, 0, 1)︸ ︷︷ ︸ w1 , (4, 5, 8)︸ ︷︷ ︸ w′2 } como sendo uma base ortogonal de W . Note que tomamos o múltiplo escalar w′2 = (4, 5, 8) do vetor w2 = ( 4 5 , 1, 8 5 ) encontrado no algoritmo de Gram-Schmidt, pois queremos evitar cálculos com frações nos produtos internos que teremos de calcular adiante. Isto é leǵıtimo, pois não alteramos a ortogonalidade dos vetores da base ortogonal procurada. Vamos usar agora a base ortogonal B′ = {(−2, 0, 1), (4, 5, 8)} de W obtida acima, para calcular o vetor projeção ortogonal de v sobre W . Temos proj W v = v·w1 w1·w1 w1 + v·w′2 w′2·w′2 w′2 = (1, 0, 4)·(−2, 0, 1) (−2, 0, 1)·(−2, 0, 1) (−2, 0, 1) + (1, 0, 4)·(4, 5, 8) (4, 5, 8)·(4, 5, 8) (4, 5, 8) = 2 5 (−2, 0, 1) + 12 35 (4, 5, 8) = ( −4 5 , 0, 2 5 ) + ( 48 35 , 12 7 , 96 35 ) = ( 4 7 , 12 7 , 22 7 ) ou seja, temos proj W v = ( 4 7 , 12 7 , 22 7 ) (b). Para escrever o vetor v = (1, 0, 4) da forma v̂ + u. onde v̂ ∈ W e u ∈ W⊥, basta tomar ŵ = proj W v = ( 4 7 , 12 7 , 22 7 ) e u = v − proj W v = (1, 0, 4)− ( 4 7 , 12 7 , 22 7 ) = ( 3 7 ,−12 7 , 6 7 ) , para obter v = ( 4 7 , 12 7 , 22 7 ) ︸ ︷︷ ︸ ŵ + ( 3 7 ,−12 7 , 6 7 ) ︸ ︷︷ ︸ u Observação. Podemos verificar se não houve erro nos cálculos acima, testando a orto- gonalidade do vetor u obtido acima com os vetores geradores v1 e v2 de W , obtidos no ińıcio da nossa resolução. Temos assim, u·v1 = ( 3 7 ,−12 7 , 6 7 ) ·(−2, 0, 1) = −6 7 + 0 + 6 7 = 0 u·v2 = ( 3 7 ,−12 7 , 6 7 ) ·(4, 1, 0) = 12 7 − 12 7 + 0 = 0 atestando que u ∈ W⊥ e que não cometemos erros de cálculos no desenvolvimento do exerćıcio. 5. Sejam W = {(x, y, z) ∈ R3 : x− 2y + 3z = 0}, v = (−2, 4,−6) e u = (−1, 1, 1). (a) Determine o vetor de projeção ortogonal de v sobre W . (b) Determine o vetor de projeção ortogonal de u sobre W . (c) Com base nos resultados acima, podemos dizer em que subespaços estão os vetores v e u, respectivamente? Explique. (d) É posśıvel generalizar os resultados obtidos acima? Justifique. Solução. Precisamos encontrar uma base ortogonal de W para podermos usar a fórmula da projeção, a fim de determinar os vetores projeção ortogonal solicitados no exerćıcio. Faremos isto inicialmente. Note que se x− 2y + 3z = 0, então x = 2y − 3z e segue que W = {(x, y, z) ∈ R3 : x−2y+3z = 0} = {(2y−3z, y, z) : y, z ∈ R} = Span{(2, 1, 0), (−3, 0, 1)} Assim, conhecendo uma base de W , dada por B = {(2, 1, 0), (−3, 0, 1)}, podemos aplicar o algoritmo de Gram-Schmidt nos vetores desta base, encontrando nossa base ortogonal de W necessária. Desta forma, obtemos w1 = (2, 1, 0) w2 = (−3.0.1)− projSpan{(2,1,0)}(−3, 0, 1) = (−3, 0, 1)− ( (−3, 0, 1)·(2, 1, 0) (2, 1, 0)·(2, 1, 0) (2, 1, 0) ) = (−3, 0, 1)− ( −6 5 (2, 1, 0) ) = ( −3 5 , 6 5 , 1 ) Portanto, tomando w′2 = (−3, 6, 5) em lugar de w2 = ( −3 5 , 6 5 , 1 ) encontrado acima, teremos que B′ = {(2, 1, 0), (−3, 6, 5)} é uma base ortogonal de W . Vamos utilizar esta base para resolver os itens (a) e (b) do exerćıcio. (a). Sendo v = (−2, 4,−6) ∈ R3 e B′ = {(2, 1, 0)︸ ︷︷ ︸ w1 , (−3, 6, 5)︸ ︷︷ ︸ w′2 }, uma base ortogonal de W , temos: proj W v = v·w1 w1·w1 w1 + v·w′2 w′2·w′2 w′2 = (−2, 4,−6)·(2, 1, 0) (2, 1, 0)·(2, 1, 0) (2, 1, 0) + (−2, 4,−6)·(−3, 6, 5) (−3, 6, 5)·(−3, 6, 5) (−3, 6, 5) = 0(2, 1, 0) + 0(−3, 6, 5) = (0, 0, 0) ou seja, temos proj W v = (0, 0, 0) (b). Sendo u = (−1, 1, 1) ∈ R3 e B′ = {(2, 1, 0)︸ ︷︷ ︸ w1 , (−3, 6, 5)︸ ︷︷ ︸ w′2 }, uma base ortogonal de W , temos: proj W u = u·w1 w1·w1 w1 + u·w′2 w′2·w′2 w′2 = (−1, 1, 1)·(2, 1, 0) (2, 1, 0)·(2, 1, 0) (2, 1, 0) + (−1, 1, 1)·(−3, 6, 5) (−3, 6, 5)·(−3, 6, 5) (−3, 6, 5) = (−1 5 2, 1, 0) + 1 5 (−3, 6, 5) = (−1, 1, 1) ou seja, temos proj W u = (−1, 1, 1) (c). O Teorema da Projeção Ortogonal nos diz que se w ∈ Rn e W é um subespaço de Rn, então temos w = (proj W w)︸ ︷︷ ︸ ∈W + (w − proj W w)︸ ︷︷ ︸ ∈W⊥ de uma única maneira. Assim, se proj W v = 0 e proj W u = u, então devemos ter: • v = 0︸︷︷︸ =proj W v + v︸︷︷︸ =v−proj W v ∈ W⊥ • u = u︸︷︷︸ =proj W u + 0︸︷︷︸ =u−proj W u ∈ W de modo que podemos garantir, com base em nossos resultados anteriores, que v ∈ W⊥ e u ∈ W (d). O resultado do item anterior é completamente geral. Como: (i) A decomposição de um vetor v ∈ Rn da forma v = v̂ + u, com v̂ ∈ W e u ∈ W⊥, dada pelo Teorema da Projeção Ortogonal, onde W é um subespaço de Rn, é única; (ii) Sempre temos proj W v ∈ W e v − proj W v ∈ W⊥; (iii) E v = v + (v − 0) = 0 + (v − 0), claramente temos: proj W v = v⇔ v ∈ W e proj W v = 0⇔ v ∈ W⊥ 6. Considere os vetores v1 = (0, 4, 2), v2 = (5, 6,−7) e v3 = (4,−1, 2). (a) Mostre que B = {v1,v2,v3} é uma base de R3. (b) Use o algoritmo de Gram-Schmidt para obter uma base ortogonal de R3, a partir da base B. (c) Denotando por Bort = {u1,u2,u3} a base ortogonal de R3 encontrada no item ante- rior, verifique que: – Span {v1} = Span {u1} – Span {v1,v2} = Span {u1,u2} – Span {v1,v2,v3} = Span {u1,u2,u3} (d) O resultado acima é geral? Isto é, ele pode ser generalizado para Rn? Ou ainda, se B = {v1,v2, . . . ,vn} é uma base de Rn e Bort = {u1,u2, . . . ,un} é uma base ortogonal de Rn obtida através da aplicação do algoritmo de Gram-Schmidt em B, então temos Span {v1, . . . ,vj} = Span {u1, . . . ,uj}, ∀ 1 ≤ j ≤ n Solução. (a). Para mostrar que B é uma base de R3, basta mostrar que os vetores v1,v2 e v3 são linearmente independentes, o que se pode fazer facilmente escalonando a matriz cujas colunas são exatamente estes vetores. Fazendo isto, obtemos 0 5 44 6 −1 2 −7 2 ∼ · · · ∼ 2 −7 20 20 −5 0 0 21 4 de onde obtemos que B = {v1,v2,v3} é uma base de R3. (b). Aplicando o algoritmo de Gram-Schmidt nos vetores de B, obtemos: u1 = v1 = (0, 4, 2) u2 = v2 − projSpan{w1}v2 = (5, 6,−7)− (5, 6,−7)·(0, 4, 2) (0, 4, 2)·(0, 4, 2) (0, 4, 2) = (5, 6,−7)− 1 2 (0, 4, 2) = (5, 4,−8) Note agora que (4,−1, 2) ⊥ (0, 4, 2) e (4,−1, 2) ⊥ (5, 6,−7), pois (4,−1, 2)·(0, 4, 2) = 0 − 4 + 4 = 0 e (4,−1, 2)·(5, 6,−7) = 20 − 6 − 14 = 0, de onde segue que (4,−1, 2) ∈ (Span{(0, 4, 2), (5, 6,−7)})⊥, o que nos permite concluir que Bort = {(0, 4, 2), (5, 4,−8), (4,−1, 2)} é uma base ortogonal de R3, não sendonecessário desenvolver todo o algoritmo de Gram- Schmidt. Suponhamos que o leitor não se deu conta da observação feita acima. Então este leitor iria continuar o método de encontrar base ortogonal, realizando o último passo do algoritmo de Gram-Schmidt, que transcrevemos abaixo: u3 = v3 − projSpan{w1,w2}v2 = (4,−1, 2)− ( (4,−1, 2)·(0, 4, 2) (4,−1, 2)·(0, 4, 2) (0, 4, 2) + (4,−1, 2)·(5, 4,−8) (5, 4,−8)·(5, 4,−8) (5, 4,−8) ) = (4,−1, 2)− (0(0, 4, 2) + 0(5, 4,−8)) = (4,−1, 2)− (0, 0, 0) = (4,−1, 2) obtendo a mesma base ortogonal Bort de antes. (c). Estamos considerando as bases B = {(0, 4, 2)︸ ︷︷ ︸ v1 , (5, 6,−7)︸ ︷︷ ︸ v2 , (4,−1, 2)︸ ︷︷ ︸ v3 } e Bort = {(0, 4, 2)︸ ︷︷ ︸ u1 , (5, 4,−8)︸ ︷︷ ︸ u2 , (4,−1, 2)︸ ︷︷ ︸ u3 } de R3, onde a última foi obtida da primeira, aplicando-se o algoritmo de Gram-Schmidt. Então, neste caso, temos • u1 = v1 • u2 = v2 − projSpan{u1}v2 ⇒ u2 = v2 − αu1 e v2 = u2 + αu1 • u3 = v3 (isto ocorre porque v3 ∈ (Span{v1,v2})⊥). Então temos Span{v1} = Span{u1}, claramente. Além disso, se v ∈ Span{v1,v2}, então temos v = β1v1 + β2v2, e segue que v = β1v1 + β2v2 = β1v1 + β2(u2 + αu1) = β1u1 + β2(u2 + αu1) = (β1 + β2α)u1 + β2u2 ∈ Span{u1,u2} e, por outro lado, se u ∈ Span{u1,u2}, então temos u = γ1u1 + γ2u2, e segue que u = γ1u1 + γ2u2 = γ1u1 + γ2(v2 − αu1) = γ1v1 + γ2(v2 − αv1) = (γ1 − γ2α)v1 + γ2v2 ∈ Span{v1,v2} e conclúımos então que Span{v1,v2} ⊆ Span{u1,u2} e Span{u1,u2} ⊆ Span{v1,v2}. Portanto, sempre temos Span{v1,v2} = Span{u1,u2} Como v3 = u3, segue do resultado anterior que Span{v1,v2,v3} = Span{u1,u2,u3} (d). Vamos ver agora que o algoritmo de Gram-Schmidt, além de produzir uma base ortogonal, preserva os subespaços gerados pelos primeiros veotres da base onde ele é aplicado. Ou seja, se B = {v1,v2, . . . ,vn} é uma base de Rn e Bort = {u1,u2, . . . ,un} é uma base ortogonal de Rn obtida através da aplicação do algoritmo de Gram-Schmidt em B, então temos Span {v1, . . . ,vj} = Span {u1, . . . ,uj}, ∀ 1 ≤ j ≤ n Começamos observando que na j-ésima etapa do algoritmo, encontramos uj = vj − proj Wj−1 vj, onde Wj−1 = Span{u1, . . . ,uj−1} A argumentação feita no item anterior, mostra que Span{v1} = Span{u1} e Span{v1,v2} = Span{u1,u2} Vamos mostrar agora que Span{v1,v2,v3} = Span{u1,u2,u3}. De fato, pois se v ∈ Span{v1,v2,v3}, u ∈ Span{u1,u2,u3} e Span{v1,v2} = Span{u1,u2}, então: • v = α1v1 + α2v2 + α3v3 • u = β1u1 + β2u2 + β3u3 • u3 = v3 − projSpan{u1,u2}v3 • projSpan{u1,u2}v3 = γ1u1 + γ2u2 de onde segue que u3 = v3 − γ1u1 − γ2u2 e v3 = u3 + γ1u1 + γ2u2 e, portanto, temos v = α1v1 + α2v2 + α3v3 = α′1u1 + α ′ 2u2 + α3(u3 − γ1u1 − γ2u2) = (α′1 − α3γ1)u1 + (α′2 − α3γ2)u2 + α3u3 ∈ Span{u1,u2,u3} e u = β1u1 + β2u2 + β3u3 = β′1v1 + β ′ 2v2 + β3(v3 − γ1u1 − γ2u2) = β′1v1 + β ′ 2v2 + β3(v3 − γ′1v1 − γ′2v2) = (β′1 − β3γ′1)v1 + (β′2 − β3γ′2)v2 + β3v3 ∈ Span{v1,v2,v3} de onde se conclui que Span{v1,v2,v3} = Span{u1,u2,u3} Continuando este processo, passo a passo, obtemos na j-ésima etapa Span{v1,v2, . . . ,vj−1} = Span{u1,u2, . . . ,uj−1} 7. Na Lista Adicional 9, mostramos que se W é um subespaço de Rn de dimensão k, então W⊥ é um subespaço de Rn de dimensão n− k. Vamos usar este fato neste exerćıcio. Seja A = [v1 v2 · · · vn] uma matriz de ordem m× n. Vamos considerar a transformação linear A : Rn → Rm (ou seja, queremos enxergar A como uma transformação linear, a qual é definida por u 7→ Au,∀u ∈ Rn). Então a transposta de A pode ser vista como uma transformação linear At : Rm → Rn. (a) Dado v ∈ Nul At, mostre que v ∈ (Col A)⊥. (b) Conclua do anterior que Nul At = (Col A)⊥ (c) Mostre que se A é uma transformação linear sobrejetora, então At é uma trans- formação linear injetora. (Sugestão. Use o resultado da Lista adicional 9 indicado acima e o Teorema do Posto). (d) Usando que (At)t = A, conclua que Nul A = (Col At)⊥ (e) Mostre que se A é uma transformação linear injetora, então At é uma transformação linear sobrejetora. Solução. (a). Seja A = [v1 v2 · · · vn] uma matriz de ordem m × n. Suponhamos que v ∈ NulAt, então Atv = 0, ou seja − v1 − − v2 − ... ... ... − vn − |v | = 0... 0 Agora, observe que ao efetuarmos o produto matricial, quando fazemos o somatório das entradas da linha vj pelas entradas da coluna de v, obtemos o produto interno entre os vetores vj e v. Mas então, devemos ter v ⊥ vj, para todo 1 ≤ j ≤ n. Portanto, v ∈ (Col A)⊥. Isto mostra que Nul At ⊆ (Col A)⊥ (b). Na verdade, o argumento acima mostra que também vale a contenção contrária, ou seja, (Col A)⊥ ⊆ Nul At. De fato, pois se v ∈ (Col A)⊥, então v é uma solução particular do sistema linear homogêneo Atx = 0. Portanto, devemos ter (Col A)⊥ = Nul At (c). Suponhamos que a transformação linear A : Rn → Rm, dada por v 7→ Av, é sobrejetora. Então, devemos ter Col A = Rm. Usando o exerćıcio da Lista Adicional 9, indicado acima, obtemos que dim (Col A)⊥ = dimRm − dim Col A = m−m = 0 e, usando o resultado do item anterior, temos dimNul At = 0. Portanto, At : Rm → Rn, definida por u 7→ Atu, é uma transformação linear injetora. (d). Usando o resultado do item (b), a saber, (Col A)⊥ = Nul At, e o fato que (At)t = A, obtemos Nul A = Nul (At)t = (Col At)⊥ (e). Suponhamos que A : Rn → Rm, dada por v 7→ Av, é uma transformação li- near injetora. Então, temos dimNul A = 0. Assim sendo, segue do item anterior, que dim (Col At)⊥ = 0. Usando novamente o Exerćıcio da Lista Adicional 9 indicado acima, obtemos então que dim Col At = dimRn − (Col At)⊥ = n− 0 = n de onde segue que a transformação linear At : Rm → Rn, definido por u 7→ Atu é sobrejetora. 8. Considere a matriz A = 1 0 01 1 0 1 1 1 . Vamos denotar as colunas de A como os vetores v1 = (1, 1, 1) (primeira coluna de A), v2 = (0, 1, 1) (segunda coluna de A) e v3 = (0, 0, 1) (terceira coluna de A). (a) Determine uma base ortonormal do espaço Col A. (b) Denote a base ortonormal obtida no item anterior por B = {q1,q2,q3}. Calcule o vetor de B-coordenadas de v1, v2 e v3. (c) Consideremos as matrizes Q = [q1 q2 q3] e R = [[v1]B [v2]B [v3]B] (Assim, R é a matriz cujas colunas são os vetores de B-coordenadas obtidas no item anterior). Calcule o produto QR. (d) Você consegue explicar porque você obteve a matriz A como resultado do produto QR no item anterior? (e) O resultado acima pode ser generalizado? Tente fazer uma justificativa de sua res- posta (Note que A é uma matriz com colunas linearmente independentes). Observação. A fatoração acima é chamada de fatoração QR de A. Numa tal fatoração, a matriz R é sempre uma matriz triangular superior, cujas entradas na diagonal principal são todas positivas (isto é consequência da aplicação do algoritmo de Gram-Schmidt para obter a matriz Q). Assim, nestas condições, R é sempre uma matriz invert́ıvel. Esta fatoração não será objeto de avaliação. Apenas apresentamos aqui como uma curiosidade. Solução. (a). O Algoŕımo de Gram-Schmidt nos diz que Bort = {w1, w2, w3} é uma base ortogonal de R3, onde • w1 = (1, 1, 1) • w2 = (0, 1, 1)− ( < (0, 1, 1), (1, 1, 1) > < (1, 1, 1), (1, 1, 1) > (1, 1, 1) ) = (0, 1, 1)− ( 2 3 (1, 1, 1) ) = ( −2 3 , 1 3 , 1 3 ) Por uma questão de simplicidade, vamos substituir w2 = ( −2 3 , 1 3 , 1 3 ) por w′2 = (−2, 1, 1), para os próximos cálculos. • w3 = (0, 0, 1)− ( < (0, 1, 1), (1, 1, 1) > < (1, 1, 1), (1, 1, 1) > (1, 1, 1) + < (0, 1, 1), (−2, 1, 1) > < (−2, 1, 1), (−2, 1, 1) > (−2, 1, 1) ) = (0, 0, 1)− ( 1 3 (1, 1, 1) + 1 6 (−2, 1, 1) ) = (0, 0, 1)− ( 0, 1 2 , 1 2 ) = ( 0,−1 2 , 1 2 ) Portanto, Bort = {(1, 1, 1), (−2, 1, 1), (0,−1, 1)} é uma base ortogonal de R3. Note que os dois últimos vetores inclúıdos na base ortogonal acima são múltiplos escalares dos correspondentes vetores obtidos pelo algoritmo de Gram-Schmidt. Já observamos anteriormente que isto não altera a propriedade de ortogonalidade da base procurada. Como buscamosuma base ortonormal de R3, vamos agora normalizar os vetores encon- trados acima. Como ‖(1, 1, 1)‖ = √ 12 + 12 + 12 = √ 3 ‖(−2, 1, 1)‖ = √ (−2)2 + 12 + 12 = √ 6 ‖(0,−1, 1)‖ = √ 02 + (−1)2 + 12 = √ 2 e, consequentemente, o conjunto Bortn = {( 1√ 3 , 1√ 3 , 1√ 3 ) , ( − 2√ 6 , 1√ 6 , 1√ 6 ) , ( 0,− 1√ 2 , 1√ 2 )} é uma base ortonormal do espaço Col A. (b). Como Bortn = ( 1√ 3 , 1√ 3 , 1√ 3 ) ︸ ︷︷ ︸ q1 , ( − 2√ 6 , 1√ 6 , 1√ 6 ) ︸ ︷︷ ︸ q2 , ( 0,− 1√ 2 , 1√ 2 ) ︸ ︷︷ ︸ q3 é uma base ortonormal do espaço Col A, segue que [v1]Bortn = (v1·q1,v1·q2), (v1·q3)) = ( (1, 1, 1)· ( 1√ 3 , 1√ 3 , 1√ 3 ) , (1, 1, 1)· ( − 2√ 6 , 1√ 6 , 1√ 6 ) , (1, 1, 1)· ( 0,− 1√ 2 , 1√ 2 )) = ( √ 3, 0, 0) [v2]Bortn = (v2·q1)q1 + (v2·q2)q2 + (v2·q3)q3 = ( (0, 1, 1)· ( 1√ 3 , 1√ 3 , 1√ 3 ) , (0, 1, 1)· ( − 2√ 6 , 1√ 6 , 1√ 6 ) , (0, 1, 1)· ( 0,− 1√ 2 , 1√ 2 )) = ( 2√ 3 , 2√ 6 , 0 ) [v3]Bortn = (v3·q1)q1 + (v3·q2)q2 + (v3·q3)q3 = ( (0, 0, 1)· ( 1√ 3 , 1√ 3 , 1√ 3 ) , (0, 0, 1)· ( − 2√ 6 , 1√ 6 , 1√ 6 ) , (0, 0, 1)· ( 0,− 1√ 2 , 1√ 2 )) = ( 1√ 3 , 1√ 6 , 1√ 2 ) Resumindo, temos [v1]Bortn = ( √ 3, 0, 0), [v2]Bortn = ( 2√ 3 , 2√ 6 , 0 ) e [v3]Bortn = ( 1√ 3 , 1√ 6 , 1√ 2 ) (c). Tomando Q = 1√ 3 − 2√ 6 0 1√ 3 1√ 6 − 1√ 2 1√ 3 1√ 6 1√ 2 e R = √ 3 2√ 3 1√ 3 0 2√ 6 1√ 6 0 0 1√ 2 obtemos QR = 1√ 3 − 2√ 6 0 1√ 3 1√ 6 − 1√ 2 1√ 3 1√ 6 1√ 2 √ 3 2√ 3 1√ 3 0 2√ 6 1√ 6 0 0 1√ 2 = 1 0 01 1 0 1 1 1 = A (d). Note que a matriz R possui em suas colunas justamente as Bortn-coordenadas das colunas de A. Assim, devemos ter Q[v1]ortn = v1, Q[v2]ortn = v2 e Q[v3]ortn = v3. Portanto, QR = Q[[v1]ortn [v2]ortn [v3]ortn] = [Q[v1]ortn Q[v2]ortn Q[v3]ortn] = [v1 v2 v3] = A (e). O resultado acima é completamente geral. Se A é uma matriz com colunas li- nearmente independentes, digamos A = [v1 v2 · · · vn]m×n, então o conjunto B = {v1,v2, . . . ,vn} é uma base do espaço Col A. Podemos então proceder da seguinte forma: 1. Aplicamos o algoritmo de Gram-Schmidt nos vetores de B, para obter Bort = {u1,u2, . . . ,un}, uma base ortogonal do espaço Col A. 2. Normalizamos os vetores da base Bort, para obter a base ortonormal Bortn = {q1,q2, . . . ,qn} do espaço Col A. 3. Consideramos a matriz Q = [q1 q2 . . . qn], cujas colunas são vetores ortonor- mais. 4. Constrúımos a matriz n × n R, cujas colunas são os vetores de Bortn-coordenadas das respectivas colunas de A, ou seja, constrúımos R = [[v1]Bortn [v2]Bortn . . . [vn]Bortn ] 5. Finalmente obtemos QR = Q[[v1]Bortn [v2]Bortn . . . [vn]Bortn ] = [Q[v1]Bortn Q[v2]Bortn . . . Q[vn]Bortn ] = [v1 v2 . . . vn] = A Observação. Como a matriz Q = [q1 q2 . . . qn] tem colunas ortonormais, devemos ter QtQ = In, pois qi·qj = 0, se i 6= j e qi·qi = 1, para todos os ı́ndices 1 ≤ i, j ≤ n. Assim, QtQ = − q1 − − 22 − ... ... ... − qn − | | · · · |q1 q2 · · · qn | | · · · | = 1 0 · · · 0 0 1 · · · 0 ... ... . . . ... 0 0 · · · 1 = In podemos determinar a matriz R fazendo QtA, uma vez que se vale A = QR, então QtA = Qt(QR) = (QtQ)R = InR = R e obtemos uma fórmula mais simples para obter a matriz R. 9. Seja W = Span {(1, 1, 1), (1, 1, 0), (2, 2, 1)}. (Note que o terceiro vetor gerador de W é uma combinação linear dos dois primeiros). Este exerćıcio pretende estudar o que acontece quando aplicamos o algoritmo de Gram-Schmidt em um conjunto linearmente dependente. (a) Aplique o algoritmo de Gram-Schmidt nos vetores geradores de W , dados acima, na tentativa de encontrar uma base ortogonal de W . (b) O fenômeno que ocorreu acima deve ocorrer sempre que aplicarmos o algoritmo de Gram-Schmidt em um conjunto linearmente dependente? Tente dar uma explicação. (c) Podeŕıamos aproveitar os cálculos feitos no item (a) para obter uma base ortogonal de W? Explique. Solução. (a). Aplicando o algoritmo de Gram-Schmidt nos vetores geradores de W , v1 = (1, 1, 1), v2 = (1, 1, 0) e v3 = (2, 2, 1), obtemos w1 = (1, 1, 1) w2 = (1, 1, 0)− ( (1, 1, 0)·(1, 1, 1) (1, 1, 1)·(1, 1, 1) (1, 1, 1) ) = (1, 1, 0)− ( 2 3 (1, 1, 1) ) = ( 1 3 , 1 3 ,−2 3 ) w3 = (2, 2, 1)− ( (2, 2, 1)·(1, 1, 1) (1, 1, 1)·(1, 1, 1) (1, 1, 1) + (2, 2, 1)· ( 1 3 , 1 3 ,−2 3 )( 1 3 , 1 3 ,−2 3 ) · ( 1 3 , 1 3 ,−2 3 ) (1 3 , 1 3 ,−2 3 )) = (2, 2, 1)− ( 5 3 (1, 1, 1) + 1 ( 1 3 , 1 3 ,−2 3 )) = (2, 2, 1)− (2, 2, 1) = (0, 0, 0) Assim, o algoritmo de Gram-Schmidt aplicado no conjunto {(1, 1, 1), (1, 1, 0), (2, 2, 1)}, produz o conjunto {(1, 1, 1), ( 1 3 , 1 3 ,−2 3 ) , (0, 0, 0)}. Note que os dois primeiros vetores deste último conjunto são vetores ortogonais. Logo, este conjunto é um conjunto ortogonal, mas como ele contém o vetor nulo, este conjunto não é uma base ortogonal de W . (b). Note que v3 ∈ Span{v1,v2} = Span{w1,w2}. Portanto, devemos ter projSpan{w1,w2}v3 = v3 e, consequentemente, w3 = v3 − projSpan{w1,w2}v3 = v3 − v3 = 0 Este argumento pode ser repetido em qualquer etapa do algoritmo de Gram-Schmidt, pois já vimos que {w1,w2, . . . ,wn} foi obtido do conjunto {v1,v2, . . . ,vn} pelo algoritmo de Gram-Schmidt, então Span{v1,v2, . . . ,vk} = Span{w1,w2, . . . ,wk}, 1 ≤ k ≤ n Portanto, se para algum ı́ndice k ∈ {1, 2, ..., n} temos vk ∈ {v1,v2, . . . ,vk−1}, então projSpan{w1,...,wk−1}vk = vk e segue que wk = vk − projSpan{w1,...,wk−1}vk = vk − vk = 0 A rećıproca deste argumento também é verdadeira, pois se wk = 0, então 0 = wk = vk − projSpan{w1,...,wk−1}vk de onde segue que vk = projSpan{w1,...,wk−1}vk ∈ Span{w1, . . . ,wk−1} = Span{v1, . . . ,vk−1} e o conjunto {v1,v2, . . . ,vn} é linearmente dependente. (c). Sempre que um vetor obtido pelo algoritmo de Gram-Schmidt for o vetor nulo, significa que o correspondente vetor do conjunto original é uma combinação linear dos anteriores. Portanto, eliminando-se os vetores nulos obtidos ao final da aplicação do algoritmo de Gram-Schmidt, os demais formarão uma base ortogonal do espaço gerado pela lista de vetores dada, para a qual aplicamos o processo de Gram-Schmidt. Com esta observação, podeŕıamos produzir bases ortogonais a partir de conjuntos geradores. 10. Classifique as afirmações abaixo em verdadeiras ou falsas, apresentando uma breve justi- ficativa. (a) Se B = {v1,v2,v3} é uma base ortogonal de W , então B′ = {v1, αv2,v3}, onde α ∈ R, também é uma base ortogonal de W . Afirmação falsa. Note que se α = 0, então αv2 = 0 e o conjunto B′ não é linearmente independente, a pesar de ser um conjunto ortogonal. O problema desta afirmação é não excluir o escalar nulo, pois se α ∈ R e v·u = 0, então segue das propriedades do produto interno que (αv)·u = α(v·u) = α.0 = 0, ou seja, v ⊥ u ⇒ (αv) ⊥ u. Portanto, se garantirmos que αv2 6= 0, então B′ se torna um conjunto linearmente independente, o que implicaria, neste caso, que B′ seria uma base ortogonal de W . Temos sempre que ter um cuidado especial em relação ao vetr nulo nestas afirmações envolvendo ortogonalidade. (b) Considere W um subespaço de Rn. Sejam B = {w1,w2, . . . ,wk} uma base de W e v ∈ Rn. Então o vetor projeção ortogonal de v em relação ao subespaço W é dado por proj W v = v ·w1 w1 ·w1 w1 + v ·w2 w2 ·w2 w2 + · · ·+ v ·wk wk ·wk wk Afirmação falsa. A fórmula apresentada na afirmação só é verdadeira se a base B de W for uma base ortogonal, pois os coeficientes que aparecem na escrita do vetor projeção ortogonal de v sobre W , só representam as coordenadas de v em relação a uma base de W , se esta base for uma base ortogonal. (c) Sejam A uma matriz de ordem m×n e v ∈ Rn. Então podemos escrever v da forma v = v̂ + u, onde v̂ ∈ LinA e u ∈ Nul A. Afirmação verdadeira. O Teorema da Projeção Ortogonal garante que se W é um subespaço de Rn e v ∈ Rn, então existe uma única maneira de escrever v da forma v = v̂ + u, com v̂ ∈ W e u ∈ W⊥. Considerando entãoW = LinA ⊆ Rn, segue que (LinA)⊥ = (Col At)⊥ = Nul A (veja Exerćıcio 7(d)). Portanto, neste caso, teremos v̂ ∈ W = LinA e u ∈ W⊥ = (LinA)⊥ = Nul A como solicitado no exerćıcio. (d) Sejam W um subespaço de Rn e v ∈ Rn. Então proj W v = v se, e somente se, v ∈ W . (Sugestão. Use o Teorema da Projeção Ortogonal.) Afirmação verdadeira. Basta usar a argumentação utilizada na resolução do Exerćıcio 5(d). (e) Sejam W um subespaço de Rn e v ∈ Rn. Então proj W v = 0 se, e somente se, v ∈ W⊥. (Sugestão. Use o Teorema da Projeção Ortogonal.) Afirmação verdadeira. Basta usar a argumentação utilizada na resolução do Exerćıcio 5(d). (f) Sejam A e Q matrizes com ordem m× n e R uma matriz com ordem n× n, tais que A = QR. Se R é invert́ıvel, então Col A = Col Q. (Sugestão. Pense o produto QR como uma composição de transformações lineares). Afirmação verdadeira. O diagrama abaixo ilustra como agem as matrizes A, Q e R. Rn R �� A "" Rm Rn Q << Assim, temos: • v ∈ Col A⇒ Au = v, para algum u ∈ Rn. Como R é uma transformação linear de Rn em Rn, segue que existe u′ tal que Ru = u′. Consequentemente, temos v = Au = QRu = Qu′, ou seja, v ∈ Col Q. Assim, Col A ⊆ Col Q. • v ∈ Col Q ⇒ Qu = v, para algum u ∈ Rn. Como R é uma transformação linear invert́ıvel, existe u′ ∈ Rn tal que Ru′ = u. Assim, v = Qu = Q(Ru′) = (QR)u′ = Au′, e segue que v ∈ Col A. Portanto, Col Q ⊆ Col A. A argumentação acima então mostra que Col Q = Col A (g) Sejam A e Q matrizes com ordem m× n e R uma matriz com ordem n× n, tais que A = QR. Se A tem colunas linearmente independentes, então R é necessariamente uma matriz invert́ıvel. (Sugestão. Estude as soluções do sistema linear homogêneo Rx = 0) Afirmação verdadeira. Como R é uma matriz de ordem n× n, mostrar que R é invert́ıvel é equivalente a mostrar que R possui colunas linearmente independentes, o que por sua vez, é equivalente a mostrar que o sistema linear homogêneo Rx = 0 admite somente a solução trivial. Consideremos então v ∈ Rn uma solução particular do sistema Rx = 0. Assim, temos Rv = 0 e, consequentemente, Av = (QR)v = Q(Rv) = Q0 = 0 e segue que v = 0, pois A tem colunas linearmente independentes, por hipótese (e neste caso, o sistema linear homogêneo Ax = 0 admite somente a solução trivial). Portanto, como toda solução particular do sistema Rx = 0 é nula, segue que R tem colunas linearmente independentes, ou seja, R é invert́ıvel. (h) Sejam A e Q matrizes com ordem m × n e R uma matriz com ordem n × n, tais que A = QR. Se Col A = Col Q, então R é invert́ıvel. (Sugestão. Pense porque inclúımos a condição de independência linear no item anterior). Afirmação falsa. Para construir um contra-exemplo, basta considerar uma matriz A com colunas linearmente dependentes. Por exemplo, se tomamos A uma matriz 2 × 2 tal que Ae1 = e1 e Ae2 = 0, Q uma matriz tal que Qe1 = 0 e Qe2 = e1. Então, teremos Col A = Span{e1} = Col Q. Definindo R como sendo a matriz 2× 2 tal que Re1 = e2 e Re2 = 0, teremos (QR)e1 = Q(Re1) = Qe2 = e1 = Ae1 e (QR)e2 = Q(Re2) = Q0 = 0 = Ae2 de modo que A = QR, mas R não é invert́ıvel. A argumentação acima mostra que a hipótese de A ter colunas linearmente indepen- dentes é indispensável para se garantir a invertibilidade de R. Isto também mostra que se A não possui colunas linearmente independentes, então A não possui uma fatoração QR, satisfazendo as condições dadas no Exerćıcio 8.
Compartilhar