Buscar

espacos euclidianos

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 12 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 12 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 12 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Espac¸os Euclidianos
Espac¸os Rn
O conjunto Rn e´ definido como o conjunto de todas as n-uplas ordenadas de nu´meros reais:
Rn = {(x1, ..., xn) : x1, ..., xn ∈ R}.
R1 e´ simplesmente o conjunto R dos nu´meros reais, que e´ visualizada como uma reta; R2 e´ o conjunto de
pares de nu´meros reais, que pode ser visualizado como um plano e R3 e´ o conjunto de triplas de nu´meros
reais, comumente visualizado como o espac¸o. Como vimos anteriormente uma tripla (x1, x2, x3) pode ser
visualizada geometricamente tanto como representando as coordenadas de um ponto ou as coordenadas de
um vetor com ponto inicial na origem. Do mesmo modo, n-uplas (x1, ..., xn) podem ser visualizadas como
pontos ou vetores.
Segue portanto que dois vetores V = (v1, ..., vn) e W = (w1, ..., wn) sa˜o iguais se e somente se v1 =
w1, ..., vn = wn.
Apesar da nossa intuic¸a˜o geome´trica ser limitada para espac¸os de dimensa˜o 4 em diante, procedemos por
analogia definindo operac¸o˜es e conceitos similares aos que vimos no plano e no espac¸o.
Definic¸a˜o. A soma de dois vetores V = (v1, ..., vn) e W = (w1, ..., wn) de Rn e´ definida por
V +W = (v1 + w1, ..., vn + wn).
A multiplicac¸a˜o de um vetor V = (v1, ..., vn) de Rn por um escalar α ∈ R e´ definida por
αV = (αv1, ..., αvn).
Definimos 0 = (0, ..., 0), −V = (−v1, ...,−vn) e V −W = V + (−W ).
Proposic¸a˜o. Sejam U, V e W vetores de Rn e α, β ∈ R escalares. Enta˜o
1. U + V = V + U ;
2. U + (V +W ) = (U + V ) +W ;
3. U + 0 = 0 + U ;
4. U + (−U) = 0;
5. α(βU) = (αβ)U ;
6. α(U + V ) = αU + αV ;
7. (α+ β)U = αU + βU ;
8. 1U = U .
Os espac¸os Rn sa˜o exemplos t´ıpicos do que chamamos espac¸os vetoriais. Um espac¸o vetorial e´ qualquer
conjunto V onde podemos definir operac¸o˜es de soma e multiplicac¸a˜o por escalar que satisfazem todas as
propriedades acima.
1
Exemplo 0. O conjunto das func¸o˜es reais e´ um espac¸o vetorial, pois podemos definir a soma de duas func¸o˜es
f + g e o produto de uma func¸a˜o por um escalar αf , e estas sa˜o func¸o˜es reais:
(f + g)(x) = f(x) + g(x),
(αf)(x) = αf(x).
Similarmente, o conjunto das func¸o˜es reais cont´ınuas tambe´m e´ um espac¸o vetorial, porque a soma
de func¸o˜es cont´ınuas e o produto de uma func¸a˜o cont´ınua por um escalar sa˜o func¸o˜es cont´ınuas. Da
mesma maneira, o conjunto das func¸o˜es reais diferencia´veis e´ um espac¸o vetorial.
1. Combinac¸o˜es Lineares
Se V e W sa˜o vetores de Rn tais que W = αV para algum escalar α, dizemos que W e´ ummu´ltiplo escalar
de V .
Definic¸a˜o. Dizemos que V e´ uma combinac¸a˜o linear dos vetores V1, ..., Vk se existem escalares x1, ..., xk
tais que
V = x1V1 + ...+ xkVk.
Ou seja, uma combinac¸a˜o linear de vetores e´ simplesmente uma soma de mu´ltiplos escalares destes vetores.
Exemplo 1. Sejam V1 = (4,−1, 3, 5) e V2 = (1, 0,−2, 3) vetores de R4. O vetor V = (1, 0,−1, 6) na˜o e´
combinac¸a˜o linear de V1 e V2 porque na˜o podemos encontrar x1, x2 tais que
(1, 0,−1, 6) = x1(4,−1, 3, 5) + x2(1, 0,−2, 3),
ou seja, o sistema 
4x1 + x2 = 1
−x1 = 0
3x1 − 2x2 = −1
5x1 + 3x2 = 6
na˜o possui soluc¸a˜o. Por outro lado, V = (5,−2, 12, 1) e´ combinac¸a˜o linear de V1 e V2 porque V =
2V1 − 3V2, isto e´,
(5,−2, 12, 1) = 2(4,−1, 3, 5)− 3(1, 0,−2, 3).
Exemplo 2. Todo vetor V = (v1, v2, v3) de R3 e´ combinac¸a˜o linear dos vetores i, j, k, pois
V = v1i+ v2j + v3k.
Exemplo 3. 0 e´ sempre combinac¸a˜o linear de quaisquer vetores V1, ..., Vk, pois
0 = 0V1 + ...+ 0Vk.
2. Independeˆncia Linear
Definic¸a˜o. Dizemos que um conjunto S = {V1, ..., Vk} de vetores e´ linearmente independente (L. I.) se
os u´nicos escalares x1, ..., xk que satisfazem
x1V1 + ...+ xkVk = 0
sa˜o
x1 = ... = xk = 0.
Caso contra´rio, dizemos que S e´ linearmente dependente (L. D.).
2
Ou seja, V1, ..., Vk sa˜o linearmente independentes se e somente se a u´nica soluc¸a˜o de x1V1+ ...+xkVk = 0
for a soluc¸a˜o trivial.
Exemplo 4. Os vetores V1 = (1, 2, 3, 4), V2 = (5, 6, 7, 8) e V3 = (6, 8, 10, 12) sa˜o L.D., pois x1V1 + x2V2 +
x3V3 = 0 tem a soluc¸a˜o na˜o trivial x1 = 1, x2 = 1, x3 = −1 (note que V1 + V2 = V3).
Os vetores V1 = (1, 2, 3, 4), V2 = (5, 6, 7, 8), V3 = (6, 8, 10, 12) e V4 = (
√
2, epi, pi2,−109) sa˜o L.D., pois
x1V1+x2V2+x3V3+x4V4 = 0 tem soluc¸a˜o na˜o trivial x1 = 1, x2 = 1, x3 = −1, x4 = 0. Se um conjunto
de vetores ja´ e´ L. D., acrescentar mais vetores ao conjunto na˜o alterara´ a situac¸a˜o, pois podemos
sempre obter uma soluc¸a˜o na˜o trivial para o novo conjunto acrescentando escalares nulos a` soluc¸a˜o na˜o
trivial para o conjunto original.
Observe que na primeira parte do Exemplo 4, outra soluc¸a˜o na˜o trivial seria x1 = 2, x2 = 2, x3 = −2; na
verdade qualquer soluc¸a˜o na forma x1 = α, x2 = α, x3 = −α para algum escalar α serviria. Quando existe
uma soluc¸a˜o na˜o trivial (x1, ..., xk), sempre existem infinitas soluc¸o˜es.
Exemplo 5. Os vetores i, j, k sa˜o linearmente independentes. Mais geralmente, os vetores de Rn E1 =
(1, 0, ..., 0), E2 = (0, 1, 0, ..., 0), ..., En = (0, ..., 0, 1) sa˜o linearmente independentes. De fato, x1E1+ ...+
xnEn = 0 implica (x1, ..., xn) = 0, isto e´, x1 = ... = xn = 0.
Exemplo 6. Um conjunto S = {V1} formado por um u´nico vetor na˜o-nulo e´ sempre L. I., pois neste caso
x1V1 = 0 implica necessariamente que x1 = 0. Por outro lado, qualquer conjunto S que contenha o
vetor nulo e´ L. D., pois x10 + 0V2 + ...+ 0Vk = 0 para qualquer valor de x1.
Exemplo 7. Um conjunto S = {V1, V2} formado por dois vetores e´ L. D. se somente se um e´ mu´ltiplo
escalar do outro.
Prova: De fato, se V1 = αV2, por exemplo, enta˜o
V1 − αV2 = 0,
ou seja, x1 = 1, x2 = −α e´ uma soluc¸a˜o na˜o-trivial para x1V1 + x2V2 = 0.
Reciprocamente, se existir uma soluc¸a˜o na˜o-trivial {x1, x2} para x1V1 + x2V2 = 0, enta˜o pelo menos
ou x1 6= 0 ou x2 6= 0 (e e´ claro que podemos ter ambos os escalares diferentes de zero); no primeiro
caso podemos escrever
V1 = −x2
x1
V2,
enquanto que no segundo caso podemos escrever
V2 = −x1
x2
V1.
Assim, dois vetores na˜o-nulos sa˜o linearmente dependentes, se e somente se eles sa˜o colineares, isto e´,
sa˜o paralelos.
Exemplo 8. Generalizando, um conjunto S = {V1, V2, V3} formado por treˆs vetores e´ L. D. se somente se um
e´ combinac¸a˜o linear dos outros dois. De fato, se x1V1+x2V2+x3V3 = 0 possui uma soluc¸a˜o {x1, x2, x3}
na˜o identicamente nula, enta˜o pelo menos algum destes escalares e´ diferente de zero, digamos x1 6= 0.
Enta˜o podemos escrever
V1 = −x2
x1
V2 − x3
x1
V3.
Logo, treˆs vetores na˜o-nulos sa˜o linearmente dependentes se e somente se eles forem colineares (se todos
os treˆs forem paralelos) ou se eles forem coplanares, isto e´, se eles forem paralelos a um mesmo plano.
3
De modo geral, um conjunto S = {V1, ..., Vk} de vetores e´ L. D. se e somente se um destes vetores pode
ser escrito como combinac¸a˜o linear dos outros, pois se x1V1 + ...+ xkVk = 0 possui uma soluc¸a˜o {x1, ..., xk}
na˜o identicamente nula, enta˜o pelo menos algum destes escalares e´ diferente de zero, digamos xi 6= 0. Enta˜o
podemos escrever
Vi = −x1
xi
V1 − ...− xi−1
xi
Vi−1...− xi+1
xi
Vi+1 − ...− xk
xi
Vk.
Reciprocamente, se Vi = −α1V1 − ...− αi−1Vi−1...− αi+1Vi+1 − ...− αkVk, podemos escrever
α1V1 + ...+ αi−1Vi−1 − 1Vi + αi+1Vi+1 + ...+ αkVk = 0
e {α1, ..., αi−1,−1, αi+1, ..., αk} evidentemente na˜o e´ a soluc¸a˜o trivial. Este resultado explica o nome “vetores
linearmente dependentes”.
Subespac¸os Vetoriais de Rn
Definic¸a˜o. Um subconjunto na˜o vazio W ⊂ Rn e´ um subespac¸o vetorial de Rn se satisfaz as duas
condic¸o˜es seguintes:
(i) Se v, w ∈ W, enta˜o v + w ∈ W tambe´m.
(ii)Se v ∈ W e α e´ um escalar, enta˜o αv ∈ W tambe´m.
Em outras palavras, um subespac¸o vetorial de Rn e´ um conjunto fechado em relac¸a˜o a`s operac¸o˜es de
soma de vetores e multiplicac¸a˜o por escalar, isto e´, fazendo qualquer uma destas operac¸o˜escom elementos do
conjunto na˜o sa´ımos dele. Note que um subespac¸o vetorial sempre conte´m o vetor nulo 0, pois por definic¸a˜o
um subespac¸o e´ na˜o vazio, logo deve conter algum vetor v; mas da´ı, de acordo com (ii), o vetor 0v tambe´m
deve pertencer ao subespac¸o.
Note tambe´m que se um subespac¸o conte´m o vetor v, enta˜o ele conte´m o conjunto {αv : α ∈ R}, que e´
exatamente a reta que passa pela origem com direc¸a˜o v. [Uma reta que na˜o passa pela origem na˜o pode ser
nunca um subespac¸o vetorial de Rn, pois na˜o conte´m o vetor nulo, entre outros motivos.] Mais geralmente, se
v, w ∈ W, enta˜oW conte´m todas as combinac¸o˜es lineares de v e w; ainda mais geralmente, se v1, ..., vk ∈ W,
enta˜o W conte´m todas as combinac¸o˜es lineares de v1, ..., vk.
Exemplo 8. A esfera S2 na˜o e´ um subespac¸o vetorial de R3, pois se v ∈ S2, αv /∈ S2 se α 6= ±1.
Exemplo 9. O subconjunto formado por duas retas que se encontram na origem na˜o e´ um subespac¸o vetorial
de Rn, pois embora a propriedade (ii) seja satisfeita, a propriedade (i) na˜o e´ satisfeita se v esta´ em
uma reta e w na outra.
Exemplo 10. O conjunto W = {(x, y, 0) : x, y ∈ R} e´ um subespac¸o de R3. Com efeito, se v, w ∈ W enta˜o
v e w se escrevem na forma v = (x1, y1, 0), w = (x2, y2, 0). Portanto, v + w = (x1 + x2, y1 + y2, 0)
e αv = (αx1, αy1, 0), que sa˜o vetores de W , por definic¸a˜o de W. Note que W e´ exatamente o plano
z = 0, um plano que conte´m a origem. Na verdade, todas as retas que passam pela origem e todos os
planos que passam pela origem sa˜o exemplos de subespac¸os de R3.
De fato, um plano que passa pela origem e´ definido por
W = {(x, y, z) : ax+ by + cz = 0},
onde a, b, c sa˜o nu´meros reais espec´ıficos. Se v = (x1, y1, z1), w = (x2, y2, z2) ∈ W enta˜o ax1+by1+cz1 =
0 e ax2 + by2 + cz2 = 0, donde
a(x1 + x2) + b(y1 + y2) + c(z1 + z2) = 0
e
a(αx1) + b(αy1) + c(αz1) = 0,
isto e´, v + w ∈ W e αv ∈ W.
4
Exemplo 11. Por outro lado, planos que na˜o passam pela origem na˜o sa˜o subespac¸os vetoriais de Rn. De
fato, tais planos sa˜o definidos por
S = {(x, y, z) : ax+ by + cz + d = 0},
onde a, b, c, d sa˜o nu´meros reais espec´ıficos e d 6= 0. Claramente, se v = (x1, y1, z1), w = (x2, y2, z2) ∈ S
temos que v + w /∈ S, pois ax1 + by1 + cz1 + d = 0 e ax2 + by2 + cz2 + d = 0, donde
a(x1 + x2) + b(y1 + y2) + c(z1 + z2) + 2d = 0,
isto e´, as coordenadas de v + w na˜o satisfazem a equac¸a˜o do plano S, logo este ponto na˜o esta´ neste
plano.
O exemplo anterior pode ser generalizado para Rn da seguinte forma:
Proposic¸a˜o. O conjunto soluc¸a˜o de um sistema linear homogeˆneo AX = 0 em n varia´veis e´ um subespac¸o
vetorial de Rn.
O conjunto soluc¸a˜o de um sistema linear na˜o homogeˆneo AX = B,B 6= 0 na˜o e´ um subespac¸o vetorial
de Rn.
Exemplo 0a. Dentro do espac¸o vetorial das func¸o˜es reais, o subconjunto das func¸o˜es cont´ınuas e´ um sube-
spac¸o vetorial. Dentro do espac¸o vetorial das func¸o˜es cont´ınuas, o subconjunto das func¸o˜es difer-
encia´veis e´ um subespac¸o vetorial. Dentro do espac¸o vetorial das func¸o˜es diferencia´veis, o subconjunto
das func¸o˜es duas vezes diferencia´veis (func¸o˜es que possuem uma derivada segunda em todo ponto) e´
um subespac¸o vetorial. Outro subespac¸o vetorial importante e´ o subespac¸o das func¸o˜es polinomiais,
isto e´, func¸o˜es da forma
f(x) = anxn + an−1xn−1 + ...+ a1x+ a0, para algum n ∈ N.
Dentro deste espac¸o, o conjunto das func¸o˜es polinomiais de grau menor ou igual a n, para cada n
fixado, e´ um subespac¸o vetorial.
3. Vetores Geradores
Definic¸a˜o. Dizemos que um conjunto S = {V1, ..., Vk} de vetores de um subespac¸oW geraW se todo vetor
de W e´ uma combinac¸a˜o linear dos vetores de S.
Quando isso ocorre, dizemos que W e´ o subespac¸o gerado por V1, ..., Vk.
Exemplo 12. O subespac¸o
W = {(a, b, a+ b) : a, b ∈ R}
e´ gerado pelos vetores V1 = (1, 0, 1) e V2 = (0, 1, 1), pois todo vetor de W e´ dado por
(a, b, a+ b) = a(1, 0, 1) + b(0, 1, 1).
Exemplo 13. Sabemos que os vetores i, j, k geram o espac¸o R3. Os vetores V1 = (1, 1, 0), V2 = (0, 1, 1), V3 =
(1, 0, 1) e V4 = (1, 1, 2) tambe´m geram R3. De fato,
x1V1 + x2V2 + x3V3 + x4V4 = (a, b, c)
e´ equivalente ao sistema linear  x1 + x3 + x4 = ax1 + x2 + x4 = b
x2 + x3 + 2x4 = c
5
cuja matriz aumentada e´  1 0 1 1 a1 1 0 1 b
0 1 1 2 c

que por sua vez tem forma escalonada reduzida
1 0 0 0
a+ b− c
2
0 1 0 1
−a+ b+ c
2
0 0 1 1
a− b+ c
2
 ,
ou seja, existe uma soluc¸a˜o (x1, x2, x3, x4). Note que na verdade existem infinitas soluc¸o˜es, diferente
de
x1i+ x2j + x3k = (a, b, c)
que possui uma soluc¸a˜o u´nica. Note que na verdade os vetores V1, V2 e V3 por si so´ ja´ sa˜o suficientes
para gerar R3. Neste caso tambe´m o sistema equivalente possui soluc¸a˜o u´nica. Isso sugere que em R3
tomar mais que treˆs vetores para gerar o espac¸o e´ um desperd´ıcio.
Exemplo 14. Por outro lado, os vetores V1 = (1, 1, 2), V2 = (0, 1, 1) e V3 = (1, 0, 1) na˜o geram R3. De fato
o sistema equivalente a
x1V1 + x2V2 + x3V3 = (a, b, c)
e´  x1 + x3 = ax1 + x2 = b2x1 + x2 + x3 = c
que tem como matriz aumentada  1 0 1 a1 1 0 b
2 1 1 c

cuja forma escalonada reduzida e´
1 0 1 a
0 1 −1 b− a
0 0 0 c− a− b
,
logo o sistema so´ possui soluc¸a˜o se c − a − b 6= 0, o que implica que vetores (a, b, c) de R3 tais que
c− a− b = 0 na˜o podem ser escritos como combinac¸a˜o linear de V1, V2 e V3.
Exemplo 0b. O conjunto infinito S = {1, x, x2, x3, ...} gera o subespac¸o P das func¸o˜es polinomiais. Na˜o e´
poss´ıvel encontrar um subconjunto finito de func¸o˜es polinomiais capaz de gerar todo o subespac¸o das
func¸o˜es polinomiais, pois qualquer combinac¸a˜o linear de func¸o˜es polinomiais de um subconjunto finito
vai ter grau no ma´ximo igual ao maior grau entre todas as func¸o˜es polinomiais neste conjunto, enquanto
que o subespac¸o das func¸o˜es polinomiais sempre possui func¸o˜es polinomiais com grau arbitrariamente
grande. Ja´ o subespac¸o de func¸o˜es polinomiais de grau menor ou igual a n possui um conjunto finito
de geradores, por exemplo {1, x, x2, ..., xn}.
Exemplo 15. (Geradores de um Subespac¸o definido por um Sistema Linear Homogeˆneo) Ja´ vimos que o
conjunto soluc¸a˜o de um sistema linear homogeˆneo AX = 0 e´ um subespac¸o vetorial. Vamos encontrar
um conjunto de geradores para este subespac¸o. Por exemplo, considere o sistema homogeˆneo x1 − 2x2 + 3x3 − 4x4 = 0−3x1 + 6x2 + 9x3 − 6x4 = 0−2x1 + 4x2 − 6x3 + 8x4 = 0
6
representado pela matriz aumentada 1 −2 3 −4 0−3 6 9 −6 0
−2 4 −6 8 0
 .
Ele tem como matriz escalonada reduzida 1 −2 0 −1 00 0 1 −1 0
0 0 0 0 0
 ,
de modo que sua soluc¸a˜o geral e´ da forma
x1
x2
x3
x4
 =

2α+ β
α
β
β
 =

2α
α
0
0
+

β
0
β
β
 = α

2
1
0
0
+ β

1
0
1
1
 ,
logo (2, 1, 0, 0) e (1, 0, 1, 1) sa˜o geradores para este subespac¸o de R4.
4. Bases e Dimensa˜o
Dado um conjunto de geradores S = {V1, ..., Vk} para um subespac¸o vetorial W, alguns deste geradores
podem ser redundantes. De fato, se o conjunto S for linearmente dependente, ja´ vimos que um dos vetores
pode ser escrito como combinac¸a˜o linear dos outros. Este vetor e´ portanto desnecessa´rio para gerar W: os
outros vetores de S ja´ sa˜o suficientes. Podemos enta˜o retirar este vetor do conjunto e o conjunto resultante
S1 ainda sera´ um conjunto de geradores para W. Se o conjunto resultante S1 tambe´m for linearmente
dependente, podemos repetir este processo. Fazendo isso tantas vezes quanto necessa´rio obteremos no final
um conjunto de geradores para W que e´ linearmente independente.
Definic¸a˜o. Dizemos que um subconjunto B = {V1, ..., Vk} e´ uma base para o subespac¸o W se
(i) B gera W, e
(ii) B e´ L.I.
Exemplo 16. Os vetores i, j, k formam uma base para R3. Os vetores E1, ..., En formam uma basepara
Rn.
Exemplo 17. Os vetores (2, 1, 0, 0) e (1, 0, 1, 1), geradores do subespac¸o de R4 considerado no Exemplo 15
sa˜o L. I., logo eles formam uma base para este subespac¸o.
Uma base para um subespac¸o conte´m o nu´mero mı´nimo de vetores necessa´rios para gerar este subespac¸o.
Este nu´mero mı´nimo e´ uma propriedade intr´ınseca do subespac¸o: como provamos a seguir, duas bases para
um subespac¸o sempre conte´m o mesmo nu´mero de elementos.
Teorema 1. Se {V1, ..., Vk} e {W1, ...,Wl} sa˜o duas bases de um subespac¸o W, enta˜o k = l.
Prova: Para provar este resultado, basta provar o seguinte:
Lema. Se {U1, ..., Um} e´ uma base de um subespac¸o W, enta˜o qualquer subconjunto de W com mais de m
vetores e´ linearmente dependente.
7
Prova: Seja {Z1, ..., Zp} um subconjunto de W com p > m. Mostraremos que {Z1, ..., Zp} e´ L. D., isto e´,
que o sistema
x1Z1 + ...+ xpZp = 0 (1)
possui uma soluc¸a˜o na˜o trivial.
Como {U1, ..., Um} e´ uma base para W, cada vetor Zj pode ser escrito como combinac¸a˜o linear dos
vetores U1, ..., Um. Podemos enta˜o escrever, para cada j,
Zj = a1jU1 + ...+ amjUm
para alguns escalares a1j , ..., amj .
Substituindo estas expresso˜es para Zj na equac¸a˜o (1), obtemos
(a11x1 + ...+ a1pxp)U1 + ...+ (am1x1 + ...+ ampxp)Um = 0.
Mas como {U1, ..., Um} e´ uma base para W, os vetores U1, ..., Um sa˜o linearmente independentes, portanto
a11x1 + ...+ a1pxp = 0,
...
...
...
am1x1 + ...+ ampxp = 0.
Ou seja, obtemos um sistema homogeˆneo de m equac¸o˜es a p inco´gnitas. Como o nu´mero de inco´gnitas e´
maior que o nu´mero de equac¸o˜es, o sistema possui soluc¸a˜o na˜o trivial.
Voltando a` demonstrac¸a˜o do Teorema, suponha por contradic¸a˜o que l > k. Enta˜o {W1, ...,Wl} e´ um
conjunto com mais de k vetores, e pelo lema {W1, ...,Wl} e´ L.D., contrariando a hipo´tese de que {W1, ...,Wl}
e´ uma base de W. Analogamente obtemos uma contradic¸a˜o se supormos que k > l.
Definic¸a˜o. A dimensa˜o de um subespac¸o W e´ o nu´mero de vetores de qualquer uma de suas bases,
denotada dimW.
Definimos tambe´m dim{0} = 0. Segue do Exemplo 16 que dimRn = n.
Exemplo 18. Uma reta que passa pela origem tem dimensa˜o 1, pois ela e´ gerada pelo seu vetor direc¸a˜o
e ja´ vimos que um conjunto que conte´m um u´nico vetor na˜o nulo e´ L. I. Um plano que passa pela
origem tem dimensa˜o 2. De fato, se ax+ by + cz = 0 e´ uma equac¸a˜o geral para um tal plano, fazendo
x = t, y = s obtemos z = −1
c
(at+ bs), ou seja, uma equac¸a˜o parame´trica para este plano e´

x = t
y = s
z = −a
c
t− b
c
s
donde (1, 0,−a
c
) e (0, 1,−b
c
) sa˜o vetores geradores para este plano. Como estes vetores sa˜o L. I., eles
formam uma base para este subespac¸o.
Exemplo 0c. Como na˜o podemos encontrar um subconjunto finito de geradores para o subespac¸o vetorial
P das func¸o˜es polinomiais, decorre que sua dimensa˜o e´ infinita. Para sermos mais precisos, o conjunto
infinito S = {1, x, x2, x3, ...}, ale´m de gerar P, e´ tambe´m L. I., logo e´ uma base para P. Da´ı conclu´ımos
que dimP = ℵ0. E´ poss´ıvel provar que para o espac¸o vetorial F das func¸o˜es reais (ou mesmo o das
func¸o˜es cont´ınuas, ou o das func¸o˜es diferencia´veis) temos dim F > ℵ0.
Teorema 2. Seja W um subespac¸o de dimensa˜o m. Se {V1, ..., Vm} e´ L.I., enta˜o {V1, ..., Vm} e´ uma base
para W.
8
Prova: Basta provar que {V1, ..., Vm} gera W. Dado V ∈ W, precisamos provar que V e´ uma combinac¸a˜o
linear de V1, ..., Vm. E, de fato, como dimW = m, o conjunto {V1, ..., Vm, V } e´ L.D., pelo lema anterior.
Logo
x1V1 + ...+ xmVm + xm+1V = 0
possui uma soluc¸a˜o na˜o trivial (x1, ..., xm, xm+1). Por outro lado, na˜o podemos ter xm+1 = 0, pois isso
implicaria que (x1, ..., xm) e´ uma soluc¸a˜o na˜o trivial para x1V1+ ...+ xmVm = 0, contrariando o fato de que
estes vetores sa˜o L. I. Conclu´ımos, pois, que xm+1 6= 0 e portanto podemos dividir por xm+1, obtendo
V = − x1
xm+1
V1 − ...− xm
xm+1
Vm,
como quer´ıamos.
Exemplo 19. Os vetores (1, 0, 1), (2, 1, 3) e (0, 1,−2) sa˜o L. I., porque
det
 1 0 12 1 3
0 1 −2
 = −3 6= 0,
logo eles formam uma base para R3.
Produto Escalar em Rn
Definic¸a˜o. O produto escalar de dois vetores V = (v1, ..., vn),W = (w1, ..., wn) de Rn e´ definido por
V ·W = v1w1 + ...+ vnwn.
A norma de um vetor V = (v1, ..., vn) de Rn e´ definida por
‖V ‖ =
√
V · V =
√
v21 + ...+ v2n.
Assim, dizemos que V e´ um vetor unita´rio de Rn se ‖V ‖ = 1.
Proposic¸a˜o. (Propriedades do Produto Escalar) Se U, V,W sa˜o vetores de Rn, e α e´ um escalar, enta˜o
1. V ·W = W · V
2. U · (V +W ) = U · V + U ·W
3. α(V ·W ) = (αV ) ·W = V · (αW )
4. V · V = ‖V ‖2 ≥ 0 e ‖V ‖ = 0 se e somente se V = 0.
5. Desigualdade de Cauchy-Shwartz:
|V ·W | ≤ ‖V ‖ ‖W‖
6. Desigualdade Triangular:
‖V +W‖ ≤ ‖V ‖+ ‖W‖
Prova: Para provar (4), note que ‖xV +W‖2 ≥ 0 para qualquer nu´mero real x. Como
‖xV +W‖2 = (xV +W ) · (xV +W ) = x2 ‖V ‖2 + 2(V ·W )x+ ‖W‖2 ,
segue que temos um polinoˆmio do segundo grau em x que satisfaz
‖V ‖2 x2 + 2(V ·W )x+ ‖W‖2 ≥ 0,
9
isto e´, a para´bola com concavidade para cima que ele representa (pois o coeficiente de x2 e´ ‖V ‖2 ≥ 0) nunca
assume valores negativos, logo seu discriminante na˜o pode ser positivo (se fosse, ter´ıamos duas ra´ızes reais
distintas e portanto o ve´rtice da para´bola teria valor negativo):
4|V ·W |2 − 4 ‖V ‖2 ‖W‖2 ≤ 0
donde segue o resultado desejado.
Para provar (5), use (4) e escreva
‖V +W‖2 = (V +W ) · (V +W ) = ‖V ‖2 + 2(V ·W ) + ‖W‖2
≤ ‖V ‖2 + 2|V ·W |+ ‖W‖2
≤ ‖V ‖2 + 2 ‖V ‖ ‖W‖+ ‖W‖2
= (‖V ‖+ ‖W‖)2 .
Tomando a raiz quadrada de ambos os lados, segue o resultado.
Definic¸a˜o. O aˆngulo entre dois vetores na˜o nulos V,W de Rn e´ definido como o valor de θ entre 0 e 180◦
tal que
cos θ =
V ·W
‖V ‖ ‖W‖ .
Observac¸a˜o: Esta definic¸a˜o faz sentido porque pela desigualdade de Cauchy-Schwartz temos que
−1 ≤ V ·W‖V ‖ ‖W‖ ≤ 1.
5. Bases Ortonormais
O pro´ximo resultado prova o fato intuitivamente sugerido que vetores mutuamente ortogonais em Rn definem
direc¸o˜es independentes em Rn.
Proposic¸a˜o. Sejam V1, ..., Vk vetores na˜o nulos de Rn ortogonais dois a dois, isto e´, Vi · Vj = 0 para i 6= j.
Enta˜o V1, ..., Vk sa˜o L. I.
Prova: Temos que provar que se
x1V1 + ...+ xkVk = 0,
enta˜o x1 = ... = xk = 0. Fazendo o produto escalar de ambos os lados desta equac¸a˜o com Vi, para cada i,
obtemos (usando o fato de que Vi · Vj = 0 se i 6= j)
xi ‖Vi‖2 = 0.
Como por hipo´tese os vetores sa˜o na˜o nulos, isso necessariamente implica xi = 0.
Definic¸a˜o. Dado um subespac¸o vetorial W de Rn, dizemos que {V1, ..., Vk} e´ uma base ortogonal para
W se este conjunto de vetores for uma base para W e eles forem ortogonais dois a dois. Se ale´m disso
eles forem unita´rios, dizemos que {V1, ..., Vk} e´ uma base ortonormal para W.
Exemplo 21. {i, j, k} e´ uma base ortonormal para R3. Mais geralmente, os vetores E1, ..., En definidos
anteriormente, formam uma base ortonormal para Rn.
Podemos encontrar uma base ortonormal para qualquer subespac¸o vetorial de Rn atrave´s de um algoritmo
chamado processo de ortogonalizac¸a˜o de Gram-Schmidt. Ele e´ baseado no seguinte resultado:
10
Lema. Seja W um vetor na˜o nulo de Rn. Enta˜o, para qualquer vetor V de Rn, o vetor
V − projW V
e´ ortogonal a W .
Em geral, sejam W1, ...,Wk vetores na˜o nulos de Rn, ortogonais dois a dois. Enta˜o, para qualquer
vetor V de Rn, o vetor
V − projW1 V − ...− projWk V
e´ ortogonal a cada um dos vetores Wi.
Prova: Temos
(V − projW V ) ·W =
(
V − V ·W‖W‖2W
)
·W = V ·W − V ·W‖W‖2W ·W = 0.
Analogamente, temos
(V − projW1 V − ...− projWk V ) ·W =
(
V − V ·W1‖W1‖2
W1 − ...− V ·Wn‖Wn‖2
Wn
)
·Wi
= V ·Wi − V ·Wi‖Wi‖2
Wi ·Wi = 0.
Processo de Ortogonalizac¸a˜o de Gram-Schmidt. Se {V1, ..., Vk} e´ uma base qualquer de um subespac¸o
W de Rn, podemos a partirdesta base construir uma base para W que tambe´m e´ ortonormal. Primeiro
constru´ımos uma base ortogonal usando o lema anterior, tomando
W1 = V1
W2 = V2 − projW1 V2
W3 = V3 − projW1 V3 − projW2 V3
...
Wk = Vk − projW1 Vk − ...− projWk−1 Vk.
De fato, usando o lema, vemos que W2 e´ ortogonal a W1; ale´m disso, W2 e´ tambe´m na˜o nulo (W1 claramente
e´ na˜o nulo, pois W1 = V1) porque se tive´ssemos V2 = projW1 V2, enta˜o em particular V2 seria um mu´ltiplo
escalar de W1 = V1, violando a hipo´tese de que {V1, V2} sa˜o L. I. Note que W2 e´ uma combinac¸a˜o linear de
V1, V2.
Em seguida, vemos que segue do lema queW3 e´ ortogonal aW1,W2. Igualmente na˜o podemos terW3 = 0,
pois V3 = projW1 V3 + projW2 V3 implicaria que V3 e´ uma combinac¸a˜o linear de V1, V2 (pois projW1 V3 e´ um
mu´ltiplo escalar de W1 = V1 e projW2 V3 e´ um mu´ltiplo escalar de W2 que, como vimos acima, e´ uma
combinac¸a˜o linear de V1, V2. Mas, por hipo´tese, {V1, V2, V3} sa˜o L. I. Note que W3 e´ uma combinac¸a˜o linear
de V1, V2, V3.
E assim por diante, ate´ o vetor Wk, que pelo lema e´ ortogonal a W1, ...,Wk e e´ na˜o nulo porque Vk =
projW1 Vk + ... + projWk−1 Vk implicaria que Vk e´ uma combinac¸a˜o linear de V1, ..., Vk−1, contradizendo a
hipo´tese de que {V1, ..., Vk} e´ L. I.
A partir da base ortogonal {W1, ...,Wk} e´ fa´cil obter uma base ortonormal {U1, ..., Uk}. Basta tomar
U1 =
W1
‖W1‖ , .., Uk =
Wk
‖Wk‖
11
Exemplo 21. Aplique o processo de ortogonalizac¸a˜o de Gram-Schmidt a` base {(1, 1, 0), (1, 0, 1), (0, 1, 1)}
de R3 para encontrar uma base ortonormal para R3 cujo primeiro vetor seja um mu´ltiplo escalar de
(1, 1, 0).
Resposta: Fac¸a
W1 = (1, 1, 0).
Em seguida, fac¸a
W2 = V2 − projW1 V2 = (1, 0, 1)−
(1, 0, 1) · (1, 1, 0)
‖(1, 1, 0)‖2 (1, 1, 0) = (1, 0, 1)− (
1
2
,
1
2
, 0) = (
1
2
,−1
2
, 1),
e
W3 = V3 − projW1 V3 − projW2 V3 = (0, 1, 1)−
(0, 1, 1) · (1, 1, 0)
‖(1, 1, 0)‖2 (1, 1, 0)−
(0, 1, 1) · ( 12 ,− 12 , 1)∥∥( 12 ,− 12 , 1)∥∥2 (
1
2
,−1
2
, 1)
= (0, 1, 1)− (1
2
,
1
2
, 0)− (1
6
,−1
6
,
1
3
) =
(
−2
3
,
2
3
,
2
3
)
.
Da´ı, como ‖W1‖ =
√
2, ‖W2‖ =
√
3
2 , ‖W3‖ = 2√3 , segue que
U1 =
(√
2
2
,
√
2
2
, 0
)
, U2 =
(√
6
6
,−
√
6
6
,
√
6
6
)
, U3 =
(
−
√
3
3
,
√
3
3
,
√
3
3
)
.
12

Continue navegando