Baixe o app para aproveitar ainda mais
Prévia do material em texto
Jorge Buescu | 1 Resolução de Sistemas de Equações Lineares (SEL): método de eliminação de Gauss-Jordan Eu tenho o dobro da idade que tinha quando o meu pai tinha a idade que eu tenho. Além disso, a soma das nossas idades é 100. Quais são as nossas idades? Duas variáveis: x = minha idade, y = idade do meu pai. Sistema de equações lineares: { 3𝑥 = 2𝑦 𝑥 + 𝑦 = 100 (TPC: verificar!) Forma canónica do sistema: { 3𝑥 − 2𝑦 = 0 𝑥 + 𝑦 = 100 Variáveis = termos independentes Jorge Buescu | 2 Sistema de equações lineares 5 × 5 na forma canónica: { 𝑥1 + 2𝑥2 + 5𝑥3 + √2𝑥4 + 𝜋𝑥5 2𝑥1 − 𝑥2 + 3𝑥3 + 7𝑥4 + 13𝑥5 𝜋2𝑥1 + 5𝑥2 − 2𝑥3 + 𝑥4 + 2𝑥5 3𝑥1 + 3𝑥2 +𝑥3 + 6𝑥4 − 3𝑥5 −𝑥1 − 𝑥2 + 3𝑥3 + 7𝑥4 + 13𝑥5 = = = = = 33 √3 4 −1 0 𝑒 Matriz do sistema: quadro dos coeficientes que afectam as variáveis 𝐴5×5 = [ 1 2 5 √2 𝜋 2 −1 3 7 13 𝜋2 3 −1 5 3 −1 −2 1 2 1 6 −3 3 7 13] 5 linhas, tantas quantas as equações; 5 colunas, tantas quantas as variáveis. Vector (coluna) dos termos independentes: 𝒃5×1 = [ 33 √3 4 −1 0 𝑒 ] Obs: um vector pode ser considerado uma matriz com uma só coluna; neste caso é uma matriz com 5 linhas e uma coluna. Designa-se por vezes como matriz-coluna. Jorge Buescu | 3 Matriz aumentada (ou ampliada) do sistema A matriz aumentada de um sistema de equações lineares é a que se obtém juntando à matriz do sistema A coluna dos termos independentes, que se costuma separar com um traço vertical: 𝐴𝑎𝑢𝑚 = [𝐴 | 𝒃] No caso anterior, 𝐴𝑎𝑢𝑚 = [ 1 2 5 √2 𝜋 | 33 2 −1 3 7 13 | √3 4 𝜋2 3 −1 5 3 −1 −2 1 2 | −1 1 6 −3 | 0 3 7 13 | 𝑒 ] Note-se que a matriz aumentada possui mais uma coluna do que a matriz do sistema. Neste caso, 𝐴𝑎𝑢𝑚 é, pois, uma matriz 5 × 6 (5 linhas, 6 colunas). RESOLVER UM SISTEMA DE EQUAÇÕES LINEARES REDUZ-SE A REALIZAR CERTAS OPERAÇÕES (MÉTODO DE ELIMINAÇÃO DE GAUSS-JORDAN) SOBRE A MATRIZ AUMENTADA DO SISTEMA. Jorge Buescu 1 Resolução de sistemas de equações lineares m X n pelo Método de Eliminação de Gauss-Jordan com troca de linhas (abreviadamente MEG) Jorge Buescu 2 Eliminação de Gauss = operações elementares sobre linhas Operações elementares do MEG: 1. Somar a uma linha um múltiplo de outra; 2. Multiplicar uma linha por uma constante ≠ 0; 3. Trocar duas linhas. Jorge Buescu 3 Matrizes escalonadas, pivots Uma matriz BmXp diz-se escalonada, ou em escada de linhas, se a primeira entrada diferente de zero em cada linha ocorre estritamente à esquerda do primeiro elemento diferente de zero na linha por baixo dela. O primeiro elemento diferente de zero, vindo da esquerda, de cada linha não-nula de uma matriz escalonada diz-se um pivot. Exemplo: 𝐵 = [ 0 ∎ ∗ 0 0 ∎ ∗ ∗ ∗ ∗ ∗ ∗ 0 0 0 0 0 0 0 ∎ ∗ 0 0 0 ] A matriz B está escalonada. ∎ é um número ≠ 0, e portanto um pivot de B. * representa números quaisquer. Jorge Buescu 4 Discussão e resolução de SEL a partir da forma escalonada da matriz aumentada Após escalonamento por aplicação do MEG, 𝐴𝑎𝑢𝑚 ´ = [ 0 ∎ ∗ 0 0 ∎ ∗ ∗ ∗ | 𝑏1 ′ ∗ ∗ ∗ | 𝑏2 ′ 0 ⋮ 0 ⋮ 0 ⋮ 0 0 0 0 ⋮ ∎ ⋮ ∗ | 𝑏3 ′ ⋮ | ⋮ 0 0 0 | 𝑏𝑚 ′ ] A discussão da natureza do sistema faz-se nesta fase: Observação. Na resolução de um sistema indeterminado deve sempre tomar-se para independentes as variáveis sem pivot! Aula 4 – Jorge Buescu 1 Matrizes Uma matriz 𝒎× 𝒏 é um quadro rectangular de números (de ℝ 𝑜𝑢 ℂ), dispostos em m linhas e n colunas. 𝐴𝑚×𝑛 = [𝑎𝑖𝑗]𝑖=1,⋯,𝑚 𝑗=1,⋯,𝑛 = [ 𝑎11 𝑎12 𝑎21 𝑎22 ⋯ … 𝑎1𝑛 𝑎2𝑛 ⋮ ⋱ ⋮ 𝑎𝑚1 … ⋯ 𝑎𝑚𝑛 ] O primeiro índice identifica a linha (é constante ao longo de uma linha) O segundo índice identifica a coluna (é constante ao longo de uma coluna) Por exemplo, eis uma matriz 3 X 5: 𝐴 = [ 1 4 𝑒 27 −1 0 √2 3 𝜋 52 −1 2 √5 3 3 12 ] 𝑎15 = entrada na linha 1, coluna 5 = -1 𝑎23 = entrada na linha 2, coluna 3 = 3 𝑎32 = entrada na linha 3, coluna 2 = 2 Igualdade de matrizes: duas matrizes A e B são iguais sse (1) tiverem as mesmas ordens, (2) entradas correspondentes forem iguais (𝑎𝑖𝑗 = 𝑏𝑖𝑗 para todo o i e j). Aula 4 – Jorge Buescu 2 Alguns tipos especiais de matrizes 1. Matriz-linha: 𝐿 = [𝑎11 𝑎12 ⋯ 𝑎1𝑛]1×𝑛, matriz com 1 linha e n colunas (pode ser identificado com um vector, pelo que se chama por vezes vector-linha) 2. Matriz-coluna: 𝐶 = [ 𝑎11 𝑎21 ⋮ 𝑎𝑛1 ] 𝑛×1 matriz com n linhas e 1 coluna (pode ser identificado com um vector, pelo que se chama por vezes vector-coluna) 3. Matriz quadrada: n=m, isto é, tantas linhas como colunas 𝐴𝑛×𝑛 = [ 𝑎11 𝑎12 𝑎21 𝑎22 ⋯ … 𝑎1𝑛 𝑎2𝑛 ⋮ ⋱ ⋮ 𝑎𝑛1 … ⋯ 𝑎𝑛𝑛 ] Aula 4 – Jorge Buescu 3 Uma matriz quadrada 𝐴𝑛×𝑛 diz-se: 1. Matriz diagonal se 𝑖 ≠ 𝑗 ⇒ 𝑎𝑖𝑗 = 0: 𝐴𝑛×𝑛 = [ 𝑎11 0 0 𝑎22 ⋯ … 0 0 ⋮ ⋱ ⋮ 0 … 0 𝑎𝑛𝑛 ] (todos os elementos fora da diagonal principal são nulos); Exemplo: matriz identidade de ordem n: 𝐼𝑛 = [ 1 0 0 1 ⋯ … 0 0 ⋮ ⋱ ⋮ 0 … 0 1 ] 2. Triangular superior se 𝑖 > 𝑗 ⇒ 𝑎𝑖𝑗 = 0: 𝐴𝑛×𝑛 = [ 𝑎11 𝑎12 0 𝑎22 ⋯ … 𝑎1𝑛 𝑎2𝑛 ⋮ ⋱ ⋮ 0 0 0 𝑎𝑛𝑛 ] (todas as entradas abaixo da diagonal principal são nulas); 3. Triangular inferior se 𝑖 < 𝑗 ⇒ 𝑎𝑖𝑗 = 0: 𝐴𝑛×𝑛 = [ 𝑎11 0 𝑎21 𝑎22 ⋯ … 0 0 ⋮ ⋱ 0 𝑎𝑛1 … ⋯ 𝑎𝑛𝑛 ] (todas as entradas acima da diagonal principal são nulas). Obs.: Uma matriz diagonal é simultaneamente triangular inferior e superior (exº: a identidade!). Aula 4 – Jorge Buescu 4 Eliminação de Gauss = Aritmética sobre Matrizes A ordem de uma matriz 𝐴𝑚×𝑛 é o seu número de linhas e colunas. Soma de matrizes: Dadas duas matrizes 𝐴𝑚×𝑛 e 𝐵𝑚×𝑛 com as mesmas ordens, a matriz soma é a matriz 𝐶𝑚×𝑛 que se obtém somando entradas correspondentes: (𝐶)𝑖𝑗 = 𝑐𝑖𝑗 = (𝐴 + 𝐵)𝑖𝑗 = (𝐴)𝑖𝑗 + (𝐵)𝑖𝑗 = 𝑎𝑖𝑗 + 𝑏𝑖𝑗 Multiplicação de uma matriz por um escalar: Dado um número 𝜆 ∈ ℝ (𝑟𝑒𝑠𝑝. ℂ), a que chamaremos escalar, e uma matriz 𝐴𝑚×𝑛 de entradas em ℝ (𝑟𝑒𝑠𝑝. ℂ), define-se o produto (𝜆𝐴)𝑚×𝑛 = [𝜆𝑎𝑖𝑗]𝑖=1,⋯,𝑚 𝑗=1,⋯,𝑛 É simples verificar que estas operações entre matrizes têm propriedades aritméticas análogas às dos números reais ou complexos: a soma de matrizes é comutativa, associativa, possui elemento neutro (matriz nula) e admite simétrico, e verificam-se as distributividades entre operações. ℳ𝑚×𝑛(ℝ) = {matrizes 𝑚 × 𝑛 de entradas em ℝ}; ℳ𝑚×𝑛(ℂ) = {matrizes 𝑚 × 𝑛 de entradas em ℂ}. A soma e a multiplicação escalar estão bem definidas em ℳ𝑚×𝑛(ℝ) e ℳ𝑚×𝑛(ℂ). Aula 4 – Jorge Buescu 5 Produto de Matrizes Dadas duas matrizes 𝐴𝑚×𝑛 e 𝐵𝑛×𝑝, o seu produto 𝐶 = 𝐴. 𝐵 é uma matriz C de ordem 𝑚 × 𝑝 cujo elemento na linha i, coluna j é (𝐶)𝑖𝑗 = 𝑐𝑖𝑗 = (𝐴. 𝐵)𝑖𝑗 = ∑ 𝑎𝑖𝑘 𝑏𝑘𝑗 𝑛 𝑘=1 As matrizes precisamde “encaixar”: o número de linhas da matriz à direita tem de ser igual ao número de colunas da matriz à esquerda O elemento 𝑐𝑖𝑗 da matriz produto é o “produto interno” da linha i, encarada como vector-linha, pela coluna j, encarada como vector-coluna: Aula 4 – Jorge Buescu 6 Propriedades básicas do produto de matrizes É associativo: (A.B).C = A.(B.C) [(𝐴𝐵)𝐶]𝑖𝑗 =∑(𝐴𝐵)𝑖𝑘𝑐𝑘𝑗 = 𝑛 𝑘=1 ∑(∑𝑎𝑖𝑙 𝑚 𝑙=1 𝑏𝑙𝑘) ⏟ 𝑐𝑘𝑗 = 𝑛 𝑘=1 ∑𝑎𝑖𝑙 (∑𝑏𝑙𝑘𝑐𝑘𝑗 𝑛 𝑘=1 ) = [𝐴(𝐵𝐶)]𝑖𝑗 𝑚 𝑙=1 (𝐴𝐵)𝑖𝑘 É distributivo em relação às operações soma de matrizes e produto de uma matriz por um escalar: 𝐴(𝐵 + 𝐶) = 𝐴𝐵 + 𝐴𝐶 (𝐴 + 𝐵)𝐶 = 𝐴𝐶 + 𝐵𝐶 𝜆. (𝐴. 𝐵) = (𝜆. 𝐴). 𝐵 = 𝐴. (𝜆. 𝐵) para todas as matrizes A, B, C e todo o escalar 𝜆 Se 𝐼𝑝 é a matriz identidade de ordem 𝑝, dada uma matriz 𝐴𝑚×𝑛 𝐴𝑚×𝑛 𝐼𝑛 = 𝐼𝑚 𝐴𝑚×𝑛 = 𝐴. Aula 4 – Jorge Buescu 7 MAS O PRODUTO DE MATRIZES NÃO É COMUTATIVO: 𝐴𝐵 ≠ 𝐵𝐴! (em geral) Exemplo 1: dadas matrizes 𝐴2×3 e 𝐵3×3, 𝐴2×3 𝐵3×3 é uma matriz 2 × 3; 𝐵3×3𝐴2×3 não existe. Trivialmente, não se pode ter 𝐴𝐵 = 𝐵𝐴. Exemplo 2: dadas matrizes 𝐴2×3 e 𝐵3×2, 𝐴2×3 𝐵3×2 é uma matriz 2 × 2, 𝐵3×2𝐴2×3 é uma matriz 3 × 3, pelo que [𝐴𝐵]2×2 ≠ [𝐵𝐴]3×3 Exemplo 3. Se 𝐴 = [ 1 2 3 4 ] , 𝐵 = [ 1 −1 1 1 ], tem-se 𝐴𝐵 = [ 3 1 7 1 ] , 𝐵𝐴 = [ −2 −2 4 6 ] ambos os produtos estão definidos e têm a mesma ordem mas 𝐴𝐵 ≠ 𝐵𝐴. Aula 4 – Jorge Buescu 8 A não-comutatividade do produto faz com que a álgebra de matrizes seja muito diferente da dos números reais! Por exemplo , a “lei do corte” 𝑎𝑏 = 0 ⇒ 𝑎 = 0 𝑜𝑢 𝑏 = 0, válida para números reais, é falsa para matrizes: Se 𝐴 = [ 0 1 0 0 ] , 𝐵 = [ 1 1 0 0 ], tem-se 𝐴𝐵 = [ 0 0 0 0 ] mas nem A nem B são a matriz nula! Na verdade, é fácil ver que 𝐴𝐴 = 𝐴2 = [ 0 0 0 0 ] sem que A seja nulo, o que é impossível em ℝ ou ℂ. (objectos com esta propriedade chamam-se, em álgebra abstracta, “divisores de zero”) Aula 5 - Jorge Buescu 1 SISTEMAS HOMOGÉNEO, NÃO-HOMOGÉNEO, SOLUÇÃO TRIVIAL Aula 5 - Jorge Buescu 2 Característica de uma matriz Definição (característica de uma matriz) Característica de uma matriz 𝐴 (designada por car(𝐴) ou rank(𝐴)) é o número de pivots da matriz escalonada que se obtém de 𝐴 por EG. Obs.: dado um sistema de equações lineares 𝐴𝒙 = 𝒃, car(𝐴) é igual a: Nº de variáveis determinadas (i.e. não livres) do sistema; Nº de linhas não-nulas no final de EG; Nº de equações “independentes” do sistema. Aula 5 - Jorge Buescu 3 NÚCLEO DE UMA MATRIZ Aula 5 - Jorge Buescu 4 Matrizes singulares e não-singulares Aula 6- Jorge Buescu 1 Operações e matrizes elementares O MEG-J com troca de linhas consiste em efectuar sobre uma matriz 𝐴𝑚×𝑛 operações elementares de três tipos: Aula 6- Jorge Buescu 2 Matrizes elementares Cada operação elementar se obtém pela multiplicação à esquerda da matriz A por uma matriz elementar! 1. Para multiplicar a linha 𝑖 por 𝛼 ≠ 0: 𝐸𝑖(𝛼) é a matriz que se obtém da Identidade substituindo o 1 na entrada (𝑖, 𝑖) por 𝛼. Multiplicar à esquerda por 𝐸𝑖(𝛼)𝐴 tem o efeito de multiplicar a linha 𝑖 de 𝐴 por 𝛼! Exemplo: [ 1 0 0 0 −2 0 0 0 1 ] ⏟ [ 3 1 5 1 2 3 0 −1 4 ] = [ 3 1 5 −2 −4 −6 0 −1 4 ] 𝐸2(−2) Aula 6- Jorge Buescu 3 2. Para multiplicar a linha 𝑖 por 𝛼 e somá-la à linha 𝑗 (𝑖 ≠ 𝑗): 𝐸𝑖 𝑗 (𝛼) é a matriz que se obtém de 𝐼𝑚×𝑚 substituindo o 0 na entrada (𝑗, 𝑖) por 𝛼. Multiplicar à esquerda por 𝐸𝑖 𝑗 (𝛼) tem o efeito de substituir 𝐿𝑗 por 𝐿𝑗 + 𝛼𝐿𝑖! Exemplo: [ 1 0 0 0 1 0 2 0 1 ] ⏟ [ 3 1 −1 1 2 3 0 −1 3 ] = [ 3 1 −1 1 2 3 6 1 1 ] 𝐸1 3(2) Elemento (3,1)= 2: a linha 3 é somada com 2 X a linha 1 Aula 6- Jorge Buescu 4 3. Para trocar (Permutar) as linhas 𝑖 e 𝑗 (𝑖 ≠ 𝑗): 𝑃𝑖𝑗 é a matriz que se obtém de 𝐼𝑚×𝑚 fazendo as substituições 𝑎𝑖𝑖 = 𝑎𝑗𝑗 = 0 e 𝑎𝑖𝑗 = 𝑎𝑗𝑖 = 1. Multiplicar à esquerda por 𝑃𝑖𝑗 tem o efeito de trocar as linhas 𝑖 e 𝑗! Exemplo: [ 1 0 0 0 0 1 0 1 0 ] ⏟ [ 3 1 −1 1 2 4 0 −1 3 ] = [ 3 1 −1 0 −1 3 1 2 4 ] 𝑃23: troca as linhas 2 e 3 Aula 6- Jorge Buescu 5 Matrizes elementares são invertíveis! 1. 𝐸𝑖(𝛼) −1 = 𝐸𝑖(𝛼 −1) Exemplo: [ 1 0 0 0 3 0 0 0 1 ] ⏟ [ 1 0 0 0 1/3 0 0 0 1 ] ⏟ = [ 1 0 0 0 1/3 0 0 0 1 ] [ 1 0 0 0 3 0 0 0 1 ] = [ 1 0 0 0 1 0 0 0 1 ] 𝐸2(3) 𝐸2(1/3) 2. 𝐸𝑖 𝑗 (𝛼)−1 = 𝐸𝑖 𝑗 (−𝛼) Exemplo: [ 1 0 0 0 1 0 2 0 1 ] ⏟ [ 1 0 0 0 1 0 −2 0 1 ] ⏟ = [ 1 0 0 0 1 0 −2 0 1 ] [ 1 0 0 0 1 0 2 0 1 ] = [ 1 0 0 0 1 0 0 0 1 ] 𝐸1 3(2) 𝐸1 3(−2) 3. 𝑃𝑖𝑗 −1 = 𝑃𝑖𝑗 𝑃𝑖𝑗 é a sua própria inversa (porquê, em termos de operações?) Exemplo 3 × 3: [ 1 0 0 0 0 1 0 1 0 ] ⏟ [ 1 0 0 0 0 1 0 1 0 ] ⏟ = [ 1 0 0 0 1 0 0 0 1 ] 𝑃23 𝑃23 Aula 7 – Jorge Buescu 1 ALGORITMO DE INVERSÃO DE MATRIZES Dada uma matriz QUADRADA 𝐴𝑛×𝑛, começa por escrever- se lado a lado 𝐴 e 𝐼𝑛, resultando numa matriz super- aumentada 𝑛 × 2𝑛: Obs 1: O próprio algoritmo revela se a matriz 𝐴 é ou não invertível. Obs. 2: Este algoritmo conclui a demonstração do Teorema 3: 𝐴 invertível ⇔ 𝐴 é não-singular Aula 7 – Jorge Buescu 2 Matriz transposta Definição (matriz transposta). Seja 𝐴𝑚×𝑛 = [𝑎𝑖𝑗]𝑖=1,…,𝑚 𝑗=1,…,𝑛 uma matriz 𝑚 × 𝑛. A matriz transposta de 𝐴, designada por 𝐴𝑇 , é a matriz 𝑛 × 𝑚 resultante de trocar linhas com colunas em 𝐴: [𝐴𝑇]𝑖𝑗 = [𝐴]𝑗𝑖 = 𝑎𝑗𝑖. Exemplo: [ 1 3 5 6 4 2 ] 𝑇 = [ 1 6 3 4 5 2 ]. Obs. Se A é quadrada e verifica 𝐴 = 𝐴𝑇, diz-se simétrica (pois as suas entradas são simétricas em relação à diagonal principal, uma vez que 𝑎𝑖𝑗 = 𝑎𝑗𝑖 ). Exemplo: a matriz 𝐴 = [ 1 −1 𝜋 −1 2 0 𝜋 0 3 ] é simétrica, pois 𝑎𝑖𝑗 = 𝑎𝑗𝑖, ou equivalentemente 𝐴 = 𝐴 𝑇 . Aula 7 – Jorge Buescu 3 Teorema: propriedades da transposição Sempre que as ordens de A e B o permitam, tem-se a) (𝐴𝑇)𝑇 = 𝐴. b) (𝐴 + 𝐵)𝑇 = 𝐴𝑇 + 𝐵𝑇. c) (𝜆𝐴)𝑇 = 𝜆𝐴𝑇 . d) (𝐴𝐵)𝑇 = 𝐵𝑇𝐴𝑇 Dem: (a), (b), (c) são triviais; (d) faz-se na aula T. Aula 8: espaços vectoriais Aula 8 – Jorge Buescu 1 CAP 2. Espaços vectoriais abstractos Ingredientes necessários para definir um espaço vectorial: 1. Soma de vectores pela regra do paralelogramo 2. Multiplicação por um escalar 𝜆 (∈ ℝ 𝑜𝑢 ℂ) Exemplos bem conhecidos: ℝ2 = {(𝑥1, 𝑥2): 𝑥1, 𝑥2 ∈ ℝ}, com a soma e o produto por escalar usuais (componente a componente): [ 𝑥1 𝑥2 ] + [ 𝑦 1 𝑦 2 ] ⏟= [ 𝑥1 + 𝑦1 𝑥2 + 𝑦2 ], 𝜆. [ 𝑥1 𝑥2 ] ⏟ = [ 𝜆𝑥1 𝜆𝑥2 ] Soma de vectores produto de um vector por um escalar ℝ3 = {(𝑥1, 𝑥2, 𝑥3): 𝑥1, 𝑥2,𝑥3 ∈ ℝ}, operações usuais: [ 𝑥1 𝑥2 𝑥3 ] + [ 𝑦 1 𝑦 2 𝑦 3 ] ⏟ = [ 𝑥1 + 𝑦1 𝑥2 + 𝑦2 𝑥3 + 𝑦3 ], 𝜆. [ 𝑥1 𝑥2 𝑥3 ] ⏟ = [ 𝜆𝑥1 𝜆𝑥2 𝜆𝑥3 ] Em ℝ2ou ℝ3, vectores podem ser concebidos como “setinhas” (ver fig. acima) Queremos generalizar o conceito de Espaço Vectorial a conjuntos e operações abstractas! Aula 8: espaços vectoriais Aula 8 – Jorge Buescu 2 Espaço vectorial (ou linear): Definição Suponhamos dados os seguintes ingredientes: 1. 𝑉 ≠ ∅: conjunto de objectos (vectores) 2. Operação soma definida entre objectos de 𝑉: 𝒖 + 𝒗 3. Multiplicação escalar entre um escalar 𝜆 e 𝒗 ∈ 𝑉 : 𝜆 . 𝒗, onde 4. Os escalares estão num corpo 𝕂 (geralmente ℝ 𝑜𝑢 ℂ). Definição 2.1. (𝑉, +, . , 𝕂) diz-se um espaço vectorial sobre 𝕂 se: 1. [Fecho para a soma] Se 𝒖, 𝒗 ∈ 𝑉, então 𝒖 + 𝒗 ∈ 𝑉. 2. [Comutatividade da soma] 𝒖 + 𝒗 = 𝒗 + 𝒖 ∀𝒖, 𝒗 ∈ 𝑉. 3. [Associatividade da soma] (𝒖 + 𝒗) + 𝒘 = 𝒖 + (𝒗 + 𝒘) ∀𝒖, 𝒗,𝒘 ∈ 𝑉. 4. [Vector nulo] Existe um vector 0, designado por vector nulo de V, tal que 𝟎 + 𝒖 = 𝒖 + 𝟎 = 𝒖 ∀𝒖 ∈ 𝑉. 5. [Simétrico] Para cada 𝒖 ∈ 𝑉 existe um objecto 𝒘 ∈ 𝑉, dito simétrico de 𝒖, tal que 𝒘+ 𝒖 = 𝒖 +𝒘 = 𝟎 ∀𝒖 ∈ 𝑉. 6. [Fecho para a multiplicação escalar] Se 𝜆 ∈ 𝑲 é um escalar e 𝒖 ∈ 𝑉, 𝜆𝒖 ∈ 𝑉. 7. [Associatividade da ME] 𝜆1(𝜆2𝒖) = (𝜆1𝜆2)𝒖. 8. [Distributividade à esquerda] (𝜆1 + 𝜆2)𝒖 = 𝜆1𝒖 + 𝜆2𝒖. 9. [Distributividade à direita] 𝜆(𝒖 + 𝒗) = 𝜆𝒖 + 𝜆𝒗. 10. [Identidade] 1. 𝒖 = 𝒖 ∀𝒖 ∈ 𝑉. Obs. 1: Quando 𝕂 = ℝ o espaço vectorial diz-se um espaço vectorial real; quando 𝕂 = ℂ diz-se um espaço vectorial complexo. Obs. 2: Um corpo é uma estrutura algébrica onde estão definidas as operações da aritmética (+, ×). A aritmética em 𝕂 = ℝ ou ℂ é a aritmética usual. Aula 8: espaços vectoriais Aula 8 – Jorge Buescu 3 1 - O espaço vectorial real ℝ𝑛 ℝ𝑛 = {(𝑥1, 𝑥2, ⋯ , 𝑥𝑛) ∶ 𝑥𝑖 ∈ ℝ, 𝑖 = 1,⋯ , 𝑛}, conjunto dos n-uplos ordenados de números reais, munido das operações “usuais” Soma vectorial: Se 𝒙 = (𝑥1, 𝑥2,⋯ , 𝑥𝑛) ∈ ℝ 𝑛 e 𝒚 = (𝑦1, 𝑦2,⋯ , 𝑦𝑛) ∈ ℝ 𝑛, então 𝒙 + 𝒚 = (𝑥1 + 𝑦1, 𝑥2 + 𝑦2, ⋯ , 𝑥𝑛 + 𝑦𝑛) (dita “soma componente a componente”), Multiplicação por um escalar (real): Se 𝜆 ∈ ℝ é um escalar e 𝒙 = (𝑥1, 𝑥2,⋯ , 𝑥𝑛) ∈ ℝ 𝑛 é um vector, então 𝜆𝒙 = 𝜆(𝑥1, 𝑥2, ⋯ , 𝑥𝑛) = (𝜆𝑥1, 𝜆𝑥2, ⋯ , 𝜆𝑥𝑛) (dita “multiplicação componente a componente”), é um espaço vectorial real, pois satisfaz todos os axiomas 1—10 (verificar). Obs.: vectores de ℝ𝑛, podem, quando conveniente, escrever-se em coluna: 𝒙 = [ 𝑥1 𝑥2 ⋮ 𝑥𝑛 ] Obs. 2: os vectores de ℝ𝑛 não são “setinhas” – a menos, claro, que o estudante consiga visualizar setas com n dimensões (aviso: o Prof só consegue até n=3 ou, com esforço, 4). Aula 8: espaços vectoriais Aula 8 – Jorge Buescu 4 2 - O espaço vectorial das matrizes reais 2 × 2 ℳ2×2(ℝ) = {[ 𝑎 𝑏 𝑐 𝑑 ] ∶ 𝑎, 𝑏, 𝑐, 𝑑 ∈ ℝ} conjunto das matrizes 2 × 2 de elementos reais, munido das operações usuais entre matrizes: Soma: Se A1 = [ 𝑎1 𝑏1 𝑐1 𝑑1 ] ∈ ℳ2×2(ℝ) e A2 = [ 𝑎2 𝑏2 𝑐2 𝑑2 ] ∈ ℳ2×2(ℝ), então A1 + A2 = [ 𝑎1 + 𝑎2 𝑏1 + 𝑏2 𝑐1 + 𝑐2 𝑑1 + 𝑑2 ] (“soma elemento a elemento”) Multiplicação por um escalar (real): Se 𝜆 ∈ ℝ é um escalar e A = [ 𝑎 𝑏 𝑐 𝑑 ] é uma matriz, então 𝜆A = 𝜆 [ 𝑎 𝑏 𝑐 𝑑 ] = [ 𝜆𝑎 𝜆𝑏 𝜆𝑐 𝜆𝑑 ] é um espaço vectorial real, pois satisfaz todos os axiomas 1—10. Obs: Neste espaço, os vectores são matrizes 2 × 2 – decididamente não são “setinhas!” Aula 8: espaços vectoriais Aula 8 – Jorge Buescu 5 3-Espaço vectorial das matrizes reais 𝑚 × 𝑛 Analogamente, ℳ𝑚×𝑛(ℝ) = {𝐴 = [ 𝑎11 𝑎12 … 𝑎1𝑛 ⋮ ⋮ ⋮ ⋮ 𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛 ] ∶ 𝑎𝑖𝑗 ∈ ℝ} conjunto das matrizes 𝑚 × 𝑛 de entradas reais, munido das operações usuais entre matrizes: Soma: Se A = [ 𝑎11 𝑎12 … 𝑎1𝑛 ⋮ ⋮ ⋮ ⋮ 𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛 ] e B = [ 𝑏11 𝑏12 … 𝑏1𝑛 ⋮ ⋮ ⋮ ⋮ 𝑏𝑚1 𝑏𝑚2 ⋯ 𝑏𝑚𝑛 ] , então A + B = [ 𝑎11 + 𝑏11 𝑎12 + 𝑏12 … 𝑎1𝑛 + 𝑏1𝑛 ⋮ ⋮ ⋮ ⋮ 𝑎𝑚1 + 𝑏𝑚1 𝑎𝑚2 + 𝑏𝑚2 ⋯ 𝑎𝑚𝑛 + 𝑏𝑚𝑛 ] (“soma elemento a elemento”) Multiplicação por um escalar (real): Se 𝜆 ∈ ℝ é um escalar e A = [ 𝑎11 𝑎12 … 𝑎1𝑛 ⋮ ⋮ ⋮ ⋮ 𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛 ] é uma matriz, então 𝜆A = 𝜆 [ 𝑎11 𝑎12 … 𝑎1𝑛 ⋮ ⋮ ⋮ ⋮ 𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛 ] = [ 𝜆𝑎11 𝜆𝑎12 … 𝜆𝑎1𝑛 ⋮ ⋮ ⋮ ⋮ 𝜆𝑎𝑚1 𝜆𝑎𝑚2 ⋯ 𝜆𝑎𝑚𝑛 ] é um espaço vectorial real, pois satisfaz os axiomas 1— 10 (TPC: verificar!). Neste espaço, os vectores são matrizes 𝑚 × 𝑛. Um vector é um elemento de um espaço vectorial! Aula 8: espaços vectoriais Aula 8 – Jorge Buescu 6 4- Espaço ℱ(ℝ) das funções reais de variável real ℱ(ℝ) = { 𝑓: ℝ → ℝ, f função real de variável real} munindo este conjunto das operações usuais entre funções: Se 𝑓 e 𝑔 são funções reais de variável real, Soma: (𝑓 + 𝑔) é a função r.v.r. definida em cada ponto 𝑥 ∈ ℝ por (𝑓 + 𝑔)(𝑥) = 𝑓(𝑥) + 𝑔(𝑥) ∀𝑥 ∈ ℝ; Produto por escalar: 𝜆𝑓 é a função r.v.r. definida em cada ponto 𝑥 ∈ ℝ por 𝜆𝑓(𝑥) = 𝜆𝑓(𝑥) ∀𝑥 ∈ ℝ. Com estas operações, ℱ(ℝ) é um espaço vectorial. Um ponto deste espaço (≡ vector) é uma função! Em particular, o vector nulo de ℱ(ℝ) é a função identicamente nula: 𝑓(𝑥) ≡ 0, i.e. 𝑓(𝑥) = 0 ∀𝑥 ∈ ℝ. Aula 8: espaços vectoriais Aula 8 – Jorge Buescu 7 5- Um conjunto que não é um espaço vectorial: 𝐶 = { (𝑥, 𝑦) ∈ ℝ2: 𝑥2 + 𝑦2 = 2} i.e. circunferência de raio √2 no plano Tomando por exemplo 𝒖 = (1,1), 𝒗 = (1,−1), tem-se 𝒖 ∈ 𝐶,𝒗 ∈ 𝐶 mas 𝒖 + 𝒗 = (2,0) ∉ 𝐶 pelo que C não é fechado para a soma (Falha o Axioma 1) Assim, C não é um espaço vectorial. C também não é fechado para a multiplicação escalar: tomando 𝒖 = (1,1), tem-se por exemplo 2 𝒖 = (2,2) ∉ 𝐶 pelo que também falha o Axioma 6. 𝐶 também não contém o vector nulo (0,0), pelo que também falha o Ax. 4… Aula 8: espaços vectoriais Aula 8 – Jorge Buescu 8 6 – O ESPAÇO NULO Se V só tem um elemento, que designamos por 0, existe apenas uma forma de lhe dar a estrutura de espaço vectorial: 𝟎 + 𝟎 = 𝟎, 𝜆𝟎 = 𝟎 ∀ 𝜆 escalar. 𝑉 = {𝟎}, munido destas operações, diz-se o espaço nulo. Aula 8: espaços vectoriais Aula 8 – Jorge Buescu 9 Teorema 2.2. Seja 𝑉 um espaço vectorial, 𝑢 ∈ 𝑉 um vector e 𝜆 um escalar. Então: a) 0 𝒖 = 𝟎. b) 𝜆𝟎 = 𝟎. c) (−1)𝒖 = −𝒖. d) Se 𝜆𝒖 = 𝟎, então 𝜆 = 0 ou 𝒖 = 𝟎. Aula 9: Subespaços Aula 9 – Jorge Buescu 1 Subespaços vectoriais Definição 2.3. Um subconjunto 𝑊 de um espaço vectorial 𝑉 diz-se um subespaço de 𝑉 se for, ele próprio, um espaço vectorial (relativamente às operações definidas em 𝑉). Para verificar que 𝑊 é subespaço de 𝑉, basta verificar os 2 axiomas de fecho (axiomas 1e 6): Teorema 2.4 Seja 𝑊 ⊂ 𝑉 não vazio. Então W é subespaço de V se, e só se, verifica os dois axiomas de fecho: a) [fecho para a soma] ∀𝑢, 𝑣 ∈ 𝑊 𝑢 + 𝑣 ∈ 𝑊; b) [fecho para a ME] ∀𝑢 ∈ 𝑊 ∀𝜆 ∈ 𝑲 𝜆𝑢 ∈ 𝑊. Aula 9: Subespaços Aula 9 – Jorge Buescu 2 Exº 1: um plano que passa pela origem é um subespaço de ℝ3 Equação do plano P : 𝑎𝑥 + 𝑏𝑦 + 𝑐𝑧 = 0. 𝒖 = (𝑢1, 𝑢2, 𝑢3) ∈ 𝑃 ⇔ 𝑎𝑢1 + 𝑏𝑢2 + 𝑐𝑢3 = 0 𝒗 = (𝑣1, 𝑣2, 𝑣3) ∈ 𝑃 ⇔ 𝑎𝑣1 + 𝑏𝑣2 + 𝑐𝑣3 = 0 pelo que 𝒖 + 𝒗 = (𝑢1 + 𝑣1, 𝑢2 + 𝑣2, 𝑢3 + 𝑣3) verifica 𝑎(𝑢1 + 𝑣1) + 𝑏(𝑢2 + 𝑣2) + 𝑐(𝑢3 + 𝑣3) = 0 ⇔ 𝒖 + 𝒗 ∈ 𝑃. Ou seja, W é fechado para a soma. Analogamente, 𝜆𝑢 = 𝜆(𝑢1, 𝑢2, 𝑢3) = (𝜆𝑢1, 𝜆𝑢2, 𝜆𝑢3) verifica 𝑎𝜆𝑢1 + 𝑏𝜆𝑢2 + 𝑐𝜆𝑢3 = 0 ⇔ 𝜆𝒖 ∈ 𝑃. Ou seja, W é fechado para a multiplicação escalar. Conclusão: W é fechado para ambas as operações W é subespaço de ℝ3. Aula 9: Subespaços Aula 9 – Jorge Buescu 3 Exº 2: uma recta que passa pela origem é um subespaço de ℝ3 Raciocínio análogo: TPC (Os vectores sobre uma recta que passa pela origem e tem vector director 𝒖 = (𝑢1, 𝑢2, 𝑢3) são todos múltiplos de 𝒖). Aula 9: Subespaços Aula 9 – Jorge Buescu 4 Rectas e planos que não passam pela origem não são subespaços! Exemplo: recta R: 𝑦 = −𝑥 + 1 no plano ℝ2 𝒖 = (0,1) e 𝒗 = (1,0), p.ex., ∈ 𝑅. Mas 𝒖 + 𝒗 = (1,1) ∉ 𝑅 ⇒ 𝑅 não é fechado para a soma 2𝒖 = (0,2) ∉ 𝑅 ⇒ 𝑅 também não é fechado para a ME ⇒ 𝑅 não é subespaço de ℝ2 Bastaria ter observado que, para ser subespaço, deve conter o vector nulo 𝟎 = (0,0) [Axioma 4], o que não se verifica pois a recta R por hipótese não passa pela origem (que corresponde ao vector nulo). Aula 9: Subespaços Aula 9 – Jorge Buescu 5 O núcleo de uma matriz 𝐴𝑚×𝑛 é um subespaço de ℝ𝑛 Recordar: 𝒩(𝐴) = {𝒙 ∈ ℝ𝑛: 𝐴𝒙 = 0} 1. Fecho para a soma: 𝒙 ∈ 𝒩(𝐴) ⇔ 𝐴𝒙 = 𝟎 𝒚 ∈ 𝒩(𝐴) ⇔ 𝐴𝒚 = 𝟎 𝐴(𝒙 + 𝒚) = 𝐴𝒙 + 𝐴𝒚 = 𝟎 + 𝟎 = 𝟎 , pelo que 𝒩(𝐴) é fechado para a soma. 2. Fecho para a ME: 𝒙 ∈ 𝒩(𝐴) ⇔ 𝐴𝒙 = 𝟎 ⇒ 𝐴(𝜆𝒙) = 𝜆 (𝐴𝒙⏟ 𝟎 ) = 𝟎 ⇔ 𝜆𝒙 ∈ 𝒩(𝐴) pelo que 𝒩(𝐴) é fechado para a ME. Na verdade, mostrar-se-á no cap. 4 que, reciprocamente, Aula 9: Subespaços Aula 9 – Jorge Buescu 6 todos os subespaços de ℝ𝑛 são dados por núcleos de matrizes adequadas. Exº 4: Subespaços de ℳ𝑛×𝑛(ℝ) 𝒮𝑛(ℝ) = {𝐴 ∈ ℳ𝑛×𝑛(ℝ): 𝐴 = 𝐴 𝑇} = {matrizes simétricas 𝑛 × 𝑛} é um subespaço de ℳ𝑛×𝑛(ℝ) pois verifica os fechos: 1. [fecho para a soma] a soma de matrizes simétricas é simétrica [ (𝐴 + 𝐵)𝑇 = 𝐴𝑇 + 𝐵𝑇 = 𝐴 + 𝐵 ] 2. [fecho para ME] A multiplicação de uma matriz simétrica por um escalar é simétrica [ (𝜆 𝐴)𝑇 = 𝜆𝐴𝑇 = 𝜆𝐴 ] Assim, pelo Teorema 2.2 𝒮𝑛(ℝ) é subespaço de ℳ𝑛×𝑛(ℝ). Verificação concreta, para matrizes simétricas 2X2: [ 𝑎 𝑏 𝑏 𝑐 ] + [ 𝑒 𝑓 𝑓 𝑔 ] = [ 𝑎 + 𝑒 𝑏 + 𝑓 𝑏 + 𝑓 𝑐 + 𝑔 ] , pelo que a soma de matrizes simétricas é simétrica. 𝜆 [ 𝑎 𝑏 𝑏 𝑐 ] = [ 𝜆𝑎 𝜆𝑏 𝜆𝑏 𝜆𝑐 ] , Aula 9: Subespaços Aula 9 – Jorge Buescu 7 pelo que a multiplicação de uma matriz simétrica por escalar resulta numa matriz simétrica. Exº 3: Subespaços de ℳ𝑛×𝑛(ℝ) (cont.) Analogamente, tem-se [verificar!] : 𝒯𝑛 𝑠𝑢𝑝 = {𝐴 ∈ ℳ𝑛×𝑛(ℝ): 𝐴 é triangular superior} é um subespaço de ℳ𝑛×𝑛(ℝ) elemento genérico de 𝒯𝑛 𝑠𝑢𝑝 : [ 𝑎11 𝑎12 … 𝑎1𝑛 0 𝑎22 … 𝑎2𝑛 ⋮ 0 ⋮ ⋯ … 0 ⋮ 𝑎𝑛𝑛 ] TPC: provar fechos do conjunto destas matrizes. 𝒯𝑛 𝑖𝑛𝑓 = {𝐴 ∈ ℳ𝑛×𝑛(ℝ): 𝐴 é triangular inferior} elemento genérico de 𝒯𝑛 𝑖𝑛𝑓 : [ 𝑎11 0 … 0 𝑎21 𝑎22 … ⋮ ⋮ 𝑎𝑛1 ⋮ ⋯ … 𝑎𝑛−1,𝑛 0 𝑎𝑛𝑛 ] TPC: provar fechos do conjunto destas matrizes. Aula 9: Subespaços Aula 9 – Jorge Buescu 8 Subespaços de ℱ(ℝ): funções contínuas e diferenciáveis 𝐶0(ℝ) = { 𝑓 ∈ ℱ(ℝ): 𝑓 é contínua em ℝ} 𝑓, 𝑔 ∈ 𝐶0(ℝ) ⇔ 𝑓(𝑥), 𝑔(𝑥) são contínuas ∀𝑥 ∈ ℝ. Sabemos que a soma pontual de funções contínuas é contínua: se f e g são contínuas em 𝑥, então 𝑓 + 𝑔 é contínua em 𝑥. Assim, (𝑓 + 𝑔)(𝑥) é contínua ∀𝑥 ∈ ℝ, e portanto 𝑓, 𝑔 ∈ 𝐶0(ℝ) ⇒ 𝑓 + 𝑔 ∈ 𝐶0(ℝ) [fecho para a soma] Analogamente, dado qualquer escalar 𝜆 ∈ ℝ 𝑓 ∈ 𝐶0(ℝ) ⇒ 𝜆 𝑓 ∈ 𝐶0(ℝ) [fecho para a ME] Assim, 𝐶0(ℝ) é um subespaço linear de ℱ(ℝ) (espaço das funções contínuas) Aula 9: Subespaços Aula 9 – Jorge Buescu 9 Analogamente: 𝐶1(ℝ) = { 𝑓 ∈ ℱ(ℝ): 𝑓´ existe e é contínua em ℝ} é um subespaço de ℱ(ℝ), uma vez que soma de funções com 1ª derivada contínua tem 1ª derivada contínua [fecho para a soma]; multiplicação de uma função com 1ª derivada contínua resulta numa função com 1ª derivada contínua [fecho para ME]. Estas funções designam-se por continuamente diferenciáveis. Observe-se que 𝐶1(ℝ) ⊂ 𝐶0(ℝ), pois uma função diferenciável é contínua! Resumindo, 𝐶1(ℝ) é um subespaço de ℱ(ℝ) é também subespaço de 𝐶0(ℝ)! Aula 9: Subespaços Aula 9 – Jorge Buescu 10 Os espaços 𝐶𝑘(ℝ) 𝐶𝑘(ℝ) = { 𝑓 ∈ ℱ(ℝ): 𝑓(𝑘) existe e é contínua em ℝ} Se 𝑓 ∈ 𝐶𝑘(ℝ), a derivada de ordem 𝑘 existe e é contínua ⇒ todas as derivadas de 𝑓 de ordem 1, 2, … , 𝑘 − 1 existem e são contínuas ⇒ 𝐶𝑘(ℝ) ⊂ 𝐶𝑘−1(ℝ) ⊂ 𝐶𝑘−2(ℝ) ⊂ ⋯ ⊂ 𝐶1(ℝ) ⊂ 𝐶0(ℝ). TPC: verificar que são fechados para as operações soma e ME Todos estes são subespaços de ℱ(ℝ) (e portanto espaços vectoriais por direito próprio) Aula 9: Subespaços Aula 9 – Jorge Buescu 11 𝐶∞(ℝ) = { 𝑓 ∈ ℱ(ℝ): 𝑓(𝑘) existe ∀ 𝑘 ∈ ℕ} Funções indefinidamente diferenciáveis: possuem derivadas de todas as ordens Exº: 𝑓(𝑥) = sin(𝑥) ; 𝑔(𝑥) = 𝑒𝑥; ℎ(𝑥) = 𝑥5 + 𝑥2 + 1; … 𝐶∞(ℝ) forma um subespaço de ℱ(ℝ) (verificar), contido em todos os espaços 𝐶𝑘(ℝ), 𝑘 ∈ ℕ. 𝒫𝑛(ℝ) = { polinómios de grau ≤ 𝑛} 𝑝 ∈ 𝒫𝑛(ℝ) ⇔ 𝑝(𝑥) = 𝑎0 + 𝑎1𝑥 + 𝑎2𝑥 2 + ⋯ + 𝑎𝑛𝑥 𝑛 𝒫𝑛(ℝ) forma um subespaço de 𝐶 ∞(ℝ), pois 𝒫𝑛(ℝ) ⊂ 𝐶 ∞(ℝ) (porquê?) Soma e ME de polinómios de grau ≤ 𝑛 continua a ser um polinómio de grau ≤ 𝑛. Obs.: {polinómios de grau = 𝑛} não é um subespaço! Porquê? Aula 9: Subespaços Aula 9 – Jorge Buescu 12 𝒫𝑛(ℝ) ⊂ 𝐶 ∞(ℝ) ⊂ 𝐶𝑘(ℝ) ⊂ 𝐶𝑘−1(ℝ) ⊂ 𝐶𝑘−2(ℝ) ⊂ ⋯ ⊂ 𝐶1(ℝ) ⊂ 𝐶0(ℝ) ⊂ ℱ(ℝ) Aula 10: Combinações lineares, espaço gerado por um conjunto de vectores Aula 10 – Jorge Buescu 1 Definição 2.5 (combinação linear) Um vector 𝒘 ∈ 𝑉 diz-se combinação linear dos vectores 𝒗1, 𝒗2, … , 𝒗𝑘 se puder exprimir-se da forma 𝒘 = 𝑐1𝒗1 + 𝑐2𝒗2 + ⋯ + 𝑐𝑘𝒗𝑘 = ∑ 𝑐𝑖𝒗𝑖 𝑘 𝑖=1 onde 𝑐1, 𝑐2, … , 𝑐𝑘 são escalares. Definição 2.6 (espaço gerado) Designamos por ger(𝒗1, 𝒗2, … , 𝒗𝑘) o conjunto de todas as combinações lineares dos vectores 𝒗1, 𝒗2, … , 𝒗𝑘: ger(𝒗1, 𝒗2, … , 𝒗𝑘) = { 𝒘 = ∑ 𝑐𝑖𝒗𝑖 ∶ 𝑘 𝑖=1 𝜆𝑖 ∈ 𝕂, 𝑖 = 1, … , 𝑘}. Teorema 2.7. ger(𝒗1, 𝒗2, … , 𝒗𝑘) é um subespaço de V. De facto, é o menor subespaço de V que contém {𝒗1, 𝒗2, … , 𝒗𝑘}. O conjunto {𝒗1, 𝒗2, … , 𝒗𝑘} diz-se um conjunto de geradores do subespaço ger(𝒗1, 𝒗2, … , 𝒗𝑘). Aula 10: Combinações lineares, espaço gerado por umconjunto de vectores Aula 10 – Jorge Buescu 2 Exº 1. Determinar, em ℝ3, ger((1,0,0), (0,1,0)). Determinar quando é que um vector 𝒘 = (𝑎, 𝑏, 𝑐) ∈ ger((1,0,0), (0,1,0)). Exº 2. O espaço 𝒫𝑛(ℝ) dos polinómios de grau ≤ 𝑛 é gerado por qualquer dos conjuntos: 1. 𝐴 = {1, 𝑥, 𝑥2, … , 𝑥𝑛}; 2. 𝐵 = {1, 1 + 𝑥, (1 + 𝑥)2, … , (1 + 𝑥)𝑛}. Exº 3. Consideremos os vectores de ℝ3 𝒗1 = (1,2, −1), 𝒗2 = (3,2,1). Verificar se os vectores 𝒖 = (9,2,7) e 𝒘 = (4, −1,8) pertencem, ou não, a ger(𝒗1, 𝒗2). Exº 4. Determinar se os vectores 𝒗1 = (1,1,2), 𝒗2 = (1,0,1), 𝒗3 = (2,1,3) geram ℝ 3. Aula 10: Combinações lineares, espaço gerado por um conjunto de vectores Aula 10 – Jorge Buescu 3 Definição 2.8 (espaço das linhas e das colunas de uma matriz) Dada uma matriz 𝐴𝑚×𝑛: 1. o subespaço de ℝ𝑚 gerado pelos vectores definidos pelas 𝑛 colunas de 𝐴 encaradas como vectores de ℝ𝑚 diz-se o espaço das colunas de A e denota-se por col(A). 2. o subespaço de ℝ𝑛 gerado pelos vectores definidos pelas 𝑚 linhas de 𝐴 encaradas como vectores de ℝ𝑛 diz-se o espaço das linhas de A e denota-se por lin(A). Exº: Se 𝐴3×4 = [ 1 𝜋 5 7 −1 2 4 9 √2 0 𝑒 3 ], col(𝐴) = ger{[ 1 −1 √2 ] , [ 𝜋 2 0 ] , [ 5 4 𝑒 ] , [ 7 9 3 ]} ⊂ ℝ3; lin(𝐴) = ger{(1, 𝜋, 5,7), (−1,2,4,9), (√2, 0, 𝑒, 3)} ⊂ ℝ4. Aula 10: Combinações lineares, espaço gerado por um conjunto de vectores Aula 10 – Jorge Buescu 4 Teorema 2.9 Dada uma matriz 𝐴𝑚×𝑛, o sistema de equações lineares 𝐴𝒙 = 𝒃 é possível se, e só se, 𝒃 ∈ col(A). Exº: Consideremos o sistema [ 1 2 2 4 ] [ 𝑥1 𝑥2 ] = [ 𝛼 𝛽]. A eliminação de Gauss sobre a matriz aumentada mostra que o sistema é possível se e só se 2𝛼 = 𝛽, ou seja, se e só se o termo independente 𝒃=[ 𝛼 𝛽] for da forma 𝒃 = 𝛼 [ 1 2 ] , 𝛼 ∈ ℝ. (*) Mas col(𝐴) = ger{[ 1 2 ] , [ 2 4 ]} = ger{[ 1 2 ]}, pelo que a condição (*) é equivalente a 𝒃 ∈ col(𝐴). Aula 10: Combinações lineares, espaço gerado por um conjunto de vectores Aula 10 – Jorge Buescu 5 Definição 2.10 [intersecção e soma de subespaços] Dados subespaços 𝑈, 𝑊 de um espaço vectorial 𝑉, define-se 1. 𝑈 ∩ 𝑊 = {𝒗 ∈ 𝑉: 𝒗 ∈ 𝑈 ∧ 𝒗 ∈ 𝑊}; 2. 𝑈 + 𝑊 = {𝒗 ∈ 𝑉: 𝒗 = 𝒖 + 𝒘, 𝒖 ∈ 𝑈 , 𝒘 ∈ 𝑊} Intersecção e soma de subespaços. Teorema 2.10 Intersecção e soma são subespaços 1. 𝑈 ∩ 𝑊 é subespaço de 𝑉. 2. 𝑈 + 𝑊 é subespaço de 𝑉; é o menor subespaço de V que contém 𝑈 ∪ 𝑊 (que em geral não é subespaço de V). Aulas 12-13: Independência linear Aula 11 – Jorge Buescu 1 Definição 2.11 (Independência e dependência linear) Um conjunto 𝑆 = {𝒗1, 𝒗2, … , 𝒗𝑘} de vectores de um espaço linear V diz-se linearmente independente (LI) se 𝑐1𝒗1 + 𝑐2𝒗2 +⋯𝑐𝑘𝒗𝑘 = 𝟎 ⇒ 𝑐1 = 𝑐2 = ⋯𝑐𝑘 = 0 (2.1) Um conjunto que não é linearmente independente diz-se linearmente dependente (LD). Obs. 1. A equação 𝑐1𝒗1 + 𝑐2𝒗2 +⋯𝑐𝑘𝒗𝑘 = 𝟎 tem sempre uma solução: a que tem todos os coeficientes nulos. A definição 2.11 afirma que, se os vectores forem LI, essa é a única combinação linear de elementos de S igual ao vector nulo. Exemplo 1. Qualquer conjunto que contenha o vector nulo 𝟎 é LD (pois, por exemplo, 1. 𝟎 + 0. 𝒗2 +⋯0. 𝒗𝑘 = 𝟎 é uma combinação linear igual ao vector nulo sem que todos os coeficientes sejam nulos) Exemplo 2. Qualquer subconjunto de um conjunto LI é LI (raciocinar por absurdo) Aulas 12-13: Independência linear Aula 11 – Jorge Buescu 2 Exemplo 3. Consideremos os conjuntos de vectores de ℝ3 𝑆1 = {[ 1 0 0 ] , [ 1 1 0 ] , [ 1 1 1 ]} , 𝑆2 = { [ 1 1 1 ] ⏟ 𝒗1 , [ 2 1 0 ] ⏟ 𝒗2 , [ −1 0 1 ] ⏟ 𝒗3 } . O conjunto 𝑆1é linearmente independente (LI), ao passo que 𝑆2 é linearmente dependente. Os vectores de 𝑆2 verificam a relação de dependência linear 𝒗1 = 𝒗2 + 𝒗3, pelo que são complanares (ver abaixo). Os vectores de 𝑆1 são independentes: Os vectores de 𝑆2 são dependentes: nenhum é CL dos outros dois. são complanares e 𝒗1 = 𝒗2 + 𝒗3. Aulas 12-13: Independência linear Aula 11 – Jorge Buescu 3 Exemplo 4. Em ℝ𝑛, o conjunto de 𝑛 vectores ℬ𝑛 = { [ 1 0 0 ⋮ 0] ⏟ 𝒆1 , [ 0 1 0 ⋮ 0] ⏟ 𝒆2 , … , [ 0 0 0 ⋮ 1] ⏟ 𝒆𝑛 } = {𝒆1, 𝒆2, … , 𝒆𝑛} é linearmente independente. Se S é um conjunto LD, por definição existe uma combinação linear não-trivial (i.e. em que os coeficientes não são simultaneamente nulos) igual ao vector nulo. Essa combinação linear diz-se uma relação de dependência linear entre os vectores de 𝑆. Exº: no exemplo 3 acima, 𝒗1 − 𝒗2 − 𝒗3 = 𝟎 é uma relação de dependência linear entre os vectores de 𝑆2. Proposição 2.11. Um conjunto de vectores S é linearmente dependente se, e só se, existe um vector de S que é combinação linear dos restantes. Dem.: imediata a partir de uma relação não-trivial de dependência linear. Aulas 12-13: Independência linear Aula 11 – Jorge Buescu 4 Exº 5: Estudar, em 𝒫4(ℝ), dependência ou independência linear dos conjuntos de vectores, e sempre que LD construir uma relação de dependência linear entre os respectivos vectores: 𝐴 = {1⏟ 𝑝1 , 𝑥⏟ 𝑝2 , 𝑥2⏟ 𝑝3 } ; 𝐵 = {1 + 𝑥⏟ 𝑞1 , 1 − 𝑥⏟ 𝑞2 , 𝑥2 + 1⏟ 𝑞3 , 1⏟ 𝑞4 }. Resp.: A é LI. B é linearmente dependente; uma relação não-trivial de dependência linear é, por exemplo, −𝑞1 − 𝑞2 + 2𝑞4 = 0 De facto −𝑞1(𝑥) − 𝑞2(𝑥) + 2𝑞4(𝑥) = −(1 + 𝑥) − (1 − 𝑥) + 2 = 0 ∀𝑥 ∈ℝ. Exº 6.: Mostrar que, em 𝒫𝑛(ℝ), {1, 𝑥, 𝑥 2, … , 𝑥𝑛} é um conjunto linearmente independente. Exº 7. Mostrar que, no espaço 𝐶0(ℝ), 𝐴 = {sin 𝑥, cos 𝑥} é um conjunto linearmente independente; 𝐵 = {sin 𝑥, cos 𝑥, sin (𝑥 + 𝛼)} é um conjunto linearmente dependente. Aulas 12-13: Independência linear Aula 11 – Jorge Buescu 5 Teorema 2.12. 1) Um conjunto 𝑆 = {𝒗1, 𝒗2, … , 𝒗𝑛} de vectores de ℝ 𝑚 é linearmente independente sse o sistema homogéneo 𝐴𝒙 = 𝟎, onde 𝐴𝑚×𝑛 é a matriz cujas 𝑛 colunas são 𝒗1, 𝒗2, … , 𝒗𝑛, tem apenas a solução trivial 𝒙 = 𝟎. 2) Um conjunto de 𝑛 vectores em ℝ𝑚, com 𝑛 > 𝑚, é linearmente dependente. Aplicação: construção de um subconjunto LI maximal. Os 4 vectores de ℝ4 { [ 1 1 0 2 ] ⏞ 𝒗1 , [ 1 −1 1 0 ] ⏞ 𝒗2 , [ 0 1 1 1 ] ⏞ 𝒗3 , [ 1 1 1 2 ] ⏞ 𝒗4 } formam um conjunto linearmente dependente, uma vez que a matriz 𝐴 cujas colunas são os vectores, 𝐴 = [ 1 1 0 1 1 −1 1 1 0 2 1 0 1 1 1 2 ], tem característica 3, pelo que o sistema 𝐴𝒙 = 𝟎 é indeterminado. Assim, por 1), o conjunto formado pelos 4 vectores é LD. Por outro lado, os pivots de A estão nas colunas 1, 2 e 3. A matriz 𝐵4×3 formada pelos vectores 𝒗1, 𝒗2, 𝒗3, 𝐵 = [ 1 1 0 1 −1 1 0 2 1 0 1 1 ] tem característica 3. Isto significa que as suas colunas, e portanto osvectores 𝒗1, 𝒗2, 𝒗3, são linearmente independentes (também por 1). Aula 14: Bases de um espaço linear Aula 14 – Jorge Buescu 1 Def. 2.13 (Base) Chama-se base de um espaço vectorial V a qualquer conjunto de vectores que seja simultaneamente (1) linearmente independente, (2) gerador de V. Exemplo 1: 𝐴 = {[ 1 0 0 ] , [ 1 2 0 ] , [ 1 1 1 ]} é uma base de ℝ3; 𝐵 = {[ 1 0 0 ] , [ 1 1 0 ] , [ 2 1 0 ]} não é base de ℝ3. Proposição 2.14. Dada uma base ℬ de um espaço vectorial 𝑉, qualquer vector se pode representar de forma única como combinação linear dos vectores de ℬ. Isto é, dada uma base ℬ = {𝒗1, 𝒗2, … , 𝒗𝑛}, a forma de escrever 𝒖 = 𝑐1𝒗1 + 𝑐2𝒗2 +⋯+ 𝑐𝑛𝒗𝑛 é única. Aula 14: Bases de um espaço linear Aula 14 – Jorge Buescu 2 Definição 2.15. Dada uma base ℬ = {𝒗1, 𝒗2, … , 𝒗𝑛} de um espaço vectorial 𝑉, chamam-se coordenadas do vector 𝒖 na base 𝓑 os coeficientes (𝑐1, 𝑐2, … , 𝑐𝑛) da combinação linear de 𝒖 na base ℬ 𝒖 = 𝑐1𝒗1 + 𝑐2𝒗2 +⋯+ 𝑐𝑛𝒗𝑛. Utiliza-se para designar este facto a notação 𝒖 ↝ℬ (𝑐1, 𝑐2, … , 𝑐𝑛). Exº 1: Em ℝ𝑛, o conjunto ℬ𝑐 = { [ 1 0 0 ⋮ 0] ⏟ 𝒆1 , [ 0 1 0 ⋮ 0] ⏟ 𝒆2 , … , [ 0 0 0 ⋮ 1] ⏟ 𝒆𝑛 } = {𝒆1, 𝒆2, … , 𝒆𝑛} forma uma base, chamada base canónica de ℝ𝑛. Dado um vector 𝒖 = [ 𝑢1 𝑢2 𝑢3 ⋮ 𝑢𝑛] ∈ ℝ𝑛, as suas coordenadas (𝑐1, 𝑐2, … , 𝑐𝑛) na base canónica satisfazem Aula 14: Bases de um espaço linear Aula 14 – Jorge Buescu 3 [ 𝑢1 𝑢2 𝑢3 ⋮ 𝑢𝑛] = 𝑐1 [ 1 0 0 ⋮ 0] + 𝑐2 [ 0 1 0 ⋮ 0] + 𝑐3 [ 0 0 1 ⋮ 0] + ⋯+ 𝑐𝑛 [ 0 0 0 ⋮ 1] Em ℬ𝑐 ocorre o milagre da base canónica: as coordenadas coincidem com as componentes do vector original! (𝑐1, 𝑐2, … , 𝑐𝑛) = (𝑢1, 𝑢2, … , 𝑢𝑛) ou, na notação da Def. 2.15, 𝒖 = [ 𝑢1 𝑢2 𝑢3 ⋮ 𝑢𝑛] ⟺ 𝒖 ↝ℬ (𝑢1, 𝑢2, … , 𝑢𝑛) Mas as coordenadas numa base de ℝ𝑛não são as componentes do vector! Aula 14: Bases de um espaço linear Aula 14 – Jorge Buescu 4 Exemplo 2: Em ℝ2 consideremos as duas bases ℬ𝑐 = {[ 1 0 ] , [ 0 1 ]} (base canónica), ℬ1 = {[ −1 3 ] , [ 3 −1 ]} (porque é base? ) e o vector 𝒗 = (2,2). 𝒗 = 2 [ 1 0 ] + 2 [ 0 1 ] ⇒ As coordenadas de 𝒗 em ℬ𝑐 são 𝒗↝(2,2) 𝒗 = 1 [ −1 3 ] + 1 [ 3 −1 ] ⇒ As coordenadas de 𝒗 em ℬ1 são 𝒗↝(1,1) O vector é sempre o mesmo. As suas coordenadas dependem da base: o mesmo vector tem coordenadas diferentes em bases diferentes. Aula 14: Bases de um espaço linear Aula 14 – Jorge Buescu 5 Exº. Em 𝒫2(ℝ), calcular as coordenadas do polinómio 𝑝(𝑥) = 7 + 6𝑥 + 5𝑥2 na base ℬ = {1⏟ 𝑝1 , 1 + 𝑥⏟ 𝑝2 , 1 + 𝑥 + 𝑥2⏟ 𝑝3 }. Resolução: As coordenadas de 𝑝 na base ℬ são dadas pela solução de 7 + 6𝑥 + 5𝑥2 = 𝑐1. 1 + 𝑐2. (1 + 𝑥) + 𝑐3. (1 + 𝑥 + 𝑥 2) = (𝑐1 + 𝑐2 + 𝑐3) + (𝑐2 + 𝑐3)𝑥 + 𝑐3𝑥 2 Igualando termos do mesmo grau, obtemos para as coordenadas (𝑐1, 𝑐2, 𝑐3) o sistema (possível e determinado) [ 1 1 1 0 1 1 0 0 1 ] [ 𝑐1 𝑐2 𝑐3 ] = [ 7 6 5 ] cuja solução única é dada por [ 𝑐1 𝑐2 𝑐3 ] = [ 1 1 5 ]. Assim, as coordenadas de 𝑝 na base ℬ são 𝑝 ↝ℬ (1,1,5). (onde se utiliza o símbolo ↝ℬ para designar “tem coordenadas em 𝑉 dadas por”) Aula 14: Bases de um espaço linear Aula 14 – Jorge Buescu 6 Verificação: 1. 𝑝1(𝑥) + 1. 𝑝2(𝑥) + 5. 𝑝3(𝑥) = = 1.1 + 1. (1 + 𝑥) + 5. (1 + 𝑥 + 𝑥2) = 7 + 6𝑥 + 5𝑥2 = 𝑝(𝑥). Vector = ∑ (coordenada)𝑖 . (Vector de base)𝑖𝑖 Aula 15: dimensão Aulas 15+16 – Jorge Buescu 1 Uma base de um espaço vectorial 𝑉 não pode ter vectores “a menos” pois eles têm de ser geradores de V; mas também não pode ter vectores “a mais” pois têm de ser linearmente independentes. O número de vectores de uma base de 𝑉 é independente da base: Teorema 2.16 (Teorema da dimensão) Todas as bases de um espaço linear 𝑉 ≠ {𝟎} têm o mesmo número de elementos. Este número inteiro é portanto uma característica intrínseca do espaço 𝑉, a que vamos chamar dimensão de 𝑉. Definição 2.17 (Dimensão) A dimensão de um espaço 𝑉 é o número de vectores numa base de 𝑉, se este for finito. Caso contrário, o espaço diz-se de dimensão infinita. Obs.: para determinar a dimensão de um espaço, basta fixar uma base qualquer e contar o número de vectores na base! Aula 15: dimensão Aulas 15+16 – Jorge Buescu 2 Corolário 2.18 Num espaço de dimensão 𝑛, quaisquer 𝑛 + 1 vectores são sempre linearmente dependentes. Exemplo 1: ℝ𝑛 tem dimensão 𝑛 (basta considerar a base canónica). Em particular, ℝ (“uma recta”) tem dimensão 1, ℝ2 (“um plano”) tem dimensão 2, ℝ3 (“o espaço físico”) tem dim 3… Exemplo 2: ℳ2×2(ℝ) = {matrizes reais 2 × 2} tem dimensão 4, pois ℬ𝑐𝑎𝑛 = {[ 1 0 0 0 ] , [ 0 1 0 0 ] , [ 0 0 1 0 ] [ 0 0 0 1 ]} é base de ℳ2×2(ℝ) (verificar) e tem 4 vectores. Esta base chama-se base canónica de ℳ2×2(ℝ), pois as coordenadas de um vector nesta base são imediatas: se 𝐴 = [ 𝑎 𝑏 𝑐 𝑑 ] , então 𝐴 = 𝑎 [ 1 0 0 0 ] + 𝑏 [ 0 1 0 0 ] + 𝑐 [ 0 0 1 0 ] + 𝑑 [ 0 0 0 1 ] pelo que 𝐴 tem as coordenadas 𝐴↝(𝑎, 𝑏, 𝑐, 𝑑) em ℬ𝑐𝑎𝑛. Aula 15: dimensão Aulas 15+16 – Jorge Buescu 3 Exemplo 3: ℳ𝑚×𝑛(ℝ) = {matrizes reais 𝑚 × 𝑛} tem dimensão 𝑚𝑛, pois a correspondente base canónica ℬ𝑐𝑎𝑛 = {[ 1 0 … 0 0 ⋮ 0 0 … 0 ⋮ ⋱ 0 0 … 0 ] , [ 0 1 … 0 0 ⋮ 0 0 … 0 ⋮ ⋱ 0 0 … 0 ] ,… [ 0 0 … 1 0 ⋮ 0 0 … 0 ⋮ ⋱ 0 0 … 0 ] , [ 0 0 … 0 1 ⋮ 0 0 … 0 ⋮ ⋱ 0 0 … 0 ] , [ 0 0 … 0 0 ⋮ 0 1 … 0 ⋮ ⋱ 0 0 … 0 ] , … [ 0 0 … 0 0 ⋮ 0 0 … 1 ⋮ ⋱ 0 0 … 0 ], …, [ 0 0 … 0 0 ⋮ 1 0 … 0 ⋮ ⋱ 0 0 … 0 ] , [ 0 0 … 0 0 ⋮ 0 0 … 0 ⋮ ⋱ 0 1 … 0 ] ,… [ 0 0 … 0 0 ⋮ 0 0 … 0 ⋮ ⋱ 0 0 … 1 ]}, (todas as matrizes são 𝑚 × 𝑛) é base de ℳ𝑚×𝑛(ℝ) (verificar) e tem 𝑚𝑛 elementos. Aula 15: dimensão Aulas 15+16 – Jorge Buescu 4 Exemplo 4. O espaço 𝒫𝑛(ℝ) = {polinómios reais de grau ≤ 𝑛} tem dimensão 𝑛 + 1. Uma sua base é ℬ𝑐𝑎𝑛 = {1, 𝑥, 𝑥 2, … , 𝑥𝑛}, que tem 𝑛 + 1 elementos. Exemplo 5. O espaço 𝒫(ℝ) = {polinómios reais} tem dimensão infinita. Para todo o 𝑛 ∈ ℕ, o conjunto {1, 𝑥, 𝑥2, … , 𝑥𝑛} tem 𝑛 + 1 vectores linearmente independentes mas ger({1, 𝑥, 𝑥2, … , 𝑥𝑛} ) = 𝒫𝑛(ℝ) ⊊ 𝒫(ℝ). Assim, ∀𝑛 ∈ ℕ,𝒫(ℝ) possui um subespaço de dimensão 𝑛 ⇒ dim(𝒫(ℝ)) não pode ser finita ⇒ dim(𝒫(ℝ)) = ∞ Aula 15: dimensão Aulas 15+16 – Jorge Buescu 5 Corolário: qualquer espaço de funções que contenha 𝒫(ℝ) tem dimensão infinita. 𝒫(ℝ) ⊂ 𝐶∞(ℝ) ⊂ ⋯ ⊂ 𝐶𝑘(ℝ)… ⊂ 𝐶1(ℝ) ⊂ 𝐶0(ℝ) ⊂ ℱ(ℝ) O mais pequeno tem dimensão ∞ ⇒ todos têm dimensão ∞. Aula 15: dimensão Aulas 15+16 – Jorge Buescu6 Exemplo 6. Núcleos de matrizes. Se 𝐴𝑚×𝑛 é uma matriz de característica 𝑘, o sistema 𝐴𝒙 = 𝟎 é indeterminado com grau de indeterminação 𝑛 − 𝑘; 𝒩(𝐴) é um subespaço de ℝ𝑛 de dimensão 𝑛 − 𝑘; uma base para 𝒩(𝐴) é constituída pelos 𝑛 − 𝑘 vectores linearmente independentes obtidos por resolução do sistema. Definição 2.19: Dada uma matriz 𝐴𝑚×𝑛, define-se a nulidade nul(A) como 𝑛𝑢𝑙(𝐴) = dim𝒩(𝐴) Teorema 2.20 (da característica-nulidade) Dada uma matriz 𝐴𝑚×𝑛, tem-se 𝑐𝑎𝑟(𝐴) + 𝑛𝑢𝑙(𝐴) = 𝑛. Aula 15: dimensão Aulas 15+16 – Jorge Buescu 7 Exemplo 7 (propositadamente os cálculos são triviais): 𝐴 = [ 1 2 1 0 0 0 0 0 0 ] car(A) = 1; nul(A) =dim( 𝒩(𝐴)) = 2 = grau de indeterminação de 𝐴𝒙 = nº variáveis – nº pivots = 3 – car(A); 𝒩(𝐴) = { 𝒙 ∈ ℝ𝟑 ∶ 𝐴𝒙 = 𝟎} = = { [ 𝑥1 𝑥2 𝑥3 ] = 𝑡 [ −2 1 0 ] ⏟ 𝒗1 + 𝑠 [ −1 0 1 ] ⏟ 𝒗2 , 𝑡, 𝑠 ∈ ℝ } Ao escrever a solução geral de 𝐴𝒙 = 𝟎 na forma vectorial, fica explícita a base para 𝒩(𝐴)! ℬ𝒩(𝐴) = { [ −2 1 0 ] ⏟ 𝒗1 , [ −1 0 1 ] ⏟ 𝒗2 } Geometricamente, trata-se do plano que passa pela origem e contém os vectores 𝒗1, 𝒗2. Aula 15: dimensão Aulas 15+16 – Jorge Buescu 8 Teorema 2.21 Seja 𝑉 um espaço linear de dimensão 𝑛. Então: 1. Qualquer subconjunto LI de 𝑉 é subconjunto de uma base de 𝑉. 2. Qualquer conjunto de n vectores LI é base de V. 3. Qualquer conjunto de n vectores que gera V é base de V. Exº 8: Sabemos que ℝ4 tem dimensão 4. O conjunto de 4 vectores 𝑆 = {[ 1 0 0 0 ] , [ 1 1 0 0 ] , [ 1 1 1 0 ] , [ 1 1 1 1 ]} é LI, pois a matriz 𝐴 cujas colunas são os vectores, 𝐴 = [ 1 1 1 1 0 0 0 1 0 0 1 1 0 1 1 1 ], tem característica 4. Pelo Teorema 2.22, 𝑆 é base de ℝ4. Exemplo 9. Consideremos, em 𝒫(ℝ), o conjunto de 4 vectores 𝑆 = {1, 1 − 𝑥2, (1 + 𝑥)2, 1 + 𝑥2}. Determinar a dimensão e construir uma base para ger(𝑆) formada por elementos de 𝑆. Aula 15: dimensão Aulas 15+16 – Jorge Buescu 9 Bases para o espaço das linhas e colunas de uma matriz A Prop. 2.22 O espaço das linhas lin(𝐴) mantém-se invariante ao longo do processo de eliminação de Gauss. Dem.: cada passo de EG consiste em combinar linearmente linhas de A, o que não altera o espaço gerado. Corolário 2.23 (bases para lin(𝐴)) São bases para o espaço das linhas lin(𝐴): a) O conjunto das linhas não-nulas no final da EG; b) O conjunto das linhas com pivot em qualquer fase da EG (em particular, antes da EG). Teorema 2.24 dim (lin(𝐴)) = dim (col(𝐴)) = car(𝐴). Proposição 2.25 (base para col(𝐴)) Uma base para col(𝐴) é formada pelas colunas da matriz A que contêm pivots. Observação: Ao contrário do espaço das linhas, o espaço das colunas é alterado por EG, pelo que uma base é formada apenas pelas colunas da matriz inicial! Aula 15: dimensão Aulas 15+16 – Jorge Buescu 10 Exemplo 10: Determinar a dimensão e bases para o espaço das linhas e colunas de 𝐴 = [ 1 −1 2 1 −2 0 1 2 0 −1 −4 0 2 1 1 2 ] Res.: por EG a matriz é conduzida à forma escalonada 𝐴′ = [ 1 −1 2 1 0 0 0 0 0 0 0 0 0 3 0 0 ]. Assim, car(𝐴) = 2 e portanto dim (lin(𝐴)) = dim (col(𝐴)) = 2. Os pivots de A estão nas linhas 1 e 2. Duas bases possíveis para (lin(𝐴)) são ℬ𝑙𝑖𝑛(𝐴) 1 = {(1,−1,2,1), (0,0,0,3)} (linhas LI da matriz final) ℬ𝑙𝑖𝑛(𝐴) 2 = {(1,−1,2,1), (−2,2,4,1)} (linhas LI da matriz inicial) Para o espaço das colunas, uma base é formada pelas colunas linearmente independentes da matriz inicial. Como os pivots estão nas colunas 1 e 4, estas são as colunas LI. Portanto uma base para col((𝐴)) é dada por ℬ𝑐𝑜𝑙(𝐴) = {[ 1 −2 0 1 ] , [ 1 1 1 2 ]} Aula 17: Mudança de base em espaços vectoriais Aula 17 – Jorge Buescu 1 Teorema 2.27 (mudança de base) Seja 𝑉 um espaço linear de dimensão 𝑛. Consideremos duas bases ordenadas de 𝑉, ℬ𝑎 = {𝒗1, 𝒗2, … , 𝒗𝑛} (“antiga”), ℬ𝑛 = {𝒘1, 𝒘2, … , 𝒘𝑛} (“nova”). Se 𝑥 = [ 𝑥1 𝑥2 ⋮ 𝑥𝑛 ] são as coordenadas de um vector 𝒖 na base ℬ𝑎, isto é, 𝒖 = 𝑥1𝒗1 + 𝑥2𝒗2 + ⋯ 𝑥𝑛𝒗𝑛, e 𝑦 = [ 𝑦1 𝑦2 ⋮ 𝑦𝑛 ] as coordenadas de 𝒖 em ℬ2, i.e. 𝒖 = 𝑦1𝒘1 + 𝑦2𝒘2 + ⋯ +𝑦𝑛𝒘𝑛, então [ 𝑦1 𝑦2 ⋮ 𝑦𝑛 ] = 𝑆−1 [ 𝑥1 𝑥2 ⋮ 𝑥𝑛 ] onde 𝑆 é a matriz cujas colunas são as coordenadas dos vectores de ℬ𝑛 (base nova) expressos em ℬ𝑎 (base antiga): 𝒘𝑗 = ∑ 𝑠𝑖𝑗𝒗𝑖 𝑛 𝑖=1 , 𝑗 = 1, … , 𝑛. Obs.: 𝑆 = [𝑠𝑖𝑗]𝑖=1,…,𝑛 𝑗=1,…,𝑛 diz-se matriz de mudança de base [MMB] de ℬ𝑎 para ℬ𝑛, utilizando-se por vezes a notação 𝑆ℬ𝑎→ℬ𝑛para representar este facto. Aula 17: Mudança de base em espaços vectoriais Aula 17 – Jorge Buescu 2 Aula 17: Mudança de base em espaços vectoriais Aula 17 – Jorge Buescu 3 Exº 1: Em ℝ2, mudança da base canónica ℬ𝑐𝑎𝑛 = {𝒆1, 𝒆2} = {[ 1 0 ] , [ 0 1 ]} para uma base “rodada por 𝜃”, ℬ𝜃 = {𝒘1, 𝒘2} = {[ cos 𝜃 sin 𝜃 ] , [ − sin 𝜃 cos 𝜃 ]} Res.: As coordenadas dos vectores da base nova na antiga são 𝒘1 = cos 𝜃 [ 1 0 ] + sin 𝜃 [ 0 1 ], 𝒘2 = −sin 𝜃 [ 1 0 ] + cos 𝜃 [ 0 1 ]. A matriz de mudança de base 𝑆ℬ𝑐𝑎𝑛→ℬ𝜃 é portanto 𝑆 = [ cos 𝜃 − sin 𝜃 sin 𝜃 cos 𝜃 ] A sua inversa é dada por 𝑆−1 = [ cos 𝜃 sin 𝜃 −sin 𝜃 cos 𝜃 ] Pelo que, se 𝒖 = 𝑥1𝒆1 + 𝑥1𝒆2 = 𝑦1𝒘1 + 𝑦21𝒘2 , se tem [ 𝑦1 𝑦2 ] = [ cos 𝜃 sin 𝜃 −sin 𝜃 cos 𝜃 ] [ 𝑥1 𝑥2 ] Exº: se 𝒖 = [ 1 2 ], tem-se 𝒖↝ℬ𝜃 (cos 𝜃 + 2sin 𝜃 , − sin 𝜃 + 2cos 𝜃). Verificação: (cos 𝜃 + 2sin 𝜃) [ cos 𝜃 sin 𝜃 ] + (− sin 𝜃 + 2cos 𝜃) [ − sin 𝜃 cos 𝜃 ] = [ 1 2 ] . Aula 17: Mudança de base em espaços vectoriais Aula 17 – Jorge Buescu 4 Exº 2. Em ℝ3, mudar da base canónica ℬ𝑐𝑎𝑛 = {𝒆1, 𝒆2, 𝒆3} = {[ 1 0 0 ] , [ 0 1 0 ] , [ 0 0 1 ]} para a base ℬ𝑛𝑜𝑣𝑎 = {𝒘1, 𝒘2, 𝒘3} = {[ 1 0 0 ] , [ 1 1 0 ] , [ 1 1 1 ]}. A MMB 𝑆ℬ𝑐𝑎𝑛→ℬ𝑛𝑜𝑣𝑎 tem por colunas as coordenadas dos vectores da base nova na antiga. Como a base antiga é a canónica, ela é simplesmente a matriz cujas coluna 𝑖 é formada pelas componentes dos vectores do vector 𝒘𝑖: 𝑆 = [ 1 1 1 0 1 1 0 0 1 ]. A sua inversa é (verificar!) 𝑆−1 = [ 1 −1 0 0 1 −1 0 0 1 ]. Aula 17: Mudança de base em espaços vectoriais Aula 17 – Jorge Buescu 5 Verifiquemos a correcção deste resultado. Um vector 𝒖 = [ 𝑥 𝑦 𝑧 ] ∈ ℝ3 tem por coordenadas na base canónica 𝒖↝ℬ𝑐𝑎𝑛 (𝑥, 𝑦, 𝑧). As suas coordenadas na base ℬ𝑛𝑜𝑣𝑎 são 𝑆−1 [ 𝑥 𝑦 𝑧 ] = [ 𝑥 − 𝑦 𝑦 − 𝑧 𝑧 ], ou seja, 𝒖↝ℬ𝑛𝑜𝑣𝑎 (𝑥 − 𝑦, 𝑦 − 𝑧, 𝑧). E, com efeito, (𝑥 − 𝑦) [ 1 0 0 ] + (𝑦 − 𝑧) [ 1 1 0 ] + 𝑧 [ 1 1 1 ] = [ 𝑥 𝑦 𝑧 ] = 𝒖. O Teorema de mudança de base permite fazer a mudança de base, de uma vez só, para todos os vectores do espaço! aula 18 – transformações lineares Aula 18 – Jorge Buescu 1 Cap. 3 – TRANSFORMAÇÕES LINEARES Em tudo o que se segue 𝑉, 𝑊 designam espaços lineares. Definição 3.1 Sejam 𝑉,𝑊 espaços lineares sobre o mesmo corpo 𝕂1. Uma função 𝑇: 𝑉 → 𝑊 diz-se uma transformação linear (TL) de 𝑉 em 𝑊 se (1) ∀ 𝒗1, 𝒗2 ∈ 𝑉 𝑇(𝒗1 + 𝒗2) = 𝑇(𝒗1) + 𝑇(𝒗2), (2) ∀ 𝑐 ∈ 𝕂, ∀ 𝒗 ∈ 𝑉 𝑇(𝑐𝒗) = 𝑐𝑇(𝒗). 1 Recorde-se que 𝕂 = ℝ 𝑜𝑢 ℂ no contexto desta disciplina. aula 18 – transformações lineares Aula 18 – Jorge Buescu 2 Transformações Lineares são funções, no sentido usual do termo, de um espaço linear V noutro espaço W. A condição de serem funções lineares imposta na def. 3.1 é uma restrição fortíssima sobre as funções a considerar. Exemplo 1. ℝ é um espaço linear de dimensão 1. Quais são as transformações lineares (= funções lineares) de ℝ em ℝ? Qualquer outra função 𝑓: ℝ → ℝ que não seja dada por 𝑓(𝑥) = 𝑎𝑥 é uma função não-linear! sin 𝑥, 𝑥2, 1 1+𝑥2 … são não-lineares. Cálculo Dif e Int. lida com funções não-lineares num espaço de dim. 1 Álgebra Linear lida com funções lineares em espaços de dim 𝑚, 𝑛! aula 18 – transformações lineares Aula 18 – Jorge Buescu 3 Prop. 3.2 𝑇: 𝑉 → 𝑊 é uma transformação linear se e só se ∀ 𝑐1, 𝑐2 ∈ 𝕂, ∀ 𝒗1, 𝒗2 ∈ 𝑉 𝑇(𝑐1𝒗1 + 𝑐2𝒗2) = 𝑐1𝑇(𝒗1) + 𝑐2𝑇(𝒗2). Prop. 3.3 Seja 𝑇: 𝑉 → 𝑊 uma transformação linear. Então 𝑇 preserva combinações lineares, isto é, 𝑇 (∑ 𝑐𝑖𝒗𝑖 𝑛 𝑖=1 ) = ∑ 𝑐𝑖𝑇(𝒗𝑖). 𝑛 𝑖=1 Exemplo 2. A transformação nula 𝑇: 𝑉 → 𝑊 dada por ∀𝒗 ∈ 𝑉 𝑇(𝒗) = 𝟎𝑊 é linear. Exemplo 3. A transformação 𝑇: 𝑉 → 𝑉 que multiplica cada vector por um escalar fixo 𝜆, isto é, ∀𝒗 ∈ 𝑉 𝑇(𝒗) = 𝜆𝒗 É linear. Obs. Quando 𝜆 = 1 esta transformação é 𝑇(𝒗) = 𝒗 (identidade). aula 18 – transformações lineares Aula 18 – Jorge Buescu 4 Exemplo 4. Tranformações definidas por matrizes em ℝ𝑛: Seja 𝐴𝑚×𝑛 uma matriz 𝑚 × 𝑛. A transformação 𝑇: ℝ𝑛 → ℝ𝑚 definida por 𝑇(𝒙) = 𝐴𝒙 é linear. Exemplo 5. A transformação 𝑅𝜃: ℝ 2 → ℝ2 definida pela matriz 𝐴𝜃 = [ cos 𝜃 − sin 𝜃 sin 𝜃 cos 𝜃 ] é linear, em consequência do exemplo anterior. Ela representa, geometricamente, uma rotação pelo ângulo 𝜃 em torno da origem. Obs. Tomando 𝜃 = 0 obtemos a matriz identidade (rotação pelo ângulo 0). Interpretar a matriz quando 𝜃 = 𝜋 2 . aula 18 – transformações lineares Aula 18 – Jorge Buescu 5 Exemplo 6. O operador derivação 𝐷: 𝐶1(ℝ) → 𝐶0(ℝ) 𝑓⏟ ∈𝐶1(ℝ) ↦ 𝐷(𝑓) = 𝑓′⏟ ∈𝐶0(ℝ) , derivada de 𝑓 é linear. aula 19- representação matricial de tranformações lineares Jorge Buescu 1 Teorema 3.4 (Representação matricial de TLs) Sejam 𝑉espaço linear de dimensão 𝑛 com base ordenada ℬ𝑉 = {𝒗1, 𝒗2, … , 𝒗𝑛} e 𝑊 espaço linear de dimensão 𝑚 com base ordenada ℬ𝑊 = {𝒘1, 𝒘2, … , 𝒘𝑚} e 𝑇: 𝑉 → 𝑊 uma transformação linear de 𝑉 para 𝑊. Sejam 𝒗⏟ ∈𝑉 = ∑ 𝑥𝑖𝒗𝑖 𝑛 𝑖=1 , 𝒘⏟ ∈𝑊 = ∑ 𝑦𝑗𝒘𝑗 𝑚 𝑗=1 . Então [ 𝑦1 𝑦2 ⋮ 𝑦𝑚 ] = 𝐴𝑚×𝑛 [ 𝑥1 𝑥2 ⋮ 𝑥𝑛 ], onde 𝐴𝑚×𝑛 é a matriz cuja coluna 𝑖 são as coordenadas dos vectores 𝑇(𝒗𝑖), 𝑖 = 1, … , 𝑛. Obs. 1: A matriz 𝐴 diz-se uma representação matricial da transformação linear 𝑇. Obs. 2: A matriz 𝐴 depende da escolha das bases ℬ𝑉 e ℬ𝑊. aula 19- representação matricial de tranformações lineares Jorge Buescu 2 Construção da matriz 𝐴 ℬ𝑉 = {𝒗1, 𝒗2, … , 𝒗𝑛} ℬ𝑊 = {𝒘1, 𝒘2, … , 𝒘𝑚} 𝑇(𝒗1) = 𝑎11𝒘1 + 𝑎21𝒘2 + ⋯ + 𝑎𝑚1𝒘𝑚 → coluna 1 𝑇(𝒗2) = 𝑎12𝒘1 + 𝑎22𝒘2 + ⋯ + 𝑎𝑚2𝒘𝑚 → coluna 2 … … … 𝑇(𝒗𝑛) = 𝑎1𝑛𝒘1 + 𝑎2𝑛𝒘2 + ⋯ + 𝑎𝑚𝑛𝒘𝑚 → coluna 𝑛 col 1 col 2 … col 𝑛 ↓ ↓ ↓ 𝐴𝑚×𝑛 = [ 𝑎11 𝑎21 ⋮ 𝑎𝑚1 𝑎12 𝑎22 ⋮ 𝑎𝑚2 … … … 𝑎1𝑛 𝑎2𝑛 ⋮ 𝑎𝑚𝑛 ] aula 19- representação matricial de tranformações lineares Jorge Buescu 3 ALGUNS EXEMPLOS GEOMÉTRICOS DE TLs Exemplo 1. Reflexão em ℝ3 no plano 𝑥 = 𝑦: 𝑇: ℝ3 → ℝ3 Vamos fixar a base canónica ℬ𝑐𝑎𝑛 = {𝒆1, 𝒆2, 𝒆3} tanto no espaço de partida como de chegada. Tem-se (cfr geometria) 𝑇(𝒆1) = 𝒆2 = 0. 𝒆1 + 1. 𝒆2 + 0. 𝒆3 𝑇(𝒆2) = 𝒆1 = 1. 𝒆1 + 0. 𝒆2 + 0. 𝒆3 𝑇(𝒆3) = 𝒆3 = 0. 𝒆1 + 0. 𝒆2 + 1. 𝒆3 Assim, a representação matricial de 𝑇 nestas bases é 𝐴 = [ 0 1 0 1 0 0 0 0 1 ] Dado um vector 𝒙 = (𝑥1, 𝑥2, 𝑥3), tem-se 𝒙 ↝ℬ𝑐𝑎𝑛 (𝑥1, 𝑥2, 𝑥3), e, sendo 𝑇(𝒙) = 𝒚 ↝ℬ𝑐𝑎𝑛 (𝑦1, 𝑦2, 𝑦3), tem-se [ 𝑦1 𝑦2 𝑦3 ] = [ 0 1 0 1 0 0 0 0 1 ] [ 𝑥1 𝑥2 𝑥3 ] . aula 19- representação matricial de tranformações lineares Jorge Buescu 4 Exemplo 2. Rotações em ℝ2. 𝑅𝜃: ℝ 2 → ℝ2 é a rotação pelo ângulo 𝜃 em torno da origem. Fixando a base canónica em ℝ2 à partida e à chegada, obtém- se a representação matricial 𝐴𝜃 de 𝑅𝜃 nestas bases: 𝐴𝜃 = [ cos 𝜃 − sin 𝜃 sin 𝜃 cos 𝜃 ]. Assim, dado um vector 𝒙 ↝ℬ𝑐𝑎𝑛 (𝑥1, 𝑥2), as coordenadas do vector imagem 𝒚 ↝ℬ𝑐𝑎𝑛 (𝑦1, 𝑦2), após a rotação são dadas por [ 𝑦1 𝑦2 ] = [ cos 𝜃 − sin 𝜃 sin 𝜃 cos 𝜃 ] [ 𝑥1 𝑥2 ]. aula 19- representação matricial de tranformações lineares Jorge Buescu 5 Exemplo 3. Rotações em ℝ3 torno do eixo dos 𝑧𝑧´: 𝑅𝑧(𝜃) é a rotação pelo ângulo 𝜃 em torno do eixo 𝑧𝑧´: Fixando as bases canónicas à partida e à chegada, obtém-se a representação matricial 𝐴𝑧(𝜃) = [ cos 𝜃 − sin 𝜃 0 sin 𝜃 cos 𝜃 0 0 0 1 ] Esta é chamada a matriz de rotação em torno do eixo dos zz’. aula 19- representação matricial de tranformações lineares Jorge Buescu 6 http://blog.wolfire.com/2010/07/Linear-algebra-for-game-developers-part-4 Exemplo 4. Rotações em ℝ3 torno do eixo 𝑥𝑥´ ou do eixo 𝑦𝑦’: 𝑅𝑥(𝜃) conduz, fixando as bases canónicas, à matriz de rotação em torno do eixo 𝑥𝑥´: 𝐴𝑥(𝜃) = [ 1 0 0 0 cos 𝜃 − sin 𝜃 0 sin 𝜃 cos 𝜃 ] Analogamente, 𝑅𝑦(𝜃) conduz, fixando as bases canónicas, à matriz de rotação em torno do eixo 𝑦𝑦´: 𝐴𝑦(𝜃) = [ cos 𝜃 0 − sin 𝜃 0 1 0 sin 𝜃 0 cos 𝜃 ] aula 19- representação matricial de tranformações lineares Jorge Buescu 7 Rotações em torno de eixos diferentes não comutam! Porque o produto de matrizes não é comutativo! Em cima, está representado 𝑅𝑦(180 0) ∘ 𝑅𝑥(90 0); em baixo, 𝑅𝑥(90 0) ∘ 𝑅𝑦(180 0) Os resultados são diferentes, pois 𝐴𝑥(90 0) 𝐴𝑦(180 0) ≠ 𝐴𝑦(180 0) 𝐴𝑥(90 0): aula 19- representação matricial de tranformações lineares Jorge Buescu 8 [ 1 0 0 0 0 −1 0 1 0 ] [ −1 0 0 0 1 0 0 0 −1 ] ≠ [ −1 0 0 0 1 0 0 0 −1 ] [ 1 0 0 0 0 −1 0 1 0 ] aula 20- representação matricial de transformações lineares Jorge Buescu 1 Representações matriciais (recap): 𝑉 𝑇 → 𝑊 fixar ℬ𝑉 ↓ ↓ fixar ℬ𝑊 (𝑉,ℬ𝑉) 𝐴 → (𝑊;ℬ𝑊) A é a representação matricialde T relativamente às bases ℬ𝑉, ℬ𝑊. Se mudarem as bases, muda a matriz. aula 20- representação matricial de transformações lineares Jorge Buescu 2 Exemplo 4. O operador Derivação 𝐷: 𝒫3(ℝ) → 𝒫3(ℝ). Como vimos, o operador derivação é linear. Como a derivada de um polinómio de grau ≤ 3 𝑝 ∈ 𝒫3(ℝ) ⇔ 𝑝(𝑡) = 𝑎 + 𝑏𝑡 + 𝑐𝑡 2 + 𝑑𝑡3 é um polinómio de grau ≤ 3, 𝑝′(𝑡) = 𝑏 + 2𝑐𝑡 + 3𝑑𝑡2, o operador Derivação aplica 𝒫3(ℝ) → 𝒫3(ℝ). Uma vez que 𝒫3(ℝ) tem dimensão 4, podemos calcular, fixa uma base de 𝒫3(ℝ) à partida e à chegada, a sua representação matricial. Tomando a base canónica ℬ𝑐𝑎𝑛 = {1, 𝑡, 𝑡 2, 𝑡3} à partida e à chegada, obtemos a representação matricial 𝐴 = [ 0 1 0 0 0 0 2 0 0 0 0 0 0 3 0 0 ] Se 𝑝(𝑡) = 𝑎 + 𝑏𝑡 + 𝑐𝑡2 + 𝑑𝑡3, então 𝑝 ↝ℬ𝑐𝑎𝑛 (𝑎, 𝑏, 𝑐, 𝑑); e aula 20- representação matricial de transformações lineares Jorge Buescu 3 𝐴 [ 𝑎 𝑏 𝑐 𝑑 ] = [ 0 1 0 0 0 0 2 0 0 0 0 0 0 3 0 0 ] [ 𝑎 𝑏 𝑐 𝑑 ] = [ 𝑏 2𝑐 3𝑑 0 ], coordenadas que correspondem, na base canónica, ao polinómio 𝑝′(𝑡) = 𝑏 + 2𝑐𝑡 + 3𝑑𝑡2. Tomando para base de 𝒫3(ℝ) à partida e à chegada o conjunto ℬ1 = {1 + 𝑡, 1 − 𝑡, 𝑡 2, 𝑡3}, Obtemos para representação do mesmo operador a matriz 𝐵 = [ 1/2 −1/2 1 0 1/2 −1/2 −1 0 0 0 0 0 0 3 0 0 ]. Qual é a relação entre 𝐴 e 𝐵? Como se altera a matriz que representa uma TL quando se muda de base? aula 20- representação matricial de transformações lineares Jorge Buescu 4 Teorema 3.5 (Mudança de base em TLs) Sejam 𝑉,𝑊 espaços lineares de dimensões resp. 𝑛 e 𝑚, e 𝑇: 𝑉 → 𝑊 uma transformação linear. Suponhamos que Fixando bases ℬ𝑉,1 = {𝒗1, 𝒗2, … , 𝒗𝑛} e ℬ𝑊,1 = {𝒘1, 𝒘2, … ,𝒘𝑚}, a representação matricial de T é dada pela matriz 𝐴; Fixando bases ℬ𝑉,2 = {𝒗1 ′ , 𝒗2 ′ , … , 𝒗𝑛 ′ } e ℬ𝑊,2 = {𝒘1 ′ , 𝒘2 ′ , … ,𝒘𝑚 ′ }, a representação matricial de T é dada pela matriz 𝐵; Então tem-se 𝐵 = 𝑆𝑊 −1 𝐴 𝑆𝑉 onde 𝑆𝑉 é a matriz de mudança de base, em 𝑉, de ℬ𝑉,1 𝑝𝑎𝑟𝑎 ℬ𝑉,2, 𝑆𝑊 é a matriz de mudança de base, em 𝑊, de ℬ𝑊,1 𝑝𝑎𝑟𝑎 ℬ𝑊,2. aula 20- representação matricial de transformações lineares Jorge Buescu 5 Um caso particular de extrema importância é aquele em que V=W (o espaço de partida e chegada coincidem). Tem-se então: Corolário 3.6. Sejam 𝑉 um espaço linear de dimensão 𝑛, 𝑇: 𝑉 → 𝑉 linear, e ℬ1 = {𝒗1, 𝒗2, … , 𝒗𝑛}, ℬ2 = {𝒗1 ′ , 𝒗2 ′ , … , 𝒗𝑛 ′ } duas bases de V. Se A e B são as matrizes que representam T nas bases ℬ1 e ℬ2, tem-se 𝐵 = 𝑆−1𝐴 𝑆, Onde 𝑆 é a MMB de ℬ1 para ℬ2. aula 20- representação matricial de transformações lineares Jorge Buescu 6 Definição 3.7 (Matrizes semelhantes) Duas matrizes 𝑛 × 𝑛 A e B dizem-se semelhantes se existir uma matriz não-singular S tal que 𝐵 = 𝑆−1𝐴 𝑆. Corolário 3.8. Uma transformação linear 𝑇: 𝑉 → 𝑉 é representada, em bases diferentes, por matrizes semelhantes. aula 20- representação matricial de transformações lineares Jorge Buescu 7 Exemplo 4 (cont.) O operador derivação em 𝒫3(ℝ) é representado: em relação à ℬ𝑐𝑎𝑛 = {1, 𝑡, 𝑡 2, 𝑡3} pela matriz 𝐴 = [ 0 1 0 0 0 0 2 0 0 0 0 0 0 3 0 0 ] em relação a ℬ1 = {1 + 𝑡, 1 − 𝑡, 𝑡 2, 𝑡3} pela matriz 𝐵 = [ 1/2 −1/2 1 0 1/2 −1/2 −1 0 0 0 0 0 0 3 0 0 ]. A matriz de mudança de base de ℬ𝑐𝑎𝑛 para ℬ1 é 𝑆 = [ 1 1 0 0 1 −1 0 0 0 0 0 0 1 0 0 1 ]. Tem-se 𝑆−1 = [ 1/2 1/2 0 0 1/2 −1/2 0 0 0 0 0 0 1 0 0 1 ] e 𝐵 = 𝑆−1𝐴 𝑆 (verificar). aula 21 – a álgebra das transformações lineares Jorge Buescu | 1 Definição 3.9 Sejam 𝑆, 𝑇: 𝑉 → 𝑊 transformações lineares e 𝜆 escalar. Então: a) (𝑆 + 𝑇)(𝑣) = 𝑆(𝑣) + 𝑇(𝑣) ∀𝑣 ∈ 𝑉, b) (𝜆𝑇) (𝑣) = 𝜆 𝑇(𝑣) ∀𝑣 ∈ 𝑉. Definição 3.10 Dados espaços lineares 𝑉,𝑊, definimos o conjunto de todas as transformações lineares de 𝑉 para 𝑊: 𝐿(𝑉,𝑊) = {𝑇: 𝑇 é 𝑡𝑟𝑎𝑛𝑓𝑜𝑟𝑚𝑎çã𝑜 𝑙𝑖𝑛𝑒𝑎𝑟 𝑑𝑒 𝑉 𝑒𝑚 𝑊} Teorema 3.11 Com as operações acima, 𝐿(𝑉,𝑊) é um espaço linear. Teorema 3.12 (linearidade da composta) Sejam 𝑈, 𝑉,𝑊 espaços lineares e 𝑇:𝑈 → 𝑉, 𝑆: 𝑉 → 𝑊 transformações lineares. Então a transformação composta 𝑆 ∘ 𝑇: 𝑈 → 𝑊 é linear. aula 21 – a álgebra das transformações lineares Jorge Buescu | 2 Observação 1. Em particular, se 𝑇: 𝑉 → 𝑉, fica definida 𝑇𝑛 = 𝑇 ∘ 𝑇 ∘ … ∘ 𝑇⏟ 𝑛 𝑣𝑒𝑧𝑒𝑠 . Observação 2. Em geral, 𝑆 ∘ 𝑇 ≠ 𝑇 ∘ 𝑆 (basta ver que a composição na ordem inversa pode nem existir). Mas: 1) 𝑅 ∘ (𝑆 ∘ 𝑇) = (𝑅 ∘ 𝑆) ∘ 𝑇 (associatividade); 2) 𝑅 ∘ (𝑆 + 𝑇) = 𝑅 ∘ 𝑆 + 𝑅 ∘ 𝑇 (distributividade). As propriedades da Álgebra das TLs são formalmente idênticas às da Álgebra de Matrizes – o que é natural pois TLs são representadas por matrizes. Podemos no entanto mostrar que isto é mais do que uma analogia formal. Para precisar esta ideia, necessitamos da noção de isomorfismo. Definição 3.13 (Isomorfismo) Dois espaços lineares 𝑉 𝑒 𝑊 dizem-se isomorfos se existem uma transformação linear bijectiva 𝑇: 𝑉 → 𝑊. Qualquer T nestas condições se diz um isomorfismo entre 𝑉 𝑒 𝑊. Obs. Escreve-se 𝑉 ≅ 𝑊 e lê-se “V é isomorfo a W.” aula 21 – a álgebra das transformações lineares Jorge Buescu | 3 Exº 1: ℳ2×2(ℝ) ≅ ℝ 4. Exº 2: 𝒫3(ℝ) ≅ ℝ 4. Porque não pode 𝒫3(ℝ) ser isomorfo a ℝ 3? E a ℝ5? Teorema 3.14 (do isomorfismo) Dois espaços lineares U e V de dimensão finita sobre o mesmo corpo 𝕂 são isomorfos se e só se têm a mesma dimensão. Obs. : Qualquer espaço linear de dimensão n sobre 𝕂 é, em particular, isomorfo a 𝕂𝑛 = {(𝑥1, 𝑥2, … , 𝑥𝑛): 𝑥𝑖 ∈ 𝕂}. Assim, a menos de isomorfismo existe apenas um espaço linear de dimensão n sobre 𝕂, que é 𝕂𝑛. Exº 3: 𝒫𝑛(ℝ) ≅ ℝ 𝑛+1. Exº 4: ℳ𝑚×𝑛(ℝ) ≅ ℝ 𝑚𝑛. Exº 5: ℳ𝑚×𝑛(ℂ) ≅ ℂ 𝑚𝑛. aula 21 – a álgebra das transformações lineares Jorge Buescu | 4 Teorema 3.15. Sejam V, W espaços lineares resp. de dimensão 𝑛 𝑒 𝑚 sobre o mesmo corpo 𝕂. Então 𝐿(𝑉,𝑊) ≅ ℳ𝑚×𝑛(𝕂). Um isomorfismo é dado pela aplicação 𝑀: 𝐿(𝑉,𝑊) → ℳ𝑚×𝑛(𝕂) que associa a cada transformação 𝑇 a sua representação matricial 𝑀(𝑇) 𝑇⏟ ∈𝐿(𝑉,𝑊) ⟼ 𝑀(𝑇)⏟ , ∈ ℳ𝑚×𝑛(𝕂) fixas bases em 𝑉 𝑒 𝑊. Corolário 3.16. Sejam 𝑈, 𝑉,𝑊 espaços lineares e 𝑇:𝑈 → 𝑉, 𝑆: 𝑉 → 𝑊 transformações lineares. Fixadas bases em 𝑈, 𝑉,𝑊, designemos as representações matriciais de 𝑆 𝑒 𝑇 resp. por 𝑀(𝑆) 𝑒 𝑀(𝑇). Então a matriz que representa 𝑆 ∘ 𝑇 nestas bases é 𝑀(𝑆 ∘ 𝑇) = 𝑀(𝑆)𝑀(𝑇). Isto é: a composição de transformações lineares corresponde, fixas bases, a multiplicar as matrizes que as representam! aula 21 – a álgebra das transformações lineares Jorge Buescu | 5 Observação: Em particular, se 𝑇: 𝑉 → 𝑉 é representado pela matriz 𝑀(𝑇) em certa bases, então 𝑇𝑛 = 𝑇 ∘ 𝑇 ∘ … ∘ 𝑇⏟ 𝑛 𝑣𝑒𝑧𝑒𝑠 é representado pela matriz 𝑀(𝑇)𝑛 = 𝑀(𝑇)𝑀(𝑇)…𝑀(𝑇)⏟ 𝑛 𝑣𝑒𝑧𝑒𝑠 nessa base. aula 22- Nucleo e imagem de tranformações lineares Jorge Buescu 1Definição 3.17 (Núcleo, Imagem) Seja 𝑇: 𝑉 → 𝑊 transformação linear. Definem-se: 1. 𝒩(𝑇) = {𝒗 ∈ 𝑉: 𝑇(𝒗) = 𝟎𝑊} (Núcleo de T) 2. 𝐼𝑚(𝑇) = {𝒘 ∈ 𝑊: ∃𝒗 ∈ 𝑉 𝒘 = 𝑇(𝒗)} (Imagem de T) 𝒩(𝑇) é o subconjunto do espaço de partida 𝑉 que se aplica no vector nulo de W. 𝐼𝑚(𝑇) é o contradomínio de T: subconjunto do espaço de chegada formado por vectores que são imagem de algum vector de 𝑉. 𝒩(𝑇) ⊂ 𝑉 𝐼𝑚(𝑇) ⊂ 𝑊 aula 22- Nucleo e imagem de tranformações lineares Jorge Buescu 2 Observação: numa transformação linear tem-se sempre 𝑇(𝟎𝑉) = 𝟎𝑊, pelo que 𝒩(𝑇) é sempre não-vazio (contém pelo menos 𝟎𝑉). Exemplo 1: Consideremos 𝑇: ℝ3 → ℝ3 definida por (𝑦1, 𝑦2, 𝑦3) = 𝑇(𝑥1, 𝑥2, 𝑥3) = (𝑥1 + 𝑥2, 𝑥2, 0). Tem-se 𝒩(𝑇) = {(𝑥1, 𝑥2, 𝑥3): 𝑇(𝑥1, 𝑥2, 𝑥3) = (0,0,0)} = {(𝑥1, 𝑥2, 𝑥3) = 𝑡(0,0,1), 𝑡 ∈ ℝ} = 𝑔𝑒𝑟{(0,0,1)}; 𝐼𝑚(𝑇) = {(𝑦1, 𝑦2, 𝑦3): 𝑇(𝑥1, 𝑥2, 𝑥3) = (𝑦1, 𝑦2, 𝑦3)} = {(0, 𝑡, 𝑠): 𝑡, 𝑠 ∈ ℝ} = 𝑔𝑒𝑟{(1,0,0), (0,1,0)}. Atenção: 𝒩(𝑇) é um subconjunto do ℝ3 de partida, 𝐼𝑚(𝑇) é um subconjunto do ℝ3 de chegada! aula 22- Nucleo e imagem de tranformações lineares Jorge Buescu 3 Teorema 3.18 Nas condições da def. 3.17, 1. 𝒩(𝑇) é subespaço de 𝑉; 2. 𝐼𝑚(𝑇) é subespaço de 𝑊. Exemplo 1. Se 𝑇: 𝑉 → 𝑊 é a transformação nula (i.e. 𝑇(𝑣) = 0 ∀𝑣 ∈ 𝑉) então 𝒩(𝑇) = 𝑉, 𝐼𝑚(𝑇) = {0}. Exemplo 2. Se 𝑇: 𝑉 → 𝑉 é a transformação identidade (𝑇(𝑣) = 𝑣 ∀𝑣 ∈ 𝑉), então 𝒩(𝑇) = {0𝑉}, 𝐼𝑚(𝑇) = V. Exemplo 3. Se 𝑇: ℝ𝑛 → ℝ𝑚 é uma transformação definida por uma matriz 𝐴𝑚×𝑛, isto é, se transforma 𝒙 = (𝑥1, 𝑥2, … , 𝑥𝑛) ∈ ℝ 𝑛 em 𝑇(𝒙) = 𝐴𝑚×𝑛 [ 𝑥1 𝑥2 ⋮ 𝑥𝑛 ] ∈ ℝ𝑚, então 𝒩(𝑇) = 𝒩(𝐴), núcleo da matriz 𝐴, e 𝐼𝑚(𝑇) = col(𝐴), espaço das colunas da matriz 𝐴. aula 22- Nucleo e imagem de tranformações lineares Jorge Buescu 4 Exemplo 4. Operador derivação. Se 𝐷: 𝐶1(ℝ) → 𝐶0(ℝ) é o operador derivação, 𝒩(𝑇) = {𝑓(𝑥) = 𝑘 ∀𝑥 ∈ ℝ} (trivial) 𝐼𝑚(𝑇) = 𝐶0(ℝ) (consequência do Teorema Fundamental do Cálculo) Definição 3.19 (nulidade, característica) Seja 𝑇: 𝑉 → 𝑊 transformação linear. Definem-se: 1. nul(𝑇) = dim 𝒩(𝑇) (nulidade de T) 2. car(𝑇) = dim 𝐼𝑚(𝑇) (característica de T) O exemplo 3 mostra que, para transformações de ℝ𝑛em ℝ𝑚 , necessariamente definidas por matrizes 𝑚 × 𝑛, se tem nul(𝑇) = dim 𝒩(𝑇) = dim 𝒩(𝐴) = nul(𝐴) e car(𝑇) = dim 𝐼𝑚(𝑇) = dim col(𝐴) = car(𝐴); e, pelo Teorema da característica-nulidade para matrizes (Teorema 2.20), sabemos que nul(𝐴) + car(𝐴) = 𝑛 (n= nº colunas de A) Este facto é verdadeiro para transformações lineares gerais! aula 22- Nucleo e imagem de tranformações lineares Jorge Buescu 5 Teorema 3.20 (do núcleo-imagem) Se V tem dimensão finita e 𝑇: 𝑉 → 𝑊 é transformação linear, então 𝐼𝑚(𝑇) tem dimensão finita e dim 𝒩(𝑇) + dim 𝐼𝑚(𝑇) = dim 𝑉 (*) Observação. Se V tem dimensão infinita, então 𝒩(𝑇), ou 𝐼𝑚(𝑇), ou ambos, têm dimensão infinita. Assim, o teorema do núcleo-imagem verifica-se mesmo em dimensão infinita Exemplo: Para o operador derivação, dim 𝐶1(ℝ) = ∞ dim 𝒩(𝐷) = 1 dim 𝐶0(ℝ) = ∞ e a igualdade (*) do Teorema 3.20 assume a forma 1 + ∞ = ∞. aula 23- invertibilidade de tranformações lineares Jorge Buescu 1 Definição 3.21 (Invertibilidade de funções) Dados conjuntos 𝑉, 𝑊 e uma função 𝑇: 𝑉 → 𝑊, diz-se que T é invertível com inversa S se existe 𝑆: 𝑇(𝑉) → 𝑉 tal que 𝑆 ∘ 𝑇 = 𝐼𝑉; 𝑇 ∘ 𝑆 = 𝐼𝑇(𝑉). Designa-se a inversa 𝑆 𝑑𝑒 𝑇 por 𝑇−1. Teorema 3.22 1. Se existe 𝑆: 𝑇(𝑉) → 𝑉 tal que 𝑆 ∘ 𝑇 = 𝐼𝑉 , então 𝑆 = 𝑇 −1. 2. T é invertível se e só se T é injectiva. Obs. Recorde-se que T injectiva significa que objectos diferentes têm imagens diferentes por T: 𝑥 ≠ 𝑦 ⇒ 𝑇(𝑥) ≠ 𝑇(𝑦). aula 23- invertibilidade de tranformações lineares Jorge Buescu 2 Teorema 3.23 (Invertibilidade de transformações lineares) Sejam 𝑉, 𝑊 espaços lineares e 𝑇: 𝑉 → 𝑊 uma transformação linear. São equivalentes as afirmações: a) 𝑇 é injectiva; b) 𝑇 é invertível e 𝑇−1: 𝐼𝑚(𝑇) → 𝑉 é linear; c) 𝒩(𝑇) = {𝟎}. Se 𝑉 tem dimensão finita, dim 𝑉 = 𝑛, estas afirmações são ainda equivalentes a: d) dim 𝐼𝑚(𝑇) = 𝑛; e) 𝑇 transforma vectores LI de 𝑉 em vectores LI de 𝑊; f) 𝑇 transforma bases de 𝑉 em bases de 𝑊. Corolário 3.24 Se 𝑇: 𝑉 → 𝑊 é linear e invertível, então é um isomorfismo entre 𝑉 e 𝐼𝑚(𝑇). Dem: dim 𝐼𝑚(𝑉) = dim 𝑉 é, pelo Teorema do isomorfismo 3.12, equivalente a 𝐼𝑚(𝑉) ≅ 𝑉. aula 23- invertibilidade de tranformações lineares Jorge Buescu 3 Proposição 3.25 Seja 𝑇: 𝑉 → 𝑊 linear e dim 𝑉 = 𝑛. Fixemos bases ℬ𝑉 e ℬ𝑊 em 𝑉 𝑒 𝑊, respectivamente, e seja A a matriz que representa 𝑇 nestas bases. Se 𝑊 = 𝐼𝑚(𝑇)1 [isto é, se 𝑇 é sobrejectiva] então T é invertível sse a matriz A é não-singular. A matriz que representa 𝑇−1nestas bases é 𝐴−1. Exº 1: É condição necessária e suficiente para que uma transformação linear T seja invertível sobre a sua imagem que exista uma sua representação matricial com núcleo trivial. 1 isto é, se 𝑇 é sobrejectiva. aulas 24/26- produtos internos Jorge Buescu 1 Capítulo 4 – ESPAÇOS COM PRODUTO INTERNO Definição 4.1 (Produto interno) Seja 𝑉 um espaço vectorial real. Um produto interno em 𝑉 é uma função que associa a cada par de vectores 𝒖, 𝒗 ∈ 𝑉 um número real 〈𝒖, 𝒗〉 satisfazendo as seguintes condições: 1. 〈𝒖, 𝒗〉 = 〈𝒗, 𝒖〉 (Simetria) 2. 〈𝒖 + 𝒗, 𝒘〉 = 〈𝒖, 𝒘〉 + 〈𝒗, 𝒘〉 (aditividade) 3. 〈𝑘𝒖, 𝒗〉 = 𝑘〈𝒖, 𝒗〉 para todo o escalar 𝑘 ∈ ℝ (Homogeneidade) 4. 〈𝒗, 𝒗〉 ≥ 0 ∀𝒗 ∈ 𝑉 e 〈𝒗, 𝒗〉 = 𝟎 ⇔ 𝒗 = 𝟎. (Positividade) Um espaço vectorial V munido de um produto interno diz-se um espaço com produto interno. Observação: Aditividade e homogeneidade conjuntamente implicam que o produto interno é uma função linear da primeira variável fixa a segunda. Simetria implica que é linear na segunda fixa a primeira. aulas 24/26- produtos internos Jorge Buescu 2 Exemplo 1: Produto interno usual em ℝ𝑛 Dados vectores de ℝ𝑛 𝒖 = (𝑢1, 𝑢2, … , 𝑢𝑛), 𝒗 = (𝑣1, 𝑣2, … , 𝑣𝑛) define-se o produto interno usual como 〈𝒖, 𝒗〉 = 𝑢1𝑣1 + 𝑢2𝑣2 + ⋯ + 𝑢𝑛𝑣𝑛. (verificar que é um produto interno) Por vezes a notação utilizada para este produto interno de ℝ𝑛 é 𝒖 ⋅ 𝒗. Exemplo 2. Produto interno não-usual em ℝ2 A função 〈 , 〉: ℝ2 → ℝ tal que, dados 𝒖 = (𝑢1, 𝑢2), 𝒗 = (𝑣1, 𝑣2), lhes associa o real 〈𝒖, 𝒗〉 = 4𝑢1𝑣1 + 𝑢1𝑣2 + 𝑢2𝑣1 + 𝑢2𝑣2 É um produto interno (não-usual) em ℝ2 aulas 24/26- produtos internos Jorge Buescu 3 Definição 4.2. Se 𝑉 é um espaço com produto interno, a norma (ou comprimento) de um vector 𝒖 é definida por ‖𝒖‖ = 〈𝒖, 𝒖〉1/2. A distância entre dois pontos 𝒖 e 𝒗 num espaço vectorial é dada por 𝑑(𝒖, 𝒗) = ‖𝒖 − 𝒗‖. Exemplo 3: os conceitos de norma e distância em ℝ𝑛 munido do produto interno usual são os habituais. Qual a esfera unitária?
Compartilhar