Baixe o app para aproveitar ainda mais
Prévia do material em texto
Notas de Aula A´lgebra Linear I Rodney Josue´ Biezuner 1 Departamento de Matema´tica Instituto de Cieˆncias Exatas (ICEx) Universidade Federal de Minas Gerais (UFMG) Notas de aula da disciplina A´lgebra Linear I dos cursos de graduac¸a˜o em Matema´tica e Matema´tica Computacional, ministrado durante o segundo semestre de 2008. 20 de novembro de 2008 1E-mail: rodney@mat.ufmg.br; homepage: http://www.mat.ufmg.br/∼rodney. Suma´rio 1 Espac¸os Vetoriais 3 1.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.3 Bases e Dimensa˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.3.1 Conjuntos Linearmente Dependentes e Independentes . . . . . . . . . . . . . . . . . . 6 1.3.2 Conjuntos Geradores e Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.3.3 Coordenadas de Vetores em Relac¸a˜o a uma Base . . . . . . . . . . . . . . . . . . . . . 9 1.4 Subespac¸os Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.5 Somas de Subespac¸os Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2 Matrizes 14 2.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.2 Operac¸o˜es com Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.3 Mudanc¸a de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.4 Matrizes Especiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.4.1 Matrizes Diagonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.4.2 Matrizes Triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.4.3 Matrizes Sime´tricas e Anti-sime´tricas . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.4.4 Matrizes Nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 3 Transformac¸o˜es Lineares 25 3.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.2 Representac¸o˜es de Transformac¸o˜es Lineares atrave´s de Matrizes . . . . . . . . . . . . . . . . . 27 3.3 Exemplos de Operadores Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 3.3.1 Operadores Lineares no Plano R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 3.3.2 Operadores Lineares no Espac¸o R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.3.3 Operadores Lineares em Espac¸os de Dimensa˜o Infinita . . . . . . . . . . . . . . . . . . 32 3.3.4 Funcionais Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.4 Composic¸a˜o de Transformac¸o˜es Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.5 Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.6 Teorema do Nu´cleo e da Imagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.7 Teorema do Posto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 3.8 Mudanc¸a de Base e Semelhanc¸a de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 4 Espac¸os com Produto Interno 43 4.1 Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 4.2 Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 4.3 Bases Ortonormais e Projec¸o˜es Ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.4 Operador Adjunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.5 Operadores Unita´rios e Isometrias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 1 Rodney Josue´ Biezuner 2 5 Determinantes 59 5.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 5.2 Existeˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 5.3 Unicidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 5.3.1 Permutac¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 5.3.2 Demonstrac¸a˜o da Unicidade da Func¸a˜o Determinante . . . . . . . . . . . . . . . . . . 63 5.3.3 Fo´rmula do Determinante atrave´s de Permutac¸o˜es . . . . . . . . . . . . . . . . . . . . 65 5.4 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 5.5 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 6 Diagonalizac¸a˜o de Operadores 70 6.1 Polinoˆmios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 6.2 Autovalores, Autovetores e Autoespac¸os . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 6.3 Operadores Diagonaliza´veis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 6.4 Ideais de Polinoˆmios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 6.5 Polinoˆmio Mı´nimo e o Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . 80 6.6 Polinoˆmio Mı´nimo e Operadores Triangulariza´veis e Diagonaliza´veis . . . . . . . . . . . . . . 83 6.7 Diagonalizac¸a˜o de Operadores Auto-adjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 Cap´ıtulo 1 Espac¸os Vetoriais 1.1 Definic¸a˜o Intuitivamente, um espac¸o vetorial e´ um conjunto de elementos, que chamamos vetores, com os quais podemos efetuar combinac¸o˜es lineares, isto e´, somas de elementos e multiplicac¸a˜o de elementos por nu´meros, que chamamos escalares. Matematicamente falando, os escalares sa˜o elementos de um conjunto munido de uma estrutura alge´brica chamada corpo. Grosseiramente, um corpo nada mais e´ que um conjunto de elementos que podem ser somados e multiplicados, a ordem em que estas operac¸o˜es sa˜o realizadas na˜o tendo importaˆncia para o resultado, onde todo elemento possui um inverso aditivo, existe um elemento neutro na adic¸a˜o chamado zero (0), existe um elemento neutro na multiplicac¸a˜o chamado identidade (1), todo elemento possui um inverso multiplicativo com excec¸a˜o do zero e existe uma relac¸a˜o entre as duas operac¸o˜es. Exemplos de corpos sa˜o o conjunto dos nu´meros reais R e o conjunto dos nu´meros complexos C. Neste curso, sera˜o os u´nicos corpos que consideraremos. 1.1 Definic¸a˜o. Um corpo F e´ um conjunto munido de duas operac¸o˜es bina´rias F × F −→ F, adic¸a˜o e multiplicac¸a˜o que satisfazem as seguintes propriedades: Adic¸a˜o: 1. Comutatividade: para todos α, β ∈ F α+ β = β + α. 2. Associatividade: para todos α, β, γ ∈ F α+ (β + γ) = (α+ β) + γ. 3. Existeˆncia de Elemento Neutro: existe um elemento 0 ∈ F tal que para todo α ∈ F temos α+ 0 = 0 + α = α. 4. Existeˆncia de Inverso: para todo α ∈ F existe −α ∈ F tal que α+ (−α) = 0. Multiplicac¸a˜o: 1. Comutatividade: para todos α, β ∈ F αβ = βα. 3 Rodney Josue´ Biezuner 4 2. Associatividade: para todos α, β, γ ∈ F α (βγ) = (αβ) γ. 3. Existeˆncia de Elemento Neutro: existe um elemento 1 ∈ F tal que para todo α ∈ F temos α1 = 1α = α. 4. Existeˆncia de Inverso: para todo α ∈ F existe α−1 ∈ F tal que αα−1 = 1. Distributividade: 1. Para todos α, β, γ ∈ F α (β + γ) = αβ + αγ. Como mencionado acima, sempre que nos referirmos ao corpo F, fica subentendido que F pode se referir tanto ao corpo dos reais R, quanto ao corpo dos complexos C. 1.2 Definic¸a˜o.Um espac¸o vetorial sobre um corpo de escalares F e´ um conjunto V munido de duas operac¸o˜es, adic¸a˜o de vetores V × V −→ V e multiplicac¸a˜o por escalar F× V −→ V que satisfazem as seguintes propriedades: Adic¸a˜o: 1. Comutatividade: para todos v, w ∈ V v + w = w + v. 2. Associatividade: para todos v, w, u ∈ V v + (w + u) = (v + w) + u. 3. Existeˆncia de Elemento Neutro: existe um elemento 0 ∈ V tal que para todo v ∈ V temos v + 0 = 0 + v = v. 4. Existeˆncia de Inverso: para todo v ∈ V existe −v ∈ V tal que v + (−v) = (−v) + v = 0. Multiplicac¸a˜o por Escalar: 1. Existeˆncia de Elemento Neutro: para todo v ∈ V vale 1v = v. 2. Associatividade: para todos α, β ∈ F e para todo v ∈ V vale α (βv) = (αβ) v. Distributividade: 1. Distributividade em relac¸a˜o a` soma: para todos v, w ∈ V e para todo α ∈ F α (v + w) = αv + αw. Rodney Josue´ Biezuner 5 2. Distributividade em relac¸a˜o a` multiplicac¸a˜o por escalar : para todo v ∈ V e para todos α, β ∈ F (α+ β) v = αv + βv. Quando F = R, o espac¸o vetorial e´ chamado um espac¸o vetorial real, enquanto que se F = C, o espac¸o vetorial e´ chamado um espac¸o vetorial complexo. Das propriedades (ou axiomas) que definem um espac¸o vetorial, seguem algumas consequ¨eˆncias simples: 1.3 Proposic¸a˜o. As seguintes afirmativas sa˜o va´lidas: (i) α0 = 0. Prova: Temos α0 = α (0 + 0) = α0 + α0, logo α0 + (−α0) = α0 + α0 + (−α0) , donde 0 = α0. (ii) 0v = 0. Prova: Temos 0v = (0 + 0) v = 0v + 0v, logo 0v + (−0v) = 0v + 0v + (−0v) , donde 0 = 0v. (iii) Se α 6= 0 e v 6= 0, enta˜o αv 6= 0. Prova: Suponha que exista α ∈ F, α 6= 0, tal que αv = 0 para algum v ∈ V , v 6= 0. Enta˜o α−1 (αv) = α−10 = 0 logo ( α−1α ) v = 0, donde 1v = 0, ou seja, v = 0, contradic¸a˜o. (i), (ii) e (iii) juntas implicam que αv = 0 se e somente se α = 0 ou v = 0. (iv) (−1) v = −v. Prova: Temos 0 = 0v = [1 + (−1)] v = 1v + (−1) v = v + (−1) v, logo −v + 0 = −v + v + (−1) v, donde −v = (−1) v. (v) Unicidade do vetor nulo. Prova: 0′ = 0′ + 0 = 0. Rodney Josue´ Biezuner 6 1.2 Exemplos 1.4 Exemplo. Rn sob as operac¸o˜es usuais e´ um espac¸o vetorial real, enquanto que Cn sob as operac¸o˜es usuais e´ um espac¸o vetorial complexo. Ou seja, quando definimos a soma de n-uplas de nu´meros reais ou nu´meros complexos por (x1, . . . , xn) + (y1, . . . , yn) := (x1 + y1, . . . , xn + yn) e a multiplicac¸a˜o por escalares por α (x1, . . . , xn) := (αx1, . . . , αxn) . 1.5 Exemplo. O conjunto Mm×n (R) das matrizes reais m×n sob as operac¸o˜es usuais e´ um espac¸o vetorial real. O conjuntoMm×n (C) das matrizes complexas m×n sob as operac¸o˜es usuais e´ um espac¸o vetorial complexo. 1.6 Exemplo. O conjunto Pn (R) dos polinoˆmios (com coeficientes) reais de grau menor que ou igual a n sob as operac¸o˜es usuais e´ um espac¸o vetorial real. O conjunto P (R) de todos os polinoˆmios reais tambe´m e´ um espac¸o vetorial real. O conjunto Pn (C) dos polinoˆmios (com coeficientes) complexos de grau menor que ou igual a n sob as operac¸o˜es usuais e´ um espac¸o vetorial complexo. O conjunto P (C) de todos os polinoˆmios complexos tambe´m e´ um espac¸o vetorial complexo. 1.7 Exemplo. O conjunto FR das func¸o˜es reais e´ um espac¸o vetorial real. O conjunto FC e´ um espac¸o vetorial complexo. 1.8 Exemplo. O conjunto C0 ([0, 1]) das func¸o˜es reais cont´ınuas definidas no intervalo [0, 1], o conjunto Ck ([0, 1]) das func¸o˜es reais com k derivadas cont´ınuas definidas no intervalo [0, 1], e o conjunto C∞ ([0, 1]) das func¸o˜es reais infinitamente diferencia´veis definidas no intervalo [0, 1] sa˜o espac¸os ve- toriais reais. 1.3 Bases e Dimensa˜o 1.3.1 Conjuntos Linearmente Dependentes e Independentes 1.9 Definic¸a˜o. Seja S ⊂ V um subconjunto qualquer de um espac¸o vetorial V sobre o corpo F. Uma combinac¸a˜o linear de elementos de S e´ uma soma finita α1v1 + . . .+ αkvk com α1, . . . , αk ∈ F e v1, . . . , vk ∈ S. 1.10 Definic¸a˜o. Dizemos que um conjunto S ⊂ V e´ linearmente dependente se existir um nu´mero finito de elementos v1, . . . , vk ∈ S e escalares α1, . . . , αk ∈ F na˜o todos nulos tais que α1v1 + . . .+ αkvk = 0. Caso contra´rio, dizemos que S e´ linearmente independente. Em outras palavras, S e´ linearmente dependente se o vetor nulo pode ser escrito como uma combinac¸a˜o linear na˜o-trivial de elementos de S. Da definic¸a˜o segue que um subconjunto linearmente independente na˜o pode conter o vetor nulo. 1.11 Lema. Um subconjunto S ⊂ V e´ linearmente dependente se e somente se algum elemento de S puder ser escrito como combinac¸a˜o linear de outros elementos de S. Rodney Josue´ Biezuner 7 Prova. Se S e´ linearmente dependente, enta˜o existem vetores v1, . . . , vk ∈ S e escalares α1, . . . , αk na˜o todos nulos tais que α1v1 + . . .+ αkvk = 0. Suponha αi 6= 0. Enta˜o podemos escrever vi = α1 αi v1 + . . .+ αi−1 αi vi−1 + αi+1 αi vi+1 + . . .+ αk αi vk, isto e´, vi e´ combinac¸a˜o linear de outros elementos de S. Reciprocamente, se v0, v1, . . . , vk ∈ S e α1, . . . , αk ∈ F sa˜o tais que v0 = α1v1 + . . .+ αkvk, enta˜o v0 − α1v1 − . . .− αkvk = 0 e´ uma combinac¸a˜o linear na˜o-trivial de elementos de S. ¥ 1.3.2 Conjuntos Geradores e Bases 1.12 Definic¸a˜o. Dizemos que um conjunto S ⊂ V gera o espac¸o V se para todo v ∈ X existirem v1, . . . , vk ∈ S e escalares α1, . . . , αk ∈ F tais que v = α1v1 + . . .+ αkvk. 1.13 Definic¸a˜o. Dizemos que um conjunto B ⊂ V e´ uma base para o espac¸o V se: • B gera V. • B e´ linearmente independente. 1.14 Definic¸a˜o. Dizemos que V e´ um espac¸o vetorial de dimensa˜o finita se V possui uma base com um nu´mero finito de elementos ou se V = {0}. O nu´mero de elementos nas bases de um espac¸o vetorial e´ um invariante do espac¸o vetorial: 1.15 Teorema. Todas as bases de um espac¸o vetorial de dimensa˜o finita possuem o mesmo nu´mero de elementos. Prova. A demonstrac¸a˜o deste resultado segue do seguinte lema: 1.16 Lema. Suponha que S = {v1, . . . , vk} gera o espac¸o vetorial V e que S′ = {w1, . . . , wl} e´ um subcon- junto linearmente independente de V . Enta˜o l 6 k. Prova. Suponha por absurdo que l > k. Como S gera V e S′ e´ linearmente independente (em particular, na˜o conte´m o vetor nulo) temos w1 = α1v1 + . . .+ αkvk para alguns escalares α1, . . . , αk na˜o todos nulos. Podemos supor α1 6= 0, reordenando os ı´ndices se necessa´rio. Afirmamos que podemos enta˜o substituir v1 por w1, isto e´, que o conjunto S1 = {w1, v2, . . . , vk} gera V . De fato, podemos escrever v1 = 1 α1 w1 − α2 α1 v2 − . . .− αk α1 vk, Rodney Josue´ Biezuner 8 de modo que se v = β1v1 + β2v2 + . . .+ βkvk, enta˜o v = β1 α1 w1 + ( β2 − β1α2 α1 ) v2 + . . .+ ( βk − β1αk α1 ) vk. Agora, como S1 gera V e S′ e´ linearmente independente, temos w2 = α1w1 + α2v2 + . . .+ αkvk para alguns escalares α1, . . . , αk, com α2, . . . , αk na˜o todos nulos (caso contra´rio, w2 seria um mu´ltiplo escalar de w1). Supondo α2 6= 0, reordenando os ı´ndices se necessa´rio, usamos o mesmo argumento acima para concluir que podemos substituir v2 por w2, de modo que o conjunto S2 = {w1, w2, v3, . . . , vk} gera V . Repetindo este procedimento sucessivamente, conclu´ımos que podemos substituir todos os vi’s por um nu´mero equivalente de wi’s (ja´ que, por hipo´tese de absurdo, l > k), e obter que o subconjunto pro´prio Sk = {w1, . . . , wk} de S′ gera V . Mas enta˜o, por definic¸a˜o de conjunto gerador, existem escalares α1, . . . , αk tais que wk+1 = α1w1 + . . .+ αkwk contrariando o fato que S′ e´ linearmente independente. ¥ Sejam B1 = {v1, . . . , vk} e B2 = {w1, . . . , wl} duas bases do espac¸o vetorial de dimensa˜o finita V . Aplicando o Lema 1.16 ao conjunto gerador B1 e ao conjunto linearmente independente B2 conclu´ımosque l 6 k; aplicando o Lema 1.16 ao conjunto gerador B2 e ao conjunto linearmente independente B1 conclu´ımos que k 6 l. Portanto, k = l. ¥ 1.17 Definic¸a˜o. O nu´mero de elementos de uma base qualquer de um espac¸o vetorial de dimensa˜o finita V e´ chamada a dimensa˜o do espac¸o e denotada dimV . Se V = {0}, enta˜o definimos dimV = 0. 1.18 Teorema. Todo espac¸o vetorial na˜o-nulo gerado por um subconjunto finito possui uma base finita. Prova. Suponha que S seja um subconjunto finito que gera o subespac¸o vetorial na˜o-nulo V . Se S for linearmente independente, enta˜o S e´ a base procurada e na˜o precisamos fazer nada. Caso contra´rio, se S e´ linearmente dependente, podemos retirar um elemento de S e o conjunto resultante ainda gerara´ V (retire um elemento que seja combinac¸a˜o linear dos demais). Se o conjunto restante for linearmente independente, enta˜o ele sera´ uma base finita para V . Caso contra´rio, repetimos o procedimento, ate´ obter um conjunto linearmente independente. ¥ 1.19 Lema. Se dimV = n, enta˜o todo subconjunto de V com mais de n vetores e´ linearmente dependente. Prova. Segue imediatamente do Lema 1.16. ¥ 1.20 Lema. Seja S um subconjunto linearmente independente de um espac¸o vetorial V . Suponha que w e´ um vetor de V que na˜o e´ gerado por S. Enta˜o S ∪ {w} e´ linearmente independente. Prova. Suponha que v1, . . . , vk ∈ S e existem escalares α1, . . . , αk, β tais que α1v1 + . . .+ αkvk + βw = 0. Enta˜o β = 0, caso contra´rio w = α1 β v1 + . . .+ αk β vk, o que implicaria que w e´ gerado por V , contrariando a hipo´tese. Mas enta˜o α1v1 + . . .+ αkvk = 0, e como S e´ L.I., segue que α1 = . . . = αk = 0. ¥ Rodney Josue´ Biezuner 9 1.21 Teorema. Todo subconjunto linearmente independente de um espac¸o vetorial de dimensa˜o finita pode ser completado ate´ uma base do espac¸o. Prova. Suponha que S = {v1, . . . , vk} seja um subconjunto linearmente independente de V . Se S na˜o e´ uma base para V , ou seja, se k < n := dimV , enta˜o existe um vetor vk+1 ∈ V tal que vk+1 na˜o e´ uma combinac¸a˜o linear de elementos de S. Segue do Lema 1.20 que o conjunto S1 = {v1, . . . , vk, vk+1} e´ linearmente independente. Se k + 1 < n, repetimos o processo. Continuamos este argumento, repetindo o processo n − k vezes ate´ encontrar um subconjunto Sn−k = {v1, . . . , vk, vk+1, . . . , vn} que e´ uma base para V . ¥ 1.3.3 Coordenadas de Vetores em Relac¸a˜o a uma Base 1.22 Proposic¸a˜o. Seja V um espac¸o vetorial de dimensa˜o finita e B = {v1, . . . , vn} uma base para V . Enta˜o todo vetor em V se escreve de maneira u´nica como uma combinac¸a˜o linear de vetores de B. Prova. Suponha que v ∈ V pode ser representado por duas combinac¸o˜es lineares de vetores de B: v = α1v1 + . . .+ αnvn, v = α′1v1 + . . .+ α ′ nvn. Enta˜o (α1 − α′1) v1 + . . .+ (αn − α′n) vn = 0, donde α1 = α′1, . . . , αn = α ′ n. ¥ 1.23 Definic¸a˜o. Seja V um espac¸o vetorial de dimensa˜o finita e B = {v1, . . . , vn} uma base ordenada para V . Dado v ∈ V , se v = α1v1 + . . .+ αnvn, a n-upla (α1, . . . , αn) e´ chamada as coordenadas de v com relac¸a˜o a` base B, e denotada por [v]B = (α1, . . . , αn) . As coordenadas de um vetor dependem da base escolhida. No pro´ximo cap´ıtulo, veremos como as coordenadas de um vetor em relac¸a˜o a uma base mudam quando mudamos de base. 1.4 Subespac¸os Vetoriais 1.24 Definic¸a˜o. Seja V um espac¸o vetorial sobre um corpo F. Um subespac¸o de V e´ um subconjunto W ⊂ V que e´ ele pro´prio um espac¸o vetorial sobre F com as operac¸o˜es de soma e multiplicac¸a˜o escalar induzidas de V . 1.25 Proposic¸a˜o. Um subconjunto na˜o-vazio W ⊂ V e´ um subespac¸o de V se e somente se ele e´ fechado com relac¸a˜o a`s operac¸o˜es de soma e multiplicac¸a˜o por escalar. Em outras palavras, W ⊂ V e´ um subespac¸o de V se e somente se αv + βw ∈W para todos v, w ∈ V e para todos α, β ∈ F. Prova. Suponha que W ⊂ V , W 6= ∅, e´ fechado com relac¸a˜o a`s operac¸o˜es de soma e multiplicac¸a˜o por escalar. Como as operac¸o˜es de soma e multiplicac¸a˜o por escalar definidas em W sa˜o herdadas das operac¸o˜es definidas em V , comutatividade, associatividade e distributividade sa˜o imediatamente va´lidas e 1v = v para todo v ∈W . Basta apenas verificar as duas propriedades seguintes: • 0 ∈W : pois se v ∈W e´ qualquer vetor (lembre-se que W 6= ∅), enta˜o 0 = 0v ∈W . • Se v ∈W , enta˜o −v ∈W : pois −v = (−1) v ∈W. Rodney Josue´ Biezuner 10 A rec´ıproca e´ o´bvia, pois V e´ um espac¸o vetorial sobre F e W ⊂ V e´ um espac¸o vetorial sobre F com as operac¸o˜es de soma e multiplicac¸a˜o escalar induzidas do pro´prio V . ¥ 1.26 Teorema. A intersec¸a˜o de qualquer famı´lia de subespac¸os de um espac¸o vetorial V e´ um subespac¸o de V . Prova. Seja {Wλ}λ∈Λ uma colec¸a˜o de subespac¸os de V e W = ⋂ λ∈Λ Wλ sua intersec¸a˜o. Como cada Wλ conte´m o vetor nulo, segue que W tambe´m conte´m o vetor nulo e podemos usar a Proposic¸a˜o 1.25 para provar que W e´ um subespac¸o. Dados quaisquer v, w ∈ W , temos que v, w ∈ Wλ para cada ı´ndice λ ∈ Λ (por definic¸a˜o de intersec¸a˜o de conjuntos), logo αv + βw ∈ Wλ para todos α, β ∈ F (pela Proposic¸a˜o 1.25, pois cada Wλ e´ um subespac¸o de V ), portanto αv+βw ∈W para todos α, β ∈ F (novamente, pela definic¸a˜o de intersec¸a˜o de conjuntos). Segue da Proposic¸a˜o 1.25 que W e´ um subespac¸o. ¥ Segue do Teorema 1.26 que, dado um subconjunto de um espac¸o vetorial, existe um menor subespac¸o que o conte´m: 1.27 Definic¸a˜o. Seja V um espac¸o vetorial sobre um corpo F e S um subconjunto de V . O subespac¸o gerado por S e´ a intersec¸a˜o de todos os subespac¸os de V que conte´m S. Denotaremos o subespac¸o gerado por S por 〈S〉. 1.28 Proposic¸a˜o. O subespac¸o gerado por um subconjunto na˜o-vazio S de um espac¸o vetorial V e´ o con- junto de todas as combinac¸o˜es lineares de elementos de S. Prova. Denote por W o subespac¸o gerado por S e por W ′ o conjunto de todas as combinac¸o˜es lineares de elementos de S. Pela Proposic¸a˜o 1.25, como S ⊂ W , segue que W ′ ⊂ W . Por outro lado, tambe´m pela Proposic¸a˜o 1.25 o conjunto W ′ e´ um subespac¸o de V , logo W ⊂W ′ por definic¸a˜o (pois W ′ e´ um subespac¸o de V que conte´m S). Assim W ′ =W . ¥ 1.29 Lema. Seja W um subespac¸o de um espac¸o vetorial de dimensa˜o finita V . Enta˜o todo subconjunto linearmente independente de W e´ finito e pode ser completado ate´ uma base de W . Prova. Seja S um subconjunto linearmente independente de W com k elementos e suponha que dimV = n. Como S e´ tambe´m um conjunto linearmente independente de V , segue do Lema 1.16 que S e´ finito; mais ainda, que k 6 n. Para completar S ate´ uma base de W seguimos um procedimento semelhante ao usado no Teorema 1.21: se S na˜o gera W , obtemos um vetor w1 ∈ W tal que W na˜o e´ gerado por S. Segue do Lema 1.20 que S1 = S ∪ {w1} e´ linearmente independente. Se S1 gera W , enta˜o ele e´ uma base para W . Caso contra´rio, existe um vetor w2 ∈ W que na˜o e´ gerado por S1. Novamente pelo Lema 1.20, o conjunto S2 = S1 ∪ {w2} = S ∪ {w1, w2} e´ linearmente independente. Continuando desta forma, eventualmente encontraremos um conjunto Sl = S ∪ {w1, . . . , wl}, com l 6 n− k, que deve ser uma base para W . De fato, suponha por absurdo que Sl possui n elementos e na˜o gera W . Enta˜o existe um vetor w ∈ W que na˜o e´ gerado por Sl, o que implica pelo Lema 1.20 que Sl ∪ {w} e´ um conjunto linearmente independente em W , e portanto tambe´m em V , com n+ 1 elementos, o que e´ uma contradic¸a˜o. ¥ 1.30 Teorema. Se W e´ um subespac¸o pro´prio de um espac¸o vetorial de dimensa˜o finita V , enta˜o W tambe´m tem dimensa˜o finita e dimW < dimV . Prova. O resultado e´ o´bvio se W e´ o subespac¸o nulo. Se W na˜o e´ o subespac¸o nulo, seja v ∈ W , v 6= 0. Pelo Lema 1.29, existe uma base de W contendo v. Como esta base de W e´ em particular um subconjunto linearmente independente de V , ela na˜opode conter mais que dimV elementos. Portanto, dimW 6 dimV . Por outro lado, como W e´ um subespac¸o pro´prio de V , existe um vetor w ∈ V tal que w /∈W . Adicionando w a qualquer base de W , obtemos pelo Lema 1.20 um conjunto linearmente independente de V . Isso implica que dimW < dimV . ¥ Rodney Josue´ Biezuner 11 1.5 Somas de Subespac¸os Vetoriais 1.31 Definic¸a˜o. Sejam S1, . . . , Sk subconjuntos de um espac¸o vetorial V . Definimos a soma dos subcon- juntos S1, . . . , Sk como sendo o conjunto k∑ i=1 Si = S1 + . . .+ Sk = {v1 + . . .+ vk : vi ∈ Si para i = 1, . . . k} . 1.32 Proposic¸a˜o. Se W1, . . . ,Wk sa˜o subespac¸os de um espac¸o vetorial V , enta˜o a sua soma W1+ . . .+Wk tambe´m e´ um subespac¸o vetorial de V e conte´m cada um dos subespac¸os Wi, i = 1, . . . k. Prova. Pois se v = w1 + . . .+ wk, w = w′1 + . . .+ w ′ k, sa˜o dois vetores quaisquer de W1 + . . . +Wk com wi, w′i ∈ Wi para cada i e α, β sa˜o escalares quaisquer, segue que αv + βw = (αw1 + βw′1) + . . .+ (αwk + βw ′ k) ∈W1 + . . .+Wk. A u´ltima afirmac¸a˜o do enunciado e´ o´bvia, pois o vetor nulo esta em cada um dos subespac¸os. ¥ 1.33 Teorema. Se W1,W2 sa˜o dois subespac¸os de dimensa˜o finita de um espac¸o vetorial V , enta˜o W1+W2 tambe´m tem dimensa˜o finita e dim (W1 +W2) = dimW1 + dimW2 − dim (W1 ∩W2) Prova. Pelo Teorema 1.30, W1 ∩W2 tem uma base finita {v1, . . . , vn} . Pelo Teorema 1.21, esta e´ parte de uma base B1 = {v1, . . . , vn, w1, . . . , wk} para W1 e parte de uma base B2 = {v1, . . . , vn, u1, . . . , ul} para W2. O subespac¸o W1 +W2 e´ gerado pelo conjunto B = {v1, . . . , vn, w1, . . . , wk, u1, . . . , ul} . Basta provar que B e´ L.I. para terminar a demonstrac¸a˜o, pois enta˜o B sera´ uma base para W1 + W2 e portanto dimW1 + dimW2 = (n+ k) + (n+ l) = (n+ k + l) + n = dim (W1 +W2) + dim (W1 ∩W2) . De fato, suponha que n∑ i=1 αivi + k∑ i=1 βiwi + l∑ i=1 γiui = 0. Escrevendo u := l∑ i=1 γiui = − n∑ i=1 αivi − k∑ i=1 βiwi, Rodney Josue´ Biezuner 12 vemos que u ∈W1 tambe´m (certamente u ∈W2). Em particular, existem escalares δ1, . . . , δn tais que u = n∑ i=1 δivi. Logo, subtraindo as duas expresso˜es para u, obtemos n∑ i=1 δivi − l∑ i=1 γiui = 0, e como {v1, . . . , vn, u1, . . . , ul} e´ L.I., conclu´ımos que δ1 = . . . = δn = γ1 = . . . = γl = 0. Mas enta˜o n∑ i=1 αivi + k∑ i=1 βiwi = 0 e como {v1, . . . , vn, w1, . . . , wk} e´ L.I., segue que α1 = . . . = αn = β1 = . . . = βk = 0. ¥ 1.34 Definic¸a˜o. Sejam W1,W2 dois subespac¸os de um espac¸o vetorial V . Dizemos que o subespac¸o W = W1 +W2 e´ a soma direta dos subespac¸os W1 e W2 se W1 ∩W2 = {0}. Neste caso, denotamos W =W1 ⊕W2. 1.35 Proposic¸a˜o. Se W =W1 ⊕W2, enta˜o dimW = dimW1 + dimW2. Prova. Segue imediatamente do Teorema 1.33 quando se observa que W1 ∩W2 = {0}. ¥ 1.36 Proposic¸a˜o. W = W1 ⊕ W2 se e somente se todo elemento w ∈ W se escrever de maneira u´nica como uma soma w = w1 + w2, w1 ∈ W1 e w2 ∈ W2 (em outras palavras, W1 e W2 sa˜o linearmente independentes). Prova. Assuma que W1 ∩W2 = {0}. Seja w ∈W e suponha que w = w1 + w2 w = w′1 + w ′ 2 w1, w ′ 1 ∈W1 e w2, w′2 ∈W2. Enta˜o (w1 − w′1) + (w2 − w′2) = 0, donde (w1 − w′1) = − (w2 − w′2) . Mas enta˜o, (w1 − w′1) ∈W1 ∩W2 e (w2 − w′2) ∈W1 ∩W2, logo w1−w′1 = 0 e w2−w′2 = 0, ou seja, w1 = w′1 e w2 = w′2. Reciprocamente, assuma que todo elemento w ∈ W se escreve de maneira u´nica como uma soma w = w1+w2, w1 ∈W1 e w2 ∈W2, e suponha por absurdo que exista um vetor v ∈W1∩W2 tal que v 6= 0. Enta˜o Rodney Josue´ Biezuner 13 0 = v + (−v) e´ um vetor de W que se escreve pelo menos de duas maneiras como a soma de vetores de W1 e W2: 0 = v + (−v) , 0 = 0 + 0. ¥ 1.37 Teorema. Seja V um espac¸o vetorial de dimensa˜o finita. Enta˜o todo subespac¸o W ⊂ V possui um complemento em V , isto e´, existe um subespac¸o Z ⊂ V tal que V =W ⊕ Z. Prova. Se W = {0} ou W = V , tome Z = V ou Z = {0}. Caso contra´rio, seja {v1, . . . , vk} uma base para W . Complete esta base ate´ uma base para V : {v1, . . . , vk, w1, . . . , wl}. Enta˜o tomamos como Z o subespac¸o gerado pelos vetores w1, . . . , wl. De fato, se W ∩Z 6= {0}, tomando um vetor na˜o-nulo u ∈W ∩Z, ter´ıamos escalares na˜o todos nulos α1, . . . , αk, β1, . . . , βl tais que u = k∑ i=1 αivi, u = l∑ i=1 βiwi, donde k∑ i=1 αivi − l∑ i=1 βiwi = 0 seria uma combinac¸a˜o linear na˜o trivial produzindo o vetor nulo, contradizendo o fato que {v1, . . . , vk, w1, . . . , wl} e´ L.I. ¥ Cap´ıtulo 2 Matrizes 2.1 Definic¸a˜o 2.1 Definic¸a˜o. Uma matriz m× n A sobre o corpo F e´ uma func¸a˜o A : [1,m]× [1, n] −→ F. O conjunto das matrizes m×n sobre F sera´ denotado por Mm×n (F) e por Mn (F) se n = m. Se F = R dizemos que a matriz e´ real, e se F = C dizemos que a matriz e´ complexa. A imagem A (i, j) e´ chamado uma entrada ou elemento da matriz e denotada por Aij ou aij . A matriz A tambe´m e´ denotada frequ¨entemente por A = (aij) e o sub´ındice m× n pode ser usado para denotar o que chamamos o tamanho da matriz. Representamos A como uma tabela de m× n escalares de F dispostos em m linhas e n colunas: A = a11 a12 . . . a1n a21 a22 . . . a2n ... ... . . . ... am1 am2 . . . amn . A i-e´sima linha de A e´ a matriz 1× n [ ai1 ai2 . . . ain ] , onde 1 6 i 6 m, enquanto que a j-e´sima coluna de A e´ a matriz m× 1 a1j a2j ... amj , onde 1 6 j 6 n. Uma matriz n× n e´ chamada uma matriz quadrada de tamanho n. 2.2 Operac¸o˜es com Matrizes Sec¸o˜es 3.1-3.2 do livro-texto Sobre o conjunto Mm×n (F) das matrizes m× n definimos as operac¸o˜es a seguir. 2.2 Definic¸a˜o. A soma de matrizes e´ a operac¸a˜o bina´riaMm×n (F)×Mm×n (F) −→Mm×n (F), (A,B) 7→ A+B definida por (A+B)ij = Aij +Bij . 14 Rodney Josue´ Biezuner 15 2.3 Proposic¸a˜o. A soma de matrizes satisfaz as seguintes propriedades: (i) Comutatividade: para todas A,B ∈Mm×n (F) temos A+B = B +A. Prova: (A+B)ij = Aij +Bij = Bij +Aij = (B +A)ij . ¥ (ii) Associatividade: para todos A,B,C ∈Mm×n (F) temos A+ (B + C) = (A+B) + C. Prova: [A+ (B + C)]ij = Aij + (B + C)ij = Aij + (Bij + Cij) = (Aij +Bij) + Cij = (A+B)ij + Cij = [(A+B) + C]ij . ¥ (iii) Existeˆncia de Elemento Neutro: a matriz nula 0 ∈Mm×n (F) definida por 0ij = 0 satisfaz A+ 0 = 0+A = A para toda A ∈Mm×n (F). Prova: (A+ 0)ij = Aij + 0ij = Aij + 0 = Aij e a outra expressa˜o segue por comutatividade. ¥ (iv) Existeˆncia de Inverso: para toda A ∈Mm×n (F) existe −A ∈Mm×n (F) tal que A+ (−A) = (−A) +A = 0. Prova: Defina (−A)ij = − (Aij) . Enta˜o [A+ (−A)]ij = [ Aij + (−A)ij ] = [Aij + (− (Aij))] = 0 = 0ij . ¥ 2.4 Definic¸a˜o. Amultiplicac¸a˜o de uma matriz por um escalar e´ a operac¸a˜o bina´ria F×Mm×n (F) −→ Mm×n (F), (α,A) 7→ αA definida por (αA)ij = αAij . 2.5 Proposic¸a˜o. A multiplicac¸a˜o de uma matriz por um escalar satisfaz as seguintes propriedades: Rodney Josue´ Biezuner 16 (i) Existeˆncia de Elemento Neutro: para todo A ∈Mm×n (F) temos 1A = A. Prova: (1A)ij = 1Aij = Aij . ¥ (ii) Associatividade: para todos α, β ∈ F e para toda A ∈Mm×n (F) temos α (βA) = (αβ)A. Prova: [α (βA)]ij = α (βA)ij = α (βAij) = (αβ)Aij . ¥ 2.6 Proposic¸a˜o. A soma de matrizes e a multiplicac¸a˜o de uma matriz por um escalar satisfazem as seguintes propriedades: (i) Distributividade em relac¸a˜o a` soma: para todas A,B ∈Mm×n (F) e para todo α ∈ F temos α (A+B) = αA+ αB. Prova: [α (A+B)]ij = α (A+B)ij = αAij + αBij = (αA)ij + (αB)ij = [αA+ αB]ij . ¥ (ii) Distributividade em relac¸a˜o a` multiplicac¸a˜o por escalar: para toda A ∈ Mm×n (F) e para todos α, β ∈ F temos (α+ β)A = αA+ βA. Prova: [(α+ β)A]ij = (α+ β)Aij = αAij + βAij = (αA)ij + (βA)ij = (αA+ βA)ij. ¥ As Proposic¸o˜es 2.3, 2.5 e 2.6 juntas provam que as operac¸o˜es de soma de matrizes e multiplicac¸a˜o de uma matriz por um escalar transformam o conjunto Mm×n (F) em um espac¸o vetorial sobre o corpo F. 2.7 Definic¸a˜o. O produto de matrizes e´ a operac¸a˜o bina´ria Mm×p (F) × Mp×n (F) −→ Mm×n (F), (A,B) 7→ AB definida por (AB)ij = p∑ k=1 AikBkj . A motivac¸a˜o para definir o produto de matrizes desta forma e´ dada pela sua utilidade na resoluc¸a˜o de sistemas de equac¸o˜es lineares. 2.8 Proposic¸a˜o. O produto de matrizes satisfaz as seguintes propriedades: Rodney Josue´ Biezuner 17 (i) Associatividade: para todas A ∈Mm×p (F) , B ∈Mp×q (F) , C ∈Mq×n (F) temos A (BC) = (AB)C. Prova: [A (BC)]ij = p∑ k=1 Aik (BC)kj = p∑ k=1 Aik ( n∑ l=1 BklClj ) = p∑ k=1 n∑ l=1 AikBklClj = n∑ l=1 p∑ k=1 AikBklClj = n∑ l=1 ( p∑ k=1 AikBkl ) Clj = n∑ l=1 (AB)il Clj = [(AB)C]ij . ¥ (ii) Existeˆncia de Elemento Neutro: a matriz identidade In ∈Mn (F) definida por (In)ij = δij = { 1 se i = j, 0 se i 6= j, isto e´, In = 1 0 . . . 0 0 1 . . . 0 ... ... . . . ... 0 0 . . . 1 , satisfaz AIn = ImA = A para toda A ∈Mm×n (F). Prova: (AIn)ij = n∑ k=1 Aikδkj = Aij , (ImA)ij = m∑ k=1 δikAkj = Aij . ¥ (iii) Distributividade em relac¸a˜o a` soma de matrizes: para todas A ∈ Mm×p (F) , B,C ∈ Mp×n (F) temos A (B + C) = AB +AC. Prova: Exerc´ıcio. ¥ Quando for claro do contexto o valor de n, escreveremos simplesmente I para denotar a matriz identidade. Diferentemente da operac¸a˜o de adic¸a˜o, a operac¸a˜o de produto de matrizes na˜o possui uma inversa para cada matriz. Na˜o apenas a matriz nula na˜o possui um inverso multiplicativo (o que tambe´m ocorre em um corpo), como existe um nu´mero de matrizes que na˜o possuem inversas: 2.9 Exemplo. Seja A = [ 1 1 1 1 ] . Rodney Josue´ Biezuner 18 Suponha que B = [ x y z w ] satisfac¸a AB = [ 1 1 1 1 ] [ x y z w ] = [ 1 0 0 1 ] = I. Enta˜o x+ z = 1 y + w = 0 x+ z = 0 y + w = 1 e este sistema na˜o possui soluc¸a˜o. O mesmo argumento mostra que qualquer matriz da forma[ α α α α ] qualquer que seja o escalar α ∈ F na˜o possui inverso multiplicativo. ¤ 2.10 Definic¸a˜o. Seja A ∈Mn (F). Se existir uma matriz A−1 ∈Mn (F) tal que AA−1 = A−1A = I dizemos que A e´ invert´ıvel e chamamos A−1 de a inversa de A. Observe que a inversa de uma matriz e´ u´nica, pois se B e C sa˜o duas matrizes tais que AB = BA = I, AC = CA = I, enta˜o B = BI = B (AC) = (BA)C = IC = C. 2.11 Proposic¸a˜o. Se A e B sa˜o matrizes invert´ıveis, enta˜o AB tambe´m e´ e (AB)−1 = B−1A−1. Prova: (AB) ( B−1A−1 ) = A ( BB−1 ) A−1 = AIA−1 = AA−1 = I,( B−1A−1 ) (AB) = B−1 ( A−1A ) B = B−1IB = B−1B = I. ¥ 2.12 Exerc´ıcio. Se A e B sa˜o duas matrizes tais que o produto AB e´ invert´ıvel, e´ verdade que A e B tambe´m sa˜o invert´ıveis? 2.13 Teorema. Se AB = I enta˜o BA = I. Prova: Se AB = I, enta˜o a u´nica soluc¸a˜o do sistema BX = 0 e´ a soluc¸a˜o trivial, pois X = IX = ABX = A0 = 0. Em particular, isso implica que a matriz B e´ equivalente por linhas a` matriz identidade I, caso contra´rio a forma escalonada reduzida de B teria uma linha nula. A matriz B ser equivalente por linhas Rodney Josue´ Biezuner 19 a` matriz identidade significa que existem matrizes elementares E1, . . . , Ek (correspondentes a`s operac¸o˜es elementares sobre as linhas da matriz B) tais que Ek . . . E1B = I. Como as matrizes elementares sa˜o invert´ıveis (porque a inversa de uma operac¸a˜o elementar e´ tambe´m uma operac¸a˜o elementar), segue que B = E−11 . . . E −1 k . Portanto, B e´ o produto de matrizes invert´ıveis, logo e´ invert´ıvel. Seja C tal que BC = I. Para terminar a demonstrac¸a˜o deste teorema, resta apenas provar que C = A. E, de fato, multiplicando a equac¸a˜o AB = I a` direita por C, segue que (AB)C = IC donde A (BC) = C ⇒ AI = C ⇒ A = C. ¥ O produto de matrizes na˜o e´ comutativo: 2.14 Exemplo. Sejam A = [ 1 0 0 0 ] e B = [ 0 1 0 0 ] . Enta˜o AB = [ 1 0 0 0 ] [ 0 1 0 0 ] = [ 0 1 0 0 ] , BA = [ 0 1 0 0 ] [ 1 0 0 0 ] = [ 0 0 0 0 ] . ¤ O fato de existirem matrizes que na˜o possuem inversas e do produto de matrizes na˜o ser comutativo faz com que muitas propriedades satisfeitas pelos nu´meros reais e complexos na˜o serem satisfeitas pelas matrizes. 2.15 Exerc´ıcio. Determine se as afirmativas a seguir sa˜o falsas ou verdadeiras. Se a afirmativa for verda- deira, prove; se a afirmativa for falsa, deˆ um contraexemplo e determine se existe alguma situac¸a˜o onde a afirmativa e´ va´lida: 1. (Lei do Cancelamento) Se AB = AC, enta˜o B = C. 2. Se A,B sa˜o matrizes quadradas, enta˜o (A+B)2 = A2 + 2AB +B2. 3. Se A,B sa˜o matrizes quadradas, enta˜o (A−B)2 = A2 −B2. 4. Se AB = 0, enta˜o A = 0 ou B = 0. 5. Se AB = 0, enta˜o BA = 0. 6. Se A2 = 0, enta˜o A = 0. ¤ 2.16 Definic¸a˜o. A transposta de uma matriz m× n A ∈ Mm×n (F) e´ a matriz n×m AT ∈ Mn×m (F) definida por ( AT ) ij = Aij . Rodney Josue´ Biezuner 20 2.17 Proposic¸a˜o. A transposta de matrizes satisfaz as seguintes propriedades: (i) ( AT )T = A. (ii) (A+B)T = AT +BT . (iii) (αA)T = αAT . (iv) (AB)T = BTAT . (v) ( A−1 )T = (AT )−1 . Prova de (iv):[ (AB)T ] ij = (AB)ji = p∑ k=1 AjkBki = p∑ k=1 [ AT ] kj [ BT ] ik = p∑ k=1 [ BT ] ik [ AT ] kj = [ BTAT ] ij Prova de (v): Por (iv), segue que I = IT = ( AA−1 )T = ( A−1 )T AT . ¥ 2.3 Mudanc¸a de Base Sec¸a˜o 7.11 do livro-texto Sejam B = {v1, . . . , vn} e B′ = {w1, . . . , wn} duas bases para o espac¸o vetorial V . Suponha que um vetor v ∈ V se escreve na forma v = x1v1 + . . .+ xnvn = n∑ i=1 xivi como combinac¸a˜o linear dos vetores da base B, ou seja, v = (x1, . . . , xn) sa˜o as coordenadas de v em relac¸a˜o a` base B, isto e´, [v]B = x1... xn , convencionando representar as coordenadas de vetores em relac¸a˜o a uma base como matrizes-coluna. Como obter as coordenadas de v em relac¸a˜o a` base B′? Sabemos que existem escalares pji ∈ F tais que vi = n∑ j=1 pjiwj para i = 1, . . . , n. Enta˜o v = n∑ i=1 xivi = n∑ i=1 xi n∑ j=1 pjiwj = n∑ i=1 n∑ j=1 xipjiwj = n∑ j=1 ( n∑ i=1 xipji ) wj = n∑ j=1 ( n∑ i=1 pjixi ) wj . Rodney Josue´ Biezuner 21 Assim, yj = n∑ i=1 pjixi. Portanto, se P = (pij) = p11 p12 . . . p1n p21 p22 . . . p2n ... ... . . . ... pm1 pm2 . . . pmn , segue que y1... yn = p11 p12 . . . p1n p21 p22 . . . p2n ... ... . . . ... pm1 pm2 . . . pmn x1... xn ou seja, [v]B′ = P [v]B . Em outras palavras, as coordenadas do vetor v em relac¸a˜o a` base B′ sa˜o obtidas atrave´s de multiplicar as coordenadas de v em relac¸a˜o a` base B pela matriz P , cujas colunas sa˜o as coordenadas dos vetores da base B em relac¸a˜o a` base B′. P e´ chamada a matriz de mudanc¸a de base da base B para a base B′. 2.18 Proposic¸a˜o. A matriz de mudanc¸a de base e´ invert´ıvel. Prova: Pois a u´nica soluc¸a˜o de PX = 0 e´ a soluc¸a˜o identicamente nula, porque o u´nico vetor que tem coordenadas nulas em relac¸a˜o a qualquer base e´ o vetor nulo. ¥ Em particular, segue que [v]B = P −1 [v]B′ , isto e´, a matriz de mudanc¸a de base da base B′ para a base B e´ a inversa P−1. 2.19 Exemplo. Obtenha as coordenadas do vetor v = (1, 2, 3) ∈ R3 em relac¸a˜o a` base B′ = {(1, 1, 0) , (1, 0, 1) , (0, 1, 1)} . Temos que a matriz de mudanc¸a de base e´ P = 1 1 01 0 1 0 1 1 −1 = 12 12 − 1212 − 12 12− 12 12 12 . Logo as coordenadas de v em relac¸a˜o a B′ sa˜o 12 12 − 121 2 − 12 12− 12 12 12 12 3 = 01 2 . Rodney Josue´ Biezuner 22 Observe que 12 12 − 121 2 − 12 12− 12 12 12 11 0 = 10 0 , 12 12 − 121 2 − 12 12− 12 12 12 10 1 = 01 0 , 12 12 − 121 2 − 12 12− 12 12 12 01 1 = 00 1 , pois estas sa˜o as coordenadas dos vetores da base em relac¸a˜o a ela pro´pria. ¤ 2.4 Matrizes Especiais Sec¸a˜o 3.6 do livro-texto 2.4.1 Matrizes Diagonais 2.20 Definic¸a˜o. Dizemos que uma matriz quadrada D ∈ Mn (F) e´ uma matriz diagonal se aij = 0 para todo i 6= j. Uma matriz diagonal tem a forma D = a11 0 . . . 0 0 a22 . . . 0 ... ... . . . ... 0 0 . . . ann , isto e´, todos os elementos fora da diagonal principal sa˜o nulos. O conjunto das matrizes diagonais Dn (F) e´ um subespac¸o vetorial de dimensa˜o n. 2.4.2 Matrizes Triangulares 2.21 Definic¸a˜o. Dizemos que uma matriz quadrada T ∈ Mn (F) e´ uma matriz triangular superior se aij = 0 para todo i > j. Dizemos que T e´ uma matriz triangular inferior se aij = 0 para todo i < j. Uma matriz triangular superior ou inferior, e´ tambe´m chamada simplesmente uma matriz triangular. Uma matriz triangular superior tem a forma T = a11 a12 a13 . . . . . . a1n 0 a22 a23 . . . . . . a2n 0 0 a33 . . . . . . a3n 0 0 0 . . . ... ... ... ... ... . . . an−1,n−1 an−1,n 0 0 . . . . . . 0 ann , Rodney Josue´ Biezuner 23 isto e´, todos os elementos abaixo da diagonal principal sa˜o nulos, enquanto que uma matriz triangular inferior tem a forma T = a11 0 0 . . . . . . 0 a21 a22 0 . . . . . . 0 a31 a32 a33 . . . . . . 0 ... ... ... . . . 0 ... an−1,1 . . . . . . . . . an−1,n−1 0 an1 . . . . . . . . . an,n−1 ann , isto e´, todos os elementos acima da diagonal principal sa˜o nulos. Ambos os conjuntos de matrizes trian- gulares superiores Un (F) e de matrizes triangulares inferiores Ln (F) sa˜o subespac¸os vetoriais de dimensa˜o n (n+ 1) /2. Ale´m disso, Mn (F) = Un (F) + Ln (F), mas esta soma na˜o e´ direta. 2.4.3 Matrizes Sime´tricas e Anti-sime´tricas 2.22 Definic¸a˜o. Dizemos que uma matriz quadrada A ∈ Mn (F) e´ uma matriz sime´trica se AT = A. Dizemos que A e´ uma matriz anti-sime´trica se AT = −A. 2.23 Proposic¸a˜o. Os conjuntos das matrizes sime´tricas S e das matrizes anti-sime´tricas A sa˜o subespac¸os vetoriais de Mn (F). Ale´m disso, Mn (F) = S ⊕A. Prova: Sejam A,B duas matrizes sime´tricas e α, β escalares. Enta˜o, usando a Proposic¸a˜o 2.17, temos que (αA+ βB)T = αAT + βBT = αA+ βB e portanto αA+ βB e´ sime´trica. Analogamente, se A,B sa˜o anti-sime´tricas, enta˜o (αA+ βB)T = αAT + βBT = α (−A) + β (−B) = − (αA+ βB) e αA+ βB e´ portanto anti-sime´trica. Para escrever uma matriz A ∈Mn (F) como a soma de uma matriz sime´trica e uma matriz anti-sime´trica, defina B = A+AT 2 , C = A−AT 2 . Claramente, A = B + C. Por outro lado, da Proposic¸a˜o 2.17 vemos que a matriz B e´ sime´trica e a matriz C e´ anti-sime´trica, pois BT = ( A+AT 2 )T = AT + ( AT )T 2 = AT +A 2 = B, CT = ( A−AT 2 )T = AT − (AT )T 2 = AT −A 2 = −C. Falta apenas provar que a u´nica matriz que e´ ao mesmo tempo sime´trica e anti-sime´trica e´ a matriz nula. De fato, se A ∈ S ∩ A, enta˜o aij = aji porque A e´ sime´trica, e aij = −aji porque A e´ anti-sime´trica, logo aij = 0. ¥ Rodney Josue´ Biezuner 24 2.24 Proposic¸a˜o. Se uma matriz e´ sime´trica e invert´ıvel, enta˜o sua inversa tambe´m e´ sime´trica. Se uma matriz e´ anti-sime´trica e invert´ıvel, enta˜o sua inversa tambe´m e´ anti-sime´trica. Prova: Seja A uma matriz sime´trica, enta˜o da Proposic¸a˜o 2.17 (v) segue que( A−1 )T = ( AT )−1 = A−1. Analogamente se A e´ uma matriz anti-sime´trica, temos que( A−1 )T = ( AT )−1 = (−A)−1 = − (A−1) . ¥ 2.25 Proposic¸a˜o. Se A e´ uma matriz qualquer, enta˜o AAT e ATA sa˜o matrizes sime´tricas. Prova: Temos ( AAT )T = ( AT )T AT = AAT . Analogamente se prova que ( ATA )T = ATA. ¥ 2.4.4 Matrizes Nilpotentes 2.26 Definic¸a˜o. Dizemos que uma matriz quadrada A ∈Mn (F) e´ uma matriz nilpotente se Ak = 0 para algum k. O conjunto das matrizes nilpotentes na˜o e´ um subespac¸o vetorial, ja´ que a soma de matrizes nilpotentes em geral na˜o e´ uma matriz nilpotente. 2.27 Exemplo. A matriz A = [ 0 1 0 0 ] e´ nilpotente, pois A2 = 0. A matriz B = 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0 tambe´m e´ nilpotente, pois B3 = 0. ¤ 2.28 Proposic¸a˜o. Se A e´ uma matriz nilpotente com Ak = 0, enta˜o I −A e´ invert´ıvel e (I −A)−1 = I +A+ . . .+Ak−1. Prova: Temos (I −A) (I +A+ . . .+Ak−1) = I +A+ . . .+Ak−1 −A− . . .−Ak−1 −Ak = I. ¥ Cap´ıtulo 3 Transformac¸o˜es Lineares 3.1 Definic¸a˜o Sec¸o˜es 6.1 e 9.3 do livro-texto Definida uma estrutura matema´tica sobre conjuntos, e´ importante o estudo das func¸o˜es entre estes conjuntos que preservam a estrutura. 3.1 Definic¸a˜o. Sejam V e W dois espac¸os vetoriais sobre um mesmo corpo F. Uma func¸a˜o T : V −→W e´ chamada uma transformac¸a˜o linear se T (αv + βw) = αT (v) + βT (w) (3.1) para todos v, w ∈ V e α, β ∈ F. Transformac¸o˜es lineares preservam as operac¸o˜es que definem um espac¸o vetorial, soma e multiplicac¸a˜o por escalar. Em outras palavras, elas preservam combinac¸o˜es lineares. 3.2 Proposic¸a˜o. Seja T : V −→W uma transformac¸a˜o linear entre dois espac¸os vetoriais. Enta˜o T (0V ) = 0W . Prova: Observe que estamos usando notac¸o˜es diferentes para os vetores nulos de cada espac¸o por motivos de clareza. Temos T (0V ) = T (00V ) = 0T (0V ) = 0W . ¥ O seguinte resultado ajuda a entender o significado de uma transformac¸a˜o linear: 3.3 Proposic¸a˜o. Seja T : V −→ W uma transformac¸a˜o linear entre dois espac¸os vetoriais. Se U e´ um subespac¸o de V , enta˜o T (U) e´ um subespac¸o de W com dimensa˜o menor ou igual a U . Reciprocamente, se Z e´ um subespac¸o de W , enta˜o T−1 (Z) e´ um subespac¸o de V com dimensa˜o maior ou igual a Z. Prova: Seja U e´ um subespac¸o de V . Como 0 ∈ U , temos T (U) 6= ∅. Sejam w1, w2 ∈ T (U). Enta˜o existem u1, u2 ∈ U tais que T (u1) = w1, T (u2) = w2. Para todos α, β ∈ F segue que αw1 + βw2 = αT (u1) + βT (u2) = T (αu1 + βu2) , e como αu1 + βu2 ∈ U , conclu´ımos que αw1 + βw2 ∈ T (U). Temos dimT (U) 6 dimU porque se u1, . . . , uk geram U enta˜o T (u1) , . . . , T (uk) geram T (U), mas enquanto que u1, . . . , uk podem ser L.I., isso na˜o implica necessariamente que T (u1) , . . . , T (uk) sera˜o L.I. 25 Rodney Josue´ Biezuner 26 Reciprocamente, seja Z e´ um subespac¸o de W . Sejam v1, v2 ∈ T−1 (Z). Enta˜o T (v1) =: z1, T (v2) =: z2 ∈ Z. Para todos α, β ∈ F segue que T (αv1 + βv2) = αT (v1) + βT (v2) = αz1 + βz2 ∈ Z, logo conclu´ımos que αv1 + βv2 ∈ T−1 (Z). ¥ Em outras palavras, uma transformac¸a˜o linear e´ uma aplicac¸a˜o que leva subespac¸os vetoriais de V em subespac¸os vetoriais de W de dimensa˜o menor ou igual que o subespac¸o original. Uma transformac¸a˜o linear leva retas em retas ou no vetor nulo, planos em planos, retas ou no vetor nulo, e assim por diante. Esta conclusa˜o vale mesmo para subespac¸o afins, isto e´, para conjuntos obtidos pela translac¸a˜o de subespac¸os vetoriais, definidos por Ux = U + x0 = {x+ x0 : x ∈ U} (3.2) onde U e´ um subespac¸o vetorial de V ; exemplos sa˜o retas e planos que na˜o passam pela origem. Uma transformac¸a˜o linear leva subespac¸os afins em subespac¸os afins de dimensa˜o menor que ou igual, pois T (Ux) = T (U) + T (x0) . (3.3) 3.4 Exemplo. Sejam V e W dois espac¸os vetoriais sobre um mesmo corpo F de dimensa˜o finita, BV = {x1, . . ., xn} uma base para V , BW = {y1, . . . , ym} uma base para W e A uma matriz de tamanho dimW × dimV sobre F. Enta˜o a aplicac¸a˜o [Tv]BW = A [v]BV define uma transformac¸a˜o linear T de V em W . ¤ 3.5 Teorema. Uma transformac¸a˜o linear do espac¸o vetorial de dimensa˜o finita V para o espac¸o vetorial W e´ completamente determinada pelos valores que ela toma em uma base qualquer de V . Prova: Sejam T : V −→W uma transformac¸a˜o linear e B = {x1, . . . , xn} uma base para V . Dado um vetor v ∈ V , ele se escreve como uma combinac¸a˜o linear v = α1x1 + . . .+ αnxn. Enta˜o Tv = T (α1x1 + . . .+ αnxn) = α1T (x1) + . . .+ αnT (xn) . ¥ Podemos dizer ainda mais: para definir uma transformac¸a˜o linear T : V −→ W basta estipular os seus valores em uma base: 3.6 Teorema. Sejam V um espac¸o vetorial de dimensa˜o finita, B = {x1, . . . , xn} uma base para V e y1, . . . , yn vetores quaisquer de um espac¸o vetorial W . Enta˜o existe uma u´nica transformac¸a˜o linear T : V −→W tal que Txi = yi (3.4) para i = 1, . . . , n. Prova: Como todo vetor v ∈ V se escreve como uma combinac¸a˜o linear dos vetores de B de maneira u´nica v = α1x1 + . . .+ αnxn, basta definir Tv = α1y1 + . . .+ αnyn. Rodney Josue´ Biezuner 27 De fato, para todos os vetores x = α1x1 + . . .+ αnxn, y = β1x1 + . . .+ βnxn, de V e para todos escalares a, b ∈ F, temos T (ax+ by) = T ( a n∑ i=1 αixi + b n∑ i=1 βixi ) = T ( n∑ i=1 (aαi + bβi)xi ) = n∑ i=1 (aαi + bβi) yi = a n∑ i=1 αiyi + b n∑ i=1 βiyi = aT (x) + bT (y) . A unicidade de T decorre do teorema anterior. ¥ 3.2 Representac¸o˜es de Transformac¸o˜es Lineares atrave´s de Matri- zes Sec¸a˜o 6.1 do livro-texto Seja T : V −→ W uma transformac¸a˜o linear entre espac¸os vetoriais de dimensa˜o finita. Escolha bases BV = {x1, . . . , xn} para V e BW = {y1, . . . , ym} para W . Enta˜o, cada vetor x ∈ V se escreve com relac¸a˜o a` base BV na forma x = α1x1 + . . .+ αnxn = n∑ i=1 αixi, para alguns escalares α1, . . . , αn. Da´ı, segue que Tx = T ( n∑ i=1 αixi ) = n∑ i=1 αiT (xi) . Escreva os vetores Tx1, . . . , Txn em relac¸a˜o a` base BW na forma T (xi) = m∑ j=1 ajiyj , (3.5) isto e´, na forma de matriz coluna: T (xi) = a1i a2i ... ami (3.6) A matriz A = (aij)m×n e´ chamada a representac¸a˜o matricial da transformac¸a˜o linear T com relac¸a˜o a`s bases BV e BW . Esta representac¸a˜o de T tambe´m sera´ denotada por [T ]BV ,BW . (3.7) Rodney Josue´ Biezuner 28 3.3 Exemplos de Operadores Lineares Sec¸o˜es 6.1-6.2 do livro-texto Nesta sec¸a˜o, as transformac¸o˜es lineares sa˜o definidas a partir de suas matrizes com relac¸a˜o a` base canoˆnica de Rn. 3.7 Definic¸a˜o. Uma transformac¸a˜o linear T : V −→ V , isto e´, de um espac¸o vetorial nele pro´prio, e´ chamada um operador linear. 3.3.1 Operadores Lineares no Plano R2 Rotac¸o˜es. A rotac¸a˜o de aˆngulo θ em torno da origem no sentido anti-hora´rio e´ definida por Rθ = [ cos θ − sen θ sen θ cos θ ] . (3.8) Observe que Rθ (e1) = [ cos θ sen θ ] e Rθ (e2) = [ − sen θ cos θ ] . A inversa de uma rotac¸a˜o de aˆngulo θ e´ uma rotac¸a˜o de aˆngulo −θ (isto e´, a rotac¸a˜o de aˆngulo θ em torno da origem no sentido hora´rio), pois RθR−θ = [ cos θ − sen θ sen θ cos θ ] [ cos θ sen θ − sen θ cos θ ] = [ cos2 θ + sen2 θ cos θ sen θ − sen θ cos θ sen θ cos θ − cos θ sen θ cos2 θ + sen2 θ ] = [ 1 0 0 1 ] . Rotac¸o˜es sa˜o operadores que preservam a norma de vetores e o produto escalar entre vetores (e portanto o aˆngulo entre eles): 〈Rθ (v) , Rθ (w)〉 = 〈v, w〉 (3.9) e ‖Rθ (v)‖ = ‖v‖ . (3.10) De fato, 〈Rθ (v) , Rθ (w)〉 = 〈[ cos θ − sen θ sen θ cos θ ] [ v1 v2 ] , [ cos θ − sen θ sen θ cos θ ] [ w1 w2 ]〉 = 〈[ cos θv1 − sen θv2 sen θv1 + cos θv2 ] , [ cos θw1 − sen θw2 sen θw1 + cos θw2 ]〉 = cos2 θv1w1 − cos θ sen θv1w2 − sen θ cos θv2w1 + sen2 θv2w2 + sen2 θv1w1 + cos θ sen θv1w2 + sen θ cos θv2w1 + cos2 θv2w2 = v1w1 + v2w2 = 〈v, w〉 . Da´ı, ‖Rθ (v)‖ = √ 〈Rθ (v) , Rθ (v)〉 = √ 〈v, v〉 = ‖v‖ . Note ainda que detRθ = 1, (3.11) de modo que rotac¸o˜es tambe´m preservam a´reas. Rodney Josue´ Biezuner 29 Reflexo˜es. A reflexa˜o em relac¸a˜o a` reta passando pela origem que faz aˆngulo θ com o eixo x positivo e´ definida por Hθ = [ cos 2θ sen 2θ sen 2θ − cos 2θ ] . (3.12) Observe que Hθ (e1) = [ cos 2θ sen 2θ ] e Hθ (e2) = [ sen 2θ − cos 2θ ] . A inversa de uma reflexa˜o e´ ela pro´pria, pois H2θ = [ cos 2θ sen 2θ sen 2θ − cos 2θ ] [ cos 2θ sen 2θ sen 2θ − cos 2θ ] = [ cos2 2θ + sen2 2θ cos 2θ sen 2θ − sen 2θ cos 2θ sen 2θ cos 2θ − cos 2θ sen 2θ cos2 2θ + sen2 2θ ] = [ 1 0 0 1 ] . Reflexo˜es sa˜o tambe´m operadores que preservam a norma de vetores e o produto escalar entre vetores (e portanto o aˆngulo entre eles): 〈Hθ (v) ,Hθ (w)〉 = 〈v, w〉 (3.13) e ‖Hθ (v)‖ = ‖v‖ . (3.14) De fato, 〈Rθ (v) , Rθ (w)〉 = 〈[ cos θ − sen θ sen θ cos θ ] [ v1 v2 ] , [ cos θ − sen θ sen θ cos θ ] [ w1 w2 ]〉 = 〈[ cos θv1 − sen θv2 sen θv1 + cos θv2 ] , [ cos θw1 − sen θw2 sen θw1 + cos θw2 ]〉 = cos2 θv1w1 − cos θ sen θv1w2 − sen θ cos θv2w1 + sen2 θv2w2 + sen2 θv1w1 + cos θ sen θv1w2 + sen θ cos θv2w1 + cos2 θv2w2 = v1w1 + v2w2 = 〈v, w〉 . Da´ı, ‖Rθ (v)‖ = √ 〈Rθ (v) , Rθ (v)〉 = √ 〈v, v〉 = ‖v‖ . Note ainda que detHθ = −1, (3.15) de modo que reflexo˜es tambe´m preservam a´reas. Uma reflexa˜o especial e´ a reflexa˜o em torno da origem, definida por H = [ 0 −1 −1 0 ] . (3.16) Ela tem as mesmas propriedades das outras reflexo˜es. Contrac¸o˜es e Dilatac¸o˜es. Uma homotetia de raza˜o k e´ definida por T = [ k 0 0 k ] , (3.17) Rodney Josue´ Biezuner 30 ou seja, T (x, y) = (kx, ky) . (3.18) Se 0 6 k < 1, T e´ chamada uma contrac¸a˜o, e se k > 1, T e´ chamada uma dilatac¸a˜o. Os operadores de homotetia na˜o preservam nem a norma, nem o produto escalar de vetores, pois 〈T (v) , T (w)〉 = 〈kv, kw〉 = k2 〈v, w〉 (3.19) e ‖T (v)‖ = ‖kv‖ = k ‖v‖ , (3.20) mas preservam o aˆngulo entre vetores: ] (T (v) , T (w)) = ] (v, w) (3.21) pois ] (T (v) , T (w)) = arccos 〈T (v) , T (w)〉‖T (v)‖ ‖T (w)‖ = arccos 〈kv, kw〉 k ‖v‖ k ‖w‖ = arccos k2 〈v, w〉 k2 ‖v‖ ‖w‖ = arccos 〈v, w〉 ‖v‖ ‖w‖ = ] (v, w) . A inversa de uma contrac¸a˜o e´ uma dilatac¸a˜o e vice-versa. Temos detT = k2, de modo que homotetias tambe´m na˜o preservam a´reas. Compresso˜es e Expanso˜es. Uma compressa˜o horizontal de raza˜o k e uma expansa˜o horizontal de raza˜o k sa˜o definidas por T = [ k 0 0 1 ] (3.22) se 0 6 k < 1 no primeiro caso e se k > 1 no segundo caso, ou seja, T (x, y) = (kx, y) . (3.23) Do mesmo modo, uma compressa˜o vertical de raza˜o k e uma expansa˜o vertical de raza˜o k sa˜o definidas por T = [ 1 0 0 k ] (3.24) se 0 6 k < 1 no primeiro caso e se k > 1 no segundo caso, ou seja, T (x, y) = (x, ky) . (3.25) Rodney Josue´ Biezuner 31 Cisalhamentos. Um cisalhamento horizontal de raza˜o k e´ definido por T = [ 1 k 0 1 ] , (3.26) ou seja, T (x, y) = (x+ ky, y) . (3.27) Um cisalhamento vertical de raza˜o k e´ definido por T = [ 1 0 k 1 ] , (3.28) ou seja, T (x, y) = (x, kx+ y) . (3.29) Compresso˜es, expanso˜es e cisalhamentos na˜o preservam nem normas, nem produtos escalares, nem aˆngulos entre vetores. Cisalhamentos preservam a´reas, ja´ que seu determinante e´ igual a 1. Cisalhamentos transformam quadrados em paralelogramos de mesma a´rea. Todas os operadores lineares considerados acima sa˜o bijetivos. Vamos considerar agora alguns operadores na˜o bijetivos. Projec¸o˜es. A projec¸a˜o ortogonal sobre o eixo x e´ definida por P= [ 1 0 0 0 ] (3.30) ou seja, P (x, y) = (x, 0) . (3.31) A projec¸a˜o ortogonal sobre o eixo y e´ definida por P = [ 0 0 0 1 ] (3.32) ou seja, P (x, y) = (0, y) . (3.33) Em geral, a projec¸a˜o ortogonal sobre a reta que passa pela origem e faz aˆngulo θ com o eixo x positivo e´ definida por Pθ = [ cos2 θ sen θ cos θ sen θ cos θ sen2 θ ] . (3.34) Para deduzir a u´ltima expressa˜o, note que Pθv − v = 12 (Hθv − v) , logo Pθv = 1 2 (Hθv + v) = 1 2 (Hθ + I) v, de modo que Pθ = 1 2 ([ cos 2θ sen 2θ sen 2θ − cos 2θ ] + [ 1 0 0 1 ]) = 1 + cos 2θ2 sen 2θ2sen 2θ 2 1− cos 2θ 2 = [ cos2 θ sen θ cos θ sen θ cos θ sen2 θ ] . Rodney Josue´ Biezuner 32 3.3.2 Operadores Lineares no Espac¸o R3 Como exerc´ıcio, obtenha as expresso˜es matriciais para os correspondentes operadores lineares em R3. 3.3.3 Operadores Lineares em Espac¸os de Dimensa˜o Infinita 3.8 Exemplo. Expresso˜es lineares envolvendo derivadas sa˜o operadores lineares em P [x] ou Ck (X;R) . 3.3.4 Funcionais Lineares 3.9 Definic¸a˜o. Um funcional linear e´ uma transformac¸a˜o linear f : V −→ F. 3.10 Exemplo. A projec¸a˜o na i-e´sima coordenada e´ um funcional linear, isto e´, pii : Fn −→ F definida por pii (x1, . . . , xn) = xi. 3.11 Exemplo. A integral e´ um funcional linear em C0 (X;R): I (f) = ∫ X f. 3.4 Composic¸a˜o de Transformac¸o˜es Lineares Sec¸a˜o 6.4 do livro-texto 3.12 Proposic¸a˜o. A composta de transformac¸o˜es lineares e´ uma transformac¸a˜o linear. Prova: Sejam V,W,Z espac¸os vetoriais e T : V −→ W,S : W −→ Z transformac¸o˜es lineares. Enta˜o S ◦ T : V −→ Z satisfaz (S ◦ T ) (α1v1 + α2v2) = S [T (α1v1 + α2v2)] = S [α1T (v1) + α2T (v2)] = α1S [T (v1)] + α2S [T (v2)] = α1 (S ◦ T ) (v1) + α2 (S ◦ T ) (v2) . ¥ 3.13 Teorema. Sejam V , W e Z espac¸os vetoriais de dimensa˜o finita com bases BV = {x1, . . . , xn}, BW = {y1, . . . , ym} e BZ = {z1, . . . , zp}, respectivamente. Sejam T : V −→ W e S : W −→ Z transformac¸o˜es lineares. Enta˜o [S ◦ T ]BV ,BZ = [S]BW ,BZ [T ]BV ,BW . Prova: Sejam [T ]BV ,BW = B = (bij)m×n , [S]BW ,BZ = A = (aij)p×m . Rodney Josue´ Biezuner 33 Temos (S ◦ T ) (xi) = S [T (xi)] = S m∑ j=1 bjiyj = m∑ i=1 bjiS (yj) = m∑ i=1 bji p∑ k=1 akjzk = p∑ k=1 ( m∑ i=1 bjiakj ) zk = p∑ k=1 ( m∑ i=1 akjbji ) zk = p∑ k=1 (AB)ki zk. ¥ 3.14 Definic¸a˜o. Sejam V e W espac¸os vetoriais sobre um corpo F. Denote o conjunto das transformac¸o˜es lineares de V em W por L (V,W ). Definimos as operac¸o˜es de soma e multiplicac¸a˜o por escalar de elementos de L (V,W ) por (T + S) (v) := T (v) + S (v) , (αT ) (v) := αT (v) , para todo v ∈ V . Se V =W , denotamos L (V,W ) simplesmente por L(V ). 3.15 Proposic¸a˜o. L (V,W ) e´ um espac¸o vetorial sobre F. 3.16 Proposic¸a˜o. Se V tem dimensa˜o n e W tem dimensa˜o m, enta˜o L (V,W ) tem dimensa˜o nm. Prova: Sejam BV = {x1, . . . , xn} e BW = {y1, . . . , ym} bases ordenadas de V e W respectivamente. Para cada par de ı´ndices ji, i = 1, . . . , n, j = 1, . . . ,m, defina Eji : V −→ W como sendo a u´nica transformac¸a˜o linear que satisfaz Eji (xk) = δikyj , k = 1, . . . , n, onde δik e´ o delta de Kronecker. Em outras palavras, Eji (xk) = { yj se i = k, 0 se i 6= k. Observe que com esta definic¸a˜o, a matriz que representa Eji em relac¸a˜o a`s bases BV e BW e´ a matriz que tem 1 na entrada ji e 0 nas demais entradas. Afirmamos que B = {Eji : i = 1, . . . , n, j = 1, . . . ,m} formam uma base para L (V,W ). Como este conjunto tem nm elementos, isto provara´ o resultado. Para provar que B e´ L.I., suponha que ∑ i=1,...,n j=1,...,m αjiEji = 0 e´ uma combinac¸a˜o linear dos Eij produzindo a transformac¸a˜o nula (que e´ o vetor nulo em ). Enta˜o, para cada k = 1, . . . , n temos n∑ i=1 m∑ j=1 αjiEji (xk) = 0 (xk) = 0. Rodney Josue´ Biezuner 34 Como n∑ i=1 m∑ j=1 αjiEji (xk) = n∑ i=1 m∑ j=1 αjiEji (xk) = n∑ i=1 m∑ j=1 αjiδikyj = m∑ j=1 αjkyj , segue que m∑ j=1 αjkyj = 0, e como y1, . . . , ym sa˜o L.I., conclu´ımos que α1k = . . . = αmk = 0. Para provar que B gera L (V,W ), seja T : V −→ W uma transformac¸a˜o linear qualquer. Para cada i = 1, . . . , n escrevemos T (xk) = m∑ j=1 ajkyj . para alguns escalares ajk ∈ F, isto e´, A = (ajk) e´ a matriz que representa a transformac¸a˜o T em relac¸a˜o a`s bases BV e BW . Mostraremos que T = n∑ i=1 m∑ j=1 αjiEji, o que provara´ que B gera L (V,W ). Com efeito, para cada k = 1, . . . , n temos n∑ i=1 m∑ j=1 αjiEji (xk) = n∑ i=1 m∑ j=1 αjiEji (xk) = n∑ i=1 m∑ j=1 αji (δikyj) = m∑ j=1 ( n∑ i=1 δikαij ) yj = m∑ j=1 αkjyj = T (xk) . ¥ 3.17 Definic¸a˜o. Em L(V ), o produto de dois operadores lineares e´ definido por TS := T ◦ S. 3.5 Isomorfismos Sec¸a˜o 9.3 do livro-texto 3.18 Definic¸a˜o. Uma relac¸a˜o de equivaleˆncia em um conjunto A e´ uma relac¸a˜o bina´ria ∼ que satisfaz as seguintes propriedades: (i) (Reflexividade) a ∼ a para todo a ∈ A. (ii) (Simetria) Se a ∼ b enta˜o b ∼ a. (iii) (Transitividade) Se a ∼ b e b ∼ c enta˜o a ∼ c. Estabelecer uma relac¸a˜o de equivaleˆncia em um conjunto e´ essencialmente identificar formalmente os ele- mentos do conjunto com respeito a` relac¸a˜o. Rodney Josue´ Biezuner 35 3.19 Exemplo. Em Z× Z\ {0} estabelecemos a relac¸a˜o de equivaleˆncia (a, b) ∼ (c, d) se ad = bc. Representando elementos de Z× Z\ {0} na forma de frac¸o˜es a b , isso quer dizer que estamos identificando as frac¸o˜es da maneira usual: a b ∼ c d se ad = bc. Assim, por exemplo 1 2 ∼ 2 4 ∼ 5 10 e 2 1 ∼ 100 50 ∼ −18−9 . ¤ 3.20 Definic¸a˜o. Um isomorfismo entre dois espac¸os vetoriais V e W sobre um mesmo corpo F e´ uma transformac¸a˜o linear bijetiva T : V −→ W cuja inversa e´ linear. Quando existir, dizemos que V e W sa˜o isomorfos e representamos isso por V ∼=W . 3.21 Proposic¸a˜o. Seja T : V −→ W uma transformac¸a˜o linear injetiva entre dois espac¸os vetoriais. Seja Z = T (V ). Enta˜o a transformac¸a˜o inversa T−1 : Z −→ V tambe´m e´ linear. Prova: Dados z1, z2 ∈ Z, sejam v1, v2 ∈ V tais que T (v1) = z1, T (v2) = z2. Dados α, β ∈ F, segue que T (αv1 + βv2) = αT (v1) + βT (v2) = αz1 + βz2. Portanto, T−1 (αz1 + βz2) = αv1 + βv2 = αT−1 (z1) + βT−1 (z2) . ¥ 3.22 Proposic¸a˜o. Isomorfia e´ uma relac¸a˜o de equivaleˆncia entre espac¸os vetoriais. Prova: Com efeito: (i) V ∼= V . O operador identidade I : V −→ V e´ um isomofismo. (ii) V ∼= W implica W ∼= V . Se T : V −→ W e´ um isomorfismo, segue da proposic¸a˜o anterior que T−1 :W −→ V tambe´m e´. (iii) Se V ∼=W e W ∼= Z, enta˜o V ∼= Z. Se T : V −→W e S :W −→ Z sa˜o isomorfismos, enta˜o a composta S ◦ T : V −→ Z tambe´m e´. ¥ Assim, do ponto de vista da a´lgebra linear, espac¸os isomorfos sa˜o identificados; eles sa˜o indistingu´ıveis do ponto de vista de operac¸o˜es lineares entre vetores. 3.23 Lema. Uma transformac¸a˜o linear T : V −→W e´ injetiva se e somente se T−1 (0W ) = 0V . Prova: Assuma T−1 (0W ) = 0V . Enta˜o, se T (x) = T (y), por linearidade segue que T (x− y) = 0W , logo x− y = 0V e portanto x = y, ou seja, T e´ injetiva. Reciprocamente, assuma T : V −→W e´ injetiva. Como , Se T (x) = T (y), por linearidade T (x− y) = 0W , e como T (0V ) = 0W , segue da injetividade de T que x− y = 0V , logo x = y. ¥ 3.24 Teorema. Todo espac¸o vetorial sobre F de dimensa˜o n e´ isomorfo a Fn. Rodney Josue´ Biezuner 36 Prova: Seja B = {v1, . . . , vn} uma base para um espac¸o vetorial V sobre F de dimensa˜o n. Definimos um isomorfismo T : V −→ Fn por T (vi) = ei, e declarando T linear, ou seja, T (α1v1 + . . .+ αnvn) = α1e1 + . . .+ αnen. E´ fa´cil ver que T e´ linear, injetivae sobrejetiva. ¥ Estabelecer coordenadas em um espac¸o vetorial e´ equivalente a estabelecer um isomorfismo entre ele e Fn. Uma vez que fazemos isso, estamos trabalhando essencialmente em Fn. Assim, do ponto de vista das operac¸o˜es da a´lgebra linear finita, existem apenas os espac¸os Fn. Todos os outros espac¸os vetoriais de dimensa˜o finita sobre F sa˜o isomorfos a algum Fn, independentemente se os seus vetores sa˜o n-uplas de escalares, segmentos orientados, matrizes, func¸o˜es ou o que seja. Tudo o que enxergamos sa˜o as relac¸o˜es lineares. 3.25 Lema. Se n > m, enta˜o uma transformac¸a˜o linear T : Fn −→ Fm na˜o pode ser injetiva. Prova: Mostraremos que kerT 6= {0}. Seja A a matrizm×n que representa T em relac¸a˜o a`s bases canoˆnicas de Fn e Fm: A = a11 a12 . . . a1m a1m+1 . . . a1n a21 a22 . . . a2m a2m+1 . . . a2n ... ... . . . ... ... . . . ... am1 am2 . . . amm amm+1 . . . amn . Resolvendo o sistema linear homogeˆneo AX = 0 para encontrar o nu´cleo de T , chegamos a` forma escalonada reduzida 1 0 . . . 0 b1m+1 . . . b1n 0 1 . . . 0 b2m+1 . . . b2n ... ... . . . ... ... . . . ... 0 0 . . . 1 bmm+1 . . . bmn ∣∣∣∣∣∣∣∣∣ 0 0 ... 0 (assumindo que na˜o obtemos nenhuma linha nula; se obtivermos linhas nulas, melhor ainda). Esta matriz aumentada e´ equivalente ao sistema x1 = −b1m+1xm+1 − . . .− b1nxn x2 = −b2m+1xm+1 − . . .− b2nxn ... xm = −bmm+1xm+1 − . . .− bmnxn Como xm+1, . . . , xn podem assumir valores arbitra´rios, segue que o sistema homogeˆneo admite infinitas soluc¸o˜es. ¥ 3.26 Lema. Se n < m, enta˜o uma transformac¸a˜o linear T : Fn −→ Fm na˜o pode ser sobrejetiva. Prova: Ja´ vimos na Proposic¸a˜o 3.3 que T (Fn) e´ um subespac¸o vetorial de Fm com dimensa˜o menor que ou igual a n. Como dimFm = m > n e a dimensa˜o de um espac¸o vetorial e´ um invariante, segue imediatamente que na˜o podemos ter T (Fn) = Fm. ¥ 3.27 Teorema. Se n 6= m, enta˜o Fn na˜o e´ isomorfo a Fm. 3.28 Corola´rio. Se V e W sa˜o espac¸os vetoriais sobre F, enta˜o eles sa˜o isomorfos se e somente se dimV = dimW . Rodney Josue´ Biezuner 37 Prova: Segue dos Teorema 3.24 e 3.27 e do fato de isomorfismo ser uma relac¸a˜o de equivaleˆncia. ¥ 3.29 Exemplo. Os seguintes subespac¸os sa˜o isomorfos: R6 ∼=M2×3 (R) ∼=M3×2 (R) ∼=M6×1 (R) ∼=M1×6 (R) ∼= P5 (R) e C24 ∼=M1×24 (C) ∼=M24×1 (C) ∼=M2×12 (C) ∼=M12×2 (C) ∼=M3×8 (C) ∼=M8×3 (C) ∼=M4×6 (C) ∼=M6×4 (C) ∼= P23 (C) . ¤ 3.30 Teorema. Sejam BV = {v1, . . . , vn} e BW = {w1, . . . , wm} bases para os espac¸os vetoriais V e W , respectivamente. Enta˜o a transformac¸a˜o Φ : L (V,W ) −→Mm×n (F) definida por T 7→ [T ]BV ,BW e´ um isomofismo entre espac¸os vetoriais. Mais que isso, ela tambe´m preserva o produto. Prova: Exerc´ıcio. ¥ 3.6 Teorema do Nu´cleo e da Imagem Sec¸a˜o 6.3. 7.3 e 7.4 do livro-texto Segue da Proposic¸a˜o 3.3 que o conjunto imagem imT de uma transformac¸a˜o linear T : V −→ W entre espac¸os vetoriais e´ um subespac¸o deW e que o conjunto T−1 (0) e´ um subespac¸o de V ; este u´ltimo e´ chamado o nu´cleo da transformac¸a˜o linear T e denotado kerT . O teorema a seguir e´ um dos resultados mais importantes de A´lgebra Linear. 3.31 Teorema. (Teorema do Nu´cleo e da Imagem) Seja T : V −→W uma transformac¸a˜o linear entre dois espac¸os vetoriais de dimensa˜o finita. Enta˜o dimV = dim (kerT ) + dim (imT ) . Prova: Seja {x1, . . . , xk} uma base para kerT e complete este conjunto L.I. ate´ uma base {x1, . . . , xk, xk+1, . . . , xn} para V . Afirmamos que B = {Txk+1, . . . , Txn} e´ uma base para imT . De fato, dado v = n∑ i=1 αixi, temos Tv = n∑ i=k+1 αiTxi, ja´ que Tx1 = . . . = Txk = 0, portanto B gera imT . Para provar que B e´ L.I., suponha que n∑ i=k+1 αiTxi = 0. Enta˜o, T ( n∑ i=k+1 αixi ) = 0, o que implica que n∑ i=k+1 αixi ∈ kerT (a intersec¸a˜o dos subespac¸os 〈x1, . . . , xk〉 e 〈xk+1, . . . , xn〉 e´ o vetor nulo), logo n∑ i=k+1 αixi = 0 e portanto αk+1 = . . . = αn = 0. ¥ Rodney Josue´ Biezuner 38 3.32 Corola´rio. Sejam V e W espac¸os vetoriais com a mesma dimensa˜o. Enta˜o uma transformac¸a˜o linear T : V −→W e´ injetiva se e somente se ela e´ sobrejetiva. Prova: Pois dimW = dimV = dim (kerT ) + dim (imT ) , logo dim (kerT ) = 0 se e somente se dim (imT ) = dimW . ¥ O Teorema do Nu´cleo e da Imagem da´ uma demonstrac¸a˜o alternativa dos Lemas 3.25 e 3.26: 3.33 Corola´rio. Sejam V e W espac¸os vetoriais com dimenso˜es n e m, respectivamente. Se n > m uma transformac¸a˜o linear T : V −→W na˜o pode ser injetiva e se n < m ela na˜o pode ser sobrejetiva. Prova: Como n = dim (kerT ) + dim (imT ) 6 dim (kerT ) +m, se n > m segue que dim (kerT ) > n−m > 0. Da mesma forma, como n = dim (kerT ) + dim (imT ) > dim (imT ) , se n < m temos que dim (imT ) < m. ¥ 3.34 Exemplo. Encontre bases para kerT e imT se T : R5 −→ R4 e´ a transformac¸a˜o linear representada nas bases canoˆnicas de R5 e R4 pela matriz A = 1 4 5 0 9 3 −2 1 0 −1 −1 0 −1 0 −1 2 3 5 1 8 . Soluc¸a˜o. Nu´cleo de T : Para encontrar kerT , resolvemos o sistema homogeˆneo AX = 0, escalonando a matriz A ate´ chegar na forma escalonada reduzida: 1 4 5 0 9 3 −2 1 0 −1 −1 0 −1 0 −1 2 3 5 1 8 ∼ `2 − 3`1`3 + `1 `4 − 2`1 1 4 5 0 9 0 −14 −14 0 −28 0 4 4 0 8 0 −5 −5 1 −10 ∼ `2/ (−14) `4/ (−5) `3/4 + `2/14 1 4 5 0 9 0 1 1 0 2 0 1 1 −1/5 2 0 0 0 0 0 ∼ `1 − 4`3 (−5) (`3 − `2) 1 0 1 0 1 0 1 1 0 2 0 0 0 1 0 0 0 0 0 0 . A matriz escalonada reduzida obtida e´ a matriz de coeficientes do sistema homogeˆneo x1 + x3 + x5 = 0x2 + x3 + 2x5 = 0 x4 = 0 Rodney Josue´ Biezuner 39 ou x1 = −x3 − x5x2 = −x3 − 2x5 x4 = 0 . Logo, x3 e x5 podem ser atribu´ıdos valores arbitra´rios α e β, de modo que obtemos kerT = {(−α− β,−α− 2β, α, 0, β) : α, β ∈ R} . Como (−α− β,−α− 2β, α, 0, β) = (−α,−α, α, 0, 0) + (β, 2β, 0, 0, β) = α (−1,−1, 1, 0, 0) + β (1, 2, 0, 0, 1) , segue que uma base para kerT e´ dada por BkerT = {(−1,−1, 1, 0, 0) , (1, 2, 0, 0, 1)} . (3.35) Em particular, dim (kerT ) = 2 (3.36) e segue do Teorema do Nu´cleo e da Imagem que dim (imT ) = 5− 2 = 3. Imagem de T : Sabemos que a imagem de T e´ gerada pelos vetores colunas da matriz A. Para encontrar uma base para imT basta determinar quais destes geradores sa˜o L.I. Isso pode ser feito de va´rias maneiras. Podemos tomar a matriz transposta de A e escalona´-la ate´ chegar na sua forma escalonada. Os vetores linha de A formara˜o uma base para imT : 1 3 −1 2 4 −2 0 3 5 1 −1 5 0 0 0 1 9 −1 −1 8 ∼ `2 − 4`1 `3 − 5`1 `5 − 9`1 1 3 −1 2 0 −14 4 −5 0 −14 4 −5 0 0 0 1 0 −28 8 −10 ∼ `2 `4 `3 − `2 `5 − 2`2 1 3 −1 2 0 −14 4 −5 0 0 0 1 0 0 0 0 0 0 0 0 de modo que uma base para imT e´ dada por BimT = {(1, 3,−1, 2) , (0,−14, 4,−5) , (0, 0, 0, 1)} . (3.37) Outra maneira de encontrar uma base para imT e´ observar que como dim (imT ) = 3, conforme obtivemos acima, basta encontrar 3 vetores colunas de A que sa˜o linearmente independentes. Isso e´ mais fa´cil de ver na matriz escalonada reduzida de A que obtivemos acima: 1 0 1 0 1 0 1 1 0 2 0 0 0 1 0 0 0 0 0 0 . Chamando as colunas desta matriz de w1, w2, w3, w4 e w5, embora elas na˜o gerem imT (por exemplo, o vetor (0, 0, 0, 1), que esta´ na imagem de T porque e´ o quarto vetor coluna da matriz A, na˜o pode Rodney Josue´ Biezuner 40 ser escrito de forma alguma como combinac¸a˜o linear de w1, w2, w3, w4, w5), elas preservam as relac¸o˜es lineares entre os vetores colunas de A, que chamaremos de v1, v2, v3, v4 e v5. Observando que w3 = w1 + w2, w5 = w2 + w3, e que os vetores w1, w2 e w4 sa˜o L.I., segue tambe´m que v3 = v1 + v2, v5 = v2 + v3,e que os vetores v1, v2 e v4 sa˜o L.I., de modo que outra base para imT e´ BimT = {(1, 3,−1, 2) , (4,−2, 0, 3) , (0, 0, 0, 1)} . (3.38) ¤ 3.7 Teorema do Posto Sec¸o˜es 7.3 e 7.5 do livro-texto 3.35 Definic¸a˜o. Se A ∈Mm×n (F), enta˜o existem 3 subespac¸os vetoriais importantes associados com A: 1. O espac¸o-linha lin (A) de A e´ o subespac¸o de Fn gerado pelos vetores-linha de A. 2. O espac¸o-coluna col (A) de A e´ o subespac¸o de Fn gerado pelos vetores-coluna de A. 3. O nu´cleo ou espac¸o nulo ker (A) de A e´ o subespac¸o de Fn soluc¸a˜o do sistema homogeˆneo AX = 0. 3.36 Definic¸a˜o. O posto de uma matriz e´ a dimensa˜o do espac¸o-coluna da matriz e a sua nulidade e´ a dimensa˜o do seu nu´cleo. Do Teorema do Nu´cleo e da Imagem segue que se A ∈Mm×n (F), enta˜o posto (A) + nulidade (A) = n. O resultado a seguir tambe´m e´ um dos mais importantes em A´lgebra Linear. 3.37 Teorema. (Teorema do Posto) Seja A ∈Mm×n (F) uma matriz. Enta˜o dim lin (A) = dim col (A) . Prova: Suponha que dimlin (A) = k. Isso significa que a forma escalonada reduzida R de A tem k vetores- linha na˜o-nulos, digamos R1, . . . , Rk. Como A e R tem o mesmo espac¸o-linha, segue que os vetores-linha A1, . . . , Am de A podem ser escritos como combinac¸o˜es lineares dos vetores-linha de R, digamos A1 = c11R1 + c12R2 + . . .+ c1kRk, A2 = c21R1 + c22R2 + . . .+ c2kRk, ... Am = cm1R1 + cm2R2 + . . .+ cmkRk. Isso implica que o j-e´simo elemento da linha Ai e´ dado por Aij = ci1R1j + ci2R2j + . . .+ cikRkj . Rodney Josue´ Biezuner 41 Logo, a j-e´sima coluna da matriz A e´ dada por A1j A2j ... Amj = R1j c11 c21 ... cm1 +R2j c12 c22 ... cm2 + . . .+Rkj c1k c2k ... cmk . Portanto, o espac¸o-coluna de A tambe´m e´ gerado por k vetores. Isso implica que dim col (A) 6 dim lin (A) , (3.39) ja´ que na˜o sabemos em princ´ıpio se estes vetores sa˜o linearmente independentes. Mas isso vale para qualquer matriz, em particular tambe´m vale para a transposta de A, logo tambe´m temos dim col ( AT ) 6 dim lin ( AT ) . (3.40) Mas dim col ( AT ) = dim lin (A) , dim lin ( AT ) = dim col (A) , logo (3.40) e´ equivalente a dim lin (A) 6 dim col (A) . (3.41) Colocando (3.39) e (3.41) juntos, conclu´ımos que dim lin (A) = dim col (A) . ¥ Em vista do Teorema do Posto, segue que o posto de uma matriz tambe´m e´ a dimensa˜o de seu espac¸o-linha. 3.8 Mudanc¸a de Base e Semelhanc¸a de Matrizes Sec¸o˜es 8.1 e 8.2 do livro-texto 3.38 Teorema. Sejam B = {v1, . . . , vn} e B′ = {v′1, . . . , v′n} duas bases para o espac¸o vetorial V . Seja T : V −→ V um operador linear. Enta˜o existe uma u´nica matriz invert´ıvel P tal que [T ]B′ = P [T ]B P −1, [T ]B = P −1 [T ]B′ P. As colunas de P sa˜o dadas pelas coordenadas dos vetores da base B com relac¸a˜o a` base B′, ou seja, P = [[v1]B′ . . . [vn]B′ ] . Prova: Sabemos que [v]B = P −1 [v]B′ , [Tv]B = P −1 [Tv]B′ , para todo vetor v ∈ V . Por definic¸a˜o, tambe´m temos [Tv]B = [T ]B [v]B . Rodney Josue´ Biezuner 42 Logo, P−1 [Tv]B′ = [T ]B P −1 [v]B′ , donde [Tv]B′ = P [T ]B P −1 [v]B′ . Mas, por definic¸a˜o, [Tv]B′ = [T ]B′ [v]B′ , logo [T ]B′ [v]B′ = P [T ]B P −1 [v]B′ , o que significa que [T ]B′ = P [T ]B P −1. ¥ Observe que a matriz P nada mais e´ que a matriz de mudanc¸a de base da base B para a base B′ e portanto P−1e´ a matriz de mudanc¸a de base da base B′ para a base B. Assim, [T ]B′ = MudaB→B′ [T ]BMudaB′→B 3.39 Definic¸a˜o. Sejam A,B ∈ Mn (F) duas matrizes quadradas. Dizemos que A e B sa˜o semelhantes se existe uma matriz invert´ıvel P ∈Mn (F) tal que B = P−1AP . Segue da rec´ıproca do Teorema 3.30 que duas matrizes sa˜o semelhantes se em cada espac¸o vetorial sobre F fixado elas representam a mesma transformac¸a˜o linear em relac¸a˜o a duas bases (possivelmente) distintas. 3.40 Exemplo. Seja T : R3 −→ R3 a transformac¸a˜o linear representada na base canoˆnica de R3 pela matriz A = 4 2 22 4 2 2 2 4 . Encontre a matriz de T em relac¸a˜o a` base B = {(1,−1, 0) , (1, 0,−1) , (1, 1, 1)} . Soluc¸a˜o. Temos P−1 = 1 1 1−1 0 1 0 −1 1 , donde P = 1 1 1−1 0 1 0 −1 1 −1 = 1 3 − 23 13 1 3 1 3 − 23 1 3 1 3 1 3 . Logo, [T ]B = PAP −1 = 1 3 − 23 13 1 3 1 3 − 23 1 3 1 3 1 3 4 2 22 4 2 2 2 4 1 1 1−1 0 1 0 −1 1 = 2 0 00 2 0 0 0 8 . ¤ Cap´ıtulo 4 Espac¸os com Produto Interno 4.1 Produto Interno 4.1 Definic¸a˜o. Seja V um espac¸o vetorial real. Um produto interno em V e´ uma func¸a˜o 〈·, ·〉 : V ×V −→ R que satisfaz as seguintes propriedades: (i) 〈x+ y, z〉 = 〈x, z〉+ 〈y, z〉 para todos x, y, z ∈ V ; (ii) 〈αx, y〉 = α 〈x, y〉 para todos x, y ∈ V e para todo α ∈ R; (iii) 〈x, y〉 = 〈y, x〉 para todos x, y ∈ V ; (iv) 〈x, x〉 > 0 para todo x 6= 0. Um espac¸o vetorial real de dimensa˜o finita dotado de um produto interno e´ frequ¨entemente chamado um espac¸o euclidiano. 4.2 Proposic¸a˜o. Em um espac¸o euclidiano valem as seguintes propriedades: 1. 〈x, x〉 > 0 para todo x ∈ V. 2. 〈x, x〉 = 0 se e somente se x = 0. 〈x, αy〉 = α 〈x, y〉 para todos x, y ∈ V e para todo α ∈ R. Em resumo, 〈αx+ βy, z〉 = α 〈x, z〉+ β 〈y, z〉 para todos x, y, z ∈ V e para todos α, β ∈ R. (4.1) 4.3 Exemplo. Definimos um produto interno em Rn da seguinte forma. Se x = (x1, . . . , xn) e y = (y1, . . . , yn), enta˜o 〈x, y〉 = n∑ i=1 xiyi. (4.2) Este e´ o chamado produto interno canoˆnico em Rn. ¤ 43 Rodney Josue´ Biezuner 44 4.4 Exemplo. Identificando Rn com o espac¸o das matrizes reais n× 1 (matrizes colunas reais), dada uma matriz real n× n invert´ıvel A, definimos um produto interno em Rn por 〈x, y〉 = yt (AtA)x. (4.3) Note que AtA e´ uma matriz sime´trica. Quando A = I, obtemos o produto interno canoˆnico em Rn. Vamos verificar apenas as propriedades (iii) e (iv) da Definic¸a˜o 4.1, ja´ que a verificac¸a˜o das demais propriedades e´ imediata. Como a matriz AtA e´ sime´trica e a transposta de uma matriz 1 × 1 (um nu´mero) e´ ela pro´prio, temos 〈x, y〉 = yt (AtA)x = [xt (AtA) y]t = xt (AtA) y = 〈y, x〉 . Em seguida, observando que ( AtA ) ij = n∑ r=1 atirarj = n∑ r=1 ariarj . Da´ı, 〈x, x〉 = xt (AtA)x = n∑ i=1 x1i [( AtA ) x ] i1 = n∑ i=1 x1i n∑ j=1 ( AtA ) ij xj1 = n∑ i=1 x1i n∑ j=1 n∑ r=1 ariarjxj1 = n∑ i,j,r=1 xixjariarj = n∑ r=1 ( n∑ i=1 arixi ) n∑ j=1 arjxj = n∑ r=1 ∣∣∣∣∣ n∑ i=1 arixi ∣∣∣∣∣ 2 > 0. Agora, como A e´ invert´ıvel, se x 6= 0 existe pelo menos algum r tal que n∑ i=1 arixi 6= 0 (este somato´rio e´ exatamente o r-e´simo elemento da matriz Ax) logo 〈x, x〉 > 0. ¤ 4.5 Exemplo. Se V e´ um espac¸o vetorial e W e´ um espac¸o vetorial com produto interno, ambos sobre o mesmo corpo R, se T : V −→ V e´ um isomorfismo, definimos um produto interno em V a partir do produto interno em W por 〈x, y〉V := 〈Tx, Ty〉W . (4.4) Dizemos que 〈·, ·〉V e´ o produto interno em V induzido pelo produto interno em W atrave´s do iso- morfismo T . Na verdade, e´ suficiente que T seja uma aplicac¸a˜o linear injetiva para esta definic¸a˜o fazer sentido (pois T e´ um isomorfismo de V sobre a sua imagem). ¤ 4.6 Exemplo. Definimos um produto interno em Mn (R) por 〈A,B〉 = n∑ i,j=1 aijbij . (4.5) Usando a transposta e a func¸a˜o trac¸o, este produto pode ser escrito na forma 〈A,B〉 = tr (ABt) . ¤ Rodney Josue´ Biezuner 45 4.7 Exemplo. Se C ([0, 1] ;R) denota o espac¸o das func¸o˜es cont´ınuas no intervalo [0, 1] com valores em R, definimos um produto interno neste espac¸o de dimensa˜o infinita por 〈f, g〉 = ∫ 1 0 f (t) g (t) dt. (4.6) ¤ 4.8 Proposic¸a˜o. Seja V um espac¸o
Compartilhar