Baixe o app para aproveitar ainda mais
Prévia do material em texto
Me´todos Matema´ticos Prof. Pablo Siqueira Meirelles Departamento de Mecaˆnica Computacional UNICAMP Novembro 22, 2011 4 Conteu´do I Primeia parte 15 1 Nu´meros complexos 17 1.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.2 Representac¸a˜o de nu´meros complexos . . . . . . . . . . . . . . . . . . . . . 17 1.3 Operac¸o˜es com nu´meros complexos . . . . . . . . . . . . . . . . . . . . . . 18 1.3.1 Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.3.2 Produto por um nu´mero real . . . . . . . . . . . . . . . . . . . . . . 19 1.3.3 Produto de dois nu´meros complexos . . . . . . . . . . . . . . . . . 19 1.3.4 Poteˆncia de expoente racional . . . . . . . . . . . . . . . . . . . . . 19 1.3.5 Inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.3.6 Quociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.3.7 Radicac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.3.8 Logaritmo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.3.9 Fo´rmula de Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.4 Transcendentes elementares . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2 Se´ries 23 2.1 Se´ries nume´ricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.1.1 Teoremas de convergeˆncia . . . . . . . . . . . . . . . . . . . . . . . 24 2.1.2 Se´ries de termos positivos reais . . . . . . . . . . . . . . . . . . . . 24 2.1.3 Crite´rios de convergeˆncia de se´ries de termos positivos . . . . . . . 25 2.1.4 Convergeˆncia absoluta e convergeˆncia condicional . . . . . . . . . . 26 2.1.5 Se´ries de termos alternados . . . . . . . . . . . . . . . . . . . . . . 27 2.2 Operac¸o˜es com se´ries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.2.1 Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.2.2 Produto de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.3 Sucessa˜o de func¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.4 Se´rie de func¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.5 Se´ries de poteˆncias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.5.1 Soma, diferenc¸a e produto de se´ries de poteˆncia . . . . . . . . . . . 29 2.5.2 Expansa˜o em se´rie de poteˆncias . . . . . . . . . . . . . . . . . . . . 30 5 3 Vetores 33 3.1 Sistema de coordenadas cartesiano . . . . . . . . . . . . . . . . . . . . . . 33 3.1.1 Diferentes notac¸o˜es: . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.2 Operac¸o˜es com vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.2.1 Soma, subtrac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.2.2 Multiplicac¸a˜o por um escalar . . . . . . . . . . . . . . . . . . . . . 35 3.2.3 Produto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.2.4 Produto vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.2.5 Produto escalar triplo . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.2.6 Produto vetorial triplo . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.2.7 Produto interno entre vetores complexos . . . . . . . . . . . . . . . 37 3.3 Campos vetoriais e escalares . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.3.1 Definic¸a˜o de campo vetorial . . . . . . . . . . . . . . . . . . . . . . 38 3.3.2 Definic¸a˜o de campo escalar . . . . . . . . . . . . . . . . . . . . . . 38 3.3.3 Operador Nabla ∇ . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.3.4 Operador laplaciano ∆ . . . . . . . . . . . . . . . . . . . . . . . . 41 4 Notac¸a˜o indicial 43 4.1 Notac¸a˜o cla´ssica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 4.2 Notac¸a˜o indicial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 4.2.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 4.2.2 Convenc¸a˜o soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 4.2.3 Notac¸a˜o de diferenciac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . 46 4.2.4 Delta de Kronecker δij . . . . . . . . . . . . . . . . . . . . . . . . . 46 4.2.5 Operador alternante ou alternador εijk . . . . . . . . . . . . . . . . 47 4.2.6 Aplicac¸o˜es do tensor εijk . . . . . . . . . . . . . . . . . . . . . . . . 47 4.2.7 Relac¸a˜o entre δij e εklm . . . . . . . . . . . . . . . . . . . . . . . . 47 4.3 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 4.4 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 5 Vetores Euclidianos 51 5.1 Norma de um vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 5.1.1 Algumas definic¸o˜es para a norma . . . . . . . . . . . . . . . . . . . 53 5.2 Obtenc¸a˜o de uma base ortogonal . . . . . . . . . . . . . . . . . . . . . . . 54 5.2.1 Me´todo de ortogonalizac¸a˜o de Gram-Schmidt . . . . . . . . . . . . 54 6 Produto escalar e projec¸o˜es em uma reta 59 6.1 Vetor projec¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 6.2 Matriz projetora . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 6.3 Teorema da projec¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 6 7 Matrizes 67 7.1 Notac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 7.2 Definic¸o˜es e propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . 67 7.3 Norma de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 7.4 Determinante de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . 72 7.5 Ca´lculo do determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 7.6 Auto-valores de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . 73 7.7 Produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 7.8 Subespac¸os fundamentais de uma matriz . . . . . . . . . . . . . . . . . . 76 8 Autovalores e autovetores de uma matriz 77 8.1 Propriedades, teoremas, definic¸o˜es . . . . . . . . . . . . . . . . . . . . . . 79 8.2 Nu´mero de condic¸a˜o espectral de uma matriz . . . . . . . . . . . . . . . . 82 8.3 Teorema do c´ırculo de Gerschgorin . . . . . . . . . . . . . . . . . . . . . . 82 8.4 Translac¸a˜o de autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 8.5 Problema de autovalores e autovetores generalizado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 8.6 Ca´lculo de autovalores e autovetores . . . . . . . . . . . . . . . . . . . . . 85 8.6.1 Algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 8.6.2 Me´todo da poteˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . 86 8.7 Condicionamento do autosistema [A]{x} = λ{x} . . . . . . . . . . . . . . . 89 8.7.1 Condicionamento dos autovalores . . . . . . . . . . . . . . . . . . . 89 8.7.2 Condicionamento dos autovetores . . . . . . . . . . . . . . . . . . . 90 8.8 Forma quadra´tica de uma matriz [A]N×N . . . . . . . . . . . . . . . . . . 90 II Segunda parte 91 9 Me´todos de resoluc¸a˜o de sistemas de equac¸o˜es lineares 93 9.1 Classificac¸a˜o de sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 9.1.1 Sistemas determinados . . . . . . . . . . . . . . . . . . . . . . . . . 93 9.1.2 Sistemas super-determinados . . . . . . . . . . . . . . . . . . . . . 94 9.1.3 Sistemas sub-determinados . . . . . . . . . . . . . . . . . . . . . . 95 9.1.4 Sistemas homogeˆneos . . . . . . . . . . . . . . . . . . . . . . . . . 95 9.2 Sistemas triangulares (determinados) . . . . . . . . . . . . . . . . . . . . . 95 9.2.1 Definic¸a˜o. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 9.2.2 Sistema triangular inferior ([L]) . . . . . . . . . . . . . . . . . . . . 96 9.2.3 Sistema triangular superior ([U]) . . . . . . . . . . . . . . . . . . . 96 9.3 Armazenamento esparso . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 9.3.1 Conversa˜o de ı´ndice . . . . . . . . . . . . . . . . . . . . . . . . . . 98 9.4 Sistemas determinados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 9.4.1 Me´todo de resoluc¸a˜o baseado na decomposic¸a˜o QR: . . . . . . . . . 99 9.4.2 Me´todos de resoluc¸a˜o baseados em decomposic¸a˜o triangular . . . . 101 7 9.4.3 Decomposic¸a˜o triangular de Cholesky . . . . . . . . . . . . . . . . 102 9.4.4 Decomposic¸a˜o triangular de Doolittle . . . . . . . . . . . . . . . . 102 9.5 Sistemas sime´tricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 9.5.1 Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 9.5.2 Decomposic¸a˜o de DOOLITTLE . . . . . . . . . . . . . . . . . . . . 104 9.5.3 Decomposic¸a˜o de CROUT: . . . . . . . . . . . . . . . . . . . . . . 105 9.5.4 Decomposic¸a˜o de GAUSS (LDU): . . . . . . . . . . . . . . . . . . 105 9.6 Nu´mero de condic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 9.6.1 Estimativa de c[A] . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 9.6.2 Estimativa melhorada de K ≈ c[A]: . . . . . . . . . . . . . . . . . 107 9.7 Sistemas de equac¸o˜es lineares: escalonamento (balanceamento) . . . . . . 108 9.7.1 Escalonamento diagonal (por coluna) para [A]{x} = {b} . . . . . . 108 9.7.2 Escalonamento diagonal (por linha) para [A]{x} = {b} . . . . . . . 108 9.7.3 Escalonamento diagonal (linha e coluna) para [A]{x} = {b} . . . . 109 9.7.4 Me´todos de obtenc¸a˜o de [D]L e [D]C (resumo) . . . . . . . . . . . . 110 10 Transformac¸o˜es similares 113 10.1 Transformac¸a˜o unita´ria . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 10.2 Transformac¸a˜o ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 10.3 Forma diagonal de uma matriz [A] . . . . . . . . . . . . . . . . . . . . . . 115 10.4 Propriedades e teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 10.5 Forma canoˆnica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 10.6 Transformac¸a˜o de Householder . . . . . . . . . . . . . . . . . . . . . . . . 119 10.7 Decomposic¸a˜o QR usando a transformac¸a˜o de Householder . . . . . . . . 120 10.8 Aplicac¸o˜es da decomposic¸a˜o QR . . . . . . . . . . . . . . . . . . . . . . . . 123 10.8.1 Resoluc¸a˜o de sistemas super-determinados . . . . . . . . . . . . . . 123 10.9 Forma de Hessenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 11 Pseudo-inversa e decomposic¸a˜o em valores singulares 129 11.1 Decomposic¸a˜o em valores singulares - SVD . . . . . . . . . . . . . . . . . . 130 11.1.1 Armazenamento computacional . . . . . . . . . . . . . . . . . . . . 132 11.2 Algumas aplicac¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 11.2.1 Ca´lculo da pseudo-inversa . . . . . . . . . . . . . . . . . . . . . . . 132 11.2.2 Decomposic¸a˜o polar . . . . . . . . . . . . . . . . . . . . . . . . . . 134 11.2.3 Resoluc¸a˜o de sistemas de equac¸o˜es . . . . . . . . . . . . . . . . . . 134 11.2.4 Sistemas na˜o homogeˆneos . . . . . . . . . . . . . . . . . . . . . . . 136 11.2.5 Sistemas retangulares . . . . . . . . . . . . . . . . . . . . . . . . . 136 11.2.6 Algoritmo SVD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 12 Integradores lineares 139 12.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 12.2 Integradores lineares de um passo . . . . . . . . . . . . . . . . . . . . . . 139 12.2.1 Integradores expl´ıcitos (β1 = 0) . . . . . . . . . . . . . . . . . . . 139 8 12.2.2 Integradores impl´ıcitos (β1 6= 0) . . . . . . . . . . . . . . . . . . . 141 12.3 Me´todos de 2 passos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 12.4 Runge Kutta expl´ıcito de quarta ordem . . . . . . . . . . . . . . . . . . 141 12.4.1 Generalizac¸a˜o para sistemas de equac¸o˜es diferenciais . . . . . . . 143 12.5 Famı´lia de integradores trapezoidais . . . . . . . . . . . . . . . . . . . . 143 12.5.1 Integradores t´ıpicos . . . . . . . . . . . . . . . . . . . . . . . . . 144 12.5.2 Algoritmos na forma {x˙} . . . . . . . . . . . . . . . . . . . . . . 144 12.5.3 Algoritmos na forma {x}N+1 . . . . . . . . . . . . . . . . . . . . 145 12.6 Caracter´ısticas relevantes de um integrador . . . . . . . . . . . . . . . . 146 12.6.1 Ana´lise de estabilidade do algoritmo: . . . . . . . . . . . . . . . . 146 12.7 Ana´lise dos integradores da famı´lia trapezoidal . . . . . . . . . . . . . . 147 12.8 Escolha do integrador . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 9 10 Lista de Figuras 1.1 Representac¸a˜o gra´fica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 3.1 Vetor no espac¸o cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.2 Vetor definido por dois pontos. . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.3 Produto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.4 Produto vetorial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.5 a´rea do paralelogramo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.6 Superf´ıcie Φ(x, y, z) = ρ. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 3.7 Curva de equac¸a˜o φ(x, y) = ρ. . . . . . . . . . . . . . . . . . . . . . . . . . 40 4.1 Domı´nio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 5.1 Base euclidiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 6.1 Projec¸a˜o ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 6.2 Distaˆncia de um ponto a um plano. . . . . . . . . . . . . . . . . . . . . . . 62 8.1 C´ırculo de Gerschgorin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 9.1 Matriz triangular cheia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 9.2 Matriz triangular em banda. . . . . . . . . . . . . . . . . . . . . . . . . . . 97 9.3 Matriz triangular ”sky-line”. . . . . . . . . . . . . . . . . . . . . . . . . . . 98 9.4 Conversa˜o de ı´ndices de matriz para vetor. . . . . . . . . . . . . . . . . . . 98 10.1 Interpolac¸a˜o por mı´nimos quadrados. . . . . . . . . . . . . . . . . . . . . . 123 12.1 Integrador de Euler. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 12.2 Me´todo de integrac¸a˜o expl´ıcito de Runge-Kutta de ordem 4. . . . . . . . . 142 12.3 Convergeˆncia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 12.4 Fator de amplificac¸a˜o. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 11 12 Prefa´cio A elaborac¸a˜o e resoluc¸a˜o de modelos matema´ticos que representem os sistemas em estudo constitui uma atividade essencial nas cieˆncias exatas, e mesmo em algumas na˜o ta˜o exatas, a exemplo da economia. O matema´tico holandeˆs Peter Eikof [7], autor de um dos mais conhecidos livros de identificac¸a˜o de sistemas, tem pore´m se preocupado em alertar para dois erros frequ¨entes e que devem ser evitados pelos usua´rios: jamais se apaixonar pelos modelos, pois eles nunca sera˜o melhores do que a realidade, e nunca tentar ir ale´m dos limites de validade dos modelos. Somente a experieˆncia profissional e´ capaz de conferir a real coereˆncia e dimensa˜o a estas observac¸o˜es. Em consonaˆncia com estas observac¸o˜es, e na˜o apesar delas, e´ tarefa dos cien- tistas elaborar modelos cada vez mais precisos, confia´veis e gerais, e ao mesmo tempo disponibilizar as ferramentas necessa´rias a` explorac¸a˜o destes modelos. A matema´tica, atrave´sda sua longa histo´ria, tem se desenvolvido de maneira na˜o uniforme no tempo, impulsionada pelas conjunturas e em congrueˆncia com circunstaˆncias sociais, econoˆmicas, tecnolo´gicas, cient´ıficas e ate´ teolo´gicas e filoso´ficas. No passado re- cente o desenvolvimento da matema´tica aplicada tem se tornado um aliado imprescind´ıvel para o avanc¸o acelerado da tecnologia. A exigeˆncia crescente de precisa˜o tem motivado a elaborac¸a˜o de modelos sofisticados para representar fenoˆmenos mais complexos. A verificac¸a˜o (validac¸a˜o) e correc¸a˜o (ajuste) dos modelos tem recebido um aux´ılio enorme pela evoluc¸a˜o nos meios de observac¸a˜o dos fenoˆmenos f´ısicos, refletida principalmente na evoluc¸a˜o dos transdutores, possibilitada pela microeletroˆnica, e nos meios de coleta e processamento dos sinais. Por outro lado, a manipulac¸a˜o de modelos maiores e mais sofisticados, somado a` exigeˆncia de reduc¸a˜o nos tempos de processamento, requerem ”hardwares” cada vez mais poderosos e me´todos nume´ricos cada vez mais eficientes e robustos. A procura da fronteira entre a sofisticac¸a˜o dos procedimentos experimentais e o en- riquecimento dos conhecimentos que a evoluc¸a˜o dos processamentos matema´ticos podem extrair das informac¸o˜es obtidas da observac¸a˜o da realidade, pode ser sentida no seguinte confronto de ide´ias: Lanczos [1] defende que, a evoluc¸a˜o das ferramentas matema´ticas na˜o sera´ jamais capaz de compensar a falta de dados experimentais, ao que Je´ze´quel [2] contrapo˜e, E´ necessa´rio desenvolver o processamento matema´tico tanto quanto poss´ıvel para extrair o ma´ximo proveito dos dados experimentais dispon´ıveis. Finalmente, e´ imposs´ıvel na˜o mencionar a virada de pa´gina histo´rica promovida nas treˆs ultimas de´cadas do se´culo XX pela evoluc¸a˜o e disseminac¸a˜o dos recursos computa- 13 cionais. Atualmente e´ dif´ıcil conceber qualquer atividade cient´ıfica aplicada ou tecnolo´gica sem o uso da informa´tica. Esta realidade conferiu enorme importaˆncia aos me´todos aprox- imados de ca´lculo nume´rico, e portanto o conhecimento destas ferramentas e´ parte impre- scind´ıvel na formac¸a˜o de qualquer cientista ou tecno´logo da atualidade. 14 Parte I Primeia parte 15 Cap´ıtulo 1 Nu´meros complexos 1.1 Introduc¸a˜o Uma forma simples de classificar as caracter´ısticas dos nu´meros com os quais trabalhamos e´ dividi-los em nu´meros racionais, irracionais e complexos. O conjunto dos dois primeiros constitui o universo dos nu´meros reais, que podem ser representados graficamente num eixo (espac¸o R1). Os nu´meros complexos sa˜o uma generalizac¸a˜o dos nu´meros reais para o plano (espac¸o R2). No esquema a seguir e´ apresentada esta classificac¸a˜o dos nu´meros reais, assim como algumas das suas caracter´ısticas. Nu´meros racionais Ordenados Densos Representa´veis por uma frac¸a˜o Nu´meros irracionais → Na˜o representa´veis por uma frac¸a˜o Nu´meros reais Os nu´meros reais constituem um conjunto ordenado, denso e cont´ınuo, existindo por- tanto uma correspondeˆncia biun´ıvoca destes nu´meros com os pontos de um eixo orientado. Os nu´meros complexos sa˜o formados por um par de nu´meros reais, representa´veis em eixos mutuamente perpendiculares, constituindo portanto uma correspondeˆncia com todos os pontos do plano, chamado Plano Complexo. Os eixos sa˜o chamados eixo real e eixo imagina´rio, abscissa e ordenada do sistema ortogonal plano de coordenadas respectivamente. 1.2 Representac¸a˜o de nu´meros complexos Define-se o nu´mero imagina´rio puro i = √−1 ⇒ i2 = −1. Este e´ o versor orientac¸a˜o do eixo imagina´rio. Observac¸a˜o: Alguns autores preferem representar o nu´mero imagina´rio puro por j no lugar de i. 17 Qualquer nu´mero complexo c pode ser representado de diferentes formas, tais como: c = a+ ib ; c = ρ(cosϕ+ isenϕ) = ρ∠ϕ = ρ∠(ϕ+ 2kπ) , c = ρeiϕ , c = (a, b) Para estas representac¸o˜es sa˜o va´lidas as relac¸o˜es: ρ = √ a2 + b2 (Mo´dulo) ϕ = arctg ( b a ) (Fase ou argumento) Figura 1.1: Representac¸a˜o gra´fica. Definic¸a˜o - Complexo conjugado: e´ chamado conjugado do nu´mero complexo c = a+ib ao nu´mero c = a− ib, para qualquer valor real de a e b. 1.3 Operac¸o˜es com nu´meros complexos 1.3.1 Soma (a+ ib) + (c+ id) = (a+ c) + i(b+ d) Propriedades: • Existeˆncia • Unicidade • Associativa • Comutativa • Existeˆncia do neutro • Triangular: |Z1 + Z2| ≤ |Z1|+ |Z2| 18 1.3.2 Produto por um nu´mero real r.(a+ ib) = ra+ irb Propriedades: • Existeˆncia • Unicidade • Associativa • Distributiva • Existeˆncia do neutro 1.3.3 Produto de dois nu´meros complexos Define-se o produto de dois nu´meros complexos da forma a seguir 1: (a+ ib).(c+ id) = ac+ iad+ ibc+ i2bd = (ac− bd) + i(ad+ bc) ρ∠ϕ . τ∠γ = ρ.τ∠(ϕ+ γ) Propriedades: • Existeˆncia • Unicidade • Associativa • Distributiva • Existeˆncia do neutro 1.3.4 Poteˆncia de expoente racional Z0 = 1 ∀ Z 6= 0 Z1 = Z ∀ Z Zn = Z.Z.....Z︸ ︷︷ ︸ n (ρ∠ϕ)n = ρn∠nϕ 1Demonstrar a equivaleˆncia entre as duas expresso˜es como exerc´ıcio 19 1.3.5 Inverso Seja o complexo c = a+ ib Define-se o inverso de c: c−1 = 1 c = 1 a+ ib = a− ib a2 + b2 = c |c|2 Com esta definic¸a˜o se verifica que c.1 c = (a+ ib). (a−ib) a2+b2 = a 2+b2 a2+b2 = 1 Pela definic¸a˜o de poteˆncia: (ρ∠ϕ)−1 = ρ−1∠− ϕ 1.3.6 Quociente Multiplicac¸a˜o pelo inverso. 1.3.7 Radicac¸a˜o n √ ρ∠ϕ = n √ ρ∠(ϕ+ 2kπ) = (ρ∠(ϕ+ 2kπ))1/n = (ρ)1/n∠ 1 n (ϕ+ 2kπ) = n √ ρ∠ ( ϕ n + k 2π n ) No plano complexo, a raiz de ordem n tem sempre n soluc¸o˜es. 1.3.8 Logaritmo Ln(ρ∠ϕ) = x+ iy ⇔ ex+iy = ρ∠ϕ ex+iy = ex.eiy = ex∠y = ρ∠ϕ ⇒ x = Ln(ρ) e y = ϕ+ 2kπ ∴ Ln(ρ∠ϕ) = Ln(ρ) + i(ϕ+ 2kπ) 1.3.9 Fo´rmula de Moivre (cosα+ i sinα)m = cos(mα) + i sin(mα) (m inteiro) Demonstrac¸a˜o: (cosα+ i sinα)m = (eiα)m = eiαm = cos(mα) + i sin(mα) Observac¸a˜o: Para qualquer nu´mero complexo ρeiα = ρ∠α⇒ (ρ∠α)m = ρm∠(mα) = ρmeimα 20 1.4 Transcendentes elementares eiz = cos z + i sin z e−iz = cos z − i sin z =⇒ cos z = eiz + e−iz 2 sin z = eiz − e−iz 2i tan z = 1 i eiz − e−iz eiz + e−iz Definic¸o˜es: cosh z = ez + e−z 2 sinh z = ez − e−z 2 tanh z = ez − e−z ez + e−z Exerc´ıcios: 1. Demonstrar que: a. ρ∠ϕ . τ∠γ = ρ.τ∠(ϕ+ γ) b. cos z = e iz+e−iz 2 c. sin z = e iz−e−iz 2i d. tan z = 1 i eiz−e−iz eiz+e−iz e. cosh z = cos iz f. sinh z = −i sin iz g. tanh z = −i tan iz 2. Utilizando as func¸o˜es transcendentes achar expresso˜es simplificadas para: a. sin(a± b) b. cos(a± b) c. tan(a± b) d. sin(a)± sin(b) e. cos(a)± cos(b) 21 f. tan(a)± tan(b) g. sin2 x+ cos2 x h. cos2 x− sin2 x i. sinh2 x+ cosh2 x j. cosh2 x− sinh2 x k. sinh(x± y) l. cosh(x± y) 22 Cap´ıtulo 2 Se´ries 2.1 Se´ries nume´ricas Seja uma sequ¨eˆncia de nu´meros, reais ou complexos: a1 ; a2 ; a3 ; · · · ; an ; · · · Define-se a se´rie nume´rica S como sendo a sequ¨eˆncia de nu´meros S1 ; S2 ; S3 ; · · · ; Sn ; · · · , onde cada termo e´ obtido pela regra seguinte: S1 = a1 ; S2 = a1 + a2 ; S3 = a1 + a2 + a3 ; · · · ; Sn = a1 + a2 + a3 + · · ·+ an ; · · · O termo Sn e´ chamado reduzida de ordem n, ou soma parcial de ordem n, da se´rie. Portanto pode se definir uma se´rie nume´rica como sendo uma sucessa˜o de reduzidas. Definic¸a˜o - Uma se´rie e´ dita convergente se a sucessa˜o das reduzidas tem limite finito. Definic¸a˜o - A se´rie e´ dita convergente, divergente ou oscilante, se S = lim n→∞ Sn existe finito, existe ∞ ou na˜o existe, respectivamente. Exemplo - Se´rie geome´trica: Sn+1 = 1 + q + q 2 + q3 + ....+ qn (q complexo) Observac¸a˜o: Sn = qn−1 q−1 1 1Demonstrac¸a˜o por induc¸a˜ofinita: - Para n = 1 =⇒ S1 = q 1 −1 q−1 = 1 Observac¸a˜o - tambe´m poder´ıamos comec¸ar demonstrando para n = 2: S2 = q2−1 q−1 = (q+1)(q−1) q−1 = q + 1 - Admitimos para n = N qualquer: SN = 1 + q + .... + q N−1 = q N −1 q−1 - Finalmente demonstramos que se vale para N , tambe´m vale para N + 1: SN+1 = 1 + q + .... + q N−1 + qN = SN + q N = q N −1 q−1 + q N = q N −1+qN+1−qN q−1 = qN+1−1 q−1 Portanto a igualdade esta´ demonstrada. 23 Para o exemplo anterior; Sn = qn − 1 q − 1 |q| < 1⇒ |qn| → 0⇒ Sn → 11−q (Converge) |q| > 1⇒ |qn| → ∞ ⇒ Sn →∞ (Diverge) |q| = 1 q = 1 ⇒ Sn = n⇒ lim n→∞ Sn =∞ (Diverge) q = −1 ⇒ Sn = 1− 1 + 1− . . . ⇒ { Sn=2N = 0 Sn=2N+1 = 1 (Oscila) q 6= −1 ⇒ q = cosα+ i sinα (α 6= nπ) ⇒ qn = cosnα + i sinnα (Oscila) Definic¸a˜o: r = S − Sn e´ o res´ıduo de ordem n da se´rie convergente de limite S. 2.1.1 Teoremas de convergeˆncia 1. Adicionar ou tirar um nu´mero finito de termos na˜o altera o carater convergente ou na˜o da se´rie. ( Pode alterar o valor de S, se a se´rie for convergente) 2. Uma se´rie convergente multiplicada termo a termo por um escalar c continua con- vergente. O limite passa a ser c.S. 3. A se´rie resultante da soma/diferenc¸a termo a termo de duas se´ries convergentes e´ convergente. O limite da nova se´rie sera´ S = S1 ± S2. 4. Uma condic¸a˜o necessa´ria (na˜o suficiente) para a convergeˆncia da se´rie e´ lim n→∞ an = 0 5. Condic¸a˜o de convergeˆncia de Cauchy: Uma se´rie e´ convergente ⇐⇒ dado ε > 0 arbitra´rio, existe N upslope |an+1 + ........+ an+p| < ε ∀ n > N, p natural qualquer ≥ 1. Esta condic¸a˜o e´ equivalente a dizer que Sn e´ convergente⇐⇒ |Sn+p−Sn| < ε ∀ n > N, p natural qualquer. 2.1.2 Se´ries de termos positivos reais Observac¸o˜es: 1. Se´ries de termos complexos podem ser reduzidas a pares de se´ries de termos reais. 2. Se´ries de termos negativos podem ser interpretadas como o oposto de uma se´rie de termos positivos. Propriedade: Se´ries de termos reais positivos sa˜o convergentes ou divergentes, nunca oscilantes. Princ´ıpio de Weierstrass: Sn < K ∀ n⇒ Sn → S (Convergente) Sn na˜o acotada ⇒ Sn Divergente 24 2.1.3 Crite´rios de convergeˆncia de se´ries de termos positivos 1. Comparac¸a˜o (a) Se ∞∑ n=1 an converge de soma A bn ≤ an ∀ n Enta˜o ∞∑ n=1 bn converge de soma B <= A , pois ∞∑ n=1 bn ≤ ∞∑ n=1 an ≤ A (b) Se ∞∑ n=1 an diverge bn ≥ an ∀ n Enta˜o ∞∑ n=1 bn diverge. (Se bn convergisse, an convergeria pelo teorema anterior). (c) Se 0 < h < an bn < k, enta˜o ∞∑ n=1 an e ∞∑ n=1 bn sa˜o da mesma classe. Demonstrac¸a˜o: an < k.bn ⇒ Se bn converge, an tambe´m converge por 1.a. h.bn < an ⇒ Se bn diverge, an tambe´m diverge por 1.b. (d) Generalizac¸a˜o: Se lim n→∞ an bn = l > 0 finito, enta˜o ∞∑ n=1 an e ∞∑ n=1 bn sa˜o da mesma classe. Exemplos de se´ries que podem ser utilizadas como refereˆncias para classificar outras se´ries por comparac¸a˜o: (a) ∞∑ n=1 ( n n+1 )n 2 e´ Convergente (b) ∞∑ n=1 n 2n e´ Convergente (c) ∞∑ n=1 1 n! e´ Convergente de soma ”e” (d) ∞∑ n=1 1 2n e´ Convergente de soma 2 2. Crite´rio de D’Alembert Se an+1 an < 1 ∀ n > N ⇒ ∞∑ n=1 an converge ≥ 1 ∀ n > N ⇒ ∞∑ n=1 an diverge 25 Ou: lim n→∞ an+1 an = λ⇒ λ < 1 Converge λ > 1 Diverge λ = 1 Na˜o se sabe 3. Crite´rio de Cauchy: Se n √ an < 1 ∀ n > N ⇒ ∞∑ n=1 an converge ≥ 1 para infinitos valores de n⇒ ∞∑ n=1 an diverge Ou: lim n→∞ n √ an = λ⇒ λ < 1 Converge λ > 1 Diverge λ = 1 Na˜o se sabe 4. Crite´rio de Rabe n(1− an an−1 ) > 1 ∀ n > N ⇒ ∞∑ n=1 an converge ≤ 1 ∀ n > N ⇒ ∞∑ n=1 an diverge Ou: lim n→∞ n(1− an an−1 ) = λ⇒ λ > 1 Converge λ < 1 Diverge λ = 1 Na˜o se sabe 5. Crite´rio da integral de Cauchy Define-se f(n) = an Se f(x) { mono´tona decrescente∫∞ c f(x)dx convergente } ∞∑ n=1 an convergente Observac¸a˜o: c e´ arbitra´rio tal que f(x) definida e cont´ınua em c < x <∞ 2.1.4 Convergeˆncia absoluta e convergeˆncia condicional Seja uma se´rie S (1) n = a1 + a2 + · · ·+ an, com termos ai positivos ou negativos. Define-se a se´rie S (2) n = |a1|+ |a2|+ .....+ |an| Se S (2) n converge ⇒ S(1)n converge, e e´ dita absolutamente convergente. Se S (2) n diverge S (1) n diverge ou S (1) n condicionalmente convergente 26 2.1.5 Se´ries de termos alternados Definic¸a˜o: Sn = ∞∑ n=1 (−1)n−1an , an todos com o mesmo sinal. Teorema de Leibnitz: Uma se´rie de termos alternados e´ convergente se: 1. a sucessa˜o an e´ mono´tona decrescente 2. lim n→∞ an = 0 Exemplos de se´ries de sinais alternados convergentes: 1. ∞∑ n=1 (−1)(n−1)( 1 n ) e´ convergente de soma Ln(2) 2. ∞∑ n=1 (−1)(n−1)( 1 n! ) e´ convergente de soma 1 e 3. ∞∑ n=1 (−1)(n+1)( 1 2n ) e´ convergente de soma 2 3 Regra do limitante do res´ıduo - Considerando apenas os n primeiros termos de uma se´rie convergente de termos alternados, o res´ıduo Rn = S − Sn tem o sinal do primeiro termo desprezado e e´ em mo´dulo, menor do que esse termo: |Rn| = |S − Sn| < |an+1| 2.2 Operac¸o˜es com se´ries 2.2.1 Soma ∞∑ n=1 (an + bn) = ∞∑ n=1 an + ∞∑ n=1 bn =⇒ Converge para A+B 2.2.2 Produto de Cauchy Wn = AnBn = n∑ i=1 i∑ j=1 ajbi+1−j = somato´ria de todos os termos acima da diagonal secunda´ria de [anbn]: [anbn] = a1b1 · · · a1bn · · · ... . . . ... anb1 · · · anbn · · · ... ... AnBn − An−1Bn−1 e´ igual a somato´ria dos termosda diagonal secunda´ria da matriz [anbn]. Teorema de Mertens: Se ∞∑ n=1 an converge absolutamente para a soma A e ∞∑ n=1 bn converge absolutamente para a soma B, enta˜o ∞∑ n=1 Wn converge absolutamente para a soma A.B. 27 2.3 Sucessa˜o de func¸o˜es Sequ¨eˆncia de func¸o˜es com domı´nio comum. Definic¸a˜o - limite de uma sucessa˜o de func¸o˜es: lim n→∞ fn(x) = f(x) se dado ε > 0 arbitra´rio, existe N(ε, x)upslope|fn(x) − f(x)| < ε ∀ n > N(ε, x) ; x ∈ [a, b] Definic¸a˜o - Convergeˆncia uniforme: e´ dito que fn(x) converge uniformemente para f(x) quando N e´ func¸a˜o apenas de ε, e na˜o de x: |fn(x)− f(x)| < ε ∀ n > N, ∀ x ∈ [a, b] Notac¸a˜o: fn(x) ⇉ [a,b] f(x) 2.4 Se´rie de func¸o˜es Sa˜o chamadas se´ries de func¸o˜es (ou funcionais) aquelas que tem as suas reduzidas definidas por sucesso˜es de func¸o˜es: SN(x) = N∑ i=1 fi(x). As func¸o˜es fn(x) devem ter domı´nios de definic¸a˜o comuns. Definic¸a˜o: ∞∑ n=1 fn(x) e´ convergente de soma S(x) se lim n→∞ Sn(x) = S(x) em [a, b]. Definic¸a˜o: ∞∑ n=1 fn(x) e´ uniformemente convergente de soma S(x) se Sn(x) ⇉ [a,b] S(x). Condic¸a˜o de convergeˆncia de Cauchy: A condic¸a˜o necessa´ria e suficiente para que uma se´rie Sn(x) seja uniformemente convergente em [a, b] e´ que, dado ε > 0, exista N independente de x tal que |Sn+p(x)− Sn(x)| < ε ∀ { n > N independente de x p natural qualquer Crite´rio de Weierstrass: A se´rie ∑ i fi(x) converge uniformemente num dado intervalo, se existe uma se´rie nume´rica convergente ∑ i ci tal que, para todo x pertencente ao intervalo considerado, e´ verificado que |fn(x)| ≤ cn. A se´rie ∑ i ci e´ chamada maiorante da se´rie ∑ i fi(x). Propriedades: 1. Se fi(x) cont´ınua, e Sn(x) uniformemente convergente num intervalo, enta˜o S(x) e´ cont´ınua no intervalo. 2. A integral da soma de uma se´rie funcional, ∫ S(x)dx, e´ igual a soma dos integrais dos termos, ∑ i (∫ fi(x)dx ) . 28 2.5 Se´ries de poteˆncias Sa˜o se´ries da forma Sn(x) = n∑ i=1ai (x− a)i, com os termos a, ai constantes. Propriedade: As se´ries de poteˆncia sa˜o absolutamente convergentes para todo x tal que |x− a| < ρ. Definic¸a˜o: ρ e´ chamado raio de convergeˆncia da se´rie de poteˆncias. Teorema de Abel: Se uma se´rie de poteˆncias e´ convergente para um valor x1 tal que x1− a > 0, enta˜o ela e´ uniformemente convergente no intervalo (a− (x1 − a), a+ (x1 − a)). Ca´lculo de ρ: 1 ρ = lim n→∞ |an+1| |an| (2.1) 1 ρ = lim n→∞ n √|an| (2.2) Ja´ que, usando D’Alembert: lim n→∞ ∣∣∣∣an+1(x− a)n+1an(x− a)n ∣∣∣∣ = limn→∞ |an+1||an| |x− a| ≤ 1 Como a se´rie converge para |x− a| ≤ ρ, na fronteira temos lim n→∞ |an+1| |an| ρ = 1⇒ limn→∞ |an+1| |an| = 1 ρ A expressa˜o para o ca´lculo do ρ da equac¸a˜o 2.2 pode ser demonstrada de forma ana´loga utilizando o crite´rio de Cauchy. Observac¸o˜es: 1. Quando o limite na˜o existe, deve ser utilizado o limite superior, lim. 2. Na fronteira (x− a = ±ρ), e´ necessa´rio verificar a convergeˆncia. 2.5.1 Soma, diferenc¸a e produto de se´ries de poteˆncia Duas se´ries de poteˆncias, com raios de convergeˆncia ρ1 e ρ2 respectivamente, podem ser somadas, subtra´ıdas ou multiplicadas ”a la Cauchy”. A se´rie resultante tera´ raio de convergeˆncia ρ ≥ min (ρ1, ρ2). 29 2.5.2 Expansa˜o em se´rie de poteˆncias As func¸o˜es cont´ınuas e infinitamente deriva´veis podem ser expandidas em se´ries de poteˆncias. Qualquer reduzida da se´rie e´ uma aproximac¸a˜o da sua func¸a˜o soma. Uma forma muito utilizada para se obter a expansa˜o em se´rie de poteˆncias e´ a se´rie de Taylor: f(x) = ∞∑ p=0 f (p)(a) p! (x− a)p Pode ser observado que a aproximac¸a˜o para f(x) e´ exata em x = a, para qualquer ordem da reduzida. A se´rie de McLaurin e´ um caso particular da se´rie de Taylor, quando a = 0. f(x) = ∞∑ p=0 f (p)(0) p! xp Observac¸o˜es: • Toda se´rie de poteˆncia e´ a expansa˜o em se´rie de Taylor ou McLaurin da sua func¸a˜o soma. • A expansa˜o em se´rie de Taylor ou McLaurin pode ser realizada para va´rias varia´veis simultaneamente, utilizando derivadas parciais. • Existem outras expanso˜es muito utilizadas, por exemplo as se´ries trigonome´tricas (se´rie de Fourier). 30 Exerc´ıcios: 1. Verifique a convergeˆncia das se´ries nume´ricas: a. Sn = ∞∑ i=0 1 i! b. Sn = ∞∑ i=0 (−1)i 1 i! c. Sn = ∞∑ i=0 1 2i d. Sn = ∞∑ i=0 (−1)i 1 2i e. Sn = ∞∑ i=0 1 i2k f. Sn = ∞∑ i=0 (−1)i 1 i2k 2. Demonstre a expressa˜o da equac¸a˜o 2.2 3. Ache o raio de convergeˆncia da se´rie Sn = ∞∑ i=0 xi i . Analise a convergeˆncia no intervalo [−ρ, ρ]. 4. Achar a expansa˜o em se´rie de poteˆncias e raio de convergeˆncia para: a. (1 + x)− 1 2 b. ex 31 32 Cap´ıtulo 3 Vetores Bibliografia sugerida para os cap´ıtulos 3 e 4: [10] Wai-Fah Chen & Atef F. Saleeb ”Con- stitutive Equation for Engineering Materials, Vol. 1: Elasticity and Modeling”. Jhon Wiley, 1982, Cap. 1. 3.1 Sistema de coordenadas cartesiano (a) Vetor definido por 2 pontos. (b) Componentes cartesianas. Figura 3.1: Vetor no espac¸o cartesiano Base normal: destro´gira 33 3.1.1 Diferentes notac¸o˜es: ( −→ i , −→ j , −→ k ) = (−→e1 ,−→e2 ,−→e3 ) ||−→ei || = 1 (comprimento unita´rio) (i = 1, 2, 3) −→ V1 = v1 −→ i = v1 −→e1−→ V2 = v2 −→ j = v2 −→e2−→ V3 = v3 −→ k = v3 −→e3 −→ V = −→ V1 + −→ V2 + −→ V3 −→ V = v1 −→e1 + v2−→e2 + v3−→e3 ∼ −→V = v1−→i + v2−→j + v3−→k {v} = v1 v2 v3 = [v1, v2, v3] −→V = {v} ∈ E3, vi ∈ E1 (i = 1, 2, 3) Figura 3.2: Vetor definido por dois pontos. Sejam A e B dois pontos no plano (xy). O vetor −→ V = −→ AB = −→ B −−→A , onde −→A e −→B sa˜o os vetores definidos a partir dos pontos A(a1, a2, a3) e B(b1, b2, b3) e a origem do sistema de coordenadas (xy). Esta afirmac¸a˜o e´ va´lida para espac¸os de qualquer ordem. Para espac¸os de ordem 3 fica: −→ B = b1 −→e1 + b2−→e2 + b3−→e3 −→A = a1−→e1 + a2−→e2 + a3−→e3−→ V = −→ B −−→A = (b1 − a1)−→e1 + (b2 − a2)−→e2 + (b3 − a3)−→e3 3.2 Operac¸o˜es com vetores Seja −→ A = [a1, a2, a3], −→ B = [b1, b2, b3], −→ C = [c1, c2, c3] 3.2.1 Soma, subtrac¸a˜o −→ C = −→ A ±−→B, ci = ai ± bi i = (1, 2, 3) 34 3.2.2 Multiplicac¸a˜o por um escalar −→ B = α −→ A, bi = αai i = (1, 2, 3) 3.2.3 Produto escalar −→ A • −→B = ||−→A ||.||−→B || cos θ Figura 3.3: Produto escalar . Utilizando as propriedades distributiva e associativa com relac¸a˜o ao produto por um escalar: −→ A • −→B = (a1−→i + a2−→j + a3−→k ) • (b1−→i + b2−→j + b3−→k ) = a1b1( −→ i • −→i ) + a2b2(−→j • −→j ) + a3b3(−→k • −→k ) + a1b2( −→ i • −→j ) + a1b3(−→i • −→k ) + a2b1(−→j • −→i ) + a2b3( −→ j • −→k ) + a3b1(−→k • −→i ) + a3b2(−→k • −→j ) Num sistema de coordenadas ortonormal: −→ i • −→i = ||−→i ||.||−→i || cos 0 = 1−→ i • −→j = ||−→i ||.||−→j || cos 90 = 0−→ i • −→k = ||−→i ||.||−→k || cos 90 = 0−→ j • −→k = ||−→j ||.||−→k || cos 90 = 0−→ j • −→j = ||−→j ||.||−→j || cos 0 = 1−→ k • −→k = ||−→k ||.||−→k || cos 0 = 1 (3.1) Substitu´ındo na equac¸a˜o anterior: −→ A • −→B = a1b1 + a2b2 + a3b3 = 3∑ i=1 aibi = −→ B • −→A 35 Portanto, ∥∥∥ ~A∥∥∥ = √ N∑ i=1 a2i = √−→ A • −→A Produto escalar entre vetores complexos Por definic¸a˜o, o produto escalar entre vetores complexos e´ dado por: −→ V • −→W = ({v}∗)T{w} = N∑ i=1 viwi {v}∗ - Conjugado do vetor {v}. v - Conjugado do nu´mero v.{ (vR − jvI)i(wR + jwI)i = (vRwR + vIwI + j(vRwI − vIwR))i (wR − jwI)i(vR + jvI)i = (vRwR + vIwI + j(vIwR − vRwI))i ⇒ para vetores complexos ⇒ { −→ V • −→W 6= −→W • −→V −→ V • −→W = −→W • −→V 3.2.4 Produto vetorial −→ C = −→ A ×−→B ||−→C || = ||−→A ||.||−→B || sin θ−→ C ⊥ ao plano definido por −→A e −→B−→ A , −→ B e −→ C formam um triedro direto (destro´giro) Propriedade: −→ A ×−→B = −(−→B ×−→A ) Figura 3.4: Produto vetorial. Em coordenadas Cartesianas ortonormais: Permutac¸a˜o c´ıclica: Positiva - 3 1 2 ⇒ (1 2 3), (2 3 1), (3 1 2) ⇒ −→i ×−→j = −→k , etc... Negativa - 3 � 1 2 ⇒ (1 3 2), (3 2 1), (2 1 3) ⇒ −→i ×−→k = −−→j , etc... 36 −→ C = ∣∣∣∣∣∣ −→ i −→ j −→ k a1 a2 a3 b1 b2 b3 ∣∣∣∣∣∣ = −→i (a2b3 − a3b2) +−→j (a3b1 − a1b3) +−→k (a1b2 − a2b1) ou −→ C = ∣∣∣∣∣∣ −→e1 −→e2 −→e3 a1 a2 a3 b1 b2 b3 ∣∣∣∣∣∣ = −→e1 (a2b3 − a3b2) +−→e2 (a3b1 − a1b3) +−→e3 (a1b2 − a2b1) ||−→C || =⇒a´rea do paralelogramo definido por −→A e −→B .−→ C e´ perpendicular ao plano formado por −→ A e −→ B . Figura 3.5: a´rea do paralelogramo. a´rea = ||−→A ||.H H = ||−→B || sin θ =⇒ a´rea = ||−→A ||.||−→B || sin θ = ∥∥∥−→A ×−→B∥∥∥ 3.2.5 Produto escalar triplo −→ A • (−→B ×−→C ) = −→C • (−→A ×−→B ) = −→B • (−→C ×−→A )∣∣∣∣∣∣ a1 a2 a3 b1 b2 b3 c1 c2 c3 ∣∣∣∣∣∣ = ∣∣∣∣∣∣ c1 c2 c3 a1 a2 a3 b1 b2 b3 ∣∣∣∣∣∣ = ∣∣∣∣∣∣ b1 b2 b3 c1 c2 c3 a1 a2 a3 ∣∣∣∣∣∣ = Volume do paralelep´ıpedo 3.2.6 Produto vetorial triplo Fo´rmula de expulsa˜o: −→ A × (−→B ×−→C ) = −→B (−→A • −→C )−−→C (−→A • −→B ) ( −→ A ×−→B )×−→C = −→B (−→A • −→C )−−→A (−→B • −→C ) 3.2.7 Produto interno entre vetores complexos O produto interno entre dois vetores −→ V e −→ W complexos e´ um nu´mero complexo que satisfaz: 1. Simetria: < −→ V , −→ W > = < −→ W, −→ V > 37 2. < −→ V , −→ V > > 0 para −→ V 6= −→0 . Se < −→V ,−→V > = 0⇒ −→V = −→0 . 3. < α −→ V + β −→ W, −→ U >= α < −→ U , −→ V > + β < −→ U , −→ W > < −→ U , α −→ V + β −→ W >= α < −→ V , −→ U > + β < −→ W, −→ U > Exemplos: 1) Produto escalar entre vetores reais, −→ V • −→W = {v}T{w} = N∑ i=1 viwi = {w}T{v} = −→W • −→V 2) Produto escalar entre vetorescomplexos definido anteriormente: −→ V • −→W = {v}T{w} = N∑ i=1 viwi = N∑ i=1 wivi = {w}T{v} = −→W • −→V 3.3 Campos vetoriais e escalares 3.3.1 Definic¸a˜o de campo vetorial Func¸o˜es definidas por grandezas vetoriais no En. Exemplos no E3: Velocidade −→ V (x1, x2, x3) Forc¸a −→ F (x1, x2, x3) Momento −→ M(x1, x2, x3) (pseudo-vetor) 3.3.2 Definic¸a˜o de campo escalar Func¸o˜es definidas por grandezas escalares no En. Exemplos no E3: Pressa˜o P (x1, x2, x3) Campo magne´tico Φ(x1, x2, x3) Campo ele´trico E(x1, x2, x3) Campo gravitacional G(x1, x2, x3) Observac¸a˜o: As forc¸as eletromagne´ticas e gravitacionais constituem campos vetoriais, mas os campos eletromagne´ticos e gravitacionais sa˜o escalares. 3.3.3 Operador Nabla ∇ Aplicac¸o˜es do Operador ▽ (Nabla, de Hamilton ou DEL) Formalmente se define o operador ∇ = ∂ ∂x −→ i + ∂ ∂y −→ j + ∂ ∂z −→ k = ∂ ∂x1 −→e1 + ∂∂x2−→e2 + ∂∂x3−→e3 38 Gradiente de uma func¸a˜o escalar O operador▽ e´ aplicado a uma func¸a˜o escalar, resultando num vetor: Portanto transforma campos escalares em campos vetoriais. ∇() = ∂() ∂x −→ i + ∂() ∂y −→ j + ∂() ∂z −→ k = ∂() ∂x1 −→e1 + ∂() ∂x2 −→e2 + ∂() ∂x3 −→e3 () ⇒ Representa qualquer func¸a˜o escalar diferencia´vel Φ(x, y, z). Seja Φ(x, y, z) uma func¸a˜o escalar Φ : R3 → R1 GRAD Φ(x, y, z) = ▽Φ(x, y, z) = ∂Φ ∂x −→ i + ∂Φ ∂y −→ j + ∂Φ ∂z −→ k ▽Φ(x, y, z) = [∂Φ ∂x , ∂Φ ∂y , ∂Φ ∂z ] Propriedade: ∇Φ(x1, y1, z1) e´ um vetor normal a` superf´ıcie da func¸a˜o Φ(x, y, z) = ρ, no ponto (x1, y1, z1), ρ = constante. Demonstrac¸a˜o: Figura 3.6: Superf´ıcie Φ(x, y, z) = ρ. Seja −→r = x−→i + y−→j + z−→k , o vetor posic¸a˜o de um ponto P(x,y,z), pertencente a` superf´ıcie definida por Φ(x, y, z) = ρ. d−→r = dx−→i + dy−→j + dz−→k e´ um vetor tangente a` superf´ıcie no ponto P(x,y,z). 39 Figura 3.7: Curva de equac¸a˜o φ(x, y) = ρ. d−→r = lim Q−→P −→ ∆S d−→r e´ um vetor tangente a` curva φ(x, y) = ρ d−→r e´ um vetor tangente a` superf´ıcie Φ(x, y, z) = ρ. Mas∇Φ(x, y, z)•d−→r = ∂Φ ∂x dx+ ∂Φ ∂y dy+ ∂Φ ∂z dz = dΦ = 0, pois Φ(x, y, z) = ρ = constante. Logo ∇Φ e´ normal a d−→r . Divergente de um vetor O operador ▽ e´ formalmente multiplicado escalarmente por um vetor, resultando em um escalar. Portanto transforma campos vetoriais em campos escalares. −→ V (x, y, z) = v1 −→ i + v2 −→ j + v3 −→ k DIV −→ V = ∇ • −→V = ∂v1 ∂x + ∂v2 ∂y + ∂v3 ∂z (3.2) ∇ • −→V = (∂() ∂x −→ i + ∂() ∂y −→ j + ∂() ∂z −→ k ) • (v1−→i + v2−→j + v3−→k ) = ∂v1 ∂x ( −→ i • −→i ) + ∂v2 ∂y ( −→ j • −→j ) + ∂v3 ∂z ( −→ k • −→k ) + ∂v2 ∂x ( −→ i • −→j ) + ∂v3 ∂x ( −→ i • −→k ) + ∂v1 ∂y ( −→ j • −→i ) + ∂v3 ∂y ( −→ j • −→k ) + ∂v1 ∂z ( −→ k • −→i ) + ∂v2 ∂z ( −→ k • −→j ) Lembrando que os produtos escalares de −→ i , −→ j , e −→ k por eles mesmos e´ igual a` unidade, e que os produtos escalares entre dois deles e´ igual a zero (ver equac¸o˜es 3.1), chega-se na equac¸a˜o (3.2). 40 Rotacional de um campo vetorial O operador ▽ e´ formalmente multiplicado vetorialmente por um vetor, resultando em um vetor. Portanto transforma campos vetoriais em campos vetoriais. ROT −→ V = ∇×−→V = ∣∣∣∣∣∣∣ −→ i −→ j −→ k ∂() ∂x1 ∂() ∂x2 ∂() ∂x3 v1 v2 v3 ∣∣∣∣∣∣∣ = −→ i ( ∂v3 ∂x2 − ∂v2 ∂x3 ) + −→ j ( ∂v1 ∂x3 − ∂v3 ∂x1 ) + −→ k ( ∂v2 ∂x1 − ∂v1 ∂x2 ) ∇×−→V = ∣∣∣∣∣∣ −→e1 −→e2 −→e3 ∂() ∂x1 ∂() ∂x2 ∂() ∂x3 v1 v2 v3 ∣∣∣∣∣∣ = −→e1 (∂v3∂x2 − ∂v2∂x3 ) +−→e2 (∂v1∂x3 − ∂v3∂x1 ) +−→e3 (∂v2∂x1 − ∂v1∂x2 ) 3.3.4 Operador laplaciano ∆ Definic¸a˜o: ∆() = ∇ •∇() = ∇2() = ∂ 2() ∂x2 + ∂2() ∂y2 + ∂2() ∂z2 Laplaciano de uma func¸a˜o escalar φ(x, y, z): ∆φ(x, y, z) = ∇2φ(x, y, z) = ∇ •∇φ = ∂ 2φ ∂x2 + ∂2φ ∂y2 + ∂2φ ∂z2 Transforma campos escalares em campos escalares. Exerc´ıcio: Demonstre as seguintes propriedades: ROT GRAD φ = ∇×∇φ = 0 DIV ROT −→ V = ∇ • (∇×−→V ) = 0 ∇(φ.ψ) = φ∇ψ + ψ∇φ ∇ • (φ−→V ) = φ(∇ • −→V ) +−→V • ∇φ 41 42 Cap´ıtulo 4 Notac¸a˜o indicial Seja um sistema de coordenadas cartesiano definido por (x1, x2, x3) na base ( −→e1 ,−→e2 ,−→e3 ). Figura 4.1: Domı´nio. Φ(x1, x2, x3) : R 3 −→ R1 e´ uma func¸a˜o escalar cont´ınua em D. −→ A, −→ B , −→ C sa˜o vetores: −→ A = a1 −→e1 + a2−→e2 + a3−→e3 ou [a1, a2, a3] ou a1 a2 a3 −→ B = b1 −→e1 + b2−→e2 + b3−→e3 ou [b1, b2, b3] ou b1 b2 b3 43 4.1 Notac¸a˜o cla´ssica ▽Φ(x1, x2, x3) = ∂Φ ∂x1 −→e1 + ∂Φ ∂x2 −→e2 + ∂Φ ∂x3 −→e3 = 3∑ i=1 ∂Φ ∂xi −→ei ou ▽Φ(x1, x2, x3) = ( ∂Φ ∂x1 , ∂Φ ∂x2 , ∂Φ ∂x3 ) ou ∂Φ ∂x1 ∂Φ ∂x2 ∂Φ ∂x3 ▽() = 3∑ i=1 ∂() ∂xi −→ei = ∂() ∂x1 ∂() ∂x2 ∂() ∂x3 DIV −→ A = ▽ • −→A = 3∑ i=1 ∂ai ∂xi = ∂a1 ∂x1 + ∂a2 ∂x2 + ∂a3 ∂x3 ROT −→ A = ▽×−→A = ∣∣∣∣∣∣ −→e1 −→e2 −→e3 ∂() ∂x1 ∂() ∂x2 ∂() ∂x3 a1 a2 a3 ∣∣∣∣∣∣ = −→e1 (∂a3∂x2 − ∂a2∂x3 ) +−→e2 (∂a1∂x3 − ∂a3∂x1 ) +−→e3 (∂a2∂x1 − ∂a1∂x2 ) ▽2φ = ▽ •▽φ = 3∑ i=1 ∂2φ ∂xi∂xi = ∂2φ ∂x21 + ∂2φ ∂x22 + ∂2φ ∂x23 4.2 Notac¸a˜o indicial 4.2.1 Definic¸a˜o Um vetor cartesiano −→ V e´ representado por suas componentes.−→ V = v1 −→e1 + v2−→e2 + v3−→e3 = [v1, v2, v3] −→ vi Portanto: −→ V −→ vi (Fica impl´ıcito que o ı´ndice i varia de 1 a 3, i = 1, 2, 3)−→v =⇒ (x1, x2, x3) =⇒ xi ou xj. Qualquer varia´vel ( −→ V ,−→v , etc...) com um ı´ndice vi ou vj sem repetic¸a˜o, denota um vetor. i ou j e´ chamado ı´ndice livre (”free index”).−→ A =⇒ ai, −→B =⇒ bi, −→C =⇒ ci −→ C = −→ A + −→ B ↓ ↓ ↓ ci = ai + bi Fica impl´ıcito que i = 1, 2, 3. e´ equivalente a (c1, c2, c3) = [(a1 + b1), (a2 + b2), (a3 + b3)] 44 −→ B = α −→ A =⇒ [b1, b2, b3] = [αa1, αa2, αa3] ↓ ↓ bj = αaj Dois ı´ndices livres indicam uma matriz (3x3) aij (impl´ıcito que i e j variam de 1 a 3) aij =⇒ a11 a12 a13a21 a22 a23 a31 a32 a33 Treˆs ı´ndices livres indicam uma matriz 3D (3x3x3) aijk =⇒ րk −→j i ↓ a111 a121 a131a211 a221 a231 a311 a321 a331 (i, j, k) variam de 1 a 3. 4.2.2 Convenc¸a˜o soma Toda vez que houver repetic¸a˜o de ı´ndice em um termo e´ entendido uma somato´ria em que os ı´ndices variam de 1 a 3. O ı´ndice repetido se chama ı´ndice mudo (”dummy index”). Um ı´ndice so´ pode repetir uma vez num mesmo termo. Exemplos: Notac¸a˜o cla´ssica Notac¸a˜o indicial −→ A • −→B = 3∑ i=1 aibi =⇒ −→A • −→B = aibi ▽Φ = 3∑ i=1 ∂Φ ∂xi −→ei =⇒ ∂Φ ∂xi −→ei = ∂Φ ∂xj −→ej aijxj = bi =⇒ { i⇒ ı´ndice livre. j ⇒ ı´ndice mudo. =⇒ =⇒ {ai1x1 + ai2x2 + ai3x3 = bi} =⇒ i = 1 i = 2 i = 3 a11x1 + a12x2 + a13x3 = b1 a21x1 + a22x2 + a23x3 = b2 a31x1 + a32x2 + a33x3 = b3 =⇒ =⇒ a11 a12 a13a21 a22 a23 a31 a32 a33 x1 x2 x3 = b1 b2 b3 45 4.2.3 Notac¸a˜o de diferenciac¸a˜o A diferenciac¸a˜o e´ indicada por uma v´ırgula como ı´ndice. Exemplos: Gradiente de φ: ∇φ = ∂φ ∂xi −→ei = φ,i−→ei (Notac¸a˜o indicial como soma vetorial) ∇φ = ∂φ ∂xi = φ,i (Notac¸e´ indicial como componente do vetor gradiente) ∇φ = φ,i Divergente de −→ A : ∇ • −→A = (∂a1 ∂x1 + ∂a2 ∂x2 + ∂a3 ∂x3 ) = ∂ai ∂xi Notac¸a˜o indicial = ai,i = (a1,1 + a2,2 + a3,3) ∇ • −→A = ai,i Laplaciano de φ: ∇2φ = ∇ •∇φ = ∂ 2φ ∂x21 + ∂2φ ∂x22 + ∂2φ ∂x23 = ∂2φ ∂xi∂xi (Notac¸a˜o indicial) = φ,ii = φ,11 + φ,22 + φ,33 ∇2φ = φ,ii 4.2.4 Delta de Kronecker δij Tensor δij ⇒ Matriz (3x3) δij ⇒ 1 0 00 1 0 0 0 1 { δij = 1 i = j δij = 0 i 6= j δij e´ tambe´m um operador matricial (operador substituic¸a˜o). δijvj = vi (o operador δij aplicado em um vetor vj substitui o ı´ndice repetido do vetor pelo ı´ndice livre). δijvi = vj δijvj = δi1v1 + δi2v2 + δi3v3 = vi δijδij = δii ou δjj = δ11 + δ22 + δ33 = 3 δijaij = aii ou ajj = (a11 + a22 + a33)−→ei • −→ej = δij 46 4.2.5 Operador alternante ou alternador εijk Tensor εijk ⇒ Tensor Alternante ou Alternador εijk → 3 ı´ndices livres → 33 = 27 componentes (Matriz 3x3x3) Definic¸a˜o: εijk = 0 se houver ı´ndice repetido (nesse caso na˜o significa soma) εijk = 1 se a partir da ordem natural (i, j, k) = (1, 2, 3), o nu´mero de permutac¸o˜es for par εijk = −1 se a permutac¸a˜o for ı´mpar Permutac¸o˜es pares Permutac¸o˜es ı´mpares (1 2 3) (1 3 2) (2 3 1) (3 2 1) (3 1 2) (2 1 3) 4.2.6 Aplicac¸o˜es do tensor εijk −→ C = −→ A ×−→B = ∣∣∣∣∣∣ −→e1 −→e2 −→e3 a1 a2 a3 b1 b2 b3 ∣∣∣∣∣∣ = εijk−→ei ajbk = εijkajbk−→ei = εijkajbk −→ A • (−→B ×−→C ) = ∣∣∣∣∣∣ a1 a2 a3 b1 b2 b3 c1 c2 c3 ∣∣∣∣∣∣ = ai−→ei • εjkl−→ej bkcl = εjklaibkcl(−→ei • −→ej︸ ︷︷ ︸ δij ) = δijεjkl︸ ︷︷ ︸ εikl aibkcl = εijkaibjck = a1b2c3 + a2b3c1 + a3b1c2 − (a1b3c2 + a2b1c3 + a3b2c1) + 0 + 0 + · · · · · ·+ 0 + 0 |aij| = ∣∣∣∣∣∣ a11 a12 a13 a21 a22 a23 a31 a32 a33 ∣∣∣∣∣∣ = εijka1ia2ja3k 4.2.7 Relac¸a˜o entre δij e εklm εijkεist = δjsδkt − δjtδks 4.3 Exerc´ıcios Usando notac¸a˜o indicial, 47 1. mostrar que εi12εi23 = 0 εi12εi23 = δ12δ23 − δ13δ22 = 0 2. mostrar que, −→ A × (−→B ×−→C ) = −→B (−→A • −→C )−−→C (−→A • −→B ) Lado esquerdo da equac¸a˜o; −→ D = −→ A × (−→B ×−→C︸ ︷︷ ︸ −→ E )⇒ { −→ D = −→ A ×−→E → di = εijkajek−→ E = −→ B ×−→C → ek = εkstbsct di = εijkajεkstbsct ∼ di = εijkεkstajbsct εijk = εkij ⇒ di = εkijεkstajbsct = (δisδjt − δitδjs)ajbsct δisbs = bi δitct = ci } =⇒ δjtaj︸︷︷︸ at bict − δjsaj︸︷︷︸ as bsci di = atbict − asbsci di = bi (atct) − ci (asbs) ↓ ↓ ↓ ↓ ↓−→ D = −→ B ( −→ A • −→C ) − −→C (−→A • −→B ) 3. mostrar que εijkεkji = −6 εkji = −εijk ⇒ εijkεkji = −εijkεijk = −(δjjδkk − δjkδkj︸ ︷︷ ︸ δjj ) δii = 3⇒ εijkεkji = −9 + 3 = −6 4. mostrar que ▽×▽φ = 0 ▽×▽φ = εijk ( ∂ ∂xj )( ∂φ ∂xk ) = εijk ∂2φ ∂xjxk εijkφ,jk = 0 εijkφ,jk = ε123φ,23 + ε132φ,32︸ ︷︷ ︸ 0 + ε213φ,13 + ε231φ,31︸ ︷︷ ︸ 0 + ε312φ,12 + ε321φ,21︸ ︷︷ ︸ 0 = 0 5. Mostrar indicialmente que ▽× (▽×−→A ) = ▽(▽ • −→A )−▽2−→A −→ A = ai ▽2−→A = ▽2a1−→e1 +▽2a2−→e2 +▽2a3−→e3 ▽2−→A = ▽2ai = ai,jj Definindo ▽×−→A = bi = εijkak,j ⇒ ▽ × (▽ × −→A ) = ▽ × −→B = εlmibi,m = εlmiεijkak,jm = εilmεijkak,,jm = (δljδmk − δlkδmj)ak,jm ▽× (▽×−→A ) = (δljδmkak,jm︸ ︷︷ ︸ am,jm − δlkδmjak,jm︸ ︷︷ ︸ ak,mm ) = δljam,jm︸ ︷︷ ︸ am,lm − δlkak,mm︸ ︷︷ ︸ al,mm = am,lm − al,mm 48 am,lm = ▽(am,m) = ▽(▽ • −→A ) al,mm = ▽2al = ▽2−→A } ⇒ am,lm − al,mm = ▽(▽ • −→A )−▽2−→A 4.4 Problemas Mostrar (indicialmente) que: a) εijkAjAk = −→ A ×−→A = 0 b) εijkδij = 0 c) ▽ • (▽×−→A ) = 0 d) Dada a matriz sime´trica σij (σij = σji) e { Q1 = εijkεijmσkm P1 = σii Q2 = εijkεimnσjmσkn P2 = σijσji mostrar que, { Q1 = 2P1 Q2 = P 2 1 − P2 e) Dado bi = ai√ ajaj , mostrar que bi e´ um vetor unita´rio. 49 50 Cap´ıtulo 5 Vetores Euclidianos Considere-se no espac¸o euclidiano E3, um referencial (x,y,z) destro´giro. Um vetor −→ V pode ser especificado por suas compo- nentes, −→ V = v1 −→e 1 + v2−→e 2 + v3−→e 3 ou v1−→i + v2−→j + v3−→k ou simplesmente −→ V = v1 v2 v3 = {V } Onde −→e 1 = 1 0 0 , −→e 2 = 0 1 0 , −→e 3 = 0 0 1 Figura 5.1: Base euclidiana. Diz-se que −→ V ∈ E3 (ou −→V ∈ C3 se as componentes forem complexas). Nota: Pode-se generalizar o espac¸o E3 para um espac¸o N-dimensional EN . Neste caso, {V } ∈ EN pode ser definido por suas N componentes, {V } = v1 v2 ... vN Definic¸a˜o: Vetores linearmente independentes (vetores LI) Um conjunto de vetores [{x}1, {x}2, . . . , {x}N ], {x}i ∈ EN , e´ definido como linearmente independente (LI) se e somente se a combinac¸a˜o linear, 51 α1{x}1 + α2{x}2 + . . .+ αN{x}N = {0} admitir somente a soluc¸a˜o trivial, α1 = α2 = · · · = αN = 0 α1{x}1 + α2{x}2 + . . .+ αN{x}N = {0} [{x}1 {x}2 . . . {x}N ] α1 α2 ... αN = {0} x11 x21 ... xN1 x12 x22 ... xN2 · · · x1N x2N ... xNN α1 α2 ... αN = {0} [X](N×N){α} = {0} Se |[X]| 6= 0⇒ {α} = [X]−1{0} = {0} (soluc¸a˜o trivial u´nica, conjunto LI) Se |[X]| = 0⇒ O sistema homogeˆneo apresenta soluc¸o˜es na˜o triviais⇒ o conjunto de vetores e´ chamado linearmente dependente, (LD). Definic¸a˜o: Num espac¸o EN , qualquer conjunto de N vetores LI, [{b}1, {b}2, . . . , {b}N ] constitui uma base vetorial para o EN . Qualquer vetor {V } do EN , {V } ∈ EN , pode ser escrito como uma combinac¸a˜o linear dos vetores da base, {V } = α1{b}1 + α2{b}2 + . . .+ αN{b}N ou {V } = [{b}1 {b}2 . . . {b}N ] α1 α2 ... αN N e´ a dimensa˜o do espac¸o vetorial EN . Produto escalar entre dois vetores {A} = a1 a2 ... aN e {B} = b1 b2 ... bN em uma base ortonormal: ({A}, {B}) = ({B}, {A}) = {A} · {B} = {A}T{B} = N∑ i=1 aibi Definic¸a˜o - Base ortogonal: ({b}1, {b}2, . . . , {b}N) e´ uma base ortogonal se, 52 {b}Ti {b}j = 0 quando i 6= j 6= 0 quando i = j Definic¸a˜o: Base ortonormal: ({b}1, {b}2, . . . , {b}N) e´ uma base ortonormal se, {b}Ti {b}j = δij = { 0 quando i 6= j 1 quando i = j δij → delta de Kronecker. Obs.: Muitas vezes a base ortonormal e´ chamada ortogonal. 5.1 Norma de um vetor Definic¸a˜o: Norma de um vetor {V } → ‖{V }‖⋆ ‖{V }‖⋆ e´ um escalar que satisfaz 3 condic¸o˜es: (i) ‖{V }‖⋆ > 0 ∀{V } 6= {0}; ‖{V }‖⋆ = 0 implica em {V } = {0} (ii) ‖α{V }‖⋆ = |α|. ‖{V }‖⋆ (iii) ‖{U}+ {V }‖⋆ ≤ ‖{U}‖⋆ + ‖{V }‖⋆ (propriedade triangular) 5.1.1 Algumas definic¸o˜es para a norma (i) Norma euclidiana ou Frobenius: ‖{V }‖E ou ‖{V }‖2 = √ {V }T{V } = √√√√ N∑ i=1 |vi|2 (ii) Norma ma´xima (ou absoluta): ‖{V }‖∞ = Ma´ximoi |vi| (iii) ”Taxicab norm”: ‖{V }‖1 = N∑ i=1 |vi| (iv) Norma generalizada p: ‖{V }‖p = p √√√√ N∑ i=1 |vi|p p inteiro, 1 ≤ p <∞ 53 Definic¸a˜o: Vetor unita´rio ⇒ ‖{V }‖⋆ = 1 Portanto o vetor unita´rio depende da norma utilizada. 5.2 Obtenc¸a˜o de uma base ortogonal Problema: dado uma base qualquer, [{b}1, {b}2, . . . , {b}N ]⇒ obter uma base ortogonal, [{u}1, {u}2, . . . , {u}N ]. Sapo˜e-se que o conjunto de vetores [{b}1, {b}2, . . . , {b}N ] seja LI. Caso contra´rio na˜o constituiria uma base. 5.2.1 Me´todo de ortogonalizac¸a˜o de Gram-Schmidt Dado um conjunto de vetores LI, [{b}1, {b}2, . . . , {b}M ], M ≤ N, {b}i ∈ EN , obter um conjunto de vetores ortonormais [{u}1, {u}2, . . . , {u}M ], {u}Ti {u}j = δij Algoritmo ba´sico: 1. i=1 {p}1 = {b}1 (5.1) 2. Normalizar {p}1: α11 = ‖{p}1‖2 = √√√√ N∑ j=1 p2j (5.2) {u}1 = {p}1 α11 (5.3) Das equac¸o˜es 5.1, 5.2 e 5.3, {b}1 = α11{u}1 3. i = 2 {p}2 = {b}2 − α12{u}1 (5.4) Impondo a condic¸a˜o de ortogonalidade entre {p}2 e {u}1, {p}T2 {u}1 = {u}T1 {p}2 = 0 (5.5) 54 Pre´-multiplicando a equac¸a˜o 5.4 por {u}T1 , {u}T1 {p}2 = {u}T1 {b}2 − α12{u}T1 {u}1︸ ︷︷ ︸ 1 = 0 (5.6) ∴ α12 = {u}T1 {b}2 (5.7) 4. Normalizac¸a˜o de {p}2, α22 = ‖{p}2‖2 (5.8) {u}2 = {p}2 α22 (5.9) ∴ {p}2 = α22{u}2 Das equac¸o˜es 5.4 e 5.9, {b}2 = α12{u}1 + α22{u}2 (5.10) 5. i = 3 {p}3 = {b}3 − α13{u}1 − α23{u}2 (5.11) da ortogonalidade,{p}T3 {u}1 = {p}T3 {u}2 = 0 (5.12) {u}T1× equac¸a˜o 5.11⇒ {u}T1 {p}3 = {u}T1 {b}3 − α13{u}T1 {u}1︸ ︷︷ ︸ 1 − α23{u}T1 {u}2︸ ︷︷ ︸ 0 = 0 α13 = {u}T1 {b}3 (5.13) {u}T2× equac¸a˜o 5.11⇒ {u}T2 {p}3 = {u}T2 {b}3 − α13{u}T2 {u}1︸ ︷︷ ︸ 0 − α23{u}T2 {u}2︸ ︷︷ ︸ 1 = 0 α23 = {u}T2 {b}3 (5.14) 55 6. Normalizac¸a˜o de {p}3 α33 = ‖{p}3‖2 (5.15) {u}3 = {p}3 α33 (5.16) Das equac¸o˜es 5.11 e 5.16, {b}3 = α13{u}1 + α23{u}2 + α33{u}3 (5.17) 7. Para i qualquer, analogamente, obte´m-se: {p}i = {b}i − i−1∑ j=1 αji{u}j (5.18) αji = {u}Tj {b}i j = 1, 2, . . . , (i− 1) (5.19) αii = ‖{p}i‖2 (5.20) {u}i = {p}i αii (5.21) Das equac¸o˜es 5.18 e 5.21, {b}i = α1i{u}1 + α2i{u}2 + · · ·+ αii{u}i = i∑ j=1 αji{u}j (5.22) 8. Repetir ate´ i =M , M ≤ N. Da equac¸a˜o 5.22 pode-se ver que, [{b}1{b}2 · · · {b}M ] = [{u}1{u}2 · · · {u}M ] α11 α12 α13 · · · α1M 0 α22 α23 · · · α2M 0 0 α33 · · · α3M ... ... ... . . . ... 0 0 0 · · · αMM N B ︸ ︷︷ ︸ M = N U ︸ ︷︷ ︸ M [R] − − −− − [0] − ︸ ︷︷ ︸ M M [U ] M×N T [U ] N×M = [I] M×M (as colunas de [U ] sa˜o ortogonais entre si) Se M = N ⇒ [U ]T [U ] = [U ][U ]T = [I] (as linhas tambe´m sa˜o ortogonais entre si) Observac¸a˜o: Essa decomposic¸a˜o e´ chamada de decomposic¸a˜o QR 56 Algoritmo Gram-Schmidt modificado: Do ponto de vista nume´rico e´ conveniente modificar ligeiramente o algoritmo ba´sico. O objetivo e´ minimizar os erros de truncamento. 1. i = 1 {p}1 = {b}1 α11 = ‖{p}1‖2 = √√√√ N∑ j=1 p2j {u}1 = {p}1 α11 {b}1 = α11{u}1 2. i = 2 α12 = {u}T1 {b}2 {p}2 = {b}2 − α12{u}1 α22 = ‖{p}2‖ {u}2 = {p}2 α22 {b}2 = α12{u}1 + α22{u}2 3. i = 3 α13 = {u}T1 {b}3 {p}13 = {b}3 − α13{u}1 α23 = {u}T2 {p}13 {p}23 = {p}13 − α23{u}2 α33 = ∥∥{p}23∥∥ {u}3 = {p} 2 3 α33 {b}3 = α13{u}1 + α23{u}2 + α33{u}3 57 4. Analogamente para i qualquer: α1i = {u}T1 {b}i {p}1i = {b}i − α1i{u}1 α2i = {u}T2 {p}1i {p}2i = {p}1i − α2i{u}2 α3i = {u}T3 {p}2i {p}3i = {p}2i − α3i{u}3 ... = ... α(i−1),i = {u}Ti−1{p}(i−2)i {p}(i−1)i = {p}(i−2)i − α(i−1),i{u}i−1 αii = ∥∥{p}i−1i ∥∥ {u}i = {p} i−1 i αii {b}i = α1i{u}1 + α2i{u}2 + · · ·+ αii{u}i Observac¸a˜o: No algoritmo modificado, {p}i−1i e´ calculado de modo que {u}Tj {p}(i−1)i = 0 (j = 1, 2, . . . , (i − 1)) e´ imposto para cada {u}j, independente- mente. Programa 1: Programar o Gram Schmidt modificado: Dados M vetores LI, M ≤ N , [B] N×M = [{b}1{b}2 · · · {b}M ], {b}i ∈ EN , achar M vetores ortogonais [U ] N×M = [{u}1{u}2 · · · {u}M ] • Verificac¸a˜o da ortogonalidade: [U ]T [U ] = [I] M×M • [R] = α11 α12 · · · α1M 0 α22 · · · α2M ... ... . . . ... 0 0 · · · αMM • Sa´ıda: [B] N×M , [U ] N×M , [R] M×M • Verificar [B] = [U ].[R]. 58 Cap´ıtulo 6 Produto escalar e projec¸o˜es em uma reta 6.1 Vetor projec¸a˜o Figura 6.1: Projec¸a˜o ortogonal. Dados dois vetores euclidianos: −→ A → (a1, a2, a3),→ {a} = a1 a2 a3 −→ B → (b1, b2, b3),→ {b} = b1 b2 b3 achar a projec¸a˜o de −→ B em −→ A. 59 cos θ = −→ A ‖−→A‖ E • −→B‖−→B‖ E ∥∥∥−→A∥∥∥ E = √{a}T{a} =√ 3∑ i=1 a2i∥∥∥−→B∥∥∥ E = √{b}T{b} =√ 3∑ i=1 b2i Seja −→ P a projec¸a˜o de −→ B em −→ A −→ P = α −→ A∥∥∥−→A∥∥∥ E = α√{a}T{a}−→A, α = ∥∥∥−→P ∥∥∥ E = −→ B • −→ A∥∥∥−→A∥∥∥ E = {b}T{a} ({a}T{a})1/2 −→ A ‖−→A‖ E = −→ A√ {a}T {a} ⇒ Vetor unita´rio na direc¸a˜o de −→A. ∴ −→ P = {b}T{a} ({a}T{a})1/2 −→ A ({a}T{a})1/2 = {a}T{b} {a}T{a} −→ A 6.2 Matriz projetora Na forma de componentes: −→ P = p1 p2 p3 = {p}; −→A = a1 a2 a3 = {a}; −→B = b1 b2 b3 = {b} {p} = {a} T{b} {a}T{a}{a} = {a}{a}T {a}T{a}{b}({a}{a}T {a}T{a} ) (N×N) = [P]⇒ {p} = [P](N×N){b} Definic¸a˜o: A matriz [P] = {a}{a} T {a}T {a} e´ chamada matriz projetora ou matriz projec¸a˜o. Ela projeta um vetor {b} qualquer na direc¸a˜o de {a}. Propriedades da matriz [P] 1. Sime´trica: ([P]T = [P]) [P]T = ({a}{a}T {a}T{a} )T = ({a}T )T ({a})T {a}T{a} = {a}{a}T {a}T{a} = [P] 2. ”Idempotente”: [P][P] = [P] ([P][P] = [P]2 = [P]) 60 [P][P] = {a}({a}T {a}T{a} . {a}){a}T {a}T{a} = ({a}T{a}) ({a}T{a})︸ ︷︷ ︸ 1 ({a}{a}T ) ({a}T{a}) = {a}{a}T {a}T{a} = [P] Observac¸a˜o: um caso particular importante e´ o dos vetores {b} que produzem uma projec¸a˜o nula. [P]{b} = {0} ⇒ {a}{a} T {a}T{a}{b} = {0} ⇒ {a} T{b} = {0} * qualquer vetor {b}⊥{a} produz um vetor nulo quando projetado em {a}. 6.3 Teorema da projec¸a˜o Dado dois vetores coplanares na˜o paralelos −→ V 1 e −→ V 2 no E3, −→ V 1 = v11 v21 v31 e −→V 2 = v12 v22 v32 , e um ponto B na˜o pertencente ao plano S2 definido por −→V 1 e −→V 2, qual e´ a distaˆncia do ponto B ao plano S2? Plano S2 definido por −→ V 1 e −→ V 2 ⇒ S2 = {−→R ∈ E3 | −→R = x1−→V 1 + x2−→V 2}, x1, x2 escalares. Na forma matricial: r1 r2 r3 = x1 v11 v21 v31 + x2 v12 v22 v32 r1 r2 r3 = v11 v12v21 v22 v31 v32 { x1 x2 } {r} = [A]{x} Seja um ponto O de refereˆncia no plano S2. Seja um ponto A(a1, a2, a3) definido pelo vetor −→ R (ou vice-versa), pertencente ao plano S2. Seja um ponto B(b1, b2, b3) definido pelo vetor −→ B (ou vice-versa). 61 (O ponto O e´ a origem do sistema de refereˆncia) −→ B = −−→ OB−→ R = −→ OA Figura 6.2: Distaˆncia de um ponto a um plano. A distaˆncia AB entre o ponto A e o ponto B pode ser obtida de,−→ B + −→ BA = −→ R ⇒ −→BA = −→R −−→B onde −→ R = −→ OA. ∴ AB = ∥∥∥−→R −−→B∥∥∥ E A menor distaˆncia entre o ponto B e um ponto A do S2 e´ a distaˆncia entre o ponto B e o plano S2. d = ABMı´nimo = Mı´nimo r1,r2,r3 ∥∥∥−→R −−→B∥∥∥ E {R} = r1 r2 r3 Soluc¸a˜o: ∥∥∥−→R −−→B∥∥∥ E e´ mı´nimo quando ( −→ R − −→B ) ⊥ −→R , isto e´ (−→R − −→B ) · −→R = 0 = −→ R · (−→R −−→B ). Mı´nimo−→ R ∥∥∥−→R −−→B∥∥∥ = Mı´nimo−→ R ∥∥∥−→R −−→B∥∥∥2∥∥∥−→R −−→B∥∥∥2 = (−→R −−→B ) · (−→R −−→B ) = (−→R −−→B ) · −→R − (−→R −−→B ) · −→B d2 = ∥∥∥−→R −−→B∥∥∥2 Mı´nimo = min|(−→R −−→B ) · −→B | Para determinar o vetor −→ R :−→ R · (−→R −−→B ) = 0 ([A]{x})T ([A]{x} − {b}) = {x}T [A]T ([A]{x} − {b}) = 0 {x}T [A]T [A]{x} − {x}T [A]T{b} = 0 {x}T ([A]T [A]{x} − [A]T{b}︸ ︷︷ ︸ {0} ) = 0⇒ [A]T [A]{x} = [A]T{b} 62 O vetor −→ R que produz a distaˆncia entre B e S2 e´ obtido de [A] T [A]{x} = [A]T{b}: {x} (2×1) = ( [A] (2×3) T [A] (3×2)︸ ︷︷ ︸ (2×2) )−1[A]T (2×3) {b} (3×1) {−→R} = x1−→V 1 + x2−→V 2 = [A]{x} Como { x1 x2 } e´ a soluc¸a˜o que torna ∥∥∥−→R −−→B∥∥∥2 mı´nimo ⇒ e´ equivalente a` soluc¸a˜o por mı´nimos quadrados. Neste caso, {R} e´ a projec¸a˜o de −→B no plano S2. {x} = (ATA)−1AT{b} Pre´-multiplicando por [A]: [A]{x} = A(ATA)−1AT︸ ︷︷ ︸ (3×3) {b} {R} (3×1) = [P] (3×3) {b} (3×1) → Projec¸a˜o de {b} em S2 [P] = A(ATA)−1AT e´ a matriz de projec¸a˜o, • sime´trica. • Idempotente: [P]2 = A(ATA)−1ATA(ATA)−1︸ ︷︷ ︸ [I] AT = A(ATA)−1AT = [P] Generalizac¸a˜o do Teorema da projec¸a˜o: Seja um conjunto de vetores LI, ({V }1, {V }2, . . . , {V }M) {V }i ∈ EN {V }i = v1i v2i ... vNi M ≤ N. [{V }1 {V }2 · · · {V }M ] = v11 v21 ... vN1 v12 v22 ... vN2 · · · · · · . . . · · · v1M v2M ... vNM = [A](N×M) O conjunto de M vetores LI define um plano SM , M -dimensional, SM ⊂ EN . SM= {{R} ∈ EN | {R} = x1{V }1 + x2{V }2 + · · ·+ xM{V }M , (x1, . . . , xM) escalares} Na forma matricial, {R} (N×1) = [{V }1 {V }2 · · · {V }M ] x1 x2 ... xN = [A](N×M) {x}(M×1) 63 Para qualquer vetor {B} = b1 b2 ... bN , {B} ∈ E N , existe um vetor {p} ∈ SM tal que ‖{B} − {p}‖2 e´ mı´nimo. Nesse caso, ({B} − {p}) e´ ortogonal a {p}, isto e´ ({B} − {p}) • {p} = 0. O vetor {p} e´ obtido de {p} (N×1) = [A(ATA)−1AT ]︸ ︷︷ ︸ [P ] (N×N) {B} (N×1) {p} e´ a projec¸a˜o de {B} no plano SM . Exemplo: Dado um ponto B que define o vetor −→ B = −5 5 5 = {b}, e o plano definido por −→e 1 = √ 2 2 1 0 0 e −→e 2 = √22 0 1 0 ; S2 = {−→R = x1−→e 1 + x2−→e 2}, calcular a projec¸a˜o {p} de −→B em S2. Calcular a distaˆncia de B a S2. Observac¸a˜o: e´ poss´ıvel verificar que o ponto B na˜o pertence ao plano S2. Soluc¸a˜o: {p} = [A(ATA)−1AT ]{b} ⇒ {p} = 1 00 1 0 0 [ 1 0 0 1 ] [ 1 0 0 0 1 0 ] {b} = 1 0 00 1 0 0 0 0 ︸ ︷︷ ︸ [P ] {b} {p} = 1 0 00 1 0 0 0 0 −5 5 5 = −5 5 0 d = ‖{B} − {p}‖E = ∥∥∥∥∥∥ −5 5 5 − −5 5 0 ∥∥∥∥∥∥ = ∥∥∥∥∥∥ 0 0 5 ∥∥∥∥∥∥ = 5 Observac¸a˜o: [P ] = √ 2 2 1 01 1 0 0 √2 2 [ 1 1 0 0 1 0 ] √ 2 2 1 01 1 0 0 −1 √2 2 [ 1 1 0 0 1 0 ] = 1 0 00 1 0 0 0 0 {p} = [P ]{b} = −5 5 0 64 Resultado obvio, ja´ que os pares de vetores 1 0 0 ; 0 1 0 e √22 1 0 0 ; √22 0 1 0 definem o mesmo plano. Exerc´ıcios: 1. Achar a matriz projetora do vetor {−→V } = 1 −2 3 −4 Achar a projec¸a˜o do vetor {−→B } = 5 5 5 5 na direc¸a˜o de { −→ V }. 2. Dado o plano S que passa por O(2, 1, 0) e definido pelos vetores −→e 1 = 1 0 1 e −→e 2 = 0 0 1 , e o ponto P (−5, 1, 1), achar: (a) Projec¸a˜o do vetor −→ OP sobre S. (b) Distaˆncia de P a S. 65 66 Cap´ıtulo 7 Matrizes 7.1 Notac¸a˜o [A] = [aij] = a11 a12 · · · a1N a21 a22 · · · a2N ... ... . . . ... aM1 aM2 · · · aMN (M×N) Generalizac¸a˜o: aijk ⇒ (Matriz 3D) 7.2 Definic¸o˜es e propriedades Definic¸a˜o - Matriz diagonal: . . . D . . . (N×N) = d1 0 · · · 0 0 d2 · · · 0 ... ... . . . ... 0 0 · · · dN 67 Definic¸a˜o - Matriz identidade: [I] (N×N) = 1 0 · · · 0 0 1 · · · 0 ... ... . . . ... 0 0 · · · 1 Definic¸a˜o - Matriz transposta: [A]T → Trocam-se as linhas e as colunas de [A]. [A] (3×4) = a11 a12 a13 a14a21 a22 a23 a24 a31 a32 a33 a34 ⇒ [A]T (4×3) = a11 a21 a31 a12 a22 a32 a13 a23 a33 a14 a24 a34 Propriedade: [A] (M×N) = [B] (M×L) . [C] (L×N) =⇒ [A]T = [C]T .[B]T Definic¸a˜o - Matriz sime´trica: [A] = [A]T Definic¸a˜o - Matriz anti-sime´trica: [A] = −[A]T ⇒ diagonal nula em [A] e [A]T . Definic¸a˜o - Matriz complexa: [C] (M×N) = [A] (M×N) + j [B] (M×N) ([A] e [B] matrizes reais). Definic¸a˜o - Matriz conjugada: [C]∗ = [A]− j[B] Definic¸a˜o - Matriz inversa [A] N×N −1: [A][A]−1 = [A]−1[A] = [I] Propriedade: [A] (N×N) = [B] (N×N) . [C] (N×N) =⇒ [A]−1 = [C]−1.[B]−1 68 Definic¸a˜o - Matriz triangular: Superior → [U ] (N×N) = − −− −−− −− 0 − uij = 0 se i > j Inferior → [L] (N×N) = − 0−− − −− −− − lij = 0 se i < j Definic¸a˜o - Matriz ortogonal [P ] (N×N) : [P ]T = [P ]−1 [P ]T [P ] = [P ][P ]T = [I] = 1 0 · · · 0 0 1 · · · 0 ... ... . . . ... 0 0 · · · 1 [P ] = [{p}1{p}2 . . . {p}N ] As colunas de [P ] sa˜o ortogonais entre si ⇒ {p}i.{p}j = δij. Analogamente, as linhas de [P ] tambe´m sa˜o ortogonais entre si. Propriedades: ‖[P ]{x}‖• = ‖{x}‖• (a norma e´ preservada) [P ]{x} • [P ]{y} = {x} • {y} (o produto escalar e´ preservado) Definic¸a˜o - Matriz unita´ria: Seja [U ] (N×N) complexa. [U ] (N×N) e´ unita´ria se: ([U ]∗)T [U ] = ([U ]T )∗[U ] = [U ]([U ]∗)T = [I] Ou seja, ([U ]∗)T = [U ]−1. Uma matriz ortogonal e´ uma matriz unita´ria real. Definic¸a˜o - Matriz hermitiana: [A] = [A]H e´ hermitiana se: ([A]∗)T = ([A]T )∗ = [A] Se [A] = [B] + j[C]⇒ [A]T = [B]T + j[C]T 69 ([A]∗)T = ([A]T )∗ = [B]T − j[C]T Se [A] hermitiana ⇒ { Parte real sime´trica → [B] = [B]T Parte imagina´ria anti-sime´trica → [C] = −[C]T Observac¸a˜o: A diagonal principal e´ sempre real. Definic¸a˜o - Matriz anti-hermitiana: Se ([A]∗)T = −[A] Parte real ⇒ anti-sime´trica. Parte imagina´ria ⇒ sime´trica. Observac¸a˜o: A diagonal principal e´ sempre imagina´ria pura. Propriedade: Se [A] e´ hermitiana ⇒ j[A] e´ anti-hermitiana e vice versa. Observac¸a˜o: Na˜o confundir matriz hermitiana, que e´ uma matriz que apresenta a propriedade ([A]∗)T = [A], com a hermitian de uma matriz, H([A]) = ([A]∗)T , que e´ em geral diferente de [A]. Definic¸a˜o - Matriz normal [N ]: ([N ]∗)T [N ] = [N ]([N ]∗)T As matrizes unita´rias, hermitianas e anti-hermitianas sa˜o normais. Definic¸a˜o - Trac¸o de uma matriz [A] (N×N) : tr[A] tr[A] = N∑ i=1 aii Propriedades: 1. Seja [A] (N×N) , [B] (N×N) tr([A][B]) = tr([B][A]) = N∑ i=1 N∑ j=1 aijbji 2. tr(α[A] + β[B]) = α tr[A] + β tr[B] 3. tr[A] = tr([A]∗)T = tr[A]∗ (Observac¸a˜o: a e´ o conjugado do escalar a) 4. tr[A][B][C] = tr[C][A][B] = tr[B][C][A] 70 7.3 Norma de matrizes Definic¸a˜o - Norma de uma matriz [A], ‖[A]‖•: e´ um escalar que satisfaz as condic¸o˜es 1) ‖[A]‖• > 0, exceto para [A] = [0]. (‖[A]‖• = 0⇐⇒ [A] = [0]) 2) ‖α[A]‖• = |α| . ‖[A]‖•, α escalar 3) ‖[A] + [B]‖• 6 ‖[A]‖• + ‖[B]‖• 4) ‖[A].[B]‖• 6 ‖[A]‖• . ‖[B]‖• (Propriedade das normas subordinadas). Exemplos de normas: Seja [A] (M×N) • Norma de Frobenius ou norma Euclidiana ‖[A]‖E = ‖[A]‖F = √√√√ N∑ i=1 N∑ j=1 |aij|2 = √ tr(([A]∗)T [A]) • Norma absoluta ‖[A]‖A =Maxi,j |aij| Propriedade - A norma de uma matriz pode ser associada a` norma de um vetor: ‖[A]‖• = Max{x}6={0} ‖[A]{x}‖• ‖{x}‖• ou ‖[A]‖• = Max‖{x}‖•=1 ‖[A]{x}‖• Tais normas (de uma matriz) sa˜o chamadas de norma de uma matriz subordinada a` norma de um vetor e satisfazem a 4a condic¸a˜o da definic¸a˜o de norma acima mencionada: ‖[A].[B]‖• 6 ‖[A]‖• . ‖[B]‖• Propriedade 1: ‖[I]‖• = 1 para qualquer norma subordinada. Propriedade 2: Qualquer norma de vetor e matriz que satisfaz ‖[A].{x}‖• 6 ‖[A]‖• . ‖{x}‖• e´ chamada consistente ou compat´ıvel. Exemplos: • Norma ”Taxicab”: ‖[A]‖1 =Maxj N∑ i=1 |aij| (soma da coluna j). A norma ‖‖1 e´ uma norma subordinada a ‖{x}‖1 = N∑ i=1 |xi| 71 • Norma ∞: ‖[A]‖∞ =Maxi N∑ j=1 |aij| (soma da linha i). A norma ‖‖∞ e´ uma norma subordinada a ‖{x}‖∞ =Maxi |xi| • Norma espectral: ‖[A]‖s = √ Ma´ximo autovalor de([A]∗)T [A] Portanto ‖[A]‖s e´ subordinada a ‖{x}‖E Obs.: ‖[A]‖E e´ consistente com ‖{x}‖E, mas na˜o e´ subordinada pois ‖[I]‖E = √ N . 7.4 Determinante de uma matriz Definic¸a˜o - O determinante de uma matriz [A] (N×N) = a11 a12 · · · a1N a21 a22 · · · a2N ... ... . . . ... aN1 aN2 · · · aNN e´ |A| = N !∑ p=1 (−1)pa1ipa2jpa3kp · · · aNtp onde (i, j, k, . . . , t)p sa˜o todas as N ! permutac¸o˜es de 1, 2, 3, · · · , N Definic¸a˜o - Cofator de uma matriz [A] (N×N) , |Mij|: |Mij| = (−1)i+j × (determinante de [A], eliminadas a linha i e a coluna j) Definic¸a˜o - Matriz dos cofatores de [A]: Cada elemento cij da matriz e´ composto pelo cofator |Mij| . [C] = |M11| |M12| · · · |M1N | |M21| |M22| · · · |M2N | ... ... . . . ... |MN1| |MN2| · · · |MNN | Definic¸a˜o - Matriz adjunta de [A]: Transposta da matriz dos cofatores de [A]⇒ [C]T . Definic¸a˜o - Menor de ordem m da matriz [A] (r×s) , r e s > m: Matriz quadrada (m×m) obtida de [A] (r×s) , eliminando-se linhas e colunas. 72 7.5 Ca´lculo do determinante Ca´lculo do determinante de [A] (N×N) utilizando expansa˜o em cofatores. |[A]| = N∑ j=1 aij |Mij| (Para um i qualquer) = N∑ i=1 aij |Mij| (Para um j qualquer) Note-se que cada cofator |Mij| pode ser expandido de novo pela mesma regra. Propriedades: • Matriz [A] singular ⇒ |[A]| = 0 • |[A]| = ∣∣[A]T ∣∣ • |[A].[B]| = |[A]| . |[B]|, [A] e [B] quadradas, (N ×N). • Se [B] (N×N) e´ obtido de [A] (N×N) multiplicando-se uma linha ou coluna por um escalar α, enta˜o |[B]| = α |[A]| . • Trocando-se duas linhas ou duas colunas de [A], inverte-se o sinal do determinante. • Se [B] (N×N) e´ obtido de [A] (N×N) somando-se a qualquer linha ou coluna de [A] uma combinac¸a˜o linear de linhas ou colunas, respectivamente, de [A], enta˜o|[B]| = |[A]|. • Se [U ] (N×N) e´ triangular superior, enta˜o |[U ]| = N∏ i=1 uii (elementos da diagonal principal). • Se [L] (N×N) e´ triangular inferior, enta˜o |[L]| = N∏ i=1 lii (elementos da diagonal principal). Observac¸a˜o: Os auto-valores de [U ] e [L] esta˜o na diagonal principal. Isto pode ser visualizado obtendo-se o polinoˆmio caracter´ıstico pela expansa˜o em cofatores. 7.6 Auto-valores de uma matriz Por definic¸a˜o, sa˜o auto-vetores de uma matriz os vetores que se projetam sobre eles mes- mos na transformac¸a˜o definida pela matriz, sendo os auto-valores as relac¸o˜es que existem entre as normas euclideanas dos vetores projetados e dos vetores originais (Cap´ıtulo 8). Portanto, sa˜o autovalores de uma matriz [A] (N×N) , N valores λ que satisfazem a equac¸a˜o, [A]{x} = λ{x} ou 73 ([A]− λ[I]){x} = {0} Esta equac¸a˜o representa um sistema homogeˆneo, e portanto tera˜o soluc¸o˜es na˜o triviais somente se o determinante do sistema for nulo. Impondo esta restric¸a˜o temos, |[A]− λ[I]| = ∣∣∣∣∣∣∣∣∣ a11 − λ a12 · · · a1N a21 a22 − λ · · · a2N ... ... . . . ... aN1 aN2 · · · aNN − λ ∣∣∣∣∣∣∣∣∣ = 0⇒ P (λN) = 0 O polinoˆmio P (λN) e´ chamado polinoˆmio caracter´ıstico ou equac¸a˜o caracter´ıstica do sistema. P (λN) = aNλ N + aN−1λN−1 + · · ·+ a1λ+ a0 = 0 Para cada soluc¸a˜o (auto-valor) λi, i = 1, . . . , N , existe associada uma soluc¸a˜o {x}i do sistema homogeˆneo: ([A]− λi[I]){x}i = {0} {x}i e´ um auto-vetor de [A] associado ao auto-valor λi. Definic¸a˜o - Posto (”rank”) de uma matriz [A] (M×N) , ρ[A]: e´ a ordem da maior matriz na˜o singular que pode ser formada retirando-se linhas e/ou colunas de [A]. Propriedades: 1. ρ [A] (M×N) 6Min{M,N} 2. Se [B] e´ sub-matriz de [A], ρ[B] 6 ρ[A] 3. Se ρ[A] = k ⇒ { Existem no ma´ximo k colunas de [A] LI. Existem no ma´ximo k linhas de [A] LI. 4. ρ[A] = ρ[A]T = ρ([A]∗)T 5. ρ[A] = ρ([A]([A]∗)T ) = ρ(([A]∗)T [A]) 6. Se ρ [A] (M×N) = K ⇒ existe [X] (M×K) , [M ] (K×K) e [Y ] (K×N) tal que [A] = [X][M ][Y ], det[M ] 6= 0 7. Se [A] (M×N) , [B] (N×P ) ⇒ ρ([A][B]) 6 Min{ρ[A], ρ[B]}. A igualdade acontece somente se [A] e [B] tiverem posto cheio. 8. ρ([A] + [B]) 6 ρ[A] + ρ[B] 74 Definic¸a˜o - Raio espectral de uma matriz [A] (N×N) , ς[A]: Ma´ximo autovalor de [A], em valor absoluto. Definic¸a˜o - Nu´mero de condic¸a˜o espectral de uma matriz [A] (N×N) , c[A]S: c[A]S = ‖[A]‖s ∥∥[A]−1∥∥ s = |λ|Ma´x |λ|Mı´n e´ uma medida do condicionamento nume´rico de [A] (N×N) . Mede a ”sensitividade” da matriz em relac¸a˜o a uma perturbac¸a˜o (nos seus coeficientes, δ[A], ou em quem a matriz esta´ aplicada ). Exemplo: [A]{x} = {b} ⇒ δ[A], δ{b}, δ{x} Quanto maior c[A]S, pior e´ o condicionamento nume´rico na resoluc¸a˜o do sistema de equac¸o˜es. O caso limite acontece quando [A] e´ singular ⇒ |λ|Mı´n = 0⇒ c[A]S =∞. 7.7 Produto interno Definic¸a˜o: O produto interno entre duas matrizes [A] (M×N) e [B] (M×N) e´ um escalar (real ou complexo) que satisfaz as condic¸o˜es: 1. < [A], [B] > = < [B], [A] > 2. < [A], [A] > > 0 se [A] 6= [0]; < [A], [A] > = 0⇔ [A] = [0] 3. < α[A] + β[B], [C] > = α < [A], [C] > +β < [B], [C] > Observac¸a˜o: O produto interno de matrizes pode ser definido utilizando o produto interno de vetores, por exemplo: < [A], [B] >u,v= < [A]{u}, [B]{v} >u < {v}, {v} >v ; {v} 6= {0} onde < (.), (.) >u e < (.), (.) >v representam produtos internos vetoriais. Outros exemplos de produtos internos de matrizes: < [A], [B] >v= ({v}∗)T ([A]∗)T [B]{v} ({v}∗)T{v} ; {v} 6= {0} < [A], [B] >= tr(([A]∗)T [B]) etc... 75 7.8 Subespac¸os fundamentais de uma matriz Os quatro subespac¸os fundamentais de uma matriz [A] (M×N) sa˜o: 1. Subespac¸o das colunas de [A], R([A])⇒ subespac¸o gerado por todas as combinac¸o˜es das colunas de [A] (M×N) . R([A]) ⊂ EM . 2. Subespac¸o das linhas de [A], R([A]T )⇒ subespac¸o gerado por todas as combinac¸o˜es das colunas de [A]T (N×M) (ou linhas de [A]). R([A]T ) ⊂ EN . 3. Subespac¸o nulo (direito) de [A], N ([A]) ⇒ subespac¸o constitu´ıdo por todos os ve- tores que satisfazem a equac¸a˜o [A] (M×N) {x} (N×1) = {0} (M×1) . N ([A]) ⊂ EN . 4. Subespac¸o nulo (esquerdo) de [A], N ([A]T ) ⇒ subespac¸o constitu´ıdo por todos os vetores que satisfazem a equac¸a˜o [A]T (N×M) {y} (M×1) = {0} (N×1) , ou {y}T (1×M) [A] (M×N) = {0}T (1×N) . N ([A]T ) ⊂ EM . { N ([A]) e R([A]T ) ⊂ RN N ([A]T ) e R([A]) ⊂ RM • Os subespac¸os nulos sa˜o chamados de kernel de [A]. • R([A])⇒ dimensa˜o r (nu´mero de colunas LI), ⇒ posto de [A] = ρ[A] = r. • R([A]T )⇒ dimensa˜o r (nu´mero de linhas LI), ⇒ posto de [A]T = ρ([A]T ) = r. • N ([A])⇒ dimensa˜o (N − r)⇒ (N − r) vetores LI formando uma base. • N ([A]T )⇒ dimensa˜o (M − r)⇒ (M − r) vetores LI formando uma base. 76 Cap´ıtulo 8 Autovalores e autovetores de uma matriz Seja [A] uma matriz N ×N qualquer. Os autovetores da matriz [A] sa˜o, por definic¸a˜o, os vetores que se projetam sobre si mesmos na transformac¸a˜o [A]{x} = {y}. Portanto, se {x} e´ um autovetor, {y} e´ colinear com {x} e enta˜o {y} = λ{x}. O fator de escala λ e´ o autovalor associado ao autovetor {x}. Portanto o auto-sistema de equac¸o˜es e´ dado por: [A]{x} = λ{x} ou ([A]− λ[I]){x} = {0} (8.1) onde tanto λ como {x} sa˜o inco´gnitas. Como (8.1) e´ um sistema de equac¸o˜es homogeˆneo, a soluc¸a˜o na˜o trivial so´ ocorre quando o determinante e´ nulo. |[A]− λ[I]| = P (λN) = 0 (8.2) Matricialmente,∣∣∣∣∣∣∣∣∣ (a11 − λ) a12 · · · a1N a21 (a22 − λ) · · · a2N ... ... . . . ... aN1 aN2 · · · (aNN − λ) ∣∣∣∣∣∣∣∣∣ = P (λN) = 0 A expressa˜o do determinante |[A]− λ[I]| resulta num polinoˆmio de grau N , P (λN), denominado polinoˆmio caracter´ıstico: P (λN) = λN + αN−1λN−1 + αN−2λN−2 + · · ·+ α0 = 0 As N raizes de P (λN) = 0⇒ λ1, λ2, . . . , λN , sa˜o chamadas autovalores de [A]. Obtidos os autovalores λi, pode-se voltar a` equac¸a˜o (8.1) e resolver o sistema ho- mogeˆneo, 77 ([A]− λi[I]){x}i = {0} ⇒ {x}i {x}i e´ o autovetor associado ao autovalor λi. Portanto, os autovalores e autovetores aparecem aos pares, (λ1, {x}1), (λ2, {x}2), . . . , (λN , {x}N). A matriz [S] N×N = [{x}1 {x}2 · · · {x}N ] e´ a matriz dos autovetores de [A], tambe´m chamada matriz modal. As aplicac¸o˜es da teoria de autovalores e autovetores sa˜o inu´meras. Exemplo: Seja um sistema de equac¸o˜es diferenciais lineares de ordem 1, {y˙} = [A] N×N {y}+ {b} N×1 (8.3) A estabilidade do sistema e´ analisada tomando-se o sistema homogeˆneo, {y˙} = [A]{y} (8.4) A soluc¸a˜o de (8.4) e´ do tipo,
Compartilhar