Baixe o app para aproveitar ainda mais
Prévia do material em texto
Métodos Numéricos em Engenharia Nuclear Antonio Carlos Marques Alvim, Ph. D. Professor Titular do Programa de Engenharia Nuclear da COPPE/UFRJ Professor Associado da UFRJ 22 de outubro de 2007 Sumário 1 Matrizes e transformações lineares 5 1.1 Notação matricial para sistemas de equações lineares . . . . . 5 1.2 Operações com matrizes . . . . . . . . . . . . . . . . . . . . . 7 1.2.1 Matrizes especiais e suas propriedades . . . . . . . . . 10 1.2.2 Interpretações geométricas (vetoriais) . . . . . . . . . 13 1.2.3 Funções de matrizes.Transformações de semelhança . . 16 1.3 Autovalores e autovetores . . . . . . . . . . . . . . . . . . . . 20 1.4 Diagonalização de matriz simétrica . . . . . . . . . . . . . . . 23 1.5 Diagonalização de matrizes não-simétricas . . . . . . . . . . . 25 1.5.1 Autovalores distintos . . . . . . . . . . . . . . . . . . . 25 1.5.2 Autovalores repetidos. Forma canônica de Jordan . . . 27 1.6 Formas particulares de matrizes . . . . . . . . . . . . . . . . . 31 1.7 Definições adicionais . . . . . . . . . . . . . . . . . . . . . . . 36 1.8 O teorema de Gershgorin. Raio espectral . . . . . . . . . . . 38 1.9 Formas quadráticas.Matriz definida positiva . . . . . . . . . . 40 1.10 Matriz de Stieltjes. Matriz M . . . . . . . . . . . . . . . . . . 43 1.11 Normas vetoriais e matriciais . . . . . . . . . . . . . . . . . . 45 1.12 Matrizes não negativas . . . . . . . . . . . . . . . . . . . . . . 48 1.13 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 2 Diferenças Finitas 57 2.1 Exemplos introdutórios . . . . . . . . . . . . . . . . . . . . . 57 2.2 Operadores de diferenças . . . . . . . . . . . . . . . . . . . . . 59 2.3 Formação de equações de diferenças . . . . . . . . . . . . . . 62 2.4 Soluções analíticas . . . . . . . . . . . . . . . . . . . . . . . . 66 2.5 Equações homogêneas . . . . . . . . . . . . . . . . . . . . . . 71 2.5.1 Coeficientes constantes . . . . . . . . . . . . . . . . . . 71 2.6 Equações não-homogêneas . . . . . . . . . . . . . . . . . . . . 76 2.7 Estabilidade de equações de diferenças . . . . . . . . . . . . . 80 2.8 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 v vi SUMÁRIO 3 Integração numérica 87 3.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 3.2 Interpolação de Lagrange . . . . . . . . . . . . . . . . . . . . 88 3.3 Fórmulas de Newton-Cotes . . . . . . . . . . . . . . . . . . . 91 3.3.1 Fórmulas abertas e fechadas . . . . . . . . . . . . . . . 94 3.4 Integração composta . . . . . . . . . . . . . . . . . . . . . . . 96 3.5 Integração usando operadores . . . . . . . . . . . . . . . . . . 97 3.6 Erros de truncamento . . . . . . . . . . . . . . . . . . . . . . 102 3.7 Grau de exatidão . . . . . . . . . . . . . . . . . . . . . . . . . 103 3.8 Quadraturas de Gauss . . . . . . . . . . . . . . . . . . . . . . 104 3.8.1 Quadratura de Gauss-Legendre . . . . . . . . . . . . . 106 3.8.2 Quadratura de Gauss-Laguerre . . . . . . . . . . . . . 107 3.8.3 Quadratura de Gauss-Hermite . . . . . . . . . . . . . 108 3.8.4 Quadratura de Gauss-Chebyshev . . . . . . . . . . . . 109 3.9 Fórmulas de Adam . . . . . . . . . . . . . . . . . . . . . . . . 109 3.10 Solução de EDO’s . . . . . . . . . . . . . . . . . . . . . . . . 111 3.11 Métodos de multiintervalos . . . . . . . . . . . . . . . . . . . 112 3.12 Métodos de intervalo único . . . . . . . . . . . . . . . . . . . 117 3.13 Equações de ordem superior . . . . . . . . . . . . . . . . . . . 121 3.14 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 4 Equações diferenciais parciais 127 4.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 4.2 Equações diferenciais parciais . . . . . . . . . . . . . . . . . . 128 4.3 Operadores lineares . . . . . . . . . . . . . . . . . . . . . . . . 129 4.3.1 Classificação dos operadores diferenciais parciais . . . 130 4.4 Equações hiperbólicas . . . . . . . . . . . . . . . . . . . . . . 131 4.4.1 Solução analítica do problema hiperbólico por sepa- ração de variáveis . . . . . . . . . . . . . . . . . . . . . 138 4.4.2 Equações de diferenças para problemas hiperbólicos . 140 4.4.3 Solução analítica do problema hiperbólico aproximado 148 4.4.4 Convergência da aproximação por diferenças . . . . . 155 4.5 Equações parabólicas . . . . . . . . . . . . . . . . . . . . . . . 156 4.5.1 Solução analítica do problema parabólico por sepa- ração de variáveis . . . . . . . . . . . . . . . . . . . . . 158 4.5.2 Equação de diferenças para o problema parabólico . . 159 4.5.3 Solução analítica do problema parabólico aproximado 160 4.5.4 Convergência da aproximação por diferenças . . . . . 162 4.6 Equações elipticas . . . . . . . . . . . . . . . . . . . . . . . . 164 4.6.1 Solução analítica do problema eliptico por separação de variáveis . . . . . . . . . . . . . . . . . . . . . . . . 166 4.6.2 Equação de diferenças para o problema eliptico . . . . 168 4.6.3 Solução analítica do problema eliptico aproximado . . 168 4.6.4 Convergência da aproximação por diferenças . . . . . 171 SUMÁRIO vii 4.7 O método de Von-Neumann . . . . . . . . . . . . . . . . . . . 173 4.7.1 Equações hiperbólicas . . . . . . . . . . . . . . . . . . 175 4.7.2 Equações parabólicas . . . . . . . . . . . . . . . . . . . 178 4.7.3 Representação matricial das equações de diferenças . . 180 4.8 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 5 Equação de difusão monoenergética 187 5.1 Caso unidimensional, um grupo de energia . . . . . . . . . . . 187 5.2 O método das potências (Power Method) . . . . . . . . . . . 198 5.2.1 Normalização do método das potências . . . . . . . . . 200 5.2.2 Método inverso das potências (Inverse Power method) 201 5.2.3 Método das potências aplicado ao vetor fonte . . . . . 205 5.3 Método de Wielandt . . . . . . . . . . . . . . . . . . . . . . . 206 5.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 6 A equação de difusão multigrupo 211 6.1 Caso unidimensional, dois grupos de energia . . . . . . . . . . 211 6.1.1 Iteração usando o conceito de vetor fonte . . . . . . . 214 6.2 Métodos de extrapolação de fonte de Chebyshev . . . . . . . 216 6.2.1 A extrapolação de Chebyshev de um parâmetro . . . . 217 6.2.2 A extrapolação de Chebyshev com dois parâmetros . . 221 6.3 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 7 A difusão multigrupo multidimensional 225 7.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 Lista de Figuras 1.1 Transformação Linear . . . . . . . . . . . . . . . . . . . . . . 15 1.2 Rotação de sistemas coordenados . . . . . . . . . . . . . . . . 16 1.3 Conjuntos de vetores bi-ortogonais . . . . . . . . . . . . . . . 26 1.4 Teorema de Gerschgorin . . . . . . . . . . . . . . . . . . . . . 39 1.5 Raio espectral de uma matriz . . . . . . . . . . . . . . . . . . 40 1.6 Matriz definida positiva . . . . . . . . . . . . . . . . . . . . . 43 2.1 Aproximação da derivada em um ponto . . . . . . . . . . . . 57 2.2 Aproximação da derivada em um domínio . . . . . . . . . . . 58 3.1 Quadratura aberta à direita . . . . . . . . . . . . . . . . . . . 113 3.2 Quadratura fechada à direita . . . . . . . . . . . . . . . . . . 113 3.3 Subdivisão do intervalo único . . . . . . . . . . . . . . . . . . 118 3.4 Subdivisão do intervalo para o método de Heun . . . . . . . . 120 4.1 Equação diferencial parcial . . . . . . . . . . . . . . . . . . . 128 4.2 Contornos físico e inicial . . . . . . . . . . . . . . . . . . . . . 129 4.3 Contorno inicial para problema hiperbólico . . . . . . . . . . 131 4.4 Retas características . . . . . . . . . . . . . . . . . . . . . . . 135 4.5 Triângulo característico . . . . . . . . . . . . . . . . . . . . . 136 4.6 Malha numérica para equação de onda . . . . . . . . . . . . . 141 4.7 Representação do algorítmo . . . . . . . . . . . . . . . . . . . 142 4.8 Complexos conjugados . . . . . . . . . . . . . . . . . . . . . . 150 4.9 Condiçõesinicial e de contorno para a equação parabólica . . 158 4.10 Problema parabólico-algorítmo explícito . . . . . . . . . . . . 160 4.11 Equação elíptica-condições de contorno . . . . . . . . . . . . . 165 4.12 Problema elíptico . . . . . . . . . . . . . . . . . . . . . . . . . 166 4.13 Aproximação por diferenças finitas . . . . . . . . . . . . . . . 168 4.14 Problema hiperbólico-algorítmo explícito . . . . . . . . . . . . 175 4.15 Problema hiperbólico-algorítmo implícito . . . . . . . . . . . 177 4.16 Problema parabólico-algorítmo explícito . . . . . . . . . . . . 179 4.17 Problema parabólico-algorítmo implícito . . . . . . . . . . . . 180 5.1 Esquema centrado nas interfaces . . . . . . . . . . . . . . . . 188 1 2 LISTA DE FIGURAS 5.2 Combinações de parâmetros físicos e de malhas . . . . . . . . 190 5.3 Discretização no contorno . . . . . . . . . . . . . . . . . . . . 191 5.4 Discretização-esquema centrado na malha . . . . . . . . . . . 194 5.5 Fluxograma -Método inverso das potências . . . . . . . . . . 204 7.1 Discretização bi-dimensional . . . . . . . . . . . . . . . . . . . 226 7.2 Discretização-ponto no contorno . . . . . . . . . . . . . . . . 228 7.3 Malha bidimensional . . . . . . . . . . . . . . . . . . . . . . . 233 7.4 Reordenação consistente da malha . . . . . . . . . . . . . . . 237 7.5 Acoplamento entre os pontos de malha . . . . . . . . . . . . . 239 7.6 Esquemas do método de Jacobi . . . . . . . . . . . . . . . . . 241 7.7 Esquemas do método de Gauss-Seidel . . . . . . . . . . . . . 241 Lista de Tabelas 3.1 Tabela da função f(x) . . . . . . . . . . . . . . . . . . . . . . 89 3.2 Tabela para espaçamento constante. . . . . . . . . . . . . . . 90 3.3 Fórmulas Fechadas de Newton-Cotes . . . . . . . . . . . . . . 95 3.4 Fórmulas Abertas de Newton-Cotes . . . . . . . . . . . . . . 95 3.5 Quadratura de Gauss-Legendre . . . . . . . . . . . . . . . . . 106 3.6 Quadratura de Gauss-Laguerre . . . . . . . . . . . . . . . . . 108 3.7 Quadratura de Gauss-Hermite . . . . . . . . . . . . . . . . . . 109 4.1 Relações envolvendo somatórios . . . . . . . . . . . . . . . . 157 3 Capítulo 1 Matrizes e transformações lineares 1.1 Notação matricial para sistemas de equações lineares Uma linha do sistema:⎧⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎩ a11x1+ a12x2+ · · · .+ a1nxn = y1 a21x1+ a22x2+ · · · +a2nxn = y2 ... ... ... ... ... an1x1+ an2x2+ · · · +annxn = yn (1.1) pode ser escrita como: nX j=1 aijxj = yi ; i = 1, 2, ..., n (1.2) Definindo os arranjos x = ⎡⎢⎢⎢⎢⎢⎢⎣ x1 x2 ... xn ⎤⎥⎥⎥⎥⎥⎥⎦ e y = ⎡⎢⎢⎢⎢⎢⎢⎣ y1 y2 ... yn ⎤⎥⎥⎥⎥⎥⎥⎦ denominados matrizes (ou vetores) colunas e o arranjoh ai1, ai2, · · · , ain i 5 6CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES denominado matriz (ou vetor) linha, pode-se escrever a equação (1.2) como h ai1, ai2, · · · , ain i ⎡⎢⎢⎢⎢⎢⎢⎣ x1 x2 ... xn ⎤⎥⎥⎥⎥⎥⎥⎦ = nX j=1 aijxj = yi ; i = 1, 2, ..., n Esta expressão permite definir a multiplicação de uma matriz linha por uma matriz coluna como sendo o somatório dos produtos do j-ésimo elemento da matriz linha pelo j-ésimo elemento da matriz coluna. Definindo o arranjo de coeficientes A = ⎡⎢⎢⎢⎢⎢⎢⎣ a11 a12 · · · a1n a21 a22 · · · a2n ... ... ... an1 an2 · · · ann ⎤⎥⎥⎥⎥⎥⎥⎦ denominado matriz quadrada, o conjunto de equações (1.2) pode ser escrito na forma ⎡⎢⎢⎢⎢⎢⎢⎣ a11 a12 · · · a1n a21 a22 · · · a2n ... ... ... an1 an2 · · · ann ⎤⎥⎥⎥⎥⎥⎥⎦ ⎡⎢⎢⎢⎢⎢⎢⎣ x1 x2 ... xn ⎤⎥⎥⎥⎥⎥⎥⎦ = ⎡⎢⎢⎢⎢⎢⎢⎣ y1 y2 ... yn ⎤⎥⎥⎥⎥⎥⎥⎦ (1.3) o que permite definir o produto de uma matriz quadrada por um vetor coluna como sendo um vetor coluna y onde cada componente yj é o produto da j- ésima linha da matriz quadrada A pelo vetor coluna x. Portanto, o sistema (1.1) pode ser compactamente representado como Ax = y (1.4) De modo geral, um sistema com m equações lineares e n incógnitas também pode ser compactamente representado na forma (1.4), entendendo-se como a matriz A o arranjo dos coeficientes do sistema, com m linhas e n colunas (matriz retangular) e indicado A(m,n). Nesse caso, a matriz A é dita de dimensão (m,n). O vetor x possuirá n componentes, ou seja, será uma matriz (n, 1) . A matriz A pode também ser representada como A = [aij ] 1.2 OPERAÇÕES COM MATRIZES 7 1.2 Operações com matrizes Duas matrizes A e B, ambas de dimensão (m,n) são iguais se aij = bij para todo i e todo j. Representa-se a igualdade das matrizes por A = B ou [aij ] = [bij ] Observando que X j aij + X j bij = X j (aij + bij) define-se a soma C = A+B das matrizes A = [aij ] e B = [bij ] como [cij ] = [aij ] + [bij ] = [aij + bij ] A soma é definida para A e B ambas de dimensões (m,n) , resultando C , também de dimensão (m,n) . É fácil verificar que a soma de matrizes é comutativa A+B = B+A e associativa A+ (B+C) = (A+B) +C Podemos também definir o produto de um escalar α (um número real ou complexo) por uma matriz A como a matriz αA dada por aA =[aaij ] O produto de matrizes pode ser definido, considerando dois sistemas de equações lineares: Ax = y e By = z Como yi = X j aijxj 8CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES e zk = X i bkiyi obtém-se zk = X i bki X j aijxj = X j ÃX i bkiaij ! xj Como é possivel escrever, em forma matricial, By = B(Ax) = BAx = z define-se então a matriz produto C = BA por [ckj ] = [ X i bkiaij ] onde a soma se estende pelas colunas de B e pelas linhas de A. Portanto, a multiplicação das matrizes B e A só é definida quando o número de colunas de B igualar o número de linhas de A e a matriz produto BA terá o mesmo número de linhas de B e o mesmo número de colunas de A . É fácil verificar que o produto de matrizes é associativo A(BC) = (AB)C e também distributivo em relação à soma A(B+C) = AB+AC Entretanto, AB 6= BA em geral. Sejam A(m,n) e B(n, p) . Nesse caso, AB é de dimensão (m, p) e o produto BA só é definido se p = m . Se isto ocorrer, AB será de dimensão (m,m) e BA de dimensão (n, n). Portanto, uma condição necessária (mas não suficiente) para que AB = BA é que m = n ou seja, A e B sejam matrizes quadradas de mesma ordem. Quando duas matrizes quadradas A e B satisfazem a AB = BA , diz-se que elas comutam. Submatrizes: Se algumas linhas e/ou colunas de A = [aij ] forem omiti- das, o arranjo restante é denominado submatriz de A. Exemplo: Seja A = ⎡⎢⎢⎢⎣ a11 a12 a13 a21 a22 a23 a31 a32 a33 ⎤⎥⎥⎥⎦ 1.2 OPERAÇÕES COM MATRIZES 9 Podemos definir a submatriz A11 == ⎡⎣ a11 a12 a21 a22 ⎤⎦ resultante da retirada da terceira linha e da terceira coluna de A e a matriz A pode ser representada em termos das submatrizes Aij : A = = ⎡⎣A11 A12 A21 A22 ⎤⎦ com A12 = ⎡⎣ a13 a23 ⎤⎦ e as demais submatrizes definidas de modo análogo. SejamA eBmatrizes representadas em termos de submatrizes, conforme indicado a seguir: A = ⎡⎢⎢⎢⎢⎢⎢⎣ A11 A12 · · · A1r A21 A22 · · · A2r ... ... ... Aq1 Aq2 · · · Aqr ⎤⎥⎥⎥⎥⎥⎥⎦ ; B = ⎡⎢⎢⎢⎢⎢⎢⎣ B11 B12 · · · B1t B21 B22 · · · B2t ... ... ... Br1 Br2 · · · Bqt ⎤⎥⎥⎥⎥⎥⎥⎦ tais que o produto AB seja definido. Então, se todos os produtos do tipo AijBjk forem definidos, o produto AB pode ser computado da seguinte maneira: AB = C = ⎡⎢⎢⎢⎢⎢⎢⎣ C11 C12 · · · C1t C21 C22 · · · C2t ... ... ... Cq1 Cq2 · · · Cqt ⎤⎥⎥⎥⎥⎥⎥⎦ onde cada elemento de C é dado por Cij = rX k=1 AikBkj 10CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES 1.2.1 Matrizes especiais e suas propriedades Admite-se, no que segue, que todas as matrizes consideradas são reais (definidas sobre o corpo dos reais). Matriz nula: É a matriz quadrada que possui todos os seus elementos iguais a zero. É representada por O. Deve-se notar que AB = O; A = O ou B = O , como se pode verificar no exemplo a seguir onde A = ⎡⎣ 1 −1 −1 1 ⎤⎦ ; B = ⎡⎣ 1 1 1 1 ⎤⎦ Efetuando o produto dessas matrizes encontramos AB = ⎡⎣ 0 0 0 0 ⎤⎦ = O Matriz identidade: É a matriz quadrada definida por I = [δij ] onde δij = ⎧⎨⎩ 0 , se i 6= j1 , se i = j é o delta de Kronecker. A matriz identidade goza da seguinte propriedade: AI = A e IA = A ou seja, a matriz identidade comuta com qualquer matriz de mesma ordem. Matrizdiagonal: É a matriz quadrada definida por D = [dij ] = [diδij ] É fácil verificar que, se D1 e D2 são duas matrizes diagonais, D1D2 = D2D1 desde que o produto dessas matrizes seja definido, ou seja, D1 eD2 possuam mesma ordem. Entretanto, se A for uma matriz não-diagonal e D uma matriz diagonal, ambas quadradas de ordem n , então AD 6= DA em geral. Matriz escalar: É a matriz diagonal que possui os elementos da diagonal iguais, 1.2 OPERAÇÕES COM MATRIZES 11 D = [dδij ] , d um escalar Pode-se verificar que D = dI . Portanto, uma matriz escalar comuta com qualquer matriz de mesma ordem. Matriz transposta de uma matriz A(m,n): É a matriz obtida da matriz A ao trocar suas linhas por suas colunas. Indica-se a matriz transposta de A por AT . Em vista dessa definição, AT = £ aTij ¤ = [aji] Note que a matriz transposta de uma matriz coluna é uma matriz linha. Portanto, uma maneira conveniente de representar um vetor coluna x = ⎡⎢⎢⎢⎢⎢⎢⎣ x1 x2 ... xn ⎤⎥⎥⎥⎥⎥⎥⎦ é pela matriz linha transposta xT = [x1, x2, · · · , xn]T Pode-se mostrar que, se o produto AB for definido, (AB)T = BTAT Matriz simétrica: É a matriz quadrada A tal que AT = A Dessa definição resulta que aji = aij Matriz anti-simétrica: É a matriz quadrada A tal que AT = −A Dessa definição resultam, para qualquer matriz anti-simétrica A, aii = 0 ; ∀i e aij = −aji ∀i 6= j Matriz inversa de uma matriz quadrada A: É a matriz quadrada indi- cada por A−1 tal que AA−1 = A−1A = I 12CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES Uma matriz quadrada A admite inversa se e somente se seu determinante, indicado por |A| , for diferente de zero. Nesse caso,¯̄ A−1 ¯̄ 6= 0 Pode-se mostrar que ¯̄ A−1 ¯̄ = 1 |A| e também que ³ a−1ij ´ = Cji |A| onde Cji é o cofator1 de aji . Note que esta última expressão permite computar a inversa de A . Entretanto, para isso, devemos resolver n2 de- terminantes de ordem n− 1 e 1 de ordem n . Obviamente, há métodos mais eficientes de inverter uma dada matriz A .(vide [2]) Matriz singular: Se |A| = 0 , a matriz A é dita singular, não possuindo inversa. Unicidade da matriz inversa: Supondo que a matriz A possua duas inversas, digamos A−1 e B resultam AB = I e AA−1 = I Subtraindo essas duas equações, vem: AB−AA−1 = O ou A(B−A−1) = O Multiplicando essa igualdade membro a membro por A−1 ou por B , tere- mos: B−A−1 = O donde B = A−1 1O cofator Cji relativo a um elemento aji é dado por Cji = (−1)j+iMji , onde Mji é o complemento algébrico de aji , i.e., é o determinante da matriz formada pela exclusão das j-ésima linha e i-ésima coluna de A . 1.2 OPERAÇÕES COM MATRIZES 13 ou seja, a inversa de A é única. É facil verificar que (AB)−1 = B−1A−1 Matriz ortogonal: É a matriz quadrada A tal que AT = A−1 Pode-se mostrar que o determinante de uma matriz ortogonal é igual a ±1, como segue: Da definição de matriz ortogonal vem que | AT |=| A−1 | Como | AT |=| A | segue que | A |=| A−1 | e como | A−1 |= 1| A | temos | A |= 1| A | ou seja, | A |2= 1 donde | A |= ±1 como queríamos demonstrar. 1.2.2 Interpretações geométricas (vetoriais) Produto escalar de dois vetores no espaço tridimensional O Produto matricial tTu = [t1, t2, t3] ⎡⎢⎢⎢⎣ u1 u2 u3 ⎤⎥⎥⎥⎦ = t1u1 + t2u2 + t3u3 14CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES pode ser interpretado como o produto escalar dos vetores −→ t = t1 −→ i + t2 −→ j + t3 −→ k e −→u = u1 −→ i + u2 −→ j + u3 −→ k dado por ³−→ t ,−→u ´ ≡ −→t ·−→u = t1u1 + t2u2 + t3u3 Transformação linear Seja o sistema ⎧⎪⎪⎪⎨⎪⎪⎪⎩ a11x1+ a12x2+ a13x3 = y1 a21x1+ a22x2+ a23x3 = y2 a31x1+ a32x2+ a33x3 = y3 ou Ax = y Pensando em x e y como os vetores tridimensionais −→x = x1 −→ i + x2 −→ j + x3 −→ k e −→y = y1 −→ i + y2 −→ j + y3 −→ k é possível associar a matriz A com a transformação linear que leva o vetor −→x no vetor−→y , conforme indicado acima. Este é o ponto de vista mais usual, como mostrado na figura (1.1): Entretanto, considerando dois sistemas ortogonais [ −→ i , −→ j , −→ k ] e [ −→ i0 , −→ j0 , −→ k0 ] , tais que −→ i = a11 −→ i0 + a21 −→ j0 + a31 −→ k0 (1.5) −→ j = a12 −→ i0 + a22 −→ j0 + a32 −→ k0 −→ k = a13 −→ i0 + a23 −→ j0 + a33 −→ k0 e escrevendo um vetor −→x nos dois sistemas como [−→x ]i,j,k = x1 −→ i + x2 −→ j + x3 −→ k 1.2 OPERAÇÕES COM MATRIZES 15 z 0 y x x y Figura 1.1: Transformação Linear [−→x ]i0,j0,k0 = y1 −→ i0 + y2 −→ j0 + y3 −→ k0 é possível relacionar estas representações através de (1.5): −→x = [x1a11 + x2a12 + x3a13] −→ i0 + [x1a21 + x2a22 + x3a23] −→ j0 + [x1a31 + x2a32 + x3a33] −→ k0 = y1 −→ i0 + y2 −→ j0 + y3 −→ k0 ou ⎧⎪⎪⎪⎨⎪⎪⎪⎩ a11x1+ a12x2+ a13x3 = y1 a21x1+ a22x1+ a23x1 = y2 a31x1+ a32x1+ a33x1 = y3 ou seja, o sistema linear Ax = y nos diz como obter as componentes yi , da representação do vetor −→x no sistema [ −→ i0 , −→ j0 , −→ k0 ] , em termos das compo- nentes xi , que representam o mesmo vetor, no sistema [ −→ i , −→ j , −→ k ]. 16CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES 0 x y2 z y x z' y'x' x2 i i' Figura 1.2: Rotação de sistemas coordenados 1.2.3 Funções de matrizes.Transformações de semelhança Pode-se, sob certas condições indicadas a seguir, definir uma função f(A) de uma matriz quadrada A não-singular, tal que, se f(x) = +∞X i=−∞ bix i então f(A) = +∞X i=−∞ biA i com as seguintes propriedades: (i) Se A é simétrica, então f(A) é também simétrica (ii) f(A)g(A) = g(A)f(A) Como exemplo, sabendo que ex = 1 + x 1! + x2 2! + ... podemos então escrever eA = I+ A 1! + A2 2! + ... Matrizes equivalentes: Duas matrizes A e B são ditas equivalentes se e somente se estiverem relacionadas através das matrizes não-singulares R e 1.2 OPERAÇÕES COM MATRIZES 17 Q , da seguinte maneira: B = RAQ Para entender em que sentido as matrizes A e B são equivalentes, considere o produto RA , dado por seu elemento (RA)ij = X k rikakj Analisando uma linha I , teremos: (RA)Ij = X k rIkakj = rI1a1j + rI2a2j + ...+ rInanj = X k αkakj Percebemos que o elementoIj é uma combinação linear dos elementos da coluna j da A. Como isto é válido para qualquer elemento na linha I de A , concluimos que cada linha de RA é uma combinação linear das linhas de A . Analogamente, cada coluna de AQ é uma combinação linear das colunas de A . Como exemplo, pré-multiplicando a matriz A pelo operador matricial R , R = ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ 0 1 0 · · · 0 1 0 0 · · · 0 0 0 1 · · · 0 ... ... ... 0 0 0 · · · 1 ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ obtido a partir da matriz identidade pela troca de suas duas primeiras linhas, resulta uma matriz B = RA , que apenas difere de de A pela troca de suas primeira e segunda linhas. Uma vez que também podemos interpretar R como uma matriz obtida da matriz identidade pela troca da primeira com a segunda coluna, a matriz B = AR pode ser obtida de A simplesmente trocando a primeira coluna com a segunda coluna. De maneira semelhante, pode-se somar uma constante vezes a segunda linha à primeira linha de A pré-multiplicando A por R = ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ 1 C 0 · · · 0 0 1 0 · · · 0 0 0 1 · · · 0 ... ... ... 0 0 0 · · · 1 ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ 18CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES Em resumo, se quisermos combinar linearmente as linhas de A , devemos pré-multiplicá-la pela matrizR obtida da identidade pelas mesmas operações que desejamos realisar sobre as linhas de A. Caso desejemos modificar as colunas de A, realizamos a pós-multiplicação pela matriz Q,obtida da iden- tidade pelas mesmas operações que desejamos realisar sobre as colunas de A. As matrizes que efetuam essas operações elementares com linhas ou colu- nas de uma dada matriz são não-singulares, já que resultam de combinações lineares de linhas ou colunas da matriz identidade. É fácil verificar que uma transformação de equivalência preserva o posto2, i. e., A e B = RAQ têm mesmo posto. A seguir são abordadas algumas transformações de equivalên- cia particulares. Transformação de semelhança: Quando R = Q−1, então B = Q−1AQ é dita uma transformação de semelhança. É importante observarque re- lações matriciais permanecem válidas se as matrizes dessas relações forem submetidas à mesma transformação de semelhança.Exemplo: Se AB = C⇒ Q−1CQ =Q−1ABQ = (Q−1AQ)(Q−1BQ) Se A+B = C⇒ Q−1CQ = Q−1AQ+Q−1BQ Transformação de congruência: Quando R = QT , então B = QTAQ é dita uma transformação de congruência. Transformação ortogonal: Se R = Q−1 = QT (ou seja, Q é uma matriz ortogonal), então B = Q−1AQ =QTAQ é dita uma transformação ortogo- nal. Lembre que | Q |= ±1 . Exemplo: Seja a transformação B = P−1AP , onde P é uma matriz de permutação (ou seja, em cada linha ou coluna de P só existe um único elemento não nulo e este elemento é igual a 1). Esta transformação, dita Transformação de permutação, simplesmente troca cer- tas linhas ou colunas de uma dada matriz. Exemplo: P = ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ 0 1 0 · · · 0 1 0 0 · · · 0 0 0 1 · · · 0 ... ... ... 0 0 0 · · · 1 ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ Esta matriz P troca a primeira e a segunda linhas (ou colunas) de uma matriz A quando a pré(pós)-multiplica. Assim, a matriz PA é a matriz obtida de A, trocando suas duas primeiras linhas e a matriz AP é a matriz obtida de A trocando suas duas primeiras colunas. 2Posto de uma matriz A é a ordem do maior determinante não nulo que podemos obter ao formar todas as submatrizes possíveis de A . 1.2 OPERAÇÕES COM MATRIZES 19 Aplicação de transformações: (i) Sejam dois vetores x0 e y0 , relacionados pela transformação linear y0 = Ax0 . Definindo dois novos vetores x e y tais que: x0 = Qx e y0 = Qy com | Q |6= 0 (ou seja, Q não singular), tem-se: Qy = AQx ou y = Q−1AQx = Bx Portanto, os novos vetores x e y estão relacionados entre si por uma trans- formação semelhante à que existe entre x0 e y0 . (ii) Se Q−1 = QT (transformação ortogonal), o produto escalar yT0 x0 = y TQTQx = yTQ−1Qx = yTx permanece inalterado e também o produto escalar xT0 x0 = x Tx Concluimos portanto que uma transformação ortogonal preserva o módulo de um vetor x (dado por √ xTx ) bem como o ângulo entre dois vetores ( obtido facilmente do produto escalar yTx). Dessa forma, vetores unitários ortogonais permanecem unitários e ortogonais quando submetidos a uma transformação ortogonal. Daí vem o nome da transformação. Traço de uma matriz quadrada A : É definido como Tr(A) = nX i=1 aii possuindo as seguintes propriedades: (i) Tr(AB) = Tr(BA). Demonstração: Tr(AB) = P k P i akibik = P i P k bikaki = Tr(BA). (ii) Uma transformação de similaridade preserva o traço: Demonstração: Tr(Q−1AQ) = P i,j,k (Q−1)ijajkQki = P i,j,k Qki(Q −1)ijajk . Mas Qki(Q−1)ij = (QQ−1)ij = δkj . Donde Tr(Q−1AQ) = P j ajj = Tr(A) 20CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES 1.3 Autovalores e autovetores Uma transformação linear A, aplicada a um dado vetor, pode resultar em um vetor que seja múltiplo do vetor original. Se Ax =λx ; x 6= 0 (1.6) então λ é dito um autovalor de A e x é o autovetor de A associado a este autovalor. Reescrevendo a equação anterior, vem: (A−λI)x = 0 e como x 6= 0 resulta que | A−λI |= 0 (1.7) A expansão algébrica deste determinante resulta em um polinômio em λ e a condição (1.7) dá origem a uma equação algébrica em λ denominada equação característica. Se A for uma matriz quadrada de ordem n, a equação car- acterística terá n raízes. Cabe ressaltar que, por estarmos considerando apenas matrizes reais, raízes complexas da equação característica somente ocorrerão em pares conjugados, visto que a equação polinomial possui coe- ficientes reais. Podem ocorrer raízes repetidas: uma raiz repetida p vezes é dita de multiplicidade p. Se as raízes da equação característica forem todas distintas haverá n autovetores distintos associados a essas raízes, ou seja, um autovetor distinto estará associado a cada uma dessas raízes. Entre- tanto, como veremos adiante, quando ocorrerem raízes repetidas, poderá haver menos de n autovetores associados à matriz A. Pode-se mostrar que [1] a toda matriz corresponde um polinômio característico e reciprocamente, todo polinômio pode ser escrito como um polinômio característico de uma matriz. Relacionamos a seguir algumas propriedades de autovalores e autovetores de matrizes reais: (1) Uma transformação de semelhança preserva autovalores: | Q−1AQ− γI |=| Q−1 (A− γI)Q |=| Q−1 || Q || A− γI |=| A− γI | Portanto, | Q−1AQ− γI |= 0⇒| A− γI |= 0 . (2) Como a equação (1.6) é homogênea, apenas as direções dos autove- tores são determinadas. Logo, qualquer autovetor de A pode ser multi- plicado por uma constante arbitrária não-nula, resultando ainda em um autovetor de A. Esta propriedade permite normalizar os autovetores de uma dada matriz, ou seja, fazer com que todos eles tenham comprimento unitário. (3) Seja λ um autovalor complexo da matriz real A : Como Ax =λx ; x 6= 0 , então Ax=λx (onde x indica o complexo conjugado de x ). Como A é uma matriz real, segue que Ax=λx . Portanto, se x é um autovetor 1.3 AUTOVALORES E AUTOVETORES 21 da matriz real A , associado a um um autovalor complexo λ , então x é um autovetor de A associado a λ. (4) Se λ é um autovalor complexo da matriz real A , então o autovetor x da A associado a λ não pode ter todas as componentes reais. Isto pode ser visto facilmente pois, de Ax =λx , se λ for complexo, com A real, x deverá ter alguma componente complexa (caso contrário, Ax não poderá resultar complexo). As propriedades a seguir referem-se apenas a matrizes simétricas: (5) Os autovalores de uma matriz A real e simétrica são reais. Para demonstrar essa propriedade, seja Axi=λixi , com λi complexo. Então existe o vetor xi tal que Axi=λixi . Multiplicando a primeira igual- dade por xTi e a segunda por x T i , vem: xTi Axi = λix T i xi e xTi Axi = λix T i xi Subtraindo membro a membro as igualdades acima, vem: xTi Axi − xTi Axi = λixTi xi − λixTi xi Tendo em vista que xTi Axi = x T i A Txi , já queA é simétrica e que xTi A Txi = xTi Axi , resulta λix T i xi − λixTi xi = 0 ou (λi − λi)xTi xi = 0 e como xTi xi = x T i xi > 0 3, uma vez que xi 6= 0 , por definição, resulta que (λi − λi) = 0 ou seja, λi = λi portanto λi é um real. Como não impusemos restrição alguma sobre λi , a propriedade vale para todo λi de A real e simétrica. (6) Autovetores associados a autovalores distintos de uma matriz real e simétrica são ortogonais. Para demonstrar essa propriedade, sejam λ1 e λ2 dois autovalores dis- tintos de A real e simétrica, com correspondentes autovetores x1 e x2 . Então, Ax1 = λ1x1 3Utilizamos a definição de produto interno no espaço vetorial complexo: (y,x) ≡ yTx , que satisfaz à propriedade (y,x) = (x,y) ≡ xTy 22CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES e Ax2 = λ2x2 Multiplicando membro a membro a primeira igualdade por xT2 e a segunda por xT1 , teremos: xT2Ax1 = λ1x T 2 x1 (1.8) e xT1Ax2 = λ2x T 1 x2 (1.9) e como xT2Ax1 = x T 2A Tx1 , pois A é simétrica, e xT2A Tx1 = (Ax2) Tx1 = xT1Ax2 , pela propriedade do produto interno, teremos ao subtrair membro a membro (1.8) e (1.9): λ1x T 2 x1 − λ2xT1 x2 = 0 Ainda pela propriedade do produto interno, xT2 x1 = x T 1 x2 Logo, segue que (λ1 − λ2)xT1 x2 = 0 Como, por hipótese, λ1 6= λ2 , resulta xT1 x2 = 0 ou seja, x1 e x2 são ortogonais. (7) Como corolário, se os autovalores de uma matrizA real e simétrica de dimensão n forem todos distintos, para cada autovalor haverá um autovetor associado que será ortogonal aos demais. Portanto, esses n autovetores ortogonais formam uma base para o espaço n-dimensional. Essa base ortogonal de autovetores de A constitui-se em um sistema de coordenadas muito útil, como veremos a seguir: Seja x = nX i=1 αiei onde os ei são autovetores normalizados de A , i. e., eTi ej = δij Então as componentes (coordenadas) αi serão dadas por αi = x Tei (1.10) 1.4 DIAGONALIZAÇÃO DE MATRIZ SIMÉTRICA 23 O vetor Ax pode ser facilmente obtido: Ax = A( nX i=1 αiei) = nX i=1 αiAei = nX i=1 αiλiei (8) Autovalores repetidos: Pode-se mostrar [6]que: (i) Se um autovalor λj de A real e simétrica tem multiplicidade k ≥ 2 , há k autovetores ortonormais associadosa λj . (ii) Esses k autovetores formam uma base para o subespaço k-dimensional do espaço n-dimensional e há uma infinidade de maneiras de selecioná-los. (iii) Existe pelo menos uma base de autovetores de A para o espaço n-dimensional. Portanto, para matrizes reais e simétricas é sempre possível construir um conjunto completo de autovetores ortogonais. 1.4 Diagonalização de matriz simétrica Sejam ei = [ei1, ei2, ..., ein] ; i = 1, 2, ..., n os autovetores de A , real e simétrica. Construindo a matriz modal normal- izada M , M = ⎡⎢⎢⎢⎢⎢⎢⎣ e11 e21 . . . en1 e12 e22 · · · en2 ... ... ... e1n e2n · · · enn ⎤⎥⎥⎥⎥⎥⎥⎦ ≡ [e1, e2, ..., en] 24CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES e supondo que os ei estejam normalizados (eTi ej = δij), podemos formar o produto AM : AM = [Ae1,Ae2, ...,Aen] = [λ1e1, λ2e2, ...,λnen] = ⎡⎢⎢⎢⎢⎢⎢⎣ λ1e11 λ2e21 . . . λnen1 λ1e12 λ2e22 · · · λnen2 ... ... ... λ1e1n λ2e2n · · · λnenn ⎤⎥⎥⎥⎥⎥⎥⎦ Portanto, AM é uma matriz que pode ser obtida multiplicando as colunas da matrizM por λi , i = 1, 2, ..., n .Isto implica em AM =MD com D = ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ λ1 0 · · · · · · 0 0 λ2 0 · · · 0 ... 0 . . . . . . ... ... . . . . . . 0 0 · · · · · · 0 λn ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ que é a matriz obtida da matriz identidade pela multiplicação de suas colunas por λi , i = 1, 2, ..., n . Em vista da relação acima e considerando que M é inversível, uma vez que suas colunas são os ei , autovetores de A e portanto linearmente independentes, resulta que D =M−1AM Logo, toda matriz real e simétrica é semelhante a uma matriz diagonal. Podemos ver queM é uma matriz ortogonal formando o produto MTM = ⎡⎢⎢⎢⎢⎢⎢⎣ e1 −→ e2 −→ ... en −→ ⎤⎥⎥⎥⎥⎥⎥⎦ ⎡⎣ e1 e2 · · · en ↓ ↓ · · · ↓ ⎤⎦ = ⎡⎢⎢⎢⎢⎢⎢⎣ eT1 e1 e T 1 e2 · · · eT1 en eT2 e1 e T 2 e2 · · · eT2 en ... ... ... eTne1 e T ne2 · · · eTnen ⎤⎥⎥⎥⎥⎥⎥⎦ = I 1.5 DIAGONALIZAÇÃO DE MATRIZES NÃO-SIMÉTRICAS25 e entãoMT =M−1 e a transformação de diagonalização de A é uma trans- formação ortogonal. 1.5 Diagonalização de matrizes não-simétricas 1.5.1 Autovalores distintos Se a matriz A possuir autovalores distintos, é sempre possível obter au- tovetores associados a cada um desses autovalores que, embora linearmente independentes, não são, em geral, ortogonais. A matriz AT possui os mes- mos autovalores que A , mas autovetores distintos dos de A . Suponhamos, por hipótese, que λi e λj sejam dois autovalores distintos de A (portanto, também de AT ). Designando por xi o autovetor de A associado a λi e por uj o autovetor de AT associado a λj , podemos escrever: Axi = λixi ATuj = λjuj Multiplicando membro a membro a primeira igualdade por uTj e a segunda por xTi , teremos, após subtrair membro a membro as equações resultantes: uTj Axi − xTi ATuj = (λi − λj)uTj xi Como uTj Axi = x T i A Tuj a igualdade anterior fica: (λi − λj)uTj xi = 0 ou seja, uj : autovetor de AT associado a λj é ortogonal a xi : autovetor de A associado a λi . Logo, os autovetores de A e de AT formam um conjunto biortogonal . Como exemplo, considere a matrizA , não-simétrica, de ordem 2 e com autovalores distintos λ1 e λ2 . Sejam x1 e x2 os autovetores de A associados a λ1 e λ2 e u1 e u2 os autovetores de AT associados a λ1 e λ2 . Então, como mostra a figura (1.3), uT2 x1 = 0 ; ( −→x1 ⊥ −→u2) e uT1 x2 = 0 ; ( −→x2 ⊥ −→u1) É possível realizar a normalização uT1 x1 = 1 e uT2 x2 = 1 26CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES u2u1 x1 x2 Figura 1.3: Conjuntos de vetores bi-ortogonais Essas quatro relações podem ser resumidamente descritas como uTj xi = δji (1.11) Como aplicação da biortogonalidade mostrada aqui, vamos expandir um vetor qualquer w nos autovetores xi de A : w = nX i=1 αixi e formemos o produto uTj w = nX i=1 αiu T j xi Em vista de (1.11), resulta imediatamente αj = u T j w (1.12) Admitindo que os conjuntos {x1,x2, ...,xn} e {u1,u2, ...,un} já tenham sido normalizados, de acordo com 1.11, podemos formar a matriz P = ⎡⎣ x1 x2 · · · xn ↓ ↓ ↓ ⎤⎦ cujas colunas são os autovetores normalizados de A . Formando o produto AP = = h λ1x1, λ2x2, · · · , λnxn i 1.5 DIAGONALIZAÇÃO DE MATRIZES NÃO-SIMÉTRICAS27 verificamos que ele também pode ser escrito na forma PD , com D = ⎡⎢⎢⎢⎢⎢⎢⎣ λ1 0 · · · 0 0 λ2 . . . ... ... . . . . . . 0 0 · · · 0 λn ⎤⎥⎥⎥⎥⎥⎥⎦ Portanto, já que garantidamente P−1 existe ( as colunas de P são os au- tovetores de A, linearmente independentes), é possível diagonalizar A, pela transformação de semelhança D = P−1AP Note que, como P−1 é dada (em vista da biortogonalidade),por P−1 = ⎡⎢⎢⎢⎢⎢⎢⎣ u1 −→ u2 −→ ... un −→ ⎤⎥⎥⎥⎥⎥⎥⎦ onde os ui são os autovetores normalizados de AT , a transformação de diagonalização de uma matriz real não-simétrica não é uma transformação ortogonal. 1.5.2 Autovalores repetidos. Forma canônica de Jordan Caso a matriz A possua um ou mais autovalores repetidos, a obtenção de um conjunto completo de autovetores não é garantida. Entretanto, é sem- pre possível encontrar vetores auxiliares que, juntamente com os autovetores de A , formem um conjunto completo de vetores para o espaço consider- ado. A partir desse conjunto é possível obter uma transformação da matriz dada a qual possuirá uma forma quase-diagonal (forma canônica de Jordan). Mostraremos a seguir como se obtêm esses vetores auxiliares para completar um conjunto de vetores linearmente independentes. Supondo que A possua autovalor λ1 com multiplicidade k , existe pelo menos um vetor e1 tal que Ae1 = λ1e1 ; e1 6= 0 Assumindo que este é o único autovetor associado a λ1, podemos construir o vetor t1 tal que (A−λ1I) t1 = e1 (1.13) 28CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES Esta equação implica que t1 não pode estar na mesma direção que e1 , pois se t1 = αe1 , então (1.13) fica (A−λ1I)αe1 = e1 e como e1 é autovetor de A associado a λ1 , resulta 0 = e1 , o que é impossível (e1 não pode ser o vetor nulo), por hipótese. Uma vez que t1 não está alinhado com e1 , ele pode ser feito ortogonal a e1 . Suponha que t1 foi feito ortogonal a e1 e construamos o vetor t2 da seguinte forma: (A−λ1I) t2 = t1 (1.14) Se fizermos t2 = αt1 , concluiremos da igualdade acima que αe1 = t1 , o que contraria a hipótese inicial de t1 ser ortogonal a e1 . Portanto, t2 pode ser feito ortogonal a t1 . Operando agora com (A−λ1I) em (1.14), obteremos: (A−λ1I)2 t2 = (A−λ1I) t1 = e1 Supondo t2 = αe1 , a igualdade acima conduz a e1 = 0 , o que é falso, por hipótese. Logo, t2 pode ser feito ortogonal também a e1 . Em vista do exposto, é facil verificar que a sequência de vetores tp , p = 0, 1, ..., k − 1 , construida de forma recorrente por (A−λ1I) tp = tp−1 ; t0 ≡ e1 permite encontrar k − 1 vetores auxiliares, que, em conjunto com e1, for- mam um conjunto de k vetores ortogonais. Pode-se mostrar que estes ve- tores são linearmente independentes dos demais autovetores de A associ- ados aos demais autovalores λk+1, ..., λn , ou seja, o conjunto de vetores e1, t1, ..., tk−1, ek+1, ..., en forma uma base para o espaço n-dimensional. Este conjunto de vetores permite obter as matrizes da transformação que reduzem a matriz A à forma canônica de Jordan. Construindo a matrizM dada por M = ⎡⎣ e1 t1 · · · tk−1 ek+1 · · · en ↓ ↓ ↓ ↓ ↓ ⎤⎦ podemos formar o produto matricial AM = h Ae1, At1, · · · , Atk−1, Aek+1, · · · , Aen i = h λ1e1, e1 + λ1t1, · · · , tk−2 + λ1tk−1, λk+1ek+1, · · · , λnen i 1.5 DIAGONALIZAÇÃO DE MATRIZES NÃO-SIMÉTRICAS29 Este produto pode também ser obtido, via operações elementares, pela mul- tiplicação das matrizes abaixo: ⎡⎣ e1 t1 · · · tk−1 ek+1 · · · en ↓ ↓ ↓ ↓ ↓ ⎤⎦ ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ λ1 1 · · · 0 0 λ1 . . . ... ... . . . . . . 1 0 · · · 0 λ1 O λk+1 O . . . 0 λn ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ A primeira matriz é a própria matriz M definida acima e a segunda é dita a forma canônica de Jordan , J , correspondente à matriz A . Portanto, AM =MJ ou J =M−1AM (1.15) Até aqui supusemos que λ1 possuia um único autovetor associado. Se a λ1 , de multiplicidade k , corresponderem, por exemplo, dois autovetores distintos (e k− 2 vetoresauxiliares), pode-se verificar que a forma canônica de Jordan será da forma J = ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ λ1 λ1 1 · · · 0 0 λ1 . . . ... ... . . . . . . 1 0 · · · 0 λ1 O λk+1 O . . . λn ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ Como exemplo, suponha que A seja uma matriz real de dimensão 3 e que λ1 seja o autovalor de multiplicidade igual a 3. Neste caso, as seguintes formas canônicas de Jordan seriam possíveis: 30CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES ⎡⎢⎢⎢⎣ λ1 0 0 0 λ1 0 0 0 λ1 ⎤⎥⎥⎥⎦ com 3 autovetores distintos ⎡⎢⎢⎢⎣ λ1 1 0 0 λ1 0 0 0 λ1 ⎤⎥⎥⎥⎦ com dois autovetores e um vetor auxiliar e⎡⎢⎢⎢⎣ λ1 1 0 0 λ1 1 0 0 λ1 ⎤⎥⎥⎥⎦ com 1 autovetor e 2 vetores auxiliares. Podemos enunciar os resultados anteriores da forma compacta que se segue: Seja Lk(λ) uma matriz k × k da forma: Lk(λ) = ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ λ 1 0 0 0 λ 1 ... 0 . . . . . . 0 ... ... . . . λ 1 0 0 · · · 0 λ ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ com L1(λ) ≡ λ. Existe uma matriz M tal que M−1AM = ⎡⎢⎢⎢⎢⎢⎢⎣ Lk1(λ1) 0 · · · 0 0 Lk2(λ2) . . . ... ... . . . . . . 0 0 · · · 0 Lkr(λr) ⎤⎥⎥⎥⎥⎥⎥⎦ com k1+k2+ ...+kr = N (ordem da matriz A ) e onde os λi são autovalores de A , não necessariamente distintos. Note que o número de blocos, r , é igual ao número de autovetores de A . Assim, no exemplo anterior, para a primeira forma de Jordan, 1.6 FORMAS PARTICULARES DE MATRIZES 31 k1 = k2 = k3 = 1 , para a segunda forma, k1 = 1 e k2 = 2 e para a terceira, k1 = 3. Os autovetores e vetores de uma matriz na forma canônica de Jordan podem ser facilmente obtidos. Assim, para J do tipo J = ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ λ1 1 · · · 0 0 λ1 . . . ... ... . . . . . . 1 0 · · · 0 λ1 o λk+1 0 . . . λn ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ os autovetores e vetores auxiliares são: e1 = h 1, 0, · · · , 0 iT t1 = h 0, 1, · · · , 0 iT e sucessivamente até tk−1 = h 0, · · · , 0, 1, 0, · · · 0 iT com 1 na k-ésima posição, ek+1 = h 0, · · · , 0, 1, 0, · · · , 0 iT com 1 na (k + 1)-ésima posição, e sucessivamente até en = h 0, · · · , 0, 1 iT 1.6 Formas particulares de matrizes Considere a matriz quadrada A , de ordem n : A = ⎡⎢⎢⎢⎢⎢⎢⎣ a11 a12 · · · a1n a21 a22 · · · a2n ... ... ... an1 an2 · · · ann ⎤⎥⎥⎥⎥⎥⎥⎦ 32CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES Podemos decompor A na soma L+D+U , onde: L = ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ 0 a21 0 O a31 a32 . . . ... . . . . . . . . . an1 · · · ann−2 ann−1 0 ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ ou seja, Lij = 0 , ∀j ≥ i Lij = aij , j < i D = ⎡⎢⎢⎢⎢⎢⎢⎣ a11 0 · · · 0 0 a22 . . . ... ... . . . . . . 0 0 0 ann ⎤⎥⎥⎥⎥⎥⎥⎦ ou seja, Dij = 0 , i 6= j Dii = aii , ∀i e U = ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ 0 a12 a13 · · · a1n 0 a23 . . . ... . . . . . . an−2n O . . . an−1n 0 ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ ou Uij = 0 , ∀j ≤ i Uij = aij , j > i A matriz L (U) é denominada Matriz estritamente triangular inferior (superior). A matriz L+D (U+D) é denominada Matriz triangular inferior (supe- rior). 1.6 FORMAS PARTICULARES DE MATRIZES 33 Note que, se B = L+D (U+D) for inversível, i.e., se | B |≡| D |6= 0 , sua inversa será também uma matriz triangular inferior (superior). A matriz A = ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ a11 a12 a21 a22 a23 O a32 . . . . . . O . . . an−1n−1 an−1n ann−1 ann ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ tal que aij = 0 , j 6= i− 1, i, i+ 1 é dita Matriz tridiagonal . Este tipo de matriz aparece freqüentemente quando se consideram aproximações de derivadas segundas de funções, como veremos mais adiante. É importante observar que a solução de um sistema linear em que a matriz dos coeficientes é uma matriz tridiagonal é obtida sem a necessidade de invertê-la. Assim, seja o sistema linear Ax = y com A = ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ b1 c1 a2 b2 c2 O a3 . . . . . . O . . . . . . cn−1 an bn ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ Aplicando o conhecido processo de redução de Gauss ao sistema dado, ter- emos: (i) após divisão, membro a membro, da primeira equação por b1 6= 0 :⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ 1 c1b1 a2 b2 c2 O a3 . . . . . . O . . . . . . cn−1 an bn ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ x1 x2 ... xn−1 xn ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ = ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ y1 b1 y2 ... yn−1 yn ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ 34CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES (ii) após multiplicação da primeira equação por a2 e subtração da equação resultante da segunda equação do sistema:⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ 1 c1b1 0 b2 − a2 c1b1 c2 O a3 . . . . . . O . . . . . . cn−1 an bn ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ x1 x2 ... xn−1 xn ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ = ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ y1 b1 y2 − a2 y1b1 ... yn−1 yn ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ (iii) repetição das etapas (i) e (ii) acima nos conduz ao sistema equiva- lente ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ 1 h1 1 h2 O . . . . . . O . . . hn−1 1 ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ x1 x2 ... xn−1 xn ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ = ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ p1 p2 ... pn−1 pn ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ onde os hj e os pj são encontrados pela utilização das seguintes fórmulas recorrentes: hj = cj bj − ajhj−1 e pj = yj − ajpj−1 bj − ajhj−1 onde h1 = c1 b1 e p1 = y1 b1 Por substituição retrógrada obtemos então xn = pn e xj = pj − hjxj+1 , j = (n− 1), (n− 2), ..., 1 1.6 FORMAS PARTICULARES DE MATRIZES 35 O procedimento descrito acima pode ser generalizado para matrizes bloco- tridiagonais , do tipo A = ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ B1 C1 A2 B2 C2 O A3 . . . . . . O . . . . . . Cn−1 An Bn ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ onde os Ai , Bi e Ci são submatrizes de A e os Bi são matrizes quadradas, não necessariamente de mesma ordem. Considere o sistema: Ax = y onde o vetor de incógnitas x é escrito na forma x = h x1, x2, · · · , xn iT e onde xi é um vetor coluna cujo número de componentes é igual à ordem de Bi . Neste caso, aplicando a redução de Gauss, obteremos o sistema equivalente ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ I H1 I H2 O . . . . . . O . . . Hn−1 I ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ x1 x2 ... xn−1 xn ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ = ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣ p1 p2 ... pn−1 pn ⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦ em que os Hj e os pj são obtidos resolvendo os sistemas recorrentes Hj = (Bj −AjHj−1)−1Cj e pj = (Bj −AjHj−1)−1(yj −Ajpj−1) onde H1 = B −1 1 C1 e p1 = B −1 1 y1 Finalmente, por substituição retrógrada, obtemos xn = pn e xj = pj −Hjxj+1 , j = (n− 1), (n− 2), ..., 1 36CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES 1.7 Definições adicionais Matriz redutível : A matriz quadrada A é dita redutível se for equivalente, por uma transformação de permutação (ou seja, trocando linhas e/ou colu- nas), à seguinte forma: B = PTAP = ⎡⎣ B11 O B21 B22 ⎤⎦ (1.16) onde B11 e B22 são submatrizes quadradas de ordem maior ou igual a 1 . Em um sistema linear, a reducibilidade da matriz dos coeficientes implica em um desacoplamento de equações, como pode ser visto a seguir: Sendo a matrizA redutível, o sistemaAx = y pode ser equivalentemente representado por ⎡⎣A11 O A21 A22 ⎤⎦⎡⎣ x1 x2 ⎤⎦ = ⎡⎣ y1 y2 ⎤⎦ que, como se pode facilmente ver, se desdobra nos dois subsistemas A11x1 = y1 e A21x1 +A22x2 = y2 Portanto, o primeiro subsistema pode ser resolvido independentemente do segundo. Uma matrizA é irredutível quando não puder ser escrita na forma (1.16). Dominância diagonal : A matrizA = [aij ] é dita ter dominância diagonal quando | aii |≥ X j 6=i | aij | , ∀i = 1, 2, ..., n Como exemplo, a matriz A = ⎡⎢⎢⎢⎣ 2 −1 0 −2 2 0 2 1 3 ⎤⎥⎥⎥⎦ possui dominância diagonal, pois P j 6=i | a1j |= 1 <| a11 | ; P j 6=i | a2j |= 2 =| a22 | e P j 6=i | a3j |= 3 =| a33 | . Dominância diagonal estrita: A matriz A = [aij ] é dita possuir dom- inância diagonal estrita quando | aii |> X j 6=i | aij | , ∀i = 1, 2, ..., n 1.7 DEFINIÇÕES ADICIONAIS 37 Como exemplo, a matriz A = ⎡⎢⎢⎢⎢⎢⎢⎣ 2 −1 0 0 −1 3 −1 0 0, 5 2 −4 1 0 0 0 1 ⎤⎥⎥⎥⎥⎥⎥⎦ atende à condição de dominância diagonal estrita, pois em qualquer de suas linhas o valor absoluto do elemento na diagonal principal supera a soma dos valores absolutos dos elementos fora da diagonal, como pode ser visto. Matriz irredutivelmente de diagonal dominante: A matriz A = [aij ] é dita irredutivelmente de diagonal dominante quando (i) for irredutível (ii) for de diagonal dominante, isto é, | aii |≥ P j 6=i | aij | , ∀i = 1, 2, ..., n (iii) existir pelo menos um k tal que | akk |> P j 6=i | akj | , isto é, quando em pelo menos uma das linhas de A ocorrer dominância diagonal estrita. É fácil ver que a matriz A abaixo atende às condições(i)→(iii), sendo portanto, irredutivelmente de diagonal dominante: A = ⎡⎢⎢⎢⎢⎢⎢⎣ 2 −1 0 0 −1 2 −1 0 0 −1 2 −1 0 0 −1 2 ⎤⎥⎥⎥⎥⎥⎥⎦ Cabe aqui ressaltar que uma matriz irredutível e com dominância diag- onal não é necessariamente irredutivelmente de diagonal dominante, i. e., embora satisfaça às condições (i) e (ii), pode não atender à condição (iii), como é o caso da matriz abaixo: A = ⎡⎢⎢⎢⎢⎢⎢⎣ 2 −2 0 0 −1 2 −1 0 0 −1 2 −1 0 0 −2 2 ⎤⎥⎥⎥⎥⎥⎥⎦ Matriz não-negativa: A matriz A = [aij ] é dita não-negativa quando aij ≥ 0 , ∀i, j Costuma-se indicar uma matriz não-negativa por A ≥0 . 38CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES Matriz positiva: A matriz A = [aij ] é dita positiva quando aij > 0 , ∀i, j e é indicada por A >0 . 1.8 O teorema de Gershgorin. Raio espectral Este teorema permite estabelecer um limite superior para o módulo do au- tovalor de maior módulo de uma dada matriz A real ou complexa e tem o seguinte enunciado: "Os autovalores de uma matriz A = [aij ] de ordem n , com elementos complexos, estão situados na união dos n discos | z − aii |≤ P j 6=i | aij | , i = 1, 2, ..., n" Demonstração: Seja λ um autovalor de A e u o autovetor associado. Suponha que ui , i-ésima componente de u , seja aquela de maior módulo, i.e., | ui |= max j | uj | Como Au =λu , a i-ésima componente desta igualdade forneceX j aijuj = λui que pode ser escrita como (λ− aii)ui = X j 6=i aijuj Tomando valores absolutos de ambos os membros, teremos que | λ− aii || ui |=| X j 6=i aijuj |≤ X j 6=i | aij || uj | Mas, como ui é a componente de u de maior módulo, podemos majorar a desigualdade acima: | λ− aii || ui |≤ ( X j 6=i | aij |) | ui | e como ui 6= 0 (ou u não seria autovetor de A ), podemos dividir a desigual- dade acima por | ui | : | λ− aii |≤ X j 6=i | aij | Como não fizemos restrição alguma quanto a λ, o resultado vale para qual- quer autovalor de A. A figura (1.4) é ilustrativa: 1.8 O TEOREMA DE GERSHGORIN. RAIO ESPECTRAL 39 Im 0 Re Σ |aij|j≠iaii Figura 1.4: Teorema de Gerschgorin Raio espectral de uma matriz quadrada A : É o módulo do maior auto- valor, em módulo, de A . ρ(A) = max i | λi | Pelo terorema anterior, segue imediatamente que ρ(A) ≤ max i X j | aij | como ilustra a figura (1.5): Note que | aii | + P j 6=i | aij |= P j | aij |. Como a matriz AT possui os mesmos autovalores que A, o teorema de Gershgorin conduz a: | z − aii |≤ X i6=j | aij | e, analogamente ao que foi deduzido anteriormente, conclui-se que ρ(AT ) = ρ(A) ≤ max j X i | aij | Podemos reunir estes dois resultados da seguinte forma: ρ(A) ≤ min(max j X i | aij |,max i X j | aij |) 40CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES Im 0 Re Σ |aij|j≠i |aii| aii Figura 1.5: Raio espectral de uma matriz Como exemplo do que foi visto, considere a matriz A abaixo: A = ⎡⎣ 1 2 3 4 ⎤⎦ onde maxj P i | aij |= 6 e maxi P j | aij |) = 7 . Então, ρ[14](A) ≤ min(6, 7) ou μ(A) ≤ 6 . 1.9 Formas quadráticas.Matriz definida positiva Forma quadrática: É todo polinômio homogêneo do segundo grau nas var- iáveis xi(i = 1, 2, ..., n) , do tipo Q = nX i=1 nX j=1 aijxixj com os aij reais e satisfazendo a aij = aji Considere agora a matriz real e simétrica A = [aij ] , onde os aij são os coeficientes da forma quadrática Q definida acima. Com x = h x1, x2, · · · , xn iT 1.9 FORMAS QUADRÁTICAS.MATRIZ DEFINIDA POSITIVA41 é fácil verificar que podemos escrever Q = xTAx A matrizA associada à forma quadrática Q , na representação acima, possui n autovalores, os quais são também autovalores associados à formaQ . Como A é real e simétrica, concluimos que os autovalores associados a uma forma quadrática são reais. Matriz (forma quadrática) definida positiva: A matriz real e simétrica A (ou a forma quadrática a ela associada) é dita definida positiva quando (i) xTAx >0 , ∀x 6= 0 (ii) xTAx =0⇐⇒ x = 0 ou equivalentemente, (i’) Q>0 , ∀x 6= 0 (ii’)Q=0⇐⇒ x = 0 Teorema: "A matriz real e simétrica A é definida positiva se e só se seus autovalores forem todos positivos." Demonstração: Mostremos inicialmente que se A (ou Q) é definida pos- itiva, seua autovalores são positivos: Seja Ay =λy com y 6= 0 . Então, Q(y) = yTAy >0 , por hipótese. Como y é autovetor de A , decorre que Q(y) = yTλy e como yTy >0 , pois y 6= 0 , conclui-se que λ > 0 . Para provar que se A possuir todos os seus autovalores positivos então ela será definida positiva, considere a forma Q(y) = yTAy que será reescrita considerando a expansão de y na base de vetores ortogonais de A . Assim, fazendo y = nX i=1 αixi decorre que Q = nX j=1 αjx T j A nX i=1 αixi = nX i,j λiαjαix T j xi e como xTj xi = δij , vem que Q = nX i=1 α2iλi Como, por hipótese, λi > 0,∀i = 1, 2, ..., n , teremos duas possibilidades: 42CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES (i) αi = 0,∀i = 1, 2, ..., n . Nesse caso, y = 0⇒Q = 0 (ii) Existe pelo menos um αi 6= 0 . Nesse caso, y 6= 0⇒Q > 0 e portanto A (ou Q) é definida positiva, completando a demonstração do teorema. Um outro resultado de interesse é o seguinte: Teorema: "Uma matrizA (ou a forma quadrática associada Q) definida positiva possui todos os elementos da diagonal principal positivos." Demonstração: Da definição de Q, é facil ver que aii = e T i Aei onde o vetor ei = [0, ..., 0, 1, 0, ..., 0] T é construido de modo que o 1 esteja na i-ésima posição. Logo, aii = Q(ei) e como ei 6= 0 , segue imediatamente que Q > 0 e portanto aii > 0. Como não restringimos i, o exposto vale para qualquer elemento da diagonal principal de A, completando a demonstração. A seguir, apresentamos dois resultados que ligam matrizes reais e simétri- cas com propriedades de dominância diagonal a formas quadráticas definidas positivas. Teorema: "Seja A uma matriz real e simétrica, com todos os elementos da diagonal positivos e estritamente de diagonal dominante. Então, A é definida positiva." Demonstração: O fato de A ser real e simétrica implica que todos os seus autovalores são reais. Como também vale aii > 0∀i = 1, 2, ..., n , a dominância diagonal estrita conduz a aii > X j 6=i | aij | Portanto, min n λn(A) ≥ min i (aii − X j 6=i | aij |) > 0 como ilustra a figura (1.6) Logo, os autovalores de A são todos positivos e ela é definida positiva. Teorema: "Seja A uma matriz real e simétrica, com todos os elementos da diagonal positivos e irredutivelmente de diagonal dominante. Então, A é definida positiva." Demonstração: Nesse caso, temos que aii ≥ P j 6=i | aij |, sendo que existe pelo menos um k tal que akk > X j 6=k | akj | 1.10 MATRIZ DE STIELTJES. MATRIZ M 43 Im 0 Re j ≠1 a11 - Σ |a1j| a11 a22 a33 a44 Figura 1.6: Matriz definida positiva Portanto, pelo menos um círculo de Gershgorin não contém z = 0 . Então, min n λn(A) ≥ min i (aii − X j 6=i | aij |) ≥ 0 Para provar que a matriz é definida positiva, devemos eliminar a igualdade de condição acima. Isto pode ser feito, pois é possível mostrar[14] que, se um autovalor de A estiver sobre um dos círculos de Gershgorin então todos os demais círculos devem conter esse ponto. Mas pelo menos um dos círculos não passa por z = 0 , como vimos ante, excluindo portanto z = 0 de ser um autovalor de A . Decorre dai que A é definida positiva. 1.10 Matriz de Stieltjes. Matriz M Matriz de Stieltjes (matriz S) : A matriz real A, com aij ≤ 0 , ∀i 6= j é dita uma matriz de Stieltjes (matriz S), se for simétrica e definida positiva. Uma conseqüência da definição de matriz S, como já foi visto antes, é que os elementos da sua diagonal principal são sempre positivos. Seja a matriz A abaixo: A = ⎡⎢⎢⎢⎣ 1 −3/2 0 −3/2 3 0 0 0 1 ⎤⎥⎥⎥⎦ que é real, simétrica e com aij ≤ 0 , ∀i 6= j . Para verificar se ela é uma matriz S, devemos examinar a forma quadrática associada: Q = xTAx = h x1, x2, x3 i A ⎡⎢⎢⎢⎣ x1 x2 x3 ⎤⎥⎥⎥⎦ = x21 + 3x 2 2 + x 2 3 − 3x1x2 44CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES que pode ser posta na forma Q = (x1 − 3 2 x2) 2 + 3 4 x22 + x 2 3 É fácil ver que (i) Q > 0 , ∀x 6= 0 (ii) Q =0⇐⇒ x = 0 e portanto A é definida positiva e também uma matriz S. Ressalte-se ainda que a matriz dada é redutível e não possui dominância diagonal. Al- guns autores[6] acrescentam as propriedaes de irreducibilidade e dominância diagonal à definição de matriz S. Não faremos uso dessa definição estendida, seguindo o ponto de vista de Varga[14]. Matriz M : A matriz real A, com aij ≤ 0 , ∀i 6= j é dita uma matriz M se A for não singular e A−1 ≥ 0. Está assegurado[14] que todo matriz S é também uma matriz M e por- tanto podemos enunciar o importante resultado: "A inversa de uma matriz S é não negativa." No exemplo de matriz S anteriormente apresentado, temos A−1 = ⎡⎢⎢⎢⎣ 4 2 0 2 4/3 0 0 0 1 ⎤⎥⎥⎥⎦ onde, claramente A−1 ≥ 0. Um outro enunciado importante[14] é: "A inversa de uma matriz S irredutível é positiva." Como exemplo, seja a matriz S irredutível A = ⎡⎢⎢⎢⎣ 1 −3/2 0 −3/2 3 −1/2 0 −1/2 1 ⎤⎥⎥⎥⎦ Note que, de acordo com a definição aqui adotada, A embora sendo uma matriz S, não é de diagonal dominante. Sua inversa é A−1= ⎡⎢⎢⎢⎣ 11/2 3 3/2 3 2 1 3/2 1 3/2 ⎤⎥⎥⎥⎦ e vemos que A−1 > 0. 1.11 NORMAS VETORIAIS E MATRICIAIS 45 1.11 Normas vetoriais e matriciais Norma vetorial : k x k define uma norma em um espaço vetorial se, para todo x desse espaço, as seguintes propriedades são válidas: (i)k x k= 0 se e só se x = 0 (ii) k x+ y k≤k x k + k y k (iii) k cx k=| c |k x k De (ii) e (iii) decorre que (iv) k x k≥ 0 que pode ser verificado fazendo, em (iii), c = −1 . Então, k −x k=k x k . Fazendo agora em (ii) y = −x , resulta k 0 k≤k x k + k −x k ou 2 k x k≥ 0 ou, finalmente, k x k≥ 0 . Definiremos agora algumas normas vetoriais muito usadas: Norma L : k x kL= max 1≤i≤n | xi | . Exemplo : Seja x = h 1, i, 2 + 2i iT definido sobre C . Então,max1≤i≤3 | xi |= 2 √ 2 e então, k x kL= 2 √ 2 . Norma C : k x kC= nX i=1 | xi | . Para o vetor acima, k x kC= 1 + 1 + 2 √ 2 = 2 + 2 √ 2 = 2(1 + √ 2) . Norma Eulideana : k x kE= [ nX i=1 | xi |2]1/2 . Para o mesmo vetor, k x kE= √ 1 + 1 + 8 = √ 10. A seguir definiremos normas matriciais empregadas em conjunto com as normas vetoriais anteriormente definidas. Antes porém, definimos Norma matricial : k A k define uma norma em um espaço matricial se as seguintes propriedades forem válidas: (i)k A k= 0 se e só se A = 0 (ii) k A+B k≤k A k + k B k (iii) k cA k=| c |k A k De (ii) e (iii) decorre que (iv) k A k≥ 0 Uma norma matricial é dita consistente com uma dada norma vetorial se, para todo x , k Ax k≤k A kk x k 46CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES Norma matricial L : k A kL= max 1≤i≤n nX j=1 | aij | . Pode-se mostrar que esta norma matricial é consistente com a norma vetorial L, k x kL= max1≤i≤n | xi |. Assim, k Ax kL= max 1≤i≤n nX j=1 | aijxj |≤ max 1≤i≤n nX j=1 | aij || xj | ≤ max i nX j=1 | aij | max i | xi | ou seja, k Ax kL≤k A kLk x kL Norma matricial C : k A kC= max 1≤j≤n nX i=1 | aij | . Pode-se mostrar a consistência dessa norma com a norma vetorial C, k x kC= nP i=1 | xi | . Assim, k Ax kC= nX i=1 | nX j=1 aijxj |≤ nX i=1 nX j=1 | aij || xj | ≤ nX j=1 nX i=1 | aij || xj |≤ nX j=1 (max j nX i=1 | aij |) | xj | ≤ (max j nX i=1 | aij |) nX j=1 | xj | ou k Ax kC≤k A kCk x kC Uma norma matricial consistente com uma norma vetorial é dita subordi- nada a essa norma vetorial se, para toda matriz A existir um vetor y 6= 0 , tal que k Ay k=k A kk y k Em [7] é mostrado que k A kL é subordinada a norma vetorial k x kL. As seguintes normas matriciais são também utilizadas: 1.11 NORMAS VETORIAIS E MATRICIAIS 47 Norma matricial espectral : k A kS= max 1≤i≤n | √μi | onde os μi são os autovalores da matriz A T A . Pode-se mostrar [7] que a norma matricial espectral é subordinada a norma vetorial Euclideana. Norma matricial Euclideana : k A kE= ¯̄̄̄ ¯ s nP i,j | aij |2 ¯̄̄̄ ¯ . Pode-se mostrar [14]que esta norma matricial Euclideana é consistente, mas não subordinada, à norma vetorial Euclideana. O teorema seguinte permite relacionar a norma de uma matriz com seu raio espectral: Teorema: "Seja A uma matriz definida sobre C e seja k A k uma norma matricial consistente com uma norma vetorial k x k. Então, se A for não singular, 1 k A−1 k ≤| λi |≤k A k onde os λi são os autovalores de A." Demonstração: Seja xi o autovetor de A associado a λi. Então, Axi = λixi Tomando a norma vetorial de ambos os membros, teremos: k Axi k=k λixi k mas k Axi k≤k A kk xi k pois k A k é consistente com k x k. Portanto, k λixi k≤k A kk xi k e como k λixi k=| λi |k xi k segue que | λi |≤k A k Como A é inversível, seus autovalores são tais que | λi(A−1) |= 1 | λi(A) | e aplicando o resultado acima a A−1 vem: 1 | λi(A) | ≤k A−1 k 48CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES ou | λi |≥ 1 k A−1 k o que completa a demonstração. Como o teorema vale para qualquer auto- valor de A , segue imediatamente que 1 k A−1 k ≤ ρ(A) ≤ k A k onde ρ(A) é o raio espectral de A . Utilizando as normas L e C , chegamos a: ρ(A) ≤ max i nX j=1 | aij | ρ(A) ≤ max j nX i=1 | aij | resultados anteriormente obtidos pela utilização do teorema de Gershgorin. A norma E conduz a: ρ(A) ≤ ¯̄̄̄ ¯̄ vuut nX i,j | aij |2 ¯̄̄̄ ¯̄ 1.12 Matrizes não negativas Abordamos a seguir três teoremas importantes sobre matrizes não negativas. Teorema: "Seja A ≥0 e irredutível. Então: a) A tem um autovalor real λ1 tal que λ1 = ρ(A) b) λ1 é não repetido c) A λ1 está associado um autovetor x1 > 0 d) A matriz A não possui dois autovetores não negativos independentes e) aumentando qualquer aij aumenta também ρ(A)" A demonstração deste teorema pode ser encontrada em [13] Teorema: "Seja A ≥0 e irredutível. Então, ou nX j=1 aij = ρ(A) , ∀i = 1, 2, ..., n ou min i nX j=1 aij < ρ(A) < max i nX j=1 aij ” 1.12 MATRIZES NÃO NEGATIVAS 49 Demonstração: Sejam nP j=1 aij = a , ∀i = 1, 2, ..., n e tomemos o vetor x = {xi} , com xi = 1 , ∀i = 1, 2, ..., n . Então, Ax =ax Como x 6= 0 , esta equação nos informa que a é um autovalor deA.Portanto, ρ(A) ≥ a (1.17) Entretanto, resultados anteriores estabelecem que ρ(A) < max i nX j=1 | aij | (1.18) e como A ≥0 , concluimos que ρ(A) ≤ a. De (1.17) e (1.18) vemos que só pode ser ρ(A) = a , o que conclui a primeira parte da demonstração. Suponha agora que os nP j=1 aij possam ser distintos para cada j. Construamos a matriz B ≥0 tal que nX j=1 bij = b , ∀i = 1, 2, ..., n com b = max i nX j=1 aij Neste caso, a primeira parte do teorema garante que ρ(B) = b . Como A ≥0 e irredutível, o teorema anterior garante que ρ(A) < ρ(B) . Portanto, ρ(A) < max i nX j=1 aij Analogamente, construindo C ≥0 tal que nX j=1 cij = c , ∀i = 1, 2, ..., n onde c = min i nX j=1 aij concluimos que ρ(A) > c 50CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES ou ρ(A) > min i nX j=1 aij que completa a demonstração do teorema. Finalmente, enunciamos uma forma mais fraca do teorema (i): Teorema: "Seja A ≥0 . Então, a) A tem um autovalor real λ1 ≥ 0 tal que λ1 = ρ(A) b) A λ1 está associado um autovetor x ≥0 c) Aumentando qualquer aij , ρ(A) não decresce." A demonstração deste teorema também pode ser encontrada em [13] 1.13 Exercícios 1) Avalie os seguintes produtos matriciais: a) ⎡⎣ 1 2 1 −1 ⎤⎦⎡⎣ 1 0 1 1 −1 1 ⎤⎦ b) h a1, a2, · · · , an i ⎡⎢⎢⎢⎢⎢⎢⎣ b1 b2 ... bn ⎤⎥⎥⎥⎥⎥⎥⎦ c) ⎡⎢⎢⎢⎢⎢⎢⎣ b1 b2 ... bn ⎤⎥⎥⎥⎥⎥⎥⎦ h a1, a2, · · · , an i d) ⎡⎣ c1 0 0 c2 ⎤⎦⎡⎣ a11 a12 a21 a22 ⎤⎦ e) ⎡⎣ a11 a12 a21 a22 ⎤⎦⎡⎣ c1 0 0 c2 ⎤⎦ 2) Se o produto A(BC) for definido, mostre que ele é da forma [air] ([brs] [csj ]) = ∙P r P s airbrscsj ¸ e deduza então que A(BC) = (AB)C . 3) Se A e B são matrizes quadradas de ordem n , indique quando é válida a relação 1.13 EXERCíCIOS 51 (A+B)(A−B) = A2−B2 Dê um exemplo no qual esta relação não seja válida. 4) Encontre a matriz (2, 2) mais geral A tal que A2= 0 5) Se A e B comutam, prove que AT e BT também comutam. 6) Sejam A e B matrizes reais e simétricas de ordem n. Prove que AB é simétrica se e só se A e B comutam. 7) Determinea matriz M tal que AMB = C , com A = ⎡⎢⎢⎢⎣ 2 1 1 1 1 0 0 0 1 ⎤⎥⎥⎥⎦ , B = ⎡⎣ 3 1 1 1 ⎤⎦ , C = ⎡⎢⎢⎢⎣ 1 1 2 2 1 1 ⎤⎥⎥⎥⎦ 8) Se A e B comutam e B é não singular, prove que A e B−1 também comutam. 9) Para qualquer matriz A(m,n) , a matriz P é dita inversa à esquerda de A se PA = I e a matriz Q é dita inversa à direita de A se AQ = I. . Mostre que a matriz A = ⎡⎢⎢⎢⎣ 1 1 1 2 1 1 ⎤⎥⎥⎥⎦ tem inversa à esquerda dependente de dois parâmetros arbitrários, mas não possui inversa à direita. 10) Mostre que o sistema⎧⎪⎪⎪⎨⎪⎪⎪⎩ 2x1 −2x2 +x3 = λx1 2x1 −3x2 +2x3 = λx2 −x1 +2x2 = λx3 possui solução não trivial somente se λ = 1 ou λ = −3 . Obtenha a solução geral para cada um dos valores de λ . 11) Determine todos os autovetores independentes da matriz A = ⎡⎣ 1 −3 2 1 ⎤⎦ 52CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES 12) Encontre todos os autovetores independentes e os autovetores adjuntos da matriz A = ⎡⎣ 3 4 1 2 ⎤⎦ e mostre que os autovetores de A são ortogonais aos autovetores adjun- tos, i.e., aos autovetores de AT . 13) Determine os autovetores da matriz A = ⎡⎣ 0 1 1 0 ⎤⎦ 14) Encontre os autovetores de A = ⎡⎢⎢⎢⎣ 1 1 0 0 1 1 0 0 1 ⎤⎥⎥⎥⎦ 15) Seja A = ⎡⎣ 0 2 1 1 ⎤⎦ a) Encontre os autovalores de A e de A−1 . b) Encontre os correspondentes autovetores. 16) Calcule todos os autovalores e autovetores de A = ⎡⎢⎢⎢⎣ 3 0 −4 0 3 5 0 0 −1 ⎤⎥⎥⎥⎦ 17) Calcule todos os autovalores e autovetores de A = ⎡⎢⎢⎢⎣ 3 −3 −4 0 3 5 0 0 −1 ⎤⎥⎥⎥⎦ 18) Construa a matrizA real e simétrica, de terceira ordem, com autova- lores 1, 2, e 4 , aos quais estão associados os autovetores x1 = [1, 0, 0]T , x2 = [0, 1, 1] T e x3 = [0, 1,−1]T . 1.13 EXERCíCIOS 53 19) seja a matriz real A = ⎡⎣ 2 3 1 2 ⎤⎦ de autovalores λ1 e λ2 . Determine a matriz P e sua inversa P−1 tais que P−1AP = ⎡⎣ λ1 0 0 λ2 ⎤⎦ 20) Ache os autovetores normalizados da matriz A = ⎡⎣ 4 1 1 1 ⎤⎦ e prove que a matriz B = ⎡⎣ u1 u2 ↓ ↓ ⎤⎦ onde u1 e u2 são os autovetores normalizados de A, satisfaz a BT= B−1 .Calcule BAB−1 . 21) A matriz A é diagonalizável se e somente se admite n autovetores linearmente independentes. Baseado neste fato, para que valores de a as matrizes abaixo são diagonalizáveis? a) A = ⎡⎣ 1 1 0 a ⎤⎦ b) B = ⎡⎣ 1 a 0 1 ⎤⎦ 22) Mostre que a matriz A = ⎡⎣ 1 2 3 2 ⎤⎦ é semelhante à matriz B = ⎡⎣ 4 0 0 −1 ⎤⎦ . 23) Seja A uma matriz real qualquer, de ordem n. Mostre que a matriz B = ATA possui autovalores reais e explique porque é sempre possível en- contrar pelo menos um conjunto linearmente independente de autovalores de B . 24) Calcule os autovalores e autovetores de 54CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES A = ⎡⎣ 1 1 −1 1 ⎤⎦ e expanda o vetor x =[1, 0]T nos autovetores de A . Calcule, sem elevar à potência dada, o vetor b = A10x . 25) Utilize a forma diagonal para encontrar An , com A = ⎡⎣ −3 4 −1 2 ⎤⎦ 26) Seja A uma matriz quadrada de ordem n . Sabendo que A2 = A (ou seja, que A é idempotente): a) Encontre seus autovalores b)Encontre uma matriz idempotente de ordem 2 . 27) Se A é uma matriz real e simétrica, mostre que a solução da equação não-homogênea Ax−λx = u pode ser posta na forma x = nP i=1 αi λi−λei onde λi e ei são autovalores e autovetores de A (assuma λ 6= λi,∀i, i = 1, 2, ..., n ). Determine os coeficientes αi . 28) Mostre que o problema acima não tem solução se λ for igual a um dos autovalores de A , a menos que u seja ortogonal ao autovetor associado a λ . 29) Encontre todos os autovetores e vetores auxiliares de A = ⎡⎢⎢⎢⎣ 1 1 0 0 1 1 0 0 1 ⎤⎥⎥⎥⎦ 30) O sistema dudt = Au(t) , com A = ⎡⎣ 4 2 2 1 ⎤⎦ e u(0) = ⎡⎣ 1 1 ⎤⎦ tem solução matricial u(t) = eAtu(0) 1.13 EXERCíCIOS 55 Levando em conta que A é simétrica, calcule u(1) . [Sugestão]: Avaliar eAt é difícil, se A não for uma matriz diagonal. Encontre a transformação linear v =Mu que diagonaliza a matriz do prob- lema. Note ainda que A é independente do tempo. Capítulo 2 Diferenças Finitas 2.1 Exemplos introdutórios Podemos calcular aproximadamente a derivada de uma dada função y = y(x) em um ponto x0 da seguinte maneira: dy dx ∼= y(x0 +∆x)− y(x0) ∆x (2.1) Este processo consiste em aproximar a parte da curva y(x) entre x0 e x0+∆x pela secante entre y(x0) e y(x0 +∆x). A figura abaixo é ilustrativa: Podemos nos valer de uma relação deste tipo para obter aproximações, em determinados pontos, da função dy/dx , em um intervalo [a, b]. Seja y = y(x) uma função conhecida no intervalo [a, b]. Para facilidade de raciocínio, dividamos este intervalo [a, b] em J subintervalos iguais a ∆x = b−aJ , ou seja, estamos considerando J + 1 pontos x , de modo que qualquer ponto resultante desta subdivisão seja dado por y x0 x0+Δx y = y(x) 0 x Figura 2.1: Aproximação da derivada em um ponto 57 58 CAPíTULO 2 DIFERENÇAS FINITAS y y(b) 0 x y(a) Δx 0 j21 Jj... b a Figura 2.2: Aproximação da derivada em um domínio xj = a+ j∆x, 0 ≤ j ≤ J − 1 (2.2) Veja a figura (2.2): Nestes pontos discretos no intervalo [a, b] , temos que: y(xj) = y(a+ j∆x) ≡ yj (2.3) Pela aproximação (2.1), dy dx |x=xj∼= y(xj+1)− y(xj) ∆x = yj+1 − yj ∆x , j = 0, J − 1 (2.4) e podemos portanto obter aproximações para dy/dx em J pontos x. É também bastante conhecida a aproximação para a área sob a curva y = y(x) no intervalo [a, b] . Seja A = bZ a y(x)dx a área sob a curva. Fazendo y(x) = yj ; para xj ≤ x ≤ xj+1 (2.5) ou seja, aproximando a parte de y(x) entre [xj , xj+1] pelo seu valor em x = xj , teremos: A ∼= ∆x(y0 + y1 + ...+ yJ−1) (2.6) 2.2 OPERADORES DE DIFERENÇAS 59 ou A ∼= J−1X k=0 yk∆x (2.7) Estes dois exemplos ilustram o fato de que derivadas de uma função con- hecida podem ser aproximadas por diferenças entre valores discretos da função em determinados pontos da variável independente, bem como a in- tegral entre dois pontos desta função pode ser aproximada por uma soma finita. É importante observar que quanto maior o número de pontos (menor ∆x ), melhor a tangente em x = xj será representada pela secante entre xj e xj+1, assim como melhor será representada a área entre xj e xj+1 pe- los retângulos de base ∆x e altura yj .Neste texto estudaremos a solução numérica das equações diferenciais ordinárias e parciais e métodos de in- tegração numérica. Para tal, abordaremos inicialmente os operadores de diferenças e o operador somatório. 2.2 Operadores de diferenças Seja h = ∆x, o espaçamento entre abcissas. Definem-se os operadores de diferenças de primeira ordem: Operador diferença avançada ∆y(xj) = ∆yj ≡ y(xj + h)− y(xj) = yj+1 − yj (2.8) Operador diferença recuada ∇y(xj) = ∇yj ≡ y(xj)− y(xj − h) = yj − yj−1 (2.9) Operador diferença centrada δy(xj) = δyj ≡ y(xj + h 2 )− y(xj − h 2 ) = yj+ 1 2 − yj− 1 2 (2.10) Usando esta notação, a equação (2.4) pode ser reescrita como: dy dx |x=xj∼= ∆yj h (2.11) Os operadores de diferenças apresentam propriedades semelhantes às do operador diferencial. Como ilustração, demonstraremos a seguinte pro- priedade: ∆ [f(xj)g(xj)] = f(xj)∆g(xj) + g(xj + h)∆f(xj) (2.12) Por definição, 60 CAPíTULO 2 DIFERENÇAS FINITAS ∆ [f(xj)g(xj)] = f(xj + h)g(xj + h)− f(xj)g(xj) Somando e subtraindo f(xj)g(xj+h) ao segundo membro da equação acima, vem ∆ [f(xj)g(xj)] = f(xj + h)g(xj + h)− f(xj)g(xj) + f(xj)g(xj + h) −f(xj)g(xj + h) = f(xj + h)g(xj + h)− f(xj)g(xj + h)− f(xj)g(xj + h) −f(xj)g(xj) = [f(xj + h)− f(xj)] g(xj + h) + f(xj)[g(xj + h)− g(xj)] = ∆f(xj)g(xj + h) + f(xj)∆g(xj) Como queríamos demonstrar. A propriedade (2.12) é semelhante à con- hecida relação do cálculo diferencial d [f(x)g(x)] = df(x)g(x) + f(x)dg(x) A aplicação repetida dos operadores de diferenças também é facilmente obtida. Assim, ∆2f(xj) = ∆ 2fj = ∆ ·∆fj = ∆ (fj+1 − fj) = fj+2 − fj+1 − (fj+1 − fj) ou, ∆2f(xj) = fj+2 − 2fj+1 + fj (2.13) As seguintes relações podem ser facilmente demonstradas por indução finita: ∆nyj = nX k=0 (−1)k (nk) yj+n−k (2.14) ∇nyj = nX k=0 (−1)k (nk) yj−k (2.15) δ2nyj = 2nX k=0 (−1)k ¡ 2n k ¢ yj+n−k (2.16) O operador somatórioé definido da seguinte forma: Se zj = ∆yj (2.17) então X zj = yj (2.18) 2.2 OPERADORES DE DIFERENÇAS 61 Portanto, o operador P é o operador inverso do operador ∆. Isto pode ser visto fazendo ∆ X zj = ∆yj = zj ou ∆ X = I (2.19) onde I é o operador identidade. É facil verificar queX ∆ = I (2.20) donde se conclui que o operador inverso é único. Analogamente ao que foi dito sobre os operadores de diferenças, o operador somatório apresenta relações semelhantes ao operador integral. A propriedadeX (fj∆gj) = fjgj − X (gj+1∆fj) (2.21) que demonstramos abaixo é ilustrativa: FazendoX (fj∆gj) = zj (2.22) teremos, ∆zj = fj∆gj Usando, no segundo membro dessa igualdade a eq.(2.12), resulta: ∆zj = ∆ (fjgj)− gj+1∆fj e, da definição do operador somatório, segue que zj = X ∆ (fjgj)− X gj+1∆fj (2.23) Usando, na equação acima, a equação (2.22), vem:X (fj∆gj) = X ∆ (fjgj)− X gj+1∆fj Como P ∆ = I , segue queX (fj∆gj) = fjgj − X gj+1∆fj Como queríamos demonstrar. Aqui também se repete uma estreita semel- hança com a correspondente expressãoZ udv = uv − Z vdu do cálculo diferencial. Convém agora definir o operador deslocamento, 62 CAPíTULO 2 DIFERENÇAS FINITAS Eyj = yj+1 (2.24) e o seu operador inverso, E−1yj = yj−1 (2.25) É facil mostrar que ∆ = E − I (2.26) ∇ = I −E−1 (2.27) 2.3 Formação de equações de diferenças Seja y = y(x) uma função contínua e continuamente diferenciável em um intervalo [a, b]. O valor dessa função no ponto xj+h , calculado por expansão em série de Taylor em torno do ponto xj é dada por: y(xj+h) ≡ yj+1 = yj+h dy dx |xj + h2 2! d2y dx2 |xj +...+ hn n! dny dxn |xj +... (2.28) que pode ser escrita, por meio do operador deslocamento, como Eyj = ∙ I + h d dx |xj + h2 2! d2 dx2 |xj +...+ hn n! dn dxn |xj +... ¸ yj (2.29) A série entre parênteses é a expansão formal de eh d dx . Assim, Eyj = e h d dx yj (2.30) Por meio desta série podemos obter expressões para derivadas de qualquer ordem de y(x) , em termos dos vários operadores de diferenças. Por exemplo, dy dx |xj= 1 h ³ ln eh d dx ´ yj (2.31) Mas, de (2.26), E = I +∆ (2.32) donde dy dx |xj= 1 h (ln (I +∆)) yj (2.33) 2.3 FORMAÇÃO DE EQUAÇÕES DE DIFERENÇAS 63 onde a expressão ln (I +∆) é também formal. Usando a expansão em série para ln(1 + x) , na equação acima, teremos: dy dx |xj= 1 h µ ∆− ∆ 2 2 + ∆3 3 − ... ¶ yj (2.34) O termo em que truncarmos esta série irá determinar o erro de truncamento da aproximação, como veremos mais adiante. Examinaremos, a título de exemplo, duas aproximações para dydx |xj , resultantes do truncamento da série obtida acima após o primeiro e o segundo termos, respectivamente. Assim, a primeira aproximação é: dy dx |xj∼= 1 h ∆yj = yj+1 − yj h (2.35) que é a mesma relação obtida em (2.1), intuitivamente. Se truncarmos (2.34) após o termo em ∆2 , teremos: dy dx |xj= 1 h µ ∆− ∆ 2 2 ¶ yj ∼= 1 h µ yj+1 − yj − yj+2 − 2yj+1 + yj 2 ¶ (2.36) ou, dy dx |xj∼= 1 2h (−yj+2 + 4yj+1 − 3yj) (2.37) Vamos examinar o erro de truncamento de (2.35) e (2.37) de duas maneiras: a primeira utiliza expansões em série de Taylor das ordenadas de y(x) em torno de x = xj . Assim, yj+1 = yj + h dy dx |xj + h2 2! d2y dx2 |xj +...+ hn n! dny dxn |xj +... donde, yj+1 − yj h = dy dx |xj + h 2! d2y dx2 |xj +O(h2) (2.38) onde o último termo da equação significa que seguem-se termos da ordem de h2 ou de ordens superiores. Se desprezarmos esses termos, a relação (2.38) significa que o termo yj+1−yjh aproxima dy dx |xj com um erro de truncamento h 2! d2y dx2 |xj , ou seja, da ordem de h . Quanto menor for h, menor será o erro da aproximação. Naturalmente, o valor absoluto desse erro depende também da magnitude da derivada d 2y dx2 |xj . Para a aproximação (2.37), teremos: y(xj + 2h) = yj+2 = yj + 2h dy dx |xj +2h2 d2y dx2 |xj + 8h3 6 d3y dx3 |xj + 16h4 24 d4y dx4 | xj + ... (2.39) 64 CAPíTULO 2 DIFERENÇAS FINITAS y(xj + h) = yj+1 = yj + h dy dx |xj + h2 2 d2y dx2 |xj + h3 6 d3y dx3 |xj + h4 24 d4y dx4 | xj + ... (2.40) Multiplicando (2.39) por (-1) e (2.40) por 4 , somando estas duas equações membro a membro e adicionando o termo −3yj , a ambos os membros, obter- emos, após alguma álgebra: 1 2h (−yj+2 + 4yj+1 − 3yj) = dy dx |xj − 1 3 h2 d3y dx3 |xj +O(h3) (2.41) ou seja, a eq.(2.41) aproxima dydx |xj com erro de truncamento 1 3h 2 d3y dx3 |xj ,i.e., da ordem de h2 e portanto, a eq.(2.37) é uma aproximação de ordem superior à eq.(2.35). Entretanto, cabe ressaltar que esta última equação, além de ser mais complicada, é uma relação que envolve três pontos, o que acarreta dificuldades extras em relação à eq.(2.35), como será visto mais adiante. A segunda maneira de obter o erro de truncamento consiste em expressar os operadores de diferenças em termos da função y(x) e de suas derivadas. Partindo de E = eh d dx , e como E = ∆+ I , vem que: ∆ = eh d dx − I (2.42) Usando o desenvolvimento em série do operador exponencial, temos: ∆ = h d dx + ¡ h ddx ¢2 2! + ...+ ¡ h ddx ¢n n! + ... (2.43) A aproximação (2.35), quando inserimos (2.43) nos dá: dy dx |xj= 1 h µ h d dx + h2 2! d2 dx2 + ...+ hn n! dn dxn ¶ yj (2.44) ou, dy dx |xj= dyj dx + h 2! d2y dx2 |xj +O(h2) (2.45) e o erro de truncamento é dado por, E.T. = h 2! d2y dx2 |xj (2.46) que coincide com o resultado anteriormente deduzido. Para obtermos o erro da aproximação (2.37) temos primeiramente que obter as potências do operador ∆ em termos dos operadores diferenciais, assim como fizemos com a eq. (2.43): 2.3 FORMAÇÃO DE EQUAÇÕES DE DIFERENÇAS 65 ∆2 = ∆ ·∆ = µ h d dx + h2 2! d2 dx2 + ...+ hn n! dn dxn + ... ¶ ·µ h d dx + h2 2! d2 dx2 + ...+ hn n! dn dxn + ... ¶ (2.47) ou, ∆2 = µ h d dx ¶2 + µ h d dx ¶3 + 7 12 µ h d dx ¶4 + ... (2.48) donde, introduzindo as eqs. (2.43) e (2.48) em (2.36), obtemos: dy dx |xj= ( 1 h ∙ h d dx + h2 2 d2 dx2 + h3 6 d3 dx3 + h4 24 d4 dx4 ¸ − −1 2 ∙ h2 d2 dx2 + h3 d3 dx3 + 7 12 h4 d4 dx4 + ... ¸ )yj (2.49) resultando finalmente: dy dx |xj= dyj dx − 1 3 h2 d3yj dx3 +O(h4) (2.50) Vemos portanto que o erro de truncamento é E.T. = −1 3 h2 d3yj dx3 de ordem h2 , idêntico ao resultado anteriormente obtido. Pode-se demon- strar que: ∆n = µ h d dx ¶n + n 2 µ h d dx ¶n+1 + n(3n+ 1) 24 µ h d dx ¶n+2 + ... (2.51) (−∇)n = µ −h d dx ¶n + n 2 µ −h d dx ¶n+1 + n(3n+ 1) 24 µ −h d dx ¶n+2 +... (2.52) δ2n = µ h d dx ¶2n + n 12 µ h d dx ¶2n+2 + n2 360 µ h d dx ¶2n+4 + ... (2.53) 66 CAPíTULO 2 DIFERENÇAS FINITAS 2.4 Soluções analíticas Como veremos adiante, de modo geral, os métodos de determinação de soluções analíticas de equações de diferenças são semelhantes aos utiliza- dos na resolução de equações diferenciais. Entretanto, a título de ilus- tração, descreveremos o método de recorrência para encontrar a solução de uma equação de diferenças que aproxima uma equação diferencial linear de primeira ordem. Para facilitar o raciocínio, consideremos os coeficientes da equação diferencial como constantes. Assim, seja a equação diferencial dy(x) dx + 3y(x) = 2 (2.54) com a condição inicial y(0) = 1 (2.55) A solução geral do problema formulado em (2.54) e (2.55) é: y(x) = 1 3 £ e−3x + 2 ¤ (2.56) que, como podemos ver, é composta de uma solução particular, yp(x) = 2 3 (2.57) e da solução da equação homogênea associada: dy(x) dx + 3y(x) = 0 (2.58) que é dada por yh(x) = Ce −3x (2.59) onde C = 1/3 foi determinada a partir da condição inicial (2.55). Este problema diferencial (i.e., a equação diferencial dada e a correspondente condição inicial) pode ser aproximado por diferenças finitas, da seguinte forma: fazendo a aproximação dy dx |xj∼= 1 h ∆yj = yj+1 − yj h (2.60) com y(xj) = yj e y(0) ≡ 1 (2.61) 2.4 SOLUÇÕES ANALíTICAS 67 resulta a seguinte equação de diferenças: yj+1 − yj h + 3yj = 2 (2.62) Já vimos que dy dx |xj= 1 h ∆yj +O(h) (2.63)
Compartilhar