Buscar

MétodosNumericos-1

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 259 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 259 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 259 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Métodos Numéricos em Engenharia Nuclear
Antonio Carlos Marques Alvim, Ph. D.
Professor Titular do Programa de Engenharia Nuclear da COPPE/UFRJ
Professor Associado da UFRJ
22 de outubro de 2007
Sumário
1 Matrizes e transformações lineares 5
1.1 Notação matricial para sistemas de equações lineares . . . . . 5
1.2 Operações com matrizes . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Matrizes especiais e suas propriedades . . . . . . . . . 10
1.2.2 Interpretações geométricas (vetoriais) . . . . . . . . . 13
1.2.3 Funções de matrizes.Transformações de semelhança . . 16
1.3 Autovalores e autovetores . . . . . . . . . . . . . . . . . . . . 20
1.4 Diagonalização de matriz simétrica . . . . . . . . . . . . . . . 23
1.5 Diagonalização de matrizes não-simétricas . . . . . . . . . . . 25
1.5.1 Autovalores distintos . . . . . . . . . . . . . . . . . . . 25
1.5.2 Autovalores repetidos. Forma canônica de Jordan . . . 27
1.6 Formas particulares de matrizes . . . . . . . . . . . . . . . . . 31
1.7 Definições adicionais . . . . . . . . . . . . . . . . . . . . . . . 36
1.8 O teorema de Gershgorin. Raio espectral . . . . . . . . . . . 38
1.9 Formas quadráticas.Matriz definida positiva . . . . . . . . . . 40
1.10 Matriz de Stieltjes. Matriz M . . . . . . . . . . . . . . . . . . 43
1.11 Normas vetoriais e matriciais . . . . . . . . . . . . . . . . . . 45
1.12 Matrizes não negativas . . . . . . . . . . . . . . . . . . . . . . 48
1.13 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2 Diferenças Finitas 57
2.1 Exemplos introdutórios . . . . . . . . . . . . . . . . . . . . . 57
2.2 Operadores de diferenças . . . . . . . . . . . . . . . . . . . . . 59
2.3 Formação de equações de diferenças . . . . . . . . . . . . . . 62
2.4 Soluções analíticas . . . . . . . . . . . . . . . . . . . . . . . . 66
2.5 Equações homogêneas . . . . . . . . . . . . . . . . . . . . . . 71
2.5.1 Coeficientes constantes . . . . . . . . . . . . . . . . . . 71
2.6 Equações não-homogêneas . . . . . . . . . . . . . . . . . . . . 76
2.7 Estabilidade de equações de diferenças . . . . . . . . . . . . . 80
2.8 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
v
vi SUMÁRIO
3 Integração numérica 87
3.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.2 Interpolação de Lagrange . . . . . . . . . . . . . . . . . . . . 88
3.3 Fórmulas de Newton-Cotes . . . . . . . . . . . . . . . . . . . 91
3.3.1 Fórmulas abertas e fechadas . . . . . . . . . . . . . . . 94
3.4 Integração composta . . . . . . . . . . . . . . . . . . . . . . . 96
3.5 Integração usando operadores . . . . . . . . . . . . . . . . . . 97
3.6 Erros de truncamento . . . . . . . . . . . . . . . . . . . . . . 102
3.7 Grau de exatidão . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.8 Quadraturas de Gauss . . . . . . . . . . . . . . . . . . . . . . 104
3.8.1 Quadratura de Gauss-Legendre . . . . . . . . . . . . . 106
3.8.2 Quadratura de Gauss-Laguerre . . . . . . . . . . . . . 107
3.8.3 Quadratura de Gauss-Hermite . . . . . . . . . . . . . 108
3.8.4 Quadratura de Gauss-Chebyshev . . . . . . . . . . . . 109
3.9 Fórmulas de Adam . . . . . . . . . . . . . . . . . . . . . . . . 109
3.10 Solução de EDO’s . . . . . . . . . . . . . . . . . . . . . . . . 111
3.11 Métodos de multiintervalos . . . . . . . . . . . . . . . . . . . 112
3.12 Métodos de intervalo único . . . . . . . . . . . . . . . . . . . 117
3.13 Equações de ordem superior . . . . . . . . . . . . . . . . . . . 121
3.14 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
4 Equações diferenciais parciais 127
4.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
4.2 Equações diferenciais parciais . . . . . . . . . . . . . . . . . . 128
4.3 Operadores lineares . . . . . . . . . . . . . . . . . . . . . . . . 129
4.3.1 Classificação dos operadores diferenciais parciais . . . 130
4.4 Equações hiperbólicas . . . . . . . . . . . . . . . . . . . . . . 131
4.4.1 Solução analítica do problema hiperbólico por sepa-
ração de variáveis . . . . . . . . . . . . . . . . . . . . . 138
4.4.2 Equações de diferenças para problemas hiperbólicos . 140
4.4.3 Solução analítica do problema hiperbólico aproximado 148
4.4.4 Convergência da aproximação por diferenças . . . . . 155
4.5 Equações parabólicas . . . . . . . . . . . . . . . . . . . . . . . 156
4.5.1 Solução analítica do problema parabólico por sepa-
ração de variáveis . . . . . . . . . . . . . . . . . . . . . 158
4.5.2 Equação de diferenças para o problema parabólico . . 159
4.5.3 Solução analítica do problema parabólico aproximado 160
4.5.4 Convergência da aproximação por diferenças . . . . . 162
4.6 Equações elipticas . . . . . . . . . . . . . . . . . . . . . . . . 164
4.6.1 Solução analítica do problema eliptico por separação
de variáveis . . . . . . . . . . . . . . . . . . . . . . . . 166
4.6.2 Equação de diferenças para o problema eliptico . . . . 168
4.6.3 Solução analítica do problema eliptico aproximado . . 168
4.6.4 Convergência da aproximação por diferenças . . . . . 171
SUMÁRIO vii
4.7 O método de Von-Neumann . . . . . . . . . . . . . . . . . . . 173
4.7.1 Equações hiperbólicas . . . . . . . . . . . . . . . . . . 175
4.7.2 Equações parabólicas . . . . . . . . . . . . . . . . . . . 178
4.7.3 Representação matricial das equações de diferenças . . 180
4.8 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
5 Equação de difusão monoenergética 187
5.1 Caso unidimensional, um grupo de energia . . . . . . . . . . . 187
5.2 O método das potências (Power Method) . . . . . . . . . . . 198
5.2.1 Normalização do método das potências . . . . . . . . . 200
5.2.2 Método inverso das potências (Inverse Power method) 201
5.2.3 Método das potências aplicado ao vetor fonte . . . . . 205
5.3 Método de Wielandt . . . . . . . . . . . . . . . . . . . . . . . 206
5.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
6 A equação de difusão multigrupo 211
6.1 Caso unidimensional, dois grupos de energia . . . . . . . . . . 211
6.1.1 Iteração usando o conceito de vetor fonte . . . . . . . 214
6.2 Métodos de extrapolação de fonte de Chebyshev . . . . . . . 216
6.2.1 A extrapolação de Chebyshev de um parâmetro . . . . 217
6.2.2 A extrapolação de Chebyshev com dois parâmetros . . 221
6.3 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
7 A difusão multigrupo multidimensional 225
7.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
Lista de Figuras
1.1 Transformação Linear . . . . . . . . . . . . . . . . . . . . . . 15
1.2 Rotação de sistemas coordenados . . . . . . . . . . . . . . . . 16
1.3 Conjuntos de vetores bi-ortogonais . . . . . . . . . . . . . . . 26
1.4 Teorema de Gerschgorin . . . . . . . . . . . . . . . . . . . . . 39
1.5 Raio espectral de uma matriz . . . . . . . . . . . . . . . . . . 40
1.6 Matriz definida positiva . . . . . . . . . . . . . . . . . . . . . 43
2.1 Aproximação da derivada em um ponto . . . . . . . . . . . . 57
2.2 Aproximação da derivada em um domínio . . . . . . . . . . . 58
3.1 Quadratura aberta à direita . . . . . . . . . . . . . . . . . . . 113
3.2 Quadratura fechada à direita . . . . . . . . . . . . . . . . . . 113
3.3 Subdivisão do intervalo único . . . . . . . . . . . . . . . . . . 118
3.4 Subdivisão do intervalo para o método de Heun . . . . . . . . 120
4.1 Equação diferencial parcial . . . . . . . . . . . . . . . . . . . 128
4.2 Contornos físico e inicial . . . . . . . . . . . . . . . . . . . . . 129
4.3 Contorno inicial para problema hiperbólico . . . . . . . . . . 131
4.4 Retas características . . . . . . . . . . . . . . . . . . . . . . . 135
4.5 Triângulo característico . . . . . . . . . . . . . . . . . . . . . 136
4.6 Malha numérica para equação de onda . . . . . . . . . . . . . 141
4.7 Representação do algorítmo . . . . . . . . . . . . . . . . . . . 142
4.8 Complexos conjugados . . . . . . . . . . . . . . . . . . . . . . 150
4.9 Condiçõesinicial e de contorno para a equação parabólica . . 158
4.10 Problema parabólico-algorítmo explícito . . . . . . . . . . . . 160
4.11 Equação elíptica-condições de contorno . . . . . . . . . . . . . 165
4.12 Problema elíptico . . . . . . . . . . . . . . . . . . . . . . . . . 166
4.13 Aproximação por diferenças finitas . . . . . . . . . . . . . . . 168
4.14 Problema hiperbólico-algorítmo explícito . . . . . . . . . . . . 175
4.15 Problema hiperbólico-algorítmo implícito . . . . . . . . . . . 177
4.16 Problema parabólico-algorítmo explícito . . . . . . . . . . . . 179
4.17 Problema parabólico-algorítmo implícito . . . . . . . . . . . . 180
5.1 Esquema centrado nas interfaces . . . . . . . . . . . . . . . . 188
1
2 LISTA DE FIGURAS
5.2 Combinações de parâmetros físicos e de malhas . . . . . . . . 190
5.3 Discretização no contorno . . . . . . . . . . . . . . . . . . . . 191
5.4 Discretização-esquema centrado na malha . . . . . . . . . . . 194
5.5 Fluxograma -Método inverso das potências . . . . . . . . . . 204
7.1 Discretização bi-dimensional . . . . . . . . . . . . . . . . . . . 226
7.2 Discretização-ponto no contorno . . . . . . . . . . . . . . . . 228
7.3 Malha bidimensional . . . . . . . . . . . . . . . . . . . . . . . 233
7.4 Reordenação consistente da malha . . . . . . . . . . . . . . . 237
7.5 Acoplamento entre os pontos de malha . . . . . . . . . . . . . 239
7.6 Esquemas do método de Jacobi . . . . . . . . . . . . . . . . . 241
7.7 Esquemas do método de Gauss-Seidel . . . . . . . . . . . . . 241
Lista de Tabelas
3.1 Tabela da função f(x) . . . . . . . . . . . . . . . . . . . . . . 89
3.2 Tabela para espaçamento constante. . . . . . . . . . . . . . . 90
3.3 Fórmulas Fechadas de Newton-Cotes . . . . . . . . . . . . . . 95
3.4 Fórmulas Abertas de Newton-Cotes . . . . . . . . . . . . . . 95
3.5 Quadratura de Gauss-Legendre . . . . . . . . . . . . . . . . . 106
3.6 Quadratura de Gauss-Laguerre . . . . . . . . . . . . . . . . . 108
3.7 Quadratura de Gauss-Hermite . . . . . . . . . . . . . . . . . . 109
4.1 Relações envolvendo somatórios . . . . . . . . . . . . . . . . 157
3
Capítulo 1
Matrizes e transformações
lineares
1.1 Notação matricial para sistemas de equações
lineares
Uma linha do sistema:⎧⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎩
a11x1+ a12x2+ · · · .+ a1nxn = y1
a21x1+ a22x2+ · · · +a2nxn = y2
...
...
...
...
...
an1x1+ an2x2+ · · · +annxn = yn
(1.1)
pode ser escrita como:
nX
j=1
aijxj = yi ; i = 1, 2, ..., n (1.2)
Definindo os arranjos
x =
⎡⎢⎢⎢⎢⎢⎢⎣
x1
x2
...
xn
⎤⎥⎥⎥⎥⎥⎥⎦ e y =
⎡⎢⎢⎢⎢⎢⎢⎣
y1
y2
...
yn
⎤⎥⎥⎥⎥⎥⎥⎦
denominados matrizes (ou vetores) colunas e o arranjoh
ai1, ai2, · · · , ain
i
5
6CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
denominado matriz (ou vetor) linha, pode-se escrever a equação (1.2) como
h
ai1, ai2, · · · , ain
i
⎡⎢⎢⎢⎢⎢⎢⎣
x1
x2
...
xn
⎤⎥⎥⎥⎥⎥⎥⎦ =
nX
j=1
aijxj = yi ; i = 1, 2, ..., n
Esta expressão permite definir a multiplicação de uma matriz linha por uma
matriz coluna como sendo o somatório dos produtos do j-ésimo elemento da
matriz linha pelo j-ésimo elemento da matriz coluna. Definindo o arranjo
de coeficientes
A =
⎡⎢⎢⎢⎢⎢⎢⎣
a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
...
an1 an2 · · · ann
⎤⎥⎥⎥⎥⎥⎥⎦
denominado matriz quadrada, o conjunto de equações (1.2) pode ser escrito
na forma ⎡⎢⎢⎢⎢⎢⎢⎣
a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
...
an1 an2 · · · ann
⎤⎥⎥⎥⎥⎥⎥⎦
⎡⎢⎢⎢⎢⎢⎢⎣
x1
x2
...
xn
⎤⎥⎥⎥⎥⎥⎥⎦ =
⎡⎢⎢⎢⎢⎢⎢⎣
y1
y2
...
yn
⎤⎥⎥⎥⎥⎥⎥⎦ (1.3)
o que permite definir o produto de uma matriz quadrada por um vetor coluna
como sendo um vetor coluna y onde cada componente yj é o produto da j-
ésima linha da matriz quadrada A pelo vetor coluna x. Portanto, o sistema
(1.1) pode ser compactamente representado como
Ax = y (1.4)
De modo geral, um sistema com m equações lineares e n incógnitas também
pode ser compactamente representado na forma (1.4), entendendo-se como
a matriz A o arranjo dos coeficientes do sistema, com m linhas e n colunas
(matriz retangular) e indicado A(m,n). Nesse caso, a matriz A é dita de
dimensão (m,n). O vetor x possuirá n componentes, ou seja, será uma
matriz (n, 1) . A matriz A pode também ser representada como
A = [aij ]
1.2 OPERAÇÕES COM MATRIZES 7
1.2 Operações com matrizes
Duas matrizes A e B, ambas de dimensão (m,n) são iguais se
aij = bij
para todo i e todo j. Representa-se a igualdade das matrizes por
A = B
ou
[aij ] = [bij ]
Observando que X
j
aij +
X
j
bij =
X
j
(aij + bij)
define-se a soma C = A+B das matrizes A = [aij ] e B = [bij ] como
[cij ] = [aij ] + [bij ] = [aij + bij ]
A soma é definida para A e B ambas de dimensões (m,n) , resultando C
, também de dimensão (m,n) . É fácil verificar que a soma de matrizes é
comutativa
A+B = B+A
e associativa
A+ (B+C) = (A+B) +C
Podemos também definir o produto de um escalar α (um número real ou
complexo) por uma matriz A como a matriz αA dada por
aA =[aaij ]
O produto de matrizes pode ser definido, considerando dois sistemas de
equações lineares:
Ax = y
e
By = z
Como
yi =
X
j
aijxj
8CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
e
zk =
X
i
bkiyi
obtém-se
zk =
X
i
bki
X
j
aijxj =
X
j
ÃX
i
bkiaij
!
xj
Como é possivel escrever, em forma matricial,
By = B(Ax) = BAx = z
define-se então a matriz produto C = BA por
[ckj ] = [
X
i
bkiaij ]
onde a soma se estende pelas colunas de B e pelas linhas de A. Portanto, a
multiplicação das matrizes B e A só é definida quando o número de colunas
de B igualar o número de linhas de A e a matriz produto BA terá o mesmo
número de linhas de B e o mesmo número de colunas de A . É fácil verificar
que o produto de matrizes é associativo
A(BC) = (AB)C
e também distributivo em relação à soma
A(B+C) = AB+AC
Entretanto,
AB 6= BA
em geral. Sejam A(m,n) e B(n, p) . Nesse caso, AB é de dimensão (m, p) e
o produto BA só é definido se p = m . Se isto ocorrer, AB será de dimensão
(m,m) e BA de dimensão (n, n). Portanto, uma condição necessária (mas
não suficiente) para que AB = BA é que m = n ou seja, A e B sejam
matrizes quadradas de mesma ordem. Quando duas matrizes quadradas A
e B satisfazem a AB = BA , diz-se que elas comutam.
Submatrizes: Se algumas linhas e/ou colunas de A = [aij ] forem omiti-
das, o arranjo restante é denominado submatriz de A.
Exemplo: Seja
A =
⎡⎢⎢⎢⎣
a11 a12 a13
a21 a22 a23
a31 a32 a33
⎤⎥⎥⎥⎦
1.2 OPERAÇÕES COM MATRIZES 9
Podemos definir a submatriz
A11 ==
⎡⎣ a11 a12
a21 a22
⎤⎦
resultante da retirada da terceira linha e da terceira coluna de A e a matriz
A pode ser representada em termos das submatrizes Aij :
A = =
⎡⎣A11 A12
A21 A22
⎤⎦
com
A12 =
⎡⎣ a13
a23
⎤⎦
e as demais submatrizes definidas de modo análogo.
SejamA eBmatrizes representadas em termos de submatrizes, conforme
indicado a seguir:
A =
⎡⎢⎢⎢⎢⎢⎢⎣
A11 A12 · · · A1r
A21 A22 · · · A2r
...
...
...
Aq1 Aq2 · · · Aqr
⎤⎥⎥⎥⎥⎥⎥⎦ ; B =
⎡⎢⎢⎢⎢⎢⎢⎣
B11 B12 · · · B1t
B21 B22 · · · B2t
...
...
...
Br1 Br2 · · · Bqt
⎤⎥⎥⎥⎥⎥⎥⎦
tais que o produto AB seja definido. Então, se todos os produtos do tipo
AijBjk forem definidos, o produto AB pode ser computado da seguinte
maneira:
AB = C =
⎡⎢⎢⎢⎢⎢⎢⎣
C11 C12 · · · C1t
C21 C22 · · · C2t
...
...
...
Cq1 Cq2 · · · Cqt
⎤⎥⎥⎥⎥⎥⎥⎦
onde cada elemento de C é dado por
Cij =
rX
k=1
AikBkj
10CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
1.2.1 Matrizes especiais e suas propriedades
Admite-se, no que segue, que todas as matrizes consideradas são reais (definidas
sobre o corpo dos reais).
Matriz nula: É a matriz quadrada que possui todos os seus elementos
iguais a zero. É representada por O. Deve-se notar que AB = O; A = O
ou B = O , como se pode verificar no exemplo a seguir onde
A =
⎡⎣ 1 −1
−1 1
⎤⎦ ; B =
⎡⎣ 1 1
1 1
⎤⎦
Efetuando o produto dessas matrizes encontramos
AB =
⎡⎣ 0 0
0 0
⎤⎦ = O
Matriz identidade: É a matriz quadrada definida por
I = [δij ]
onde
δij =
⎧⎨⎩ 0 , se i 6= j1 , se i = j
é o delta de Kronecker. A matriz identidade goza da seguinte propriedade:
AI = A e IA = A
ou seja, a matriz identidade comuta com qualquer matriz de mesma ordem.
Matrizdiagonal: É a matriz quadrada definida por
D = [dij ] = [diδij ]
É fácil verificar que, se D1 e D2 são duas matrizes diagonais,
D1D2 = D2D1
desde que o produto dessas matrizes seja definido, ou seja, D1 eD2 possuam
mesma ordem. Entretanto, se A for uma matriz não-diagonal e D uma
matriz diagonal, ambas quadradas de ordem n , então
AD 6= DA
em geral.
Matriz escalar: É a matriz diagonal que possui os elementos da diagonal
iguais,
1.2 OPERAÇÕES COM MATRIZES 11
D = [dδij ] , d um escalar
Pode-se verificar que D = dI . Portanto, uma matriz escalar comuta com
qualquer matriz de mesma ordem.
Matriz transposta de uma matriz A(m,n): É a matriz obtida da matriz
A ao trocar suas linhas por suas colunas. Indica-se a matriz transposta de
A por AT . Em vista dessa definição,
AT =
£
aTij
¤
= [aji]
Note que a matriz transposta de uma matriz coluna é uma matriz linha.
Portanto, uma maneira conveniente de representar um vetor coluna
x =
⎡⎢⎢⎢⎢⎢⎢⎣
x1
x2
...
xn
⎤⎥⎥⎥⎥⎥⎥⎦
é pela matriz linha transposta
xT = [x1, x2, · · · , xn]T
Pode-se mostrar que, se o produto AB for definido,
(AB)T = BTAT
Matriz simétrica: É a matriz quadrada A tal que
AT = A
Dessa definição resulta que
aji = aij
Matriz anti-simétrica: É a matriz quadrada A tal que
AT = −A
Dessa definição resultam, para qualquer matriz anti-simétrica A,
aii = 0 ; ∀i e aij = −aji ∀i 6= j
Matriz inversa de uma matriz quadrada A: É a matriz quadrada indi-
cada por A−1 tal que
AA−1 = A−1A = I
12CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
Uma matriz quadrada A admite inversa se e somente se seu determinante,
indicado por |A| , for diferente de zero. Nesse caso,¯̄
A−1
¯̄
6= 0
Pode-se mostrar que ¯̄
A−1
¯̄
=
1
|A|
e também que ³
a−1ij
´
=
Cji
|A|
onde Cji é o cofator1 de aji . Note que esta última expressão permite
computar a inversa de A . Entretanto, para isso, devemos resolver n2 de-
terminantes de ordem n− 1 e 1 de ordem n . Obviamente, há métodos mais
eficientes de inverter uma dada matriz A .(vide [2])
Matriz singular: Se |A| = 0 , a matriz A é dita singular, não possuindo
inversa.
Unicidade da matriz inversa: Supondo que a matriz A possua duas
inversas, digamos A−1 e B resultam
AB = I
e
AA−1 = I
Subtraindo essas duas equações, vem:
AB−AA−1 = O
ou
A(B−A−1) = O
Multiplicando essa igualdade membro a membro por A−1 ou por B , tere-
mos:
B−A−1 = O
donde
B = A−1
1O cofator Cji relativo a um elemento aji é dado por Cji = (−1)j+iMji , onde Mji é
o complemento algébrico de aji , i.e., é o determinante da matriz formada pela exclusão
das j-ésima linha e i-ésima coluna de A .
1.2 OPERAÇÕES COM MATRIZES 13
ou seja, a inversa de A é única. É facil verificar que
(AB)−1 = B−1A−1
Matriz ortogonal: É a matriz quadrada A tal que
AT = A−1
Pode-se mostrar que o determinante de uma matriz ortogonal é igual a ±1,
como segue: Da definição de matriz ortogonal vem que
| AT |=| A−1 |
Como
| AT |=| A |
segue que
| A |=| A−1 |
e como
| A−1 |= 1| A |
temos
| A |= 1| A |
ou seja,
| A |2= 1
donde
| A |= ±1
como queríamos demonstrar.
1.2.2 Interpretações geométricas (vetoriais)
Produto escalar de dois vetores no espaço tridimensional
O Produto matricial
tTu = [t1, t2, t3]
⎡⎢⎢⎢⎣
u1
u2
u3
⎤⎥⎥⎥⎦ = t1u1 + t2u2 + t3u3
14CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
pode ser interpretado como o produto escalar dos vetores
−→
t = t1
−→
i + t2
−→
j + t3
−→
k
e
−→u = u1
−→
i + u2
−→
j + u3
−→
k
dado por ³−→
t ,−→u
´
≡ −→t ·−→u = t1u1 + t2u2 + t3u3
Transformação linear
Seja o sistema ⎧⎪⎪⎪⎨⎪⎪⎪⎩
a11x1+ a12x2+ a13x3 = y1
a21x1+ a22x2+ a23x3 = y2
a31x1+ a32x2+ a33x3 = y3
ou
Ax = y
Pensando em x e y como os vetores tridimensionais
−→x = x1
−→
i + x2
−→
j + x3
−→
k
e
−→y = y1
−→
i + y2
−→
j + y3
−→
k
é possível associar a matriz A com a transformação linear que leva o vetor
−→x no vetor−→y , conforme indicado acima. Este é o ponto de vista mais usual,
como mostrado na figura (1.1):
Entretanto, considerando dois sistemas ortogonais [
−→
i ,
−→
j ,
−→
k ] e [
−→
i0 ,
−→
j0 ,
−→
k0 ]
, tais que
−→
i = a11
−→
i0 + a21
−→
j0 + a31
−→
k0 (1.5)
−→
j = a12
−→
i0 + a22
−→
j0 + a32
−→
k0
−→
k = a13
−→
i0 + a23
−→
j0 + a33
−→
k0
e escrevendo um vetor −→x nos dois sistemas como
[−→x ]i,j,k = x1
−→
i + x2
−→
j + x3
−→
k
1.2 OPERAÇÕES COM MATRIZES 15
z
0 y
x
x
y
Figura 1.1: Transformação Linear
[−→x ]i0,j0,k0 = y1
−→
i0 + y2
−→
j0 + y3
−→
k0
é possível relacionar estas representações através de (1.5):
−→x = [x1a11 + x2a12 + x3a13]
−→
i0 +
[x1a21 + x2a22 + x3a23]
−→
j0 +
[x1a31 + x2a32 + x3a33]
−→
k0
= y1
−→
i0 + y2
−→
j0 + y3
−→
k0
ou ⎧⎪⎪⎪⎨⎪⎪⎪⎩
a11x1+ a12x2+ a13x3 = y1
a21x1+ a22x1+ a23x1 = y2
a31x1+ a32x1+ a33x1 = y3
ou seja, o sistema linear Ax = y nos diz como obter as componentes yi ,
da representação do vetor −→x no sistema [
−→
i0 ,
−→
j0 ,
−→
k0 ] , em termos das compo-
nentes xi , que representam o mesmo vetor, no sistema [
−→
i ,
−→
j ,
−→
k ].
16CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
0
x
y2
z
y
x
z'
y'x'
x2
i
i'
Figura 1.2: Rotação de sistemas coordenados
1.2.3 Funções de matrizes.Transformações de semelhança
Pode-se, sob certas condições indicadas a seguir, definir uma função f(A)
de uma matriz quadrada A não-singular, tal que, se
f(x) =
+∞X
i=−∞
bix
i
então
f(A) =
+∞X
i=−∞
biA
i
com as seguintes propriedades:
(i) Se A é simétrica, então f(A) é também simétrica
(ii) f(A)g(A) = g(A)f(A)
Como exemplo, sabendo que
ex = 1 +
x
1!
+
x2
2!
+ ...
podemos então escrever
eA = I+
A
1!
+
A2
2!
+ ...
Matrizes equivalentes: Duas matrizes A e B são ditas equivalentes se e
somente se estiverem relacionadas através das matrizes não-singulares R e
1.2 OPERAÇÕES COM MATRIZES 17
Q , da seguinte maneira:
B = RAQ
Para entender em que sentido as matrizes A e B são equivalentes, considere
o produto RA , dado por seu elemento
(RA)ij =
X
k
rikakj
Analisando uma linha I , teremos:
(RA)Ij =
X
k
rIkakj
= rI1a1j + rI2a2j + ...+ rInanj
=
X
k
αkakj
Percebemos que o elementoIj é uma combinação linear dos elementos da
coluna j da A. Como isto é válido para qualquer elemento na linha I de
A , concluimos que cada linha de RA é uma combinação linear das linhas
de A . Analogamente, cada coluna de AQ é uma combinação linear das
colunas de A . Como exemplo, pré-multiplicando a matriz A pelo operador
matricial R ,
R =
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
0 1 0 · · · 0
1 0 0 · · · 0
0 0 1 · · · 0
...
...
...
0 0 0 · · · 1
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
obtido a partir da matriz identidade pela troca de suas duas primeiras linhas,
resulta uma matriz B = RA , que apenas difere de de A pela troca de suas
primeira e segunda linhas. Uma vez que também podemos interpretar R
como uma matriz obtida da matriz identidade pela troca da primeira com
a segunda coluna, a matriz B = AR pode ser obtida de A simplesmente
trocando a primeira coluna com a segunda coluna. De maneira semelhante,
pode-se somar uma constante vezes a segunda linha à primeira linha de A
pré-multiplicando A por
R =
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
1 C 0 · · · 0
0 1 0 · · · 0
0 0 1 · · · 0
...
...
...
0 0 0 · · · 1
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
18CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
Em resumo, se quisermos combinar linearmente as linhas de A , devemos
pré-multiplicá-la pela matrizR obtida da identidade pelas mesmas operações
que desejamos realisar sobre as linhas de A. Caso desejemos modificar as
colunas de A, realizamos a pós-multiplicação pela matriz Q,obtida da iden-
tidade pelas mesmas operações que desejamos realisar sobre as colunas de
A. As matrizes que efetuam essas operações elementares com linhas ou colu-
nas de uma dada matriz são não-singulares, já que resultam de combinações
lineares de linhas ou colunas da matriz identidade. É fácil verificar que uma
transformação de equivalência preserva o posto2, i. e., A e B = RAQ têm
mesmo posto. A seguir são abordadas algumas transformações de equivalên-
cia particulares.
Transformação de semelhança: Quando R = Q−1, então
B = Q−1AQ
é dita uma transformação de semelhança. É importante observarque re-
lações matriciais permanecem válidas se as matrizes dessas relações forem
submetidas à mesma transformação de semelhança.Exemplo:
Se AB = C⇒ Q−1CQ =Q−1ABQ = (Q−1AQ)(Q−1BQ)
Se A+B = C⇒ Q−1CQ = Q−1AQ+Q−1BQ
Transformação de congruência: Quando R = QT , então B = QTAQ é
dita uma transformação de congruência.
Transformação ortogonal: Se R = Q−1 = QT (ou seja, Q é uma matriz
ortogonal), então B = Q−1AQ =QTAQ é dita uma transformação ortogo-
nal. Lembre que | Q |= ±1 . Exemplo: Seja a transformação B = P−1AP
, onde P é uma matriz de permutação (ou seja, em cada linha ou coluna de
P só existe um único elemento não nulo e este elemento é igual a 1). Esta
transformação, dita Transformação de permutação, simplesmente troca cer-
tas linhas ou colunas de uma dada matriz. Exemplo:
P =
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
0 1 0 · · · 0
1 0 0 · · · 0
0 0 1 · · · 0
...
...
...
0 0 0 · · · 1
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
Esta matriz P troca a primeira e a segunda linhas (ou colunas) de uma
matriz A quando a pré(pós)-multiplica. Assim, a matriz PA é a matriz
obtida de A, trocando suas duas primeiras linhas e a matriz AP é a matriz
obtida de A trocando suas duas primeiras colunas.
2Posto de uma matriz A é a ordem do maior determinante não nulo que podemos obter
ao formar todas as submatrizes possíveis de A .
1.2 OPERAÇÕES COM MATRIZES 19
Aplicação de transformações:
(i) Sejam dois vetores x0 e y0 , relacionados pela transformação linear
y0 = Ax0 . Definindo dois novos vetores x e y tais que:
x0 = Qx
e
y0 = Qy
com | Q |6= 0 (ou seja, Q não singular), tem-se:
Qy = AQx
ou
y = Q−1AQx = Bx
Portanto, os novos vetores x e y estão relacionados entre si por uma trans-
formação semelhante à que existe entre x0 e y0 .
(ii) Se Q−1 = QT (transformação ortogonal), o produto escalar
yT0 x0 = y
TQTQx
= yTQ−1Qx
= yTx
permanece inalterado e também o produto escalar
xT0 x0 = x
Tx
Concluimos portanto que uma transformação ortogonal preserva o módulo
de um vetor x (dado por
√
xTx ) bem como o ângulo entre dois vetores (
obtido facilmente do produto escalar yTx). Dessa forma, vetores unitários
ortogonais permanecem unitários e ortogonais quando submetidos a uma
transformação ortogonal. Daí vem o nome da transformação.
Traço de uma matriz quadrada A : É definido como
Tr(A) =
nX
i=1
aii
possuindo as seguintes propriedades:
(i) Tr(AB) = Tr(BA).
Demonstração: Tr(AB) =
P
k
P
i
akibik =
P
i
P
k
bikaki = Tr(BA).
(ii) Uma transformação de similaridade preserva o traço:
Demonstração: Tr(Q−1AQ) =
P
i,j,k
(Q−1)ijajkQki =
P
i,j,k
Qki(Q
−1)ijajk .
Mas Qki(Q−1)ij = (QQ−1)ij = δkj . Donde Tr(Q−1AQ) =
P
j
ajj = Tr(A)
20CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
1.3 Autovalores e autovetores
Uma transformação linear A, aplicada a um dado vetor, pode resultar em
um vetor que seja múltiplo do vetor original. Se
Ax =λx ; x 6= 0 (1.6)
então λ é dito um autovalor de A e x é o autovetor de A associado a este
autovalor. Reescrevendo a equação anterior, vem:
(A−λI)x = 0
e como x 6= 0 resulta que
| A−λI |= 0 (1.7)
A expansão algébrica deste determinante resulta em um polinômio em λ e a
condição (1.7) dá origem a uma equação algébrica em λ denominada equação
característica. Se A for uma matriz quadrada de ordem n, a equação car-
acterística terá n raízes. Cabe ressaltar que, por estarmos considerando
apenas matrizes reais, raízes complexas da equação característica somente
ocorrerão em pares conjugados, visto que a equação polinomial possui coe-
ficientes reais. Podem ocorrer raízes repetidas: uma raiz repetida p vezes é
dita de multiplicidade p. Se as raízes da equação característica forem todas
distintas haverá n autovetores distintos associados a essas raízes, ou seja,
um autovetor distinto estará associado a cada uma dessas raízes. Entre-
tanto, como veremos adiante, quando ocorrerem raízes repetidas, poderá
haver menos de n autovetores associados à matriz A. Pode-se mostrar que
[1] a toda matriz corresponde um polinômio característico e reciprocamente,
todo polinômio pode ser escrito como um polinômio característico de uma
matriz.
Relacionamos a seguir algumas propriedades de autovalores e autovetores
de matrizes reais:
(1) Uma transformação de semelhança preserva autovalores:
| Q−1AQ− γI |=| Q−1 (A− γI)Q |=| Q−1 || Q || A− γI |=| A− γI |
Portanto,
| Q−1AQ− γI |= 0⇒| A− γI |= 0 .
(2) Como a equação (1.6) é homogênea, apenas as direções dos autove-
tores são determinadas. Logo, qualquer autovetor de A pode ser multi-
plicado por uma constante arbitrária não-nula, resultando ainda em um
autovetor de A. Esta propriedade permite normalizar os autovetores de
uma dada matriz, ou seja, fazer com que todos eles tenham comprimento
unitário.
(3) Seja λ um autovalor complexo da matriz real A : Como Ax =λx ;
x 6= 0 , então Ax=λx (onde x indica o complexo conjugado de x ). Como
A é uma matriz real, segue que Ax=λx . Portanto, se x é um autovetor
1.3 AUTOVALORES E AUTOVETORES 21
da matriz real A , associado a um um autovalor complexo λ , então x é um
autovetor de A associado a λ.
(4) Se λ é um autovalor complexo da matriz real A , então o autovetor x
da A associado a λ não pode ter todas as componentes reais. Isto pode ser
visto facilmente pois, de Ax =λx , se λ for complexo, com A real, x deverá
ter alguma componente complexa (caso contrário, Ax não poderá resultar
complexo).
As propriedades a seguir referem-se apenas a matrizes simétricas:
(5) Os autovalores de uma matriz A real e simétrica são reais.
Para demonstrar essa propriedade, seja Axi=λixi , com λi complexo.
Então existe o vetor xi tal que Axi=λixi . Multiplicando a primeira igual-
dade por xTi e a segunda por x
T
i , vem:
xTi Axi = λix
T
i xi
e
xTi Axi = λix
T
i xi
Subtraindo membro a membro as igualdades acima, vem:
xTi Axi − xTi Axi = λixTi xi − λixTi xi
Tendo em vista que xTi Axi = x
T
i A
Txi , já queA é simétrica e que xTi A
Txi =
xTi Axi , resulta
λix
T
i xi − λixTi xi = 0
ou
(λi − λi)xTi xi = 0
e como xTi xi = x
T
i xi > 0
3, uma vez que xi 6= 0 , por definição, resulta que
(λi − λi) = 0
ou seja,
λi = λi
portanto λi é um real. Como não impusemos restrição alguma sobre λi , a
propriedade vale para todo λi de A real e simétrica.
(6) Autovetores associados a autovalores distintos de uma matriz real e
simétrica são ortogonais.
Para demonstrar essa propriedade, sejam λ1 e λ2 dois autovalores dis-
tintos de A real e simétrica, com correspondentes autovetores x1 e x2 .
Então,
Ax1 = λ1x1
3Utilizamos a definição de produto interno no espaço vetorial complexo:
(y,x) ≡ yTx ,
que satisfaz à propriedade
(y,x) = (x,y) ≡ xTy
22CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
e
Ax2 = λ2x2
Multiplicando membro a membro a primeira igualdade por xT2 e a segunda
por xT1 , teremos:
xT2Ax1 = λ1x
T
2 x1 (1.8)
e
xT1Ax2 = λ2x
T
1 x2 (1.9)
e como xT2Ax1 = x
T
2A
Tx1 , pois A é simétrica, e xT2A
Tx1 = (Ax2)
Tx1 =
xT1Ax2 , pela propriedade do produto interno, teremos ao subtrair membro
a membro (1.8) e (1.9):
λ1x
T
2 x1 − λ2xT1 x2 = 0
Ainda pela propriedade do produto interno,
xT2 x1 = x
T
1 x2
Logo, segue que
(λ1 − λ2)xT1 x2 = 0
Como, por hipótese, λ1 6= λ2 , resulta
xT1 x2 = 0
ou seja, x1 e x2 são ortogonais.
(7) Como corolário, se os autovalores de uma matrizA real e simétrica de
dimensão n forem todos distintos, para cada autovalor haverá um autovetor
associado que será ortogonal aos demais. Portanto, esses n autovetores
ortogonais formam uma base para o espaço n-dimensional.
Essa base ortogonal de autovetores de A constitui-se em um sistema de
coordenadas muito útil, como veremos a seguir:
Seja
x =
nX
i=1
αiei
onde os ei são autovetores normalizados de A , i. e.,
eTi ej = δij
Então as componentes (coordenadas) αi serão dadas por
αi = x
Tei (1.10)
1.4 DIAGONALIZAÇÃO DE MATRIZ SIMÉTRICA 23
O vetor Ax pode ser facilmente obtido:
Ax = A(
nX
i=1
αiei)
=
nX
i=1
αiAei
=
nX
i=1
αiλiei
(8) Autovalores repetidos:
Pode-se mostrar [6]que:
(i) Se um autovalor λj de A real e simétrica tem multiplicidade k ≥ 2 ,
há k autovetores ortonormais associadosa λj .
(ii) Esses k autovetores formam uma base para o subespaço k-dimensional
do espaço n-dimensional e há uma infinidade de maneiras de selecioná-los.
(iii) Existe pelo menos uma base de autovetores de A para o espaço
n-dimensional.
Portanto, para matrizes reais e simétricas é sempre possível construir
um conjunto completo de autovetores ortogonais.
1.4 Diagonalização de matriz simétrica
Sejam
ei = [ei1, ei2, ..., ein] ; i = 1, 2, ..., n
os autovetores de A , real e simétrica. Construindo a matriz modal normal-
izada M ,
M =
⎡⎢⎢⎢⎢⎢⎢⎣
e11 e21 . . . en1
e12 e22 · · · en2
...
...
...
e1n e2n · · · enn
⎤⎥⎥⎥⎥⎥⎥⎦
≡ [e1, e2, ..., en]
24CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
e supondo que os ei estejam normalizados (eTi ej = δij), podemos formar o
produto AM :
AM = [Ae1,Ae2, ...,Aen]
= [λ1e1, λ2e2, ...,λnen]
=
⎡⎢⎢⎢⎢⎢⎢⎣
λ1e11 λ2e21 . . . λnen1
λ1e12 λ2e22 · · · λnen2
...
...
...
λ1e1n λ2e2n · · · λnenn
⎤⎥⎥⎥⎥⎥⎥⎦
Portanto, AM é uma matriz que pode ser obtida multiplicando as colunas
da matrizM por λi , i = 1, 2, ..., n .Isto implica em
AM =MD
com
D =
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
λ1 0 · · · · · · 0
0 λ2 0 · · · 0
... 0
. . . . . .
...
...
. . . . . . 0
0 · · · · · · 0 λn
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
que é a matriz obtida da matriz identidade pela multiplicação de suas
colunas por λi , i = 1, 2, ..., n . Em vista da relação acima e considerando
que M é inversível, uma vez que suas colunas são os ei , autovetores de A
e portanto linearmente independentes, resulta que
D =M−1AM
Logo, toda matriz real e simétrica é semelhante a uma matriz diagonal.
Podemos ver queM é uma matriz ortogonal formando o produto
MTM =
⎡⎢⎢⎢⎢⎢⎢⎣
e1 −→
e2 −→
...
en −→
⎤⎥⎥⎥⎥⎥⎥⎦
⎡⎣ e1 e2 · · · en
↓ ↓ · · · ↓
⎤⎦
=
⎡⎢⎢⎢⎢⎢⎢⎣
eT1 e1 e
T
1 e2 · · · eT1 en
eT2 e1 e
T
2 e2 · · · eT2 en
...
...
...
eTne1 e
T
ne2 · · · eTnen
⎤⎥⎥⎥⎥⎥⎥⎦ = I
1.5 DIAGONALIZAÇÃO DE MATRIZES NÃO-SIMÉTRICAS25
e entãoMT =M−1 e a transformação de diagonalização de A é uma trans-
formação ortogonal.
1.5 Diagonalização de matrizes não-simétricas
1.5.1 Autovalores distintos
Se a matriz A possuir autovalores distintos, é sempre possível obter au-
tovetores associados a cada um desses autovalores que, embora linearmente
independentes, não são, em geral, ortogonais. A matriz AT possui os mes-
mos autovalores que A , mas autovetores distintos dos de A . Suponhamos,
por hipótese, que λi e λj sejam dois autovalores distintos de A (portanto,
também de AT ). Designando por xi o autovetor de A associado a λi e por
uj o autovetor de AT associado a λj , podemos escrever:
Axi = λixi
ATuj = λjuj
Multiplicando membro a membro a primeira igualdade por uTj e a segunda
por xTi , teremos, após subtrair membro a membro as equações resultantes:
uTj Axi − xTi ATuj = (λi − λj)uTj xi
Como
uTj Axi = x
T
i A
Tuj
a igualdade anterior fica:
(λi − λj)uTj xi = 0
ou seja, uj : autovetor de AT associado a λj é ortogonal a xi : autovetor de
A associado a λi . Logo, os autovetores de A e de AT formam um conjunto
biortogonal . Como exemplo, considere a matrizA , não-simétrica, de ordem
2 e com autovalores distintos λ1 e λ2 . Sejam x1 e x2 os autovetores de A
associados a λ1 e λ2 e u1 e u2 os autovetores de AT associados a λ1 e λ2 .
Então, como mostra a figura (1.3),
uT2 x1 = 0 ; (
−→x1 ⊥ −→u2)
e
uT1 x2 = 0 ; (
−→x2 ⊥ −→u1)
É possível realizar a normalização
uT1 x1 = 1
e
uT2 x2 = 1
26CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
u2u1
x1
x2
Figura 1.3: Conjuntos de vetores bi-ortogonais
Essas quatro relações podem ser resumidamente descritas como
uTj xi = δji (1.11)
Como aplicação da biortogonalidade mostrada aqui, vamos expandir um
vetor qualquer w nos autovetores xi de A :
w =
nX
i=1
αixi
e formemos o produto
uTj w =
nX
i=1
αiu
T
j xi
Em vista de (1.11), resulta imediatamente
αj = u
T
j w (1.12)
Admitindo que os conjuntos {x1,x2, ...,xn} e {u1,u2, ...,un} já tenham sido
normalizados, de acordo com 1.11, podemos formar a matriz
P =
⎡⎣ x1 x2 · · · xn
↓ ↓ ↓
⎤⎦
cujas colunas são os autovetores normalizados de A . Formando o produto
AP =
=
h
λ1x1, λ2x2, · · · , λnxn
i
1.5 DIAGONALIZAÇÃO DE MATRIZES NÃO-SIMÉTRICAS27
verificamos que ele também pode ser escrito na forma PD , com
D =
⎡⎢⎢⎢⎢⎢⎢⎣
λ1 0 · · · 0
0 λ2
. . .
...
...
. . . . . . 0
0 · · · 0 λn
⎤⎥⎥⎥⎥⎥⎥⎦
Portanto, já que garantidamente P−1 existe ( as colunas de P são os au-
tovetores de A, linearmente independentes), é possível diagonalizar A, pela
transformação de semelhança
D = P−1AP
Note que, como P−1 é dada (em vista da biortogonalidade),por
P−1 =
⎡⎢⎢⎢⎢⎢⎢⎣
u1 −→
u2 −→
...
un −→
⎤⎥⎥⎥⎥⎥⎥⎦
onde os ui são os autovetores normalizados de AT , a transformação de
diagonalização de uma matriz real não-simétrica não é uma transformação
ortogonal.
1.5.2 Autovalores repetidos. Forma canônica de Jordan
Caso a matriz A possua um ou mais autovalores repetidos, a obtenção de
um conjunto completo de autovetores não é garantida. Entretanto, é sem-
pre possível encontrar vetores auxiliares que, juntamente com os autovetores
de A , formem um conjunto completo de vetores para o espaço consider-
ado. A partir desse conjunto é possível obter uma transformação da matriz
dada a qual possuirá uma forma quase-diagonal (forma canônica de Jordan).
Mostraremos a seguir como se obtêm esses vetores auxiliares para completar
um conjunto de vetores linearmente independentes. Supondo que A possua
autovalor λ1 com multiplicidade k , existe pelo menos um vetor e1 tal que
Ae1 = λ1e1 ; e1 6= 0
Assumindo que este é o único autovetor associado a λ1, podemos construir
o vetor t1 tal que
(A−λ1I) t1 = e1 (1.13)
28CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
Esta equação implica que t1 não pode estar na mesma direção que e1 , pois
se t1 = αe1 , então (1.13) fica (A−λ1I)αe1 = e1 e como e1 é autovetor de
A associado a λ1 , resulta 0 = e1 , o que é impossível (e1 não pode ser o
vetor nulo), por hipótese. Uma vez que t1 não está alinhado com e1 , ele
pode ser feito ortogonal a e1 . Suponha que t1 foi feito ortogonal a e1 e
construamos o vetor t2 da seguinte forma:
(A−λ1I) t2 = t1 (1.14)
Se fizermos t2 = αt1 , concluiremos da igualdade acima que αe1 = t1 , o que
contraria a hipótese inicial de t1 ser ortogonal a e1 . Portanto, t2 pode ser
feito ortogonal a t1 . Operando agora com (A−λ1I) em (1.14), obteremos:
(A−λ1I)2 t2 = (A−λ1I) t1
= e1
Supondo t2 = αe1 , a igualdade acima conduz a e1 = 0 , o que é falso,
por hipótese. Logo, t2 pode ser feito ortogonal também a e1 . Em vista do
exposto, é facil verificar que a sequência de vetores tp , p = 0, 1, ..., k − 1 ,
construida de forma recorrente por
(A−λ1I) tp = tp−1 ; t0 ≡ e1
permite encontrar k − 1 vetores auxiliares, que, em conjunto com e1, for-
mam um conjunto de k vetores ortogonais. Pode-se mostrar que estes ve-
tores são linearmente independentes dos demais autovetores de A associ-
ados aos demais autovalores λk+1, ..., λn , ou seja, o conjunto de vetores
e1, t1, ..., tk−1, ek+1, ..., en forma uma base para o espaço n-dimensional.
Este conjunto de vetores permite obter as matrizes da transformação que
reduzem a matriz A à forma canônica de Jordan. Construindo a matrizM
dada por
M =
⎡⎣ e1 t1 · · · tk−1 ek+1 · · · en
↓ ↓ ↓ ↓ ↓
⎤⎦
podemos formar o produto matricial
AM =
h
Ae1, At1, · · · , Atk−1, Aek+1, · · · , Aen
i
=
h
λ1e1, e1 + λ1t1, · · · , tk−2 + λ1tk−1, λk+1ek+1, · · · , λnen
i
1.5 DIAGONALIZAÇÃO DE MATRIZES NÃO-SIMÉTRICAS29
Este produto pode também ser obtido, via operações elementares, pela mul-
tiplicação das matrizes abaixo:
⎡⎣ e1 t1 · · · tk−1 ek+1 · · · en
↓ ↓ ↓ ↓ ↓
⎤⎦
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
λ1 1 · · · 0
0 λ1
. . .
...
...
. . . . . . 1
0 · · · 0 λ1
O
λk+1
O
. . .
0 λn
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
A primeira matriz é a própria matriz M definida acima e a segunda é dita
a forma canônica de Jordan , J , correspondente à matriz A . Portanto,
AM =MJ
ou
J =M−1AM (1.15)
Até aqui supusemos que λ1 possuia um único autovetor associado. Se a
λ1 , de multiplicidade k , corresponderem, por exemplo, dois autovetores
distintos (e k− 2 vetoresauxiliares), pode-se verificar que a forma canônica
de Jordan será da forma
J =
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
λ1
λ1 1 · · · 0
0 λ1
. . .
...
...
. . . . . . 1
0 · · · 0 λ1
O
λk+1
O
. . .
λn
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
Como exemplo, suponha que A seja uma matriz real de dimensão 3 e que λ1
seja o autovalor de multiplicidade igual a 3. Neste caso, as seguintes formas
canônicas de Jordan seriam possíveis:
30CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
⎡⎢⎢⎢⎣
λ1 0 0
0 λ1 0
0 0 λ1
⎤⎥⎥⎥⎦
com 3 autovetores distintos ⎡⎢⎢⎢⎣
λ1 1 0
0 λ1 0
0 0 λ1
⎤⎥⎥⎥⎦
com dois autovetores e um vetor auxiliar e⎡⎢⎢⎢⎣
λ1 1 0
0 λ1 1
0 0 λ1
⎤⎥⎥⎥⎦
com 1 autovetor e 2 vetores auxiliares. Podemos enunciar os resultados
anteriores da forma compacta que se segue:
Seja Lk(λ) uma matriz k × k da forma:
Lk(λ) =
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
λ 1 0 0
0 λ 1
... 0
. . . . . . 0
...
...
. . . λ 1
0 0 · · · 0 λ
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
com L1(λ) ≡ λ. Existe uma matriz M tal que
M−1AM =
⎡⎢⎢⎢⎢⎢⎢⎣
Lk1(λ1) 0 · · · 0
0 Lk2(λ2)
. . .
...
...
. . . . . . 0
0 · · · 0 Lkr(λr)
⎤⎥⎥⎥⎥⎥⎥⎦
com k1+k2+ ...+kr = N (ordem da matriz A ) e onde os λi são autovalores
de A , não necessariamente distintos.
Note que o número de blocos, r , é igual ao número de autovetores
de A . Assim, no exemplo anterior, para a primeira forma de Jordan,
1.6 FORMAS PARTICULARES DE MATRIZES 31
k1 = k2 = k3 = 1 , para a segunda forma, k1 = 1 e k2 = 2 e para a
terceira, k1 = 3. Os autovetores e vetores de uma matriz na forma canônica
de Jordan podem ser facilmente obtidos. Assim, para J do tipo
J =
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
λ1 1 · · · 0
0 λ1
. . .
...
...
. . . . . . 1
0 · · · 0 λ1
o
λk+1
0
. . .
λn
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
os autovetores e vetores auxiliares são:
e1 =
h
1, 0, · · · , 0
iT
t1 =
h
0, 1, · · · , 0
iT
e sucessivamente até
tk−1 =
h
0, · · · , 0, 1, 0, · · · 0
iT
com 1 na k-ésima posição,
ek+1 =
h
0, · · · , 0, 1, 0, · · · , 0
iT
com 1 na (k + 1)-ésima posição, e sucessivamente até
en =
h
0, · · · , 0, 1
iT
1.6 Formas particulares de matrizes
Considere a matriz quadrada A , de ordem n :
A =
⎡⎢⎢⎢⎢⎢⎢⎣
a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
...
an1 an2 · · · ann
⎤⎥⎥⎥⎥⎥⎥⎦
32CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
Podemos decompor A na soma L+D+U , onde:
L =
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
0
a21 0 O
a31 a32
. . .
...
. . . . . . . . .
an1 · · · ann−2 ann−1 0
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
ou seja,
Lij = 0 , ∀j ≥ i
Lij = aij , j < i
D =
⎡⎢⎢⎢⎢⎢⎢⎣
a11 0 · · · 0
0 a22
. . .
...
...
. . . . . . 0
0 0 ann
⎤⎥⎥⎥⎥⎥⎥⎦
ou seja,
Dij = 0 , i 6= j
Dii = aii , ∀i
e
U =
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
0 a12 a13 · · · a1n
0 a23
. . .
...
. . . . . . an−2n
O
. . . an−1n
0
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
ou
Uij = 0 , ∀j ≤ i
Uij = aij , j > i
A matriz L (U) é denominada Matriz estritamente triangular inferior
(superior).
A matriz L+D (U+D) é denominada Matriz triangular inferior (supe-
rior).
1.6 FORMAS PARTICULARES DE MATRIZES 33
Note que, se B = L+D (U+D) for inversível, i.e., se | B |≡| D |6= 0 ,
sua inversa será também uma matriz triangular inferior (superior).
A matriz
A =
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
a11 a12
a21 a22 a23 O
a32
. . . . . .
O
. . . an−1n−1 an−1n
ann−1 ann
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
tal que
aij = 0 , j 6= i− 1, i, i+ 1
é dita Matriz tridiagonal . Este tipo de matriz aparece freqüentemente
quando se consideram aproximações de derivadas segundas de funções, como
veremos mais adiante. É importante observar que a solução de um sistema
linear em que a matriz dos coeficientes é uma matriz tridiagonal é obtida
sem a necessidade de invertê-la. Assim, seja o sistema linear
Ax = y
com
A =
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
b1 c1
a2 b2 c2 O
a3
. . . . . .
O
. . . . . . cn−1
an bn
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
Aplicando o conhecido processo de redução de Gauss ao sistema dado, ter-
emos:
(i) após divisão, membro a membro, da primeira equação por b1 6= 0 :⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
1 c1b1
a2 b2 c2 O
a3
. . . . . .
O
. . . . . . cn−1
an bn
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
x1
x2
...
xn−1
xn
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
=
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
y1
b1
y2
...
yn−1
yn
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
34CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
(ii) após multiplicação da primeira equação por a2 e subtração da equação
resultante da segunda equação do sistema:⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
1 c1b1
0 b2 − a2 c1b1 c2 O
a3
. . . . . .
O
. . . . . . cn−1
an bn
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
x1
x2
...
xn−1
xn
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
=
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
y1
b1
y2 − a2 y1b1
...
yn−1
yn
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
(iii) repetição das etapas (i) e (ii) acima nos conduz ao sistema equiva-
lente ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
1 h1
1 h2 O
. . . . . .
O
. . . hn−1
1
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
x1
x2
...
xn−1
xn
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
=
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
p1
p2
...
pn−1
pn
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
onde os hj e os pj são encontrados pela utilização das seguintes fórmulas
recorrentes:
hj =
cj
bj − ajhj−1
e
pj =
yj − ajpj−1
bj − ajhj−1
onde
h1 =
c1
b1
e
p1 =
y1
b1
Por substituição retrógrada obtemos então
xn = pn
e
xj = pj − hjxj+1 , j = (n− 1), (n− 2), ..., 1
1.6 FORMAS PARTICULARES DE MATRIZES 35
O procedimento descrito acima pode ser generalizado para matrizes bloco-
tridiagonais , do tipo
A =
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
B1 C1
A2 B2 C2 O
A3
. . . . . .
O
. . . . . . Cn−1
An Bn
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
onde os Ai , Bi e Ci são submatrizes de A e os Bi são matrizes quadradas,
não necessariamente de mesma ordem. Considere o sistema:
Ax = y
onde o vetor de incógnitas x é escrito na forma
x =
h
x1, x2, · · · , xn
iT
e onde xi é um vetor coluna cujo número de componentes é igual à ordem
de Bi . Neste caso, aplicando a redução de Gauss, obteremos o sistema
equivalente ⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
I H1
I H2 O
. . . . . .
O
. . . Hn−1
I
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
x1
x2
...
xn−1
xn
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
=
⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣
p1
p2
...
pn−1
pn
⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦
em que os Hj e os pj são obtidos resolvendo os sistemas recorrentes
Hj = (Bj −AjHj−1)−1Cj
e
pj = (Bj −AjHj−1)−1(yj −Ajpj−1)
onde
H1 = B
−1
1 C1
e
p1 = B
−1
1 y1
Finalmente, por substituição retrógrada, obtemos
xn = pn
e
xj = pj −Hjxj+1 , j = (n− 1), (n− 2), ..., 1
36CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
1.7 Definições adicionais
Matriz redutível : A matriz quadrada A é dita redutível se for equivalente,
por uma transformação de permutação (ou seja, trocando linhas e/ou colu-
nas), à seguinte forma:
B = PTAP =
⎡⎣ B11 O
B21 B22
⎤⎦ (1.16)
onde B11 e B22 são submatrizes quadradas de ordem maior ou igual a 1 .
Em um sistema linear, a reducibilidade da matriz dos coeficientes implica
em um desacoplamento de equações, como pode ser visto a seguir:
Sendo a matrizA redutível, o sistemaAx = y pode ser equivalentemente
representado por ⎡⎣A11 O
A21 A22
⎤⎦⎡⎣ x1
x2
⎤⎦ =
⎡⎣ y1
y2
⎤⎦
que, como se pode facilmente ver, se desdobra nos dois subsistemas
A11x1 = y1
e
A21x1 +A22x2 = y2
Portanto, o primeiro subsistema pode ser resolvido independentemente do
segundo.
Uma matrizA é irredutível quando não puder ser escrita na forma (1.16).
Dominância diagonal : A matrizA = [aij ] é dita ter dominância diagonal
quando
| aii |≥
X
j 6=i
| aij | , ∀i = 1, 2, ..., n
Como exemplo, a matriz
A =
⎡⎢⎢⎢⎣
2 −1 0
−2 2 0
2 1 3
⎤⎥⎥⎥⎦
possui dominância diagonal, pois
P
j 6=i
| a1j |= 1 <| a11 | ;
P
j 6=i
| a2j |= 2 =|
a22 | e
P
j 6=i
| a3j |= 3 =| a33 | .
Dominância diagonal estrita: A matriz A = [aij ] é dita possuir dom-
inância diagonal estrita quando
| aii |>
X
j 6=i
| aij | , ∀i = 1, 2, ..., n
1.7 DEFINIÇÕES ADICIONAIS 37
Como exemplo, a matriz
A =
⎡⎢⎢⎢⎢⎢⎢⎣
2 −1 0 0
−1 3 −1 0
0, 5 2 −4 1
0 0 0 1
⎤⎥⎥⎥⎥⎥⎥⎦
atende à condição de dominância diagonal estrita, pois em qualquer de suas
linhas o valor absoluto do elemento na diagonal principal supera a soma dos
valores absolutos dos elementos fora da diagonal, como pode ser visto.
Matriz irredutivelmente de diagonal dominante: A matriz A = [aij ] é
dita irredutivelmente de diagonal dominante quando
(i) for irredutível
(ii) for de diagonal dominante, isto é, | aii |≥
P
j 6=i
| aij | , ∀i = 1, 2, ..., n
(iii) existir pelo menos um k tal que | akk |>
P
j 6=i
| akj | , isto é, quando em
pelo menos uma das linhas de A ocorrer dominância diagonal estrita.
É fácil ver que a matriz A abaixo atende às condições(i)→(iii), sendo
portanto, irredutivelmente de diagonal dominante:
A =
⎡⎢⎢⎢⎢⎢⎢⎣
2 −1 0 0
−1 2 −1 0
0 −1 2 −1
0 0 −1 2
⎤⎥⎥⎥⎥⎥⎥⎦
Cabe aqui ressaltar que uma matriz irredutível e com dominância diag-
onal não é necessariamente irredutivelmente de diagonal dominante, i.
e., embora satisfaça às condições (i) e (ii), pode não atender à condição
(iii), como é o caso da matriz abaixo:
A =
⎡⎢⎢⎢⎢⎢⎢⎣
2 −2 0 0
−1 2 −1 0
0 −1 2 −1
0 0 −2 2
⎤⎥⎥⎥⎥⎥⎥⎦
Matriz não-negativa: A matriz A = [aij ] é dita não-negativa quando
aij ≥ 0 , ∀i, j
Costuma-se indicar uma matriz não-negativa por A ≥0 .
38CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
Matriz positiva: A matriz A = [aij ] é dita positiva quando
aij > 0 , ∀i, j
e é indicada por A >0 .
1.8 O teorema de Gershgorin. Raio espectral
Este teorema permite estabelecer um limite superior para o módulo do au-
tovalor de maior módulo de uma dada matriz A real ou complexa e tem o
seguinte enunciado:
"Os autovalores de uma matriz A = [aij ] de ordem n , com elementos
complexos, estão situados na união dos n discos | z − aii |≤
P
j 6=i
| aij | ,
i = 1, 2, ..., n"
Demonstração: Seja λ um autovalor de A e u o autovetor associado.
Suponha que ui , i-ésima componente de u , seja aquela de maior módulo,
i.e.,
| ui |= max
j
| uj |
Como Au =λu , a i-ésima componente desta igualdade forneceX
j
aijuj = λui
que pode ser escrita como
(λ− aii)ui =
X
j 6=i
aijuj
Tomando valores absolutos de ambos os membros, teremos que
| λ− aii || ui |=|
X
j 6=i
aijuj |≤
X
j 6=i
| aij || uj |
Mas, como ui é a componente de u de maior módulo, podemos majorar a
desigualdade acima:
| λ− aii || ui |≤ (
X
j 6=i
| aij |) | ui |
e como ui 6= 0 (ou u não seria autovetor de A ), podemos dividir a desigual-
dade acima por | ui | :
| λ− aii |≤
X
j 6=i
| aij |
Como não fizemos restrição alguma quanto a λ, o resultado vale para qual-
quer autovalor de A. A figura (1.4) é ilustrativa:
1.8 O TEOREMA DE GERSHGORIN. RAIO ESPECTRAL 39
Im
0 Re
Σ |aij|j≠iaii
Figura 1.4: Teorema de Gerschgorin
Raio espectral de uma matriz quadrada A : É o módulo do maior auto-
valor, em módulo, de A .
ρ(A) = max
i
| λi |
Pelo terorema anterior, segue imediatamente que
ρ(A) ≤ max
i
X
j
| aij |
como ilustra a figura (1.5):
Note que | aii | +
P
j 6=i
| aij |=
P
j
| aij |. Como a matriz AT possui os
mesmos autovalores que A, o teorema de Gershgorin conduz a:
| z − aii |≤
X
i6=j
| aij |
e, analogamente ao que foi deduzido anteriormente, conclui-se que
ρ(AT ) = ρ(A) ≤ max
j
X
i
| aij |
Podemos reunir estes dois resultados da seguinte forma:
ρ(A) ≤ min(max
j
X
i
| aij |,max
i
X
j
| aij |)
40CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
Im
0 Re
Σ |aij|j≠i
|aii|
aii
Figura 1.5: Raio espectral de uma matriz
Como exemplo do que foi visto, considere a matriz A abaixo:
A =
⎡⎣ 1 2
3 4
⎤⎦
onde maxj
P
i
| aij |= 6 e maxi
P
j
| aij |) = 7 . Então, ρ[14](A) ≤ min(6, 7)
ou μ(A) ≤ 6 .
1.9 Formas quadráticas.Matriz definida positiva
Forma quadrática: É todo polinômio homogêneo do segundo grau nas var-
iáveis xi(i = 1, 2, ..., n) , do tipo
Q =
nX
i=1
nX
j=1
aijxixj
com os aij reais e satisfazendo a
aij = aji
Considere agora a matriz real e simétrica A = [aij ] , onde os aij são os
coeficientes da forma quadrática Q definida acima. Com
x =
h
x1, x2, · · · , xn
iT
1.9 FORMAS QUADRÁTICAS.MATRIZ DEFINIDA POSITIVA41
é fácil verificar que podemos escrever
Q = xTAx
A matrizA associada à forma quadrática Q , na representação acima, possui
n autovalores, os quais são também autovalores associados à formaQ . Como
A é real e simétrica, concluimos que os autovalores associados a uma forma
quadrática são reais.
Matriz (forma quadrática) definida positiva: A matriz real e simétrica
A (ou a forma quadrática a ela associada) é dita definida positiva quando
(i) xTAx >0 , ∀x 6= 0
(ii) xTAx =0⇐⇒ x = 0
ou equivalentemente,
(i’) Q>0 , ∀x 6= 0
(ii’)Q=0⇐⇒ x = 0
Teorema: "A matriz real e simétrica A é definida positiva se e só se
seus autovalores forem todos positivos."
Demonstração: Mostremos inicialmente que se A (ou Q) é definida pos-
itiva, seua autovalores são positivos:
Seja Ay =λy com y 6= 0 . Então, Q(y) = yTAy >0 , por hipótese.
Como y é autovetor de A , decorre que Q(y) = yTλy e como yTy >0 ,
pois y 6= 0 , conclui-se que λ > 0 . Para provar que se A possuir todos os
seus autovalores positivos então ela será definida positiva, considere a forma
Q(y) = yTAy que será reescrita considerando a expansão de y na base de
vetores ortogonais de A . Assim, fazendo
y =
nX
i=1
αixi
decorre que
Q =
nX
j=1
αjx
T
j A
nX
i=1
αixi
=
nX
i,j
λiαjαix
T
j xi
e como xTj xi = δij , vem que
Q =
nX
i=1
α2iλi
Como, por hipótese, λi > 0,∀i = 1, 2, ..., n , teremos duas possibilidades:
42CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
(i) αi = 0,∀i = 1, 2, ..., n . Nesse caso, y = 0⇒Q = 0
(ii) Existe pelo menos um αi 6= 0 . Nesse caso, y 6= 0⇒Q > 0
e portanto A (ou Q) é definida positiva, completando a demonstração
do teorema. Um outro resultado de interesse é o seguinte:
Teorema: "Uma matrizA (ou a forma quadrática associada Q) definida
positiva possui todos os elementos da diagonal principal positivos."
Demonstração: Da definição de Q, é facil ver que
aii = e
T
i Aei
onde o vetor
ei = [0, ..., 0, 1, 0, ..., 0]
T
é construido de modo que o 1 esteja na i-ésima posição. Logo, aii = Q(ei) e
como ei 6= 0 , segue imediatamente que Q > 0 e portanto aii > 0. Como não
restringimos i, o exposto vale para qualquer elemento da diagonal principal
de A, completando a demonstração.
A seguir, apresentamos dois resultados que ligam matrizes reais e simétri-
cas com propriedades de dominância diagonal a formas quadráticas definidas
positivas.
Teorema: "Seja A uma matriz real e simétrica, com todos os elementos
da diagonal positivos e estritamente de diagonal dominante. Então, A é
definida positiva."
Demonstração: O fato de A ser real e simétrica implica que todos os
seus autovalores são reais. Como também vale aii > 0∀i = 1, 2, ..., n , a
dominância diagonal estrita conduz a
aii >
X
j 6=i
| aij |
Portanto,
min
n
λn(A) ≥ min
i
(aii −
X
j 6=i
| aij |) > 0
como ilustra a figura (1.6)
Logo, os autovalores de A são todos positivos e ela é definida positiva.
Teorema: "Seja A uma matriz real e simétrica, com todos os elementos
da diagonal positivos e irredutivelmente de diagonal dominante. Então, A
é definida positiva."
Demonstração: Nesse caso, temos que aii ≥
P
j 6=i
| aij |, sendo que existe
pelo menos um k tal que
akk >
X
j 6=k
| akj |
1.10 MATRIZ DE STIELTJES. MATRIZ M 43
Im
0 Re
j ≠1
a11 - Σ |a1j| a11 a22 a33 a44
Figura 1.6: Matriz definida positiva
Portanto, pelo menos um círculo de Gershgorin não contém z = 0 . Então,
min
n
λn(A) ≥ min
i
(aii −
X
j 6=i
| aij |) ≥ 0
Para provar que a matriz é definida positiva, devemos eliminar a igualdade
de condição acima. Isto pode ser feito, pois é possível mostrar[14] que, se
um autovalor de A estiver sobre um dos círculos de Gershgorin então todos
os demais círculos devem conter esse ponto. Mas pelo menos um dos círculos
não passa por z = 0 , como vimos ante, excluindo portanto z = 0 de ser um
autovalor de A . Decorre dai que A é definida positiva.
1.10 Matriz de Stieltjes. Matriz M
Matriz de Stieltjes (matriz S) : A matriz real A, com aij ≤ 0 , ∀i 6= j é dita
uma matriz de Stieltjes (matriz S), se for simétrica e definida positiva.
Uma conseqüência da definição de matriz S, como já foi visto antes, é
que os elementos da sua diagonal principal são sempre positivos. Seja a
matriz A abaixo:
A =
⎡⎢⎢⎢⎣
1 −3/2 0
−3/2 3 0
0 0 1
⎤⎥⎥⎥⎦
que é real, simétrica e com aij ≤ 0 , ∀i 6= j . Para verificar se ela é uma
matriz S, devemos examinar a forma quadrática associada:
Q = xTAx =
h
x1, x2, x3
i
A
⎡⎢⎢⎢⎣
x1
x2
x3
⎤⎥⎥⎥⎦
= x21 + 3x
2
2 + x
2
3 − 3x1x2
44CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
que pode ser posta na forma
Q = (x1 −
3
2
x2)
2 +
3
4
x22 + x
2
3
É fácil ver que
(i) Q > 0 , ∀x 6= 0
(ii) Q =0⇐⇒ x = 0
e portanto A é definida positiva e também uma matriz S. Ressalte-se
ainda que a matriz dada é redutível e não possui dominância diagonal. Al-
guns autores[6] acrescentam as propriedaes de irreducibilidade e dominância
diagonal à definição de matriz S. Não faremos uso dessa definição estendida,
seguindo o ponto de vista de Varga[14].
Matriz M :
A matriz real A, com aij ≤ 0 , ∀i 6= j é dita uma matriz M se A for não
singular e A−1 ≥ 0.
Está assegurado[14] que todo matriz S é também uma matriz M e por-
tanto podemos enunciar o importante resultado:
"A inversa de uma matriz S é não negativa."
No exemplo de matriz S anteriormente apresentado, temos
A−1 =
⎡⎢⎢⎢⎣
4 2 0
2 4/3 0
0 0 1
⎤⎥⎥⎥⎦
onde, claramente A−1 ≥ 0.
Um outro enunciado importante[14] é:
"A inversa de uma matriz S irredutível é positiva."
Como exemplo, seja a matriz S irredutível
A =
⎡⎢⎢⎢⎣
1 −3/2 0
−3/2 3 −1/2
0 −1/2 1
⎤⎥⎥⎥⎦
Note que, de acordo com a definição aqui adotada, A embora sendo uma
matriz S, não é de diagonal dominante. Sua inversa é
A−1=
⎡⎢⎢⎢⎣
11/2 3 3/2
3 2 1
3/2 1 3/2
⎤⎥⎥⎥⎦
e vemos que A−1 > 0.
1.11 NORMAS VETORIAIS E MATRICIAIS 45
1.11 Normas vetoriais e matriciais
Norma vetorial : k x k define uma norma em um espaço vetorial se, para
todo x desse espaço, as seguintes propriedades são válidas:
(i)k x k= 0 se e só se x = 0
(ii) k x+ y k≤k x k + k y k
(iii) k cx k=| c |k x k
De (ii) e (iii) decorre que
(iv) k x k≥ 0
que pode ser verificado fazendo, em (iii), c = −1 . Então, k −x k=k x k
.
Fazendo agora em (ii) y = −x , resulta k 0 k≤k x k + k −x k ou 2
k x k≥ 0 ou, finalmente, k x k≥ 0 . Definiremos agora algumas normas
vetoriais muito usadas:
Norma L :
k x kL= max
1≤i≤n
| xi |
.
Exemplo : Seja x =
h
1, i, 2 + 2i
iT
definido sobre C . Então,max1≤i≤3 |
xi |= 2
√
2 e então, k x kL= 2
√
2 .
Norma C :
k x kC=
nX
i=1
| xi |
.
Para o vetor acima, k x kC= 1 + 1 + 2
√
2 = 2 + 2
√
2 = 2(1 +
√
2) .
Norma Eulideana :
k x kE= [
nX
i=1
| xi |2]1/2
.
Para o mesmo vetor, k x kE=
√
1 + 1 + 8 =
√
10.
A seguir definiremos normas matriciais empregadas em conjunto com as
normas vetoriais anteriormente definidas. Antes porém, definimos
Norma matricial : k A k define uma norma em um espaço matricial se
as seguintes propriedades forem válidas:
(i)k A k= 0 se e só se A = 0
(ii) k A+B k≤k A k + k B k
(iii) k cA k=| c |k A k
De (ii) e (iii) decorre que
(iv) k A k≥ 0
Uma norma matricial é dita consistente com uma dada norma vetorial
se, para todo x ,
k Ax k≤k A kk x k
46CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
Norma matricial L :
k A kL= max
1≤i≤n
nX
j=1
| aij |
.
Pode-se mostrar que esta norma matricial é consistente com a norma
vetorial L, k x kL= max1≤i≤n | xi |. Assim,
k Ax kL= max
1≤i≤n
nX
j=1
| aijxj |≤ max
1≤i≤n
nX
j=1
| aij || xj |
≤ max
i
nX
j=1
| aij | max
i
| xi |
ou seja,
k Ax kL≤k A kLk x kL
Norma matricial C :
k A kC= max
1≤j≤n
nX
i=1
| aij |
.
Pode-se mostrar a consistência dessa norma com a norma vetorial C,
k x kC=
nP
i=1
| xi | . Assim,
k Ax kC=
nX
i=1
|
nX
j=1
aijxj |≤
nX
i=1
nX
j=1
| aij || xj |
≤
nX
j=1
nX
i=1
| aij || xj |≤
nX
j=1
(max
j
nX
i=1
| aij |) | xj |
≤ (max
j
nX
i=1
| aij |)
nX
j=1
| xj |
ou
k Ax kC≤k A kCk x kC
Uma norma matricial consistente com uma norma vetorial é dita subordi-
nada a essa norma vetorial se, para toda matriz A existir um vetor y 6= 0 ,
tal que
k Ay k=k A kk y k
Em [7] é mostrado que k A kL é subordinada a norma vetorial k x kL. As
seguintes normas matriciais são também utilizadas:
1.11 NORMAS VETORIAIS E MATRICIAIS 47
Norma matricial espectral :
k A kS= max
1≤i≤n
| √μi |
onde os μi são os autovalores da matriz A
T
A .
Pode-se mostrar [7] que a norma matricial espectral é subordinada a
norma vetorial Euclideana.
Norma matricial Euclideana : k A kE=
¯̄̄̄
¯
s
nP
i,j
| aij |2
¯̄̄̄
¯ .
Pode-se mostrar [14]que esta norma matricial Euclideana é consistente,
mas não subordinada, à norma vetorial Euclideana. O teorema seguinte
permite relacionar a norma de uma matriz com seu raio espectral:
Teorema: "Seja A uma matriz definida sobre C e seja k A k uma
norma matricial consistente com uma norma vetorial k x k. Então, se A for
não singular,
1
k A−1 k ≤| λi |≤k A k
onde os λi são os autovalores de A."
Demonstração: Seja xi o autovetor de A associado a λi. Então,
Axi = λixi
Tomando a norma vetorial de ambos os membros, teremos:
k Axi k=k λixi k
mas
k Axi k≤k A kk xi k
pois k A k é consistente com k x k. Portanto,
k λixi k≤k A kk xi k
e como
k λixi k=| λi |k xi k
segue que
| λi |≤k A k
Como A é inversível, seus autovalores são tais que
| λi(A−1) |=
1
| λi(A) |
e aplicando o resultado acima a A−1 vem:
1
| λi(A) |
≤k A−1 k
48CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
ou
| λi |≥
1
k A−1 k
o que completa a demonstração. Como o teorema vale para qualquer auto-
valor de A , segue imediatamente que
1
k A−1 k ≤ ρ(A) ≤ k A k
onde ρ(A) é o raio espectral de A . Utilizando as normas L e C , chegamos
a:
ρ(A) ≤ max
i
nX
j=1
| aij |
ρ(A) ≤ max
j
nX
i=1
| aij |
resultados anteriormente obtidos pela utilização do teorema de Gershgorin.
A norma E conduz a:
ρ(A) ≤
¯̄̄̄
¯̄
vuut nX
i,j
| aij |2
¯̄̄̄
¯̄
1.12 Matrizes não negativas
Abordamos a seguir três teoremas importantes sobre matrizes não negativas.
Teorema: "Seja A ≥0 e irredutível. Então:
a) A tem um autovalor real λ1 tal que λ1 = ρ(A)
b) λ1 é não repetido
c) A λ1 está associado um autovetor x1 > 0
d) A matriz A não possui dois autovetores não negativos independentes
e) aumentando qualquer aij aumenta também ρ(A)"
A demonstração deste teorema pode ser encontrada em [13]
Teorema: "Seja A ≥0 e irredutível. Então, ou
nX
j=1
aij = ρ(A) , ∀i = 1, 2, ..., n
ou
min
i
nX
j=1
aij < ρ(A) < max
i
nX
j=1
aij ”
1.12 MATRIZES NÃO NEGATIVAS 49
Demonstração: Sejam
nP
j=1
aij = a , ∀i = 1, 2, ..., n e tomemos o vetor
x = {xi} , com xi = 1 , ∀i = 1, 2, ..., n . Então,
Ax =ax
Como x 6= 0 , esta equação nos informa que a é um autovalor deA.Portanto,
ρ(A) ≥ a (1.17)
Entretanto, resultados anteriores estabelecem que
ρ(A) < max
i
nX
j=1
| aij | (1.18)
e como A ≥0 , concluimos que ρ(A) ≤ a. De (1.17) e (1.18) vemos que
só pode ser ρ(A) = a , o que conclui a primeira parte da demonstração.
Suponha agora que os
nP
j=1
aij possam ser distintos para cada j. Construamos
a matriz B ≥0 tal que
nX
j=1
bij = b , ∀i = 1, 2, ..., n
com
b = max
i
nX
j=1
aij
Neste caso, a primeira parte do teorema garante que ρ(B) = b . Como A ≥0
e irredutível, o teorema anterior garante que ρ(A) < ρ(B) . Portanto,
ρ(A) < max
i
nX
j=1
aij
Analogamente, construindo C ≥0 tal que
nX
j=1
cij = c , ∀i = 1, 2, ..., n
onde
c = min
i
nX
j=1
aij
concluimos que
ρ(A) > c
50CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
ou
ρ(A) > min
i
nX
j=1
aij
que completa a demonstração do teorema. Finalmente, enunciamos uma
forma mais fraca do teorema (i):
Teorema: "Seja A ≥0 . Então,
a) A tem um autovalor real λ1 ≥ 0 tal que λ1 = ρ(A)
b) A λ1 está associado um autovetor x ≥0
c) Aumentando qualquer aij , ρ(A) não decresce."
A demonstração deste teorema também pode ser encontrada em [13]
1.13 Exercícios
1) Avalie os seguintes produtos matriciais:
a)
⎡⎣ 1 2
1 −1
⎤⎦⎡⎣ 1 0 1
1 −1 1
⎤⎦ b) h a1, a2, · · · , an i
⎡⎢⎢⎢⎢⎢⎢⎣
b1
b2
...
bn
⎤⎥⎥⎥⎥⎥⎥⎦
c)
⎡⎢⎢⎢⎢⎢⎢⎣
b1
b2
...
bn
⎤⎥⎥⎥⎥⎥⎥⎦
h
a1, a2, · · · , an
i
d)
⎡⎣ c1 0
0 c2
⎤⎦⎡⎣ a11 a12
a21 a22
⎤⎦
e)
⎡⎣ a11 a12
a21 a22
⎤⎦⎡⎣ c1 0
0 c2
⎤⎦
2) Se o produto A(BC) for definido, mostre que ele é da forma
[air] ([brs] [csj ]) =
∙P
r
P
s
airbrscsj
¸
e deduza então que A(BC) = (AB)C .
3) Se A e B são matrizes quadradas de ordem n , indique quando é válida
a relação
1.13 EXERCíCIOS 51
(A+B)(A−B) = A2−B2
Dê um exemplo no qual esta relação não seja válida.
4) Encontre a matriz (2, 2) mais geral A tal que A2= 0
5) Se A e B comutam, prove que AT e BT também comutam.
6) Sejam A e B matrizes reais e simétricas de ordem n. Prove que AB
é simétrica se e só se A e B comutam.
7) Determinea matriz M tal que AMB = C , com
A =
⎡⎢⎢⎢⎣
2 1 1
1 1 0
0 0 1
⎤⎥⎥⎥⎦ , B =
⎡⎣ 3 1
1 1
⎤⎦ , C =
⎡⎢⎢⎢⎣
1 1
2 2
1 1
⎤⎥⎥⎥⎦
8) Se A e B comutam e B é não singular, prove que A e B−1 também
comutam.
9) Para qualquer matriz A(m,n) , a matriz P é dita inversa à esquerda
de A se PA = I e a matriz Q é dita inversa à direita de A se AQ = I. .
Mostre que a matriz
A =
⎡⎢⎢⎢⎣
1 1
1 2
1 1
⎤⎥⎥⎥⎦
tem inversa à esquerda dependente de dois parâmetros arbitrários, mas
não possui inversa à direita.
10) Mostre que o sistema⎧⎪⎪⎪⎨⎪⎪⎪⎩
2x1 −2x2 +x3 = λx1
2x1 −3x2 +2x3 = λx2
−x1 +2x2 = λx3
possui solução não trivial somente se λ = 1 ou λ = −3 . Obtenha a solução
geral para cada um dos valores de λ .
11) Determine todos os autovetores independentes da matriz
A =
⎡⎣ 1 −3
2 1
⎤⎦
52CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
12) Encontre todos os autovetores independentes e os autovetores adjuntos
da matriz
A =
⎡⎣ 3 4
1 2
⎤⎦
e mostre que os autovetores de A são ortogonais aos autovetores adjun-
tos, i.e., aos autovetores de AT .
13) Determine os autovetores da matriz
A =
⎡⎣ 0 1
1 0
⎤⎦
14) Encontre os autovetores de
A =
⎡⎢⎢⎢⎣
1 1 0
0 1 1
0 0 1
⎤⎥⎥⎥⎦
15) Seja
A =
⎡⎣ 0 2
1 1
⎤⎦
a) Encontre os autovalores de A e de A−1 .
b) Encontre os correspondentes autovetores.
16) Calcule todos os autovalores e autovetores de
A =
⎡⎢⎢⎢⎣
3 0 −4
0 3 5
0 0 −1
⎤⎥⎥⎥⎦
17) Calcule todos os autovalores e autovetores de
A =
⎡⎢⎢⎢⎣
3 −3 −4
0 3 5
0 0 −1
⎤⎥⎥⎥⎦
18) Construa a matrizA real e simétrica, de terceira ordem, com autova-
lores 1, 2, e 4 , aos quais estão associados os autovetores x1 = [1, 0, 0]T ,
x2 = [0, 1, 1]
T e x3 = [0, 1,−1]T .
1.13 EXERCíCIOS 53
19) seja a matriz real
A =
⎡⎣ 2 3
1 2
⎤⎦
de autovalores λ1 e λ2 . Determine a matriz P e sua inversa P−1 tais
que
P−1AP =
⎡⎣ λ1 0
0 λ2
⎤⎦
20) Ache os autovetores normalizados da matriz
A =
⎡⎣ 4 1
1 1
⎤⎦
e prove que a matriz
B =
⎡⎣ u1 u2
↓ ↓
⎤⎦
onde u1 e u2 são os autovetores normalizados de A, satisfaz a BT= B−1
.Calcule BAB−1 .
21) A matriz A é diagonalizável se e somente se admite n autovetores
linearmente independentes. Baseado neste fato, para que valores de a as
matrizes abaixo são diagonalizáveis?
a) A =
⎡⎣ 1 1
0 a
⎤⎦
b) B =
⎡⎣ 1 a
0 1
⎤⎦
22) Mostre que a matriz A =
⎡⎣ 1 2
3 2
⎤⎦ é semelhante à matriz B =
⎡⎣ 4 0
0 −1
⎤⎦
.
23) Seja A uma matriz real qualquer, de ordem n. Mostre que a matriz
B = ATA possui autovalores reais e explique porque é sempre possível en-
contrar pelo menos um conjunto linearmente independente de autovalores
de B .
24) Calcule os autovalores e autovetores de
54CAPíTULO 1 MATRIZES E TRANSFORMAÇÕES LINEARES
A =
⎡⎣ 1 1
−1 1
⎤⎦
e expanda o vetor x =[1, 0]T nos autovetores de A . Calcule, sem elevar
à potência dada, o vetor b = A10x .
25) Utilize a forma diagonal para encontrar An , com
A =
⎡⎣ −3 4
−1 2
⎤⎦
26) Seja A uma matriz quadrada de ordem n . Sabendo que A2 = A
(ou seja, que A é idempotente):
a) Encontre seus autovalores
b)Encontre uma matriz idempotente de ordem 2 .
27) Se A é uma matriz real e simétrica, mostre que a solução da equação
não-homogênea
Ax−λx = u
pode ser posta na forma
x =
nP
i=1
αi
λi−λei
onde λi e ei são autovalores e autovetores de A (assuma λ 6= λi,∀i, i =
1, 2, ..., n ). Determine os coeficientes αi .
28) Mostre que o problema acima não tem solução se λ for igual a um
dos autovalores de A , a menos que u seja ortogonal ao autovetor associado
a λ .
29) Encontre todos os autovetores e vetores auxiliares de
A =
⎡⎢⎢⎢⎣
1 1 0
0 1 1
0 0 1
⎤⎥⎥⎥⎦
30) O sistema dudt = Au(t) , com
A =
⎡⎣ 4 2
2 1
⎤⎦ e u(0) =
⎡⎣ 1
1
⎤⎦
tem solução matricial
u(t) = eAtu(0)
1.13 EXERCíCIOS 55
Levando em conta que A é simétrica, calcule u(1) .
[Sugestão]: Avaliar eAt é difícil, se A não for uma matriz diagonal.
Encontre a transformação linear v =Mu que diagonaliza a matriz do prob-
lema. Note ainda que A é independente do tempo.
Capítulo 2
Diferenças Finitas
2.1 Exemplos introdutórios
Podemos calcular aproximadamente a derivada de uma dada função y = y(x)
em um ponto x0 da seguinte maneira:
dy
dx
∼= y(x0 +∆x)− y(x0)
∆x
(2.1)
Este processo consiste em aproximar a parte da curva y(x) entre x0 e x0+∆x
pela secante entre y(x0) e y(x0 +∆x). A figura abaixo é ilustrativa:
Podemos nos valer de uma relação deste tipo para obter aproximações,
em determinados pontos, da função dy/dx , em um intervalo [a, b]. Seja y =
y(x) uma função conhecida no intervalo [a, b]. Para facilidade de raciocínio,
dividamos este intervalo [a, b] em J subintervalos iguais a ∆x = b−aJ , ou
seja, estamos considerando J + 1 pontos x , de modo que qualquer ponto
resultante desta subdivisão seja dado por
y
x0 x0+Δx
y = y(x)
0 x
Figura 2.1: Aproximação da derivada em um ponto
57
58 CAPíTULO 2 DIFERENÇAS FINITAS
y y(b)
0 x
y(a)
Δx
0 j21 Jj...
 b a
Figura 2.2: Aproximação da derivada em um domínio
xj = a+ j∆x, 0 ≤ j ≤ J − 1 (2.2)
Veja a figura (2.2):
Nestes pontos discretos no intervalo [a, b] , temos que:
y(xj) = y(a+ j∆x) ≡ yj (2.3)
Pela aproximação (2.1),
dy
dx
|x=xj∼=
y(xj+1)− y(xj)
∆x
=
yj+1 − yj
∆x
, j = 0, J − 1 (2.4)
e podemos portanto obter aproximações para dy/dx em J pontos x. É
também bastante conhecida a aproximação para a área sob a curva y = y(x)
no intervalo [a, b] . Seja
A =
bZ
a
y(x)dx
a área sob a curva. Fazendo
y(x) = yj ; para xj ≤ x ≤ xj+1 (2.5)
ou seja, aproximando a parte de y(x) entre [xj , xj+1] pelo seu valor em
x = xj , teremos:
A ∼= ∆x(y0 + y1 + ...+ yJ−1) (2.6)
2.2 OPERADORES DE DIFERENÇAS 59
ou
A ∼=
J−1X
k=0
yk∆x (2.7)
Estes dois exemplos ilustram o fato de que derivadas de uma função con-
hecida podem ser aproximadas por diferenças entre valores discretos da
função em determinados pontos da variável independente, bem como a in-
tegral entre dois pontos desta função pode ser aproximada por uma soma
finita. É importante observar que quanto maior o número de pontos (menor
∆x ), melhor a tangente em x = xj será representada pela secante entre
xj e xj+1, assim como melhor será representada a área entre xj e xj+1 pe-
los retângulos de base ∆x e altura yj .Neste texto estudaremos a solução
numérica das equações diferenciais ordinárias e parciais e métodos de in-
tegração numérica. Para tal, abordaremos inicialmente os operadores de
diferenças e o operador somatório.
2.2 Operadores de diferenças
Seja h = ∆x, o espaçamento entre abcissas. Definem-se os operadores de
diferenças de primeira ordem:
Operador diferença avançada
∆y(xj) = ∆yj ≡ y(xj + h)− y(xj) = yj+1 − yj (2.8)
Operador diferença recuada
∇y(xj) = ∇yj ≡ y(xj)− y(xj − h) = yj − yj−1 (2.9)
Operador diferença centrada
δy(xj) = δyj ≡ y(xj +
h
2
)− y(xj −
h
2
) = yj+ 1
2
− yj− 1
2
(2.10)
Usando esta notação, a equação (2.4) pode ser reescrita como:
dy
dx
|x=xj∼=
∆yj
h
(2.11)
Os operadores de diferenças apresentam propriedades semelhantes às do
operador diferencial. Como ilustração, demonstraremos a seguinte pro-
priedade:
∆ [f(xj)g(xj)] = f(xj)∆g(xj) + g(xj + h)∆f(xj) (2.12)
Por definição,
60 CAPíTULO 2 DIFERENÇAS FINITAS
∆ [f(xj)g(xj)] = f(xj + h)g(xj + h)− f(xj)g(xj)
Somando e subtraindo f(xj)g(xj+h) ao segundo membro da equação acima,
vem
∆ [f(xj)g(xj)] = f(xj + h)g(xj + h)− f(xj)g(xj) + f(xj)g(xj + h)
−f(xj)g(xj + h) = f(xj + h)g(xj + h)− f(xj)g(xj + h)− f(xj)g(xj + h)
−f(xj)g(xj) = [f(xj + h)− f(xj)] g(xj + h) + f(xj)[g(xj + h)− g(xj)]
= ∆f(xj)g(xj + h) + f(xj)∆g(xj)
Como queríamos demonstrar. A propriedade (2.12) é semelhante à con-
hecida relação do cálculo diferencial
d [f(x)g(x)] = df(x)g(x) + f(x)dg(x)
A aplicação repetida dos operadores de diferenças também é facilmente
obtida. Assim,
∆2f(xj) = ∆
2fj = ∆ ·∆fj =
∆ (fj+1 − fj) = fj+2 − fj+1 − (fj+1 − fj)
ou,
∆2f(xj) = fj+2 − 2fj+1 + fj (2.13)
As seguintes relações podem ser facilmente demonstradas por indução finita:
∆nyj =
nX
k=0
(−1)k (nk) yj+n−k (2.14)
∇nyj =
nX
k=0
(−1)k (nk) yj−k (2.15)
δ2nyj =
2nX
k=0
(−1)k
¡
2n
k
¢
yj+n−k (2.16)
O operador somatórioé definido da seguinte forma:
Se
zj = ∆yj (2.17)
então X
zj = yj (2.18)
2.2 OPERADORES DE DIFERENÇAS 61
Portanto, o operador
P
é o operador inverso do operador ∆. Isto pode ser
visto fazendo
∆
X
zj = ∆yj = zj
ou
∆
X
= I (2.19)
onde I é o operador identidade. É facil verificar queX
∆ = I (2.20)
donde se conclui que o operador inverso é único. Analogamente ao que
foi dito sobre os operadores de diferenças, o operador somatório apresenta
relações semelhantes ao operador integral. A propriedadeX
(fj∆gj) = fjgj −
X
(gj+1∆fj) (2.21)
que demonstramos abaixo é ilustrativa: FazendoX
(fj∆gj) = zj (2.22)
teremos,
∆zj = fj∆gj
Usando, no segundo membro dessa igualdade a eq.(2.12), resulta:
∆zj = ∆ (fjgj)− gj+1∆fj
e, da definição do operador somatório, segue que
zj =
X
∆ (fjgj)−
X
gj+1∆fj (2.23)
Usando, na equação acima, a equação (2.22), vem:X
(fj∆gj) =
X
∆ (fjgj)−
X
gj+1∆fj
Como
P
∆ = I , segue queX
(fj∆gj) = fjgj −
X
gj+1∆fj
Como queríamos demonstrar. Aqui também se repete uma estreita semel-
hança com a correspondente expressãoZ
udv = uv −
Z
vdu
do cálculo diferencial. Convém agora definir o operador deslocamento,
62 CAPíTULO 2 DIFERENÇAS FINITAS
Eyj = yj+1 (2.24)
e o seu operador inverso,
E−1yj = yj−1 (2.25)
É facil mostrar que
∆ = E − I (2.26)
∇ = I −E−1 (2.27)
2.3 Formação de equações de diferenças
Seja y = y(x) uma função contínua e continuamente diferenciável em um
intervalo [a, b]. O valor dessa função no ponto xj+h , calculado por expansão
em série de Taylor em torno do ponto xj é dada por:
y(xj+h) ≡ yj+1 = yj+h
dy
dx
|xj +
h2
2!
d2y
dx2
|xj +...+
hn
n!
dny
dxn
|xj +... (2.28)
que pode ser escrita, por meio do operador deslocamento, como
Eyj =
∙
I + h
d
dx
|xj +
h2
2!
d2
dx2
|xj +...+
hn
n!
dn
dxn
|xj +...
¸
yj (2.29)
A série entre parênteses é a expansão formal de eh
d
dx . Assim,
Eyj = e
h d
dx yj (2.30)
Por meio desta série podemos obter expressões para derivadas de qualquer
ordem de y(x) , em termos dos vários operadores de diferenças. Por exemplo,
dy
dx
|xj=
1
h
³
ln eh
d
dx
´
yj (2.31)
Mas, de (2.26),
E = I +∆ (2.32)
donde
dy
dx
|xj=
1
h
(ln (I +∆)) yj (2.33)
2.3 FORMAÇÃO DE EQUAÇÕES DE DIFERENÇAS 63
onde a expressão ln (I +∆) é também formal. Usando a expansão em série
para ln(1 + x) , na equação acima, teremos:
dy
dx
|xj=
1
h
µ
∆− ∆
2
2
+
∆3
3
− ...
¶
yj (2.34)
O termo em que truncarmos esta série irá determinar o erro de truncamento
da aproximação, como veremos mais adiante. Examinaremos, a título de
exemplo, duas aproximações para dydx |xj , resultantes do truncamento da
série obtida acima após o primeiro e o segundo termos, respectivamente.
Assim, a primeira aproximação é:
dy
dx
|xj∼=
1
h
∆yj =
yj+1 − yj
h
(2.35)
que é a mesma relação obtida em (2.1), intuitivamente. Se truncarmos (2.34)
após o termo em ∆2 , teremos:
dy
dx
|xj=
1
h
µ
∆− ∆
2
2
¶
yj ∼=
1
h
µ
yj+1 − yj −
yj+2 − 2yj+1 + yj
2
¶
(2.36)
ou,
dy
dx
|xj∼=
1
2h
(−yj+2 + 4yj+1 − 3yj) (2.37)
Vamos examinar o erro de truncamento de (2.35) e (2.37) de duas maneiras:
a primeira utiliza expansões em série de Taylor das ordenadas de y(x) em
torno de x = xj . Assim,
yj+1 = yj + h
dy
dx
|xj +
h2
2!
d2y
dx2
|xj +...+
hn
n!
dny
dxn
|xj +...
donde,
yj+1 − yj
h
=
dy
dx
|xj +
h
2!
d2y
dx2
|xj +O(h2) (2.38)
onde o último termo da equação significa que seguem-se termos da ordem de
h2 ou de ordens superiores. Se desprezarmos esses termos, a relação (2.38)
significa que o termo yj+1−yjh aproxima
dy
dx |xj com um erro de truncamento
h
2!
d2y
dx2
|xj , ou seja, da ordem de h . Quanto menor for h, menor será o erro da
aproximação. Naturalmente, o valor absoluto desse erro depende também
da magnitude da derivada d
2y
dx2
|xj . Para a aproximação (2.37), teremos:
y(xj + 2h) = yj+2 = yj + 2h
dy
dx
|xj +2h2
d2y
dx2
|xj +
8h3
6
d3y
dx3
|xj
+
16h4
24
d4y
dx4
| xj + ... (2.39)
64 CAPíTULO 2 DIFERENÇAS FINITAS
y(xj + h) = yj+1 = yj + h
dy
dx
|xj +
h2
2
d2y
dx2
|xj +
h3
6
d3y
dx3
|xj
+
h4
24
d4y
dx4
| xj + ... (2.40)
Multiplicando (2.39) por (-1) e (2.40) por 4 , somando estas duas equações
membro a membro e adicionando o termo −3yj , a ambos os membros, obter-
emos, após alguma álgebra:
1
2h
(−yj+2 + 4yj+1 − 3yj) =
dy
dx
|xj −
1
3
h2
d3y
dx3
|xj +O(h3) (2.41)
ou seja, a eq.(2.41) aproxima dydx |xj com erro de truncamento
1
3h
2 d3y
dx3 |xj
,i.e., da ordem de h2 e portanto, a eq.(2.37) é uma aproximação de ordem
superior à eq.(2.35). Entretanto, cabe ressaltar que esta última equação,
além de ser mais complicada, é uma relação que envolve três pontos, o que
acarreta dificuldades extras em relação à eq.(2.35), como será visto mais
adiante. A segunda maneira de obter o erro de truncamento consiste em
expressar os operadores de diferenças em termos da função y(x) e de suas
derivadas. Partindo de E = eh
d
dx , e como E = ∆+ I , vem que:
∆ = eh
d
dx − I (2.42)
Usando o desenvolvimento em série do operador exponencial, temos:
∆ = h
d
dx
+
¡
h ddx
¢2
2!
+ ...+
¡
h ddx
¢n
n!
+ ... (2.43)
A aproximação (2.35), quando inserimos (2.43) nos dá:
dy
dx
|xj=
1
h
µ
h
d
dx
+
h2
2!
d2
dx2
+ ...+
hn
n!
dn
dxn
¶
yj (2.44)
ou,
dy
dx
|xj=
dyj
dx
+
h
2!
d2y
dx2
|xj +O(h2) (2.45)
e o erro de truncamento é dado por,
E.T. =
h
2!
d2y
dx2
|xj (2.46)
que coincide com o resultado anteriormente deduzido. Para obtermos o
erro da aproximação (2.37) temos primeiramente que obter as potências do
operador ∆ em termos dos operadores diferenciais, assim como fizemos com
a eq. (2.43):
2.3 FORMAÇÃO DE EQUAÇÕES DE DIFERENÇAS 65
∆2 = ∆ ·∆ =
µ
h
d
dx
+
h2
2!
d2
dx2
+ ...+
hn
n!
dn
dxn
+ ...
¶
·µ
h
d
dx
+
h2
2!
d2
dx2
+ ...+
hn
n!
dn
dxn
+ ...
¶
(2.47)
ou,
∆2 =
µ
h
d
dx
¶2
+
µ
h
d
dx
¶3
+
7
12
µ
h
d
dx
¶4
+ ... (2.48)
donde, introduzindo as eqs. (2.43) e (2.48) em (2.36), obtemos:
dy
dx
|xj= (
1
h
∙
h
d
dx
+
h2
2
d2
dx2
+
h3
6
d3
dx3
+
h4
24
d4
dx4
¸
−
−1
2
∙
h2
d2
dx2
+ h3
d3
dx3
+
7
12
h4
d4
dx4
+ ...
¸
)yj (2.49)
resultando finalmente:
dy
dx
|xj=
dyj
dx
− 1
3
h2
d3yj
dx3
+O(h4) (2.50)
Vemos portanto que o erro de truncamento é
E.T. = −1
3
h2
d3yj
dx3
de ordem h2 , idêntico ao resultado anteriormente obtido. Pode-se demon-
strar que:
∆n =
µ
h
d
dx
¶n
+
n
2
µ
h
d
dx
¶n+1
+
n(3n+ 1)
24
µ
h
d
dx
¶n+2
+ ... (2.51)
(−∇)n =
µ
−h d
dx
¶n
+
n
2
µ
−h d
dx
¶n+1
+
n(3n+ 1)
24
µ
−h d
dx
¶n+2
+... (2.52)
δ2n =
µ
h
d
dx
¶2n
+
n
12
µ
h
d
dx
¶2n+2
+
n2
360
µ
h
d
dx
¶2n+4
+ ... (2.53)
66 CAPíTULO 2 DIFERENÇAS FINITAS
2.4 Soluções analíticas
Como veremos adiante, de modo geral, os métodos de determinação de
soluções analíticas de equações de diferenças são semelhantes aos utiliza-
dos na resolução de equações diferenciais. Entretanto, a título de ilus-
tração, descreveremos o método de recorrência para encontrar a solução
de uma equação de diferenças que aproxima uma equação diferencial linear
de primeira ordem. Para facilitar o raciocínio, consideremos os coeficientes
da equação diferencial como constantes. Assim, seja a equação diferencial
dy(x)
dx
+ 3y(x) = 2 (2.54)
com a condição inicial
y(0) = 1 (2.55)
A solução geral do problema formulado em (2.54) e (2.55) é:
y(x) =
1
3
£
e−3x + 2
¤
(2.56)
que, como podemos ver, é composta de uma solução particular,
yp(x) =
2
3
(2.57)
e da solução da equação homogênea associada:
dy(x)
dx
+ 3y(x) = 0 (2.58)
que é dada por
yh(x) = Ce
−3x (2.59)
onde C = 1/3 foi determinada a partir da condição inicial (2.55). Este
problema diferencial (i.e., a equação diferencial dada e a correspondente
condição inicial) pode ser aproximado por diferenças finitas, da seguinte
forma: fazendo a aproximação
dy
dx
|xj∼=
1
h
∆yj =
yj+1 − yj
h
(2.60)
com
y(xj) = yj
e
y(0) ≡ 1 (2.61)
2.4 SOLUÇÕES ANALíTICAS 67
resulta a seguinte equação de diferenças:
yj+1 − yj
h
+ 3yj = 2 (2.62)
Já vimos que
dy
dx
|xj=
1
h
∆yj +O(h) (2.63)

Continue navegando